esenbyte-header.jpg
Kostenfreie Erstberatung
Jetzt anrufen!
Hervorragend bewertet - Stand 2020
für
iOS
iPad OS
Android
Software-Entwicklung
Ihre
esenbyte
usb
storage
security
App-Agentur
Ihre kompetente App Agentur für Ihre individuelle App für den AppStore oder PlayStore
Ihr App-Entwickler in München


Sonntag, 23 Februar 2020 23:54

Teil 1: Was ist Virtualisierung und wie funktioniert sie?

geschrieben von

Virtualisierung ist eine Technik, die es ermöglicht, eine Software-Anwendung oder ein Betriebssystem innerhalb eines anderen Systems auszuführen. Bei diesem Prozess wird eine virtuelle Instanz eines Computersystems in einer von der tatsächlichen Hardware abstrahierten Schicht ausgeführt.  Es ist dasselbe, als wenn man eine Linux-Distribution unter Windows öffnet und als Programm ausführt oder eine Windows-Anwendung z.B. ein Spiel wie Fortnite unter Linux startet. 

Meistens bezieht sich dies auf die gleichzeitige Ausführung mehrerer Betriebssysteme auf einem Computersystem. Für die Anwendungen, die auf der virtualisierten Maschine ausgeführt werden, kann es so aussehen, als befänden sie sich auf einer eigenen, dedizierten Maschine, wobei das Betriebssystem und andere Programme nur auf dem virtualisierten Gastsystem ausgeführt werden und nicht mit dem darunter liegenden Host-Betriebssystem verbunden sind.

Was ist eine virtuelle Maschine?

Eine virtuelle Maschine (VM) ist eine virtuelle Umgebung, die wie ein virtuelles Computersystem mit eigener CPU, eigenem Speicher, eigener Netzwerkschnittstelle, eigene Grafikkarte und eigenem Speicher funktioniert und in einem physischen Hardwaresystem erstellt wird. Softwareprogramme, die als Hypervisor bezeichnet werden, trennen die Ressourcen der Maschine und der Hardware und verteilen sie ordnungsgemäß, so dass sie von der virtuellen Maschine genutzt werden können.

Warum wird virtualisiert?

Es gibt eine Reihe von Gründen, warum Nutzer die Virtualisierung in der IT einsetzen. Für einfache Desktop-Benutzer besteht die häufigste Verwendung darin, Anwendungen für ein anderes Betriebssystem ausführen zu können, ohne den Computer zu wechseln oder ein anderes System neu starten zu müssen. Hierbei können z.B. Spiele auf Linux eine große Rolle spielen, welche ansonsten nur auf Windows funktionieren. Mittels einer VM (virtuelle Maschine) kann auch hier Abhilfe geschafft werden. Manche nutzen vielleicht diese Technologie auch um sich einen ersten Eindruck zu verschaffen, bevor man zu einem anderen Betriebssystem wechselt. So ist es möglich Linux zuerst zu testen, bevor man es produktiv einsetzt.

Für Server-Administratoren bietet die Virtualisierung auch die Möglichkeit, verschiedene Betriebssysteme auszuführen, aber vielleicht noch wichtiger ist, dass sie eine Möglichkeit bietet, ein großes System in viele kleinere Teile zu segmentieren, so dass der Server von einer Reihe verschiedener Benutzer oder Anwendungen mit unterschiedlichen Bedürfnissen effizienter genutzt werden kann. Durch die Virtualisierung kann auch der Speicher oder die Leistung im Nachhinein nach oben skaliert werden, wenn die darunter liegende Hardware genügend Kapazitäten hat. Wenn Sie jedoch eine Maschine selbst bereit stellen ohne eine Virtualisierung, haben Sie diesen Luxus nicht. 

Es ermöglicht auch eine Isolierung, wodurch die in einer virtuellen Maschine laufenden Programme vor den Prozessen, die in einer anderen virtuellen Maschine auf demselben Host ablaufen, geschützt werden. So ist es nicht möglich, dass Anwendungen einer anderen VM auf eine andere VM zugreifen können. Alle virtuellen Maschinen laufen komplett unabhängig voneinander. Dies macht auch im Serverhosting 

Klingt kompliziert? Nein, das ist es wirklich nicht. Es gibt viele Programme oder sogar Besonderheiten eines Betriebssystems, die für ein bestimmten Personenkreis (Programmierer, Administratoren oder solche, die verschiedene Plattformen gleichzeitig verwenden) nützlich sind. Die Virtualisierung ist die einfachste und beste Lösung, um alle notwendige Software und Ressourcen auf einem Rechner zu haben und ihn damit leichter zu verwalten. Fast alle heute verkauften Computer verfügen über mehr als genug Ressourcen, um zwei (oder mehr) Betriebssysteme gleichzeitig ohne nennenswerte Leistungseinbußen zu hosten. Durch Virtualisierung können Kosten für neue Server und zu simulierende Clients gespart werden, da nur eine Hardware benötigt wird um alle benötigen Anwendungen auf dem System isoliert und unabhängig ausführen zu können. 

In unserem zweiten Teil erfahren wir, wie was der Unterschied einer VM und einem Container ist und wie Sie mit einer richtigen Virtualisierung auch Kosten senken können. 

Rekapitulation: 

 

Auf Basis IEEE 802.11 WLAN ist es mit minimalem Aufwand möglich, schnell eine drahtlose Verbindung aufzubauen und bietet zusätzlich eine hohe Flexibilität in der Administration und Konfiguration.

Dies geht jedoch mit der Möglichkeit der Angreifbarkeit des Systems einher, da die Übertragung der Daten via Luftschnittstellen erfolgt. Hiesige Schnittstelle wird auch als "shared medium" bezeichnet (geteiltes Medium) und eröffnet Angreifern die Gelegenheit, diese zu attackieren. Manipulationen bzw. Angriffsversuche dieser Systeme lassen sich mit relativ einfachen Mitteln realisieren. Dies bringt uns zum Thema der WLAN-Sicherheit und die damit verbundenen Schutzmaßnahmen sowie Gefährdungen, welche auf unterschiedlichen Ebenen vorgenommen werden können bzw. existent sind. 

 Mögliche Gefährdungen: 

 

Vorsätzliche Handlungen

  • das Abhören von WLAN Kommunikation
  • die Angriffe auf WLAN Komponenten
  • das Lauschen bzw. Auswerten von Verbindungsdaten drahtloser Kommunikation
  • das Missachten schützenswerter Informationen (Vertraulichkeitsverlust) 

 

Höhere Gewalt

  • Störung in der Stromversorgung 
  • Störung durch Witterungsbedingungen
  • Störung und/oder Ausfall des Funknetzes 

 

Menschliche Fehlhandlung 

  • vorsätzliche Missachtung von IT-Sicherheitsmaßnahmen
  • fehlerbehaftete Administration des IT-Systems
  • unzulängliche Konfiguration und Bedienung
  • unzureichender Umgang mit Passwortregeln (Länge, Komplexität etc.) 
  • fehlerhafte Konfiguration des WLAN

 

Organisatorische Mängel

  • mangelhafte Restriktion zum WLAN-Gebrauch
  • ungeeignete Authentifikationsverfahren 
  • insuffiziente Kontrolle von IT-Sicherheitsmaßnahmen 
  • fehlende und/oder mangelhafte Regelungen 
  • marginale Kenntnis von Regelungen 
  • fehlende oder schlechte Planung des WLAN-Einsatzes 

 

Technisches Versagen: 

  • unkontrollierte Expansion der Funkwellen
  • unsolide bzw. mangelhafte WLAN-Sicherheitsmechanismen

 

Schutzmaßnahmen

 

Um Missbrauch durch Unbekannte zu verhindern, ist die Absicherung des WLANs durch die deutsche Rechtssprechung, in Bezug auf Authentifizierung und Verschlüsselung, zwingend vorgeschrieben. 

Unter Anwendung diverser Maßnahmen kann dies - u.a. in Abhängigkeit der Größe eines Netzwerkes - realisiert werden. 

 

Wesentliche Maßnahmen für ein SOHO-WLAN (Small Office Home Office) sind:

 

  • genutzte WLAN-Geräte kabelgebunden zu konfigurieren
  • User und Passwort am AP (Access Point, in dem Fall Router) ändern
  • ein starkes Passwort verwenden, mittlerweile sind wir bei 10 Zeichen angekommen, Länge schlägt Komplexität, jedoch sollten Sonderzeichen, Großbuchstaben und keine kohärenten (zusammenhängenden) Wörter verwendet werden, die man in einem Wörterbuch abfragen bzw. finden und somit für eine Brutforce-Attacke (durch das Ausprobieren) leicht knacken/erraten kann
  • aktuelle Frimware des Geräteherstellers installieren bzw. updaten 
  • Zugriffssteuerungsliste, sogenannte ACL (Access Control List) verwenden sowie registrierte MAC-Adressen vom AP genehmigen (durch MAC-Filter möglich) 
  • solide Kryptografie nutzen wie z. B. WPA2 (Wi-Fi protected Access, WPA ist der Vorgänger aber nicht mehr sicher!) 
  • SSID (Service Set Identifier) umändern, um keine Rückschlüsse bzw. Assoziationen in Bezug auf Anwender oder Ort zu ermöglichen sowie Aussendung deaktivieren
  • Fernkonfiguration im AP (hier Router) deaktivieren
  • WLAN-Reichweite eingrenzen, indem man die Sendeleistung minimiert 
  • Firewall einrichten!
  • die sogenannten LOG-Dateien kontinuierlich auf fremde MAC-Adressen kontrollieren, um Fremdzugriff zu registrieren

 

 Sicherheitsverfahren

 

Hierbei sei nochmal der Artikel der Schutzziele in der Informationssicherheit erwähnt, bei dem CIA einge tragende Rolle einnimmt.

Exkurs: wesentliche Sicherheitsmechanismen, die Anwendung durch Verfahren und Kommunikationsprotokollen erfahren, sind der Garant bzw. die Sicherstellung der: 

 

Vertraulichkeit (Confidentiallity)

Integrität (Integrity)

Authentizität (Authenticity) 

 

und somit der Daten im WLAN. 

 

Vertraulichkeit im Kontext WLAN: Informationen (Daten) nur für Berechtigte zugänglich machen!

Integrität in Bezug auf WLAN: Datensicherheit (Schutz vor Verlust) und Erkennen von Manipulation!

Authentizität im Kontext WLAN: Eindeutige Zuordnung einer Information zum Absender!

 

WEP und WPA sind ungenügend und nicht mehr sicher, deshalb werden diese hier nicht genauer beschrieben. 

 

Sichere Verfahren hierfür sind: 

 

  • WPA2 (nicht abwärtskompatibel zu den vorhandenen Verfahren, in Nutzung ist hier CCMP(Counter mode with CBC-MAC Protokol, CBC-MAC: Cipher Block Chaining Message Authetication Code)
  • AES-128/192/256 bit, wobei der goldene und sichere Standard AES-256 ist! 

 

Spam - eine Form der Pest unseres digitalen Zeitalters. Wie in der realen Welt, kann uns Werbung auch im Internet auf unerwünschte Weise aufgedrungen werden. In dieser Artielkserie, bestehend aus drei Teilen, beschäftigen wir uns speziell mit Spam via E-Mail.

 

Teil 1: Wie Spammer an E-Mail-Adressen gelangen

Teil 2: Mit welchen Mitteln Spammer ihre unerwünschten Nachrichten übermitteln

Teil 3: Wie E-Mail-Server oder Clients Spam als solchen zuverlässig erkennen

Mit welchen Mitteln Spammer ihre unerwünschten Nachrichten übermitteln

Durch Spam entstehen jedes Jahr wirtschaftliche Schäden in zweistelliger Milliardenhöhe. Es ist ein Geschäft, wovon nicht nur Anbieter zweifelhafter Produkte profitieren, sondern auch diejenigen, die das Spamming technisch organisieren. Doch wie gelingt ihnen unerkannt der Spamversand? Damit beschäftigen wir uns in diesem Teil unserer Artikelserie.

Damit Spammer ihre unerwünschten Nachrichten verschicken können, benötigen Sie Zugang zu einem Mail-Server. Dieser muss mit einer gewissen Vertrauenswürdigkeit ausgestattet sein, sodass andere Mail-Server die Nachrichten von diesem annehmen. Der Zugang und auch die Kommunikation unter Mail-Servern wird über das sog. Simple Mail Transfer Protocol (kurz SMTP) abgewickelt. Spammer machen sich dieses mittels folgender Methoden zunutze:

Spamversand mittels gekapertem SMTP-Zugang

Die meisten E-Mail-Anbieter - auch solche, die gratis E-Mail-Adressen vergeben - bieten zu ihren Postfächern Zugänge an mittels POP3 oder IMAP und SMTP. Nutzer können damit über ihre E-Mail-Clients, wie z. B. Outlook oder Thunderbird, auf ihre E-Mails zugreifen und gleichzeitig selber welche verschicken. Nicht wenige machen jedoch den Fehler und speichern ihre Zugangsdaten in diesen Clients ab. Sie riskieren damit, dass diese bspw. von einem Trojaner ausgelesen werden. Das ist nämlich genau der Weg, wie Spammer typischerweise an solche SMTP-Zugänge herankommen. Es werden entweder die Zugangsdaten zu einem E-Mail-Postfach entwendet oder auf dem Rechner eines Nutzers wird ein Trojaner platziert, der alle lokal vorhandenen SMTP-Zugänge verwendet. Im Anschluss daran werden massenweise Spam-Nachrichten verschickt, bis die Provider den ungewöhnlichen Traffic bemerken und die Zugänge sperren. Erst dann bemerken die Nutzer, dass ihre Zugangsdaten missbraucht wurden.

Spamversand mittels gehackter SMTP-Server

Das gleiche Spiel existiert auch auf einer ganz anderen Ebene. SMTP-Zugänge können nämlich nicht nur bei ihren rechtmäßigen Nutzern erschlichen werden, sondern auch bei den SMTP-Servern selbst. Hackern gelingt es nicht selten, über diese z. B. an bestimmte SMTP-Zugänge heranzukommen. Manchmal sind sie sogar in der Lage, sich ganz neue Zugänge anzulegen. Oft müssen sie ihre analytischen Fähigkeiten noch nicht einmal erst bemühen, weil die Server bereits über keine Zugangssicherung verfügen. Bei Letzterem spricht man von sog. "Open Relays", Servern, die für den Mailversand direkt und ohne Zugangsdaten verwendet werden können. Wurde ein solcher SMTP-Server erst einmal gefunden, können Spammer über diesen sogar sehr viel bequemer ihre Nachrichten verschicken.

Spamversand mittels ungeschützter Web-Formulare

Kontaktformulare und vergleichbare Anwendungen im Web werden von Spammern ebenfalls regelmäßig dazu verwendet, um Spam-Nachrichten zu versenden. Hierüber erreichen sie zwar nur den Personenkreis hinter diesen Web-Formularen, dennoch lohnt sich der Aufwand für sie. Sie müssen sich bspw. keinen entsprechenden SMTP-Zugang besorgen und Spamming über HTTP ist viel unauffälliger als über SMTP. Wurden nämlich genügend Webseiten entdeckt, die über ein ungeschütztes Kontaktformular verfügen, können diese massenhaft aufgerufen und mit Nachrichten bespielt werden.

Spamversand über Botnets

Bei einem Botnet handelt es sich um eine große Menge an gekaperten Computern, die zu einem Netzwerk zusammengeschlossen wurden. Sie können dazu verwendet werden, um z. B. sog. DDoS Attacken auszuführen. Spammer nutzen sie jedoch für ihren Spamversand. Auf allen gekaperten Computern befinden sich Trojaner, welche sich an einem der oben erwähnten Methoden bedienen und Spam verschicken.

Spam - eine Form der Pest unseres digitalen Zeitalters. Wie in der realen Welt, kann uns Werbung auch im Internet auf unerwünschte Weise aufgedrungen werden. In dieser Artielkserie, bestehend aus drei Teilen, beschäftigen wir uns speziell mit Spam via E-Mail.

 

Teil 1: Wie Spammer an E-Mail-Adressen gelangen

Teil 2: Mit welchen Mitteln Spammer ihre unerwünschten Nachrichten übermitteln

Teil 3: Wie E-Mail-Server oder Clients Spam als solchen zuverlässig erkennen

 

Wie Spammer an E-Mail-Adressen gelangen

Durch Spam entstehen jedes Jahr wirtschaftliche Schäden in zweistelliger Milliardenhöhe. Es ist ein Geschäft, wovon nicht nur Anbieter zweifelhafter Produkte profitieren, sondern auch diejenigen, die das Spamming technisch organisieren. Die beste Infrastruktur nützt aber nichts, wenn Spammer nicht wissen, an welche Empfänger ihre Nachrichten gehen sollen. In diesem Teil unserer Artikelserie schauen wir uns deshalb mal an, wie Spammer an E-Mail-Adressen herankommen können.

E-Mail-Adressen aus den Adressbüchern der Nutzer

Typischerweise kommen Spammer durch das Auslesen von Adressbüchern ahnungsloser Nutzer massenhaft an E-Mail-Adressen heran. Abhängig davon, ob das Adressbuch auf dem Webportal des eigenen E-Mail-Providers geführt wird, oder ob dieses lokal auf dem Computer bzw. Smartphone existiert, bedienen sie sich dabei an verschiedensten Methoden.

In Erster Linie kommen Kriminelle dadurch an Adressbücher heran, weil Nutzer für ihre E-Mail-Postfächer keine sicheren Passwörter verwenden. Aber auch ein unzureichender Virenschutz kann dazu führen, dass ein Adressbuch mittels Trojaner ausgelesen wird. Darüber hinaus installieren nicht wenige Nutzer völlig unsorgsam jede App auf dem eigenen Smartphone. Diese fordern nicht selten die Erlaubnis ein, alle Kontakte auf dem Smartphone auslesen zu dürfen.

Ganze Adressbücher können auch dadurch an die Öffentlichkeit gelangen, weil beim verschicken von Massenmails nicht genügend aufgepasst wird. Man denke bspw. an einen Verein, der seine Mitglieder über eine Neuigkeit informieren will. Wenn die Adressen dieser woanders als im BCC eingetragen werden, landen sie automatisch auch bei den Empfängern der Mail.

Wir können also selber viel unternehmen, um Spammern nicht die Möglichkeit zu geben, unsere Adressbücher auszulesen. Ein vernünftiger Virenschutz sowie sinnvolle Privatsphäre-Einstellungen schützen am Ende nicht nur unsere eigenen Daten, sondern auch die unserer Freunde und Bekannten.

E-Mail-Adressen aus geleakten Datenbanken

Relativ neu ist das Phänomen, dass Spammer massenhaft E-Mail-Adressen aus geleakten Datenbanken auslesen. Diese wurden oft von Hackern aus den Systemen der jeweiligen Betreiber entwendet. Es existieren aber auch Fälle, bei denen Kriminelle an Daten herankamen, weil Mitarbeiter bestimmter Unternehmen unvorsichtig waren und unabsichtlich Daten ihrer Nutzer im Internet veröffentlichten. Spammer können diese dann z. B. in einem Untergrundforum einkaufen.

Ein Beispiel, bei dem Hacker Daten erfolgreich entwenden konnten, ist MySpace. Hier wurden knapp 360 Mio. Datensätze der Nutzer einfach mal so eben geklaut. Diese wurden zunächst in einem Untergrundforum zum Kauf angeboten, später konnte jedermann sie gratis downloaden. Anhand der Daten lässt sich sagen, dass der Diebstahl wahrscheinlich schon im Jahr 2008 stattgefunden hat. Es kamen nicht nur E-Mail-Adressen abhanden, sondern auch die dazugehörigen Passwörter, welche durch die Seitenbetreiber offensichtlich viel zu unzureichend geschützt wurden.

Gegen derartige Datendiebstähle kann der einzelne Nutzer nahezu nichts unternehmen. Ob und inwieweit unsere Daten sicher sind, hängt von den Betreibern der jeweiligen Plattformen ab. Wir als Nutzer können diesen im besten Fall nur vertrauen.

E-Mail-Adressen aus dem Zufallsgenerator

E-Mail-Adressen müssen nicht unbedingt gestohlen sein, Spammer können sie sich auch mit einem Zufallsgenerator beschaffen. Hierfür sammeln sie zunächst einmal die Domain-Endungen von vielen sog. Freemail-Providern ein. Anschließend besorgen sie sich sog. Wörterbücher mit allgemein gebräuchlichen Begriffen im Internet und erstellen ein Schema, anhand dessen der Zufallsgenerator die E-Mail-Adressen dann generiert. Diese werden dann im Anschluss zum Spammen verwendet.

Bei dieser Methode handelt es sich um die einfachste aller Methoden. Die Quote der Rückläufer ist dafür aber hoch.

E-Mail-Adressen aus dem Internet

Eine ebenfalls beliebte Methode, um an möglichst viele E-Mail-Adressen heranzukommen, ist das komplette Absuchen des Internets. Spammer können sich dabei an sog. Crawlern bedienen. Diese tun den ganzen Tag nichts anderes, als Websites, das Usenet, oder den IRC nach E-Mail-Adressen zu durchforsten.

Wenn E-Mail-Adressen daher auf Webseites veröffentlicht werden sollten, sollten diese in einem Format vorliegen, das von einem Crawler nicht so ohne weiteres ausgelesen werden kann.

Sie haben Probleme mit Spam? 

Effektive Spam-Bekämpfung geht nur durch ein ausgefeiltes System. Als IT Service in München bieten wir kleinen und mittelständischen Unternehmen die Möglichkeit an, Spam E-Mails effektiv zu bekämpfen. Unsere Lösungen haben keinen "JoJo Effekt", sondern sind langfristige und nachhaltige Methoden, um Spam abzuwehren. Lassen Sie sich von uns unverbindlich beraten unter unserer Rufnummer 0176 / 75 19 18 18 oder schreiben Sie uns ganz einfach unter Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!

Samstag, 15 Februar 2020 16:12

Drahtlose Netzwerk-Technologien - IEEE 802.11 WLAN

geschrieben von

Weshalb Wireless Network Technologies?

 

Diese Netzwerktechnologie basiert auf der Funktechnik und nutzt somit für die Datenübertragung die Luft als Kanal. Jedoch ist die Annahme bzw. These im Kontext der einzigen Möglichkeit der Datenübertragung in Bezug auf Luft als solche eine irrige und somit falsche. Der pyhsikalischen Grundlage nach ist es eine elektromagnetische Welle, welche wiederum an eine elektrische und magnetische Transversalwelle gekoppelt ist, die im freien Raum bzw. im Raum-Zeit-Kontinuum übertragen wird. Daher können diese elektromagnetische Wellen auch ohne das Medium Luft übertragen werden, wie z. B. im Weltall, ergo im Vakuum. 

Daraus resultiert die Möglichkeit, sich nicht erschlossene Regionen oder Örtlichkeiten ohne die Verlegung von Kabeln kostengünstig zu vernetzen oder diese Technologie theoretisch auch im Weltraum zu benutzen. 

Wir beschränken uns hier jedoch auf den irdischen Teil. 

 

Wie bei den drahtgebundenen Netzwerken werden auch diese in folgende Segmente unterteilt nach IEEE (Institute of Electrical and Electronics Engineers):

 

PAN (Personal Area Network):

IEEE 802.15.3 UWB (Ultra-Wide Band)=High Speed Wireless PAN; bis zu 1000 Mbit/s

 

LAN (Local Area Network):

  • IEEE 802.11 Wireless LAN, 1997 veröffentlicht, nutzt 2,4 GHz-Frequenz, Reichweite im Haus ca. 20m 
  • IEEE 802.11a, 1999 veröffentlicht, nutzt 5 GHz-Frequenz, Reichweite im Haus ca. 35m 
  • IEEE 802.11b, 1999 veröffentlicht, nutzt 2,4 GHz-Frequenz, Reichweite im Haus ca. 38
  • IEEE 802.11g, 2003 veröffentlicht, nutzt 2,4 GHz-Freqzenz, Reichweite im Haus ca. 38m 
  • IEEE 802.11n Wi-Fi (Wireless Fidelity) theoretisch bis zu 600 Mbit/s, 2009 veröffentlicht, nutzt 2,4 GHz sowie 5 GHz Frequenz, ca. 70m
  • IEEE 802.11ac, bis zu 6,933 Gbit/s im 5 GHz Band, Standard 802.1n, siehe eins drüber

 

MAN (Metropolitan Area Network)

  • IEEE 802.16 Broadband Wireless Access, Dezember 2001, 10-66 GHz Frequenz, max. bis zu 128 Mbit/s (28-MHz-Kanal), bis zu 75 km 
  • IEEE 802.16 WiMAX, Worldwide Interoperability for Microwave Access, für genauere Deklarationen wird ein extra Artikel geschrieben 

                                                     

 

WAN (Wide Area Network):

  • 5G, von 10 Gbit/s - 20 Gbit/s möglich ab 2020 
  • 4G, bis zu 100 Mbit/s
  • 3G, bis 384 kbit/s, obsolet, 2020 abgeschalten

 

Merkmale des WLAN - Wireless Lan

 

  • drahtloses LAN = WLAN = lokale Netzwerke, basierend auf Funk
  • Endgeräte benötigen diverse Applikationen 
  • über sogeannte AP (Access Points) erfoglt der Zugang
  • sind über die OSI Schichten 1 und 2 geregelt, Physical & Data Link, Bitübertragungsschicht sowie Sicherungsschicht
  • bei Störungen, die extern auftreten können, existieren im Bezug auf die Funkkanäle Maßnahmen in den Kommunikationsprotokollen
  • durch HF-Leistungsbeschränkungen (Hochfrequenztechnik) ist die Reichweite beschränkt 
  • gegen Abhörmaßnahmen muss sehr gut und stark verschlüsselt werden z.B. AES-256 bit
  • weltweiter Standard
  • lizenzfreier Betrieb
  • hohes Maß an Flexibilität vorhanden (an jeweilige Gegebenheiten anpassbar) 
  • relativ einfache Handhabung/Administration bezüglich der Endgeräte 

 

Im WLAN nach IEEE 802.11 existieren Einzelspezifikationen, die diversen Anforderungen gerecht werden. 

Grundlagen hierzu sind: 

 

  • BSS (Basic Service Set: Basis-Dienstelement), ein essentielles Architekturelement 

 

  • STA (Station: Station), Mitglied des BSS

 

  • IBSS (Independend BSS: unabhängiges BSS), ist ein BSS, in dem die Kommunikation der STA direkt untereinander stattfindet

 

  • DS (Distribution System: Verteilungssystem), fungiert als Element, um die Verbindung mehrerer BSS untereinander oder dem Zugang zum Festnetz zu ermöglichen 

 

  • AP: (Acces Point: Zugangspunkt), ist der Access zum DS und nutzt das WM (Wireless Medium) sowie das DSM (Distributed System Medium

 

  • ESS: (Extended Service Set: extendierte Dienstelemente), Zusammenführung/schaltung mehrerer BSS über DS

 

  • Portal: es realisiert den Übergang zu einem anderen LAN

 

Grundlegend wird bei IEEE 802.11 das CSMA/CA-Verfahren (Carrier Sense Multiple Access/Collision Avoidance) genutzt, was der Kollisionsvermeidung dient. 

 

Im nächsten Artikel befassen wir uns mit dem WLAN-Einsatz sowie der WLAN-Sicherheit, welche unabdingbar und gesetzlich vorgeschrieben, aber auch abgesehen davon, sinnvoll und empfehlenswert ist. 

 

 

 

 

 

Dienstag, 11 Februar 2020 00:06

Teil 2: Die 4 Schutzziele der Informationssicherheit: VIVA/CIA

geschrieben von

In unserem ersten Artikel haben wir uns über die die vier Eigenschaften wie Vertraulichkeit, Integrität, Verfügbarkeit und Authentizität befasst sowie mit der symmetrischen Verschlüsselung. Im zweiten Teil unserer Artikelserie beschäftigen wir uns mit der asymmetrischen Verschlüsselung, sowie eine Verschlüsselungstechnik die darauf basierend aufgebaut ist.

Asymmetrische Verschlüsselung:

Bei der asymmetrischen Verschlüsselung hingegen bedienen sich die Teilnehmer eines Schlüsselpaares, welches aus einem Puplic Key (öffentlicher Schlüssel) und einem Private Key (privaten Schlüssel) besteht. Diese hängen mathematisch zusammen.

Wie der Name Puplic Key schon sagt, ist dieser Schlüssel für alle frei zugänglich, nicht jedoch der Private Key, dieser ist optional nur dem Besitzer bekannt.

Somit ergibt sich, dass eine Nachricht, welche mit dem Private Key verschlüsselt wurde, nur mit dem Puplic Key entschlüsselt werden kann und umgekehrt; eine Nachricht, welche mit dem Puplic Key verschlüsselt wurde, kann nur noch mit dem dazugehörigen Private Key entschlüsselt werden.

Anwendung findet dies bei dem Schutzziel der Integrität, die digitale Signaturen verwendet.

Bei einer digitalen Signatur wird ein sogenannter Hash-Wert erzeugt. Ein Hashwert besitzt eine feste Länge und bedient sich diverser Hashfunktionen.

Eine unendlich große Menge wird auf eine endliche abgebildet aber gilt als kollisionsresistent, zumindest für menschliche Verhältnisse. Es kann also nicht sein, dass 2 verschiedene Hashwerte auf ein gleiches Produkt zutreffen, da dies sonst nicht mehr sicher wäre.

Eine Hashfunktion ist eine Einwegfunktion und kann daher nicht rückwärts auf den eigentlichen Wert schließen.

Bildet man von einem Dokument einen Hashwert und verschlüsselt das Dokument mit dem erzeugten Hashwert nun mit seinem Private Key, kann jeder mit dem freizugänglichen Puplic Key, das Dokument damit entschlüsseln und den Hashwert vergleichen. Sollte dieser gleich sein, kann man sich sicher sein, dass dieser zu dem dazugehörigen Private Key gehört und die Signatur korrekt ist.

Digitale Signaturen bedeuten daher - sofern die Hashwerte übereinstimmen - dass der Puplic Key zu dem Private Key gehört und Daten nicht manipuliert wurden.

Es sagt nicht unbedingt aus, dass mein Gegenüber wirklich derjenige ist, der er vorzugeben scheint. Dies regeln die Zertifikate und behandelt das Schutzziel Authentizität.

Der größte Vorteil der asymmetrischen Verschlüsselung besteht darin, dass der Schlüsseltausch entfällt.

Der größte Nachteil besteht darin, dass es ein extrem langsames und kompliziertes Verfahren ist.

RSA Verschlüsselung

RSA resultiert aus den Anfangsbuchstaben der Nachnamen von seinen Erfindern: Rivest, Shamir und Adleman. Das Verfahren wurde 1977 entwickelt und gilt bis heute als sicher.

Die RSA-Verschlüsselung bedient sich der Einwegfunktionen und lässt sich in eine Richtung ganz leicht berechnen(verschlüsseln), jedoch rückwärts (entschlüsseln ohne Schlüssel) ist ein immenser echter Rechenaufwand nötig, da hier faktorisiert werden muss, die Zerlegung von n in die Faktoren p und q.

Beim RSA-Verfahren ist die Zahl n das Produkt aus zwei ver-schiedenen Primzahlen p und q.

Öffentlich bekannt jedoch ist nur die Zahl n, nicht aber die beiden Faktoren p und q, aus denen sich n zusammensetzt.

Eine exakte Beschreibung des Verfahrens finden Sie in einem bereits verfassten Beitrag zum Thema: RSA Verschlüsselung.

Selbstverständlich lassen sich auch diverse Beschreibungen und mathematische Berechnungen im Internet oder in Primär- sowie Sekundärliteratur dazu finden.

Sie wollen sicher sein? 

Als IT-Service in München und Umgebung bieten wir KMUs sowie Privatpersonen die Möglichkeit von uns über Verschlüsselungstechniken und rund um das Thema IT Sicherheit beraten zu lassen. Ein Recht auf geschützte und unabhörbare Kommunikation von zwei Endpunkten via Internet oder Telefon sollten alle haben. Wir helfen Ihnen bei der Planung und Umsetzung von IT Lösungen, wenn es um den Schutz um Firmeninterna oder ganz einfach um Ihre Privatsphäre geht. Rufen Sie uns an unter der Rufnummer 0176 / 75 19 18 18 oder schreiben Sie uns ganz einfach unter Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein! 

Montag, 03 Februar 2020 12:56

Die 4 Schutzziele der Informationssicherheit: VIVA/CIA

geschrieben von

Vertraulichkeit/ Confidentiality:

Die Daten und Systeme dürfen nur für berechtigte Personen zugänglich sein, daher ist es wichtig, zu verschlüsseln und Zugangskontrollen durchzuführen.

Integrität/ Integrity:

Die Daten dürfen nicht manipuliert worden sein. Dies impliziert, dass man die Manipulation oder Veränderung von Daten bemerkt, daher verwendet man sogenannte digitale Signaturen.

Verfügbarkeit/Availability:

Die Daten und Systeme müssen zu definierten Zeiten verfügbar bzw. abrufbar sein, daher ist es notwendig, diese mit Backups zu sichern, eine USV (Unterbrechungsfreie Stromversorgung) zu besitzen und Systeme regelmäßig zu warten. Dies sind nur ein paar der Beispiele, um dieses Ziel zu erreichen.

Authentizität/Authenticity:

Die Authentizität besagt, dass die Quelle der Daten verifizierbar sein muss. Ergo, ob der Gegenüber wirklich jener ist, wofür er sich ausgibt.

Um dieses Schutzziel zu erreichen, ist der Gebrauch von digitalen Zertifikaten im Einsatz.

Symmetrische und Asymmetrische Verschlüsselung - Kryptographie

Was heißt verschlüsseln?

Eine Datenmenge wird unter Anwendung eines Schlüssels und eines Algorithmus so in eine andere Datenmenge überführt, dass nur von berechtigten Personen die Ursprungsmenge hergestellt werden kann.

Bei der symmetrischen Verschlüsselung ist ein Schlüssel bzw. “gemeinsames Geheimnis” existent, um Klartext in ein Chiffrat zu überführen und somit zu verschlüsseln sowie zu entschlüsseln.

Somit wird ein Algorithmus verwendet, eine Art Werkzeug, ein Verfahren, mit einer eindeutigen Vorschrift, um ein Problem zu lösen bzw. Klassen davon.

Klartext -> Schlüssel/Algorithmus -> Chiffrat

Chiffrat -> Schlüssel/Algorithmus -> Klartext

Schlüssel = Daten / Algorithmus ist die Rechenregel, die mit dem Klartext verknüpft wird und das Chiffrat entsteht

Key/Schlüssel = binäre Datei, ergo: Bits

Schlüssellänge = Quantität der Bits im Schlüssel

Auguste Kerckhoffs von Nieuwenhof (1835-1903)

Die Sicherheit eines Kryptosystems darf nicht von der Geheimhaltung des Verfahrens abhängig sein, sie gründet allein auf der Geheimhaltung des Schlüssels.

Grund:

Es ist einfacher, einen Schlüssel geheim zu halten als einen Algorithmus.

Hängt die Sicherheit von der Geheimhaltung des Algorithmus ab und wird dieser bekannt, ist das gesamte System korrumpiert.

Hängt die Sicherheit von der Geheimhaltung des Schlüssels ab, ist nur die mit diesem Schlüssel verschlüsselte Kommunikation betroffen.

Es ist sehr viel einfacher, einen Schlüssel zu tauschen als einen Algorithmus.

"Peer Review": Der Algorithmus wird öffentlich diskutiert, Fehler fallen schneller und zuverlässiger auf.

Verfahren bzw. Beispiele für symmetrische Verschlüsselung sind:

AES (Advanced Encryption Standard)

AES-256 bit gilt bisher als “unknackbar bzw. sicher" und findet bei Militär sowie Geheimdiensten mit einer hohen Sicherheitsstufe und Geheimhaltung aber auch als Standard eine tragende Rolle bei der symmetrischen Verschlüsselung.

Mit “unknackbar bzw. sicher" ist gemeint, dass es mit einem Brute-Force-Angriff (das Ausprobieren aller Möglichkeiten) mehrere hundert Jahre brauchen würde, um auf den Schlüssel zu kommen. Da AES-256 bit = 2^256= 1.15792E+77 mögliche Schlüssel impliziert und ein handelsüblicher Computer als Beispiel 16.8 Milliarden Versuche pro Sekunde schafft, würde dies dementsprechend 2.18556E+59 Jahre benötigen.

Blowfish

DES (Data Encryption Standard)

Entwickelt: Mitte der 70er Jahre (IBM)

ab 1977 offizieller Standard in den USA

blockbasiert, 64 Bit (Schlüssel: 56 Bit)

erster erfolgreicher Angriff: Ende der 90er

Juli 1998: EFF baut Supercomputer, knackte

DES in 56 Stunden

Januar 1999: DES in 22 Stunden geknackt

FOX

Der wohl größte Vorteil der symmetrischen Verschlüsselung liegt in der Tatsache begründet, dass diese sehr schnell und daher auch in Echtzeit möglich ist. Des Weiteren bedient sich die symmetrische Verschlüsselung eines einfachen Schlüsselmanagement, da lediglich ein Schlüssel (gemeinsames Geheimnis) für das Ver- und Entschlüsseln benötig wird.

Der größte Nachteil ist, dass der Schlüssel nicht in unbefugte Hände geraten darf, da man sonst alles, was damit verschlüsselt wurde, lesen bzw. entschlüsseln kann.

Auch die Quantität der Schlüssel, bezogen auf die Teilnehmer, wächst quadratisch.

Letztendlich ist ein sicherer Transportweg notwendig.

Sonntag, 26 Januar 2020 19:48

Das OSI-Referenzmodell – Open System Interconnection

geschrieben von

Das OSI-Referenzmodell – Open System Interconnection

Das sogenannte Schichtenmodell (OSI-7) befasst sich mit Layer 1-7, das für die herstellerunabhängige Kommunikation der Systeme zuständig ist. Somit sind diese Layer - mehr oder weniger - kohärent, hängen zusammen und jede Schicht (Layer) offeriert der nächsten Schicht definierte Dienste, aber auch für die Schicht, welche darunter liegt. Eine Unterteilung dieser Schichten wird durch Schnittstellen geregelt. Somit ist eine Adaption und ein Austausch von einzelnen Layern möglich, ohne eklatante Gesamtsystemänderungen vornehmen zu müssen.

Die Layer 1-4 sind die transportorientierten Schichten – physikalischer Datentransport bis zu den Endpunkten der Systeme – und die Layer 5-7 sogenannte anwendungsorientierte Schichten – die Ägide der Schnittstellen.

Im OSI-Modell selbst ist kein Übertragungsmedium (Verbindungskabel) vordefiniert.

Layer 1: Physical, Bitübertragungsschicht

Die Zuständigkeit dieses Layers liegt im Bereich der physikalischen Transportebene von digitalen Informationen, den Bits (binary digit).

Es existieren spezifizierte Schnittstellen wie etwa elektrische, über Funk, mechanische oder optische, deren Übertragungseigenschaften und Funktion zum Übertragungsmedium zuständig sein können.

Layer 2: Data Link, Datensicherungsschicht

Dieser Schicht liegt die Obliegenheit zugrunde, unverfälschten Datentransport über einen einzelnen Übermittlungsabschnitt zu garantieren.

Eine Art Flusssteuerung überwacht die vollständige und korrekte Übertragung der Daten von der darunterliegenden Schicht.

Die PDU (Protocol Data Unit) in diesem Fall ist das “Frame”- die physikalische Adressierung. Diese ist zuständig, um Ziel- und Quelladressen zu definieren, ist schichtspezifisch und wird auch Hardware- bzw. MAC-Adresse genannt. Ebenso dient es zur Datenflusssteuerung von Informationen und besteht aus Nutzdaten des Pakets der Vermittlungsschicht. Schlussendlich beinhaltet es eine Prüfsumme, welche zur Gewährleistung der Datenintegrität - das Bemerken von Manipulation der Daten – existiert.

Die Layer 1 und 2 sind für den Netzzugang verantwortlich, wobei Protokolle bzw. Technologien wie LAN (Local Area Network) und WAN (Wide Area Network) eine tragende Rolle einnehmen.

Layer 3: Network, Vermittlungsschicht

Diese Schicht ist für die Überbrückung geografischer Entfernungen zwischen den Endsystemen durch Einbeziehung von Vermittlungssystemen zuständig.

Hierbei wird die zeitlich und logisch getrennte Kommunikation zwischen differierenden Endsystemen gesteuert.

Die PDU hier, welches als solches den Zugang zum Internet ermöglicht und das Protokoll IP (Internet Protocol) - logische Adressierung - definiert, ist das Paket.

Layer 4: Transport, Transportschicht

Die Rolle dieser Schicht befasst sich mit der Expansion von Verbindungen zwischen Endsystemen zu Teilnehmerverbindungen. Als letzte transportorientierte Schicht, bildet diese die Verbindungsschicht zu der anwendungsorientierten Schicht.

Des Weiteren besteht die Aufgabe und damit verbundene Hardware darin, die Zuweisung zu Anwendung mit Portnummern zu versehen bzw. zuzuweisen, Segmentierung, Zuverlässigkeit sowie Flusskontrolle zu gewährleisten. Die PDU hierbei, welche die Protokolle TCP (Transmission Control Protocol) - verbindungsorientiert – und UDP (User Datagram Protocol) - verbindungslos- verwendet, ist das Segment.

Layer 5: Session, Sitzungsschicht

Die Zuständigkeit besteht darin, einen geordneten Ablauf des Dialogs zwischen den Endsystemen zu ermöglichen.

Darüber hinaus verwaltet und legt sie fest, welche Berechtigungsmarken für die Kommunikation gelten.

Schlussendlich ist sie auch für den Auf- und Abbau einer Sitzung, Login und die Passwörter zuständig.

Layer 6: Presentation, Darstellungsschicht

Sie ist zuständig für den gemeinsamen Zeichensatz und die gemeinsame Syntax.

Des Weiteren wandelt sie die lokale Syntax in die für den Transport festgelegte Syntax um, umgekehrt das Gleiche.

Ergo besteht die Aufgabe darin, Dateiformate zu erstellen, Verschlüsselung zu ermöglichen sowie Komprimierung der Daten.

Layer 7: Application, Anwendungsschicht

Die letzte Schicht befasst sich mit der Steuerung der untergeordneten Schichten, übernimmt die Adaption an die jeweilige Anwendung und stellt dem Anwendungsprogramm die Verbindung zur Außenwelt zur Verfügung. Auch Benutzerschnittstelle genannt.

Layer 5-7 beziehen sich auf die Anwendung, nutzen die PDU Daten und Protokolle wie: FTP, HTTP, SMTP, POP3, SSH, DNS, TFTP, DHCP.

Sonntag, 12 Januar 2020 22:20

Das sichere Back-Up (Teil 4)

geschrieben von

Datenverluste sind allgegenwärtig. In manchen Fällen kann eine Wiederbeschaffung gelingen, in anderen wiederum nicht. Aber soweit muss es gar nicht kommen, denn es gibt verschiedene Mittel zur Vorbeugung. In dieser Artikelserie, bestehend aus vier Teilen, beschäftigen wir uns mit Datensicherung.

 

Teil 1: Datenverlust - Wo lauern überhaupt die Gefahren?

Teil 2: Welche Techniken gibt es zur Datensicherung?

Teil 3: Wie funktioniert die 3-2-1 Back-up-Strategie?

Teil 4: Und wenn es zu spät ist, wie können Daten gerettet werden?

Und wenn es zu spät ist, wie können Daten gerettet werden?

Trotz aller Sicherheitsmaßnahmen und Vorkehrungen sind Ihnen am Ende trotzdem Daten verloren gegangen? Noch wäre nichts zu spät, denn unter bestimmten Umständen lassen sich Ihre Daten alle wiederherstellen. In diesem Artikel beschäftigen wir uns damit, wie das gelingen kann.

Wenn Sie bemerken, dass auf Ihrem Computer Daten verloren gegangen sind, heißt es zunächst einmal: Ruhe bewahren! Überlegen Sie genau, in welchen Verzeichnissen Sie Ihre Dateien ursprünglich gespeichert haben bzw. auf welchem Datenträger sich diese befanden. Kontrollieren Sie an diesen Orten genau und vermeiden Sie dabei unbedingt, dass weitere Schreibvorgänge noch stattfinden! Je weniger Schreibvorgänge auf diesem Datenträger nämlich noch stattfinden, umso höher sind Ihre Chancen, dass Sie an Ihre Daten wieder herankommen.

Erste Hilfe für Jedermann bei Datenverlust

Wenn Sie mit der Wiederherstellung von Daten in keinerlei Hinsicht vertraut sind, sollten sie am Besten Ihren Computer sofort ausschalten, indem Sie dessen Stecker einfach ziehen. Ja, Sie lesen richtig: Ziehen Sie den Stecker! Denn beim herunterfahren könnte das Betriebssystem noch weitere Schreibvorgänge vornehmen, welche potenziell eine Datenrettung weiter erschweren. Konsultieren Sie anschließend einen Informatiker Ihres Vertrauens oder wenden Sie sich an uns. Wir helfen Ihnen in dieser Sache gerne weiter.

Diese Empfehlung gilt übrigens auch bei Kryptotrojanern. Auch wenn die Frist, welche von diesen gesetzt wurde, droht abzulaufen, werden Ihre Daten nicht gelöscht, solange Ihr Computer ausgeschaltet bleibt.

Wiederherstellung versehentlich gelöschter Dateien oder formatierten Festplatten

Idealerweise haben Sie bereits vorgesorgt und haben auf Ihrem Computer schon lange für den Fall der Fälle Datenrettungsprogramme installiert. Wenn dem nicht so sein sollte, so wäre dies nicht unbedingt ein Problem. Sie können sich Datenrettungsprogramme auch aus dem Internet nachträglich noch herunterladen, Sie sollten diese nur nicht auf Ihrem Computer installieren. Es besteht die Gefahr, dass Sie dadurch die zu rettenden Daten überschreiben. Sie sollten daher bei Möglichkeit die portable Variante dieser Datenrettungsprogramme an einem anderen Computer herunterladen und auf einen USB-Stick kopieren. Diesen können Sie dann gefahrlos an Ihren Computer anstecken und die darin befindlichen Programme starten.

Grob werden Datenrettungsprogramme in zwei Arten unterschieden: Solche, die nur einfach gelöschte Dateien wiederherstellen können und solche, die für versehentlich formatierte Festplatten entwickelt wurden. Bei Ersterem hilft bspw. Recuva von Piriform. Bei Letzterem würde wiederum bspw. GetDataBack von Runtime in Frage kommen.

Datenwiederherstellung bei Hardwareschäden

Bei kaputt gegangener Hardware kommt es nur darauf an, ob hiervon ein Datenträger betroffen ist. Wenn an Ihrem Laptop bspw. nur das Display kaputt gegangen ist, so bedeutet das nicht, dass Ihre Daten alle verloren sind. Die Festplatte Ihres Laptops kann nämlich ausgebaut und an einen anderen Computer angeschlossen werden. Hierüber könnten Sie dann wieder an Ihre Daten herankommen.

Ist aber ein Datenträger ohne Zweifel kaputt, so gibt es nur einen Weg, um an alle Daten wieder heranzukommen, nämlich die Übergabe an ein sog. Datenrettungslabor. Dieses gilt oft als die letzte Hoffnung für verloren gegangene Daten. Selbst Datenträger, welche durch Brand- oder Wasserschäden zerstört würden, können in diesen Laboren oft noch ausgelesen werden. Abhängig davon, um welches Medium es sich handelt, wie groß dieses ist sowie, wie schlimm die Schäden daran sind, können die Preise für eine Datenrettung mehrere hundert bis mehrere tausend Euro betragen. Wenn eine Datenrettung aber selbst unter laborbedingungen nicht mehr möglich ist, wären somit Ihre Daten endgültig verloren.

Auch ein intakter Datenträger kann für eine Datenrettung in ein Labor abgegeben werden. Aus Erfahrung können wir jedoch sagen, dass dieses keine besseren Ergebnisse bringt, als wenn Sie mit entsprechender Software Ihre Daten zu Hause selber retten.

Dienstag, 31 Dezember 2019 11:46

Das sichere Back-Up (Teil 3)

geschrieben von

Datenverluste sind allgegenwärtig. In manchen Fällen kann eine Wiederbeschaffung gelingen, in anderen wiederum nicht. Aber soweit muss es gar nicht kommen, denn es gibt verschiedene Mittel zur Vorbeugung. In dieser Artikelserie, bestehend aus vier Teilen, beschäftigen wir uns mit Datensicherung.

 

Teil 1: Datenverlust - Wo lauern überhaupt die Gefahren?

Teil 2: Welche Techniken gibt es zur Datensicherung?

Teil 3: Wie funktioniert die 3-2-1 Back-up-Strategie?

Teil 4: Und wenn es zu spät ist, wie können Daten gerettet werden?

 

Wie funktioniert die 3-2-1 Back-up-Strategie?

Sich vernünftig aufzustellen und entsprechend zu organisieren ist das A und O jeder Datensicherung. Doch nicht wenige sind am Ende gescheitert, weil ihre Strategien im Katastrophenfall nicht aufgegangen sind. In diesem Teil unserer Artikelserie betrachten wir daher die sog. 3-2-1 Back-up-Strategie, welche am meisten genutzt wird und daher erprobt ist.

Nun gut, wir kennen nun potenzielle Gefahren für Datenverluste und einige Methoden, wie Daten vernünftig abgesichert werden können. Doch diese Informationen alleine genügen nicht, um einer Katastrophe in ausreichender Weise gewappnet zu sein. Es bedarf auch einer guten Strategie sowie einer Vorrichtung, damit Daten am Ende auch wirklich überleben.

Im Ersten Schritt eine Analyse

Bevor überhaupt ein Back-up so wirklich durchgeführt werden kann, müssen zunächst zwei Dinge geklärt werden: Zum einen, welche Daten für eine Sicherung überhaupt infrage kommen und zum anderen, vor welchen Gefahren diese geschützt werden sollen. Von diesen beiden Faktoren abhängig, können die Kosten sowie der zeitliche Aufwand unterschiedlich ausfallen.

Bei Ersterem sollten regelmäßig zu sichernde Daten bei Möglichkeit auf dem Computer an solchen Orten gespeichert werden, die Ihnen als Anwender einen möglichst einfachen Zugang ermöglichen. Sie sollten es meiden, bei jedem Sicherungsvorgang zunächst alle Daten zusammensuchen zu müssen, denn Sie würden dadurch unnötig viel Zeit verlieren. Speichern Sie Ihre wichtigen Daten deshalb von Anfang an an einem Ort, den Sie mit quasi nur einem Mausklick direkt sichern können.

Wenn es um die potenziellen Gefahren geht und Sie Datenverluste durch Hardwareschäden bspw. vorbeugen möchten, sollten Sie darüber nachdenken, Ihren Computer mit einem RAID-System auszustatten. Gegen versehentliches Löschen, Datenverlust durch Softwarefehler oder durch einen Virenbefall hilft nur eine regelmäßige Datensicherung auf einem externen Datenträger. Müssen Ihre Daten aber am Ende auch bspw. einen Wohnungsbrand überleben, sollten Sie Ihre Daten zusätzlich noch in der Cloud speichern.

Drei verschiedene Sicherungskopien

Rein statistisch betrachtet beträgt die Wahrscheinlichkeit im Schnitt 1 zu 100, dass ein Datenträger ausfällt. Auf diese Erfahrung setzt die 3-2-1 Back-up-Strategie an. Ein Anwender soll gleich drei verschiedene Sicherungskopien seiner Daten anlegen, um die Wahrscheinlichkeit eines Totalverlustes enorm zu minimieren. Hier die Rechnung dazu:

1/100 * 1/100 * 1/100 = 1/1.000.000

Bei drei Sicherungskopien ist die Wahrscheinlichkeit 1 zu 1.000.000, dass alle drei Datenträger gleichzeitig ausfallen. Erstellen Sie daher nicht nur eine, sondern gleich mind. drei Sicherungskopien Ihrer Daten, um einem Totalverlust zu entgehen.

Zwei verschiedene Medien

Die Ausfallwahrscheinlichkeit eines Datenträgers kann variieren, je nachdem, aus welchem Material dieser besteht, welche Speichertechnologie dieser verwendet und wie frequentiert dieser genutzt wird. In der 3-2-1 Back-up-Strategie wird deswegen nicht nur zu drei Sicherungskopien angeraten, sondern dass diese bei Möglichkeit auch auf mindestens zwei verschiedenen Medien angelegt werden.

Wenn Ihre Daten bspw. hauptsächlich auf Magnet-Festplatten gespeichert werden, sollten Sie darüber nachdenken, mind. eine Sicherungskopie bspw. auf einer SSD anzulegen. Wenn es sich um geringe Datenmengen handelt, würden sich auch USB-Sticks oder Speicherkarten anbieten. Aber auch optische Datenträger, wie CDs, DVDs oder BDs würden sich eignen.

Eine zusätzliche Sicherung in der Cloud

Die Beste Strategie nützt nichts, wenn Sie zwar alle Ihre Daten regelmäßig auf externe Datenträger kopieren, diese aber nahezu durchgehend in Ihrer Wohnung aufbewahren. Denn theoretisch besteht auch die Möglichkeit eines Totalverlustes durch einen Wohnungsbrand oder einen Wasserschaden. Die 3-2-1 Back-up-Strategie sieht daher die Aufbewahrung mind. einer Kopie Ihrer Daten außerhalb der gewohnten Umgebung vor. Machen Sie sich daher vertraut mit sog. online Back-up bzw. mit Cloud-Diensten, die hierfür Speicher zu Verfügung stellen. Sie sollten dabei Ihre Daten vernünftig verschlüsseln, sodass diese von Unbefugten ohne Weiteres nicht gelesen werden können.

Möchten Sie eine Backup App entwickeln lassen?

Als digitale App-Agentur sind wir der ideale Ansprechpartner. Wir entwickeln ihre App, ganz nach ihren Wünschen.

Unsere App-Agentur in München hilft ihnen gerne bei der Entwicklung ihrer individuellen App im Bereich der Datensicherung, für die Plattformen iOS, iPadOS oder Android.  Rufen Sie uns an unter 0176 75191818 oder senden Sie uns eine E-Mail an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!

Unsere Rufnummer

 

App Anfrage

0176 75 19 18 18

Kostenfreie Erstberatung

Das sagen unsere Kunden

Slide One

Sehr gute Beratung bei der Konzeption unserer App. " Ayse

Sehr gute Beratung bei der Konzeption unserer App. " Ayse

Slide One

Usability der Apps sind hervorragend. " Peter

Usability der Apps sind hervorragend. " Peter

Usability der Apps sind hervorragend. Sehr freundlicher und lobenswerter Service " Peter

previous arrow
next arrow

Im Archiv durchstöbern

plg_search_virenlexikon
Search SEO Glossary
Suche - News Artikel
Suche - Kategorien
Suche - Kontakte
Suche - Seiteninhalt
Suche - Newsfeeds
Suche - Weblinks
Suche - Schlagwörter

AJAX Live Search results - Archiv