„ Sehr gute Beratung bei der Konzeption unserer App. " Ayse
„ Sehr gute Beratung bei der Konzeption unserer App. " Ayse
In unseren News finden Sie Fachartikel über allgemeine Themen Rund um IT
Während WPA2 mehr Schutz als WPA und damit noch mehr Schutz als WEP bietet, hängt die Sicherheit Ihres Routers stark von dem von Ihnen festgelegten Passwort ab. Mit WPA und WPA2 können Sie Passwörter in Länge von (2^6)-1, ergo max. 63 Zeichen verwenden.
Verwenden Sie daher eine Vielzahl an unterschiedlichen Zeichen in Ihrem WiFi-Netzwerk-Passwort. Hacker sind an leichteren Zielen interessiert, machen Sie es ihnen daher so schwer wie möglich und kreieren ein gutes Passwort, um einen Angriff abzuwehren oder zu erschweren. Je leichter Sie es einem Hackerr machen, desto höher ist die Wahrscheinlichkeit, ein Angriffsziel zu sein.
WPA3 ist das Non plus ultra in der WiFi-Sicherheit - zumindest nach heutigem Standard.
Der Schutz von Wi-Fi vor Hackern ist eine der primären Aufgaben in der Cybersicherheit. Deshalb verdient die Einführung des drahtlosen Sicherheitsprotokolls der nächsten Generation, WPA3, Ihr Interesse: Es wird nicht nur die Sicherheit von Wi-Fi-Verbindungen erhöhen, sondern auch dazu beitragen, Sie vor Ihren eigenen Sicherheitsmängeln - menschlichem Versagen - zu bewahren.
Der neue Aspekt, den es sich als Prämisse auf die Fahen geschrieben hat, ist folgender:
Eine grundlegende Schwachstelle von WPA2, dem aktuellen Wireless-Sicherheitsprotokoll aus dem Jahr 2004, besteht darin, dass es Hackern erlaubt, einen so genannten Offline-Wörterbuch-Angriff durchzuführen - ein Brute-Force-Angrff - um Ihr Passwort zu erraten, bzw. zu cracken. Ein Angreifer kann beliebig viele Versuche unternehmen, Ihre Anmeldeinformationen zu erraten, ohne sich im selben Netzwerk zu befinden, und dabei das gesamte Wörterbuch - und darüber hinaus mit Rainbowtables als Beispiel - in relativ kurzer Zeit durchlaufen.
WPA3 schützt vor Wörterbuchangriffen durch die Implementierung eines neuen Schlüsselaustauschprotokolls. WPA2 verwendete einen unvollkommenen Vier-Wege-Handshake zwischen Clients und Zugangspunkten, um verschlüsselte Verbindungen zu ermöglichen; das war es, was hinter der berühmt-berüchtigten Crack-Schwachstelle steckte, die im Grunde jedes angeschlossene Gerät betraf. WPA3 wird dies zu Gunsten der sichereren - und weithin überprüften - gleichzeitigen Authentifizierung durch einen gleichen Handshake aufgeben.
Der alternative Mehrwert ergibt sich für den Fall, dass Ihr Passwort kompromittiert wird. Mit diesem innovativen Handshake unterstützt WPA3 die Vorwärtsgeheimhaltung, was bedeutet, dass jedweder Datenverkehr, der über Ihre Leitung kam, bevor ein Außenstehender Zugang erhielt, verschlüsselt bleibt. Mit WPA2 können sie auch alten Datenverkehr entschlüsseln. Dies ist aufgrund des Verschlüsselungsverfahren möglich.
Als WPA2 anno 2004 aufkam, war das World Wide Web noch nicht zu dem alles verzehrenden Sicherheitshorror geworden, der sein heutiges Markenzeichen ist. Kein Wunder also, dass WPA2 keine rationelle Möglichkeit bot, ebendiese Geräte in jedem Fall in ein bestehendes Wi-Fi-Netzwerk einzubinden. Und gewissermaßen hat die vorherrschende Methode, mit der jener Prozess heute abläuft - das Wi-Fi Protected Setup - seit 2011 prominente Achillesfersen. WPA3 offeriert eine Problemlösung.
Dies wird Gegenstand im 4.Teil der Serie und schließt diese somit ab.
Das auf dem Wireless-Sicherheitsstandard 802.11i basierende Protokoll wurde 2004 eingeführt. Die wichtigste Verbesserung von WPA2 gegenüber WPA war die Verwendung des Advanced Encryption Standard (AES). AES ist von der US-Regierung für die Verschlüsselung von als streng geheim eingestuften Informationen zugelassen, so dass es gut genug sein muss, um Heimnetzwerke zu schützen. Für die genauere Funktionsweise und für Details, können Sie auf unserer Homepage unter #Sicherheit und #Verschlüsselung danach suchen und fündig werden.
Zu diesem Zeitpunkt ist die Hauptanfälligkeit eines WPA2-Systems dann gegeben, wenn der Angreifer bereits Zugang zu einem gesicherten WiFi-Netzwerk hat und sich Zugang zu bestimmten Schlüsseln verschaffen kann, um einen Angriff auf andere Geräte im Netzwerk durchzuführen. Abgesehen davon sind die Sicherheitsvorschläge für die bekannten WPA2-Schwachstellen vor allem für Netzwerke auf Unternehmensebene von Bedeutung und für kleine Heimnetzwerke nicht wirklich relevant. Leider ist die Möglichkeit von Angriffen über das Wi-Fi Protected Setup (WPS) in den aktuellen WPA2-fähigen Zugangspunkten immer noch hoch, was auch das Problem mit WPA darstellt. Und obwohl das Eindringen in ein WPA/WPA2-gesichertes Netzwerk durch diese Lücke etwa 2 bis 14 Stunden dauern wird, ist es immer noch ein echtes Sicherheitsproblem, daher sollte WPS deaktiviert werden, und es wäre gut, wenn die Firmware des Access Points auf eine Distribution zurückgesetzt werden könnte, die WPS nicht unterstützt, um diesen Angriffsvektor völlig auszuschließen.
Eine Empfehlung in Bezug auf WiFi-Sicherheitsmethoden, jedoch auf Routern, welche nach 2006 verfügbar sind:
WPA2 + AES-(256)
WPA + AES-(256)
Am besten deaktiviert man die Wi-Fi Protected Setup (WPS) und stellt den Router auf WPA2 + AES-(256) ein.
Die AES-256 bit Verschlüsselung ist mittlerweile ein goldener Standard und gilt nach heutigem Stand sowie im Rahmen der menschlichen Lebenserwartung als "unknackbar".
Sowohl WPA als auch WPA2 sollen drahtlose Internet-Netzwerke vor unberechtigtem Zugriff schützen. Sollten Sie Ihren Router unverschlüsselt oder ohne Sicherheitsmaßnahmen zu treffen, nutzen, ist es ein Leichtes, illegale Aktonen über Ihre Verbindung und in Ihrem Namen durchzufühen, die Bandbreite zu stehlen, Ihre Surfgewohnheiten mitzusniffen (überwachen, mitschneiden) und zusätzlich Schadsoftware, bzw. schädliche Anwendungen in Ihrem Netzwerk zu installieren.
WiFi-Router unterstützen eine Vielzahl von Sicherheitsprotokollen zur Absicherung von drahtlosen Netzwerken: WEP, WPA und WPA2. WPA2 wird jedoch gegenüber seinem Vorgänger WPA (Wi-Fi Protected Access) empfohlen.
Der einzige Nachteil von WPA2 ist die erforderliche Rechenleistung zum Schutz Ihres Netzwerks. Das bedeutet, dass eine leistungsfähigere Hardware erforderlich ist, um eine geringere Netzwerkleistung zu vermeiden. Dieses Problem betrifft ältere Access Points, die vor WPA2 implementiert wurden und WPA2 nur über ein Firmware-Upgrade unterstützen. Die meisten der aktuellen Access Points wurden mit leistungsfähigerer Hardware geliefert.
Verwenden Sie auf jeden Fall WPA2, wenn Sie WPA2 verwenden können, und nur dann, wenn es keine Möglichkeit gibt, dass Ihr Access Point WPA2 unterstützt. Die Verwendung von WPA ist auch eine Möglichkeit, wenn Ihr Access Point regelmäßig hohe Lasten erfährt und die Netzwerkgeschwindigkeit unter der WPA2-Nutzung leidet. Wenn die Sicherheit an erster Stelle steht, dann ist ein Rollback keine Option, sondern man sollte ernsthaft darüber nachdenken, bessere Access Points zu integrieren.
Je nachdem, welche Sicherheitsprotokolle Sie verwenden, kann die Datengeschwindigkeit beeinträchtigt werden. WPA2 ist das schnellste der Verschlüsselungsprotokolle, während WEP das langsamste ist.
Die WiFi-Sicherheitsalgorithmen haben seit den 1990er Jahren viele Änderungen und Upgrades durchlaufen, um sicherer und effektiver zu werden. Für den Schutz von drahtlosen Heimnetzwerken wurden verschiedene Arten von drahtlosen Sicherheitsprotokollen entwickelt. Bei den drahtlosen Sicherheitsprotokollen handelt es sich um WEP, WPA und WPA2, die den gleichen Zweck erfüllen, aber gleichzeitig unterschiedlich sind.
Die drahtlosen Sicherheitsprotokolle verhindern nicht nur, dass sich unerwünschte Personen mit Ihrem drahtlosen Netzwerk verbinden, sondern verschlüsseln auch Ihre privaten Daten, die über das Medium Luft gesendet werden. Unabhängig davon, wie geschützt und verschlüsselt sie sind, drahtlose Netzwerke können nicht mit der Sicherheit von kabelgebundenen Netzwerken mithalten. Letztere übertragen auf ihrer einfachsten Ebene Daten zwischen zwei Punkten, A und B, die durch ein Netzwerkkabel verbunden sind. Um Daten von A nach B zu senden, übermitteln drahtlose Netzwerke diese innerhalb ihrer Reichweite in jede Richtung an jedes angeschlossene Gerät, das gerade empfängt.Schauen wir uns daher die drahtlosen Sicherheitsprotokolle WEP, WPA, WPA2 und WPA3 genauer an.
WEP wurde für drahtlose Netzwerke entwickelt und im September 1999 als Wi-Fi-Sicherheitsstandard freigegeben. WEP sollte das gleiche Sicherheitsniveau bieten wie kabelgebundene Netzwerke, jedoch gibt es eine Menge bekannter Sicherheitsprobleme im WEP, das zudem leicht zu hacken und schwer zu konfigurieren ist.
Trotz all der Arbeit, die zur Verbesserung des WEP-Systems geleistet wurde, stellt es immer noch eine sehr anfällige Lösung dar. WEP wurde 2004 offiziell von der Wi-Fi-Allianz aufgegeben und ist somit obsolet, bzw. nicht mehr im Einsatz -zumindest sollte es nicht mehr im Einsatz sein, da es zu große Sicherheitslücken aufweist!
Für die Zeit, in der sich der 802.11i-Wireless-Sicherheitsstandard in der Entwicklung befand, wurde WPA als vorübergehende Sicherheitserweiterung für WEP verwendet. Ein Jahr, bevor WEP offiziell aufgegeben wurde, erhielt WPA eine formelle Verabschiedung. Die meisten modernen WPA-Anwendungen verwenden einen Pre-Shared Key (PSK), der meist als WPA Personal bezeichnet wird, und das Temporal Key Integrity Protocol oder TKIP zur Verschlüsselung. WPA Enterprise verwendet einen Authentifizierungsserver für die Erzeugung von Schlüsseln und Zertifikaten.
WPA war eine bedeutende Verbesserung gegenüber WEP, aber da die Kernkomponenten so hergestellt wurden, dass sie durch Firmware-Upgrades auf WEP-fähigen Geräten eingeführt werden konnten, stützten sie sich immer noch auf Elemente, welche ein Ausnutzen von Sicherheitslücken möglich machte.
Wie WEP erwies sich auch WPA, nachdem es den Proof-of-Concept und öffentliche Demonstrationen durchlaufen hatte, als ziemlich anfällig für Einbrüche. Die Angriffe, die die größte Bedrohung für das Protokoll darstellten, waren jedoch nicht die direkten, sondern die Angriffe auf Wi-Fi Protected Setup (WPS) - ein Hilfssystem, das entwickelt wurde, um die Verbindung von Geräten mit modernen Zugangspunkten zu vereinfachen.
Auch wir legen sehr viel Wert auf eine gut geschützte Kommunikation zwischen zwei und mehr Endpunkten. Eine Netzwerk über W-LAN birgt immer Risiken mit sich und sollte deshalb von einem professionellen IT Service vorgenommen werden. Als IT Systemhaus in München bieten wir unseren Kunden den Aufbau von Mesh-Netzwerken, sodass Sie von allen Ecken in ihrem Haus oder Büro die bestmögliche Bandbreite erhalten. Lassen Sie sich von uns unverbindlich beraten unter unserer Rufnummer 0176 / 75 19 18 18 oder schreiben Sie uns ganz einfach eine E-Mail an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!
In der Informationstechnolgie kommt man früher oder später nicht umhin, sich mit den Begriffen wie Bridge, Hub, Repeater, Router, Switch etc. zu beschäftigen, um sich ein Bild von der Funktionsweise und dessen Nutzen zu machen. Deshalb ein kleiner Überblick über die genannten Begriffe und ein Übersicht über die Charakteristika.
Diese hat die Aufgabe, Netze auf den Teilschichten MAC oder LLC der OSI-Schicht 2 - Data Layer, Datenübertragungsschicht - zu verbinden (MAC-Level-Bridge). Hierbei gilt es zu beachten, dass die Netze unterschiedliche Topologien besitzen können.
Hierbei spricht man im engeren Sinne von einem Sternkoppler oder auch Sternverteiler (Kabelkonzentrator), welcher die Verbindung eines Konzentrators mit einem Repeater ist, sogenannte Multiport-Repeater, wobei die Hubs die Repeater in vielen Bereichen ersetzt haben. Der Hub kann auch als Knotenpunkt gesehen werden, über den alle Daten laufen bzw. weitergeleitet werden, deshalb wird diese auch als "Konvergenz-Stelle" bezeichnet, da hier bei der Kommunitkation von Daten alles zusammenläuft.
Dieser erfüllt die Aufgabe, verschiedene Netze mit vollkommen gleichartigen Zugriffsweisen und Protokollen zu verbinden. Gleichzeitig reduziert der Repeater Signaldämpfungen sowie - verzerrungen und wird daher auch als Aufholverstärker bezeichnet. Selbstverständlich verbinden moderne Repeater ebenso völlig unterschiedliche Medien.
Diesbezüglich sei das Wort "Transparenz" erwähnt, da der Router autonom das Netz analysiert und somit auch Transparenz schafft. Zusätzlich auf Basis routbarer Protokolle, sucht er geeignete Wege im Netz. Darüber hinaus ist er in der Lage, sogenannte "Routingtabellen" zu erstellen, welche mit Wegetabellen in Verbindung zu bringen sind. Letztendlich vermittelt er einen zielgerichteten Austausch von Datenpaketen im Netz. Eine weitere Applikation des Routers spiegelt sich im Bridging Router - BRouter - wider: simpel gesprochen ist es ein Router mit integrierter Bridge.
In Bezug auf Netzübergängen sowie getrennten Netzwelten - logisch/physikalisch - dient es der Realisierung und kompletten Adaption davon. Diese erfolgt durch die Um- bzw. Übersetzung verschiedener Netze in folgenden Schritten:
1. Adressübersetzung
2. Übersetzung der Datenübertragungsgeschwindigkeit
3. Protokolladaption (Konvertierung oder Umschreibung)
Somit beziehen sich besondere Funktionsaufgaben auf die Schichten 3 - 7 und werden daher auch intelligente Schnittstellen genannt. Zuguterletzt sind die hohen Sicherheitsstandards als Möglichkeit zugute zu halten.
Ein Switch fungiert wie eine Brdige, aber mit mehreren Zugängen für Rechner sowie Netze. Damit ist auch eine parallele Wandlung von Daten zwischen den unterschiedlichen Switchzugängen möglich. Außerdem besteht die Möglichkeit, eine Punkt-zu-Punkt-Geräte-Verbindungen herzustellen. Nicht zwangsläufig aber oft ist dieser ein Hardwareprodukt. Hierbei existieren sogenannte Layer-Switches, welche in folgende Typen unterteilt werden:
Layer 1-Switches: Keine Adressauswahl (Hub-System).
Layer 2-Switches/Layer 2/3-Switches: Über Adresstabellen automatisiert, werden diese durch die Zieladressen der Datenpakete generiert. Dabei wird durch die in den Datenpaketen enthaltenen MAC-Adressen nötige Information entnommen.
Layer 3-Switches: Verabreitet auch IP-Ardressen, da es sich auf der 3. Schicht befindet bzw. bewegt.
Der Switch ist in der Lage, im Gegensatz zum Hub, gezielt weiterzuleiten und zu entscheiden, wohin die Daten fließen sollen. Somit kann man den Switch als intelligent betrachten und den "weniger Schlauen" als Hub, da dieser an alles sendet.
Durchleitrate (Forwarding Rate): Pakete pro Sekunde
Filterrate (Filter Rate): Bearbeitete Paketanzahl pro Sekunde
Adressanzahl: Verwaltete (MAC-)Adressen
Backplanedurchsatz: Transportkapazität auf den Vermittlungsbussen
Store-and-Forwarding: Ein Datenpaket wird vollends über einen Port eingelesen und erst dann wird die Adresse verarbeitet, ein einfaches und sicheres Verfahren, mit einer vollständigen Fehlerüberprüfung und selbstständigem Verwerfen von fehlerhaften Paketen.
Nach dem Einlesen des Steuerkopfes der Datenpakete, erfolgt die Auswertung der Adresse. Gleichzeitig werden Nutzinformationen notiert bzw. aufgenommen und dadurch verringert sich die Latenzzeit, wobei immer noch Datenkollisionen möglich sind.
Eine Datenweitergabe wird nach den ersten 72 Bytes initiiert. Moderne Switches realisieren alle 3 Funktionsprinzipien zugleich (adaptives Switching, Error-Free-Cut-Through). Je nach Situation wird das optimale Verfahren angewendet.
Dieser Artikel beschäftigt sich mit dem Thema OSPF (Open Shortest Path First), wobei hier auf den Einzelbereich und Mehrbereich eingegangen wird.
OSPFv2 wird nur für IPv4-Netzwerke und OSPFv3 nur für IPv6-Netzwerke verwendet. Der primäre Fokus dieses Themas liegt auf OSPFv2 mit einem Bereich.
OSPF ist ein Link-State-Routing-Protokoll, welches als Alternative für das Distanzvektor-Routing-Informationsprotokoll (RIP) entwickelt wurde. Zu damaliger Zeit, im Kontext des Netzwerks und des Internets, war RIP ein hinnehmbares Routing-Protokoll.
Die Abhängigkeit des RIP, von der Anzahl der Hops als einzige Metrik zur Bestimmung der besten Route, kristallisierte sich jedoch schnell als Problematik heraus.
Unter Verwendung der Hop-Anzahl lässt sich in komplexen Netzwerken mit diversen Pfaden unterschiedlicher Geschwindigkeit suboptimal skalieren.
OSPF bietet gegenüber RIP immense Vorteile, da es eine schnellere Konvergenz bietet und sich auf viel größere Netzwerkimplementierungen skalieren lässt. OSPF ist ein Link-State-Routing-Protokoll, das das Konzept von Bereichen nutzt. Ein Netzwerkadministrator kann die Routingdomäne in verschiedene Bereiche unterteilen, um den Routing-Aktualisierungsverkehr zu steuern. Ein Link ist hier klassisch eine Schnittstelle auf einem Router.
Zum Netzwerksegment gehört auch der Begriff „Verbindung“, welcher auch Teil des Hiesigen ist und zwei Router verbindet. Somit lässt sich zum Beispiel ein Stub-Netzwerk über ein Ethernet-LAN verbinden, welches wiederum mit einem einzelnen Router Verbindung hält.
Der Begriff des Verbindungsstatus resultiert aus der Information über einen Status. Alle Verbindungsstatusinformationen umfassen das Netzwerkpräfix, die Präfixlänge und die Kosten.
Alle Routing-Protokolle haben homologe Komponenten. All diese Komponenten verwenden Routing-Protokollnachrichten, um Routeninformationen auszutauschen.
Beim Aufbau von Datenstrukturen, welche mithilfe eines Routing-Algorithmus verarbeitet werden, sind diese Nachrichten hilfreich.
Router, auf denen OSPF ausgeführt wird, tauschen Nachrichten aus, um Routing-Informationen mithilfe von fünf Pakettypen zu übermitteln. Diese Pakete werden gegliedert in:
Diese Pakete werden verwendet, um benachbarte Router zu erkennen und Routing-Informationen auszutauschen, um genaue Informationen über das Netzwerk zu erhalten.
OSPF-Nachrichten werden zum Erstellen und Verwalten von drei OSPF-Datenbanken wie folgt verwendet:
Diese Tabellen enthalten eine Liste benachbarter Router zum Austausch von Routing-Informationen. Diese Tabellen werden im RAM gespeichert und verwaltet.
Anhand von Berechnungsergebnissen erstellt der Router die Topologietabelle, die auf dem SPF-Algorithmus (Dijkstra Shortest-Path First) basieren. Der SPF-Algorithmus wiederum basiert auf den kumulierten Kosten zum Erreichen eines Ziels.
Der SPF-Algorithmus erstellt einen SPF-Baum, indem jeder Router an der Wurzel des Baums platziert und der kürzeste Pfad zu jedem Knoten berechnet wird. Der SPF-Baum wird dann verwendet, um die besten Routen zu berechnen. OSPF platziert die besten Routen in der Weiterleitungsdatenbank, aus der die Routing-Tabelle erstellt wird.
Um die Routing-Informationen beizubehalten und einen Konvergenzstatus zu erreichen, führen OSPF-Router einen allgemeinen Routing-Prozess für den Verbindungsstatus durch.
Bei OSPF werden die Kosten verwendet, um den besten Pfad zum Ziel zu definieren. Dabei existieren Routing-Schritte für den Verbindungsstatus und das Ganze von einem Router ausgeführt:
Spam - eine Form der Pest unseres digitalen Zeitalters. Wie in der realen Welt, kann uns Werbung auch im Internet auf unerwünschte Weise aufgedrungen werden. In dieser Artielkserie, bestehend aus drei Teilen, beschäftigen wir uns speziell mit Spam via E-Mail.
Teil 1: Wie Spammer an E-Mail-Adressen gelangen
Teil 2: Mit welchen Mitteln Spammer ihre unerwünschten Nachrichten übermitteln
Teil 3: Wie E-Mail-Server oder Clients Spam als solchen zuverlässig erkennen
Durch Spam entstehen jedes Jahr wirtschaftliche Schäden in zweistelliger Milliardenhöhe. Es ist ein Geschäft, wovon nicht nur Anbieter zweifelhafter Produkte profitieren, sondern auch diejenigen, die das Spamming technisch organisieren. Doch wie gelingt ihnen unerkannt der Spamversand? Damit beschäftigen wir uns in diesem Teil unserer Artikelserie.
Damit Spammer ihre unerwünschten Nachrichten verschicken können, benötigen Sie Zugang zu einem Mail-Server. Dieser muss mit einer gewissen Vertrauenswürdigkeit ausgestattet sein, sodass andere Mail-Server die Nachrichten von diesem annehmen. Der Zugang und auch die Kommunikation unter Mail-Servern wird über das sog. Simple Mail Transfer Protocol (kurz SMTP) abgewickelt. Spammer machen sich dieses mittels folgender Methoden zunutze:
Die meisten E-Mail-Anbieter - auch solche, die gratis E-Mail-Adressen vergeben - bieten zu ihren Postfächern Zugänge an mittels POP3 oder IMAP und SMTP. Nutzer können damit über ihre E-Mail-Clients, wie z. B. Outlook oder Thunderbird, auf ihre E-Mails zugreifen und gleichzeitig selber welche verschicken. Nicht wenige machen jedoch den Fehler und speichern ihre Zugangsdaten in diesen Clients ab. Sie riskieren damit, dass diese bspw. von einem Trojaner ausgelesen werden. Das ist nämlich genau der Weg, wie Spammer typischerweise an solche SMTP-Zugänge herankommen. Es werden entweder die Zugangsdaten zu einem E-Mail-Postfach entwendet oder auf dem Rechner eines Nutzers wird ein Trojaner platziert, der alle lokal vorhandenen SMTP-Zugänge verwendet. Im Anschluss daran werden massenweise Spam-Nachrichten verschickt, bis die Provider den ungewöhnlichen Traffic bemerken und die Zugänge sperren. Erst dann bemerken die Nutzer, dass ihre Zugangsdaten missbraucht wurden.
Das gleiche Spiel existiert auch auf einer ganz anderen Ebene. SMTP-Zugänge können nämlich nicht nur bei ihren rechtmäßigen Nutzern erschlichen werden, sondern auch bei den SMTP-Servern selbst. Hackern gelingt es nicht selten, über diese z. B. an bestimmte SMTP-Zugänge heranzukommen. Manchmal sind sie sogar in der Lage, sich ganz neue Zugänge anzulegen. Oft müssen sie ihre analytischen Fähigkeiten noch nicht einmal erst bemühen, weil die Server bereits über keine Zugangssicherung verfügen. Bei Letzterem spricht man von sog. "Open Relays", Servern, die für den Mailversand direkt und ohne Zugangsdaten verwendet werden können. Wurde ein solcher SMTP-Server erst einmal gefunden, können Spammer über diesen sogar sehr viel bequemer ihre Nachrichten verschicken.
Kontaktformulare und vergleichbare Anwendungen im Web werden von Spammern ebenfalls regelmäßig dazu verwendet, um Spam-Nachrichten zu versenden. Hierüber erreichen sie zwar nur den Personenkreis hinter diesen Web-Formularen, dennoch lohnt sich der Aufwand für sie. Sie müssen sich bspw. keinen entsprechenden SMTP-Zugang besorgen und Spamming über HTTP ist viel unauffälliger als über SMTP. Wurden nämlich genügend Webseiten entdeckt, die über ein ungeschütztes Kontaktformular verfügen, können diese massenhaft aufgerufen und mit Nachrichten bespielt werden.
Bei einem Botnet handelt es sich um eine große Menge an gekaperten Computern, die zu einem Netzwerk zusammengeschlossen wurden. Sie können dazu verwendet werden, um z. B. sog. DDoS Attacken auszuführen. Spammer nutzen sie jedoch für ihren Spamversand. Auf allen gekaperten Computern befinden sich Trojaner, welche sich an einem der oben erwähnten Methoden bedienen und Spam verschicken.
Windows 7 selbst verfügt über eine eingebaute Virtualisierungsfunktion, die es ermöglicht, dass Software, die unter Windows XP entwickelt wurde, und sogar das gute alte DOS ohne Modifikationen ausgeführt werden kann. Um es auszuprobieren, klicken Sie auf das Startmenü, geben Sie "cmd" in die Suche ein, drücken Sie die Eingabetaste und Sie haben Zugang zu DOS mit all seinen Funktionen. =)
Obwohl die häufigste Ansicht über die Anwendung dieser Technik die eines großen Servers oder Rechenzentrums ist, auf dem mehrere Betriebssysteme gleichzeitig laufen, mit komplizierten Konfigurationen und mit Schwerpunkt auf Unternehmen, kann auch der durchschnittliche Benutzer davon profitieren. Aber wie?
Wenn Ihr Computer relativ neu ist, können Sie das zu Hause tun. Und warum tun Sie das? Viele ältere Drucker haben zum Beispiel nur Treiber und funktionieren nur unter Windows XP, und stellen Sie sich vor, Sie hätten einen Computer mit Windows 7 gekauft. Mit Software wie Oracle VirtualBox oder VMware Player (beide kostenlos zum Downloaden), können Sie Windows XP als virtuelle Maschine innerhalb von Windows 7 ausführen und die Treiber darauf installieren, wobei Sie Ihren Drucker normal verwenden. Sie können auch ein anderes Betriebssystem, wie z.B. Linux oder Unix, testen, ohne irgendwelche Änderungen an Ihrem Computer vorzunehmen. Dies sind nur einige der Anwendungen, die die Virtualisierung bietet.
Nehmen wir ein Beispiel aus der Industrie, wo die Virtualisierung eingesetzt wird, um die maximale Leistung mit der verfügbaren Hardware zu erreichen, da ein Server selten 100% seiner Arbeitskapazität (CPU, Grafikkarte, Speicher, Festplatte usw.) ausnutzt. Stellen Sie sich nun vor, ein Server hat einen Dual-Core-Prozessor und vier Festplatten, und ein Unternehmen muss gleichzeitig zwei Betriebssysteme wie Windows 7 und Windows 10 bereitstellen.
Vor der Entscheidung zum Kauf der neuen Ausrüstung stellt dieses Unternehmen jedoch fest, dass der aktuelle Server im Durchschnitt nur 35% der Verarbeitungsleistung des Geräts und nur 15% der Plattenkapazität verbraucht. Hier kann die Virtualisierung ansetzen. Mit Hilfe von Software werden zwei virtuelle Maschinen auf einer Emulationsschicht erstellt, die jedem Betriebssystem mitteilt, dass es über einen Prozessor mit nur einem Kern und zwei Platten verfügt. Angenommen, Windows 7 und Windows 10 erfordern die gleichen Anforderungen, dann werden wir den gleichen Computer haben, auf dem beide Systeme zur gleichen Zeit laufen, wobei die Ressourcen durch zwei geteilt werden und 70% für den Prozessor und 30% für die Festplatte genutzt werden. Durch den richtigen Einsatz von Virtualisierung können also erhebliche Kosten gespart werden.
Wir sind Ihr IT Service in München, wenn es um die Virtualisierung von Clients & Servern geht. Vielleicht möchten Sie eine sehr gute Skalierbarkeit von ihren Systemen haben und benötigen mehr Infos? Eine Hochverfügbarkeit mittels virtueller Maschinen kann für systemkritische Anwendungen im Unternehmensumfeld sehr viel Sinn machen. Unsere IT Spezialisten unterstützen Sie gerne bei der Migration von physikalischen Servern zu virtuellen Servern und beraten Sie da wo Virtualisierung für Sie einen Mehrwert bietet. Unsere IT Dienstleistung bieten wir hauptsächlich für kleine und mittelständischen Unternehmen an, aber auch für interessierte Privatkunden. Rufen Sie uns unverbindlich unter unserer Rufnummer 0176 / 75 19 18 18 an oder schreiben Sie uns ganz einfach eine Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!!
Virtualisierung ist eine Technik, die es ermöglicht, eine Software-Anwendung oder ein Betriebssystem innerhalb eines anderen Systems auszuführen. Bei diesem Prozess wird eine virtuelle Instanz eines Computersystems in einer von der tatsächlichen Hardware abstrahierten Schicht ausgeführt. Es ist dasselbe, als wenn man eine Linux-Distribution unter Windows öffnet und als Programm ausführt oder eine Windows-Anwendung z.B. ein Spiel wie Fortnite unter Linux startet.
Meistens bezieht sich dies auf die gleichzeitige Ausführung mehrerer Betriebssysteme auf einem Computersystem. Für die Anwendungen, die auf der virtualisierten Maschine ausgeführt werden, kann es so aussehen, als befänden sie sich auf einer eigenen, dedizierten Maschine, wobei das Betriebssystem und andere Programme nur auf dem virtualisierten Gastsystem ausgeführt werden und nicht mit dem darunter liegenden Host-Betriebssystem verbunden sind.
Eine virtuelle Maschine (VM) ist eine virtuelle Umgebung, die wie ein virtuelles Computersystem mit eigener CPU, eigenem Speicher, eigener Netzwerkschnittstelle, eigene Grafikkarte und eigenem Speicher funktioniert und in einem physischen Hardwaresystem erstellt wird. Softwareprogramme, die als Hypervisor bezeichnet werden, trennen die Ressourcen der Maschine und der Hardware und verteilen sie ordnungsgemäß, so dass sie von der virtuellen Maschine genutzt werden können.
Es gibt eine Reihe von Gründen, warum Nutzer die Virtualisierung in der IT einsetzen. Für einfache Desktop-Benutzer besteht die häufigste Verwendung darin, Anwendungen für ein anderes Betriebssystem ausführen zu können, ohne den Computer zu wechseln oder ein anderes System neu starten zu müssen. Hierbei können z.B. Spiele auf Linux eine große Rolle spielen, welche ansonsten nur auf Windows funktionieren. Mittels einer VM (virtuelle Maschine) kann auch hier Abhilfe geschafft werden. Manche nutzen vielleicht diese Technologie auch um sich einen ersten Eindruck zu verschaffen, bevor man zu einem anderen Betriebssystem wechselt. So ist es möglich Linux zuerst zu testen, bevor man es produktiv einsetzt.
Für Server-Administratoren bietet die Virtualisierung auch die Möglichkeit, verschiedene Betriebssysteme auszuführen, aber vielleicht noch wichtiger ist, dass sie eine Möglichkeit bietet, ein großes System in viele kleinere Teile zu segmentieren, so dass der Server von einer Reihe verschiedener Benutzer oder Anwendungen mit unterschiedlichen Bedürfnissen effizienter genutzt werden kann. Durch die Virtualisierung kann auch der Speicher oder die Leistung im Nachhinein nach oben skaliert werden, wenn die darunter liegende Hardware genügend Kapazitäten hat. Wenn Sie jedoch eine Maschine selbst bereit stellen ohne eine Virtualisierung, haben Sie diesen Luxus nicht.
Es ermöglicht auch eine Isolierung, wodurch die in einer virtuellen Maschine laufenden Programme vor den Prozessen, die in einer anderen virtuellen Maschine auf demselben Host ablaufen, geschützt werden. So ist es nicht möglich, dass Anwendungen einer anderen VM auf eine andere VM zugreifen können. Alle virtuellen Maschinen laufen komplett unabhängig voneinander. Dies macht auch im Serverhosting
Klingt kompliziert? Nein, das ist es wirklich nicht. Es gibt viele Programme oder sogar Besonderheiten eines Betriebssystems, die für ein bestimmten Personenkreis (Programmierer, Administratoren oder solche, die verschiedene Plattformen gleichzeitig verwenden) nützlich sind. Die Virtualisierung ist die einfachste und beste Lösung, um alle notwendige Software und Ressourcen auf einem Rechner zu haben und ihn damit leichter zu verwalten. Fast alle heute verkauften Computer verfügen über mehr als genug Ressourcen, um zwei (oder mehr) Betriebssysteme gleichzeitig ohne nennenswerte Leistungseinbußen zu hosten. Durch Virtualisierung können Kosten für neue Server und zu simulierende Clients gespart werden, da nur eine Hardware benötigt wird um alle benötigen Anwendungen auf dem System isoliert und unabhängig ausführen zu können.
In unserem zweiten Teil erfahren wir, wie was der Unterschied einer VM und einem Container ist und wie Sie mit einer richtigen Virtualisierung auch Kosten senken können.
Auf Basis IEEE 802.11 WLAN ist es mit minimalem Aufwand möglich, schnell eine drahtlose Verbindung aufzubauen und bietet zusätzlich eine hohe Flexibilität in der Administration und Konfiguration.
Dies geht jedoch mit der Möglichkeit der Angreifbarkeit des Systems einher, da die Übertragung der Daten via Luftschnittstellen erfolgt. Hiesige Schnittstelle wird auch als "shared medium" bezeichnet (geteiltes Medium) und eröffnet Angreifern die Gelegenheit, diese zu attackieren. Manipulationen bzw. Angriffsversuche dieser Systeme lassen sich mit relativ einfachen Mitteln realisieren. Dies bringt uns zum Thema der WLAN-Sicherheit und die damit verbundenen Schutzmaßnahmen sowie Gefährdungen, welche auf unterschiedlichen Ebenen vorgenommen werden können bzw. existent sind.
Um Missbrauch durch Unbekannte zu verhindern, ist die Absicherung des WLANs durch die deutsche Rechtssprechung, in Bezug auf Authentifizierung und Verschlüsselung, zwingend vorgeschrieben.
Unter Anwendung diverser Maßnahmen kann dies - u.a. in Abhängigkeit der Größe eines Netzwerkes - realisiert werden.
Wesentliche Maßnahmen für ein SOHO-WLAN (Small Office Home Office) sind:
Hierbei sei nochmal der Artikel der Schutzziele in der Informationssicherheit erwähnt, bei dem CIA einge tragende Rolle einnimmt.
Exkurs: wesentliche Sicherheitsmechanismen, die Anwendung durch Verfahren und Kommunikationsprotokollen erfahren, sind der Garant bzw. die Sicherstellung der:
Vertraulichkeit (Confidentiallity)
Integrität (Integrity)
Authentizität (Authenticity)
und somit der Daten im WLAN.
Vertraulichkeit im Kontext WLAN: Informationen (Daten) nur für Berechtigte zugänglich machen!
Integrität in Bezug auf WLAN: Datensicherheit (Schutz vor Verlust) und Erkennen von Manipulation!
Authentizität im Kontext WLAN: Eindeutige Zuordnung einer Information zum Absender!
WEP und WPA sind ungenügend und nicht mehr sicher, deshalb werden diese hier nicht genauer beschrieben.
Sichere Verfahren hierfür sind:
Spam - eine Form der Pest unseres digitalen Zeitalters. Wie in der realen Welt, kann uns Werbung auch im Internet auf unerwünschte Weise aufgedrungen werden. In dieser Artielkserie, bestehend aus drei Teilen, beschäftigen wir uns speziell mit Spam via E-Mail.
Teil 1: Wie Spammer an E-Mail-Adressen gelangen
Teil 2: Mit welchen Mitteln Spammer ihre unerwünschten Nachrichten übermitteln
Teil 3: Wie E-Mail-Server oder Clients Spam als solchen zuverlässig erkennen
Durch Spam entstehen jedes Jahr wirtschaftliche Schäden in zweistelliger Milliardenhöhe. Es ist ein Geschäft, wovon nicht nur Anbieter zweifelhafter Produkte profitieren, sondern auch diejenigen, die das Spamming technisch organisieren. Die beste Infrastruktur nützt aber nichts, wenn Spammer nicht wissen, an welche Empfänger ihre Nachrichten gehen sollen. In diesem Teil unserer Artikelserie schauen wir uns deshalb mal an, wie Spammer an E-Mail-Adressen herankommen können.
Typischerweise kommen Spammer durch das Auslesen von Adressbüchern ahnungsloser Nutzer massenhaft an E-Mail-Adressen heran. Abhängig davon, ob das Adressbuch auf dem Webportal des eigenen E-Mail-Providers geführt wird, oder ob dieses lokal auf dem Computer bzw. Smartphone existiert, bedienen sie sich dabei an verschiedensten Methoden.
In Erster Linie kommen Kriminelle dadurch an Adressbücher heran, weil Nutzer für ihre E-Mail-Postfächer keine sicheren Passwörter verwenden. Aber auch ein unzureichender Virenschutz kann dazu führen, dass ein Adressbuch mittels Trojaner ausgelesen wird. Darüber hinaus installieren nicht wenige Nutzer völlig unsorgsam jede App auf dem eigenen Smartphone. Diese fordern nicht selten die Erlaubnis ein, alle Kontakte auf dem Smartphone auslesen zu dürfen.
Ganze Adressbücher können auch dadurch an die Öffentlichkeit gelangen, weil beim verschicken von Massenmails nicht genügend aufgepasst wird. Man denke bspw. an einen Verein, der seine Mitglieder über eine Neuigkeit informieren will. Wenn die Adressen dieser woanders als im BCC eingetragen werden, landen sie automatisch auch bei den Empfängern der Mail.
Wir können also selber viel unternehmen, um Spammern nicht die Möglichkeit zu geben, unsere Adressbücher auszulesen. Ein vernünftiger Virenschutz sowie sinnvolle Privatsphäre-Einstellungen schützen am Ende nicht nur unsere eigenen Daten, sondern auch die unserer Freunde und Bekannten.
Relativ neu ist das Phänomen, dass Spammer massenhaft E-Mail-Adressen aus geleakten Datenbanken auslesen. Diese wurden oft von Hackern aus den Systemen der jeweiligen Betreiber entwendet. Es existieren aber auch Fälle, bei denen Kriminelle an Daten herankamen, weil Mitarbeiter bestimmter Unternehmen unvorsichtig waren und unabsichtlich Daten ihrer Nutzer im Internet veröffentlichten. Spammer können diese dann z. B. in einem Untergrundforum einkaufen.
Ein Beispiel, bei dem Hacker Daten erfolgreich entwenden konnten, ist MySpace. Hier wurden knapp 360 Mio. Datensätze der Nutzer einfach mal so eben geklaut. Diese wurden zunächst in einem Untergrundforum zum Kauf angeboten, später konnte jedermann sie gratis downloaden. Anhand der Daten lässt sich sagen, dass der Diebstahl wahrscheinlich schon im Jahr 2008 stattgefunden hat. Es kamen nicht nur E-Mail-Adressen abhanden, sondern auch die dazugehörigen Passwörter, welche durch die Seitenbetreiber offensichtlich viel zu unzureichend geschützt wurden.
Gegen derartige Datendiebstähle kann der einzelne Nutzer nahezu nichts unternehmen. Ob und inwieweit unsere Daten sicher sind, hängt von den Betreibern der jeweiligen Plattformen ab. Wir als Nutzer können diesen im besten Fall nur vertrauen.
E-Mail-Adressen müssen nicht unbedingt gestohlen sein, Spammer können sie sich auch mit einem Zufallsgenerator beschaffen. Hierfür sammeln sie zunächst einmal die Domain-Endungen von vielen sog. Freemail-Providern ein. Anschließend besorgen sie sich sog. Wörterbücher mit allgemein gebräuchlichen Begriffen im Internet und erstellen ein Schema, anhand dessen der Zufallsgenerator die E-Mail-Adressen dann generiert. Diese werden dann im Anschluss zum Spammen verwendet.
Bei dieser Methode handelt es sich um die einfachste aller Methoden. Die Quote der Rückläufer ist dafür aber hoch.
Eine ebenfalls beliebte Methode, um an möglichst viele E-Mail-Adressen heranzukommen, ist das komplette Absuchen des Internets. Spammer können sich dabei an sog. Crawlern bedienen. Diese tun den ganzen Tag nichts anderes, als Websites, das Usenet, oder den IRC nach E-Mail-Adressen zu durchforsten.
Wenn E-Mail-Adressen daher auf Webseites veröffentlicht werden sollten, sollten diese in einem Format vorliegen, das von einem Crawler nicht so ohne weiteres ausgelesen werden kann.
Effektive Spam-Bekämpfung geht nur durch ein ausgefeiltes System. Als IT Service in München bieten wir kleinen und mittelständischen Unternehmen die Möglichkeit an, Spam E-Mails effektiv zu bekämpfen. Unsere Lösungen haben keinen "JoJo Effekt", sondern sind langfristige und nachhaltige Methoden, um Spam abzuwehren. Lassen Sie sich von uns unverbindlich beraten unter unserer Rufnummer 0176 / 75 19 18 18 oder schreiben Sie uns ganz einfach unter Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!
Diese Netzwerktechnologie basiert auf der Funktechnik und nutzt somit für die Datenübertragung die Luft als Kanal. Jedoch ist die Annahme bzw. These im Kontext der einzigen Möglichkeit der Datenübertragung in Bezug auf Luft als solche eine irrige und somit falsche. Der pyhsikalischen Grundlage nach ist es eine elektromagnetische Welle, welche wiederum an eine elektrische und magnetische Transversalwelle gekoppelt ist, die im freien Raum bzw. im Raum-Zeit-Kontinuum übertragen wird. Daher können diese elektromagnetische Wellen auch ohne das Medium Luft übertragen werden, wie z. B. im Weltall, ergo im Vakuum.
Daraus resultiert die Möglichkeit, sich nicht erschlossene Regionen oder Örtlichkeiten ohne die Verlegung von Kabeln kostengünstig zu vernetzen oder diese Technologie theoretisch auch im Weltraum zu benutzen.
Wir beschränken uns hier jedoch auf den irdischen Teil.
Wie bei den drahtgebundenen Netzwerken werden auch diese in folgende Segmente unterteilt nach IEEE (Institute of Electrical and Electronics Engineers):
IEEE 802.15.3 UWB (Ultra-Wide Band)=High Speed Wireless PAN; bis zu 1000 Mbit/s
Grundlegend wird bei IEEE 802.11 das CSMA/CA-Verfahren (Carrier Sense Multiple Access/Collision Avoidance) genutzt, was der Kollisionsvermeidung dient.
Im nächsten Artikel befassen wir uns mit dem WLAN-Einsatz sowie der WLAN-Sicherheit, welche unabdingbar und gesetzlich vorgeschrieben, aber auch abgesehen davon, sinnvoll und empfehlenswert ist.
In unserem ersten Artikel haben wir uns über die die vier Eigenschaften wie Vertraulichkeit, Integrität, Verfügbarkeit und Authentizität befasst sowie mit der symmetrischen Verschlüsselung. Im zweiten Teil unserer Artikelserie beschäftigen wir uns mit der asymmetrischen Verschlüsselung, sowie eine Verschlüsselungstechnik die darauf basierend aufgebaut ist.
Bei der asymmetrischen Verschlüsselung hingegen bedienen sich die Teilnehmer eines Schlüsselpaares, welches aus einem Puplic Key (öffentlicher Schlüssel) und einem Private Key (privaten Schlüssel) besteht. Diese hängen mathematisch zusammen.
Wie der Name Puplic Key schon sagt, ist dieser Schlüssel für alle frei zugänglich, nicht jedoch der Private Key, dieser ist optional nur dem Besitzer bekannt.
Somit ergibt sich, dass eine Nachricht, welche mit dem Private Key verschlüsselt wurde, nur mit dem Puplic Key entschlüsselt werden kann und umgekehrt; eine Nachricht, welche mit dem Puplic Key verschlüsselt wurde, kann nur noch mit dem dazugehörigen Private Key entschlüsselt werden.
Anwendung findet dies bei dem Schutzziel der Integrität, die digitale Signaturen verwendet.
Bei einer digitalen Signatur wird ein sogenannter Hash-Wert erzeugt. Ein Hashwert besitzt eine feste Länge und bedient sich diverser Hashfunktionen.
Eine unendlich große Menge wird auf eine endliche abgebildet aber gilt als kollisionsresistent, zumindest für menschliche Verhältnisse. Es kann also nicht sein, dass 2 verschiedene Hashwerte auf ein gleiches Produkt zutreffen, da dies sonst nicht mehr sicher wäre.
Eine Hashfunktion ist eine Einwegfunktion und kann daher nicht rückwärts auf den eigentlichen Wert schließen.
Bildet man von einem Dokument einen Hashwert und verschlüsselt das Dokument mit dem erzeugten Hashwert nun mit seinem Private Key, kann jeder mit dem freizugänglichen Puplic Key, das Dokument damit entschlüsseln und den Hashwert vergleichen. Sollte dieser gleich sein, kann man sich sicher sein, dass dieser zu dem dazugehörigen Private Key gehört und die Signatur korrekt ist.
Digitale Signaturen bedeuten daher - sofern die Hashwerte übereinstimmen - dass der Puplic Key zu dem Private Key gehört und Daten nicht manipuliert wurden.
Es sagt nicht unbedingt aus, dass mein Gegenüber wirklich derjenige ist, der er vorzugeben scheint. Dies regeln die Zertifikate und behandelt das Schutzziel Authentizität.
Der größte Vorteil der asymmetrischen Verschlüsselung besteht darin, dass der Schlüsseltausch entfällt.
Der größte Nachteil besteht darin, dass es ein extrem langsames und kompliziertes Verfahren ist.
RSA resultiert aus den Anfangsbuchstaben der Nachnamen von seinen Erfindern: Rivest, Shamir und Adleman. Das Verfahren wurde 1977 entwickelt und gilt bis heute als sicher.
Die RSA-Verschlüsselung bedient sich der Einwegfunktionen und lässt sich in eine Richtung ganz leicht berechnen(verschlüsseln), jedoch rückwärts (entschlüsseln ohne Schlüssel) ist ein immenser echter Rechenaufwand nötig, da hier faktorisiert werden muss, die Zerlegung von n in die Faktoren p und q.
Beim RSA-Verfahren ist die Zahl n das Produkt aus zwei ver-schiedenen Primzahlen p und q.
Öffentlich bekannt jedoch ist nur die Zahl n, nicht aber die beiden Faktoren p und q, aus denen sich n zusammensetzt.
Eine exakte Beschreibung des Verfahrens finden Sie in einem bereits verfassten Beitrag zum Thema: RSA Verschlüsselung.
Selbstverständlich lassen sich auch diverse Beschreibungen und mathematische Berechnungen im Internet oder in Primär- sowie Sekundärliteratur dazu finden.
Als IT-Service in München und Umgebung bieten wir KMUs sowie Privatpersonen die Möglichkeit von uns über Verschlüsselungstechniken und rund um das Thema IT Sicherheit beraten zu lassen. Ein Recht auf geschützte und unabhörbare Kommunikation von zwei Endpunkten via Internet oder Telefon sollten alle haben. Wir helfen Ihnen bei der Planung und Umsetzung von IT Lösungen, wenn es um den Schutz um Firmeninterna oder ganz einfach um Ihre Privatsphäre geht. Rufen Sie uns an unter der Rufnummer 0176 / 75 19 18 18 oder schreiben Sie uns ganz einfach unter Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!
Die Daten und Systeme dürfen nur für berechtigte Personen zugänglich sein, daher ist es wichtig, zu verschlüsseln und Zugangskontrollen durchzuführen.
Die Daten dürfen nicht manipuliert worden sein. Dies impliziert, dass man die Manipulation oder Veränderung von Daten bemerkt, daher verwendet man sogenannte digitale Signaturen.
Die Daten und Systeme müssen zu definierten Zeiten verfügbar bzw. abrufbar sein, daher ist es notwendig, diese mit Backups zu sichern, eine USV (Unterbrechungsfreie Stromversorgung) zu besitzen und Systeme regelmäßig zu warten. Dies sind nur ein paar der Beispiele, um dieses Ziel zu erreichen.
Die Authentizität besagt, dass die Quelle der Daten verifizierbar sein muss. Ergo, ob der Gegenüber wirklich jener ist, wofür er sich ausgibt.
Um dieses Schutzziel zu erreichen, ist der Gebrauch von digitalen Zertifikaten im Einsatz.
Was heißt verschlüsseln?
Eine Datenmenge wird unter Anwendung eines Schlüssels und eines Algorithmus so in eine andere Datenmenge überführt, dass nur von berechtigten Personen die Ursprungsmenge hergestellt werden kann.
Bei der symmetrischen Verschlüsselung ist ein Schlüssel bzw. “gemeinsames Geheimnis” existent, um Klartext in ein Chiffrat zu überführen und somit zu verschlüsseln sowie zu entschlüsseln.
Somit wird ein Algorithmus verwendet, eine Art Werkzeug, ein Verfahren, mit einer eindeutigen Vorschrift, um ein Problem zu lösen bzw. Klassen davon.
Klartext -> Schlüssel/Algorithmus -> Chiffrat
Chiffrat -> Schlüssel/Algorithmus -> Klartext
Schlüssel = Daten / Algorithmus ist die Rechenregel, die mit dem Klartext verknüpft wird und das Chiffrat entsteht
Key/Schlüssel = binäre Datei, ergo: Bits
Schlüssellänge = Quantität der Bits im Schlüssel
Auguste Kerckhoffs von Nieuwenhof (1835-1903)
Die Sicherheit eines Kryptosystems darf nicht von der Geheimhaltung des Verfahrens abhängig sein, sie gründet allein auf der Geheimhaltung des Schlüssels.
Es ist einfacher, einen Schlüssel geheim zu halten als einen Algorithmus.
Hängt die Sicherheit von der Geheimhaltung des Algorithmus ab und wird dieser bekannt, ist das gesamte System korrumpiert.
Hängt die Sicherheit von der Geheimhaltung des Schlüssels ab, ist nur die mit diesem Schlüssel verschlüsselte Kommunikation betroffen.
Es ist sehr viel einfacher, einen Schlüssel zu tauschen als einen Algorithmus.
"Peer Review": Der Algorithmus wird öffentlich diskutiert, Fehler fallen schneller und zuverlässiger auf.
Verfahren bzw. Beispiele für symmetrische Verschlüsselung sind:
AES (Advanced Encryption Standard)
AES-256 bit gilt bisher als “unknackbar bzw. sicher" und findet bei Militär sowie Geheimdiensten mit einer hohen Sicherheitsstufe und Geheimhaltung aber auch als Standard eine tragende Rolle bei der symmetrischen Verschlüsselung.
Mit “unknackbar bzw. sicher" ist gemeint, dass es mit einem Brute-Force-Angriff (das Ausprobieren aller Möglichkeiten) mehrere hundert Jahre brauchen würde, um auf den Schlüssel zu kommen. Da AES-256 bit = 2^256= 1.15792E+77 mögliche Schlüssel impliziert und ein handelsüblicher Computer als Beispiel 16.8 Milliarden Versuche pro Sekunde schafft, würde dies dementsprechend 2.18556E+59 Jahre benötigen.
DES (Data Encryption Standard)
Entwickelt: Mitte der 70er Jahre (IBM)
ab 1977 offizieller Standard in den USA
blockbasiert, 64 Bit (Schlüssel: 56 Bit)
erster erfolgreicher Angriff: Ende der 90er
Juli 1998: EFF baut Supercomputer, knackte
DES in 56 Stunden
Januar 1999: DES in 22 Stunden geknackt
Der wohl größte Vorteil der symmetrischen Verschlüsselung liegt in der Tatsache begründet, dass diese sehr schnell und daher auch in Echtzeit möglich ist. Des Weiteren bedient sich die symmetrische Verschlüsselung eines einfachen Schlüsselmanagement, da lediglich ein Schlüssel (gemeinsames Geheimnis) für das Ver- und Entschlüsseln benötig wird.
Der größte Nachteil ist, dass der Schlüssel nicht in unbefugte Hände geraten darf, da man sonst alles, was damit verschlüsselt wurde, lesen bzw. entschlüsseln kann.
Auch die Quantität der Schlüssel, bezogen auf die Teilnehmer, wächst quadratisch.
Letztendlich ist ein sicherer Transportweg notwendig.
Das OSI-Referenzmodell – Open System Interconnection
Das sogenannte Schichtenmodell (OSI-7) befasst sich mit Layer 1-7, das für die herstellerunabhängige Kommunikation der Systeme zuständig ist. Somit sind diese Layer - mehr oder weniger - kohärent, hängen zusammen und jede Schicht (Layer) offeriert der nächsten Schicht definierte Dienste, aber auch für die Schicht, welche darunter liegt. Eine Unterteilung dieser Schichten wird durch Schnittstellen geregelt. Somit ist eine Adaption und ein Austausch von einzelnen Layern möglich, ohne eklatante Gesamtsystemänderungen vornehmen zu müssen.
Die Layer 1-4 sind die transportorientierten Schichten – physikalischer Datentransport bis zu den Endpunkten der Systeme – und die Layer 5-7 sogenannte anwendungsorientierte Schichten – die Ägide der Schnittstellen.
Im OSI-Modell selbst ist kein Übertragungsmedium (Verbindungskabel) vordefiniert.
Die Zuständigkeit dieses Layers liegt im Bereich der physikalischen Transportebene von digitalen Informationen, den Bits (binary digit).
Es existieren spezifizierte Schnittstellen wie etwa elektrische, über Funk, mechanische oder optische, deren Übertragungseigenschaften und Funktion zum Übertragungsmedium zuständig sein können.
Dieser Schicht liegt die Obliegenheit zugrunde, unverfälschten Datentransport über einen einzelnen Übermittlungsabschnitt zu garantieren.
Eine Art Flusssteuerung überwacht die vollständige und korrekte Übertragung der Daten von der darunterliegenden Schicht.
Die PDU (Protocol Data Unit) in diesem Fall ist das “Frame”- die physikalische Adressierung. Diese ist zuständig, um Ziel- und Quelladressen zu definieren, ist schichtspezifisch und wird auch Hardware- bzw. MAC-Adresse genannt. Ebenso dient es zur Datenflusssteuerung von Informationen und besteht aus Nutzdaten des Pakets der Vermittlungsschicht. Schlussendlich beinhaltet es eine Prüfsumme, welche zur Gewährleistung der Datenintegrität - das Bemerken von Manipulation der Daten – existiert.
Die Layer 1 und 2 sind für den Netzzugang verantwortlich, wobei Protokolle bzw. Technologien wie LAN (Local Area Network) und WAN (Wide Area Network) eine tragende Rolle einnehmen.
Diese Schicht ist für die Überbrückung geografischer Entfernungen zwischen den Endsystemen durch Einbeziehung von Vermittlungssystemen zuständig.
Hierbei wird die zeitlich und logisch getrennte Kommunikation zwischen differierenden Endsystemen gesteuert.
Die PDU hier, welches als solches den Zugang zum Internet ermöglicht und das Protokoll IP (Internet Protocol) - logische Adressierung - definiert, ist das Paket.
Die Rolle dieser Schicht befasst sich mit der Expansion von Verbindungen zwischen Endsystemen zu Teilnehmerverbindungen. Als letzte transportorientierte Schicht, bildet diese die Verbindungsschicht zu der anwendungsorientierten Schicht.
Des Weiteren besteht die Aufgabe und damit verbundene Hardware darin, die Zuweisung zu Anwendung mit Portnummern zu versehen bzw. zuzuweisen, Segmentierung, Zuverlässigkeit sowie Flusskontrolle zu gewährleisten. Die PDU hierbei, welche die Protokolle TCP (Transmission Control Protocol) - verbindungsorientiert – und UDP (User Datagram Protocol) - verbindungslos- verwendet, ist das Segment.
Die Zuständigkeit besteht darin, einen geordneten Ablauf des Dialogs zwischen den Endsystemen zu ermöglichen.
Darüber hinaus verwaltet und legt sie fest, welche Berechtigungsmarken für die Kommunikation gelten.
Schlussendlich ist sie auch für den Auf- und Abbau einer Sitzung, Login und die Passwörter zuständig.
Sie ist zuständig für den gemeinsamen Zeichensatz und die gemeinsame Syntax.
Des Weiteren wandelt sie die lokale Syntax in die für den Transport festgelegte Syntax um, umgekehrt das Gleiche.
Ergo besteht die Aufgabe darin, Dateiformate zu erstellen, Verschlüsselung zu ermöglichen sowie Komprimierung der Daten.
Die letzte Schicht befasst sich mit der Steuerung der untergeordneten Schichten, übernimmt die Adaption an die jeweilige Anwendung und stellt dem Anwendungsprogramm die Verbindung zur Außenwelt zur Verfügung. Auch Benutzerschnittstelle genannt.
Layer 5-7 beziehen sich auf die Anwendung, nutzen die PDU Daten und Protokolle wie: FTP, HTTP, SMTP, POP3, SSH, DNS, TFTP, DHCP.