Was ist die CIA-Triade?
Informationssicherheit dreht sich um die drei Schlüsselprinzipien: Vertraulichkeit, Integrität und Verfügbarkeit (CIA). Abhängig von der Umgebung, Anwendung, dem Kontext oder dem Anwendungsfall kann eines dieser Prinzipien wichtiger sein als die anderen., Für eine Finanzagentur ist beispielsweise die Vertraulichkeit von Informationen von größter Bedeutung, sodass sie wahrscheinlich alle geheimen Dokumente verschlüsseln würde, die elektronisch übertragen werden, um zu verhindern, dass unbefugte Personen ihren Inhalt lesen. Auf der anderen Seite würden Organisationen wie Internet-Marktplätze stark beschädigt, wenn ihr Netzwerk für einen längeren Zeitraum außer Betrieb wäre, so dass sie sich auf Strategien konzentrieren könnten, um eine hohe Verfügbarkeit gegenüber Bedenken hinsichtlich verschlüsselter Daten sicherzustellen.,
Vertraulichkeit
Die Vertraulichkeit befasst sich mit der Verhinderung des unbefugten Zugriffs auf vertrauliche Informationen. Der Zugriff kann absichtlich erfolgen, z. B. wenn ein Eindringling in das Netzwerk einbricht und die Informationen liest, oder aufgrund der Nachlässigkeit oder Inkompetenz von Personen, die mit den Informationen umgehen, unbeabsichtigt. Die beiden wichtigsten Möglichkeiten zur Gewährleistung der Vertraulichkeit sind Kryptographie und Zugangskontrolle.,
Kryptographie
die Verschlüsselung hilft, die Organisation zu erfüllen die Notwendigkeit zu sichern Informationen aus sowohl die versehentliche Offenlegung sowie die internen und externen Angriff versucht. Die Wirksamkeit eines kryptografischen Systems zur Verhinderung einer unbefugten Entschlüsselung wird als Stärke bezeichnet. Ein starkes kryptographisches System ist schwer zu knacken. Stärke wird auch als Arbeitsfaktor ausgedrückt werden, Das ist eine Schätzung der Menge an Zeit und Mühe, die notwendig wäre, um ein System zu brechen.,
Ein System gilt als schwach, wenn es schwache Schlüssel zulässt, Konstruktionsfehler aufweist oder leicht entschlüsselt werden kann. Viele heute verfügbare Systeme sind für den geschäftlichen und persönlichen Gebrauch mehr als ausreichend, für sensible militärische oder staatliche Anwendungen jedoch unzureichend. Kryptographie hat symmetrische und asymmetrische Algorithmen.
Symmetrische Algorithmen
Symmetrische Algorithmen erfordern, dass sowohl der Absender als auch der Empfänger einer verschlüsselten Nachricht denselben Schlüssel und dieselben Verarbeitungsalgorithmen haben., Symmetrische Algorithmen erzeugen einen symmetrischen Schlüssel (manchmal als geheimer Schlüssel oder privater Schlüssel bezeichnet), der geschützt werden muss; Wenn der Schlüssel verloren geht oder gestohlen wird, wird die Sicherheit des Systems beeinträchtigt. Hier sind einige der gemeinsame Normen für symmetrische algorithmen:
- Data Encryption Standard (DES). DES wird seit Mitte der 1970er Jahre verwendet. Jahrelang war es der primäre Standard, der in Regierung und Industrie verwendet wurde, aber es wird jetzt wegen seiner kleinen Schlüsselgröße als unsicher angesehen-es erzeugt einen 64 — Bit-Schlüssel, aber acht dieser Bits dienen nur zur Fehlerkorrektur und nur 56 Bits sind der eigentliche Schlüssel., Jetzt ist AES der primäre Standard.
- Triple-DES (3DES). 3DES ist ein technologisches Upgrade von DES. 3DES wird immer noch verwendet, obwohl AES die bevorzugte Wahl für Regierungsanwendungen ist. 3DES ist wesentlich schwerer zu brechen als viele andere Systeme, und es ist sicherer als DES. Es erhöht die Schlüssellänge auf 168 Bit (mit drei 56-Bit-DES-Tasten).
- Advanced Encryption Standard (AES). AES hat DES als Standard ersetzt, der von US-Regierungsbehörden verwendet wird. Es verwendet den Rijndael-Algorithmus, benannt nach seinen Entwicklern Joan Daemen und Vincent Rijmen., AES unterstützt Schlüsselgrößen von 128, 192 und 256 Bit, wobei 128 Bit die Standardeinstellung sind.
- Rons Chiffre oder Rons Code (RC). RC ist eine Verschlüsselungsfamilie, die von RSA Laboratories hergestellt und nach ihrem Autor Ron Rivest benannt wurde. Die aktuellen Level sind RC4, RC5 und RC6. RC5 verwendet eine Schlüsselgröße von bis zu 2.048 Bit; Es gilt als ein starkes System. RC4 ist beliebt bei drahtloser und WEP/WPA-Verschlüsselung. Es ist eine Streaming-Chiffre, die mit Schlüsselgrößen zwischen 40 und 2,048 Bit arbeitet und in SSL und TLS verwendet wird. Es ist auch bei Dienstprogrammen beliebt, die es zum Herunterladen von Torrent-Dateien verwenden., Viele Anbieter beschränken den Download dieser Dateien, aber die Verwendung von RC4 zur Verschleierung des Headers und des Streams erschwert es dem Dienstanbieter, zu erkennen, dass es sich um Torrent-Dateien handelt, die verschoben werden.
- Blowfish und Twofish. Blowfish ist ein Verschlüsselungssystem, das von einem Team unter der Leitung von Bruce Schneier erfunden wurde und eine 64-Bit-Blockchiffre mit sehr schnellen Geschwindigkeiten ausführt. Es ist eine symmetrische Blockchiffre, die Schlüssel variabler Länge (von 32 Bit bis 448 Bit) verwenden kann. Twofish ist ziemlich ähnlich, aber es funktioniert auf 128-Bit-Blöcken. Seine Besonderheit ist, dass es einen komplexen Schlüsselplan hat.,
- Internationaler Datenverschlüsselungsalgorithmus (IDEA). IDEA wurde von einem Schweizer Konsortium entwickelt und verwendet einen 128-Bit-Schlüssel. Dieses produkt ist ähnlich in geschwindigkeit und fähigkeit zu DES, aber es ist sicherer. IDEA wird in Pretty Good Privacy (PGP) verwendet, einem Public Domain-Verschlüsselungssystem, das viele Menschen für E-Mails verwenden.
- Einmalige Pads. Einmalige Pads sind die einzigen wirklich vollständig sicheren kryptografischen Implementierungen. Sie sind aus zwei Gründen so sicher. Erstens verwenden sie einen Schlüssel, der so lang ist wie eine Nur-Text-Nachricht. Dies bedeutet, dass die Schlüsselanwendung kein Muster enthält, das ein Angreifer verwenden kann., Zweitens werden einmalige Pad-Tasten nur einmal verwendet und dann verworfen. Selbst wenn Sie eine einmalige Pad-Chiffre brechen könnten, würde derselbe Schlüssel nie wieder verwendet, sodass die Kenntnis des Schlüssels nutzlos wäre.
Asymmetrische Algorithmen
Asymmetrische Algorithmen verwenden zwei Schlüssel: einen öffentlichen und einen privaten Schlüssel. Der Absender verwendet den öffentlichen Schlüssel, um eine Nachricht zu verschlüsseln, und der Empfänger verwendet den privaten Schlüssel, um sie zu entschlüsseln. Der öffentliche Schlüssel kann wirklich öffentlich sein oder ein Geheimnis zwischen den beiden Parteien sein. Der private Schlüssel wird jedoch privat gehalten; nur der Besitzer (Empfänger) weiß es., Wenn Ihnen jemand eine verschlüsselte Nachricht senden möchte, kann er die Nachricht mit Ihrem öffentlichen Schlüssel verschlüsseln und Ihnen dann die Nachricht senden. Sie können Ihren privaten Schlüssel verwenden, um die Nachricht zu entschlüsseln. Wenn beide Schlüssel einem Dritten zur Verfügung stehen, schützt das Verschlüsselungssystem die Privatsphäre der Nachricht nicht. Die wahre „Magie“ dieser Systeme besteht darin, dass der öffentliche Schlüssel nicht zum Entschlüsseln einer Nachricht verwendet werden kann. Wenn Bob Alice eine Nachricht sendet, die mit Alices öffentlichem Schlüssel verschlüsselt ist, spielt es keine Rolle, ob alle anderen auf der Erde Alices öffentlichen Schlüssel haben, da dieser Schlüssel die Nachricht nicht entschlüsseln kann., Hier sind einige der gängigen Standards für asymmetrische Algorithmen:
- RSA. RSA, benannt nach seinen Erfindern Ron Rivest, Adi Shamir und Leonard Adleman. Der RSA-Algorithmus ist ein frühes öffentliches Schlüsselverschlüsselungssystem, das große Ganzzahlen als Grundlage für den Prozess verwendet. Es ist weit verbreitet und hat sich zu einem De-facto-Standard entwickelt. RSA arbeitet sowohl mit Verschlüsselung als auch mit digitalen Signaturen. RSA wird in vielen Umgebungen verwendet, einschließlich Secure Sockets Layer (SSL), und kann für den Schlüsselaustausch verwendet werden.
- Diffie-Hellman., Whitfield Diffie und Martin Hellman gelten als Begründer des Public / Private Key Konzepts. Ihr Diffie-Hellman-Algorithmus wird hauptsächlich verwendet, um einen gemeinsam genutzten geheimen Schlüssel in öffentlichen Netzwerken zu generieren. Der Prozess wird nicht zum Verschlüsseln oder Entschlüsseln von Nachrichten verwendet; Es wird nur für die Erstellung eines symmetrischen Schlüssels zwischen zwei Parteien verwendet.
- Elliptic Curve Cryptography (EWG). ECC bietet ähnliche Funktionen wie RSA, verwendet jedoch kleinere Schlüsselgrößen, um das gleiche Sicherheitsniveau zu erreichen., ECC-Verschlüsselungssysteme basieren auf der Idee, Punkte auf einer Kurve in Kombination mit einem Punkt im Unendlichen zu verwenden, und der Schwierigkeit, diskrete Logarithmusprobleme zu lösen.
Zugriffskontrolle
Verschlüsselung ist eine Möglichkeit, die Vertraulichkeit zu gewährleisten; Eine zweite Methode ist die Zugriffskontrolle. Es gibt verschiedene Ansätze zur Zugangskontrolle, die bei der Vertraulichkeit helfen, jede mit ihren eigenen Stärken und Schwächen:
- Obligatorische Zugangskontrolle (MAC). In einer MAC-Umgebung sind alle Zugriffsfunktionen vordefiniert., Benutzer können keine Informationen freigeben, es sei denn, ihre Rechte zur Freigabe werden von Administratoren festgelegt. Folglich müssen Administratoren alle Änderungen vornehmen, die an solchen Rechten vorgenommen werden müssen. Dieser Prozess erzwingt ein starres Sicherheitsmodell. Es gilt jedoch auch als das sicherste Cybersicherheitsmodell.
- Discretionary Access Control (DAC). In einem DAC-Modell können Benutzer Informationen dynamisch mit anderen Benutzern teilen. Die Methode ermöglicht eine flexiblere Umgebung, erhöht jedoch das Risiko einer unbefugten Offenlegung von Informationen., Administratoren haben es schwieriger, sicherzustellen, dass nur geeignete Benutzer auf Daten zugreifen können.
- Rollenbasierte Zugriffskontrolle (RBAC). Rollenbasierte Zugriffskontrolle implementiert Zugriffskontrolle basierend auf Jobfunktion oder Verantwortung. Jeder Mitarbeiter hat eine oder mehrere Rollen, die den Zugriff auf bestimmte Informationen ermöglichen. Wenn eine Person von einer Rolle zur anderen wechselt, ist der Zugriff für die vorherige Rolle nicht mehr verfügbar. RBAC-Modelle bieten mehr Flexibilität als das MAC-Modell und weniger Flexibilität als das DAC-Modell., Sie haben jedoch den Vorteil, dass sie sich im Gegensatz zu den individuellen Bedürfnissen strikt an der Jobfunktion orientieren.
- Regelbasierte Zugriffskontrolle (RBAC). Die regelbasierte Zugriffskontrolle verwendet die Einstellungen in vorkonfigurierten Sicherheitsrichtlinien, um Entscheidungen über den Zugriff zu treffen. Diese Regeln können eingerichtet werden, um:
- Verweigern alle, aber diejenigen, die speziell in einer Liste erscheinen (eine Zugriffsliste zulassen)
- Verweigern nur diejenigen, die speziell in der Liste erscheinen (eine echte Zugriffsliste verweigern)
Einträge in der Liste können Benutzernamen, IP-Adressen, Hostnamen oder sogar Domänen sein., Regelbasierte Modelle werden häufig in Verbindung mit rollenbasierten Modellen verwendet, um die beste Kombination aus Sicherheit und Flexibilität zu erzielen.
- Attributbasierte Zugriffskontrolle (ABAC). ABAC ist eine relativ neue Methode zur Zugriffskontrolle, definiert in NIST 800-162, Attributbasierte Steuerdefinition und Überlegungen., Es handelt sich um eine logische Zugriffskontrollmethode, bei der die Berechtigung zum Ausführen einer Reihe von Vorgängen durch Auswerten von Attributen bestimmt wird, die dem Subjekt, Objekt, angeforderten Vorgängen und in einigen Fällen Umgebungsbedingungen für Sicherheitsrichtlinien, Regeln oder Beziehungen zugeordnet sind, die die zulässigen Vorgänge beschreiben für einen bestimmten Satz von Attributen.
- Smartcards werden im Allgemeinen für Zugriffskontroll-und Sicherheitszwecke verwendet. Die Karte selbst enthält normalerweise wenig Speicher, mit dem Berechtigungen und Zugriffsinformationen gespeichert werden können.,
- Ein Sicherheitstoken war ursprünglich ein Hardwaregerät, das für den Zugriff erforderlich war, z. B. eine drahtlose Schlüsselkarte oder ein Schlüsselanhänger. Es gibt jetzt auch Software-Implementierungen von Token. Token enthalten häufig ein digitales Zertifikat, das zur Authentifizierung des Benutzers verwendet wird.,
Integrität
Integrität hat drei Ziele, die zur Erreichung der Datensicherheit beitragen:
- Verhinderung der Änderung von Informationen durch nicht autorisierte Benutzer
- Verhinderung der unbefugten oder unbeabsichtigten Änderung von Informationen durch autorisierte Benutzer
- Erhaltung der internen und externen Konsistenz:
- Interne Konsistenz-Stellt sicher, dass die Daten intern konsistent sind., Beispielsweise muss in einer Organisationsdatenbank die Gesamtzahl der Elemente, die einer Organisation gehören, der Summe derselben Elemente entsprechen, die in der Datenbank angezeigt werden, wie sie von jedem Element der Organisation gehalten werden.
- Externe Konsistenz-Stellt sicher, dass die in der Datenbank gespeicherten Daten mit der realen Welt übereinstimmen. Beispielsweise muss die Gesamtzahl der physisch im Regal befindlichen Artikel mit der Gesamtzahl der in der Datenbank angegebenen Artikel übereinstimmen.,
Verschiedene Verschlüsselungsmethoden können zur Gewährleistung der Integrität beitragen, indem sichergestellt wird, dass eine Nachricht während der Übertragung nicht geändert wurde. Eine Änderung könnte eine Nachricht unverständlich oder, noch schlimmer, ungenau machen. Stellen Sie sich die schwerwiegenden Folgen vor, wenn Änderungen an Krankenakten oder Arzneimittelverordnungen nicht entdeckt wurden. Wenn eine Nachricht manipuliert wird, sollte das Verschlüsselungssystem über einen Mechanismus verfügen, der anzeigt, dass die Nachricht beschädigt oder geändert wurde.
Hashing
Die Integrität kann auch mit einem Hashing-Algorithmus überprüft werden., Im wesentlichen wird ein hash der Nachricht generiert und an das Ende der Nachricht. Die empfangende Partei berechnet den Hash der empfangenen Nachricht und vergleicht sie mit dem Hash, den sie erhalten hat. Wenn sich während des Transports etwas geändert hat, stimmen die Hashes nicht überein.
Hashing ist für viele Situationen eine akzeptable Integritätsprüfung. Wenn ein Abfangender eine Nachricht jedoch absichtlich ändern möchte und die Nachricht nicht verschlüsselt ist, ist ein Hash unwirksam., Der Abfangende kann beispielsweise sehen, dass an die Nachricht ein 160-Bit-Hash angehängt ist, was darauf hindeutet, dass er mit SHA-1 generiert wurde (was unten diskutiert wird). Dann kann der Interceptor die Nachricht einfach nach Belieben ändern, den ursprünglichen SHA-1-Hash löschen und einen Hash aus der geänderten Nachricht neu berechnen.
Hashing-Algorithmen
Die zum Speichern von Daten verwendeten Hashes unterscheiden sich stark von kryptografischen Hashes. In der Kryptographie muss eine Hash-Funktion drei Merkmale aufweisen:
- Sie muss einweg sein. Sobald Sie etwas Hash, können Sie es nicht mehr ausheben.,
- Eingabe variabler Länge erzeugt Ausgabe fester Länge. Unabhängig davon, ob Sie zwei Zeichen oder zwei Millionen hashen, ist die Hash-Größe gleich.
- Der Algorithmus muss wenige oder keine Kollisionen aufweisen. Das Hashing von zwei verschiedenen Eingaben ergibt nicht dieselbe Ausgabe.
Hier sind Hashing-Algorithmen und verwandte Konzepte, mit denen Sie vertraut sein sollten:
- Secure Hash Algorithm (SHA). Ursprünglich Keccak genannt, wurde SHA von Guido Bertoni, Joan Daemen, Michaël Peeters und Gilles Van Assche entworfen., SHA-1 ist ein Einweg-Hash, der einen 160-Bit-Hash-Wert bereitstellt, der mit einem Verschlüsselungsprotokoll verwendet werden kann. Im Jahr 2016 wurden Probleme mit SHA-1 entdeckt; Jetzt wird empfohlen, stattdessen SHA-2 zu verwenden. SHA-2 kann 224, 256, 334 und 512 Bit Hashes erzeugen. Es sind keine Probleme mit SHA-2 bekannt, daher ist es immer noch der am weitesten verbreitete und empfohlene Hashing-Algorithmus. SHA-3 wurde 2012 veröffentlicht und ist weit verbreitet, aber nicht weit verbreitet. Dies ist nicht auf Probleme mit SHA-3 zurückzuführen, sondern auf die Tatsache, dass SHA-2 vollkommen in Ordnung ist.
- Message-Digest-Algorithmus (MD)., MD ist ein weiterer Einweg-Hash, der einen Hash-Wert erstellt, der zur Aufrechterhaltung der Integrität verwendet wird. Es gibt mehrere Versionen von MD; die häufigsten sind MD5, MD4 und MD2. MD5 ist die neueste Version des Algorithmus; es erzeugt einen 128-Bit-Hash. Obwohl es komplexer als seine MD-Vorgänger ist und mehr Sicherheit bietet, weist es keine starke Kollisionsbeständigkeit auf und wird daher nicht mehr zur Verwendung empfohlen. SHA – (2 oder 3) sind die empfohlenen alternativen.
- RACE Integrity Primitive Evaluation Message Digest (RIPEMD). RIPEMD basierte auf MD4., Es gab Fragen zu seiner Sicherheit, und es wurde durch RIPEMD-160 ersetzt, das 160 Bit verwendet. Es gibt auch Versionen, die 256 und 320 Bit verwenden(RIPEMD-256 bzw.
- GOST ist eine in der alten Sowjetunion entwickelte symmetrische Chiffre, die modifiziert wurde, um als Hash-Funktion zu arbeiten. GOST verarbeitet eine Nachricht mit variabler Länge zu einer Ausgabe mit fester Länge von 256 Bit.
- Vor der Veröffentlichung von Windows NT verwendeten Microsofts Betriebssysteme das LANMAN-Protokoll zur Authentifizierung., Während LANMAN nur als Authentifizierungsprotokoll fungierte, verwendete er LM-Hash und zwei DES-Schlüssel. Es wurde durch den NT LAN Manager (NTLM) mit der Veröffentlichung von Windows NT ersetzt.
- Microsoft ersetzte das LANMAN-Protokoll durch NTLM (NT LAN Manager) mit der Veröffentlichung von Windows NT. NTLM verwendet MD4/MD5-hashing-algorithmen. Es gibt mehrere Versionen dieses Protokolls (NTLMv1 und NTLMv2), und es ist immer noch weit verbreitet, obwohl Microsoft Kerberos sein bevorzugtes Authentifizierungsprotokoll genannt hat., Obwohl LANMAN und NTLM beide Hashing verwenden, werden sie hauptsächlich zum Zwecke der Authentifizierung verwendet.
- Eine gängige Methode zur Überprüfung der Integrität besteht darin, der Nachricht einen Nachrichtenauthentifizierungscode (MAC) hinzuzufügen. Ein MAC wird unter Verwendung einer symmetrischen Chiffre im Cipher Block Chaining Mode (CBC) berechnet, wobei nur der letzte Block erzeugt wird. Im Wesentlichen wird die Ausgabe des CBC wie die Ausgabe eines Hashing-Algorithmus verwendet. Im Gegensatz zu einem Hashing-Algorithmus benötigt die Chiffre jedoch einen symmetrischen Schlüssel, der im Voraus zwischen den beiden Parteien ausgetauscht wird.,
- HMAC (hash-based message authentication code) verwendet einen Hashalgorithmus, zusammen mit einem symmetrischen Schlüssel. So stimmen beispielsweise zwei Parteien der Verwendung eines MD5-Hash zu. Sobald der Hash berechnet ist, ist er ausschließlich OR ‚ d (XOR) mit dem Digest, und dieser resultierende Wert ist der HMAC.
Baseline
Der Aufbau einer Baseline (Konfiguration, Baseline, System Baseline, Activity Baseline) ist eine wichtige Strategie für eine sichere Vernetzung. Im Wesentlichen finden Sie eine Basislinie, die Sie für ein bestimmtes System, einen bestimmten Computer, eine bestimmte Anwendung oder einen bestimmten Dienst als sicher betrachten., Absolute Sicherheit ist sicherlich nicht möglich — das Ziel ist sicher genug, basierend auf den Sicherheitsanforderungen und dem Risikoappetit Ihres Unternehmens. Jede Änderung kann mit der Baseline verglichen werden, um festzustellen, ob die Änderung sicher genug ist. Sobald eine Basislinie definiert ist, besteht der nächste Schritt darin, das System zu überwachen, um sicherzustellen, dass es nicht von dieser Basislinie abweicht. Dieser Prozess wird als Integritätsmessung definiert.
Verfügbarkeit
Verfügbarkeit stellt sicher, dass autorisierte Benutzer eines Systems zeitnah und ununterbrochen auf die Informationen im System und im Netzwerk zugreifen können., Hier sind die Methoden zum Erreichen der Verfügbarkeit:
- Distributive Allocation. Allgemein als Lastenausgleich bekannt, ermöglicht die Verteilungszuordnung die Verteilung der Last (Dateianforderungen, Datenrouting usw.), sodass kein Gerät übermäßig belastet wird.
- Hochverfügbarkeit (HA). Hohe Verfügbarkeit bezieht sich auf Maßnahmen, die verwendet werden, um Dienste und Informationssysteme während eines Ausfalls betriebsbereit zu halten. Das Ziel von HA ist es oft, Schlüsseldienste 99,999 Prozent der Zeit zur Verfügung zu haben (bekannt als“ Five nines “ Verfügbarkeit)., HA-Strategien umfassen Redundanz und Failover, die unten diskutiert werden.
- Redundanz. Redundanz bezieht sich auf Systeme, die entweder dupliziert werden oder im Falle einer Fehlfunktion auf andere Systeme ausfallen. Failover bezieht sich auf den Prozess der Rekonstruktion eines Systems oder des Umschaltens auf andere Systeme, wenn ein Fehler erkannt wird. Bei einem Server wechselt der Server zu einem redundanten Server, wenn ein Fehler erkannt wird. Mit dieser Strategie kann der Dienst ununterbrochen fortgesetzt werden, bis der primäre Server wiederhergestellt werden kann., Im Falle eines Netzwerks bedeutet dies, dass die Verarbeitung im Falle eines Netzwerkausfalls im primären Pfad zu einem anderen Netzwerkpfad wechselt.
Failover-Systeme können teuer zu implementieren sein. In einem großen Unternehmensnetzwerk oder einer E-Commerce-Umgebung kann ein Failover dazu führen, dass die gesamte Verarbeitung an einen entfernten Standort umgeschaltet wird, bis Ihre primäre Einrichtung betriebsbereit ist. Der primäre Standort und der entfernte Standort würden Daten synchronisieren, um sicherzustellen, dass die Informationen so aktuell wie möglich sind.,
Viele Betriebssysteme, wie Linux, Windows Server und Novell Open Enterprise Server, sind in der Lage Clustering Failover-Funktionen zur Verfügung zu stellen. Das Clustering umfasst mehrere Systeme, die kooperativ miteinander verbunden sind (was einen Lastenausgleich ermöglicht) und so vernetzt sind, dass bei einem Ausfall eines der Systeme die anderen Systeme nachlassen und weiterarbeiten. Die Gesamtkapazität des Serverclusters kann abnehmen, das Netzwerk oder der Dienst bleibt jedoch betriebsbereit., Betrachten Sie die Tatsache, dass dies die Technologie ist, auf der Google basiert, um die Schönheit des Clusterings zu schätzen. Clustering ermöglicht nicht nur Redundanz, sondern bietet Ihnen auch die Möglichkeit, mit steigendem Bedarf zu skalieren.
Die meisten ISPs und Netzwerkanbieter verfügen über umfangreiche interne Failover-Funktionen, um Kunden eine hohe Verfügbarkeit zu bieten. Geschäftskunden und Mitarbeiter, die nicht auf Informationen oder Dienstleistungen zugreifen können, verlieren tendenziell das Vertrauen.
Der Kompromiss für Zuverlässigkeit und Vertrauenswürdigkeit ist natürlich Kosten: Failover-Systeme können unerschwinglich teuer werden., Sie müssen Ihre Anforderungen sorgfältig studieren, um festzustellen, ob Ihr System diese Fähigkeit erfordert. Wenn Ihre Umgebung beispielsweise eine hohe Verfügbarkeit erfordert, sollten Ihre Server gruppiert sein. Dadurch können die anderen Server im Netzwerk die Last aufnehmen, wenn einer der Server im Cluster ausfällt. - Fehlertoleranz. Fehlertoleranz ist die Fähigkeit eines Systems, den Betrieb im Falle eines Komponentenfehlers aufrechtzuerhalten. Fehlertolerante Systeme können den Betrieb fortsetzen, auch wenn eine kritische Komponente, z. B. ein Laufwerk, ausgefallen ist., Diese Fähigkeit beinhaltet Over-Engineering-Systeme durch Hinzufügen redundanter Komponenten und Subsysteme, um das Risiko von Ausfallzeiten zu reduzieren. Beispielsweise kann die Fehlertoleranz in einen Server integriert werden, indem ein zweites Netzteil, eine zweite CPU und andere Schlüsselkomponenten hinzugefügt werden. Die meisten Hersteller (wie HP, Sun und IBM) bieten fehlertolerante Server; sie haben in der Regel mehrere Prozessoren, die automatisch ausfallen, wenn eine Fehlfunktion auftritt.
Es gibt zwei Schlüsselkomponenten der Fehlertoleranz, die Sie nie übersehen sollten: Ersatzteile und elektrische Energie., Ersatzteile sollten immer zur Verfügung stehen, um jede systemkritische Komponente zu reparieren, wenn sie ausfallen sollte. Die Redundanzstrategie „N+1“ bedeutet, dass Sie die Anzahl der benötigten Komponenten sowie eine Komponente zum Anschließen an ein beliebiges System haben. Da Computersysteme nicht ohne elektrischen Strom arbeiten können, ist es unerlässlich, dass Fehlertoleranz auch in Ihre elektrische Infrastruktur eingebaut wird. Mindestens eine unterbrechungsfreie Stromversorgung (USV) mit Überspannungsschutz sollte jeden Server und Arbeitsplatz begleiten., Diese USV sollte für die Last bewertet werden, die sie im Falle eines Stromausfalls tragen soll (Factoring im Computer, Monitor und anderen angeschlossenen Geräten) und regelmäßig im Rahmen Ihrer vorbeugenden Wartungsroutine überprüft werden, um sicherzustellen, dass die Batterie betriebsbereit ist. Sie müssen die Batterie alle paar Jahre austauschen, um die USV betriebsbereit zu halten.
Eine USV ermöglicht es Ihnen, auch ohne Strom für nur kurze Zeit zu funktionieren. Für Fehlertoleranz in Situationen von längerer Dauer benötigen Sie einen Backup-Generator., Backup-Generatoren laufen mit Benzin, Propan, Erdgas oder Diesel und erzeugen den Strom, der für eine stabile Stromversorgung benötigt wird. Obwohl einige Backup-Generatoren im Falle eines Stromausfalls sofort eingeschaltet werden können, benötigen die meisten eine kurze Zeit, um sich aufzuwärmen, bevor sie konsistente Leistung liefern können. Daher werden Sie feststellen, dass Sie UPSs in Ihrer Organisation noch implementieren müssen. - Redundantes Array unabhängiger Festplatten (RAID). RAID ist eine Technologie, die mehrere Festplatten verwendet, um Fehlertoleranz bereitzustellen., Es gibt mehrere RAID-Ebenen: RAID 0 (Striped Disks), RAID 1 (Mirrored Disks), RAID 3 oder 4 (Striped Disks mit dedizierter Parität), RAID 5 (Striped Disks mit verteilter Parität), RAID 6 (Striped Disks mit doppelter Parität), RAID 1+0 (oder 10) und RAID 0+1. Sie können mehr über sie in dieser Liste der Best Practices für die Datensicherheit lesen.
- Disaster-recovery (DR) plan. Ein Disaster Recovery Plan hilft einer Organisation, effektiv zu reagieren, wenn eine Katastrophe eintritt. Zu den Katastrophen gehören Systemausfälle, Netzwerkausfälle, Infrastrukturausfälle und Naturkatastrophen wie Hurrikane und Erdbeben., Ein DR-Plan definiert Methoden, um Dienste so schnell wie möglich wiederherzustellen und die Organisation im Katastrophenfall vor inakzeptablen Verlusten zu schützen.
In einer kleineren Organisation kann ein Disaster Recovery Plan relativ einfach und unkompliziert sein. In einer größeren Organisation könnte es mehrere Einrichtungen, strategische Unternehmenspläne und ganze Abteilungen umfassen.
Ein Disaster-Recovery-Plan sollte den Zugriff auf und die Speicherung von Informationen adressieren. Ihre backup-plan für sensible Daten ist ein integraler Bestandteil dieses Prozesses.
F. A. Q.
Was sind die Bestandteile der CIA-Triade?,
- Vertraulichkeit: Systeme und Daten sind nur autorisierten Benutzern zugänglich.
- Integrität: Systeme und Daten sind korrekt und vollständig.
- Verfügbarkeit: Auf Systeme und Daten kann bei Bedarf zugegriffen werden.
Warum ist die CIA-Triade für die Datensicherheit wichtig?
Das ultimative Ziel der Datensicherheit ist zu gewährleisten die Vertraulichkeit, Integrität und Verfügbarkeit von kritischen und sensiblen Daten. Die Anwendung der Prinzipien der CIA-Triade hilft Unternehmen, ein effektives Sicherheitsprogramm zum Schutz ihrer wertvollen Vermögenswerte zu erstellen.,
Wie kann die CIA-Triade angewendet werden, in Risiko-management?
Bei Risikobewertungen messen Unternehmen die Risiken, Bedrohungen und Schwachstellen, die die Vertraulichkeit, Integrität und Verfügbarkeit ihrer Systeme und Daten gefährden könnten. Durch die Implementierung von Sicherheitskontrollen zur Minderung dieser Risiken erfüllen sie eines oder mehrere der Kernprinzipien der CIA-Triade.
Wie kann die Vertraulichkeit von Daten gefährdet werden?
Vertraulichkeit erfordert die Verhinderung des unbefugten Zugriffs auf vertrauliche Informationen., Der Zugriff kann absichtlich erfolgen, z. B. wenn ein Eindringling in das Netzwerk einbricht und die Informationen liest, oder aufgrund der Nachlässigkeit oder Inkompetenz von Personen, die mit den Informationen umgehen, unbeabsichtigt.
Welche Maßnahmen können zur Wahrung der Vertraulichkeit der Daten beitragen?
Eine bewährte Methode zum Schutz der Vertraulichkeit von Daten ist die Verschlüsselung aller sensiblen und regulierten Daten. Niemand kann den Inhalt eines verschlüsselten Dokuments lesen, es sei denn, sie den Entschlüsselungsschlüssel haben, so Verschlüsselung schützt vor böswilligen und versehentlichen Kompromisse der Vertraulichkeit.,
Wie kann die Datenintegrität beeinträchtigt werden?
Die Datenintegrität kann sowohl durch menschliche Fehler als auch durch Cyberangriffe wie zerstörerische Malware und Ransomware beeinträchtigt werden.
Welche Maßnahmen können zur Wahrung der Datenintegrität beitragen?,
Um die Datenintegrität zu erhalten, müssen Sie:
- Verhindern Sie Änderungen an Daten durch nicht autorisierte Benutzer
- Verhindern Sie unbefugte oder unbeabsichtigte Änderungen an Daten durch autorisierte Benutzer
- Stellen Sie die Genauigkeit und Konsistenz der Daten durch Prozesse wie Fehlerprüfung und Datenvalidierung sicher
Eine wertvolle bewährte Methode zur Gewährleistung der Datengenauigkeit ist die Überwachung der Dateiintegrität (FIM)., FIM hilft Unternehmen dabei, fehlerhafte Änderungen an kritischen Dateien auf ihren Systemen zu erkennen, indem es alle Versuche überprüft, auf Dateien und Ordner mit vertraulichen Informationen zuzugreifen oder diese zu ändern, und überprüft, ob diese Aktionen autorisiert sind.
Wie kann die Datenverfügbarkeit beeinträchtigt wird?
Bedrohungen für die Verfügbarkeit umfassen Infrastrukturausfälle wie Netzwerk – oder Hardwareprobleme; ungeplante Software-Ausfallzeiten; Infrastrukturüberlastung; Stromausfälle; und Cyberangriffe wie DDoS – oder Ransomware-Angriffe.
Welche Maßnahmen können helfen, die Datenverfügbarkeit zu erhalten?,
Es ist wichtig, Schutzmaßnahmen gegen Unterbrechungen auf allen Systemen einzusetzen, die eine kontinuierliche Betriebszeit erfordern. Zu den Optionen gehören Hardwareredundanz, Failover, Clustering und Routinesicherungen, die an einem geografisch getrennten Ort gespeichert sind. Darüber hinaus ist es entscheidend, einen umfassenden Disaster Recovery Plan zu entwickeln und zu testen.