Kennen Sie noch die „all in one“ Computer? Das waren die Geräte, bei denen der Computer im Monitor verbaut wurde.
Ein sehr angenehmes Konzept (heute sagt man wohl Laptop dazu 😉 ), welches aber den Nachteil hatte, dass beim Ausfall einer Komponente das komplette System unbrauchbar wurde.
Schaue ich nun auf die aktuellen Trends der IT, so sind es eigentlich immer nur kleine Veränderungen, die als „supertolle Innovation“ verkauft werden.
Gehen wir also ein wenig in der Zeit zurück.
Die Großrechner, die ganze Räume gefüllt haben, gibt es im Grundsatz heute immer noch als „Rechenzentren“ oder „die Cloud“.
Im „Office Bereich“ waren es anfangs die „Tower Server“ mit denen die ersten Firmennetzwerke aufgebaut wurden.
Viele standen und stehen heute noch „irgendwo rum“. Ich habe auch schon Tower gefunden, die lieblos in einer Toilette deponiert waren.
Die nächste Evolutionsstufe waren dann die „Pizzaschachteln“ oder „Rack Mount Server„.
Dabei wurde das Gehäuse normiert, damit diese Server – zusammen mit anderen Geräten – in einem Einbaurahmen / Datenschrank untergebracht werden konnten.
Das waren die Anfänge der Serverräume in Unternehmen.
Niemand wollte die lärmenden Teile im Büro stehen haben. Das, und auch die hohe Abwärme, machten separate Räume und Klimatisierung notwendig.
Dennoch sind diese Gehäuseformen bis heute aktuell.
Ein Nachteil war allerdings die Tatsache, dass die Daten immer nur auf einem Gerät verfügbar waren.
Deshalb wurden die Daten von den „Recheneinheiten“ getrennt.
SAN Speicher sind Geräte, die den Daten-Speicher über sehr schnelle Anbindungen für mehrere Server verfügbar machten.
So gewann man Effizienz, aber auch ein neues „Bottleneck“ (ein Nadelöhr bzw. eine Schwachstelle).
Der Speicher als Gerät konnte natürlich auch ausfallen und dann wäre die komplette IT gefährdet.
Redundante SAN Geräte waren die Lösung mit redundanten Kabelverbindungen, Stromversorgungen und einiges mehr.
Den Vorteil des zentralen Speichers erkaufte man sich mit viel komplexeren Systemen.
Ein kleine Ausflug waren die „Blade Server„. Hoch verdichtete „Kisten“, in die man Recheneinheiten und Speicher reinstecken konnte. Im Grunder also „Serverschränke im Serverschrank“.
Der Rahmen selbst war weitgehend dumm und so konnten die Verbindungen kostengünstiger und einfacher auf kleinem Raum hergestellt werden.
Mit der Virtualisierung kam dann eine nächste Evolutionsstufe.
Zunächst virtualisierte man nur die Serverbetriebssysteme, später auch Speicher und Netzwerke.
Der Hauptnutzen der Virtualisierung ist die Tatsache, dass man nicht mehr an konkreter Hardware festgebunden ist.
Die „Virtualisierungs-Schicht“ sorgt dafür, dass die Geräte quasi immer so „übersetzt“ werden, dass am Ende eine virtuelle Recheneinheit, virtuelle Netzwerke und virtuelle Daten-Speicher zur Verfügung stehen.
Bei Ausfällen wird das Gerät getauscht und danach steht meist noch mehr Leistung zur Verfügung.
Im Grunde also ein Baukasten von Geräten und Funktionen, der beliebig erweitert und verändert werden kann.
Aber auch bei den anfänglichen Virtualisierungssystemen war der zentrale Speicher für die Daten vorhanden.
„Hyperkonvergente Infrastruktur“ ist die Antwort auf dieses Problem.
Das ist auch kein großes Ding sondern im Grunde nur eine Fortsetzung der bisherigen Entwicklung.
Man nimmt nun viele „Pizzaschacheln“ mit Recheneinheiten (CPU), Arbeitsspeicher (RAM), und Datenspeicher (HDD, SSD, NVMe) und virtualisiert einfach alles über ein gemeinsames Programm.
So bekommt man „virtuelle Leistungseinheiten“ die über Netzwerkverbindungen angesprochen werden.
Der wesentliche Unterschied – auch der Daten-Speicher wird so gebildet.
Das Verwaltungsprogramm nimmt alle verfügbaren Speichereinheiten (lokale Festplatten) und verwaltet diese – über mehrere Pizzaschachteln – so, dass man darauf gemeinsam nutzbare Festplatten erstellen kann.
Gar nicht so blöd, wenngleich nun aber die Netzwerkverbindungen zum neuen „Bottleneck“ werden.
Diese müssen redundant und sehr, sehr schnell (mindestens 1 GBit/s besser mehr) geplant werden, damit man alle Vorteile nutzen kann.
Wie früher beim All-In-One Computer führt der Ausfall einer „Pizzaschachtel“ dazu, dass auch die Daten auf dieser Einheit verloren gehen.
Deshalb werden die Daten redundant auf alle Systeme verteilt und im Grunde entsteht dabei eine 1:2 oder 1:3 bzw. 1:n Situation.
Bei 1:2 (z.B. wenn wir nur zwei Pizzaschachteln verwenden) müssen alle Daten vollständig auf beiden Systemen verfügbar sein.
Will ich also 1 TB nutzbaren Speicher, dann muss das Komplettsystem 2 TB Speichereinheiten bereitstellen.
Nun kann eine Pizzaschachtel komplett ausfallen. Hoffentlich aber nicht auch die Zweite.
Deshalb gibt es 1:3 Redundanzen, bei denen die Daten so verteilt sein müssen, dass mehr Systeme den kompletten Datenbestand zur Verfügung haben.
Das läuft auf 1 TB Nutzdaten zu 3 TB Speichereinheiten hinaus.
Das kann man nur machen und kostengünstig anbieten, weil der Speicher so günstig geworden ist.
Auf der anderen Seite müssen zusätzlich spezielle „Cachinglösungen“ in Form sehr schneller Zwischenspeicher auf jedem Gerät verfügbar sein, damit am Ende die virtuellen Festplatten ausreichend schnell sind.
Sehen Sie nun, was eigentlich „die Cloud“ ist?
Es ist nicht der „OneDrive“ Speicher, den ich mieten kann oder dass meine E-Mails komplett dort verwaltet werden.
Eigentlich ist die Cloud ein riesiger Verbund aus Rechenleistung, Arbeitsspeicher und Datenspeicher, die man sehr dynamisch verbinden kann.
Den aktuellen, nächsten Schritt geht Microsoft mit Lösungen wie z.B. „Azure Stack„.
Der neueste Trend besteht darin, die Verwaltungsprogramme aus der Cloud auch in die Rechenzentren der Unternehmen zu bringen.
Wenn auch die dortigen Server mit der gleichen Verwaltung virtualisiert werden, entstehen extrem dynamische Strukturen.
Problemlos kann man Teile der IT in die Cloud auslagern oder bei Bedarf die Leistung erhöhen.
Es gibt einen „gemeinsamen Baukasten“ der durch eine gemeinsame Verwaltung frei konfiguriert werden kann.
Die so genannte „Hybrid Cloud„.
Natürlich gibt es auch hier Nachteile.
Viel mehr als zuvor ist das Netzwerk und nun auch die Anbindung an das Internet das kritische Nadelöhr.
Damit man die Leistung voll ausschöpfen kann, benötigt man zwei, synchrone 1GBit/s Anbindungen an das Internet über unterschiedliche Kabelwege.
Wenn Sie das anfragen, werden Sie im ersten Moment sicher über die hohen Kosten erschrecken.
Ein weiteres Problem – auch die aktuell noch eigene Infrastruktur wird über die „Cloud-Verwaltung“ zu einem Teil der „Hersteller Cloud“.
Damit entsteht eine sehr, sehr enge Verbindung, die nur schwer lösbar sein wird.
Die Anbieter sagen zwar, dass auch andere Cloudanbieter mit untersützt werden – was am Ende aber dann wirklich reibungslos funktioniert wird die Zeit zeigen.
Die aktuellen Tendenzen sind im Grunde einfach eine natürliche und logische Evolution und aus rein technischer Sicht eine sehr spannende Sache.
Dabei entstehen aber Vernetzungen – ähnlich wie beim globalen Handel (Globalisierung) – die zu immer größeren Abhängigkeiten führen.
Jede Störung im Gefüge wird weitreichende Folgen haben.
Und die Angreifer werden es lieben, wenn am Ende immer mehr standardisierte Zugriffswege zur Verfügung stehen.