Wissensgrundlagen für den Architekten: Storage-Systeme

Langsam haben wir alle wichtigen Themengebiete für die IT Infrastruktur-Architekten angerissen:

  • Softwarebeschreibungen & Beispielimplementierungen von den TechNet Seiten
  • Betriebshandbücher und Prozessbeschreibungen vom Microsoft Operations Framework MOF
  • Schulungs- und Weiterbildungsangebote
  • Hardwarezertifizierungen für Server und PCs
  • Supportangebote von Microsoft

Unerwähnt blieben noch die "Peripheriesysteme" (aus der Sicht eines Softwarevertreters) wie Storage und Netzwerksysteme. Auch in diesen Bereichen sollte sich ein IT Infrastruktur-Architekt hinreichend gut auskennen, um die richtigen Entscheidungen für seine Organisation zu treffen. Betrachten wir in diesem Artikel zunächst die wichtigsten Storage Grundlagen.

StorageWas viele Leute nicht wissen ist die Tatsache, dass Microsoft inzwischen ein wichtiger Anbieter im Bereich Storage geworden ist. Auf der Homepage für den Bereich Storage finden sich dazu alle wichtigen Informationen. Prinzipiell handelt es sich dabei um die Produkte Storage Server und Windows Easy SAN (oft als OEM Geräte verkauft und dementsprechend wie supported?), System Center Data Protection Manager 2007 als Backup & Recovery Lösung sowie Technologien in unseren Betriebssystemen wie die iSCSI Lösungen.

Aber Storage ist natürlich immer noch mehr als nur Produktlösungen. Wichtig ist zunächst einmal die Entscheidung zu treffen, ob man nun lokale Platten nutzen möchte (DAS = direct attached storage), Platten im SAN oder auch Platten übers Netz (NAS) nutzen will. Das hat zum Einen mit Kosten und Performance tun, zum Anderen aber auch mit Auslastung und Verfügbarkeit der Platten. Pauschalaussagen lassen sich nicht treffen, hier hängt es immer von den jeweiligen Applikationen und Einsatzszenarien ab. Viele Whitepaper auf den Microsoft Storage-Seiten und im TechNet Portal geben hier Hilfe. Aber auch die Microsoft Support-Seiten sollte man nicht vergessen: denn nicht jede Applikation von Microsoft wird auf jedem Storage-System unterstützt. Grade bei NAS muss man sehr genau schauen, ob die Performance ausreicht und ob das NAS System für die jeweilige Anwendung zertifiziert ist, um im Betrieb anschließend auch Support zu bekommen. Denn ansonsten hat man viel Geld ausgegeben für eine Lösung, die Microsoft so nicht unterstützen kann. Hier kann man wie bei jeder Hardwarekomponente nicht vom Hersteller alleine auf den Support schließen, sondern das jeweilige Modell für die jeweilige Anwendung muss überprüft werden. Ihr Vertriebspartner hilft Ihnen hier weiter.

Heutzutage immer wichtiger wird auch der Strombedarf von IT Komponenten. Im Storagebereich sind dies vor allem die Festplatten in den jeweiligen Lösungen. Auch hier gibt es große Unterschiede je nach Modell & Hersteller der Festplatten. Hat man früher rund 18W pro Platte als Daumenregel angesetzt, kommt man bei modernen Platten eher auf 9W. Geht man in den Bereich von 2,5 Zoll Platten, so kann man auch auf noch weniger Leistungsaufnahme kommen. Und die schon lang versprochenen Solid State Disks (SSD) stehen dort noch besser dar. Ihr Nachteil heutzutage ist dabei immer noch der wesentlich höhere Anschaffungspreis und die deutlich kleineren Kapazitäten. Dafür bieten professionelle SSD Lösungen eine hervorragende IO Leistung. Für IO-lastige Anwendungen (wie Datenanalysesysteme) kann daher eine SSD Lösung interessant sein, da die hohen Anschaffungskosten durch deutlich geringere Stromkosten im Betrieb (gegenüber einer Lösung mit sehr vielen, kaum ausgelasteten Festplatten mit gleicher IO Leistung) schon über kürzere Laufzeiten ausgeglichen werden kann. Für speicherlastige Systeme wie Archivdatenbanken stellen klassische Platten sicherlich noch die bessere Wahl dar. Besonders mit den MAID Systemen (große Plattensysteme für die Archivierung, bei denen gezielt Platten abgeschaltet werden, wenn sie nicht verwendet werden: Massive Array of Idle Disks) lassen sich so sehr viel Energiekosten sparen.

Als letztes möchte ich noch kurz den Bereich Storage-Virtualisierung ansprechen. Wie bei Servervirtualisierung geht es darum, die Datenschicht von der Hardwareschicht zu trennen. Die Implementierungen sind dabei unterschiedlich; aber oft vergessen wird dabei die Lösung die wir seit vielen Jahren anbieten DFS oder Distributed File System. Auch hier wird nichts anderes gemacht als bei jeder Storage Virtualisierung: ein logischer Name (der DFS Name) wird an unterschiedliche Speicherfreigaben (Server Shares etc.) gebunden. Der Zugriff erfolgt dabei nicht mehr direkt sondern über den logischen Namen. Das Ersetzen (und Umbenennen) sowie die Lastverteilung und Skalierung wird somit zur einfachsten Sache der Welt. Das ganze gibt es als kostenloses Feature in jedem Windows Server, in den Varianten Windows Server 2003 R2 und Windows Server 2008 sogar mit einer sehr intelligenten Replikation bei der Verwendung von mehreren Hardwaresystemen.

Wie bei den Architektur-Blueprints, der Hardwareübersicht oder den Softwareempfehlungen kann hier nur ein sehr kurzer Anriss des Storage Themas erfolgen. Die wichtigsten Punkte für jeden IT Infrastruktur-Architekten sollten aber immer im Hinterkopf sein:

  • Welche Speicherarchitektur soll verwendet werden: DAS, SAN, NAS?
  • Was sind das wichtigere Kriterium IO oder Speicherplatz?
  • Wie hoch sind die Anschaffungskosten und die Betriebskosten, vor allem der Energiebedarf?
  • Sind die Lösungen für die jeweiligen Anwendungen supportet?
  • Soll Virtualisierung eingesetzt werden und kann DFS hier nicht schon die Lösung sein?

Bei all diesen Punkten ist natürlich auch immer das große Bild nicht zu vergessen: Storage ist nur ein Teil der Gesamtlösung mit Auswirkung auf alle anderen Bereiche, vor allem das Netzwerk. Was es zum Netzwerk ansonsten noch zu sagen gibt, erfahren Sie im nächsten Artikel.