Virtuelle Desktop Infrastruktur (VDI): Oder wie krieg ich das iPad vom Chef einfach in die IT integriert?


Von Herbert Bild

Desktopvirtualisierung ist neben Servervirtualisierung und Cloud Computing derzeit ein sehr heißes Thema in der IT.

Nachdem viele Unternehmen die Vorzüge der Servervirtualisierung bereits genießen, beschäftigen sich laut IDC (Quelle: IDC Studie - Virtualized Client Computing in Deutschland 2011) mittlerweile über 70% der Unternehmen in Deutschland mit der Desktopvirtualisierung oder haben Sie bereits im Einsatz.

Doch warum wird eine VDI Lösung häufig nur für eine kleine Gruppe innerhalb des Unternehmens genutzt? Warum scheuen sich viele Firmen noch die Technologie flächendeckend auszurollen? Auch das hat die IDC hinterfragt und es stellte sich heraus dass

- Performance

- Kosten und

- Sicherheitsaspekte (Verfügbarkeit, Firewall etc.)

die am häufigsten genannten Gründe dafür sind.

Wenn man sich nun die „Stellschrauben“ für diese 3 Punkte genauer anschaut, kommt man sehr schnell auf das Thema Storage. Vom Virtualisierungslayer über den Server bis zum Netzwerk sind die Themen Performance, Sicherheit und Verfügbarkeit perfekt abgedeckt. Da lässt sich nicht mehr viel tunen. Auch bei den Kosten hat man wenig Spielraum. Beim Storage trennt sich aber sehr schnell die Spreu vom Weizen. Betrachten wir uns zuerst einmal den Kostenaspekt:

Ein SAN Array ist in diesem Umfeld natürlich Pflicht. D.h. aber auch, dass ich das verhältnismäßig günstige GB einer Desktop Festplatte mit dem wesentlich teureren GB einer Enterprise Storage HD ersetzen muss. Somit muss ich je nach Festplattentechnologie (SSD wesentlich höher!) und Hersteller mit einem Faktor von ca. 70-100 im Vergleich zu Standard Desktop Disks rechnen. Jetzt könnte man mit dem Argument kommen dass man ja mit Golden Images jede Menge an Storage sparen kann. Theoretisch ja, in der Praxis stellt sich aber häufig heraus, dass der weitaus größere Prozentsatz an Desktops dediziert betrieben wird und deswegen der Einsparungseffekt durch das verlinken von identischen virtuellen PC´s minimal ist. Folglich muss der Storage entsprechende Technologien anbieten die das Maximum an Kapazität aus den vorhandenen Festplatten (am besten SATA wegen des Preises) rausholt, gleichzeitig keinerlei Performanceeinbußen hat und nebenbei dürfen natürlich keine Kompromisse bei der Verfügbarkeit der Daten gemacht werden. Dies erscheint auf den ersten Blick ein unmögliches Unterfangen zu sein. Beste Performance und Verfügbarkeit heißt in den meisten Fällen schlechte Effizienz. Man denke nur z.B. an gespiegelte Arrays im RAID 10 Verbund (50% Verlust). Welche Funktionalitäten muss also das SAN Array erfüllen um diesen Spagat hinzukriegen?

Thin Provisioning hilft schon mal um die Ausnutzung des vorhandenen Storage von ca. 40% (Industriedurchschnitt) auf 70% und mehr zu erhöhen. Diese Technologie findet man mittlerweile bei den meisten ernstzunehmenden Anbietern.

Block Level Deduplizierung von Primärstorage. Es liegt auf der Hand dass AST (automated Storage Tiering) im VDI Umfeld nicht verwendet kann. Auch Deduplizierung auf Datei Level bringt nix. Das hätte nur denselben Effekt wie die Verwendung von golden Images. Nur durch die Eliminierung von doppelten Blöcken kann ich einen Einsparungseffekt erzielen. Und der ist gewaltig! Man denke nur an all die doppelten DLL´s und EXE Dateien, die in einer VMDK allein vom Betriebssystem eliminiert werden können.

Einsatz von SATA Disks. Au weia ! Werden da viele Administratoren sagen. SATA Disks liefern doch nie und nimmer die Performance die ich z.B. früh morgens brauche wenn sich alle einloggen wollen. Prinzipiell ist das natürlich richtig. Es gibt jedoch auch da Möglichkeiten durch intelligentes Caching oder sog. Virtual Storage Tiering (VST) dieses Performanceproblem zu eliminieren. Ein System dass die „heißen“ Daten dynamisch analysiert und vollautomatisch in einen Flash (nicht SSD!) basierten Cache ablegt, kann das ermöglichen. Im VDI Umfeld sind die „heißen“ Daten natürlich das OS, dass jeder PC booten muss und z.B. die am häufigsten verwendeten Applikationen wie z.B. Outlook, Office etc. Diese Daten werden damit genau 1-mal physikalisch von den SATA Disks in den Cache geladen und ab diesem Zeitpunkt findet dafür kein einziger I/O mehr auf der HD statt. Boot Storms oder andere wiederkehrende I/O lastige Prozesse könne damit problemlos von SATA Disks bedient werden.

clip_image002

Konkretes Kundenbeispiel für den Einsatz von „Virtual Storage Tiering“

Somit hätten wir 2 der größten Hemmfaktoren für die Umsetzung von VDI Projekten im großen Stil, nämlich die Kosten und die Performance durch hocheffizienten Storage und den gleichzeitigen Einsatz von automatisierten, intelligenten Caching Technologien, eliminiert.

Bleibt noch das Thema Sicherheit/Verfügbarkeit. Selbstverständlich muss ein zentrales SAN Storage, dass für den Betrieb von hunderten oder tausenden von virtuellen Desktops benötigt wird hochverfügbar ausgelegt sein. Diese Anforderung erfüllen auch alle Enterprise Storage Arrays. Insofern ist das heutzutage kein Problem mehr. Man sollte aber dennoch auch da genauer hinsehen. Viele Hersteller „erschlagen“ einen sofort mit dem High-End Modell, weil das natürlich alle HA (High Availability) Anforderungen erfüllt. Häufig würde allerdings ein kleineres System sowohl von der Performance als auch von der Kapazität völlig ausreichen. Nur leider muss man da oft Kompromisse bzgl. Funktionalität und Verfügbarkeit eingehen, die meistens nicht mehr akzeptabel sind. Also sollte man auch dabei auf Effizienz und Flexibilität achten, damit die gesparten Euros nicht durch eine viel zu teure HA Lösung wieder aufgefressen werden.

Herbert Bild ist seit 7 Jahren bei NetApp Deutschland http://www.netapp.de als Solution Marketing Manager tätig und hat seit 2009 die Position des Ethernet Storage Lead im deutschen SNIA Komitee. NetApp ist seit 2005 Microsoft Gold und Global ISV Partner.

http://www.snia-europe.org/

Comments (0)

Skip to main content