IDC: Der lange Weg zur Virtualisierung

CloudGreen-ITInnovationVirtualisierung

Eine aktuelle Studie von IDC zeigt, dass sich der Megatrend Virtualisierung im Server-Bereich schon längst etabliert hat. Doch bei den Clients ist die Entwicklung deutlich langsamer – viele Unternehmen haben noch Vorbehalte.

Das schöne Ambiente und den Imbiss im Le Méridien im Zentrum Münchens hatten sich die Journalisten verdient. Ins feine Hotel geladen hatten die Marktforscher von IDC, um die Ergebnisse einer Studie zum Thema Virtualisierung vorzustellen. Statt der bei Pressekonferenzen häufig üblichen Marketing-Slogans gab es zwei Stunden konzentrierter Informationen zu den verschiedenen Virtualisierungstechniken und deren Verbreitung in deutschen Unternehmen.

Die wichtigsten Erkenntnisse vorweg: Die Virtualisierung von Servern ist bei vielen Unternehmen inzwischen zum Standard geworden. 70 Prozent der Unternehmen in Deutschland haben diese bereits im Einsatz. Die Virtualisierung des Client Computing ist der nächste logische Schritt, läuft bisher aber erst zögerlich an.

Viele IT-Manager sind hier zunächst optimistisch. 60 Prozent glauben, dass die Virtualisierung der Clients sich in den kommenden Jahren etablieren wird. Allerdings sind auch viele skeptisch, ob sich diese komplexe Technik problemlos beherrschen lässt und wie schnell Kosteneinsparungen tatsächlich erzielt werden können.

Rund 70 Prozent der Unternehmen in Deutschland arbeiten bereits mit Server-Virtualisierung. (Grafik: IDC)

Die Ergebnisse beruhen auf der Studie »Virtualized Client Computing in Deutschland 2011«. Dabei wurden von IDC von November bis Dezember 2010 insgesamt 235 deutsche Unternehmen mit jeweils mehr als 100 Mitarbeitern befragt.

Mittelfristig gute Chancen

Die meisten befragten Unternehmen erwarten, dass sich die Virtualisierung der Clients mittel- bis langfristig durchsetzen wird. So schätzen 31 Prozent, dass sich diese Konzepte in den nächsten ein bis drei Jahren etablieren werden. 17 Prozent glauben sogar, Client-Virtualisierung werde »die Art der Bereitstellung von IT für den User revolutionieren«.

Andererseits ist auch die Zahl der Skeptiker keineswegs klein. Für 15 Prozent der Befragten in der IDC-Studie ist Client-Virtualisierung nur ein modisches Schlagwort der IT-Industrie für ein Konzept, das auch in den nächsten ein bis drei Jahren unbedeutend bleiben wird. Und 31 Prozent glauben, dass sich das Konzept in diesem Zeitraum zwar etablieren, aber nur langsam durchsetzen wird.

Anna Fetzer, Microsoft: »Virtualisierung erzeugt auch Komplexität.« (Foto: IDC)

IT und die Wertschöpfung im Unternehmen

Virtualisierung steht im größeren Zusammenhang mit den aktuellen Aufgaben der IT-Abteilungen, wie IDC-Analyst Matthias Kraus in seinem Referat darlegte. Er glaubt, dass die IT in den nächsten Jahren einen größeren Beitrag zur Wertschöpfung der Unternehmen leisten müsse. Ging es bisher in der Hauptsache um Fragen wie IT-Sicherheit oder Verbesserung der Performance, stehen jetzt Aspekte wie die Standardisierung der IT-Landschaft und die stärkere Ausrichtung der Computertechnik an den Geschäftsprozessen im Mittelpunkt. Die Computertechnik soll schneller und flexibler auf Veränderungen im Geschäftsbetrieb reagieren.

Dabei sollen natürlich auch die Kosten sinken. Experten hoffen , dass Virtualisierung hierzu einen wichtigen Beitrag leisten kann.

(kleines Bild: HP, HP Pro 6000)

Doch diese Vorteile müssen hart erarbeitet werden, wie Matthias Kraus in seinem Referat auch deutlich machte. Das fängt schon damit an, dass IT-Administratoren die unterschiedlichen Formen der Virtualisierung verstehen und richtig einsetzen müssen. Keine ganz leichte Aufgabe für Technik-Manager, die alle Hände voll zu tun haben, Netzwerk und PCs zu warten, zumal die Konzepte hinter der Virtualisierung auch nicht eben trivial sind.

Für die Client-Virtualisierung existieren verschiedene Varianten.

VDI, CVD und DVD

Bei der Desktop-Virtualisierung unterscheiden Experten zwischen den Varianten Virtual Desktop Infrastructure (VDI) beziehungsweise Central Virtual Desktop (CVD) auf der einen Seite und dem Distributed Virtual Desktop (DVD) auf der anderen Seite. Bei VDI und CVD laufen die Betriebssysteme und Anwendungen im Rechenzentrum, auch alle Daten werden hier abgelegt.

Die Mitarbeiter greifen entweder über PCs, mobile Endgeräte oder Thin Clients auf Anwendungen und Daten zu. Beim DVD hingegen findet die Virtualisierung auf den Clients statt. Der Vorteil dabei: Der Anwender kann auch offline arbeiten, da er ja nicht auf die zentral vorgehaltenen Daten oder Anwendungen zugreifen muss. Er kann dann auf seinen PC mehrere Betriebssysteme, beispielsweise für ältere Anwendungen (Legacy) auf seinen Rechner gleichzeitig bereit halten.

Die Virtualisierungs-Konzepte im Vergleich: Bei VDI und CVD liegen Betriebssystem und Daten zentral im Rechenzentrum, bei DVD findet die Virtualisierung auf dem Rechner des Mitarbeiters statt. (Grafik: IDC)

Doch es gibt noch andere Varianten, die der einschlägig interessierte IT-Admin studieren sollte, bevor er Entscheidungen trifft: die Applikation Virtualisierung und die virtuelle User Session (siehe Grafik unten).

Bereits im Praxiseinsatz erprobt

Immerhin haben bereits 41 Prozent der befragten Unternehmen VDI bereits im Einsatz und 19 Prozent planen den Einsatz. 34 Prozent arbeiten bereits mit der Virtualisierung der Applikationen, die auf dem Desktop lokal betrieben werden, 32 Prozent betreiben die Applikationsvirtualisierung im Rechenzentrum. Nur 21 Prozent setzen jetzt schon auf DVD.

Applikationsvirtualisierung (links) im Vergleich zur virtuellen User Session. (Grafik: IDC)

Auch die Konsumerisierung der IT – also die zunehmende Verwendung von Consumer-Hardware wie Notebooks oder Smartphones – in Unternehmen beeinflusst laut IDC-Analyst Kraus das Thema Client-Virtualisierung. Denn die Vielzahl von Endgeräten wirft die Frage auf, bei welchen sich Virtualisierung lohnt oder prinzipiell möglich ist.

Derzeit werden zwar noch in der Hauptsache Desktops oder Notebooks für die Virtualisierung eingesetzt, doch mittelfristig geht der Trend zu den Thin Clients, auf das nötigste abgespeckte Rechner, die im wesentlichen nur noch dazu dienen, den Media Stream aus dem Netzwerk auf dem Bildschirm zu bringen.

45 Prozent setzen Thin Clients ein

Laut IDC nutzen bereits 45 Prozent der befragten Unternehmen solche Thin Clients, immerhin 27 Prozent planen den Einsatz. Mit dem abgespeckten Rechnern können die Vorteile der Virtualisierung voll zum Tragen kommen. Langfristig könnte die Virtualisierung sogar auch bei Smartphones zum Einsatz kommen.

Am meisten verbreitet ist die Client-Virtualisierung bei Unternehmen die zwischen 100 und 1000 Arbeitsplätzen, je mehr Arbeitsplätze desto verbreiteter die Virtualisierung. Merkwürdigerweise sinkt die Neigung zu Virtualisierung bei Unternehmen die 1000 oder mehr PC-Arbeitsplätze haben. Kraus erklärt dies damit, dass bei großen Unternehmen ein Wildwuchs unterschiedlicher PC-Systeme und Endgeräte den Einsatz der Technik schwieriger mache.

Als Endgerät für die Client-Virtualisierung setzen 74 Prozent der Unternehmen laut IDC noch auf den klassischen Desktop-PC, 66 Prozent nutzen Notebooks und immerhin 45 Prozent nutzen bereits Thin Clients.

Sicherheit als Streitpunkt

Als wichtige Antriebsfaktoren für den Trend gelten zum Beispiel der niedrigere Administrationsaufwand, die Steigerung der IT Sicherheit oder die Reduzierung der Ausfallzeiten auf Seiten der Nutzer. Auch die Reduzierung der Gerätekosten – es sind in den meisten Fällen keine rechenstarken Desktop-PCs mehr nötig – spielt eine Rolle.

Matthias Kraus, IDC: »IT muss in den nächsten Jahren einen größeren Beitrag zur Wertschöpfung der Unternehmen leisten.« (Foto: IDC)

Doch ein Haupthindernis für die weitere Verbreitung der Technik ist das Thema Sicherheit. Das ist gewissermaßen paradox, gilt doch die Verbesserung der IT-Sicherheit für viele Experten als ein Hauptargument für die Virtualisierung. Doch IT-Manager, die sich länger mit der Technik beschäftigt haben, sehen auch die Gefahren. Schließlich sind mehrere virtuelle Clients auf einem Rechner installiert. Sollte hier etwas »schief gehen«, sind auch gleich mehrere Betriebssysteme und Anwendungen gleichzeitig betroffen.

Für technisch versierte Cyberkriminelle könnten sich Angriffe auf den Hypervisor lohnen. Das ist sozusagen der Aufseher des Systems, der erst die Umgebung für die virtualisierten Betriebssysteme und Anwendungen erzeugt. Sollte es einem Hacker gelingen, den Hypervisor auszutricksen, könnte er beträchtlichen Schaden anrichten.

Aufgrund solcher Befürchtungen, sind viele IT-Manager noch zögerlich bei der Einführung der Client-Virtualisierung. In der IDC-Umfrage stehen deshalb bei der Frage nach Schwierigkeiten die Sicherheitsbedenken an erster Stelle.

Keine passenden Lizenzmodelle

Doch auch die oftmals nicht rosige Budgetsituation und hohe Lizenzkosten für die Software werden von vielen als Hindernis gesehen. Laut IDC-Analyst Kraus sind besonders die Lizenzkosten ein Problem. Dies liegt unter anderem auch daran, dass viele Softwareanbieter noch keine passenden Lizenzmodelle für die Virtualisierungstechnik anbieten. So wird den Kunden schon mal gesagt, dass sie die Garantie für die Software verlieren, wenn sie diese in einer virtuellen Maschine laufen lassen.

Nutzer haben Vorurteile gegenüber Thin Clients

Ein weiteres Hindernis, das zwar nicht an oberster Stelle steht, aber trotzdem nicht zu unterschätzen ist, liegt in der fehlenden Akzeptanz der Nutzer. Laut Kraus hat dies beispielsweise damit zu tun, das Endanwender fürchten, sie könnten den PC am Arbeitsplatz dann gar nicht mehr für private Zwecke nutzen. Dies ist ja in vielen Unternehmen durchaus erlaubt, wenn auch in sehr eingeschränktem Umfang.

In einer komplett virtualisierten Software-Umgebung dann in der Mittagspause mal schnell seine privaten E-Mails checken oder den Verlauf einer Auktion bei eBay zu verfolgen, dürfte schwierig sein. Auch fühlen sich viele Mitarbeiter noch stärker kontrolliert, wenn sie ihre Anwendungen nicht mehr auf dem eigenen PC starten bzw. den Desktop selbst nicht nach eigenem Gusto einrichten können.

Kostenersparnis erst ab 50 Prozent

Gerd Wörn von T-Systems (Head of Competence Center Desktop-Services, T-Systems), hatte noch einige weitere Gegenargumente parat. Er teilt die Mitarbeiter in Unternehmen grundsätzlich in drei Klassen ein: erstens die so genannten Traveller, die mobilen Kollegen, wie etwa die Außendienstler, die ständig unterwegs sind. Die machen etwa fünf Prozent der Belegschaft aus. Dann kommen mit 10 bis 15 Prozent die Service-Workplace-Mitarbeiter und schließlich mit 70 bis 80 Prozent die klassischen Office-Workplace-Kollegen. Virtualisierung der PCs lohnt sich in der Regel nur für die Kollegen vom Service-Workplace, also für 10 bis 15 Prozent. Denn die arbeiten am ehesten mit den Thin Clients.

Die IT-Landschaft wird komplexer

Ein Unternehmen, das aber nur einen kleinen Teil seiner Arbeitsplätze mit Virtualisierung Technik bedient, holt sich damit neben dem klassischen Desktop-Modell noch eine zweite Technologie ins Haus. Damit wird die Arbeit der IT-Verantwortlichen aber nicht einfacher, sondern insgesamt komplexer.

Gerd Wörn erklärt, dass die viel beschworene Senkung der Kosten durch Virtualisierung erst dann möglich wird, wenn mindestens 50 Prozent der PCs virtualisiert sind. Diese 50 Prozent könnten aber nur erreicht werden, wenn mehrere Virtualisierungstechniken miteinander kombiniert werden. Das wiederum erhöht die möglichen Konflikte und die Komplexität der gesamten IT-Landschaft im Unternehmen.

Media Player als Hauptfeind

Als »Hauptfeind der Virtualisierung« beispielsweise hat Wörn die Media Player ausgemacht. Schließlich werden in vielen Unternehmen immer mehr Videoclips verwendet, für deren Wiedergabe schließlich bei Media Player notwendig wird. Und diese Player laufen nun mal am besten auf leistungsstarken Desktop-PCs, insbesondere wenn es sich um HD-Videos handelt.

Ein weiterer Nachteil laut Wörn: Im Alltag übliche Aktionen wie das Kopieren von Daten von einer Anwendung in die andere funktionieren hier oftmals nicht, da jede Anwendung in einem eigenen Media Stream läuft.

Gerd Wörn T-Systems: »Kostersparnisse bei der Virtualisierung treten erst ein, wenn mindestens 50 Prozent der Arbeitsplätze virtualisiert sind.« (Foto: IDC)

Auch bei den Thin Clients sieht der T-Systems-Manager Probleme. Diese schon in den neunziger Jahren des letzten Jahrhunderts im Rahmen von Java diskutierte Technologie stößt insbesondere bei den Endanwendern immer noch auf Vorbehalte. Sie fürchten, damit zu stark kontrolliert zu werden und keine Freiheit mehr bei der Gestaltung ihres eigenen Desktops am Arbeitsplatz zu haben.

Mit dem Thin Client »verliert man Anwenderfreundlichkeit«, sagt Wörn.

Vorhandene Rich Clients nutzen

Das passt gut zum Standpunkt von Anna Fetzer, Managerin bei Microsoft (Product Manager – Virtualisierung & Private Cloud). Sie weist auf die Vorteile der Desktop-Virtualisierung für die so genannten Rich Clients hin. Dabei handelt es sich um herkömmliche PCs oder Notebooks; im Gegensatz zu den schwachbrüstigen Thin Clients steht hier noch viel Rechenleistung zur Verfügung. Nützlich, vor allem für mobile Mitarbeiter, die auch öfter mal offline sind oder mehrere Betriebssysteme auf einem Notebook nutzen, zum Beispiel, um ältere Anwendungen zu nutzen, die auf dem aktuellen Betriebssystem nicht laufen.

Ein zusätzlicher Vorteil der Desktop-Virtualisierung ist laut Fetzer, dass keine neuen Geräte wie Thin Clients angeschafft werden müssen, sondern vorhandene Rechner genutzt werden können.

Fazit: Komplexität in Griff bekommen

Fazit: Während die Virtualisierung auf Servern bereits zum Mainstream in Unternehmen gehört, wird es bei der Client-Virtualisierung noch längere Zeit dauern. Schnelle Kosteneinsparungen sind nicht zu erwarten, diese werden sie erst dann einstellen, wenn IT-Administratoren die Komplexität der neuen virtualisierten IT-Landschaft in Griff bekommen haben.

Damit ist Virtualisierung auch für die Service-Anbieter Herausforderung und Chance zugleich.

Wer insgeheim hofft, der Trend zur Virtualisierung werde sich wegen der genannten Schwierigkeiten eines Tages von selbst erledigt haben, dürfte sich täuschen. Denn es gibt noch ein weiters Argument für die Virtualisierung. Sie ist nämlich die Voraussetzung für den anderen Megatrend dieser Jahre: Cloud Computing.