Häufig gestellte Fragen
In den meisten Fällen stellt sich gar nicht mehr die Frage, ob sich Desktop-Virtualisierung lohnt, sondern vielmehr, wie umfangreich sie sein soll. Denn es ist doch so: Als Unternehmen betreiben sie ab einer gewissen Mitarbeiterzahl bereits ein eigenes kleines Rechenzentrum: Sie haben mindestens einen Server und verschiedene Netzwerkkomponenten wie Switches und Router in einem hoffentlich klimatisierten Raum, an den alle Arbeitsplatz-PCs angeschlossen sind. Als erstes sollten Sie sich darum eine Übersicht darüber verschaffen, was diese Anlage pro Jahr eigentlich kostet: Strom, Kühlung, Wartung, Instandhaltung, Anschaffungskosten, Dienstleisterkosten bei Problembehebung von kleineren Störungen und mögliche Kosten im Falle eines Totalausfalls der Anlage sowie Ausfallzeiten bis zu deren Wiederherstellung. Viele dieser Unternehmen haben erfahrungsgemäß über einen Zeitraum von fünf Jahren mindestens einen größeren Systemausfall – und in dieser Zeit stehen die Räder sozusagen still. Rien ne va plus. Und das gerne auch für zwei bis drei Tage oder sogar noch länger. Eine kleine Katastrophe, die sich mit geplanten IT-Outsourcing und Desktop-Virtualisierung mindestens massiv minimieren oder gar vermeiden ließe.
Übrigens eine interessante Sache noch für manche Budgetverantwortlichen, da quasi keine Investitionskosten mehr für die Server- und Speicherumgebungen notwendig sind, können anfallende virtualisierte Desktops, die ja auf monatlicher Basis angemietet werden, auch in OPEX Budgets laufen. Oftmals ergeben sich hier weitere positive Effekte.
Genau. Auf Grundlage dieser Betrachtung können Firmen gut vorbereitet ins Gespräch mit einem möglichen Dienstleister treten. Gemeinsam klären die beiden Seiten dann, welche Anforderungen zu erfüllen sind. Es kann ja beispielsweise durchaus sein, dass ein Unternehmen aus bestimmten Gründen einen Server inhouse behalten möchte – das steht einer Desktop-Virtualisierung keineswegs entgegen. Der Dienstleister berät dahingehend, welche Integrationslösungen es gibt und klärt über die entstehenden Kosten auf. In der Regel ist es für Unternehmen tatsächlich meist günstiger, Desktop-Virtualisierung auch mit IT-Outsourcing zu verbinden. Haben sich Kunde und Dienstleister dann auf ein entsprechendes Konzept geeinigt, geht es an die Umsetzung.
Seriöse Unternehmen bieten das selbstverständlich an. Die Desktop-PCs werden dazu auf den Servern des Rechenzentrums virtualisiert – das schließt neben dem Betriebssystem benötigte Anwendungen samt den Lizenzen ein. Danach können die Nutzer die Dienste daraufhin prüfen, ob sie ihren Bedürfnissen und Erwartungen entsprechen. Wo nachgebessert werden muss, erfolgt das über den Dienstleister. Wenn alles dann soweit passt, steht einem unternehmensweiten Roll-out nichts mehr im Wege. Nutzer können dann von überall aus auf Ihren Cloud-Arbeitsplatz zugreifen.
Das hängt mit den Anforderungen des jeweiligen Unternehmens zusammen. Theoretisch würde bei einer vollständigen Desktop-Virtualisierung ein Zerooder Thin-Client genügen, weil sich alles auf dem Server abspielt. In der Regel haben aber viele Firmen noch Desktop-PCs in Betrieb, die sie so zunächst weiternutzen möchten aus Gründen eines Investitionsschutzes. Auch das geht selbstverständlich. Im Prinzip eignet sich nämlich so ziemlich jeder PC als Client, der nicht noch von Diskette bootet – um es mal überspitzt zu sagen. Für die Auswahl der Hardware ist zum Beispiel mit entscheidend, ob bestimmte Applikationen auch offline genutzt werden sollen und darum auf dem lokalen Rechner installiert werden müssen. Je mehr das sind und desto mehr Rechenpower sie erfordern, desto mehr muss der Client auch können. Grundsätzlich sollten Unternehmen sich vor Ort dazu beraten lassen, ob und wie sich spezielle Anforderungen in eine optimale Client-Infrastruktur überführen lassen. In der Regel bieten Dienstleister auch an, bei Bedarf bewährte und getestete Client-Hardware zur Verfügung zu stellen.
Auf Clientseite gibt es fast nichts, was sich nicht virtualisieren ließe. In Bezug auf IT-Outsourcing gibt es durchaus in einigen Branchen, wie oft in der Logistik, alte Serveranlagen, die sich nicht virtualisieren lassen. Das betrifft beispielsweise den in der Logistik teilweise noch vorhandenen IBM AS/400 Server. Wenn Kunden es wünschen, lassen sich aber auch diese Systeme in eine virtuelle Infrastruktur integrieren. Seriöse Anbieter gehen in jedem Fall auf solche Kundenanforderungen ein und finden praktikable Mittelwege, wo es erforderlich ist. Viele ältere Systeme, die nicht mehr herstellerseitig unterstützt werden, lassen sich aber durch Virtualisierung auf einem vertretbaren Sicherheitslevel weiter nutzen. Das betrifft beispielsweise Windows-2008-Server, die keinen Microsoft-Support mehr erhalten. Sie müssen dennoch in einigen Unternehmen weiter genutzt werden, weil einige Schlüsselapplikationen nur darauf laufen. Auch das ist – mit gewissen Einschränkungen bei der Haftung durch den Hostingdienstleister – durchaus darstellbar.
Normalerweise nicht. Zwischen dem virtuellen Desktop im Rechenzentrum und dem Arbeitsplatz werden tatsächlich in der Regel nur kleine Datenpakete verschickt. Denn es werden nur die Bildschirminhalte übertragen – und das jeweils auch nur von den Stellen, an denen sich etwas verändert. Erfahrungsgemäß können wir deshalb sagen: Für zehn Mitarbeiter reicht eine Bandbreite 1-2 Mbit/s bereits aus. Pro Mitarbeiter rechnen wir dabei mit einem permanenten Bedarf von ca. 128 Kbit/s. Das ist in aller Regel auch in Regionen zu erfüllen, die noch kein Glasfasernetz oder generell schnelles Internet haben. Wir betreuen aber beispielsweise auch seit langem einen Kunden, der 60 Mitarbeiter über eine 4-Mbit/s-Leitung angebunden hat und, mit entsprechenden Feintuning durch uns, problemlos arbeiten kann.
Weil das sogenannte Hosting eine wesentliche Rolle in diesem Zusammenhang spielt, sollten sich Kunden von ihrem Dienstleister im Vorfeld genau erklären lassen, über welche Art von Rechenzentrum er verfügt. Hier gibt es vier Klassen, Tiers genannt, wobei es auch Zwischenstufen gibt. Von einem simplen Hosting ohne Redundanz – also ohne Netz und doppelten Boden sozusagen – und jährlichen Ausfallzeiten um rund 29 Stunden bis hin zu komplett redundant ausgelegten Strukturen und jährlichen Ausfallzeiten von maximal 45 Minuten ist alles dabei. Je leistungsfähiger das Rechenzentrum, desto teurer ist es. Aber Vorsicht: Hier lohnt sich der Rotstift nicht, weil er auf Kosten der Sicherheit und Verfügbarkeit geht. Für eine ideale Performance sollte mindestens der Server redundant ausgelegt sein und eine Wartung während des Betriebs möglich sein. Das ist erst ab Tier 3 erfüllt. In jedem Fall sollte das Rechenzentrum der Wahl nach ISO 27001 zertifiziert sein.