Virtualisierung vom Server zum Desktop

Noch vor wenigen Jahren dachte man beim Thema Virtualisierung nur in Richtung Hardware-Auslastung der physischen Server im Rechenzentrum. Bei dieser Virtualisierung der Ressourcen ging es vor allem darum, dass ein Server, der nicht ausgelastet ist, mit anderen Aufgaben eingedeckt wird, die er auf virtuell vollkommen getrennten Bereichen abarbeitet.


Interview:
Virtualisierung im Elchtest

Hans Berndl, Server Business Group, Microsoft Österreich

Video ansehen

Doch dies war, wie gesagt, erst der Anfang. Andere Bereiche kamen hinzu und das Thema tauchte plötzlich auch im Zusammenhang mit Desktops und Applikationen auf. Gleichzeitig wurden mit zunehmender Komplexität Management und Verwaltung dieser virtuellen Infrastrukturen immer wichtiger.

Heute bietet Microsoft ein durchgängiges Virtualisierungsportfolio vom Server bis zum Desktop und dynamische Lösungen vereinfachen Rollout, Administration und Betrieb von physischen UND virtuellen Infrastrukturen. Denn eines ist heute auch klar: in der Praxis ist es zumeist der perfekte Lösungs-Mix, der dabei hilft, die IT-Kosten zu senken und die Produktivität anzuheben.

Gerade in heterogenen Umgebungen zählt die Interoperabilität zu anderen Plattformen – und hier hat Microsoft sehr gute Karten, wie Hans Berndl von der Server Business Group, Microsoft Österreich, betont: „So kann ich auf der Microsoft Plattform auch einen Linux Server virtualisieren bzw. als Virtual Server im Einsatz haben – und umgekehrt. Auch in den Bereichen Support, Lizenzierung und Formate hat Microsoft viel Weitblick gezeigt. So wurde zB das VHD-Format, in dem virtuelle Maschinen gespeichert werden, von uns sehr früh offen gelegt – mit dem Effekt, dass heute viele 3rd-Party-Lösungen auf diesem Format aufsetzen.“

Letztendlich soll das alles ja dem Anwender zu gute kommen, der möglichst flexibel auf Software und Services zugreifen können soll, die er für seine Arbeit benötigt. Die Infrastruktur wird – auch dank Virtualisierung – imstande sein, ihm überallhin zu folgen.

Der Virtualisierungsansatz von Microsoft

Der Virtualisierungsansatz von Microsoft basiert im Wesentlichen auf 3 Säulen:

  1. Geht es darum, IT-Prozesse so zu beschreiben, dass Developer auf der einen und Administratoren auf der anderen Seite gleichermaßen und aus ihren unterschiedlichen Blickwinkeln heraus darauf zugreifen können. Das geschieht über Modelle, die die Prozesse kapseln und die IT damit transportabel machen – mit dem schönen Nebeneffekt, dass der Developer in der gleichen Umgebung entwickeln und testen kann.
  2. Bewirkt diese Kapselung eine Trennung auf den unterschiedlichsten Niveaus. Ich kann – wie im Fall des virtuellen Desktops - die Software von der Hardware trennen, ich kann aber auch das Betriebssystem von den Anwendungen trennen – also die Applikationen selbst virtualisieren, damit ich schneller reagieren kann und im Falle eines Problems meine ganze Arbeitsumgebung mit einem Klick auf eine andere Maschine verlagern kann, während man die Hardware darunter austauscht.
  3. "Virtualization without good management is more dangerous than not using virtualization in the first place."

  4. Geht es darum, diese Dynamik zu managen. Hier tritt das Microsoft System Center auf den Plan, mit dem es möglich wird, virtuelle und physische Server, Clients und Anwendungen unter einer einheitlichen Oberfläche zu administrieren. Ein entscheidender Aspekt, wenn es darum geht, die Komplexität einer dynamisch verfügbaren Infrastruktur in den Griff zu bekommen. Thomas Bittman, Analyst der Gartner Group, bringt dies wie folgt auf den Punkt: "Virtualization without good management is more dangerous than not using virtualization in the first place."

Wenn diese 3 Säulen zusammenspielen, kann das volle Potenzial an Vereinfachung und Kosteneinsparung in einer durchgängigen Virtualisierungslösung genutzt werden. Durch den einheitlichen Blick auf alle Funktionen und Services, egal ob sie physisch oder virtuell bereitgestellt werden, bleibt die Dynamik transparent und verwaltbar.

  • Neue Systeme und Anwendungen können in kürzester Zeit zur Verfügung gestellt werden - ohne vor Ort Änderungen an Clientcomputern vornehmen zu müssen
  • Hardwarekosten sinken, da mehrere Server als virtuelle Maschinen auf einem physischen Server zusammengeführt werden. Clientcomputer brauchen in der Regel nicht so leistungsstark zu sein und werden preiswerter, wenn sie Anwendungen von Servern virtuell zur Verfügung gestellt bekommen
  • Der Stromverbrauch wird verringert, weil weniger Server betrieben werden. Zusätzlich können zu Zeiten geringerer Auslastung wie etwa im Nachtbetrieb virtuelle Maschinen dynamisch zusammengelegt und nicht benötigte Rechner in einen Energiesparmodus versetzt oder sogar ausgeschaltet werden, um den Stromverbrauch weiter zu senken
  • Die Verfügbarkeit kritischer Anwendungen wird gesteigert. Sie können in kürzester Zeit auf die am besten geeignete Hardware verschoben werden.

Es ist das Know-how aus beiden Welten – Desktop- und Serverbetriebssysteme – dafür verantwortlich, dass Microsoft heute in der Lage ist, physische und virtuelle Infrastrukturbestandteile unter eine einheitliche Managementlösung zu stellen.

Dabei sind diese Managementwerkzeuge nicht allein auf Microsoft-Systeme festgelegt, sondern auch offen für die Integration anderer Systeme. Als reiner Softwareanbieter ist Microsoft mit seinen Lösungen nicht an Hardware gebunden, sondern erlaubt den Betrieb unabhängig von physischen Maschinen spezieller Hersteller.