Facebook Button Twitter Button YouTube Button RSS Button

IT-Runde

Virtuelle Server – Probleme und Risiken

  • Virtuelle Server - Probleme und Risiken

    Virtualisierungen sind heutzutage sehr weit verbreitet und es gibt nur noch selten Firmen, die ohne kaum zurecht kommen. Allerdings gibt es auch bei dieser Thematik so einige Probleme, die häufig auftreten können.

    Die Probleme können schon bei der Software anfangen, die dazu führen, dass manche Virtualisierungen von Programmen scheitern. Zwar sind irgendwelche Inkompatibilität eher selten das Problem, sondern es ist vielmehr der Kopierschutzstecker (“Dongle” genannt).  Ihre Funktion besteht darin die Vervielfältigung von Software zu verhindern; in diesem Fall die Lizenzen der Software. In Absprache mit den Softwareentwicklern sollen dann Lizenzserver im lokalen Netzwerk oder USB-over-IP-Lösungen helfen.

    Um beim Thema Lizenzen bzw. Lizenzierung noch zu bleiben: Man sollte auch im Klaren sein, dass jedes System in einem virtuellen Computer eine Lizenz benötigt und genau dadurch Kostenfallen entstehen können. So lizenziert z.B. der Hersteller Oracle seine Software über die Anzahl der CPU-Kerne oder den CPU-Sockel. Dabei ist es völlig irrelevant wieviele CPU-Kerne die virtuelle Maschine benötigt, sodass bei Quad-Core oder anderen mehrkernigen CPUs die Lizenzkosten in die Höhe schnellen. Daher ist es wichtig, darauf zu achten, was eine Lizenz alles erlaubt und was genau lizenziert wird.

    Im Grunde funktionieren die Programme einwandfrei, aber falls es doch zu Problemen kommen sollte, dann hilft meistens der Support nicht sehr viel weiter, da sie logischerweise immer beteuern werden, dass ihr Produkt vollkommen funktionstüchtig ist und die Probleme dann eher auf die Hardware schieben.

    Um mal einige Beispiele zu nennen:
    Microsoft  unterstützt nur Nutzer, die Premium-supportverträge besitzen, ansonsten wird immer das Nachstellen der Software verlangt. Oder SAP zertifizierte seine eigenen Unternehmenslösungen unter anderen Virtualisierungen wie z.B. VMware, wogegen Konkurrent Oracle nur die eigene Marke OracleVM auf XEN-Basis unterstützt.

    Jedenfalls sollte bei dieser Thematik jeder User für sich entscheiden, wieviel Supportservice man braucht und was für ein Risiko man tragen kann. Dabei sind Meinungen von anderen Usern oder Testberichte sowie der Kontakt zu den Softwareherstellern sehr empfehlenswert.

    Wenn bei der Planung viele Systeme und Programme zu virtualisieren sind, dann dürfte es nicht schaden noch einen weiteren Ersatzserver zu beschaffen, falls mal etwas schief geht. Dann kann man mit diesen Notfallserver und der Software auf Fehlersuche gehen. Da aber Notfälle in der Regel selten auftreten, kann man den Ersatzserver selbstverständlich auch als z.B. einen Hostrechner sinnvoll verwenden.

    Sobald die Planung für eine Virtualisierung abgeschlossen sind, gibt es bereits die nächsten Probleme in Sicht und zwar die im laufenden Betrieb. Die Anzahl von virtuellen Server sind bei Weitem höher als die der vorhandenen physikalischen Server. Eine Testumgebung wird mit vorinstalliert und man kann an jede Person oder Abteilung(bei einer Firma) seine eigenen vorkonfigurierten Server erstellen. Wie schon vorher erwähnt bewirkt diese Überflutung an virtuellen Maschinen zu hohen Lizenzkosten und  zu einem größer werdenden Bedarf an Ressourcen. Eine weitere Konsequenz ist auch die erschwerte Administration und Verwaltung von Backups, Updates und Softwareversionen. Hat man einmal den Überblick über die Logs der originellen und der geklonten Versionen verloren, dann können spätere Probleme, wie in etwa unterschiedliche Stände der Updates und Sicherheitslevel, nicht mehr ganz nachvollzogen werden.

    Um solchen Fallstricken zu entgehen, sollte man peinlich genaue Richtlinien und Bestimmungen erstellen und sich daran halten., damit kein Chaos entstehen kann. So sollte man z.B. festlegen wer ein virtuellen Server bekommen darf oder wie man einen beantragen kann. Ebenfalls sollten alle User mit ihren jeweiligen Administrationsrechten,  virtuellen Versionen und deren Infrastrukturen gründlich vermerkt werden, sodass Lücken gar nicht erst aufkommen können.

    Für diesen Zweck bietet beispielsweise das VMware Virtual Center alle essentiellen Basisfunktionen, welches eine erleichtere Verwaltung durch eine klar-strukturierte und detaillierte Übersicht über die Rechtevergaben, Ressourcen und Ähnliches. Bei einigen Produkten gibt es noch zusätzliche Programme mit weiteren Features, die z.B. bei der Pilotierung und Entwicklung die Arbeit vereinfachen. Darunter würde zum Beispiel VMware LAB Manager gehören, welches komplette Testumgebungen aus vielen verschiedenen Virtuellen Maschinen als eine Einheit konfigurieren kann. Somit erstellt man per Mausklick eine bereits fertig konfigurierte Umgebung bestehend aus Domänencontroller, Clients und Datenbankserver. Durch das Web-Interface kann man es plattformunabhängig bedienen.

    Jedenfalls kann man gar nicht oft genug betonen, wie wichtig eine gute Verwaltung und vor allem wie wichtig eine gute Überwachung ist. Dabei sind sowohl die ganze Anzahl der virtuellen als auch die der  physischen Computer ganz wichtig. Es bieten zwar viele Virtualisierungsprodukte auch einstellbare Lastdiagramme und Alarme, aber es fehlen oftmals Funktionen wie z.B. das Monitoring der Hostserver Hardware oder die Überwachung des Speicherplatzes im Gästebereich. Denn viele Fehlerursachen sind auch oftmals  nur das Überschreiten des Speicherlimits in den virtuellen Computern. Allerdings müssen es nicht immer nur Softwareprobleme oder Fehler sein. Auch können Hardwaredefekte wie kaputte Lüfter oder fehlerhafte Kabel das Übel sein, welche rechtzeitig erkannt werden müssen.  Nichts desto trotz  wird die Kontrolle über Patchzustände, Leistung, etc. bei wachsender Anzahl der virtuellen Computer immer schwerer und die Ereignisprotokolle immer länger. Daher sind manche Produkte unabdingbar, die mit ihren Features vieles erleichtern können. So kann bei ordentlicher Einstellung VMware Virtual Center bei Serverhochlast alarmieren, während VMware Update Manager für einheitliche und aktuelle Patchversionen der ganzen virtuellen Systemen sorgt. Sollte alles einmal abstürzen so erkennt dies VMware HA und kann einen Reboot, also einen Neustart, der virtuellen Maschinen einleiten. Ebenfalls gibt es auch noch Tools, die wirklich notwendig sind, wie die Installation von Hardwareprogrammen vom Entwickler, damit mögliche Plattenausfälle rechtzeitig erkannt werden können.

    Es ist außerdem noch empfohlen neben den ganzen Virtualisierungsprodukten auch Monitoring-Lösungen zu benutzen, wie z.B. die von Nagios, da sie gleichzeitig die physischen und virtuellen Elemente zentral überwachen kann.

    Jedenfalls sollte zum Thema Angriffsschutz und Ausfallsicherheit umdenken, da viele Systeme, Programme und Software auf nur wenigen physischen Servern “hineingequetscht” werden. (Daher ist es z.B. auch wichtig nicht unnötig viele Kabel zu verlegen, sondern auch genug Switches ausgelegt zu haben um einen  störungsfreien Betrieb zu bekommen.) Auch werden virtuelle Systeme gerne von Hackern ins Visier genommen, um die Hypervisoren und virtuellen Netzwerke einmal genauer unter die Lupe zu nehmen. Aber abgesehen von versteckten Viren und anderer Schadsoftware können auch andere virtuelle Computer als Schädlinge fungieren. Es wird zwar unwahrscheinlich einen realen PC mit Virencodes in das Servernetz einzuschleusen sein, aber  man kann auch bereits als Gast einen vollen Zugriff zu den Datenverkehr der anderen Nutzer erlangen. Daraus ergibt sich, dass auch strenge Sicherheitsvorkehrungen vorgenommen müssen und die Systeme mit Virenscanner ausgestattet sind. Auch sollten Firewalls errichtet werden um die einzelnen Abteilungen zu trennen.

    Alles in allem lässt sich sagen, dass bei der Virtualisierung neue Methoden angewandt werden müssen für Planung, Betrieb, Administration und Implementierung der virtuellen Infrastrukturen im IT-Umfeld. Dafür aber ergibt sich daraus eine erhöhte Effizienz und Flexibilität, welche zu neuen Möglichkeiten der Ressourcenauslastungen führen und spart damit auch viel Energie ein. Es lohnt sich trotz der vielen Fallen und Tücken eine Virtualisierung anzustreben, wenn man behutsam vorgeht.



  1. #1 DJ
    27.09.2011 um 10:11 Uhr

    Ich vertrete ja die Meinung dass man bzgl. der Virtualisierung heutzutage auf professionelle Dienstleister zurückgreifen sollte. Die Thematik ist so komplex aber auch wichtig geworden dass ein unternehmen das eig. nciht mehr selbst managen sollte.

    Post ReplyPost Reply
  • Trackback: Must Have für eine erfolgreiche Virtualisierung - IT-Runde Trackbacks
  • Kommentar schreiben

    * Die Checkbox für die Zustimmung zur Speicherung ist nach DSGVO zwingend.

    Ich stimme zu.