2007-08-11 20:35:59

Die Virtualisierung der Netze

Der neue Trend zur Virtualisierung in den Speichernetz-werken ist eigentlich der zweite Anlauf dieses Glück verheißenden Speicherkonzepts. Nun funktionieren die Produkte, verteilte Daten sorgen für massive Kostener-sparnisse und eine neue Einfachheit in den Unternehmens-netzen.

Fritz Katz

Druckversion

Unternehmen sehen sich seit Jahren mit einem zunehmenden Informationsfluss konfrontiert. Die Zeiten explosionsartiger Datenzuwächse sind zwar voraussichtlich überstanden, dennoch prognostizieren weiterhin Experten ein rasantes Wachstum des Datenverkehrs und der Speichernetz-werke. Die Schätzungen zu den jährlichen Steigerungen des Speicher-Bedarfs der Unternehmen bewegen sich zwischen 60 und 70 Prozent - die Virtualisierung der Datenspeicherung soll künftig trotzdem für Kosten-einsparungen sorgen. Selbst in Zeiten des unaufhörlichen Preisverfalls im Speicherbereich (so ist die Speicherung von Daten bereits auf Festplatte wesentlich günstiger als auf Papier) fährt der Rotstift bekanntlich gnadenlos durch die IT-Budgets der Unternehmen. Was für kleinere Unternehmen noch reine Zukunftsmusik ist, könnte aber schon bald für den Mittelstand gelten: Virtualisierung. Die virtuelle Sichtweise der gespeicherten Unternehmensdaten soll dabei die Speicher- und Serverinfrastruktur in den Unternehmen vereinfachen. Wie dies funktioniert ist theoretisch einfach erklärt: Sie krempelt proprietäre, komplexe Speichersysteme zu einer, einzigen Umgebung um, die vom Administrator einfach gemanagt werden kann. Durch die sprichwörtliche „Verschleierung“ der Komplexität des Speichernetzwerkes sollen spürbare Kostenvorteile erzielt werden.Neues Thema ist die Speichervirtualisierung keineswegs. Bereits vor Jahren propagierten die Speicherhersteller die goldene Zukunft der virtuellen Datenablage. Doch waren diese Prognosen zunächst als unhaltbare Marketingblasen zerplatzt. Virtualisierungslösungen galten schnell als zu komplex und nur schwer in den heterogenen Speicher-Landschaften der Unternehmen realisierbar. Der Grund: Zu viele Süppchen wurden hier von den Herstellern gleichzeitig gekocht. Die Angst der Unternehmen, bei Systemabstürzen keinerlei Zugang auf die verteilt abgelegten Daten zu haben, überwog den erwartbaren Kostenvorteil.Mittlerweile hat sich der Virtualisierungssturm in der Storagebranche gelegt: die neuen Lösungen können beinahe schlüsselfertig geliefert werden. Daten können nun flexibel zwischen den verschiedenen Storagesystemen und Speicherschichten bewegt werden, ohne die Verbindung zu den Anwendungen zu verlieren. Denn das sollte Virtualisierung in erster Linie sein: ein Werkzeug für den IT-Administrator. Speichererweiterungen, Systemupgrades oder einfach neue Bedürfnisse des Geschäfts können dabei mittels eines zentralen Managements der IT effizienter bewerkstelligt werden. Dies gilt für Servermanagement wie eben auch die Speicherverwaltung.Eigentlicher Start am PC-MarktDie Anbieter am Virtualisierungsmarkt sind die klingenden Namen der Storagebranche: EMC, Network Appliance, Hitachi Data Systems oder Fujitsu Siemens. Der Siegeszug der Virtualisierung wurde aber gar nicht im Speicherbereich beschritten. Steht der Produktname „VMware“ für die gelungene Simulation von Software, können damit unter Linux oder Microsoft Windows komplette PCs oder sogar Server simuliert werden. In dem „virtualisierten“ PC werden dann unterschiedliche Betriebssysteme installiert, die vom Benutzer einfach hinzu- oder weggeschaltet werden können ohne die Maschine umständlich rebooten zu müssen. Keine schlechte Idee, dachte sich auch EMC und kaufte kurzerhand das gleichnamige Unternehmen VMware für 635 Millionen Dollar.Nahe, ferne ZukunftEbenfalls EMC ist es, die das Thema Virtualisierung, nach dem Marketingfeuerwerk der früheren Jahre nun vorsichtiger angehen. „Wir werden bestenfalls in ein bis zwei Jahren wirklich soweit sein, brauchbare Lösungen für die Praxis anzubieten“, sagte noch Österreichchef Martin Rajsp im Vorjahr im Gespräch mit einem Fachmagazin. Was nun vielmehr passiere, sei zunächst ein Wechsel der Speicherintelligenz innerhalb der Netzwerke. Dabei findet die flexible Automatisierung der Speicherwege bereits in den Netzwerk-Switches statt. Der Hintergrund: Bislang ermöglichten die Hersteller lediglich Speicherintelligenz in den Arrays, also direkt bei den Speichermedien. Virtualisierung ist für Rajsp eine kritische Angelegenheit: „Ein kollabierendes Speichersystem verzeiht Ihnen keiner“, weiß er.„Auch wenn uns die Virtualisierung nicht die Umsätze bringt wie der reine Kapazitätsverkauf, werden wir das Thema weiter voran treiben“, erklärt wiederum Michael Väth, EMEA-Geschäftsführer (EMEA: Europe, Middle East and Africa) bei Hitachi Data Systems (HDS). Es gäbe dazu bei den Kunden „noch viel Erklärungsbedarf“. Aber immerhin: die Anfragen seien massiv gestiegen. Unternehmen wie HDS würden am liebsten ihre Speicher- und Virtualisierungsstrategien jedem Unter-nehmen verkaufen: Man möchte kleinen und mittleren Unternehmen jene Technologie bieten, die bisher auf den Großkundenmarkt zugeschnitten war. Immerhin stünden KMUs vor den gleichen Herausforderungen und Problemen ihrer IT, wie die großen Unternehmen. Auch wenn Virtualisierung an dieser Stelle wie Zukunftsmusik klingt – wer weiß, mit welchen Datenmengen Unternehmen in einigen Jahren zu kämpfen haben? (Quelle: bizzmail)