Die zentrale Cloud-Ressource ist das Netzwerk

Netzwerke

Maximale Skalierbarkeit und mehr Bandbreite in der Private Cloud? Ciena-Zentraleuropa-Chef Eugen Gebhard meint allen Anbietern von Optimierungs-Produkten zum Trotz, dass schon das Netzwerk selbst dynamisch und flexibel arbeiten muss. Als Anbieter der hardwarenahen Infrastruktur-Komponenten beschäftigt sich Gebhard mit den nötigen Netzwerkgrundlagen etwa für optische Datenübertragung in Glasfasernetzen – die hier eingesetzten Optimierungen kommen schon zum Tragen, bevor Software überhaupt eingesetzt wird. Ein Diskurs vomLichtwellenmultiplexing bis zu optischen Hacks.

Die optimale Ausnutzung der eigenen Rechenkapazitäten – das verspricht die Private Cloud den Unternehmen. Ganz nach Bedarf sollen die Anwender Zugriff auf einen gemeinsamen Pool von Servern, Speicher, Applikationen und Services haben – flexibel und unabhängig vom Standort. Dabei wird das Netzwerk zur zentralen Ressource, denn gerade die Verbindungen zwischen einzelnen Rechenzentren müssen genauso dynamisch und flexibel arbeiten wie die Rechenzentren selbst. Nur so können die Möglichkeiten, die die Private Cloud bietet, in vollem Umfang ausgeschöpft werden.

Egal ob Speicher- und Rechenkapazitäten, Kosteneinsparungen oder Skalierbarkeit: Das Thema Cloud wird mit fast unbegrenzten Möglichkeiten assoziiert. Einer aktuellen Studie des Marktforschers Kelton Research zufolge, setzen inzwischen mehr als 75 Prozent der deutschen Unternehmen auf die Cloud. Es gilt dabei drei Formen der Cloud zu unterscheiden: Die Public Cloud ist offen für eine beliebige Anzahl von Kunden. Dementsprechend können Applikationen dort von verschiedenen Anwendern gemeinsam genutzt werden. Die Private Cloud dagegen ist eine unternehmenseigene IT-Umgebung mit strenger Zugangskontrolle. Die Hybrid Cloud ist eine Mischung aus beiden.

Netzwerkspezialisten wie Ciena rechnen mit einem Anstieg des Datenaustauschs zwischen Unternehmensnetzwerken und Cloud-Rechenzentren. Viele Anwender haben ihre Cloud-Tests beendet und beginnen auch geschäftskritische Anwendungen zu virtualisieren. Damit einher geht auch ein höherer Bedarf an Bandbreite.

Der sichere und latenzarme Transfer großer Datenmengen im WAN ist obligatorisch für die Anbindung und Synchronisierung georedundanter Ausweichrechenzentren im Unternehmensnetzwerk.  Auch für den Einsatz virtueller Maschinen über die Grenzen lokaler Rechenzentren hinweg ist er unverzichtbar: Wenn so genannte vApps (virtual Appliance) auf mehrere virtuelle Maschinen zugreifen können sollen, dann müssen sowohl alle beteiligten Server als auch das Netzwerk immer die volle Input/Output-Leistung vorhalten.

Methoden zur Netzwerkoptimierung

Eine Modernisierung der Netzwerkinfrastruktur ist unumgänglich für die Betreiber. Im Cloud Computing werden dabei zwei Arten von Konnektivität unterschieden: Zum einen die, die den Endnutzer mit dem Rechenzentrum verbindet, zum anderen die, die Rechenzentren untereinander verbindet. Diese Verbindungen sind das Herz der Cloud und erfordern eine hohe Funktionssicherheit, Skalierbarkeit und Mobilität, um effizienten und schnellen Zugang zu den Ressourcen in der Cloud gewährleisten zu können. Neue Entwicklungen ermöglichen es, Cloud-ungeeignete Netzwerke zu optimieren: Das Coherent Optical Processing steigert die Netzwerkkapazität. So können große Mengen an Datenverkehr zwischen Rechenzentren abgewickelt werden. Das Optical Transport Network (OTN) verhilft zu einer effizienteren Bandbreitennutzung, indem Signalreichweiten verstärkt und die Anzahl von benötigten Netzwerkelementen reduziert wird. Mithilfe integrierter Kontrollinstrumente gelingt es, auf Veränderungen des Netzwerks dynamisch zu reagieren. Zusätzlich können täglich wiederkehrende Vorgänge ohne manuelle Steuerung ausgeführt werden.

Bild: Die Größen beim Aufbau der “Optical Transport Networks” schlucken sich gegenseitig, denn die Technologie ist essentiell für den Betrieb modener Bretbandverbindungen. Quelle: Ciena Networks

Für die Auswahl der verschiedenen technischen Optionen sind vor allem unternehmensinterne strategische Überlegungen relevant. Eine Möglichkeit sind optische SDH-Crossconnects. Sie passen technisch am besten zu Investitionen in bestehende TDM-optimierte Infrastrukturen, sind allerdings nur in Netzwerken mit niedrigen Übertragungsraten effizient, weil die Standardübertragungsraten für SDH/SONET nur bis 40G genormt sind.

Für Anbieter, die in der Zukunft 100G benötigen, bildet die momentan leistungsstärkste Multiplexing-Variante DWDM (Dichtes-Wellenlängen-Multiplex) mit Übertragungsraten von 10 bis 100G bit/s je Wellenlänge eine Alternative. Die DWDM-Transponder können in die Router integriert werden und reduzieren die Komplexität im Backbone deutlich. Dieser Ansatz, der auf flächendeckenden Routereinsatz zielt, heißt IP-over-DWDM (IPoDWDM). Router und Ports sind dabei allerdings kostenintensiver und die DWDM-Schnittstellen sind nicht so leistungsfähig wie getrennte Systeme für DWDM und Core-Router.

Der zuverlässige OTN-Standard wurde für die optimale Übertragung verschiedener Servicearten konzipiert: Asynchrone Daten können gleichzeitig und völlig transparent mit synchronen Daten übertragen werden – ohne die Managementinformationen des Client-Datenverkehrs zu beschneiden. Moderne Lösungen können zudem nicht nur statische, sondern auch flexible Kapazitäten zwischen beliebigen Punkten zur Verfügung stellen. Da OTN zu bestehenden Glasfaserinfrastrukturen und 10G-Übertragungssystemen kompatibel ist, ist ein problemloses Upgrade zu 40G oder 100G möglich.

Letztlich werden Router vom Transitverkehr entlastet, was Kapazitäten für den IP-Datenverkehr freisetzt. Funktionen des Carrier Ethernet werden im Gegensatz zu rein paketbasierten Netzwerken trotzdem gleichzeitig unterstützt.

Vorteile einer intelligenten Netzwerkstruktur

Ein intelligentes Netzwerk, das die Konnektivität zwischen Rechenzentren optimiert, optimiert auch das Cloud-Netzwerk. Intelligente Cloud-Management-Anwendungen ermöglichen schnellere Vorgänge im Netzwerk, kleinere Latenzen und verbessern so die Performance Applikationen und Services. Die Fähigkeit, sich an verschiedenste Verbindungen und Services anzupassen, ermöglicht den Anwendern die Nutzung von Cloud-Services und Plug&Play-Netzwerkressourcen. Eine neue Netzwerkinfrastruktur erlaubt es Cloud-Service-Providern außerdem, ihre Rechenzentren durch Konsolidierung und Echtzeitlastverteilung ohne Qualitätsverlust zu optimieren. Zusätzlich wird auch die Zuverlässigkeit gesteigert, da sich das Netzwerk selbst repariert und sogar mehrfach redundant ist. Durch nahtlose Skalierbarkeit, effizientes Bandbreitenmanagement und automatisierte Vorgänge verringern sich außerdem die Kosten.

Wichtiger Faktor: Die Sicherheit
Beim Aufbau eines solchen intelligenten Netzwerkes gilt es auch, die Sicherheit des Netzes und der darin transferierten Daten zu gewährleisten. Obgleich Unternehmen bisher hauptsächlich auf Server-Seite angegriffen wurden, so erfolgen Angriffe aktuell auch auf das optische Core-Netzwerk. Eine sorgfältige und ganzheitliche Vorsorge ist demnach zielführender als reaktive Maßnahmen.

Obwohl optische Datenleitungen schwer auszuspähen sind, lassen auch sie sich hacken. Entsprechende Kenntnisse vorausgesetzt, genügen leicht zugängliche Mittel, um das Licht und damit auch die übertragenen Daten unbemerkt bearbeiten zu können. Ein Hackerangriff auf eine optische Netzwerkinfrastruktur kann besonders folgenschwer sein, da die übertragenen, in optischen Signalen codierten Informationen bei einem Zugriff auf das System komplett gestohlen werden können. Zuverlässigen Schutz gegen fremde Eingriffe bietet eine entsprechende Verschlüsselung. Sie verbirgt den Datenfluss und macht eine Manipulation unmöglich. Der Einsatz anerkannter Verschlüsselungs-Algorithmen und Schlüsselmanagements sowie eine häufige Erneuerung der Schlüssel bieten hier einen umfassenden Datenschutz.

Von der Komplexität der Sicherheitsanforderungen darf die Leistungsfähigkeit selbstverständlich nicht in Mitleidenschaft genommen werden. Laufzeitempfindliche Netzwerkprotokolle oder Anwendungen fordern Verschlüsselungsmechanismen mit Laufzeiten von nur wenigen Mikrosekunden. Bei optischen Lösungen erfolgt die Verschlüsselung mit minimaler Latenz in der Hardware auf einem unteren Layer. Zusätzlich kann die Netzwerkbandbreite komplett für den Datentransport genutzt werden, so dass sowohl latenzempfindliche als auch bandbreitenintensive Anwendungen profitieren.

Fazit

Unternehmen stehen nicht nur vor der Herausforderung, intelligente Server- und Storage-Lösungen einzusetzen, sie stehen vor allem vor der Aufgabe, leistungsfähige und stabile Netzwerkinfrastrukturen zu implementieren – die Grundlage des gesamten Datentransfers. Nur so können sie die eigenen Erwartungen hinsichtlich Verfügbarkeit, Flexibilität und Skalierbarkeit mit Cloud Computing verknüpfen. Das Netzwerk ist dabei das Herz eines IT-Geschäftsmodelles in der Cloud. Mit einer intelligenten Netzwerkstruktur können die verschiedensten Dienste und Anwendungen effizient und zuverlässig aus der Cloud heraus genutzt werden.