Special, Teil III
Geheim-Akte 2005

Allgemein

Im letzen Teil unserer Zukunftsaussichten für 2005 dreht sich alles um Longhorn. Zudem werfen wir einen Blick ins Geheimlabor der IT-Forscher.

Der lange Weg zu Longhorn

Special, Teil III

In die Windows-Geschichte wird das Jahr 2005 wohl nicht als Meilenstein eingehen, zumindest was das Client-Betriebssystem anbelangt. Der Grund: Wichtige Neuheiten, etwa das Service-Pack 2 für Windows XP, sind bereits 2004 auf den Markt gekommen.

Die erste Longhorn-Version unter diesem Codenamen entwickelt Microsoft nach wie vor den Nachfolger von Windows XP erscheint dagegen voraussichtlich erst 2006. Trotzdem wird 2005 für Microsoft ein richtungsweisendes Jahr.

Weichenstellungen für Longhorn

Viele Neuheiten, die lange als fester Bestandteil von Longhorn galten, stehen wieder zur Diskussion. Die Dateisystemerweiterung WinFS hat Microsoft aus Zeitgründen aus dem ersten Release gekippt, ein anderer Wackelkandidat ist die umstrittene Sicherheitstechnik NGSCB (Next Generation Secure Computing Base). Von Kritikern bereits als »Shorthorn« verspottet, zwingen strukturelle Schwächen im Modell die Microsoft-Entwickler zum Umdenken.

Ein neues Sicherheitskonzept wird gerade entwickelt und muss 2005 umgesetzt werden, ersten Gerüchten zufolge soll es auf virtuellen Maschinen beruhen. Das kommende Jahr bedeutet also für die Windows-Zukunft ein Jahr der Weichenstellungen. Konkret heißt das: Die erste Longhorn-Beta soll bis spätestens Mitte 2005 fertig sein. Optimisten erwarten diese Version sogar schon im Frühjahr. Bis Anfang 2006 soll Longhorn das Stadium eines Release Candidate erreichen. Mitte 2006 soll dann das neue Betriebssystem endgültig fertig sein.


Kein neues Windows XP

Special, Teil III

Der steinige und vor allem lange Weg zu Longhorn gibt immer wieder Anlass zu Spekulationen rund um eine neue Version von Windows XP. Nach Angaben von Microsoft wird es aber definitiv keine Second Edition von XP geben. Der Marketing-Slogan »Windows XP Reloaded« bezieht sich auf das runderneuerte XP nach dem Erscheinen von Service-Pack 2. Unter Reloaded fallen also etwa die Media Center Edition 2005 und die Tablet PC Edition 2005. Zumindest eine neue XP-Version wird aber 2005 trotzdem erscheinen: die 64-Bit-Ausgabe speziell für Athlon 64 und Intel EM64T (Pentium 4 und Xeon mit 64-Bit-Erweiterung). Windows XP Professional x64 Edition lautet der offizielle Name, Release-Termin: erstes Halbjahr 2005.

2005 das Jahr der Server

Mehr Bewegung gibt es bei Microsofts Server-Angebot: Windows Server 2003 bekommt Anfang nächsten Jahres das erste Service-Pack verpasst, zusätzlich wird es eine x64-Variante geben und ein neu aufgelegtes Release 2 Mitte des Jahres. Außerdem bringt Microsoft eine HPC-Edition (High Performance Computing) des Windows Server 2003 heraus. Weitere wichtige Neuheiten: Die Entwicklungsumgebung Visual Studio 2005 (Codename Whidbey) und der Datenbank-Server SQL Server 2005 (Codename Yukon) werden ebenfalls aktualisiert.

Neues Office-Paket verschoben

Microsoft steckt den Großteil seiner Ressourcen in die Betriebssystem-Entwicklung. In den Hintergrund tritt dabei die Zukunft des Office-Pakets: Die neue Büro-Software, Office 12, sollte es nach den ursprünglichen Plänen bis Mitte nächsten Jahres zum Final-Release schaffen. Jedoch ist dieses Ziel nicht zu halten. Bisher gibt es weder eine Beta- noch eine Preview-Version.


Roadmap 2010: Zukunftstechnologien

Special, Teil III

Mehr Technik auf immer kleinerem Raum, in allen Lebenslagen, mit schnellerer Geschwindigkeit und zu geringeren Kosten das sind weiterhin die wichtigsten Paradigmen im Bereich IT-Forschung und -Entwicklung. Doch die IT-Grundlagenforschung ist noch einfallsreicher und entwickelt neben Nanotechnologien auch bereits Biocomputer, die auf DNS basieren.


Nanotechnologie

Ganz gleich ob lokale Festplatte oder mobile Speicher, dank Nanotechnologie und hochempfindlicher Sensoren für Leseköpfe soll die 1-Petabyte-Grenze (1 Million Gigabyte) für Datenspeicher bereits vor dem Jahr 2010 durchbrochen werden. Ultradünne Schutzschichten sollen zudem verhindern, dass Schreib-/Leseköpfe die Oberfläche des Datenträgers berühren und zu Datenverlust führen (Head-Crash). Damit lassen sich die Schreib-/Leseköpfe näher und schneller an der Oberfläche führen, was höhere Auslesegeschwindigkeiten bei größeren Datenmengen gestattet.


Biocomputer und Gedankencontrolle

Special, Teil III

Doch es geht noch kleiner: Bei so genannten Neurocomputern handelt es sich um Rechner auf Grundlage von Zellen, die lebendige Schaltkreise auf DNS- statt auf Silizium-Basis bilden. Damit sind deutlich mehr Operationen parallel möglich bei äußerst geringem Energieverbrauch. Rund eine Billion Rechner lassen sich im Volumen eines Wassertropfens unterbringen. Solche biologischen Computer werden schließlich auch zur Überwindung des Mensch-Maschine-Interfaces dienen und sind relativ leicht in den menschlichen Körper integrierbar, sei es als Schaltsysteme, die Gehirnschäden reparieren, als Bioroboter, die Arterien reinigen und vor Herzinfarkten schützen, oder als Chips für die Steuerung von Protesen.

Ziel von Forschungsansätzen wie zum Beispiel dem
Brain-Computer-Interface-Projekt
ist, Computer zukünftig nur noch mit Gedanken zu steuern und den Umweg über Maus und Tastatur einzusparen. Einfache Steuerkommandos wie rechts, links, hoch und runter gelingen bereits mit einer Treffsicherheit von 97 Prozent bei 50 Kommandos pro Sekunde, die in elektronische Steuersignale übersetzt werden. Je besser die eingesetzten Sensoren zur Messung der Gehirnströme und die daraus folgende Interpretation der E-Muster von Gedanken werden, desto mehr Anwendungsgebiete erschließen sich. Im Connected Home ließen sich neben dem PC dann alle technischen Geräte steuern und konfigurieren. Ein Gedanke würde genügen. Das ist allerdings vorerst noch Sciencefiction.

Grids: Supercomputer für alle

Es ist eine Binsenweisheit: Man kann nie genug Rechenpower und Speicher besitzen. Um als einfacher PC-Besitzer bei entsprechendem Bedarf einen Supercomputer in Betrieb zu nehmen, eignet sich Grid-Computing. Dabei meldet der PC-Besitzer einen Job an, etwa das Rendern eines 3D-Films, und loggt sich in das Netzwerk ein. Eine intelligente Software verteilt anstehende Jobs auf verfügbare Ressourcen (wenn sich etwa ein oder mehrere Supercomputer zeitweise im Leerlauf befinden). So partizipiert der Anwender an einem weltweiten Rechner-Netz mit Hochleistungscomputern. Derzeit befindet sich Grid-Computing bereits in Forschungsnetzen im Einsatz. Bis diese Technologie auch in Privathaushalten Einzug hält, dürfte es aber noch einige Jahre dauern.


Ultraspeed-Netzwerke

Special, Teil III

Um zukünftige Petaspeicher und Supercomputer im Internet nicht durch eingeschränkte Internet-Bandbreiten lahm zu legen, sind ultraschnelle Datenübertragungen per Glasfaserkabel notwendig. In naher Zukunft sollen bereits 40-Gigabit-Netze eingerichtet werden. Mit Indiumphosphid-basierten Pulslaserchips in der Größe von 0,35 Quadratmillimetern lassen sich pro Sekunde etwa 40 Millionen kurze Infrarot-Blitze durch das Glasfaserkabel senden. Das entspricht fast dem Datenvolumen einer DVD-5.
Momentan wird das deutsche Glasfasernetz immerhin bereits auf 10-Gigabit-Leitungen aufgerüstet.