Google-Ingenieur: JavaScript verringert Web-Traffic um 20 Prozent

CloudDeveloperIT-ManagementIT-ProjekteServerSoftware

Auf der Suche nach Dingen, die Webserver lähmen, fand Googles »Chief perfomance engineer« Steve Souders die meisten Probleme nicht bei den Webservern oder Datenbanken, sondern vor allem auf den Webseiten selbst.

Nicht die Webserver sind lahm, so sehr man es dreht und wendet: Die Web-Entwickler sollten ihren Code massiv um JavaScripts erleichtern, empfahl Souders heute auf der Microsoft-Entwicklerkonferenz TechEd.

Wer die Leistung optimieren will, sollte also nicht gleich den Administrator oder den Datenbankspezialisten zur Verantwortung ziehen. Auf einigen der bekanntesten Websites müsste der Seiten-Code komplett umgestrickt werden, wenn die Betreiber einen Leistungsschub herausholen wollten. Als Beispiele für schlechte Websites in dieser Hinsicht nannte er Apple.com und Wikipedia.

Viele Entwickler würden versuchen, die Leistung zu erhöhen, indem sie die Anzahl der Requests auf den Server minimieren, JPEG-Komprimierung verstärken oder ein Content-Liefernetzwerk wie Akamai beauftragen. Das alles habe nur minimale Effekte.

Souders, ein früherer Yahoo-Mann, hatte dort schon die Apache-Server “auseinandergenommen” um herauszufinden, was im Innern vorgeht. Nach detaillierter Analyse kam heraus: Nur 10 bis 20 Prozent der Zeit zum Laden einer Webseite konnte auf den Webserver zurückgeführt werden. Bei Google führte er seine Experimente fort und wertete die Verzögerungen aus: Ein Delay von 500 Millisekunden ergäbe gleich ganze 20 Prozent Verlust bei der Menge der Zugriffe. Amazon habe einmal eine Verzögerung von nur 100 Millisekunden auf seiner Homepage gehabt und damit ein ganzes Prozent weniger Umsatz – beim Warenumschlag des Online-Warenhauses summiert sich das.

Bisherige Web-Browser luden erst alle JavaScripts, um sie hintereinander auszuführen – der Rest der Seite musste erst einmal warten. So wurden Bilder nicht geladen und nicht angezeigt, auch Befehle an den Server wurden erst ausgeführt, wenn die JavaScripts abgelaufen waren. In modernen Zeiten mit Mehrkern-CPUs macht das keinen Sinn mehr.

Neue und angekündigte Browser seien endlich in der Lage, JavaScript-Dateien schon während des Downloads auszuführen und gleichzeitig andere Dinge zu tun, darunter Internet Explorer 8, Firefox 3.5 und Chrome 2.0, erklärte Souders.

Er entwickelte ein Tool namens Yslow, das Seiten analysiert und benotet. Ursprünglich für den IE entwickelt, gibt es mit Yslow 2.0 auch ein Add-on für Firefox. Nur wenige Seiten bekommen ein A als beste Note, die meisten ein C und einige sogar einE als schlechteste Wertung. (Manfred Kohlen)

Anklicken um die Biografie des Autors zu lesen  Anklicken um die Biografie des Autors zu verbergen