Seite ausliefern in 11ms

Eine Webpage, die von einem WordPress-Monster generiert wird, hat in der Regel eine Auslieferungszeit, die sich in Sekunden messen lassen darf – zumindest, wenn die Komplexität der Webseite einen gewissen Schwellenwert überschritten hat.

Unser Webserver liefert die Rohdaten der Seiten (= HTML-Seite) inklusive Echtzeitüberarbeitung innerhalb von 11ms aus.

redis 11ms cache
redis 11ms cache

Redis – ich würde ja alles in dir speichern

Möglich macht das ein Cache, der als Datenbasis einen Redis-Server nutzt.

Daten, die in diesem Key-Value-Store abgelegt werden, verbleiben im Arbeitsspeicher. Das klingt jetzt für die Generation, die mit 640KB-Speichergrenzen aufgewachsen ist, gruselig.

Alles in den Arbeitsspeicher??? Sind wir hier bei den Flodders?

Ruhig Blut. Heute haben selbst Taschenuhren mehr Speicher und halbwegs vernünftige Betriebssysteme kennen weder eine 640KB-Barriere noch haben die das Bedürfnis den Speicher einfach ungenutzt in der Maschine versauern zu lassen.

Da fällt mir ein… mein erster Rechner war ein Apple ][. Der hatte 64KB Arbeitsspeicher und musste mit einer Integer- oder Real-Basic-Bootdiskette gestartet werden, je nachdem, was man so vorhatte. Zeigte 280×192 Pixel an (grün/schwarz) oder 40×48 bei 15(!!) Farben. Da hat man nix in den Speicher getan, was nicht von links und rechts und oben und unten genauestens geprüft und bewertet wurde.

Heute simma da nimma so. Wo ein ömmeliges Tetris sich 2000KB reinpfeifen darf, da können wir doch bitte ein paar Dutzend Megabyte für etwas sinnvolles investieren.

Beispielsweise Seitencache

Bei uns lungern im Redis aktuell so 1.400 generierte Endergebnisse der WordPress-PHP-Orgie herum, die nur darauf warten, dass ein Benutzer oder ein Bot die Infos abrufen möchte.

redis 1400
redis 1400

Das sind natürlich nicht einfache HTML-Ergebnisse ohne jede Optimierung.

Beim Erstellen unseres Caches, der üblicherweise Nachts „vorgewärmt“ wird, laufen durchaus ein paar Prozesse, um möglichst viel einzusparen, was sich auf Speicherverbrauch aber auch auf Performanceverhalten auf Benutzerseite auswirkt:

  • minifizieren und zusammenfassen sämtlicher JS und CSS Dateien, so weit das möglich ist
  • minifizieren des reinen HTML-Codes
  • Austausch der Medienlinks gegen CDN-Links
  • Vorwärmen des CDNs mit minifizierten JS/CSS-Dateien
  • weiteres…

Falls sich mal während der Wartung jemand auf unsere Seite verirrt (vor allem Bots, menschliche Nutzer schlafen Nachts üblicherweise), wird während der Wartung der Cache gedoppelt – und dann die Seite von dort aus ausgeliefert.

Wartung und Auslieferung gleichzeitig = Performanceinbruch?

Die Wartung ist im Prinzip ein sehr aufwändiges Ablaufen der gesamten Webseite. Also entsteht eine entsprechend hohe Last auf dem Server, da hier PHP und MySQL (und Redis und diverse andere Dinge) um die Wette rocken.

Aber das Abrufen der Webseiten durch einen Frontendbenutzer läuft in derselben Geschwindigkeit wie außerhalb der Wartung, da das Ausliefern einer vorgefertigten Redis-Seite nur minimalen PHP-Resourcenbedarf hat und minimale Serverlast erzeugt.

Wo gibt es das?

Nirgendwo. Selbst gebaut. In wochenlanger Arbeit. Ich berichte hier ab und zu von diesem Projekt, mir hat es viel Spaß gemacht (und tut es immer noch) um die beschränkten Resourcen herum eine Lösung zu bauen, die laut diversen Leistungsmessungen durchaus mit über 85% der sonstigen Webseiten mithalten kann.

Joar. So ein bisschen stolz drauf bin ich schon. Aber hei, bevor es anfängt zu stinken hör‘ ich lieber auf.