von Kingston DataTraveler 3.0 USB Sticks kann man nur abraten

Sehr geehrte Daten und Datinnen,

Sie möchten schnell von A nach B reisen? Dann bitte meiden Sie die Dienste von „Kingston DataTraveler 3.0“ da Sie zwar schnell vom Reisestick hinaus kolportiert werden, aber leider Ihre Reise Jahre vorher planen müssen.

Ihr Reiseveranstalter
Surface Pro 4

von Kingston DataTraveler 3.0 USB Sticks kann man nur abraten

Gleich mal vorweg: Ich hatte gar nicht erwartet das die schnell sind, bei dem Preis, aber das Ergebnis war dann doch schon überraschend schlecht.

Es handelt sich beim dem Testobjekt um das hier und schaut mal genau auf die Packung:

Da steht 200 MB/s (R) .. wofür das R steht kann man sich nach dem Leistungstest denken:

ein Graf des Testergebnisses mit einigen Liniendiagrammen

5MB/s schreibend … Steinzeitrekord.

In Rot die Schreibgeschwindigkeit für ¹0MB Stücke. Das wird nicht viel besser, wenn man größere Stücke schreibt:

bei 1GB pro Lese- und Schreibzugriff haben wir konstante Lesegeschwindigkeiten(READ) von > 220 MB/s , aber nur 33 MB/s schreibend, was USB 2 Speed ist. Also 100MB/s wären ok gewesen.

Da das ein 32 GB Stick ist, wird es eine ganz, ganz, ganz lange Zeit dauern bis Eure Daten da vollständig drauf sind 😀

Deswegen: Gebt lieber etwas mehr Geld aus.

Ich habe die nur gekauft, weil es auf den Preis ankam, nicht auf Speed oder Speichermenge. Ich hätte auch 1 MB Sticks für 10 ¢ genommen 😉 Hauptsache die Daten halten eine Weile.

Cache Traffic fürs Blog: November 2022

Ich habe da mal was für Euch mitgebracht. Für den einen oder anderen Blogger dürfte das interessant sein.

Cache Traffic fürs Blog: November 2022

Ihr wißt ja, daß ich vor einigen Wochen mein Blog hinter ein ATS Cache gestellt habe, weil der Seitenaufbau schon langsam wurde. „WordPress“ und die Begriffe „Klein. Schnell. Effektiv“ gehen echt schon lange nicht mehr zusammen 🙁

Da das Cache von sich aus keine vernünftigen Statistiken produzieren kann, die länger als 24h Stunden sind, habe ich im Oktober selbst was gebaut, daß uns diese Daten erzeugt hat. Immer gegen 23:59 wird die tägliche Cache Statistik ausgewertet.

DatumDomainCachedUncached
2022-11-01marius.bloggt-in-braunschweig.de6.89111.800
2022-11-02marius.bloggt-in-braunschweig.de6.49712.632
2022-11-03marius.bloggt-in-braunschweig.de6.24320.164
2022-11-04marius.bloggt-in-braunschweig.de5.10121.138
2022-11-05marius.bloggt-in-braunschweig.de4.53021.964
2022-11-06marius.bloggt-in-braunschweig.de6.2293.870
2022-11-07marius.bloggt-in-braunschweig.de6.0067.245
2022-11-08marius.bloggt-in-braunschweig.de6.78315.956
2022-11-09marius.bloggt-in-braunschweig.de7.07217.213
2022-11-10marius.bloggt-in-braunschweig.de8.55518.834
2022-11-11marius.bloggt-in-braunschweig.de8.8569.707
2022-11-12marius.bloggt-in-braunschweig.de6.72212.182
2022-11-13marius.bloggt-in-braunschweig.de6.3075.880
2022-11-14marius.bloggt-in-braunschweig.de6.2139.338
2022-11-15marius.bloggt-in-braunschweig.de1.9881.233
2022-11-16marius.bloggt-in-braunschweig.de3.8144.008
2022-11-17marius.bloggt-in-braunschweig.de5.1633.015
2022-11-18marius.bloggt-in-braunschweig.de5.6136.415
2022-11-19marius.bloggt-in-braunschweig.de4.9324.733
2022-11-20marius.bloggt-in-braunschweig.de5.0375.112
2022-11-21marius.bloggt-in-braunschweig.de5.1949.478
2022-11-22marius.bloggt-in-braunschweig.de5.9418.449
2022-11-23marius.bloggt-in-braunschweig.de5.4864.567
2022-11-24marius.bloggt-in-braunschweig.de5.1548.515
2022-11-25marius.bloggt-in-braunschweig.de4.9974.073
2022-11-26marius.bloggt-in-braunschweig.de4.6604.586
2022-11-27marius.bloggt-in-braunschweig.de4.6737.226
2022-11-28marius.bloggt-in-braunschweig.de5.0616.082
2022-11-29marius.bloggt-in-braunschweig.de5.2858.368
2022-11-30marius.bloggt-in-braunschweig.de5.7578.426
Summe November452.969170.760282.209

Jetzt cached so ein Cache natürlich nicht nur PHP Seiten, sondern alles von CSS, JS über GIF bis TXT und HTML.

d.b. ich hatte keine 452.969 Seitenaufrüfe 🙂 Die genaue Zahl läßt sich nur Ahnen, bzw. dafür müßte man die Webserverlogs vom Blog analysieren.

Hauptproblem

es gibt über 1200 Seiten im Blog, die alle die gleichen CSS Dateien haben, und sich ggf. auch JS, PNGs etc. teilen. Diese 1200 Seiten werden auch regelmäßig aufgerufen, sei es durch Google oder weil Menschen da auf interessante Links geklickt haben, auf der Suche nach Lösungen.

Das liegt daran, daß statische Elemente für alle Seiten gleich sind und gecacht werden, was ja der Sinn der Übung war. Da die in allen Seiten drin sind, tauchen die natürlich auch bei ungecachten Webseitenaufrüfen als „gecacht“ auf. d.b. der Anteil der statischen Randelemente wie Css,JS,Png sind in der gecachten Zahl stark überrepräsentiert, in der Zahl der ungecachten aber praktisch nicht vorhanden.

Da nur stark frequentierte Seiten, wie z.B. die Startseite im Blog oder echt gut laufende Artikel, überhaupt gecacht werden, weil die Cachezeit z.Z. bei 30 Minuten liegt, tauchen die übermäßig in der gecachten Zahl auf und sind in der ungecachten Zahl und mit wenigen Aufrüfen enthalten. (Hinweis: die müssen da auftauchen, weil wenn es nicht im Cache ist, muß es ja einmal min. nachgeladen werden, was ein ungecachter Aufruf ist).

Das führt uns dazu, daß die ungecachte Zahl (in der Liste oben: rechts) hauptsächlich die alten Beiträge beinhaltet und die gecachte Zahl alle statischen Inhalte und hauptsächlich die Startseitenaufrufe beinhaltet.

Jetzt könnte man eine statistische Untersuchen machen und feststellen, daß 9/10 gecachten Aufrüfen auf Grafiken etc. gingen. Meint, ~ 17.000 Aufrufe auf die Startseite bleiben da übrig, der Rest steckt in der ungecachten Zahl.

Die setzt sich so zusammen

Für Euch stürze ich mich natürlich in alle Mühen und hab mal die Serverstatistiken bearbeitet. Da das Cache eine eindeutige IP benutzt um auf den Backendserver zuzugreifen, konnte ich alle Zugriffe für November ausfiltern.

Das waren OHNE CSS,javascript,Jpg,Gif,Png : 234.469

Wenn man sich das genauer ansieht, findet man da drin RSS Zugriffe, Suchen nach Tags und Kategorien. Filtern wir die mit aus, bleiben 114.919 reine Seitenaufrufe übrig OHNE die gecachten Startseitenaufrüfe, also fast alles außer „/“ . Wir dürfen annehmen, daß es ein insgesamt mauer November für das Blog war mit ca. 131.000 Abrufen. Da hat das Blog mit knapp 250.000 schon bessere Monate gesehen. Aber, Transparenz bedeutet ja, nicht nur die guten Monate zu zeigen, sondern auch mal weniger gute 😉

Ganz genau bekommt man die Zahlen wegen des Caches nicht mehr zusammen, außer man wertet dauerhaft die Zugrifflogs vom Cache aus, was für eine Statistik Anwendung recht anspruchsvoll sein wird. Vielleicht baue ich da mal was 😉 Ich gehe davon aus, daß der statische Anteil weniger als 9/10 ist, was mehr Seitenzugriffe auf „/“ zur Folge hätte.