Fedora und das Packagekit Offline Update

Vor einigen Releases hat Fedora ein neues Updateverhalten via Packagekit eingeführt, das verdächtig nach „Windows macht das auch so“ stank. Wie grottig das wirklich laufen kann, kommt unten in Bild & Schrift.

Fedora und das Packagekit Offline Update

Um es gleich mal vorweg zu schicken: Ich bin pro Fedora und achte das, was die da auf die Beine stellen.

Aber nur weil man es mag, muß man nicht mit allem einverstanden sein und die Änderung des Updateverhaltens durch Packagekit’s „Offline Update“ ist eine der Sachen die ich nicht unterstützen kann. Damit Ihr Euch ein Bild von der Sache machen könnt, habe ich da mal was abgelichtet.

Ich bitte die schlechte Bildqualität zu entschuldigen, aber Screenshots sind an der Stelle im Bootvorgang nicht vorgesehen 😉

Gestern

Gestern war ich mit meinem Surface bei einem Kunden. Während ich da gearbeitet habe, hat sich Packagekit mit Updates versorgt, diese aber nicht eingespielt. ich hab es nur gemerkt, weil ich das Bandbreitenwidget im Gnome habe, das plötzlich hektisch aktiv wurde.

Heute morgen

schalte ich mein Tablet ein, weil ich für den nächsten Artikel was testen wollte. Es kommt die Kernel Auswahl, es kommt die Passwortabfrage für LUKS und dann passiert es:

Bitte fahren Sie den Computer nicht runter!

Größtenteils weiß man nicht mal, was da aktualisiert wird.

Es lief ein Offline-Update von Packagekit 🙁 Nicht 10 Sekunden, nicht 30 Sekunden, nicht eine Minute, nicht fünf Minuten, nein, für knappe acht Minuten war das Geräte vollständig blockiert. Weil ein neuer Kernel installiert worden war, mußten auch alle AKMOD Module für alle Kernels neu gebaut werden. Und dann … gingen die Lichter aus und blieben aus.

Achtet mal auf die Zeiten vom packagekit-offline-update.service

Anstatt das Update einzuspielen und durchzubooten, wurde das Tablet danach einfach abgeschaltet. Kommentarlos übrigens 🙁

Wie Ihr oben in den Bildern und hier sehen könnt:

wird einem nicht mal erzählt, was da aktualisiert wurde. Ab und zu blitzt mal ein Name durchs Display, aber das wars dann auch schon.

Per DNF aktualisiert, gibt es ein Logfile, in dem ganz genau drin steht, wann was von welcher Version auf welche neue Version aktualisiert wurde. Da DNF das Update nicht gemacht hat, ratet mal …

Natürlich gibt es von PackageKit auch einen Logeintrag. Den kann man sich aber so nicht ansehen, weil man dazu den GPK Logger aufrufen muß: gpk-log

Das ist ultimativ toll, wenn man von dem Tool noch nie etwas gehört hat, oder? Ein grep über /var/log bringt einem nämlich nur die Einträge von DNF, die zum Packagekit Paket gehören, wenn DNF das updated 😀

Die Krönung des Ganzen

war dann der Umstand, daß ich sowieso noch ein Update vorhatte, um den neuen Surfacekernel einzuspielen. Dazu mußten einige alte LUA Paket entfernt werden, damit das Update überhaupt stattfinden konnte. Als dann das Update endlich ging, war schon wieder ein neuer normaler Kernel verfügbar, der dann natürlich auch alle Kernel-Module neu bauen mußte.

Fazit

Das offline-update ist in diesem Fall lästig und überflüssig gewesen, weil beim nächsten Start schon neue Pakete zur Verfügung standen. Der Sinn und Zweck davon, es beim BOOTEN durchzuziehen, erschließt sich ohnehin nicht, weil für ein Kernelupdate die Kernelmods neugebaut werden müssen und damit die dann auch benutzt werden, muß man ohnehin rebooten, was „Packagekit Offline-Update“ dann ja auch, mit wenig Erfolg, gemacht hat.

Da kann man es doch auch gleich beim Runterfahren installieren, oder??? Dann kann man am nächsten Tag wenigstens sofort arbeiten.

Lösung

Wie bekommen wir das weg?

systemctl disable packagekit packagekit-offline-update
systemctl mask packagekit

„Wir sehen uns wieder, wenn Du wieder vernünftiger geworden bist.“ Denn natürlich gibt es einen Grund, wieso man nicht einfach so GB!weise Daten zieht, nur weil man eine Internetanbindung hat.

 

Linux am Dienstag – Programm für den 13.12.2022

Kurz vor der Weihnachtspause geht es bei Linux am Dienstag um OpenSSL und eine alte Sicherheitslücke von 2009. Wie versprochen schauen wir auch ins ATS Cache rein, wie man da an die Statistiken kommt.

Linux am Dienstag – Programm für den 13.12.2022

Dienstag Abend ab 19 Uhr geht es u.a. um:

  • Vortrag – OpenSSL 3 dichtet endlich 2009er Sicherheitslücke ab (Marius)
  • Sicherheit – Gematik verlängert jetzt doch die Software der Konnektoren
  • Sicherheit – Lücke im Diskettentreiber von Linux
  • Sicherheit – Cacti mit Remote Execution Schwachstelle
  • Vortrag – ATS Cache – wie kommt man an die Stats (Marius)

und andere IT-Newsbeiträge aus aller Welt. Wie jede Woche per Videokonferenz auf https://meet.cloud-foo.de/Linux .

Hinweis: Die bisherigen Vorträge findet man unter https://linux-am-dienstag.de/archiv/ .

Upscayl bestes Beispiel wieso man keine Container usw. nutzen sollte

Die Container Fans in der Linuxgemeinde wollen es ja nicht wahrhaben, aber heute kann ich Euch am Beispiel Upscayl genau den Grund zeigen, wieso ich keine containerisierten Anwendung haben möchte.

Upscayl bestes Beispiel wieso man keine Container usw. nutzen sollte

Einem „Das scheint interessant zu sein, probiers mal aus“ Gedanken und dem Beitrag auf den GNULinux.ch News zu Upscayl (An der Stelle schöne Grüße Leute) folgend, mußte ich gleich erleben, was die Nachteile von Containeranwendungen sein können, wenn es um die Sicherheit des PCs geht.

Schaut mal hier rein, was passierte, als ich die Anwendung Upscayl installiert habe:

$ flatpak install ./Upscayl-1.5.5-x86_64.flatpak
Required runtime for org.upscayl.app/x86_64/master (runtime/org.freedesktop.Platform/x86_64/20.08) found in remote flathub
Do you want to install it? [Y/n]: y
Info: org.freedesktop.Platform//20.08 is end-of-life, with reason:
org.freedesktop.Platform 20.08 is no longer receiving fixes and security updates. Please update to a supported runtime version.
Info: org.freedesktop.Platform.GL.default//20.08 is end-of-life, with reason:
org.freedesktop.Platform 20.08 is no longer receiving fixes and security updates. Please update to a supported runtime version.

org.upscayl.app permissions:
ipc network pulseaudio wayland x11 dri file access [1] dbus access [2]

[1] home
[2] org.freedesktop.Notifications

KENNUNG Zweig Op Remote Download
1. [✓] org.freedesktop.Platform.GL.default 20.08 i flathub 105,8 MB / 106,4 MB
2. [✓] org.freedesktop.Platform.Locale 20.08 i flathub 1,4 MB / 322,5 MB
3. [✓] org.freedesktop.Platform 20.08 i flathub 243,3 MB / 270,4 MB
4. [✓] org.upscayl.app master i app-origin 0 Bytes

Installation complete.

Dabei hatte ich erst vor wenigen Wochen die alte Version der Freedesktopumgebung entfernt 🙁

Natürlich wird diese Software in dem Stand auch als Flatpak mit Zugriff auf mein $HOME nicht länger als der nötige Testfall existieren 🙂

Der Test

Die Upscayl Anwendung arbeitet lokal, das ist ein sehr großer Vorteil. Leider arbeitet sie ohne meine schnellen 12 Kerne, denn alles was hier passiert, findet auf der GPU statt und das ist bei einer GT1050 nicht wirklich schnell.

Das Ergebnis des Tests war dann auch eher überschaubar, wobei ich fies war und ein verwackeltes Bild genommen habe, schliesslich wollte wir es ja „verbessern“ 😉

Ein 2 MPixel Bild braucht dann unter Upscayl fürs Schärfen auch locker mal 3 Minuten. Der Kommentar einer Photoshopsüchtigen war dann… „auch nicht besser als Photoshop“ 🙂 Jetzt stellt Euch vor, daß ich nicht weiß, wie lange ein normales Smartphonephoto mit Upscayl auf der GT1050 gebraucht hätte, weil das so langsam ablief, daß ich die Prozesse wegen vermeintlicher Inaktivität abgeschossen habe 😀 Ist halt nicht die schnellste GPU am Markt.

Damit Ihr einen zeitlichen Eindruck bekommen, der Scaleprozess ist bei 50% und hat angefangen als ich „Der Test“ schrieb. Das ihr das schneller lest, als es sich tippen lässt, solltet Ihr dabei Bedenken.

Hier das Ausgangsbild:

eine unscharfe Gans im Wasser 2 MP.

Wieso seht Ihr jetzt nur ein Bild der Gans?

Weil das „verbesserte“ Bild genauso aussah wie das Original.. aka. Fail auf ganzer Linie.

Das das Upscayl Programm dies um einiges besser kann, wenn es um kleine Bilder geht, zeigt dieser Vergleich:

Zwar wurden die Wälder „zermatscht“ aber z.B. die FrontFigur mit den Hörnern ist um ein vielfaches detailreicher als vergleichbare Sharpen Tools von GMIC, Krita und Photoshop das zeigen können. Sehen kann man das sehr viel besser, wenn das Bild vergrößert verglichen wird:

Vergleich bei Vergrößerung

„Auch heute ist CSI noch immer UNREALISTISCH!“ 😀

Was jetzt kommt, ist nicht ganz ernst gemeint, aber versuchen wir doch mal, ein Videobild von 2004 zu verbessern, mal sehen was wir an Details geboten bekommen.

WARNUNG: Sollten Sie den dargestellten Personen in der Realität begegnen, sind Alpträume möglich 😉

Ausgangsbild

Da sieht man schon, viel ist da nicht zu an Inhalt drin.

keine Sorge, niemand ist darauf zu erkennen 🙂

Der kleine blonde Kämpfer für die Unterdrückung, ja Junge, falsche Seite ausgesucht, weil Zorro ist der Gute ;), ähnelt jetzt einem Tiger- oder einer Katzenfratze. Insgesamt sieht das Bild ansprechender aus, aber in Wirklichkeit sind von Upscayl Details weggeglättet worden. Auch der Mann im Weißen Hemd im Bildhintergrund, sieht merkwürdig aus, weil seine Arme zu seinem Rücken wurden.

Also bis das CSI aus grottenschlechten Bildern einer Reflektion im Auge in einem 640×480 Pixel Kamerabild eine identifizierbare Aufnahme machen kann, vergehen noch ein paar Jahrzehnte 🙂

Fazit

Ich denke, daß Upscayl Tool an sich wäre eine Bereicherung, aber zumindest die per Flatpak unnötigerweise hinzugewonnenen Sicherheitslücken ( wenn überhaupt welche da sind ) wiegen es für mich nicht auf.

Ein paar Tests später

Tests, die ich mit Material gemacht habe, wo ich Vergleiche von anderen AI Systemen zur Verbesserung hatte, zeigen deutlich, daß die von Upscayl genutzte AI Engine nicht wirklich mithalten kann. Viele Details gehen einfach verloren, weil sie weggeglättet werden, statt detailiert analysiert und verbessert zu werden. Andere, bereits gute Ausgangbilder werden einfach nur vergrößert ohne Inhalte dazu zugewinnen, meint Zooming zeigt kaum Unterschiede, auch wenn das Skalierte Bild 4x so groß ist.

Auf der einen Seite ist das gut, aber keine Kunst, denn das konnte ImageStudio vom Amiga in den Neunzigern mit sehr viel weniger Rechenleistung in deutlich kürzerer Zeit auch. Vervierfachung bedeutet, daß aus jedem Pixel 4 Pixel werden. Die drei neuen Pixel können dabei den gleichen Farbwert haben, was keine Änderung am Bildinhalt bedeutet. Normalerweise folgt auf das Skalieren dann die Anpassung an die umliegenden Pixel, so daß ein sanfterer Übergang zwischen den ehemaligen Pixeln entsteht.

Dieser Renderingprozess wird von einigen Grafikprogrammen mit Faktor 10 als Subpixelrendering betrieben und gibt sehr gute Ergebnisse. Spannender wird es wenn man bei nicht im Faktor 4 sondern, sagen wir mal 1.3 vergrößert. Da zeigt sich dann, was der Algorithmus drauf hat. Denn „Bruchpixel“ sind extrem schwierig perfekt herzustellen. Die meisten Programme die ich kenne versagen da mehr oder weniger ganz.

Wem das zu hoch war, merkt Euch einfach: 4x ist pillepalle, Bruchfaktoren die Königsdisziplin 😉