Kein I in KI

LLM ( Large Language Model ) werden ja gerne mit „KI“ (Künstlicher Intelligenz) verwechselt.. kleine Entlarvung im Beitrag 😉

Kein I in KI

Wie Ihr ja sicher wisst, wenn Ihr dies Blog öfter besucht, hat mein Sprachassistent ein (oder auch drei) LLM eingebunden und um diese zu erreichen, braucht man nur mit dem Programm reden. Also redeten wir mal folgendes:

„Carola Oliver pflückt am Freitag 44 Kiwis und 58 Kiwis am Samstag. Am Sonntag pflückt er doppelt so viele Kiwis wie am Freitag, aber fünf von ihnen waren etwas kleiner als der Durchschnitt. Wie viele Kiwis hat Oliver?“

Der Vollständigkeitshalber: ich habe den Text nicht gesprochen, sondern per NetCat geschickt, war einfacher und dann auch gleich mit Satzzeichen 😉

Antwort von Carolas LLM:

„Am Sonntag pflückt Oliver doppelt so viele Kiwis wie am Freitag. Also pflückt er 2 * 44 = 88 Kiwis am Sonntag.Da fünf Kiwis am Sonntag etwas kleiner waren als der Durchschnitt, müssen wir diese von der Gesamtzahl der am Sonntag gepflückten Kiwis abziehen. Also haben Oliver insgesamt 88 – 5 = 83 Kiwis am Sonntag gepflückt.Um die Gesamtzahl der gepflückten Kiwis zu berechnen, addieren wir die Anzahl der Kiwis, die Oliver an den drei Tagen gepflückt hat:Freitag: 44 KiwisSamstag: „58 KiwisSonntag: 83 KiwisInsgesamt hat Oliver also 44 + 58 + 83 = 185 Kiwis gepflückt“
(nicht über Notation wundern, das Model hackt sich Antwortfetzen zusammen.)

Jetzt die Frage an Euch: Stimmt das?

Eine Userin beim Linux am Dienstag Matrixraum fand dann ganz schnell den Fehler:

„Warum sollte man die 5 kleinen Kiwis abziehen müssen? Das kam nicht in der Fragestellung vor.“

Es kommen also 190 Kiwis dabei raus. „Kiwi“ und „kleine Kiwi“ sind halt für einen Computer zwei verschiedene Objektklassen, nicht eine Objektklasse mit zwei verschiedenen, zudem irrelevant, Attributen.

Das verwendete LLM Model war „mistral-nemo:latest“, das in den Tests bei Logik und Mathe am besten abgeschnitten hatte. Das das solche Schnitzer drin hat, war ja schon einmal beim „Wie oft paßt der Mond in die Erde?“ Thema 🙁

Trotz dessen ist es cool, daß das Model 99% des Satzinhalts richtig erkannt und auch richtig angewendet hat.

Solange die Modelle aber so unzuverlässig sind, brauchen wir uns über die Weltherrschaftspläne einzelner böser Pcs keine Sorgen zu machen 😉

Noch ein Beispiel:

Frage: „carola Wenn zehn musiker für das Musikstück in 3 Minuten 20 Sekunden benötigen, wie lange brauchen dann 8 Musiker und eine Putzfrau dafür?“

Antwort: „Die Dauer, die benötigt wird, um ein Musikstück zu spielen, hängt von der Anzahl der Musiker sowie von der Komplexität des Stücks ab. Wenn zehn Musiker ein Musikstück in 3 Minuten und 20 Sekunden spielen können, bedeutet das nicht automatisch, dass acht Musiker und eine Putzfrau dasselbe Stück in der gleichen Zeit spielen können.Die Putzfrau hat keine Auswirkungen auf die Dauer des Musikstücks, da sie keine Musik spielt. Wenn jedoch zwei Musiker weniger da sind, kann es sein, dass das Musikstück länger dauert, da weniger Instrumente gespielt werden.Daher ist es ohne weitere Informationen nicht möglich zu sagen, wie lange acht Musiker und eine Putzfrau benötigen würden, um dasselbe Musikstück zu spielen. Es wäre hilfreich zu wissen, ob das Musikstück einfach oder kompliziert ist und ob die fehlenden zwei Musiker wichtig für den Klang des Stücks sind“

Da beschleicht einen die Frage, wie weniger Instrumente zu einer längeren Spielzeit führen können… können sie nicht, wenn überhaupt dann zu weniger, weil Passagen von den 2 fehlenden Stimmen fehlen würden.

Die gleiche Logikfrage gibt es auch in „Wenn ein Ei 3 Minuten zum Kochen braucht, wie lange brauchen 5 Eier dafür?“. Die erwartete Antwort ist: 3 Minuten. Leider Fr. Dönitz stimmte Ihre erwartete Antwort nicht, zu Ihrem Glück, die der Schüler aber auch nicht 😉 Keiner hat damals gut dabei ausgesehen 😀 Die KI hats auch falsch gemacht, sehr falsch sogar 🙂

Hinweis: Die obige Frage mit den Kiwis wurde auch in einem Golem Beitrag gestellt und war inspirierend für weitere Tests.

Der Erste der Klimawandel sagt, wird abgewatscht.

Am Brocken ist ein Feuer ausgebrochen, daß man auch von Braunschweig aus sehen kann. In der Erstmeldung an die Medien war von 8-9 Brandherden die Rede, die man beim NDR auch sehen konnte.. So etwas nennt man nicht Klimawandel, sondern Brandstiftung!

Ein Wald brennt nur auf zwei Arten ab:

Ein Tröpfchen wirkt als Linse wenn die Sonne aufgeht oder wenn jemand Brandbeschleuniger wie brennende Zigaretten in den Wald wirft. Für Tau-Tröpfchen war es viel zu trocken und zu spät (Mittag) als der Brand ausbrach.

Update 9.9.2024 11:00 Uhr:

Das Feuer brennt noch, trotz Hilfe durch den Regen mit 20l/m²  .

Alpaca, Ollama und wie man es missbrauchen kann

Seit letztem Dienstag bastel ich mit lokalen LLM rum. Dazu habe ich Alpaca ausprobiert, daß als Flatpak installiert wurde.

Alpaca, Ollama und wie man es missbrauchen kann

Das zuerst wählt man sich eins oder mehrere Sprachmodelle aus, die man benutzen will:UI Oberfläche mit einer Auswahl von Modellen in einer ListeDanach kann man direkt loslegen, weil Alpca als Frontend für Ollama alles nötige macht:

– Ollama als Dienst starten
– die Modelle vorbereiten und pullen
– eine Eingabeoberfläche mit HTML Ausgabe bereitstellen.

Wer jetzt nur mit dem Modell Spielchen treiben will, kann direkt anfangen. Wer aber ohne die Oberfläche jedes mal starten zu müssen, mit den Modellen interagieren möchte, der sollte Ollama selbst installieren.

Dazu einfach root werden und das Install Script starten. Wenn man bereits 3D-vollständige Grafikkarteninstallationen hat, passiert nicht viel, außer:

– Ollama User wird angelegt
– Systemd Service erstellt
– Ollama initialisiert

Mehr braucht es nämlich gar nicht. Das Ganze wird mit einer einzigen Zeile gestartet:

$ curl -fsSL https://ollama.com/install.sh | sh

Nach dem Start sieht das dann so aus:

$ systemctl status ollama
ollama.service – Ollama Service
Loaded: loaded (/etc/systemd/system/ollama.service; enabled; preset: disabled)
Drop-In: /usr/lib/systemd/system/service.d
└─10-timeout-abort.conf
Active: active (running) since Fri 2024-08-09 11:13:18 CEST; 6s ago
Main PID: 82811 (ollama)
Tasks: 18 (limit: 18994)
Memory: 1.7G
CPU: 8.917s
CGroup: /system.slice/ollama.service
└─82811 /usr/local/bin/ollama serve$ netstat -nlap|grep 114

tcp 0 0 127.0.0.1:11434 0.0.0.0:* LISTEN –
tcp 0 0 127.0.0.1:11435 0.0.0.0:* LISTEN 6638/ollama

Hmm, Zwei Ollama’s … ja klar, eins vom Flatpak und eins haben wir je gerade installiert.

Alpaca Daten übertragen

Weil das Vorbereiten der Modelle und das Pullen der Datenblobs nicht jedermans Sache ist, klauen wir uns jetzt die Daten vom Flatpak und schieben es der eigenen Installation unter 😀 Alpaca beendet man jetzt am besten

$ ls -la .var/app/com.jeffser.Alpaca/data/
insgesamt 24
drwxr-xr-x. 5 marius marius 4096 9. Aug 11:07 .
drwxr-xr-x. 7 marius marius 4096 6. Aug 09:34 ..
drwxr-xr-x. 2 marius marius 4096 7. Aug 15:59 chats
drwx——. 3 marius marius 4096 6. Aug 09:34 .nv
drwxr-xr-x. 3 marius marius 4096 8. Aug 13:35 .ollama
-rw-r–r–. 1 marius marius 280 9. Aug 11:07 tmp.log

 

$ su root
$ systemctl stop ollama
$ mv /usr/share/ollama/.ollama /usr/share/ollama/.ollama.old
$ mv /home/$USER/.var/app/com.jeffser.Alpaca/data/.ollama /usr/share/ollama
$ chown ollama: -R /usr/share/ollama/.ollama
$ systemctl enable -now ollama

Fertig. jetzt könnt Ihr direkt mit den installierten Modellen arbeiten und braucht keine GUI mehr. Das erlaubt unserer Freundin Carola jetzt Ollama direkt auf Port 11434  anzusprechen und Ihre Fähigkeiten zu erweitern 😉

WARNUNG:

Diese Sprachmodelle sind riesig und werden komplett in den Speicher geladen. Unter 16 GB Ram geht da gar nichts, weil Carolas STT Dienst ja auch schon 3,2 GB Ram haben will und die Modelle meisten größer als 5 GB sind.

Wie das alles genau geht, gibt es nächstes Linux am Dienstag 😉

Als kleine Vorschau, was Euch qualitativ so erwartet, wenn Ihr den Kram lokal bei Euch laufen lasst, hier ein Bericht von einem „KI“-Assistenten-Gadget, von dem ich genau weiß, was es getan hat :DDD

Wer dagegen lieber live bei der Zerstörung von „KI“ dabei ist, der ist besser nächste Woche Dienstag um 19 Uhr bei Linux am Dienstag dabei :DDD

Wer mal bewusst gekauftes Sponsering für ein Produkt erleben möchte, der schaut sich zum Rabbit R1 das mal an:

„gekauft“, weil das Teil so schlecht ist, daß das unmöglich nicht aufgefallen sein kann 😉