Alpaca, Ollama und wie man es missbrauchen kann

Seit letztem Dienstag bastel ich mit lokalen LLM rum. Dazu habe ich Alpaca ausprobiert, daß als Flatpak installiert wurde.

Alpaca, Ollama und wie man es missbrauchen kann

Das zuerst wählt man sich eins oder mehrere Sprachmodelle aus, die man benutzen will:UI Oberfläche mit einer Auswahl von Modellen in einer ListeDanach kann man direkt loslegen, weil Alpca als Frontend für Ollama alles nötige macht:

– Ollama als Dienst starten
– die Modelle vorbereiten und pullen
– eine Eingabeoberfläche mit HTML Ausgabe bereitstellen.

Wer jetzt nur mit dem Modell Spielchen treiben will, kann direkt anfangen. Wer aber ohne die Oberfläche jedes mal starten zu müssen, mit den Modellen interagieren möchte, der sollte Ollama selbst installieren.

Dazu einfach root werden und das Install Script starten. Wenn man bereits 3D-vollständige Grafikkarteninstallationen hat, passiert nicht viel, außer:

– Ollama User wird angelegt
– Systemd Service erstellt
– Ollama initialisiert

Mehr braucht es nämlich gar nicht. Das Ganze wird mit einer einzigen Zeile gestartet:

$ curl -fsSL https://ollama.com/install.sh | sh

Nach dem Start sieht das dann so aus:

$ systemctl status ollama
ollama.service – Ollama Service
Loaded: loaded (/etc/systemd/system/ollama.service; enabled; preset: disabled)
Drop-In: /usr/lib/systemd/system/service.d
└─10-timeout-abort.conf
Active: active (running) since Fri 2024-08-09 11:13:18 CEST; 6s ago
Main PID: 82811 (ollama)
Tasks: 18 (limit: 18994)
Memory: 1.7G
CPU: 8.917s
CGroup: /system.slice/ollama.service
└─82811 /usr/local/bin/ollama serve$ netstat -nlap|grep 114

tcp 0 0 127.0.0.1:11434 0.0.0.0:* LISTEN –
tcp 0 0 127.0.0.1:11435 0.0.0.0:* LISTEN 6638/ollama

Hmm, Zwei Ollama’s … ja klar, eins vom Flatpak und eins haben wir je gerade installiert.

Alpaca Daten übertragen

Weil das Vorbereiten der Modelle und das Pullen der Datenblobs nicht jedermans Sache ist, klauen wir uns jetzt die Daten vom Flatpak und schieben es der eigenen Installation unter 😀 Alpaca beendet man jetzt am besten

$ ls -la .var/app/com.jeffser.Alpaca/data/
insgesamt 24
drwxr-xr-x. 5 marius marius 4096 9. Aug 11:07 .
drwxr-xr-x. 7 marius marius 4096 6. Aug 09:34 ..
drwxr-xr-x. 2 marius marius 4096 7. Aug 15:59 chats
drwx——. 3 marius marius 4096 6. Aug 09:34 .nv
drwxr-xr-x. 3 marius marius 4096 8. Aug 13:35 .ollama
-rw-r–r–. 1 marius marius 280 9. Aug 11:07 tmp.log

 

$ su root
$ systemctl stop ollama
$ mv /usr/share/ollama/.ollama /usr/share/ollama/.ollama.old
$ mv /home/$USER/.var/app/com.jeffser.Alpaca/data/.ollama /usr/share/ollama
$ chown ollama: -R /usr/share/ollama/.ollama
$ systemctl enable -now ollama

Fertig. jetzt könnt Ihr direkt mit den installierten Modellen arbeiten und braucht keine GUI mehr. Das erlaubt unserer Freundin Carola jetzt Ollama direkt auf Port 11434  anzusprechen und Ihre Fähigkeiten zu erweitern 😉

WARNUNG:

Diese Sprachmodelle sind riesig und werden komplett in den Speicher geladen. Unter 16 GB Ram geht da gar nichts, weil Carolas STT Dienst ja auch schon 3,2 GB Ram haben will und die Modelle meisten größer als 5 GB sind.

Wie das alles genau geht, gibt es nächstes Linux am Dienstag 😉

Als kleine Vorschau, was Euch qualitativ so erwartet, wenn Ihr den Kram lokal bei Euch laufen lasst, hier ein Bericht von einem „KI“-Assistenten-Gadget, von dem ich genau weiß, was es getan hat :DDD

Wer dagegen lieber live bei der Zerstörung von „KI“ dabei ist, der ist besser nächste Woche Dienstag um 19 Uhr bei Linux am Dienstag dabei :DDD

Wer mal bewusst gekauftes Sponsering für ein Produkt erleben möchte, der schaut sich zum Rabbit R1 das mal an:

„gekauft“, weil das Teil so schlecht ist, daß das unmöglich nicht aufgefallen sein kann 😉

PVA: Ihr wollt „KI“ … Ihr bekommt die volle Dröhnung!

Ihr wollt nicht mit ChatGPT reden, sondern nur einer lokalen „Intelligenz“ ?
Ihr wollt von Eurem PC wissen, ob er Eure Klamottenwahl gut findt?
Ihr wißt nicht, was das Ding ist, daß Euch Euer Kumpel im Suff geschenkt hat?

Nun.. alle diese Fragen und noch viel mehr kann Eure Carola jetzt für Euch beantworten 😀

PVA – Die volle KI Dröhnung!

Alpaca hat mir ein neues Spielzeug installiert: LLAVA  😀

Das ist eine Large Language Modell das auch Bilder erkennen kann. „Bilder erkennen?“ das schreit geradezu nach einem Assistenten dem man einen Gegenstand in die Kamera hält und der den Gegenstand dann identifiziert, ergo geht das jetzt 😀

Sinnvoll kann das für Menschen mit Sehbehinderung sein, auch wenn das schwierig ist, den Fokus der Kamera so zu treffen, daß das Bild scharf genug ist. Da gehört etwas Übung dazu und massenhaft Geduld, weil so eine „KI“ hat viel Fantasie!

Natürlich kann man auch nach Bildern suchen und das Suchergebnis an das LLM zur Analyse senden, genau wie man das Suchergebnis vorher schon mit GIMP oder Krita öffnen konnte. Ihr sagt nach der Suche einfach : „was ist auf den Bildern zu sehen?“  und sie werden Euch erklärt. Das eigentliche Problem dürfte die Suche sein, weil wer nur durchnummerierte Smartphonebilder hat… viel Spaß 😀

KI-Tagging?

Vielleicht raffe ich mich ja auf und baue eine neue Suche, bei der das LLM das Bild analysiert und eine Beschreibung abspeichert, die man dann später durchsuchen kann. Quasi ein automatisches Bilder-Tagging.

Ihr könnte natürlich jedes LLM nutzen, daß Alpaca euch installiert. Das Programm muß zur Zeit noch laufen, oder Ihr installiert OLLama selbst, dann gehts auch so. Das Model Eurer Wahl muß dann nur in der Konfig von Carola stehen.

Lest Euch einfach mal die LLM Sektion in den Docs von Carola durch:

https://github.com/Cyborgscode/Personal-Voice-Assistent/blob/main/README.md

 

Linux am Dienstag – Programm für den 30.7.2024

Diesmal bei Linux am Dienstag: Nachrüsten von Bluetooth

Linux am Dienstag – Programm für den 30.7.2024

u.a. im Programm am 11.6.2024, ab 19 Uhr:

  • Sommerprogramm – IT News
  • Linux – Bluetooth, wo vorher keins war
  • Diskussion – Manjaro wird Immutable!
  • Sicherheit – GitHub „private“ Daten könnten ungelöscht bleiben
  • Sicherheit – Schon wieder unsichere Hoteltüren!

und andere IT-Newsbeiträge aus aller Welt. Wie jede Woche per Videokonferenz auf https://meet.cloud-foo.de/Linux .

Hinweis: Die bisherigen Vorträge findet man unter https://linux-am-dienstag.de/archiv/ .