Ihr wollt nicht mit ChatGPT reden, sondern nur einer lokalen „Intelligenz“ ?
Ihr wollt von Eurem PC wissen, ob er Eure Klamottenwahl gut findt?
Ihr wißt nicht, was das Ding ist, daß Euch Euer Kumpel im Suff geschenkt hat?
Nun.. alle diese Fragen und noch viel mehr kann Eure Carola jetzt für Euch beantworten 😀
PVA – Die volle KI Dröhnung!
Alpaca hat mir ein neues Spielzeug installiert: LLAVA 😀
Das ist eine Large Language Modell das auch Bilder erkennen kann. „Bilder erkennen?“ das schreit geradezu nach einem Assistenten dem man einen Gegenstand in die Kamera hält und der den Gegenstand dann identifiziert, ergo geht das jetzt 😀
Sinnvoll kann das für Menschen mit Sehbehinderung sein, auch wenn das schwierig ist, den Fokus der Kamera so zu treffen, daß das Bild scharf genug ist. Da gehört etwas Übung dazu und massenhaft Geduld, weil so eine „KI“ hat viel Fantasie!
Natürlich kann man auch nach Bildern suchen und das Suchergebnis an das LLM zur Analyse senden, genau wie man das Suchergebnis vorher schon mit GIMP oder Krita öffnen konnte. Ihr sagt nach der Suche einfach : „was ist auf den Bildern zu sehen?“ und sie werden Euch erklärt. Das eigentliche Problem dürfte die Suche sein, weil wer nur durchnummerierte Smartphonebilder hat… viel Spaß 😀
KI-Tagging?
Vielleicht raffe ich mich ja auf und baue eine neue Suche, bei der das LLM das Bild analysiert und eine Beschreibung abspeichert, die man dann später durchsuchen kann. Quasi ein automatisches Bilder-Tagging.
Ihr könnte natürlich jedes LLM nutzen, daß Alpaca euch installiert. Das Programm muß zur Zeit noch laufen, oder Ihr installiert OLLama selbst, dann gehts auch so. Das Model Eurer Wahl muß dann nur in der Konfig von Carola stehen.
Lest Euch einfach mal die LLM Sektion in den Docs von Carola durch:
https://github.com/Cyborgscode/Personal-Voice-Assistent/blob/main/README.md