Ollama: Sehr einfach lokal & offline Sprachmodelle nutzen

✅ Lizenz fĂŒr diesen Beitrag erwerben

Ollama ist eine offene Anwendung, mit der sich auf dem eigenen Rechner offene Sprachmodelle wie Gemma, Qwen oder Deepseek nutzen lassen und zwar ohne dass Daten auf Server in die USA oder China gelangen. Alles bleibt lokal auf dem eigenen GerĂ€t. Dies war schon vorher möglich, aber nun hat Ollama seinem Programm ein schickes Chatinterface hinzugefĂŒgt, wodurch die Handhabung fĂŒr Laien weitaus einfacher geworden ist.

Und so kann es gehen:

1) Ollama fĂŒr das geeignete Betriebssystem auf dem eigenem Rechner installieren
2) Ollama öffnen und ein Sprachmodell herunterladen
3) Mit heruntergeladenem Modell direkt einen Chat starten
4) Das war’s! Schwierigkeitsgrad: „low“ 😉

Unten ist die Download-Seite von Ollama dargestellt und dort kann gerne der geeignete Button angeklickt werden, um die Anwendung z. B. fĂŒr Windows zu installieren.

ollama

Ist die Installation nun abgeschlossen, dann öffnet einfach das Programm und schon ist das neue Interface mit Chatfunktion und Promptleiste sichtbar. Klickt Ihr auf das Drop-Down-MenĂŒ, dann lĂ€sst sich eines der Sprachmodelle auswĂ€hlen. Diese lassen sich ĂŒber das Download-Icon auf den eigenen Rechner herunterladen. Wichtig ist hierbei, dass die Models unterschiedlich groß sind und dementsprechend auch mehr oder weniger der Rechenleistung binden. Also Googles Gemma3:1B ist natĂŒrlich kleiner als Gemma3:12B. 

Die untere Abbildung zeigt das offene Language Model Gemma3:4B im Einsatz, das ich auf meinen Rechner heruntergeladen und nun mit dem simplen Prompt „ErlĂ€utere die Grenzen von GenAI“ getestet habe. Dies hat auf meinem „Standard-Laptop“ etwas lĂ€nger gedauert als bei einem Login via ChatGPT oder Gemini, aber die Geschwindigkeit und auch der Output waren insgesamt völlig ok. 

ollama

Möchtet Ihr ĂŒber Ollama ein Bild in den Chat hineinladen, dann fĂ€llt einem direkt auf, dass der notwendige Upload-Button gar nicht vorhanden ist. Zieht das Bild einfach von eurem Ordner in die Promptleiste rein. Ist das Modell multimodal, dann wird das Image wie im unteren Screenshot angezeigt. Dies eignet sich fĂŒr eine Bildanalyse oder Ähnliches.

ollama

Im Chatfenster ĂŒber den Button Einstellungen lĂ€sst sich z.B. das Kontext-Fenster (Context-Lenght) festlegen, also wie umfangreich die Inputs und Outputs ausgefĂŒhrt werden können. Hier lĂ€sst sich dann ein bisschen herumspielen, auch hinsichtlich der grĂ¶ĂŸeren oder kleineren LLMs und deren LeistungsfĂ€higkeit.

ollama

Auch die offenen Modelle „gpt-oss“ von OpenAI lassen sich ĂŒber Ollama nutzen und zwar sowohl lokal als auch cloudbasiert. Ebenfalls ist mit „gpt-oss“ ein Web Search möglich. Seht dazu die unten hinzugefĂŒgten Buttons an der Promptleiste. Dies lĂ€sst sich nur kurz kostenlos testen, ansonsten benötigt es ein Upgrade.

 

ollama

Zum Abschluss noch der Hinweis, dass alle angebotenen LLMs in einer Übersicht bezĂŒglich der Kennzahlen wie GrĂ¶ĂŸe, Kontext-Fenster oder MultimodalitĂ€t verglichen werden können. Bei Gemma fĂ€llt bei „Input“ direkt auf, dass das kleine Modell Gemma3:1B keine Bilder verarbeiten kann und dementsprechend könnt ihr diese auch nicht in den Chat reinziehen. Achtet darauf. Viel Spaß!

ollama

 

Nutzung des Beitrags mit Text & Screenshots

✅ Lizenz fĂŒr eine Organisation (Zum Shop)

✅ Lizenz fĂŒr eine Einzelperson (Zum Shop)

 

Autor des Beitrags

matthias kindt

Matthias Kindt auf Linkedin

 

Ähnliche BeitrĂ€ge