Ollama: Sehr einfach lokal & offline Sprachmodelle nutzen
â Â Lizenz fĂŒr diesen Beitrag erwerben
Ollama ist eine offene Anwendung, mit der sich auf dem eigenen Rechner offene Sprachmodelle wie Gemma, Qwen oder Deepseek nutzen lassen und zwar ohne dass Daten auf Server in die USA oder China gelangen. Alles bleibt lokal auf dem eigenen GerĂ€t. Dies war schon vorher möglich, aber nun hat Ollama seinem Programm ein schickes Chatinterface hinzugefĂŒgt, wodurch die Handhabung fĂŒr Laien weitaus einfacher geworden ist.
Und so kann es gehen:
1) Ollama fĂŒr das geeignete Betriebssystem auf dem eigenem Rechner installieren
2) Ollama öffnen und ein Sprachmodell herunterladen
3) Mit heruntergeladenem Modell direkt einen Chat starten
4) Das war’s! Schwierigkeitsgrad: „low“ đ
Unten ist die Download-Seite von Ollama dargestellt und dort kann gerne der geeignete Button angeklickt werden, um die Anwendung z. B. fĂŒr Windows zu installieren.
Ist die Installation nun abgeschlossen, dann öffnet einfach das Programm und schon ist das neue Interface mit Chatfunktion und Promptleiste sichtbar. Klickt Ihr auf das Drop-Down-MenĂŒ, dann lĂ€sst sich eines der Sprachmodelle auswĂ€hlen. Diese lassen sich ĂŒber das Download-Icon auf den eigenen Rechner herunterladen. Wichtig ist hierbei, dass die Models unterschiedlich groĂ sind und dementsprechend auch mehr oder weniger der Rechenleistung binden. Also Googles Gemma3:1B ist natĂŒrlich kleiner als Gemma3:12B.Â
Die untere Abbildung zeigt das offene Language Model Gemma3:4B im Einsatz, das ich auf meinen Rechner heruntergeladen und nun mit dem simplen Prompt „ErlĂ€utere die Grenzen von GenAIâ getestet habe. Dies hat auf meinem „Standard-Laptop“ etwas lĂ€nger gedauert als bei einem Login via ChatGPT oder Gemini, aber die Geschwindigkeit und auch der Output waren insgesamt völlig ok.Â
Möchtet Ihr ĂŒber Ollama ein Bild in den Chat hineinladen, dann fĂ€llt einem direkt auf, dass der notwendige Upload-Button gar nicht vorhanden ist. Zieht das Bild einfach von eurem Ordner in die Promptleiste rein. Ist das Modell multimodal, dann wird das Image wie im unteren Screenshot angezeigt. Dies eignet sich fĂŒr eine Bildanalyse oder Ăhnliches.
Im Chatfenster ĂŒber den Button Einstellungen lĂ€sst sich z.B. das Kontext-Fenster (Context-Lenght) festlegen, also wie umfangreich die Inputs und Outputs ausgefĂŒhrt werden können. Hier lĂ€sst sich dann ein bisschen herumspielen, auch hinsichtlich der gröĂeren oder kleineren LLMs und deren LeistungsfĂ€higkeit.
Auch die offenen Modelle „gpt-oss“ von OpenAI lassen sich ĂŒber Ollama nutzen und zwar sowohl lokal als auch cloudbasiert. Ebenfalls ist mit „gpt-oss“ ein Web Search möglich. Seht dazu die unten hinzugefĂŒgten Buttons an der Promptleiste. Dies lĂ€sst sich nur kurz kostenlos testen, ansonsten benötigt es ein Upgrade.
Â
Zum Abschluss noch der Hinweis, dass alle angebotenen LLMs in einer Ăbersicht bezĂŒglich der Kennzahlen wie GröĂe, Kontext-Fenster oder MultimodalitĂ€t verglichen werden können. Bei Gemma fĂ€llt bei „Input“ direkt auf, dass das kleine Modell Gemma3:1B keine Bilder verarbeiten kann und dementsprechend könnt ihr diese auch nicht in den Chat reinziehen. Achtet darauf. Viel SpaĂ!
Â
Nutzung des Beitrags mit Text & Screenshots
â Â Lizenz fĂŒr eine Organisation (Zum Shop)
â Â Lizenz fĂŒr eine Einzelperson (Zum Shop)
Â
Autor des Beitrags
Â









