HAWKI: Datenschutzkonformes Interface nun mit Upload-Funktion in Kombination mit offenen LLMs verfügbar

HAWKI ist ein datenschutzkonformes Interface und ermöglicht es nun allen Hochschulbeteiligten, Dokumente wie PDFs oder Docs in den Chat hochzuladen und dort mit offenen Modellen zu chatten. Das HAWKI ist mittlerweile in der zweiten Version open source verfügbar und kann somit komplett frei verwendet werden. Projektleiter & Ansprechpartner wäre Vincent Timm.

Zur offiziellen Infoseite

hawki

Und so kann es gehen:

1) HAWKI installieren und anmelden

2) Datei in Chat über Upload-Funktion hochladen

3) Offene Sprachmodelle wie Gemma 3 27B Instruct auswählen, das von der GWDG in Göttingen gehostet wird. Geschlossene Modelle wie GPT-5 sind nicht zulässig

4) Der Inhalt der Datei bleibt ausschließlich auf dem Hochschulserver und ist im Rahmen der Verarbeitung maximal noch auf den Servern in Göttingen einsehbar

5) Der Output kann im Anschluss im selben Chat von kommerziellen Modellen wie GPT-5 weiterbearbeitet werden

Der obere Screenshot zeigt die Startseite vom HAWKI und klickt ein Nutzer in die Promptleiste, so öffnet sich oberhalb, wie in der unteren Abbildung sichtbar, eine kleine Leiste mit Auswahlmöglichkeiten bezüglich der angebotenen LLMs und Funktionen wie der Einstellung des Systemprompts. Noch zur Erwähnung: Ich habe das Interface über die Webseite hawki.hawk.de getestet, da ich netterweise (dauerhaft) von Vincent einen Zugang erhalte. Also lade ich das Beispiel-PDF auf den Hochschulserver der HAWK Hildesheim hoch.

hawki

Klickt ihr rechts auf das aktuell verwendete Sprachmodell, so öffnet sich ein Drop-Down-Menü mit den bekannten kommerziellen LLMs wie GPT oder Gemini und vielen Models mit der anfänglichen Bezeichnung GWDG. Hierbei handelt es sich um die Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen, die gemeinsam von der Max-Planck-Gesellschaft und der Universität Göttingen betrieben wird und den Hochschulen in Deutschland einen kostenlosen Zugang zu den offenen Language Models wie Gemma, Qwen oder Deepseek und Mistral ermöglicht.

hawki

Nachdem ich über die Upload-Funktion nun ein PDF in den Chat geladen habe und dafür eine Gemma-Version nutze, könnte es nun losgehen mit der Analyse. Da ich aber stets eine PDF-Zusammenfassung ausschließlich in Stichpunkten bevorzuge, gilt es noch eine finale Einstellung zu setzen.

hawki

Geht Ihr mit der Maus über die Funktionsleiste oberhalb des Textinputs, dann taucht unter anderem die Bezeichnung Systemprompt auf, über die Ihr exakt definieren könnt, wie Ihr denn euren Output gerne so hättet. Den aktuellen Systemprompt habe ich dazu gelöscht und mit folgendem Prompt ersetzt:

***gib jeden output in stichpunkten aus***

Der untere Screenshot zeigt dies im rechten Fenster. Theoretisch kann man dort natürlich noch viel mehr eintragen, etwa hinsichtlich Stil, Sprache, Formatierung oder Ähnlichem. Der Systemprompt lässt sich auch jederzeit wieder ändern. Das geht alles sehr einfach beim HAWKI

hawki

Da ich nun den Output-Stil im Backend festgelegt habe, reicht der simple Prompt ***fasse das PDF zusammen*** und schon wird der Inhalt ausschließlich gut leserlich in Stichpunkten ausgegeben. Angezeigt werden nun der Textoutput, der Dateiupload und mit Gemma 3 27B Instruct das verwendete Language Model. 

Zum Schluss bin ich innerhalb des Chats zum geschlossenen Modell GPT-5 gewechselt und habe diesen Prompt gesetzt: ***fasse den output hinsichtlich der tools zusammen***. Also lässt sich solch eine Datei innerhalb vom HAWKI vielfältig bearbeiten. Übrigens, die kommerziellen Modelle werden direkt über eine API angebunden.

Fazit

Die neue Funktion in der HAWKI-Umgebung erweitert die Möglichkeiten des KI-Chats, denn Datei-Uploads sind mehr als sinnvoll im Rahmen von Recherchen etc verwendbar. Damit der Inhalt nicht 1:1 zum Beispiel an die OpenAI-Server nach San Francisco übertragen werden kann, ist die Einsicht der Uploads nur mit einem offenen LLM über die GWDG möglich. In meinem Fall wurde das PDF auf den Hochschulserver der HAWK Hildesheim hochgeladen und zur Verarbeitung noch an den GWDG-Server in Göttingen weitergeleitet. Der Originalinhalt blieb somit maximal auf den Servern in Hildesheim & Göttingen und wurde dementsprechend auch datenschutzkonform verarbeitet.

 

Autor des Beitrags

matthias kindt

Matthias Kindt auf Linkedin