Welches Tool darf es denn sein? KI-Bundle via API und datenschutzkonformen Interface für Lernende & Lehrende

Ein Beitrag von Matthias Kindt

Im Zuge der Einführung von ChatGPT im November 2022 richtet sich das Augenmerk vermehrt auf sogenannte APIs, also Programmierschnittstellen, mit denen Firmen wie in diesem Fall OpenAI externen Entwicklern in einem vorab festgelegten Rahmen stetigen Zugriff auf die eigenen Anwendungen gewähren. Als Beispiel wird an dieser Stelle ein x-beliebiger Hochschulserver angeführt, der via API (Schlüssel) mit dem Server in San Francisco von OpenAI in dauerhaftem Kontakt steht, da dort das gewünschte KI-Sprachmodell GPT installiert ist. Eine API ist häufig eine Zahlen- und Buchstabenkombination, die der Anbieter dem User bereitstellt und die auf dem eigenen System per Copy & Paste eingebunden wird. Und zack schon steht die Verbindung! 

Wie viele Tools lasen sich per API über Hochschulserver einbinden?

Aktuell nutzen die allermeisten Bildungseinrichtungen, falls sie denn überhaupt eine Künstliche Intelligenz bei sich einbinden, das KI-Sprachmodell GPT von OpenAI, das sie über ihre eigene Webseite laufen lassen und so ChatGPT den eigenen Studierenden & Lehrenden etwa via Interface kostenfrei zur Verfügung stellen können. Hat man ein Konto bei OpenAI, so erhält der User zusätzlich automatisch einen API-Schlüssel, den er oder sie ganz bequem per Copy & Paste bei sich einbinden kann. Dieser Vorgang ist recht einfach. Aber wie sieht es mit weiteren KI-Tools, wie etwa Sprachmodellen oder Bildgeneratoren aus? Vorab sollte direkt erwähnt werden, dass sich viele Anwendungen und auch die Nutzung der zugehörigen API in der Beta-Phase, also Test-Phase befinden und nicht selten eine Waitlist bereitgestellt wird, auf man dann wartet bis der Zugriff zur gewünschten API freigeschaltet ist. Dies war anfangs bei OpenAI der Fall und ist es aktuell (27.07.2023) auch beim Konkurrenten Google Bard. Dieser Beitrag möchte vor allem einen Ausblick geben, was für Hochschulen in naher Zukunft möglich ist, sollten sie sich dafür entscheiden, KI-Anwendungen via Programmierschnittstelle anzuzapfen.

Übersicht von verfügbaren APIs

Die obere Auflistung zeigt ausgewählte KI-Produkte wie das Transkriptions-Tool Whisper oder die Bildbearbeitungen von ClipDrop sowie natürlich die wohl bekanntesten Programmierschnittstellen von OpenAI mit verfügbaren Modellen wie ChatGPT-3.5/-4. Auch das deutsche Unternehmen DeepL hält für Entwickler & Kunden die Möglichkeit offen seine Dienstleistungen via API etwa auf dem eigenen Server oder Rechner laufen zu lassen. Für die Verwendung der APIs fallen Kosten an, die sich 1:1 an der Nutzung der Tools orientieren. Generiere ich also z.B. 500 Bilder über einen KI-Bildgenerator, dann wird dieses Ausmaß direkt abgerechnet bzw. es werden z.B. im Vorfeld erworbene Credits aufgebraucht oder die Abrechnung erfolgt nach Tokens, wie dies bei KI-Sprachmodellen wie ChatGPT der Fall ist.

Das Setzen von Limits ist ratsam! Dies ermöglicht eine nachhaltige Kostenkontrolle und schützt vor einer möglichen Komprimierung einer der genutzten APIs. Wird eine API etwa im Rahmen eines Cyber-Angriffs gehackt, dann sind die maximal verursachten Kosten so elegant gedeckelt. Auch die Anzahl der Anfragen pro User wie in diesem Fall eines Studierenden ist begrenzbar.

stability ai api
Erläuterungen zur Nutzung der API von Stability AI

Open Source KI-Modelle stationär (on premise) nutzen

Fernab der kommerziellen Anbieter von KI-Anwendungen gibt es auch Programme, die komplett frei im Netz wie bei GitHub oder eben auf der jeweiligen Homepage zum Download bereitstehen. Diese offenen KIs lassen sich z.B. auf dem Rechner oder auch auf einem Server installieren und per Cloud-Zugang etwa Studierenden und Schülern zur Verfügung stellen. Datenschutztechnisch ist dies natürlich eine sehr gute Variante, da einfach keinerlei Daten & Prompts irgendwo hin abfließen. Das große KI-Sprachmodell Llama 2 wäre hierbei zu erwähnen, dass vom Meta-Konzern als Open Source Anwendung konzipiert wird. Eine Abwandlung auf der Grundlage von Llama ist z.B. Stanford Alpaca, das von Beteiligen der gleichnamigen US-Hochschule trainiert wurde.

 llama github
Code von LLaMA auf GitHub frei verfügbar

Insbesondere für Hochschuleinrichtungen wäre es unter anderem aus Kostensicht schon sehr interessant, solche Sprachmodelle etwa innerhalb ihrer Forschung & Lehre zu integrieren und diese womöglich fortan mit eigenen Daten weiterzuentwickeln. Tun sich mehrere Hochschulen etwa im Rahmen eines Verbundes zusammen, dann wären natürlich noch mehr Datensätze vorhanden, um die KI auf ein neues Level zu heben.

Nachhaltiges KI-API-Management am Hochschulrechenzentrum?

Um den Trend der immer weiter aufkommenden Anwendungen auf der Grundlage von Künstliche Intelligenz und der langfristigen Verfügbarkeit dieser für Lehrende & Lernende gerecht zu werden, sollten Hochschulen sich überlegen, inwiefern sich ein professionelles KI-API-Management vor Ort (falls vorhanden) etwa im Hochschulrechenzentrum umsetzen ließe. Wie viele Programme werden die Bildungseinrichtungen ihren Beteiligten in Zukunft gleichzeitig zur Verfügung stellen? Werden etwa alle großen KI-Sprachmodelle via API angezapft oder doch nur eines und wie sieht es mit weiteren Anwendungen z.B. im Bereich der Bild- & Videobearbeitung aus? Reden wir hier womöglich über 20+ KI-Tools, die gleichzeitig in Lehre & Forschung verwendete werden? Sollte man immer am Puls der Zeit sein und auch Software nutzen, die sich noch in der Beta-Phase befindet, aber schon sehr vielversprechende Ergebnisse lieferte? Und was kostet das Ganze denn? Genau für solche Fragestellungen benötigt es professionelles Wissen bzw. eine dauerhafte Expertise. Zuständige Mitarbeiter müssten innerhalb ihres Budgets flexibel arbeiten können, also von einem auf den anderen Tag neue Anwendungen unbürokratisch etwa am HRZ integrieren können.

Eine transparente Webpräsenz in Form eines Blogs wäre mehr als wünschenswert, um allen Beteiligten ganz offen zu zeigen, welche Programme aktuell nutzbar sind. Zu jedem neuen Tool wird auch gleich mittels Blogbeitrag eine Anleitung mit Erklärvideo angefertigt. Dies erhöht insgesamt die Akzeptanz.  Hier noch ein thematisch passender Beitrag – KI-Interface der HAWK auf GitHub

autor Matthias Kindt

Ähnliche Beiträge