Die 136. Edition von KI & Bildung schaut sich das Halluzinieren von Sprachmodellen wie Claude, Gemini, ChatGPT & Co etwas genauer an und thematisiert eine Einstellung, wie sich bei bestimmten Modellen die Fehlerquote unmittelbar halbiert. Als Annahme gilt, dass eine Halluzination auftritt, falls ein LLM eine Behauptung ohne Quellenbezug oder mit fehlerhaftem Quellenverweis ausgibt. Also auch bei einem korrekten Output mit fehlendem Quellenverweis wird von einer Halluzination gesprochen. Aber wie verringere ich nun die Halluzinationsrate von Sprachmodellen?
💡 Weitere spannende Neuigkeiten:
🤖 Sehbeeinträchtigten Studierenden wird eine spezialisierte KI-Plattform zur Verfügung gestellt, um dort Uploads in barrierefreie Dokumente umwandeln zu können. Dies erhöht die Chancengleichheit unter Studierenden. Super!
🤖 Ein Paper diskutiert die unmittelbaren Auswirkungen von KI-Anwendungen auf Nachwuchswissenschaftler. Wo sind die Chancen und Herausforderungen und was gilt es jetzt zu beachten?
🤖 Und natürlich gibt es wieder aktuelle KI-Leitfäden, die einen tollen Überblick geben, was man bei der Umsetzung von KI in Lehre & Unterricht (rechtlich) beachten sollte.
Viele Spaß beim Lesen!
Weiterlesen