HeyGen Video Agent: Einfach aus Textprompt einen erklärenden KI-Avatar mit Audio generieren lassen
✅ Lizenz für diesen Beitrag erwerben
HeyGen präsentiert mit den Video Agent eine sehr einfache Möglichkeit, aus einem simplen Textprompt ein hochwertiges Kurzvideo mit einem KI-Avatar zu erstellen. Das untere Erklärvideo zu generativer KI wurde mit folgendem Prompt kostenfrei erzeugt:
***a female professor is explaining generative AI in a humorous way***
Der Output läuft über 30 Sekunden, enthält nützliche Darstellungen, die den lippensynchronen Avatar-Vortrag gezielt unterstützen und auch ein passendes Audio wurde automatisch hinzugefügt. Das Ergebnis finde ich sehr gelungen. Diese Funktion habe ich nur einmal getestet. Schwierigkeitsgrad: Low
Und so könnte es gehen:
1) Über die App von HeyGen anmelden
2) Links in der Navigation den Reiter „Video Agent“ auswählen
3) In die Promptleiste einen Text eingeben, welches Thema der Avatar vortragen soll und in welchen Stil etc. Es gibt Beispiel-Avatare mit Beispiel-Prompts, die übernommen oder angepasst werden können
4) HeyGen gibt nach Prompt eine Tabelle mit allen Settings aus. Ist diese zufriedenstellend, dann tippt der User „proceed“ ein und das Video wird nun generiert
5) Nach Fertigstellung des Avatars lässt sich dieser rechts oben über „Edit“ auch hinsichtlich Skript, Stil und Sprache anpassen.
6) Das Video kann heruntergeladen und auch öffentlich geteilt werden, alles in einem bestimmten Umfang kostenfrei
Also zuerst auf die Startseite von HeyGen navigieren, danach links im Menü auf „Video Agent“ klicken und im Anschluss sieht euer Fenster dann wie unten im Screenshot aus. Oben in der Promptleiste kommt dann euer Text hinein, der z.B. das Thema beschreibt und den Stil des Avatars, wie im Beispielprompt mit „genAI“ & „humorous“. Solch eine Beschreibung kann auch sehr detailliert sein. Ich habe mich für einen „sparsamen“ Prompt entschieden.
Neben dem Textinhalt könnt Ihr noch die Videolänge bis zu 60 Sekunden festlegen und das Format auswählen, also entweder im Hochformat oder Querformat. Für solch einen Blogbeitrag eignet sich dann eher das Querformat.
Es ist sehr sinnvoll, dass die Videoerstellung nicht sofort startet, sondern der User im Anschluss zuerst einen Überblick in Tabellenform erhält und so alle Details wie Länge, Tonalität, Audio oder Skript Plan einsehen kann. Erst nachdem man nun „proceed“ als zweiten Prompt eingibt, startet die Generierung und dauert nur wenige Minuten.
Die untere Abbildung zeigt den Vorgang der Erstellung, sodass man als Nutzer auch genau verfolgen kann, was die KI aktuell macht bzw. welchen Schritt sie bearbeitet und schon fertiggestellt hat. Generell finde ich bei HeyGen den gesamten Prozess sehr transparent.
Wird nun zum Schluss das fertige Video generiert, so teilt sich der Bildschirm in zwei Hälften. Auf der linken Seite bleibt euer Chatverlauf mit der Gesamtübersicht und rechts lässt sich dann der fertige Avatar anschauen und als MP4 herunterladen.
Die untere Abbildung zeigt nun die Professorin, die in einem humorvollen Stil das Thema generative KI erläutern soll und zwar in 30 Sekunden. Möchtet Ihr nun Anpassungen vornehmen, da womöglich das Skript nicht optimal ist oder Ihr doch lieber einen sachlicheren Ton bevorzugt, dann klickt oben rechts auf den schwarzen Button „Edit“.
Im Anschluss teilt sich der Bildschirm ein weiteres Mal und rechts in der Sidebar könnt Ihr die gewünschten Einstellungen treffen. Insgesamt gibt es wirklich viele Möglichkeiten der Bearbeitung, bei den Video Agents ganz egal, ob nun im Vorfeld über recht komplexe Prompts mit optimalem Skript, Audio und Stil oder eine nachträgliche Anpassung dieser vielfältigen Settings und darüber hinaus wie z.B. eine Sprachänderung, also z.B. von Englisch ins Deutsche. Schaut euch gerne erstmal in Ruhe um.
Ich habe mich im Beispiel für eine Skriptanpassung entschieden, die man nun manuell vornehmen kann. Einfach Wörter und ganze Sätze hinzufügen oder löschen und schon kann ein neues Video generiert werden. Der kostenfreie Plan ist jedoch begrenzt.
Als Letztes hatte ich versucht, das fertige Video eins zu eins ins Deutsche zu übersetzen, damit der Avatar lippensynchron vom Englischen ins Deutsche wechselt, aber der Output war zu 90 % Englisch und kaum zu verstehen. Wie oben erwähnt hatte ich dies nur einmal getestet und wahrscheinlich waren meine Einstellungen nicht optimal, denn HeyGen ist auf „lipsync Translation“ spezialisiert und solche Umwandlungen dürften normalerweise kein Problem sein. Gebt mir gerne Feedback, falls es bei euch geklappt hat.
Nutzung des Beitrags mit Text & Screenshots
✅ Lizenz für eine Organisation (Zum Shop)
✅ Lizenz für eine Einzelperson (Zum Shop)
Autor des Beitrags











