Wenn die KI halluziniert: Wie du mit falschen Antworten von LLMs richtig umgehst
Willst du wissen, warum LLMs manchmal halluzinieren und wie du dies umgehen kannst? Sieh dir unser Webinar an – für verlässliche KI-Anwendungen ohne große Überraschungen!
Webinar "Wenn die KI halluziniert: Wie du mit falschen Antworten von LLMs richtig umgehst"

on demand
Freue dich auf 45 Minuten geballtes Expertenwissen aus dem Projekt-Alltag eines GenAI-Consultants und erfahre, wie du LLMs ohne Nebenwirkungen nutzt.
Worum geht es?
Halluzinationen in ChatGPT und Co.: Überzeugend formuliert und dennoch falsch… In unserem Webinar erhältst du das Wissen, um LLMs effektiv zu nutzen und Halluzinationen zu umgehen.
Über den Referenten
Marcus Hanhart
Marcus Hanhart entwickelt als Senior GenAI-Consultant methodisch individuelle GenAI-Lösungen für und mit Kunden der codecentric AG. Sein Fokus liegt dabei auf der Automatisierung, dem Software-Engineering und der Architektur. Python ist dabei meist die Sprache der Wahl und DevOps die Kultur.
Webinar "Wenn die KI halluziniert: Wie du mit falschen Antworten von LLMs richtig umgehst"

on demand
Freue dich auf 45 Minuten geballtes Expertenwissen aus dem Projekt-Alltag eines GenAI-Consultants und erfahre, wie du LLMs ohne Nebenwirkungen nutzt.