Hallucination
Quando un modello AI genera informazioni false o inventate presentandole come fatti reali e attendibili.
L'hallucination (allucinazione) è un fenomeno in cui un modello AI genera contenuti che sembrano plausibili e sono formulati con sicurezza, ma sono in realtà falsi, inventati o non supportati dai dati. È uno dei principali rischi nell'utilizzo di LLM per applicazioni aziendali.
Un chatbot aziendale che "allucina" potrebbe inventare specifiche tecniche di un prodotto, citare prezzi inesistenti o fornire informazioni contrattuali errate — con potenziali danni economici e reputazionali significativi per l'azienda.
Kynetixx mitiga il rischio di hallucination attraverso diverse strategie: la tecnologia RAG vincola le risposte ai dati aziendali verificati, il prompt-engineering" class="term-link">prompt engineering include istruzioni esplicite per non inventare informazioni, i sistemi di monitoraggio (come LangFuse) tracciano la qualità delle risposte, e un processo di escalation passa al commerciale umano le richieste che il sistema non sa gestire con certezza.