Come Lavoriamo Servizi Settori Casi Studio Blog Glossario AI Parliamo
Glossario AI

Hallucination

Quando un modello AI genera informazioni false o inventate presentandole come fatti reali e attendibili.

L'hallucination (allucinazione) è un fenomeno in cui un modello AI genera contenuti che sembrano plausibili e sono formulati con sicurezza, ma sono in realtà falsi, inventati o non supportati dai dati. È uno dei principali rischi nell'utilizzo di LLM per applicazioni aziendali.

Un chatbot aziendale che "allucina" potrebbe inventare specifiche tecniche di un prodotto, citare prezzi inesistenti o fornire informazioni contrattuali errate — con potenziali danni economici e reputazionali significativi per l'azienda.

Kynetixx mitiga il rischio di hallucination attraverso diverse strategie: la tecnologia RAG vincola le risposte ai dati aziendali verificati, il prompt-engineering" class="term-link">prompt engineering include istruzioni esplicite per non inventare informazioni, i sistemi di monitoraggio (come LangFuse) tracciano la qualità delle risposte, e un processo di escalation passa al commerciale umano le richieste che il sistema non sa gestire con certezza.

Chiedi all'AI di spiegarti "Hallucination"

Vuoi capire come applicare l'AI alla tua azienda?

Non servono competenze tecniche. Serve capire dove stai perdendo tempo e soldi.