Context Window
La quantità massima di testo che un modello AI può elaborare in una singola conversazione, misurata in token.
La context window (finestra di contesto) è il limite massimo di informazioni che un Large Language Model può considerare contemporaneamente durante una conversazione. Si misura in token e varia da modello a modello: GPT-4o gestisce fino a 128.000 token, Claude fino a 200.000 token.
Questo parametro è cruciale per le applicazioni aziendali perché determina quante informazioni il modello può "tenere a mente" durante un'interazione. Un context window ampio permette di fornire al chatbot interi cataloghi prodotti, storico conversazioni e documenti di riferimento.
Per i chatbot aziendali, la gestione intelligente della context window è fondamentale. Kynetixx utilizza tecniche di RAG per recuperare solo le informazioni rilevanti alla domanda specifica, ottimizzando l'uso della context window e garantendo risposte precise anche con knowledge base molto ampie.