Token
L'unità base di testo elaborata dai modelli AI: circa 3/4 di una parola italiana in media.
Un token è l'unità fondamentale di testo che un modello AI processa. Non corrisponde esattamente a una parola: in italiano, un token equivale mediamente a circa 3/4 di una parola. La parola "automazione" potrebbe essere suddivisa in 2-3 token, mentre parole brevi come "il" o "a" sono un singolo token.
I token sono importanti per due motivi: determinano il costo delle API dei modelli AI (si paga per token processato) e definiscono la dimensione della context window (il numero massimo di token che il modello può elaborare in una conversazione).
Per le PMI che utilizzano chatbot e sistemi AI, il conteggio dei token impatta direttamente sui costi operativi. Kynetixx ottimizza l'uso dei token attraverso tecniche di prompt-engineering" class="term-link">prompt engineering efficiente, caching delle risposte frequenti e RAG mirato che recupera solo le informazioni strettamente necessarie.