Diffusion Model
Modello generativo alla base di DALL-E, Stable Diffusion e Midjourney.
I Diffusion Model sono una classe di modelli generativi che creano immagini (e altri media) partendo da rumore casuale e rimuovendolo progressivamente fino a ottenere un'immagine coerente. Il processo è l'inverso della diffusione fisica: dal caos all'ordine.
DALL-E, Stable Diffusion e Midjourney sono tutti basati su questa architettura. La qualità delle immagini generate ha raggiunto livelli fotorealistici, con la possibilità di controllare stile, composizione e contenuto attraverso prompt testuali.
Per le PMI, i diffusion model trovano applicazione nella generazione di immagini prodotto per cataloghi, varianti di rendering per configuratori, materiale marketing personalizzato e prototipazione visiva. Non sostituiscono la fotografia professionale ma accelerano la produzione di contenuti visivi e riducono i costi per varianti e personalizzazioni.