Provider e modelli di IA generativa
AIsuru supporta diversi provider di IA (OpenAI, Anthropic, Mistral) con modelli linguistici di varie dimensioni e capacità. Scegli quello più adatto alle tue esigenze di performance, budget e funzionalità. Questa guida ti aiuterà a navigare tra le scelte disponibili e a prendere una decisione informata.
Panoramica dei provider
AIsuru si integra con diversi provider di IA generativa:
OpenAI: puoi utilizzare la tua chiave API per accedere ai modelli GPT (inclusi quelli fine tuned);
Anthropic: puoi utilizzare la tua chiave API per accedere a tutti i modelli;
Mistral AI: puoi utilizzare la tua chiave API per accedere a tutti i modelli;
Microsoft Azure: puoi utilizzare la tua chiave API per accedere ai modelli GPT di OpenAI (inclusi quelli fine tuned);
Amazon Bedrock (AWS): puoi utilizzare la tua chiave API per accedere a tutti i modelli di Anthropic (inclusi quelli fine tuned).
Panoramica dei modelli
Attualmente, tutti gli utenti di AIsuru possono utilizzare questi modelli:Panoramica dei modelli Attualmente, tutti gli utenti di AIsuru possono utilizzare questi modelli:
Anthropic e AWS
Claude 3.5 Sonnet (20241022)
200.000
✅
Anthropic e AWS
Claude 3.5 Haiku (20241022)
200.000
✅
Anthropic e AWS
Claude 3.7 Sonnet (20250219)
200.000
✅
OpenAI e MS Azure
GPT 4o
128.000
✅
OpenAI e MS Azure
GPT 4o Mini
128.000
✅
OpenAI e MS Azure
GPT 4.1 (2025-04-14)
128.000
✅
Mistral AI
Large (2407)
128.000
❌
Mistral AI
Small (latest)
128.000
❌
Modelli di Ragionamento
Alcuni modelli (come o1-preview e o1-mini) dispongono di capacità di reasoning avanzate. Questi modelli mostrano il loro processo di ragionamento solo nella scheda "Conversazioni" di default.
Questo comportamento predefinito è pensato per proteggere informazioni sensibili: il ragionamento può infatti esporre dati interni, logiche di elaborazione o contenuti che non dovrebbero essere visibili all'utente finale.
Per mostrare il ragionamento anche all'utente finale:
Vai su Condividimi (nella barra laterale)
Seleziona il layout che vuoi modificare (o creane uno nuovo)
Nelle opzioni di configurazione del layout, attiva il flag "Mostra il ragionamento"
Con questa opzione attiva, il processo di reasoning sarà visibile direttamente nella conversazione con l'utente finale.
Supporto per immagini
I modelli contrassegnati con ✅ supportano l'analisi di immagini caricate dagli utenti durante la conversazione. Questa funzionalità permette all'Agente di:
Descrivere il contenuto di foto e screenshot
Rispondere a domande specifiche sulle immagini
Analizzare grafici, documenti o diagrammi
Identificare oggetti, persone o elementi visivi
Per utilizzare questa funzione, attiva il "Caricamento file" nel layout di condivisione.
Cosa è il contesto
Il contesto rappresenta il numero massimo di token che possiamo utilizzare in ogni richiesta (o domanda) fatta al modello linguistico. Per semplificare, possiamo dire che 1 token è uguale a 3,5 caratteri dell'alfabeto italiano.
Se non stai facendo esperimenti con istruzioni particolarmente lunghe o con le funzioni, non preoccuparti di questo valore.
Cosa è la grandezza?
La grandezza del modello indica su quanti dati è stato allenato un modello linguistico. Nella tabella troverai modelli:
Grandi -> allenati su una grande mole di dati, quindi:
Seguono meglio le istruzioni;
Danno risposte più accurate e precise;
Richiedono più tempo per rispondere alle domande;
Hanno un costo più elevato.
Piccoli -> allenati su una mole di dati più piccola, quindi:
Perfetti per attività piccole e semplici;
Richiedono meno tempo per rispondere alle domande;
Hanno un costo sensibilmente inferiore (sono perfetti per il fine-tuning).
Come scegliere il modello
La scelta del modello linguistico dipende da diversi fattori. In questa pagina troverai alcune indicazioni generiche, ma è necessario che sia tu a testare i diversi modelli con il tuo Agente: solo così potrai assicurarti che l'Agente si comporti correttamente in ogni attività.
Vediamo come selezionare il modello più adatto per ogni configurazione.
Configurazione per domande e risposte
Per le interazioni con gli utenti, considera questi aspetti:
Complessità delle risposte richieste:
Per risposte complesse e articolate: modelli grandi;
Per risposte semplici e dirette: modelli piccoli.
Budget:
Budget limitato: preferisci modelli piccoli;
Budget flessibile: puoi optare per modelli grandi.
Velocità di risposta necessaria:
Risposte immediate: modelli piccoli;
Maggiore accuratezza: modelli grandi.
Configurazione per import/export
Per l'importazione di documenti, considera:
Complessità dei documenti:
Documenti non strutturati: è necessario sfruttare i modelli più grandi;
Documenti ben strutturati: i modelli piccoli assicurano ottime performance.
Volume di documenti: se devi importare un grande numero di documenti, potresti usare un modello piccolo per abbassare i costi.
Configurazione per Pensiero Profondo
Per la gestione della memoria delle conversazioni, consigliamo sempre e solo l'utilizzo di un modello grande.
Last updated