Provider e modelli di IA generativa
AIsuru supporta diversi provider di IA (OpenAI, Anthropic, Mistral) con modelli linguistici di varie dimensioni e capacità. Scegli quello più adatto alle tue esigenze di performance, budget e funzionalità. Questa guida ti aiuterà a navigare tra le scelte disponibili e a prendere una decisione informata.
Panoramica dei provider
AIsuru si integra con diversi provider di IA generativa:
OpenAI: puoi utilizzare la tua chiave API per accedere ai modelli GPT (inclusi quelli fine tuned);
Anthropic: puoi utilizzare la tua chiave API per accedere a tutti i modelli;
Mistral AI: puoi utilizzare la tua chiave API per accedere a tutti i modelli;
Microsoft Azure: puoi utilizzare la tua chiave API per accedere ai modelli GPT di OpenAI (inclusi quelli fine tuned);
Amazon Bedrock (AWS): puoi utilizzare la tua chiave API per accedere ai modelli di Anthropic tramite Amazon Bedrock;
Google Vertex AI: puoi utilizzare la tua chiave API per accedere ai modelli di Anthropic tramite Vertex AI;
Custom (Ollama, LM Studio, ...): puoi connetterti a provider personalizzati o server locali compatibili con il protocollo OpenAI.
La scelta del provider dipende molto da quale modello vuoi utilizzare: alcuni modelli sono disponibili solo con alcuni provider.
Panoramica dei modelli
Attualmente, tutti gli utenti di AIsuru possono utilizzare questi modelli:
Vertex Anthropic
claude-3-7-sonnet-20250219
Grande
200.000
Vertex Anthropic
Claude 4.5 Sonnet
Grande
200.000 o 1mln
Vertex Anthropic
claude-haiku-4-5-20251001
Piccolo
200.000
Mistral
mistral-large-2407
Grande
128.000
OpenAI
gpt-4o
Grande
128.000
OpenAI
gpt-4o-mini
Piccolo
128.000
OpenAI
gpt-5
Grande
128.000
Modelli di Ragionamento
Alcuni modelli (come claude-sonnet-4-20250514 e gpt-5 reasoning) dispongono di capacità di reasoning avanzate. Questi modelli mostrano il loro processo di ragionamento solo nella scheda "Conversazioni" di default.
Questo comportamento predefinito è pensato per proteggere informazioni sensibili: il ragionamento può infatti esporre dati interni, logiche di elaborazione o contenuti che non dovrebbero essere visibili all'utente finale.
Puoi mostrare il ragionamento anche all'utente finale modificando il tuo layout di condivisione.
Cosa è il contesto
Il contesto rappresenta il numero massimo di token che possiamo utilizzare in ogni richiesta (o domanda) fatta al modello linguistico. Per semplificare, possiamo dire che 1 token è uguale a 3,5 caratteri dell'alfabeto italiano.
Se non stai facendo esperimenti con istruzioni particolarmente lunghe o con le funzioni, non preoccuparti di questo valore.
Come scegliere il modello
La scelta del modello linguistico dipende da diversi fattori. In questa pagina troverai alcune indicazioni generiche, ma è necessario che sia tu a testare i diversi modelli con il tuo Agente: solo così potrai assicurarti che l'Agente si comporti correttamente in ogni attività.
Vediamo come selezionare il modello più adatto per ogni configurazione.
Configurazione per domande e risposte e gruppi di esperti
Per le interazioni con gli utenti, considera questi aspetti:
Complessità delle risposte richieste:
Per risposte complesse e articolate: modelli grandi;
Per risposte semplici e dirette: modelli piccoli.
Budget:
Budget limitato: preferisci modelli piccoli;
Budget flessibile: puoi optare per modelli grandi.
Velocità di risposta necessaria:
Risposte immediate: modelli piccoli;
Maggiore accuratezza: modelli grandi.
Capacità di ragionamento:
Per task che richiedono ragionamento complesso: usa modelli con reasoning (
claude-sonnet-4-20250514ogpt-5reasoning).
Configurazione per import/export
Per l'importazione di documenti, considera:
Complessità dei documenti:
Documenti non strutturati: è necessario sfruttare i modelli più grandi;
Documenti ben strutturati: i modelli piccoli assicurano ottime performance.
Volume di documenti: se devi importare un grande numero di documenti, potresti usare un modello piccolo per abbassare i costi.
Configurazione per Pensiero Profondo
Per la gestione della memoria delle conversazioni, consigliamo sempre e solo l'utilizzo di un modello grande.
Last updated