Provider e modelli di IA generativa

AIsuru supporta diversi provider di IA (OpenAI, Anthropic, Mistral) con modelli linguistici di varie dimensioni e capacità. Scegli quello più adatto alle tue esigenze di performance, budget e funzionalità. Questa guida ti aiuterà a navigare tra le scelte disponibili e a prendere una decisione informata.

Panoramica dei provider

AIsuru si integra con diversi provider di IA generativa:

  • OpenAI: puoi utilizzare la tua chiave API per accedere ai modelli GPT (inclusi quelli fine tuned);

  • Anthropic: puoi utilizzare la tua chiave API per accedere a tutti i modelli;

  • Mistral AI: puoi utilizzare la tua chiave API per accedere a tutti i modelli;

  • Microsoft Azure: puoi utilizzare la tua chiave API per accedere ai modelli GPT di OpenAI (inclusi quelli fine tuned);

  • Amazon Bedrock (AWS): puoi utilizzare la tua chiave API per accedere ai modelli di Anthropic tramite Amazon Bedrock;

  • Google Vertex AI: puoi utilizzare la tua chiave API per accedere ai modelli di Anthropic tramite Vertex AI;

  • Custom (Ollama, LM Studio, ...): puoi connetterti a provider personalizzati o server locali compatibili con il protocollo OpenAI.

circle-info

La scelta del provider dipende molto da quale modello vuoi utilizzare: alcuni modelli sono disponibili solo con alcuni provider.

Panoramica dei modelli

Attualmente, tutti gli utenti di AIsuru possono utilizzare questi modelli:

Provider
Modello
Grandezza

Vertex Anthropic

claude-3-7-sonnet-20250219

Grande

200.000

Vertex Anthropic

Claude 4.5 Sonnet

Grande

200.000 o 1mln

Vertex Anthropic

claude-haiku-4-5-20251001

Piccolo

200.000

Mistral

mistral-large-2407

Grande

128.000

OpenAI

gpt-4o

Grande

128.000

OpenAI

gpt-4o-mini

Piccolo

128.000

OpenAI

gpt-5

Grande

128.000

Modelli di Ragionamento

Alcuni modelli (come claude-sonnet-4-20250514 e gpt-5 reasoning) dispongono di capacità di reasoning avanzate. Questi modelli mostrano il loro processo di ragionamento solo nella scheda "Conversazioni" di default.

Questo comportamento predefinito è pensato per proteggere informazioni sensibili: il ragionamento può infatti esporre dati interni, logiche di elaborazione o contenuti che non dovrebbero essere visibili all'utente finale.

Puoi mostrare il ragionamento anche all'utente finale modificando il tuo layout di condivisione.

Cosa è il contesto

Il contesto rappresenta il numero massimo di token che possiamo utilizzare in ogni richiesta (o domanda) fatta al modello linguistico. Per semplificare, possiamo dire che 1 token è uguale a 3,5 caratteri dell'alfabeto italiano.

Se non stai facendo esperimenti con istruzioni particolarmente lunghe o con le funzioni, non preoccuparti di questo valore.

Come scegliere il modello

La scelta del modello linguistico dipende da diversi fattori. In questa pagina troverai alcune indicazioni generiche, ma è necessario che sia tu a testare i diversi modelli con il tuo Agente: solo così potrai assicurarti che l'Agente si comporti correttamente in ogni attività.

Vediamo come selezionare il modello più adatto per ogni configurazione.

Configurazione per domande e risposte e gruppi di esperti

Per le interazioni con gli utenti, considera questi aspetti:

  • Complessità delle risposte richieste:

    • Per risposte complesse e articolate: modelli grandi;

    • Per risposte semplici e dirette: modelli piccoli.

  • Budget:

    • Budget limitato: preferisci modelli piccoli;

    • Budget flessibile: puoi optare per modelli grandi.

  • Velocità di risposta necessaria:

    • Risposte immediate: modelli piccoli;

    • Maggiore accuratezza: modelli grandi.

    Capacità di ragionamento:

    • Per task che richiedono ragionamento complesso: usa modelli con reasoning (claude-sonnet-4-20250514 o gpt-5 reasoning).

Configurazione per import/export

Per l'importazione di documenti, considera:

  • Complessità dei documenti:

    • Documenti non strutturati: è necessario sfruttare i modelli più grandi;

    • Documenti ben strutturati: i modelli piccoli assicurano ottime performance.

  • Volume di documenti: se devi importare un grande numero di documenti, potresti usare un modello piccolo per abbassare i costi.

Configurazione per Pensiero Profondo

Per la gestione della memoria delle conversazioni, consigliamo sempre e solo l'utilizzo di un modello grande.

Last updated