Provider e modelli di IA generativa

AIsuru supporta diversi provider di IA (OpenAI, Anthropic, Mistral) con modelli linguistici di varie dimensioni e capacità. Scegli quello più adatto alle tue esigenze di performance, budget e funzionalità. Questa guida ti aiuterà a navigare tra le scelte disponibili e a prendere una decisione informata.

Panoramica dei provider

AIsuru si integra con diversi provider di IA generativa:

  • OpenAI: puoi utilizzare la tua chiave API per accedere ai modelli GPT (inclusi quelli fine tuned);

  • Anthropic: puoi utilizzare la tua chiave API per accedere a tutti i modelli;

  • Mistral AI: puoi utilizzare la tua chiave API per accedere a tutti i modelli;

  • Microsoft Azure: puoi utilizzare la tua chiave API per accedere ai modelli GPT di OpenAI (inclusi quelli fine tuned);

  • Amazon Bedrock (AWS): puoi utilizzare la tua chiave API per accedere a tutti i modelli di Anthropic (inclusi quelli fine tuned).

La scelta del provider dipende molto da quale modello vuoi utilizzare: alcuni modelli sono disponibili solo con alcuni provider.

Panoramica dei modelli

Attualmente, tutti gli utenti di AIsuru possono utilizzare questi modelli:Panoramica dei modelli Attualmente, tutti gli utenti di AIsuru possono utilizzare questi modelli:

Provider
Modello
Contesto
Tipo
Supporto Immagini

Anthropic e AWS

Claude 3.5 Sonnet (20241022)

200.000

Grande

Anthropic e AWS

Claude 3.5 Haiku (20241022)

200.000

Piccolo

Anthropic e AWS

Claude 3.7 Sonnet (20250219)

200.000

Grande

OpenAI e MS Azure

GPT 4o

128.000

Grande

OpenAI e MS Azure

GPT 4o Mini

128.000

Piccolo

OpenAI e MS Azure

GPT 4.1 (2025-04-14)

128.000

Grande

Mistral AI

Large (2407)

128.000

Grande

Mistral AI

Small (latest)

128.000

Piccolo

Modelli di Ragionamento

Alcuni modelli (come o1-preview e o1-mini) dispongono di capacità di reasoning avanzate. Questi modelli mostrano il loro processo di ragionamento solo nella scheda "Conversazioni" di default.

Questo comportamento predefinito è pensato per proteggere informazioni sensibili: il ragionamento può infatti esporre dati interni, logiche di elaborazione o contenuti che non dovrebbero essere visibili all'utente finale.

Per mostrare il ragionamento anche all'utente finale:

  1. Vai su Condividimi (nella barra laterale)

  2. Seleziona il layout che vuoi modificare (o creane uno nuovo)

  3. Nelle opzioni di configurazione del layout, attiva il flag "Mostra il ragionamento"

Con questa opzione attiva, il processo di reasoning sarà visibile direttamente nella conversazione con l'utente finale.

Supporto per immagini

I modelli contrassegnati con ✅ supportano l'analisi di immagini caricate dagli utenti durante la conversazione. Questa funzionalità permette all'Agente di:

  • Descrivere il contenuto di foto e screenshot

  • Rispondere a domande specifiche sulle immagini

  • Analizzare grafici, documenti o diagrammi

  • Identificare oggetti, persone o elementi visivi

Per utilizzare questa funzione, attiva il "Caricamento file" nel layout di condivisione.

Cosa è il contesto

Il contesto rappresenta il numero massimo di token che possiamo utilizzare in ogni richiesta (o domanda) fatta al modello linguistico. Per semplificare, possiamo dire che 1 token è uguale a 3,5 caratteri dell'alfabeto italiano.

Se non stai facendo esperimenti con istruzioni particolarmente lunghe o con le funzioni, non preoccuparti di questo valore.

Cosa è la grandezza?

La grandezza del modello indica su quanti dati è stato allenato un modello linguistico. Nella tabella troverai modelli:

  • Grandi -> allenati su una grande mole di dati, quindi:

    • Seguono meglio le istruzioni;

    • Danno risposte più accurate e precise;

    • Richiedono più tempo per rispondere alle domande;

    • Hanno un costo più elevato.

  • Piccoli -> allenati su una mole di dati più piccola, quindi:

    • Perfetti per attività piccole e semplici;

    • Richiedono meno tempo per rispondere alle domande;

    • Hanno un costo sensibilmente inferiore (sono perfetti per il fine-tuning).

Come scegliere il modello

La scelta del modello linguistico dipende da diversi fattori. In questa pagina troverai alcune indicazioni generiche, ma è necessario che sia tu a testare i diversi modelli con il tuo Agente: solo così potrai assicurarti che l'Agente si comporti correttamente in ogni attività.

Vediamo come selezionare il modello più adatto per ogni configurazione.

Configurazione per domande e risposte

Per le interazioni con gli utenti, considera questi aspetti:

  • Complessità delle risposte richieste:

    • Per risposte complesse e articolate: modelli grandi;

    • Per risposte semplici e dirette: modelli piccoli.

  • Budget:

    • Budget limitato: preferisci modelli piccoli;

    • Budget flessibile: puoi optare per modelli grandi.

  • Velocità di risposta necessaria:

    • Risposte immediate: modelli piccoli;

    • Maggiore accuratezza: modelli grandi.

Configurazione per import/export

Per l'importazione di documenti, considera:

  • Complessità dei documenti:

    • Documenti non strutturati: è necessario sfruttare i modelli più grandi;

    • Documenti ben strutturati: i modelli piccoli assicurano ottime performance.

  • Volume di documenti: se devi importare un grande numero di documenti, potresti usare un modello piccolo per abbassare i costi.

Configurazione per Pensiero Profondo

Per la gestione della memoria delle conversazioni, consigliamo sempre e solo l'utilizzo di un modello grande.

Last updated