Altre impostazioni dell'IA generativa

Questa sezione ti guiderà attraverso le impostazioni avanzate che ti permetteranno di personalizzare il comportamento del tuo Agente, ottimizzando le sue risposte per le tue specifiche esigenze.

Impostazioni IA

Accedi alle impostazioni del tuo Agente e clicca su IA per accedere all'apposita sezione. Da qui, puoi:

  1. Attivare o disattivare Pensiero Profondo;

  2. Modificare le istruzioni;

  3. Cambiare i modelli IA usati dal tuo Agente.

Oltre a ciò, al di sotto del campo delle istruzioni, puoi trovare due opzioni:

All'interno della sezione "Impostazioni del provider" troverai anche:

Vediamole nel dettaglio 👇

Risponde sempre con IA generativa

Questa impostazione, se attiva, permette di rispondere sempre e solo con l'IA generativa: il tuo Agente non fornirà più le risposte in autonomia, ma le farà formulare al modello scelto (voce "Configurazione per domande e risposte").

L'Agente condividerà i contenuti più rilevanti con il modello linguistico scelto e il modello linguistico si occuperà di generare la risposta da dare all'utente. Questo ti permette di mantenere le risposte rilevanti e accurate senza, però, rinunciare alla personalizzazione!

L'IA generativa potrebbe fornire risposte errate. Assicurati di testare ogni scenario di utilizzo del tuo Agente per assicurarti che continui a rispondere correttamente.

Estrazione automatica dei media

Come hai visto nella sezione precedente, ai contenuti puoi aggiungere media e link.

Attivando questa opzione, il modello linguistico sarà in grado di leggere i titoli delle immagini e dei link associati ai contenuti più rilevanti e potrà mostrarli all'utente anche quando la risposta è stata generata dall'IA.

Se decidi di attivare questa opzione, assicurati di descrivere nel dettaglio i media dei tuoi contenuti.

🚨🧪 Questa funzionalità è attualmente in fase beta e potrebbe non funzionare correttamente.

Numero massimo di token

Questo parametro controlla la lunghezza massima di ogni risposta generata dall'IA.

In piattaforma, puoi selezionare un numero da 256 a 4000 token massimi per ogni risposta generata da IA (il valore predefinito è 512). Se utilizzi un modello che supporta un numero superiore di output token, puoi modificare questo valore via API.

Non tutti i modelli supportano un numero elevato di output token. Se utilizzi la tua chiave API, assicurati di controllare il numero massimo di output token.

Limite effettivo delle risposte

Il numero massimo di caratteri che un Agente può utilizzare nella sua risposta dipende dal modello linguistico scelto e dalle sue specifiche tecniche:

  • Modelli OpenAI (GPT-4o, GPT-4o Mini): fino a 16.384 token di output (~65.000 caratteri)

  • Modelli Anthropic (Claude 3.5 Sonnet, Claude 3.5 Haiku): fino a 8.192 token di output (~32.000 caratteri)

  • Modelli Mistral: fino a 8.192 token di output (~32.000 caratteri)

Per convertire approssimativamente i token in caratteri: 1 token ≈ 4 caratteri per l'italiano.

Temperatura

La temperatura influenza la creatività delle risposte del tuo Agente. Si tratta di un numero che va da 0 (risposte più prevedibili e coerenti) a 1 (risposte meno prevedibili e più creative).

Quando crei un Agente ti consigliamo di impostare la temperatura a 0: otterrai più spesso risposte simili. Se, però, cerchi risposte più creative, puoi alzare gradualmente la temperatura.

Ottimizzazione delle impostazioni

Trovare la configurazione perfetta per il tuo Agente potrebbe richiedere alcune prove. Non esitare a sperimentare con queste impostazioni per raggiungere il giusto equilibrio tra accuratezza, creatività e performance.

Ogni progetto ha esigenze uniche. Usa queste potenti opzioni per modellare il tuo Agente e renderlo perfetto per il tuo caso d'uso specifico!

Last updated