Altre impostazioni dell'IA generativa
Questa sezione ti guiderà attraverso le impostazioni avanzate che ti permetteranno di personalizzare il comportamento del tuo Agente, ottimizzando le sue risposte per le tue specifiche esigenze.
Impostazioni IA
Accedi alle impostazioni del tuo Agente e clicca su
IA per accedere all'apposita sezione. Da qui, puoi:
Attivare o disattivare Pensiero Profondo;
Modificare le istruzioni;
Cambiare i modelli IA usati dal tuo Agente.
Oltre a ciò, al di sotto del campo delle istruzioni, puoi trovare due opzioni:
All'interno della sezione "Impostazioni del provider" troverai anche:
Vediamole nel dettaglio 👇
Risponde sempre con IA generativa
Questa impostazione, se attiva, permette di rispondere sempre e solo con l'IA generativa: il tuo Agente non fornirà più le risposte in autonomia, ma le farà formulare al modello scelto (voce "Configurazione per domande e risposte").
L'Agente condividerà i contenuti più rilevanti con il modello linguistico scelto e il modello linguistico si occuperà di generare la risposta da dare all'utente. Questo ti permette di mantenere le risposte rilevanti e accurate senza, però, rinunciare alla personalizzazione!
Estrazione automatica dei media
Come hai visto nella sezione precedente, ai contenuti puoi aggiungere media e link.
Attivando questa opzione, il modello linguistico sarà in grado di leggere i titoli delle immagini e dei link associati ai contenuti più rilevanti e potrà mostrarli all'utente anche quando la risposta è stata generata dall'IA.
Se decidi di attivare questa opzione, assicurati di descrivere nel dettaglio i media dei tuoi contenuti.
🚨🧪 Questa funzionalità è attualmente in fase beta e potrebbe non funzionare correttamente.
Numero massimo di token
Questo parametro controlla la lunghezza massima di ogni risposta generata dall'IA.
In piattaforma, puoi selezionare un numero da 256 a 4000 token massimi per ogni risposta generata da IA (il valore predefinito è 512). Se utilizzi un modello che supporta un numero superiore di output token, puoi modificare questo valore via API.
Limite effettivo delle risposte
Il numero massimo di caratteri che un Agente può utilizzare nella sua risposta dipende dal modello linguistico scelto e dalle sue specifiche tecniche:
Modelli OpenAI (GPT-4o, GPT-4o Mini): fino a 16.384 token di output (~65.000 caratteri)
Modelli Anthropic (Claude 3.5 Sonnet, Claude 3.5 Haiku): fino a 8.192 token di output (~32.000 caratteri)
Modelli Mistral: fino a 8.192 token di output (~32.000 caratteri)
Importante: Il limite impostato in AIsuru (256-4000 token) agisce come filtro aggiuntivo rispetto al limite del modello. La lunghezza effettiva della risposta sarà determinata dal valore più basso tra:
Il limite impostato in AIsuru
Il limite massimo del modello scelto
Per convertire approssimativamente i token in caratteri: 1 token ≈ 4 caratteri per l'italiano.
Temperatura
La temperatura influenza la creatività delle risposte del tuo Agente. Si tratta di un numero che va da 0 (risposte più prevedibili e coerenti) a 1 (risposte meno prevedibili e più creative).
Quando crei un Agente ti consigliamo di impostare la temperatura a 0: otterrai più spesso risposte simili. Se, però, cerchi risposte più creative, puoi alzare gradualmente la temperatura.
Ottimizzazione delle impostazioni
Trovare la configurazione perfetta per il tuo Agente potrebbe richiedere alcune prove. Non esitare a sperimentare con queste impostazioni per raggiungere il giusto equilibrio tra accuratezza, creatività e performance.
Ogni progetto ha esigenze uniche. Usa queste potenti opzioni per modellare il tuo Agente e renderlo perfetto per il tuo caso d'uso specifico!
Last updated