No, questo non è il classico articolo su ChatGPT. Ormai la conosciamo tutti!
Oggi ho deciso di scrivere questo articolo con l’intento di colmare quel gap informativo che sta alla base del funzionamento di GPT-3, il modello di NLP più avanzato di sempre.
Parleremo di OpenAi e degli strumenti che ha sviluppato per sfruttare al meglio la GPT-3, esploreremo ChatGPT, la piattaforma web Playground e le API, vedremo nel dettaglio cosa sono i Prompts, come strutturarli correttamente e come vengono interpretati per generare le Completions, parleremo di Tokens e Meta-Learning… L’elenco degli argomenti trattati non finisce qui, se queste sono le informazioni che cerchi, prenditi 10 minuti del tuo tempo e continua nella lettura!
Leggi anche: OpenAI: inizia il supporto per i plugin in ChatGPT
Leggi anche: GPT-4: La nuova generazione di intelligenza artificiale
Leggi anche: GPT-5: verso l’intelligenza artificiale generale entro il 2023?
Partiamo dalle basi: che cos’è OpenAi?
OpenAI è una delle aziende più interessanti del momento, fondata da una delle menti più brillanti del nostro tempo, Elon Musk.
Il suo obiettivo è quello di utilizzare l’intelligenza artificiale per analizzare e comprendere il testo scritto dagli umani, con l’obiettivo di creare una macchina che possa “leggere” e “capire” il testo in modo autonomo.
Con l’utilizzo di complessi algoritmi di machine learning, OpenAI è in grado di elaborare grandi quantità di testo e comprenderne il significato, permettendoci di chiedere alla macchina di rispondere a domande o di generare testi originali su un determinato argomento.
Lo strumento più popolare di OpenAI è ChatGPT che utilizza l’algoritmo GPT-3 per generare conversazioni simili a quelle umane.
GPT-3: informazioni preliminari
OpenAI mette a disposizione diversi strumenti per poter utilizzare GPT-3, tra cui ChatGPT, Playground e l’API.
ChatGPT è un’interfaccia web semplice e intuitiva che permette di interagire con GPT-3 in modo interattivo, rendendo l’utilizzo dell’intelligenza artificiale accessibile anche ai non esperti del settore.
Playground è un’altra interfaccia web che consente di sperimentare con GPT-3 in modo interattivo, fornendo un ambiente di prova per testare e ottimizzare i prompts.
L’API di OpenAI consente invece agli sviluppatori di integrare GPT-3 nei loro progetti, permettendo loro di accedere alle funzionalità di GPT-3 in modo programmatico attraverso un’interfaccia di programmazione.
Come Utilizzare gli strumenti di OpenAi
Per utilizzare gli strumenti di OpenAI bisogna registrarsi sulla piattaforma.

La procedura di registrazione è molto semplice:
- Visitare sito web di OpenAI e creare un account gratuito.
- Verificare la propria email e accedere al proprio account.
- Fare clic sul pulsante “Get API Key” nella sezione “API” del proprio account.
- Accettare i termini di servizio e le condizioni d’uso.
- La chiave API verrà generata automaticamente e potrà essere utilizzata per accedere ai servizi di GPT-3 di OpenAI, come Playground e l’API.
L’API Key ci permetterà di utilizzare le API per accedere ai modelli e creare le proprie applicazioni.
È importante notare che l’utilizzo delle API non è gratuita, infatti per ogni “chiamata” che facciamo paghiamo una piccola somma di denaro, ma di questo ne parleremo nel prossimo paragrafo quando vedremo cosa sono i Tokens.
I Tokens: cosa sono e come funzionano
Per capire cosa sono i tokens, immagina di avere un libro con tutte le parole che esistono al mondo. Ogni parola in quel libro ha un codice univoco assegnato da OpenAI e quel codice è chiamato Token. Quando il modello genera il testo, utilizza questi token come “mattoni” per costruire frasi e paragrafi.
I token vengono utilizzati sia per la generazione di testo che per la comprensione del testo, più token si utilizzano e più preciso e dettagliato sarà il testo generato.
Ogni volta che si utilizza l’API, si consumano token. Il numero di token utilizzati dipende dalla quantità e dalla complessità del Prompt e della Completion (termini che analizzeremo nel dettaglio più avanti).
Per quanto riguarda i costi dell’utilizzo dei token, i prezzi variano in base al modello scelto. OpenAI offre vari modelli di linguaggio, tra cui Ada, Babbage, Curie e Davinci, ciascuno con caratteristiche e prezzi diversi. (Anche di questo ne parliamo più avanti)
Come vedremo, la scelta del modello giusto, cioè quello che è in grado di risolvere il nostro task più velocemente e al minor costo possibile, ci permetterà utilizzare meno token per generare frasi e paragrafi più complessi. Ciò significa che il numero di token utilizzati non è sempre una misura precisa della lunghezza del testo generato.
Nel momento in cui scrivo, i prezzi esatti per ogni modello sono:
Modello | Prezzo per 1K tokens |
---|---|
Ada | $0.0004 |
Babbage | $0.0005 |
Curie | $0.0020 |
Davinci | $0.0200 |
Comprendere i prompt
Fin qui abbiamo parlato di Token e abbiamo accennato al fatto che esistono differenti Modelli (chiamati anche Engines) che hanno costi differenti per il loro utilizzo. Ora è arrivato il momento di parlare di un argomento “caldo” che genera molto interesse negli utilizzatori incalliti di ChatGPT.
La domanda frequente che mi viene posta è: “Come si costruiscono correttamente i Prompt?”. Per rispondere a questa domanda, partiamo dall’analizzare che cosa sono.
I prompts sono il modo in cui si fa fare a GPT-3 ciò che si desidera. Sono un insieme di testo che fornisce un contesto per GPT-3 per generare una risposta pertinente.
Le Tipologie di prompt
1.- Zero-shot prompts:
Una delle caratteristiche più interessanti di GPT-3 è la sua capacità di eseguire compiti senza bisogno di esempi, questo è noto come “zero-shot approach“.
Utilizzando questo approccio è possibile creare Prompt per svolgere diverse attività come riassumere un testo, generare tag, analizzare l’emozione del testo, categorizzare una storia o tradurre una frase in un’altra lingua.
Traduzione
Per esempio, per generare un riassunto di un testo mediante l’utilizzo di TL;DR, è possibile utilizzare il seguente prompt:
"Testo: Il giorno del mio compleanno è stato meraviglioso, ho ricevuto molti regali e ho trascorso del tempo con la mia famiglia. TL;DR:
Ecco l’output:
Ho trascorso un meraviglioso compleanno con la mia famiglia e ho ricevuto molti regali.
Tags
Poiché GPT-3 comprende l’aspetto di un post di un blog o di un articolo, è sufficiente aggiungere “Tags:” dopo il testo per ottenere un elenco di tag da utilizzare, per esempio, su WordPress.
Ecco un esempio:

– generazione Tag per wordpress
Text Sentiment
Il sentiment del testo è qualcosa che per GPT-3 non richiede alcun esempio per essere compreso. La creazione di un prompt per l’analisi del sentiment è semplice come la scrittura:

Categorizzazione
È possibile far sì che GPT-3 applichi una categoria al testo utilizzando un Prompt come questo:

Risposta alle domande
Tutto ciò che serve per far sì che GPT-3 risponda a un questionario è scriverlo in un formato che riconosce:

Traduzione linguistica
GPT-3 comprende diverse lingue. Per ottenere traduzioni semplici, è sufficiente utilizzare un prompt come questo:

2.- One-shot prompts
Sono prompt che richiedono un solo input addizionale. Ad esempio, un prompt per generare una descrizione di un’immagine, in cui l’input addizionale è l’immagine stessa.
3.- Few-shot prompts: sono prompt che richiedono più input addizionali. Ad esempio, un prompt per generare una descrizione di un’immagine, in cui l’input addizionale sono l’immagine e una descrizione della scena.
Per ottenere i migliori risultati, è importante capire come scrivere i prompts efficaci, che comprendono istruzioni e esempi per dare un contesto al modello. Inoltre, la qualità del testo del prompt è importante, come l’ortografia, la chiarezza e il numero di esempi forniti influiscono sulla qualità del completamento.
Bisogna anche tenere in considerazione la dimensione del prompt che deve essere inferiore a 2048 token.
Nota: Se vuoi aproffondire l’argomento, OpenAi mette a disposizione la documentazione ufficiale con esempi pratici
Progettazione avanzata di prompt per GPT-3
La progettazione avanzata di prompt per GPT-3 consiste nel creare un prompt che sia in grado di mostrare chiaramente a GPT-3 cosa si vuole che faccia e come eseguirlo, utilizzando un elenco di input.
Ad esempio, per classificare il sentimento di un testo con un’emoji, un semplice Prompt potrebbe essere fornire al modello alcuni esempi di testo da classificare e mostrargli come fare, quindi fornirgli un esempio incompleto che GPT-3 dovrebbe completare seguendo il pattern precedente.
Tuttavia, per elaborare grandi quantità di testo o lavorare con batch di input, è possibile creare un Prompt più complesso che insegni chiaramente a GPT-3 come eseguire il compito, il contenuto su cui eseguirlo e come elaborare gli input.
Questo tipo di progettazione avanzata dei Prompt può rendere GPT-3 fino a 20 volte più efficiente rispetto ai semplici Prompt.
In questo caso si tratta di convertire il testo in emoji. Per questo possiamo utilizzare l’esempio precedente. Aggiungerò anche un titolo per aiutarlo a svolgere il compito:
Da testo a emoji
Testo: È fantastico!
Emoji: 🤗
Testo: Sono uscito con i miei amici.
Emoji: 👯
Testo: Alla fine ho fatto finta di niente.
Emoji: 🤷♀️
Poi aggiungeremo un separatore, scriveremo la parola “Testo” e daremo a GPT-3 un elenco di frasi numerate seguite dalla parola “Emoji” e dal numero 1 per iniziare un elenco.
Da testo a emoji
Testo: È fantastico!
Emoji: 🤗
Testo: Sono uscito con i miei amici.
Emoji: 👯
Testo: Alla fine ho fatto finta di niente.
Emoji: 🤷♀️
###
Testo:
1. “Ho amato Godzilla vs. Kong!”.
2. “Il mio vecchio portatile è troppo lento”
3. “La colazione era ok”
4. “Quel video su YouTube mi ha fatto impazzire”.
5. “Non vedo l’ora che arrivi il dessert”.
6. “Il mio gatto vuole dei calzini per Natale”.
7. “Vuoi un gelato?”.
8. “Ho speso troppi soldi al centro commerciale”.
9. “Sta piovendo”.
10. “Domani andiamo in spiaggia”.
Emoji:
1.
Quando chiediamo un completion, GPT-3 è in grado di capire il compito dell’esempio precedente e di applicarlo alla nostra lista di frasi:
Emoji:
1. 🤗
2. 😭
3. 😐
4. 😱
5. 😋
6. 😕
7. 🍦
8. 💸
9. 🌧
10. 🌊
Come si può vedere, GPT-3 è stato in grado di applicare ciò che ha appreso dal primo esempio a un elenco di dieci frasi senza dover fornire testo descrittivo aggiuntivo o effettuare più chiamate API. In questo esempio gli abbiamo fatto creare solo dieci risposte, ma è in grado di farne molte di più.
In questo esempio, GPT-3 è in grado di capire chiaramente cosa deve fare (classificare il sentimento di ogni frase) e come farlo (aggiungendo l’emoji appropriata), e può elaborare più input dell’utente in modo efficiente.
Vediamo come funziona: Gli abbiamo insegnato a eseguire un compito utilizzando un metodo descrittivo per definire l’input (il testo) e l’obiettivo (un’emoji) e poi gli abbiamo mostrato come applicarlo a un elenco, in modo da non dover continuare a inviare la richiesta all’API per ogni elemento.
Quando è necessario elaborare grandi quantità di dati, questo approccio può aiutare a farlo in modo più efficiente. L’ho testato con l’estrazione di punti chiave, l’etichettatura di parole e il riassunto, oltre ad altri compiti.
Nel capitolo che segue analizzeremo un concetto molto importante che differenzia GPT-3 da altri modelli di NLP e che ti daranno ulteriori spunti per creare Prompt più strutturati.
Potrebbe interessarti: “Jasper Ai: come funziona e come usarlo“.
Completions e Meta-Learning
I completions sono il testo generato dal modello di linguaggio come risultato del prompt/ingresso fornito. Ad esempio, se si fornisce al modello un prompt come “Il cane correva felice”, GPT-3 utilizzerà la sua comprensione generale del linguaggio per generare un completamento della frase come “Il cane correva felice nei campi verdi”.
La funzione di completamento di OpenAI è un po’ diversa rispetto ai sistemi di NLP tradizionali.
Nella maggior parte dei sistemi NLP i dati utilizzati per insegnare al sistema come completare un compito sono forniti dal sistema di Machine Learning sottostante. Quindi, per migliorare i risultati di un determinato compito, è necessario aggiornare l’addestramento sottostante e costruire una nuova versione del modello.
GPT-3, invece, è stato progettato in modo diverso, parliamo di un sistema general-purpose, cioè che non è stato addestrato per un compito preciso ma piuttosto è stato progettato per riconoscere i pattern presenti nel testo del prompt.
Questo approccio viene definito Meta-Learning, perché il prompt viene usato per insegnare a GPT-3 come generare la migliore Completion possibile, senza bisogno di riaddestramento.
Introduzione ai modelli: Davinci, Babbage, Curie e Ada
E’ giunto il momento di entrare più nel dettaglio dei Modelli che OpenAI ci mette a disposizione, parliamo di: Davinci, Babbage, Curie e Ada.
Davinci è il modello più potente e sofisticato, in grado di generare testo molto preciso e dettagliato. È il modello ideale per compiti di generazione di testo avanzati, come la scrittura di articoli, la creazione di chatbot e l’elaborazione di testo in linguaggio naturale. È il più costoso tra i modelli offerti e può processare fino a 4000 Token.
Del modello Davinci sono disponibili due versioni: text-davinci-002 e text-davinci-003. La principale differenza tra i due modelli è la potenza computazionale.
Text-davinci-002 è un modello più vecchio (aggiornato al 2019) e meno potente rispetto a text-davinci-003. Text-davinci-003 è stato addestrato con un set di dati più grande e più recente (aggiornato al 2021), rendendolo più preciso e dettagliato nel generare testo.
In generale, text-davinci-003 è considerato il modello più avanzato e sofisticato tra i due, ma entrambi i modelli sono in grado di generare testo di alta qualità.
Babbage è un modello di generazione di testo più potente rispetto ad Curie, ma meno potente rispetto a Davinci. È ideale per compiti di generazione di testo di medio livello, come la creazione di risposte automatiche per un chatbot o la generazione di risposte a domande in un Q&A.
Curie è un modello di generazione di testo meno potente rispetto a Babbage, ma più potente rispetto ad Ada. È ideale per compiti di generazione di testo di base, come la generazione di risposte automatiche o la creazione di sommari di testo.
Ada è il modello di generazione di testo più veloce, ma meno potente rispetto agli altri modelli. È ideale per compiti di generazione di testo di base e per l’uso in ambienti con limitazioni di tempo o di potenza di elaborazione.
In generale, più potente è il modello, più preciso e dettagliato sarà il testo generato, ma anche più costoso sarà l’utilizzo di quel modello.
Come abbiamo visto, OpenAI offre diversi modelli di GPT-3, ognuno dei quali è stato addestrato per essere utilizzato in modo specifico. I modelli principali sono progettati per essere utilizzati con l’endpoint di completamento del testo.
Inoltre, OpenAI offre anche modelli specifici per essere utilizzati con altri endpoint, per esempio per la creazione di embedding.
L’embedding è un processo di rappresentazione di dati che consiste nella trasformazione di elementi di dati (come parole o immagini) in una rappresentazione numerica adatta per l’elaborazione da parte di un algoritmo di intelligenza artificiale. Questo processo consente ai modelli di elaborare e comprendere i dati in modo più efficiente.
I Content Filtering Model e gli Instruct Models
I Content Filtering Model e gli Instruct Models sono entrambi tipi di modelli di linguaggio offerti da OpenAI che possono essere utilizzati per generare testo preciso e dettagliato.
I Content Filtering Model sono modelli di linguaggio progettati per filtrare il contenuto indesiderato da un testo generato. Ad esempio, un modello di filtraggio dei contenuti potrebbe essere utilizzato per rimuovere il linguaggio offensivo o inappropriato da un testo generato automaticamente da un chatbot. Oppure potrebbe essere utilizzato per rimuovere informazioni sensibili da un documento generato automaticamente.
Gli Instruct Models, invece, sono modelli di linguaggio progettati per generare istruzioni precise e dettagliate. Ad esempio, un Instruct Model potrebbe essere utilizzato per generare istruzioni per la riparazione di un dispositivo elettronico o per generare istruzioni per la preparazione di una ricetta. Gli Instruct Models sono particolarmente utili in ambito industriale e meccanico per generare manuali tecnici.
In generale, i Content Filtering Model e gli Instruct Models sono entrambi utili per generare testo preciso e dettagliato in situazioni specifiche e sono progettati per soddisfare esigenze specifiche in ambiti diversi.
Playground
Parliamo adesso del più incompreso degli strumenti di OpenAi, Playground.
Playground (come anche chatGPT, sono entrambi basati sull’API di OpenAI, ma offrono funzionalità e opzioni di utilizzo diverse.
Playground è un’interfaccia web che consente di interagire con il modello di linguaggio GPT-3 di OpenAI in modo interattivo e, a differenza di ChatGPT, espone dei parametri avanzati che permettono di “tarare” l’output della Completion. Tale procedimento viene definito fine-tuning.
A mio parere è uno strumento più avanzato perché offre la possibilità di fare Fine-tuning dei prompt e recuperare il codice da utilizzare nello sviluppo di un applicazione (Puoi vedere il codice tramite il pulsante “View code)
Ciò significa che gli sviluppatori possono utilizzare Playground per configurare il modello GPT-3 in base alle loro esigenze, quindi recuperare il codice per replicare la stessa configurazione nella loro applicazione.
Playground può essere utile agli sviluppatori in diversi modi:
- Testare l’accuratezza del modello: gli sviluppatori possono utilizzare Playground per generare testo e verificare l’accuratezza del modello. Questo può aiutare gli sviluppatori a capire meglio come il modello funziona e identificare eventuali problemi.
- Sviluppo di applicazioni: gli sviluppatori possono utilizzare Playground per generare testo di prova e utilizzarlo per sviluppare e testare le loro applicazioni.
- Fine tuning: gli sviluppatori possono utilizzare Playground per addestrare il modello GPT-3 utilizzando i propri dati. Ciò consente di adattare il modello alle esigenze specifiche dell’applicazione e migliorare la qualità del testo generato.
- Sperimentazione: Playground offre un gran numero di parametri di configurazione, gli sviluppatori possono sperimentare con differenti configurazioni per ottenere i migliori risultati per le loro esigenze.
La fase di configurazione dei modelli GPT-3 è un requisito essenziale per un funzionamento ottimale. Playground semplifica il processo di configurazione e valutazione, consentendo agli sviluppatori di creare applicazioni di successo con rapidità. L’uso di Playground aiuta gli sviluppatori a risparmiare tempo e denaro, ottenendo prestazioni superiori!
I parametri di settaggio disponibili in Playground sono:
- Temperature: un valore compreso tra 0 e 1 che controlla la creatività del modello nella generazione del testo. Più alto è il valore, più creativo sarà il testo generato.
- Maximum length: la lunghezza massima del testo generato.
- Stop sequences: una sequenza di caratteri che indica al modello quando interrompere la generazione del testo.
- Enter sequence: una sequenza di caratteri che indica al modello di creare una nuova riga.
- Top P: un valore compreso tra 0 e 1 che controlla la probabilità di selezionare una determinata parola durante la generazione del testo.
- Frequency penalty: un valore che controlla la penalità per le parole poco frequenti nella generazione del testo.
- Presence penalty: un valore che controlla la penalità per le parole non presenti nei dati di addestramento.
- Best of: Il numero di completamenti da generare per ogni prompt.
- Inject start text: testo da inserire prima del prompt.
- Inject restart text: testo da inserire per far ripartire la generazione del testo.
- Show probabilities: indica se mostrare o meno le probabilità delle parole generate.
L’API di OpenAi: Metodi ed esempi di codice
L’API di OpenAI espone diversi metodi per l’utilizzo dei suoi modelli di intelligenza artificiale. Di seguito ti elenco alcuni dei metodi principali e una breve descrizione di ciò che fanno:
completions.create()
: questo metodo consente di generare completamenti di un testo in base a un modello di intelligenza artificiale di OpenAI.davinci.create()
: questo metodo consente di generare testo in stile umano utilizzando il modello di intelligenza artificiale di OpenAI chiamato “Davinci”.babbage.create()
: questo metodo consente di generare risposte a domande in formato testuale utilizzando il modello di intelligenza artificiale di OpenAI chiamato “Babbage”.curie.create()
: questo metodo consente di generare risposte a domande in formato testuale utilizzando il modello di intelligenza artificiale di OpenAI chiamato “Curie”.engines.list()
: questo metodo consente di ottenere un elenco di tutti i modelli di intelligenza artificiale disponibili attraverso l’API di OpenAI.models.list()
: questo metodo consente di ottenere un elenco di tutti i modelli di intelligenza artificiale disponibili per un determinato motore.models.info()
: questo metodo consente di ottenere informazioni dettagliate su un modello di intelligenza artificiale specifico, come la descrizione, la dimensione del modello e le lingue supportate.status()
: questo metodo consente di ottenere informazioni sullo stato attuale dell’API di OpenAI.
Questi sono solo alcuni dei metodi disponibili nell’API di OpenAI, ci sono anche altri metodi per l’autenticazione e la gestione delle chiavi API, nonché metodi per l’utilizzo di alcuni dei modelli più recenti come GPT-3. Ti consiglio di consultare la documentazione ufficiale di OpenAI per ulteriori informazioni sui metodi disponibili e su come utilizzarli: https://beta.openai.com/docs/api-reference/introduction.
Come Utilizzare l’API di OpenAI
Arrivati a questo punto ti starai chiedendo come poter utilizzare i metodi sopra elencati. Ecco come utilizzare l’API di OpenAI tramite richieste HTTP da qualsiasi linguaggio, utilizzando i binding ufficiali Python, la libreria ufficiale Node.js o una libreria gestita dalla comunità.
Per installare i binding ufficiali Python, è sufficiente eseguire il seguente comando:
pip install openai
Per installare la libreria ufficiale Node.js, è sufficiente eseguire il seguente comando nella directory del tuo progetto Node.js:
npm install openai
Per quanto riguarda l’autenticazione, l’API di OpenAI utilizza le chiavi API per l’autenticazione. è necessario visitare la propria pagina delle chiavi API per recuperare la chiave API che utilizzerai nelle tue richieste. E’ importante non condividere la chiave con altri o esponerla in alcun codice lato client (browser, app). Le richieste di produzione devono essere indirizzate attraverso il proprio server back-end in cui la chiave API può essere caricata in modo sicuro da una variabile ambientale o da un servizio di gestione delle chiavi. Tutte le richieste API devono includere la chiave API nell’intestazione HTTP di autorizzazione come segue:
Authorization: Bearer YOUR_API_KEY
Ecco un esempio di chiamata al metodo completions.create()
utilizzando Python e l'API di OpenAI:
import openai_secret_manager import openai # Recupera le credenziali dell'API secrets = openai_secret_manager.get_secrets("openai") # Configura l'autenticazione openai.api_key = secrets["api_key"] # Il testo di partenza da completare prompt = (f"In che modo l'intelligenza artificiale può essere utilizzata per ") # Chiamiamo il metodo completions.create() per generare il completamento del testo completions = openai.Completion.create( engine="text-davinci-002", prompt=prompt, max_tokens=1024, n=1, stop=None, temperature=0.5, ) # Stampa il completamento generato print(completions.choices[0].text)
In questo esempio, utilizziamo l’autenticazione delle chiavi API per accedere all’API di OpenAI, quindi specifichiamo il modello text-davinci-002 per generare il completamento del testo.
Il testo di partenza da completare è “In che modo l’intelligenza artificiale può essere utilizzata per” e specifichiamo di generare una sola risposta con un massimo di 1024 token e una temperatura di 0.5.
Il metodo restituisce un oggetto Completion che contiene una lista di scelte, ognuna delle quali rappresenta un completamento possibile del testo, nell’esempio utilizziamo la prima scelta per stampare il completamento generato.
Se vuoi mostrare il testo del completamento generato all’interno di una pagina HTML, puoi utilizzare il modello di intelligenza artificiale per generare il testo e quindi inserirlo in un elemento HTML specifico utilizzando JavaScript.
Ecco un esempio di come potresti farlo:
- Utilizzare il codice Python che ti ho fornito nel mio ultimo messaggio per generare il completamento del testo.
- Utilizzare il metodo
fetch()
di JavaScript per recuperare il completamento generato dall’API di OpenAI.
fetch("https://api.openai.com/v1/engines/davinci/completions", { method: "POST", headers: { "Content-Type": "application/json", "Authorization": `Bearer ${secrets.api_key}` }, body: JSON.stringify({ prompt: prompt, max_tokens: 1024, n: 1, stop: null, temperature: 0.5 }) })
- Utilizzare il metodo
then()
per ottenere la risposta del server e convertirla in un oggetto JSON
.then(response => response.json())
- Utilizzare il metodo
then()
per accedere al testo del completamento generato e inserirlo all’interno di un elemento HTML specifico utilizzando il metodoinnerHTML
.
.then(data => { let completamento = data.choices[0].text; document.getElementById("completamento").innerHTML = completamento; });
- Inserire un elemento HTML vuoto nel tuo codice HTML in cui verrà inserito il testo del completamento generato.
<div id="completamento"></div>
Questo è solo un esempio generale, potresti avere bisogno di modificare il codice per adattarlo alle tue esigenze specifiche.
Ti consiglio di consultare la documentazione di JavaScript per ulteriori informazioni su come utilizzare il metodo fetch()
e su come manipolare gli elementi HTML.
Conclusioni
In conclusione, OpenAI Playground e ChatGPT ci offrono la possibilità di sperimentare con l’intelligenza artificiale e generare contenuti di alta qualità in modo facile e intuitivo. In un certo senso, è si tratta di una democratizzazione dell’intelligenza artificiale.
Parlando di futuro, non possiamo non menzionare l’uscita di GPT-4, la nuova release che promette di essere 100 volte più potente rispetto a GPT-3.
Con un numero maggiore di parametri e una maggiore autonomia, GPT-4 potrebbe diventare una vera e propria rivoluzione per tante realtà. Siamo solo agli esordi, non possiamo che aspettare con ansia di vedere cosa ci riserva questa nuova generazione di tecnologia.