Chatta GPT4
CasaCasa > Blog > Chatta GPT4

Chatta GPT4

Mar 10, 2023

OpenAI ha appena annunciato GPT-4. Il futuro potrebbe non essere ancora arrivato, ma è molto vicino. È davvero questo il momento della svolta per l’intelligenza artificiale?

GPT-4 è la versione successiva del Large Language Model creato da OpenAI. GPT-3 ha creato un bel polverone e GPT-4 sembra che continuerà il trambusto. Ciò che rende GPT-4 diverso da 3 è che ora è "multimodale": funzionerà con immagini e testo.

OpenAI sembra essere realistico riguardo alla sua nuova creazione:

"...pur essendo meno capace degli esseri umani in molti scenari del mondo reale, mostra prestazioni di livello umano su vari parametri di riferimento professionali e accademici."

Su questi benchmark fa molto meglio di GPT-3:

"Ad esempio, supera un esame di abilitazione simulato con un punteggio intorno al 10% più alto dei partecipanti al test; al contrario, il punteggio di GPT-3.5 era intorno al 10% più basso."

Non è stata fornita alcuna formazione specifica per gli esami e questa è un'indicazione di ciò che GPT-4 sa del mondo. Si tratta di un risultato positivo dato che entrambi i sistemi utilizzano lo stesso approccio generale. Tuttavia OpenAI riconosce che in un contesto più generale la differenza è sottile:

"In una conversazione casuale, la distinzione tra GPT-3.5 e GPT-4 può essere sottile. La differenza emerge quando la complessità dell'attività raggiunge una soglia sufficiente: GPT-4 è più affidabile, creativo e in grado di gestire molto di più istruzioni più sfumate rispetto a GPT-3.5."

Ciò non sorprende: un esperto che parla di cose di tutti i giorni non rivela molto della sua esperienza.

Dal punto di vista di OpenAi un importante passo avanti è la capacità di prevedere quanto migliorerà un modello dopo un dato periodo di addestramento.

E l'input visivo? GPT 4 può accettare suggerimenti in testo, immagini o una combinazione. Dagli esempi forniti sembra impressionante:

Riquadro 1: uno smartphone con un connettore VGA (un grande connettore blu a 15 pin generalmente utilizzato per i monitor dei computer) collegato alla porta di ricarica.

Pannello 2: la confezione dell'adattatore "Lightning Cable" con l'immagine di un connettore VGA su di esso.

Riquadro 3: un primo piano del connettore VGA con un piccolo connettore Lightning (utilizzato per caricare iPhone e altri dispositivi Apple) all'estremità.

L'umorismo in questa immagine deriva dall'assurdità di collegare un connettore VGA grande e obsoleto a una porta di ricarica per smartphone piccola e moderna.

A parte questo esempio, OpenAI non rivela molto sugli aspetti visivi di GPT 4 che non sarà reso generalmente disponibile se non più tardi. Se il comportamento del PaLM LLM di Google è qualcosa su cui basarsi, questa potrebbe essere la parte più interessante di GPT 4.

Ovviamente, essendo basato sullo stesso tipo di modello GPT 4 presenta tutti i problemi di GPT 3 e simili:

"Nonostante le sue capacità, GPT-4 presenta limitazioni simili ai precedenti modelli GPT. Soprattutto, non è ancora del tutto affidabile ("allucina" i fatti e commette errori di ragionamento). È necessario prestare molta attenzione quando si utilizzano gli output del modello linguistico, in particolare in contesti ad alto rischio, con il protocollo esatto (come la revisione umana, il radicamento con contesto aggiuntivo o l'evitare del tutto usi ad alto rischio) che soddisfano le esigenze di un caso d'uso specifico.

Nonostante si cerchi di mantenere le uscite corrette, questa è una vera limitazione di GPT 4 e modelli simili. È difficile evitare di selezionare cose sbagliate ma statisticamente plausibili. Questa è la sfida che i modelli successivi dovranno affrontare se vogliono essere utili al di fuori delle situazioni in cui sbagliare è semplicemente divertente o poco importante.

OpenAI prevede di rendere disponibile GPT4 il prima possibile:

Gli abbonati ChatGPT Plus avranno accesso GPT-4 su chat.openai.com con un limite di utilizzo. Adegueremo l'esatto limite di utilizzo in base alla domanda e alle prestazioni del sistema nella pratica, ma prevediamo di avere forti limitazioni di capacità (anche se aumenteremo e ottimizzeremo nei prossimi mesi).

Esiste anche un'API che addebiterà un intervallo di $ 0,03 per 1.000 token di richiesta e $ 0,06 per 1.000 token completi.