Chatgpt, ecco il nuovo modello: parla con noi, anche gratis

O sta per omni: accetta come input qualsiasi combinazione di testo, audio e immagine e genera qualsiasi combinazione di testo, audio e immagine in uscita. È in grado di rispondere agli input audio in appena 232 millisecondi, con una media di 320 millisecondi, un tempo simile a quello di risposta umana (si apre in una nuova finestra) in una conversazione.

Rispetto al modello precedente, 4.0 Turbo, è due volte più veloce, costa la metà a OpenAI grazie alle efficienze raggiunte (e questo permetterà di abbattere prezzi ed estendere alcune funzioni a utenti gratuiti) e ha limiti di frequenza cinque volte più alti (parametro che indica la frequenza con cui gli utenti possono fare richieste al modello, per esempio, per generare testo, analizzare dati o interagire in altre modalità).

Parametro molto utile per gli sviluppatori e le aziende che utilizzano l’API di OpenAI: possono ora effettuare più richieste in meno tempo, migliorando l’efficienza e permettendo un uso più intensivo dell’intelligenza artificiale nelle loro applicazioni senza raggiungere rapidamente i limiti di utilizzo che potrebbero rallentare o interrompere i loro servizi.

Il nuovo modello ha anche migliorato la qualità e la velocità di ChatGpt per 50 lingue diverse e sarà disponibile anche tramite l’API di OpenAI, in modo che gli sviluppatori possano iniziare a costruire applicazioni utilizzando il nuovo modello oggi, ha detto Murati.

È stata mostrata anche una traduzione in tempo reale, dall’inglese all’italiano, che Murati sembra in grado di parlare. La voce artificiale nella nostra lingua è molto meno naturale di quella in inglese, ma ha funzionato.

Continua la lettura su: https://www.ilsole24ore.com/art/chatgpt-ecco-nuovo-modello-parla-noi-anche-gratis-AFRqmazD Autore del post: Il Sole24Ore Tecnologia Fonte: https://www.ilsole24ore.com/

Articoli Correlati

Chatgpt, ecco il nuovo modello: parla con noi, anche gratis

O sta per omni: accetta come input qualsiasi combinazione di testo, audio e immagine e genera qualsiasi combinazione di testo, audio e immagine in uscita. È in grado di rispondere agli input audio in appena 232 millisecondi, con una media di 320 millisecondi, un tempo simile a quello di risposta umana (si apre in una nuova finestra) in una conversazione.Rispetto al modello precedente, 4.0 Turbo, è due volte più veloce, costa la metà a OpenAI grazie alle efficienze raggiunte (e questo permetterà di abbattere prezzi ed estendere alcune funzioni a utenti gratuiti) e ha limiti di frequenza cinque volte più alti (parametro che indica la frequenza con cui gli utenti possono fare richieste al modello, per esempio, per generare testo, analizzare dati o interagire in altre modalità).Parametro molto utile per gli sviluppatori e le aziende che utilizzano l’API di OpenAI: possono ora effettuare più richieste in meno tempo, migliorando l’efficienza e permettendo un uso più intensivo dell’intelligenza artificiale nelle loro applicazioni senza raggiungere rapidamente i limiti di utilizzo che potrebbero rallentare o interrompere i loro servizi.Il nuovo modello ha anche migliorato la qualità e la velocità di ChatGpt per 50 lingue diverse e sarà disponibile anche tramite l’API di OpenAI, in modo che gli sviluppatori possano iniziare a costruire applicazioni utilizzando il nuovo modello oggi, ha detto Murati.È stata mostrata anche una traduzione in tempo reale, dall’inglese all’italiano, che Murati sembra in grado di parlare. La voce artificiale nella nostra lingua è molto meno naturale di quella in inglese, ma ha funzionato.

Vuoi rimanere aggiornato sulle nuove tecnologie per la Didattica e ricevere suggerimenti per attività da fare in classe?

Sei un docente?

soloscuola.it la prima piattaforma
No Profit gestita dai

Volontari Per la Didattica
per il mondo della Scuola. 

 

Tutti i servizi sono gratuiti. 

Associazione di Volontariato Koinokalo Aps

Ente del Terzo Settore iscritta dal 2014
Tutte le attività sono finanziate con il 5X1000