La nuova libreria di immagini in ChatGPT

OpenAI ha aggiunto una funzionalità a ChatGPT: una libreria di immagini integrata direttamente nell’interfaccia della chat. Questo strumento consente di visualizzare, gestire e riutilizzare facilmente le immagini generate dall’intelligenza artificiale, offrendo un’esperienza molto più agevole e organizzata per chi lavora o sperimenta con contenuti visivi.

Se avete già abilitato il modello GPT-4o in ChatGPT, probabilmente avrete notato una nuova funzionalità nella barra laterale sinistra dello schermo, subito sotto l’opzione “Esplora GPT”. Questa è la scorciatoia per la nuova Libreria immagini. Cliccandoci sopra si aprirà una galleria di tutte le immagini che avete generato nelle vostre sessioni recenti.

Ogni immagine appare in ordine cronologico inverso, ovvero vedrete prima quelle più recenti. Selezionando un’immagine, questa si apre in un visualizzatore più grande, con frecce che consentono di navigare nella raccolta. In questo modo, potete recuperare le vostre creazioni senza dover rintracciare lunghe conversazioni o rigenerare le immagini da zero.

Avrete la possibilità di modificare un’immagine già generata, cosa molto utile se si vogliono apportare piccole variazioni senza dover partire da zero. Immaginate di aver creato un’illustrazione in stile fumetto di un paesaggio futuristico e di voler provare un’angolazione o un’illuminazione diversa: potete usare quell’immagine come punto di partenza e apportare modifiche direttamente dalla libreria.

Non tutte le immagini generate in ChatGPT vengono automaticamente memorizzate in questa libreria. Al momento vengono salvate solo le immagini generate direttamente nelle conversazioni standard con il modello GPT-4o . Le immagini create con versioni precedenti del motore DALL·E o tramite GPT personalizzati non verranno visualizzate qui.

Un’altra cosa da tenere a mente è che non è possibile eliminare una singola immagine dalla libreria . Per eliminare un’immagine, è necessario eliminare l’intera conversazione in cui è stata generata. Questo può risultare poco pratico, soprattutto se si utilizza la cronologia per rivedere i processi creativi o ripetere determinati prompt. Anche archiviare la conversazione non serve a nulla: l’immagine sarà comunque visibile nella tua galleria.

Le capacità di imaging sono state notevolmente migliorate con il nuovo modello GPT-4o. Le immagini sono più dettagliate, realistiche e visivamente sbalorditive. Ma man mano che questa funzionalità diventa più potente, aumenta anche il volume delle immagini prodotte dagli utenti. Il problema era che, fino ad ora, ogni immagine era “sepolta” all’interno di una conversazione, senza un modo diretto per trovarla o riutilizzarla senza scavare nella cronologia. La nuova libreria cambia tutto, diventando uno spazio centralizzato in cui visualizzare, modificare e organizzare le vostre creazioni .

È come passare dall’avere le tue foto sparse sul telefono all’averle tutte ordinatamente organizzate in una cartella della galleria, con miniature visibili e accesso rapido.

 

 

 

Continua la lettura su: http://www.robertosconocchini.it/intelligenza-artificiale/9116-la-nuova-libreria-di-immagini-in-chatgpt.html Autore del post: Maestro Roberto Fonte: https://www.robertosconocchini.it/

Articoli Correlati

Coding: OpenAI Codex 2025 e la transizione verso team ibridi

Il nuovo OpenAI Codex presentato il 17 maggio 2025 è un agente di programmazione autonomo integrato in ChatGPT. Si tratta di un sistema di AI avanzato per la scrittura di codice, descritto come l’agente di coding più potente finora disponibile.Indice degli argomenti
Caratteristiche principali di OpenAI Codex 2025Diversamente dal semplice modello di completamento codice lanciato nel 2021 (che aveva lo stesso nome), questa nuova versione di Codex è un “software engineering agent” cloud-based in grado di operare in parallelo su più task di sviluppo. In pratica, Codex funge da “collega virtuale” per gli ingegneri del software, capace di collaborare su compiti complessi e prolungati e non solo di rispondere a domande immediate.Al momento l’azienda americana ha rilasciato Codex in modalità research preview (anteprima di ricerca), inizialmente ai soli abbonati ChatGPT di livello Pro, Team ed Enterprise, con l’intenzione di estenderlo successivamente anche agli utenti Plus ed Edu.Codex opera tramite l’interfaccia di ChatGPT, in particolare attraverso una barra laterale dedicata. L’utente può assegnare un nuovo compito di programmazione descrivendolo in linguaggio naturale e cliccando su “Code” (per far scrivere/eseguire codice) oppure fare domande sul codice cliccando “Ask”. Ogni richiesta viene gestita in modo isolato all’interno di un ambiente cloud sandbox: Codex clona il repository di codice pertinente (tramite integrazione con GitHub) e carica i file in un ambiente virtuale sicuro, configurato per rispecchiare il setup di sviluppo reale dell’utente. All’interno di questa sandbox, Codex può leggere e modificare file, oltre a eseguire comandi (per fare qualche esempio: lanciare test, compilatori o altri tool).Tecnologie e modello alla base di OpenAI CodexDal punto di vista dell’IA, Codex è alimentato dal modello “codex-1”, una variante specializzata del più potente modello di ragionamento di OpenAI o3, ottimizzata specificamente per compiti di ingegneria del software. I ricercatori hanno addestrato questo modello tramite tecniche di Reinforcement Learning su attività di coding reali per produrre codice aderente alle istruzioni fornite e agli standard di stile dei programmatori umani.Una caratteristica chiave del modello è la sua capacità di “auto-correzione”: Codex può iterare sulle proprie soluzioni, ad esempio eseguendo test sul codice generato e continuando a modificarlo affinché tutti i test possano essere eseguiti con successo.Il modello supporta anche un contesto esteso (fino a 192.000 token) per poter gestire codebase molto grandi.In termini di integrazioni tecnologiche, Codex si collega direttamente a servizi come GitHub: l’utente può autorizzare Codex ad accedere ai propri repository, in modo tale che l’agente possa pre-caricare il codice del progetto su cui lavorare.La piattaforma consente di configurare l’ambiente di esecuzione in modo da allinearlo al proprio stack (ad esempio specificando versioni di linguaggi, dipendenze, variabili d’ambiente, ecc.). Inoltre, OpenAI ha introdotto uno speciale file di configurazione denominato AGENTS.md che gli sviluppatori possono inserire nel repository: simile a un README, questo file fornisce a Codex linee guida su come navigare il codice, quali comandi usare per build e test, e come aderire alle convenzioni del progetto. Ciò aiuta l’agente a comprendere il contesto applicativo e a comportarsi in modo più conforme alle aspettative del team di sviluppo.Da notare che Codex mantiene un approccio trasparente e verificabile nelle sue operazioni: mentre esegue un task, registra log delle azioni (es. output del terminale, risultati dei test) e li cita nelle sue risposte finali. In questo modo l’utente può ispezionare il processo svolto passo-passo e verificare cosa ha fatto l’agente prima di integrare qualsiasi modifica. Una volta completato un compito, Codex effettua un commit delle modifiche nel suo ambiente virtuale e presenta all’utente un riepilogo delle modifiche effettuate, includendo differenze di codice e risultati dei test per facilitare qualsiasi possibile attività di code review.Funzionalità operative di OpenAI Codex 2025Il nuovo Codex offre un ampio spettro di funzionalità per automatizzare compiti di sviluppo software.Scrittura di nuove funzionalità: dato un requisito in linguaggio naturale, Codex è in grado di implementare codice corrispondente, creando nuovi moduli o funzioni nel progetto. Ad esempio, si può chiedere “implementa la funzionalità X secondo queste specifiche…” e Codex svilupperà il codice necessario (seguendo lo stile del progetto) e lo testerà fino ad assicurarsi che funzioni.Correzione di bug: l’agente può localizzare e risolvere bug nel codice esistente. Si può, ad esempio, indicare “trova e correggi il bug introdotto negli ultimi 5 commit” e Codex analizzerà la cronologia del repository per identificare il problema e proporre una correzione. Durante questo processo, eseguirà i test pertinenti per verificare che il bug sia effettivamente risolto.Answering sul codice (Q&A): Codex può rispondere a domande sul codebase dell’utente. Ciò significa che può fungere da assistente di documentazione: ad esempio si può chiedere “Dove viene calcolata la variabile Y nel progetto?” oppure “Cosa fa esattamente questa funzione?”, e l’agente fornirà spiegazioni basate sul codice, citando i file e le linee rilevanti.Refactoring e miglioramenti del codice: l’agente eccelle in compiti di manutenzione come rifattorizzare porzioni di codice per migliorarne la leggibilità o l’efficienza, rinominare variabili/funzioni per seguire uno standard, eliminare codice duplicato, ecc.. Questi sono compiti “meccanici” che spesso interrompono il flusso di lavoro umano, e Codex può gestirli autonomamente su richiesta.Scrittura ed esecuzione di test: Codex può generare test automatici per il codice (ad esempio creando casi di test per funzioni non ancora coperte) e poi eseguirli. Può quindi aiutare a aumentare la copertura di test e a garantire che nuove modifiche non introducano regressioni. Se qualche test fallisce, l’agente tenterà di correggere il codice fino a farlo passare, oppure segnalerà chiaramente il problema all’utente.Impostazione di workflow CI/CD o strumenti di supporto: come parte delle sue funzionalità, Codex può configurare file di build o pipeline di integrazione continua. Ad esempio, può creare un workflow per eseguire automaticamente l’ESLint ad ogni pull request, bloccare merge che violano le regole di lint, ecc., come mostrato da uno dei task nell’interfaccia Codex. In generale, può occuparsi di compiti infrastrutturali ripetitivi come setup di ambienti, aggiornamento di configurazioni o script di deployment.Proposta di Pull Request e documentazione: una volta completata una modifica, Codex permette di preparare direttamente una pull request con le modifiche proposte, pronta per la revisione umana. Inoltre, può aiutare a redigere documentazione o commenti descrittivi per il codice che ha scritto, facilitando la comprensione da parte del team.La capacità di parallelismo di OpenAI Codex 2025Una caratteristica distintiva di Codex è la sua capacità di gestire più incarichi contemporaneamente (parallelism): l’utente può lanciare diversi task in parallelo (ad esempio, far lavorare l’agente su più bug o su differenti feature allo stesso tempo) e controllarne l’avanzamento simultaneamente. Mentre Codex elabora questi compiti in background (ciascuno isolato nel proprio sandbox), lo sviluppatore può continuare a fare altro e/o utilizzare altri strumenti, senza doversi fermare ad aspettare.Questa esecuzione asincrona e parallela consente di risparmiare tempo e di ridurre i tempi morti: in pratica, Codex può occuparsi di “lavoro noioso” (come potrebbero definirlo molti sviluppatori) mentre la persona può dedicarsi ad attività più creative o critiche.Molto probabilmente l’adozione di un flusso di lavoro multi-agente asincrono, inaugurato da Codex, potrebbe diventare uno standard per la produttività di chi si occupa di ingegneria del software in futuro.Impatto di OPenAI Codex 2025 su team e aziendeIl nuovo Codex è rivolto principalmente a sviluppatori e team di ingegneri che vogliono aumentare la produttività automatizzando compiti ripetitivi o time-consuming.La stessa OpenAI ha raccontato come i propri ingegneri interni abbiano già integrato Codex nel loro toolkit quotidiano per attività come refactoring, scrittura di test, scaffolding di nuove funzionalità e triage di problemi durante il turno di reperibilità. L’obiettivo è permettere ai programmatori umani di concentrarsi sui compiti più creativi e critici, delegando all’IA le parti più meccaniche o che potrebbero interrompere l’attenzione.Naturalmente, oltre ai singoli sviluppatori, Codex è pensato per intere aziende e team software. Durante il periodo di test iniziale, OpenAI ha collaborato con alcune organizzazioni per valutare l’impatto di Codex su codebase e workflow diversi.Casi d’uso aziendaliAd esempio, Cisco ha esplorato l’uso di Codex per accelerare la realizzazione di idee ambiziose da parte dei propri team, fornendo feedback a OpenAI come partner di design.La startup Temporal lo utilizza per velocizzare lo sviluppo di feature, debug e refactoring di grandi basi di codice, sfruttando la possibilità di eseguire task complessi in background così che i loro ingegneri possano rimanere concentrati.L’azienda Superhuman ha impiegato Codex per automatizzare piccoli task ripetitivi (come migliorare la copertura dei test o correggere errori di integrazione), arrivando persino a permettere ai product manager di apportare piccole modifiche al codice (con l’assistenza di Codex) senza coinvolgere direttamente un ingegnere, se non nella fase di code review finale.Kodiak Robotics, nel campo della guida autonoma, ha usato Codex per scrivere strumenti di debug, migliorare la suite di test e rifattorizzare codice, in modo da accelerare lo sviluppo del loro software di guida,In molti, tra l’altro, raccontato come Codex sia diventato anche un prezioso strumento di apprendimento interno, aiutando le persone a capire parti di codice non familiari grazie alla capacità dell’agente di fornire contesto e richiamare modifiche storiche rilevanti.Interessante sottolineare che OpenAI intende rendere Codex accessibile anche a studenti, educatori e ricercatori tramite account ChatGPT Edu. Questo potrebbe aprire le porte a utilizzi in ambito formativo: ad esempio, come assistente nei corsi di programmazione (per aiutare gli studenti a capire e correggere codice) o come strumento per insegnanti che vogliono generare esempi di codice o test automaticamente.Guida pratica all’uso di OPenAI Codex 2025Per utilizzare Codex è necessario avere accesso a ChatGPT con un piano supportato (inizialmente ChatGPT Pro da $200/mese, o un account Team/Enterprise; l’accesso per utenti Plus da $20/mese e per account Edu sarà aggiunto in seguito). All’interno dell’interfaccia web di ChatGPT, gli utenti abilitati vedranno una barra laterale o sezione dedicata a Codex. Prima di iniziare, è consigliabile collegare il proprio account GitHub o fornire a Codex l’accesso al repository di codice su cui dovrà operare, in modo che l’agente possa clonarlo e analizzarlo.Fatto questo, si possono seguire diversi passi:Impostare il contesto: selezionare dall’interfaccia il repository e il branch su cui lavorare (oppure permettere a Codex di clonare un repo pubblico/privato autorizzato). Assicurarsi che il file AGENTS.md sia presente e configurato (opzionale, ma migliora la qualità del risultato) con istruzioni su build/test e convenzioni del progetto.Formulare una richiesta (prompt): nella casella di input di Codex, descrivere in linguaggio naturale il compito da svolgere o la domanda da porre. Esempi di prompt possono essere: “Correggi il bug che causa il crash quando l’utente clicca sul pulsante X”, oppure “Implementa la funzionalità Y seguendo le specifiche Z”, o ancora “Qual è la differenza tra la funzione A e B in questo progetto?”. Una volta scritto il prompt, si clicca “Code” se si tratta di un task operativo, oppure “Ask” se si tratta di una domanda di chiarimento.Esecuzione asincrona: a questo punto Codex avvia il lavoro in background. Nell’interfaccia, l’utente vedrà il task elencato in una lista di attività con uno stato (ad esempio “In esecuzione”). È possibile lanciare ulteriori task nel frattempo. Ogni task viene eseguito isolatamente: Codex carica il codice, analizza il problema, genera eventuale nuovo codice e lo testa. L’utente può monitorare in tempo reale l’avanzamento: ad esempio, vedere log di test che appaiono, o uno stato percentuale di completamento, a seconda di come OpenAI visualizza il progresso. In genere, ogni attività può durare da pochi minuti fino a una mezz’ora circa, a seconda della complessità.Revisione del risultato: quando Codex completa un task, lo stato nell’elenco passerà a “Completato” e l’utente potrà cliccarlo per vedere i dettagli. Codex fornirà:Un riepilogo di cosa ha fatto (es: “Ha identificato che il bug era causato da X e ha modificato Y per risolverlo”).Le differenze di codice (diff) con evidenziate le aggiunte (+) e rimozioni (-) nei file modificati.Gli output di test e log pertinenti, ad esempio indicando “ Tutti i test sono passati” oppure mostrando eventuali errori incontrati. (Vedi immagine sotto per un esempio di schermata di risultato di Codex.)Azioni successive: dopo aver esaminato il lavoro di Codex, l’utente ha varie opzioni. Se il risultato è soddisfacente, può scegliere di integrarlo nel codice base: ad esempio, Codex offre un comando per aprire direttamente una pull request su GitHub con le modifiche effettuate, pronta per il code review umano e il merge. In alternativa, l’utente può scaricare/applicare le patch al proprio repository locale manualmente. Se il risultato non è del tutto soddisfacente, si può chiedere a Codex di apportare revisioni o miglioramenti (ad esempio: “Ottimo, ora applica la stessa correzione anche alla classe correlata XYZ” oppure “Puoi ottimizzare questo algoritmo?”). In ogni momento, l’utente mantiene il controllo: tutte le modifiche di Codex avvengono nel sandbox e nulla viene cambiato nel repository reale finché l’utente non decide di applicarle.OpenAI Codex 2025: limitazioni e considerazioni pratiche Grazie al suo utilizzo, credo sia utile condividere alcune considerazioni pratiche.Essendo un agente autonomo, Codex non sempre avrà successo al primo tentativo su compiti complessi: potrebbe segnalare nei log di non essere certo di una soluzione o di aver incontrato un test fallito. In tali casi, Codex esplicita l’incertezza o l’errore invece di procedere alla cieca, e attende indicazioni dall’utente su come procedere. Ad esempio, potrebbe comunicare: “Alcuni test stanno fallendo; vuoi che provi un approccio diverso o preferisci rivedere tu stesso il codice?”. Ciò garantisce che il programmatore sia coinvolto nelle decisioni critiche e possa intervenire. OpenAI raccomanda comunque agli utenti di revisionare manualmente ogni modifica proposta prima di integrarla definitivamente, come buona pratica di sicurezza e qualità.Per quanto riguarda limitazioni attuali: Codex, essendo in anteprima, non supporta ancora input visivi (ad es. fornire screenshot o GUI per capire problemi di frontend) e non consente di intervenire a metà di un task già in esecuzione (non è possibile “mettere in pausa e correggere” l’agente durante il suo lavoro; bisogna attendere l’esito e poi eventualmente lanciare un nuovo task). Inoltre, delegare un compito a un agente remoto richiede tempi di attesa maggiori rispetto a eseguire modifiche minori a mano; quindi, c’è una curva di adattamento nel lavorare in modo asincrono. Tuttavia, chi ha provato Codex sottolinea che il beneficio di poter parallelizzare attività e di ridurre il contesto da tenere a mente compensa ampiamente questi tempi di attesa.L’evoluzione di OpenAI Codex 2025 rispetto al modello del 2021OpenAI Codex fu inizialmente lanciato nel 2021 come un modello di AI per la generazione di codice basato sul modello GPT-3. Quella prima versione di Codex funzionava principalmente come un motore di autocompletion: l’utente forniva un prompt (es. un commento descrittivo) e il modello restituiva codice corrispondente, eccellendo soprattutto con linguaggi come Python.Quell’iterazione originale ebbe un grande impatto (fu il motore dietro GitHub Copilot), ma presentava anche varie limitazioni: poteva generare codice sintatticamente non corretto, proporre soluzioni solo apparentemente corrette che però fallivano in fase di esecuzione. Inoltre, operava su singole richieste alla volta e non aveva alcuna capacità di “comprendere” davvero il contesto eseguendo o testando il codice – produceva output testuale e bastava.Il Codex 2025 riprende il nome, ma – di fatto – rappresenta un salto generazionale netto rispetto al 2021.Da modello a agente autonomoil Codex originale era un modello di completamento integrato via API/IDE, mentre il nuovo Codex è un vero agente software autonomo. Ciò significa che esegue attivamente operazioni (leggere/scrivere file, eseguire test, effettuare chiamate di sistema) e lavora per obiettivi di alto livello dati dall’utente. Non si limita a produrre codice in base a un prompt, ma porta a termine un compito in modo semi-indipendente. Ad esempio, se gli si chiede di “correggere un bug”, il Codex 2025 esplorerà il codice, tenterà diverse modifiche, eseguirà i test e itererà finché il bug non è risolto – comportamenti fuori portata per il modello 2021.Parallelismo e durata dei taskla nuova versione è progettata per gestire più task simultaneamente e lavorare su ciascuno per diversi minuti (fino a mezz’ora o più), riflettendo un approccio asincrono tipico di un “collega” che lavora in background. Il Codex originale generava un blocco di codice in pochi secondi come risposta diretta; non aveva alcuna nozione di esecuzione prolungata o multitasking. Questa capacità di multitasking in background è considerata da OpenAI un cambiamento fondamentale: Greg Brockman (co-fondatore di OpenAI) ha sottolineato che il vero passo avanti introdotto da Codex è proprio il parallelismo, .Integrazione con ecosistema e strumentiCodex 2025 è integrato nell’ecosistema ChatGPT e si connette con strumenti di sviluppo reali (repository Git, ambienti di test, CLI). OpenAI prevede inoltre di connettere Codex ad altri tool: ad esempio lanciare task da un IDE desktop ChatGPT, o da un sistema di tracciamento issue, o integrarlo in pipeline CI/CD in futuro. Al contrario, il vecchio Codex operava quasi esclusivamente tramite l’API OpenAI o tramite plugin dedicati (come Copilot nei vari IDE), generando codice “su richiesta” ma senza eseguire integrazioni operative dirette con altri sistemi.Qualità del codice e affidabilitàGrazie all’addestramento su RLHF specifico per coding, il nuovo Codex tende a produrre codice più pulito, aderente alle istruzioni e agli standard umani, rispetto al modello 2021. OpenAI afferma che codex-1 genera patch pronte per essere revisionate e integrate immediatamente, mentre il vecchio modello spesso richiedeva correzioni manuali e verifiche approfondite. Inoltre, Codex 2025 fornisce evidenze verificabili (log/test) di quello che fa, aumentando la trasparenza e la fiducia nel suo operato – cosa inesistente nel 2021.Modello sottostanteIl Codex originale era basato su GPT-3 (175 miliardi di parametri) con un fine-tuning su codice open source. Il nuovo Codex utilizza codex-1, un modello derivato dal più recente “OpenAI o3” (un modello di reasoning avanzato, successore di GPT-4). Ciò si traduce in maggiori capacità di ragionamento e contesto. Ad esempio, codex-1 può gestire contesti enormemente più grandi (fino a 192k token), permettendogli di avere “in mente” un intero repository di grandi dimensioni durante l’elaborazione. In più, i benchmark interni mostrano che codex-1 supera tutti gli ultimi modelli generici di OpenAI nei compiti di programmazione (SWE tasks) utilizzati nei test.Verso un nuovo paradigma di collaborazione uomo-macchinaLo strumento rappresenta un’evoluzione significativa, da semplice assistente di completamento codice a agente autonomo collaborativo: si possono immaginare scenari in cui gli sviluppatori “dirigono il lavoro che vogliono curare in prima persona e delegano il resto agli agenti”.Se il Codex originale, una sorta di prima versione, aveva dimostrato il potenziale dell’IA nel coding, la versione 2025 ambisce a rivoluzionare il modo in cui il software viene costruito, introducendo un nuovo paradigma di collaborazione uomo-macchina nello sviluppo software.Sam Altman (CEO di OpenAI), in occasione del lancio, ha paragonato l’importanza di questo agente a quella di ChatGPT al suo esordio, suggerendo che Codex potrebbe rappresentare un cambiamento di paradigma simile ma nell’ambito dello sviluppo software.OpenAI ha anche sottolineato di voler procedere con cautela ed iterazione controllata: Codex viene rilasciato come preview proprio per raccogliere feedback, migliorare la sicurezza e valutare l’impatto sul flusso di lavoro umano.L’azienda riconosce che, se da un lato strumenti come Codex possono aumentare la produttività, dall’altro è fondamentale monitorarne gli effetti su abilità umane, mercato del lavoro e sicurezza del codice prodotto.Quello che abbiamo è certamente un notevole passo avanti nell’assistenza IA alla programmazione. Le prime implementazioni indicano che non è pensato per sostituire gli sviluppatori, ma per potenziarli: l’idea è quella di poter avere al nostro fianco dei collaboratori che non rimpiazzano gli ingegneri software, ma che cambiano il modo in cui questi lavorano.Prospettive future per OpenAI Codex nello sviluppo softwareSe il 2021 ci aveva mostrato che un’IA poteva scrivere codice su richiesta, il 2025 ci sta mostrando che un’IA può diventare parte attiva del team di sviluppo, lavorando al fianco delle persone per costruire software in modo più rapido ed efficiente.Le prossime evoluzioni di Codex (e strumenti simili) ci diranno fino a che punto questa collaborazione uomo-macchina potrà spingersi nel rivoluzionare il mondo del software.

L’IA nella ricerca Google scombina tutti gli equilibri del web: e ora?

Google sta introducendo funzionalità basate sull’IA che generano riassunti e risposte dirette alle query degli utenti, anziché fornire semplicemente un elenco di link come avvenuto finora. La chiama AI Overviews e intende offrirla a tutti gli utenti, a partire dagli Usa, entro fine anno.Questa trasformazione guidata dal modello di IA generativa Gemini di Google ed è in preparazione da tempo. Suscita preoccupazioni a vario titolo sulla sostenibilità del web e del giornalismo, su cui Google per ora prova a minimizzare.Indice degli argomenti
Come funziona Ai OverviewsPer capire meglio di cosa stiamo parlando, facciamo un esempio: entro in una biblioteca – quella con i libri di carta, per intenderci – per fare una ricerca. Chiedo informazioni all’addetto, al quale specifico l’argomento che m’interessa. Lui, prima di spiegarmi dove andare a cercare, mi propone una sorta di tesina che preparerà lui stesso in due giorni. Ovviamente risparmierò tempo e fatica, penso, anche fisica, ma consentirò a quel tizio di scegliere le fonti in base ai suoi gusti e alle sue inclinazioni. Magari conosce o stima un autore più che un altro. Poi metterà dentro la sua tesina, insieme alle citazioni per renderla più credibile e accurata, qualche opinione personale.A questo punto facciamo un salto dall’analogico al digitale, sostituendo il sottoscritto con un qualunque utente che deve fare una ricerca su internet e vuole usare il motore più diffuso, e il tizio della tesina con Google. Già, perché, fuor di metafora, è proprio questo che sta accadendo con AI Overviews.I dettagli di AI OverviewsL’anno scorso Google ha creato una sezione che consentiva agli utenti di provare nuove funzionalità sperimentali, chiamata Search Generative Experience. Da allora ci si è chiesti quando tali funzionalità sarebbero entrate definitivamente nel motore di ricerca Google. Ebbene, in questi giorni le panoramiche generate col supporto di Gemini ​​verranno rese disponibili a tutti gli utenti degli Stati Uniti. Entro la fine del 2024 in tanti altri Paesi.Appariranno su tutte le piattaforme: sul Web e sui dispositivi mobili, e come parte dell’esperienza dei motori di ricerca nei browser, ad esempio quando le persone effettuano ricerche tramite Google su Safari. Un elemento chiave di questa nuova esperienza di ricerca è la funzione “AI Overviews“, che genera riassunti in formato di testo posizionati in cima ai risultati di ricerca. Questi riassunti tentano di rispondere direttamente alle query degli utenti, attingendo informazioni da vari siti web e sintetizzandole e offrendo link alla fonte originale. Secondo Liz Reid, responsabile di Google Search, gli Overviews AI appariranno solo per query complesse, mentre per ricerche semplici verranno ancora mostrati i tradizionali link blu.Un’altra novità è la funzione di pianificazione, che consente di chiedere a Google di creare piani pasto o di trovare studi di pilates nelle vicinanze con sconti per i nuovi iscritti. L’IA raccoglierà informazioni pertinenti, riassumerà le recensioni e traccerà i percorsi per raggiungerli. Inoltre, Google sta sperimentando una modalità “AI-organized” che riorganizza completamente la pagina dei risultati di ricerca, raggruppando le risposte per categorie invece di mostrare i classici link blu.AI Overviews: l’impatto sul webI cambiamenti apportati da Google al suo motore di ricerca avranno un impatto significativo sul web in generale. La società di ricerche di mercato Gartner prevede che entro il 2026 il volume delle ricerche tradizionali diminuirà del 25% a causa dell’avvento degli assistenti IA che generano risposte dirette. Questo potrebbe costringere le aziende a ripensare le loro strategie di marketing. Jim Yu, presidente esecutivo di BrightEdge, un’azienda di ottimizzazione dei motori di ricerca, afferma che l’avvento dell’IA rappresenta un “cambiamento nell’ordine mondiale” per il web.Mentre in passato i motori di ricerca fornivano semplicemente link, ora generano opinioni informate basate sull’IA. Questo potrebbe favorire alcuni risultati rispetto ad altri, con conseguenze per i creatori di contenuti e gli editori web. Gli Overviews AI di Google potrebbero potenzialmente influenzare il traffico verso determinati siti web, poiché gli utenti potrebbero essere meno propensi a fare clic sui link se le loro domande vengono già soddisfatte dai riassunti generati dall’IA.La risposta di Google ai timoriTuttavia, Google afferma che, in base a un suo studio, gli utenti tendono a “scavare più a fondo” dopo aver letto gli Overviews AI e ad avere una dieta mediatica più variata, trovando altre fonti. Aumenta l’engagement dei lettori. I clic sulle fonti originali, sostiene, le premieranno ancora di più rispetto alla ricerca tradizionale.Quali le implicazioni per l’informazione e la veridicità L’introduzione dell’IA nei risultati di ricerca di Google solleva anche interrogativi sulla veridicità e l’accuratezza delle informazioni fornite. I modelli di linguaggio come quelli utilizzati da Google sono noti per “allucinare”, ovvero inventare informazioni e presentarle come fatti. Questo potrebbe portare a errori e disinformazione nei risultati di ricerca basati sull’IA. Margaret Mitchell, ricercatrice dell’IA presso l’azienda Hugging Face, afferma che anche se Google e Microsoft cercano di rendere le risposte generate dall’IA più accurate fornendo citazioni, molti utenti non verificano le fonti citate. Ciò potrebbe dare un’aria di correttezza a informazioni potenzialmente errate.Google ha già commesso errori imbarazzanti con le sue dimostrazioni di IA, come quando il suo chatbot Bard ha fornito informazioni sbagliate in un annuncio pubblicitario, cancellando 100 miliardi di dollari dal valore di mercato dell’azienda. Cosa accaduta anche a Microsoft. Quando ha messo in campo il suo nuovo motore di ricerca Bing basato su ChatGPT, le persone hanno iniziato a scoprire che replicava ad alcune domande con risposte errate o prive di senso, come le teorie del complotto. Wired ha effettuato dei test, ecco il risultato di uno di questi. La domanda era: “Dov’è il posto migliore per vedere l’aurora boreale?” Google, invece di elencare le pagine web, come succedeva prima, fornisce una risposta elaborata: i posti migliori per vedere l’aurora boreale si trovano nel circolo polare artico in luoghi con un inquinamento luminoso minimo. Offre anche un collegamento a NordicVisitor.com per guardare delle immagini. Ma poi l’intelligenza artificiale continua: “Altri posti per vedere l’aurora boreale includono la Russia e i territori nordoccidentali del Canada”. Il problema è che la tecnologia semplicemente non è pronta per essere utilizzata in questo modo e su questa scala. Occhio alle falsità presentate come fattiI modelli linguistici dell’intelligenza artificiale spesso presentano falsità come fatti. Sono eccellenti nel prevedere la parola successiva in una frase, ma non hanno alcuna conoscenza del vero significato della stessa. Ciò rende pericoloso combinarli con la ricerca, dove è fondamentale chiarire i fatti. D’altronde OpenAI, creatrice di ChatGPT, ha sempre sottolineato che si tratta ancora solo di un progetto di ricerca e che è in costante miglioramento man mano che riceve il feedback delle persone.Google utilizza da anni l’elaborazione del linguaggio naturale per aiutare le persone a effettuare ricerche su Internet utilizzando frasi intere anziché parole chiave. Tuttavia, fino ad ora l’azienda è stata riluttante a integrare la propria tecnologia chatbot AI nel suo motore di ricerca – secondo Chirag Shah, professore dell’Università di Washington – preoccupata dai danni alla propria reputazione che potrebbero scaturire dal lancio affrettato di uno strumento simile a ChatGPT. I recenti errori di Big Tech non significano che la ricerca basata sull’intelligenza artificiale sia una causa persa. Un modo in cui Google e Microsoft hanno cercato di rendere più accurati i riepiloghi di ricerca generati dall’intelligenza artificiale è offrendo citazioni, ma ciò può non essere, anzi non è certamente, sufficiente.Le potenziali conseguenze per il giornalismo onlineAnche il giornalismo online potrebbe essere toccato dai cambiamenti apportati da Google in termini di sostenibilità economica. Come riportato da Wired, gli Overviews AI di Google potrebbero ridurre le opportunità di mostrare annunci pubblicitari, poiché gli utenti potrebbero trascorrere meno tempo a effettuare ricerche aggiuntive e più mirate. Inoltre, secondo quanto riportato da The Atlantic, gli Overviews AI potrebbero potenzialmente ridurre il traffico verso i siti web di notizie e informazioni, poiché gli utenti potrebbero essere soddisfatti dalle risposte generate dall’IA e non sentire la necessità di approfondire ulteriormente. Ciò potrebbe minare il modello di business basato sulla pubblicità online per molte testate giornalistiche. Ovviamente, Google non ha nessuna intenzione di rinunciare a monetizzare la sua nuova versione del motore di ricerca supportata dall’IA, il che non va certo a vantaggio del giornalismo on line. Ancora non è dato sapere quando e con quale ampiezza gli annunci cominceranno ad affiancare le panoramiche.Gli screenshot rilasciati da Google mostrano come un utente che chiede come eliminare le pieghe dai vestiti potrebbe ottenere un riepilogo di suggerimenti provenienti dal Web, con annunci sottostanti per spray che dovrebbero aiutare a ravvivare il  guardaroba. Le panoramiche AI ​​di Google nascono per scoraggiare il passaggio degli utenti ad alternative come Bing di Microsoft, ChatGPT (sempre più interessata a riassumere risultati della ricerca web) o Perplexity, che utilizzano testo generato dall’intelligenza artificiale per rispondere a molte domande tradizionalmente rivolte a Google. Come e quando Google integrerà gli annunci nelle panoramiche AI ​​è stata una questione importante sulla strategia per integrare ChatGPT nel suo motore di ricerca. Gli annunci di ricerca sono il maggiore generatore di entrate dell’azienda e anche piccoli cambiamenti nel posizionamento o nel design degli stessi possono stimolare grandi oscillazioni nelle sue entrate.Gli accordi editori-OpenaiFioccano gli accordi economici tra OpenAI e vari editori per l’uso del loro materiale allo scopo di training o (con l’eccezione di AP) anche per offrire le loro notizie direttamente in ChatGpt.News Corp (Wsj, Ny Post e altri): Accordo del valore di oltre 250 milioni di dollari in cinque anni. Include pagamenti in contanti e crediti per l’uso della tecnologia OpenAI.Axel Springer: Accordo triennale del valore di 25-30 milioni di dollari.Financial Times: Accordo annuale del valore di 5-10 milioni di dollari.Associated Press: Accordo annuale nelle cifre di pochi milioni per l’uso di archivi di testo. OpenAI l’anno scorso ha stretto un accordo due anni con l’American Journalism Project (AJP) per contribuire a finanziare gli sforzi delle testate locali di sperimentare la tecnologia dell’intelligenza artificiale. OpenAI stanzierà 5 milioni di dollari per iniziative di informazione locale attraverso l’AJP, che sostiene le testate giornalistiche locali senza scopo di lucro attraverso sovvenzioni e altre iniziative di supporto.L’AJP distribuirà i fondi tramite sovvenzioni a dieci delle sue 41 organizzazioni in portafoglio. Queste organizzazioni sperimenteranno le migliori pratiche per le modalità con cui le testate giornalistiche locali possono sfruttare l’IA in modo responsabile nelle loro redazioni, nei loro prodotti e nei loro team di vendita.Il finanziamento sosterrà anche la creazione di un nuovo studio di prodotto all’interno di AJP che supporterà le testate giornalistiche locali nella sperimentazione della tecnologia di OpenAI. Oltre ai 5 milioni di dollari di sovvenzione, OpenAI fornirà anche fino a 5 milioni di dollari di crediti che potranno essere utilizzati dalle aziende del portafoglio di AJP per accedere ai suoi prodotti tecnologiciLa monetizzazione delle panoramiche AI di GoogleVidhya Srinivasan, Vicepresidente e Direttore generale per gli annunci di Google, ha reso noto che essi appariranno nella Panoramica AI in una sezione chiaramente etichettata come ‘sponsorizzata’ quando sono pertinenti sia alla query che alle informazioni nella Panoramica AI. AI Overview si baserà sugli annunci delle campagne esistenti degli inserzionisti, il che significa che questi non potranno disattivare completamente l’esperimento né dovranno adattare le impostazioni e il design dei loro annunci per apparire nella funzionalità.L’anno scorso, quando ha iniziato a sperimentare le risposte generate dall’intelligenza artificiale nella ricerca, Google ha fatto sapere che gli annunci per prodotti specifici sarebbero stati integrati nella funzionalità. In un esempio è stata mostrata un’opzione sponsorizzata in cima a un elenco generato dall’intelligenza artificiale di zaini da trekking per bambini. Secondo Google, e certo c’era da aspettarselo,  i primi test hanno dimostrato che gli utenti hanno trovato utili gli annunci sopra e sotto i riepiloghi generati dal motore di ricerca con l’assistenza dell’IA.Le cause in corso editori-AIAltri editori, tra cui il New York Times, hanno scelto di combattere OpenAI e il suo sostenitore Microsoft in tribunale. Sostengono che i loro contenuti sono stati utilizzati senza autorizzazione per addestrare gli strumenti di intelligenza artificiale e creare risposte per gli utenti. OpenAI ha dichiarato che la causa è priva di fondamento.A marzo otto giornali americani hanno denunciato OpenAi per gli stessi motivi: il New York Daily News, il Chicago Tribune, l’Orlando Sentinel, il Sun Sentinel in Florida, il Mercury News in California, il Denver Post, l’Orange County Register in California e il Pioneer Press in Minnesota. Tutti fanno capo all’hedge fund Alden Global Capital.E’ possibile che anche la nuova ricerca generativa di Google susciterà azioni legali.Ricerca video: la nuova frontiera di GooglePer chiudere, un’altra sorpresa davvero futuristica dall’azienda di proprietà Alphabeth: un’opzione di ricerca video, in cui puoi puntare la fotocamera del tuo telefono su un oggetto come un giradischi rotto e chiedere come ripararlo. Non c’è che dire, la ricerca per incrementare gli affari non dorme mai. Sarà un bene anche per gli utenti? In questo campo il punto di domanda è obbligatorio.

Vuoi rimanere aggiornato sulle nuove tecnologie per la Didattica e ricevere suggerimenti per attività da fare in classe?

Sei un docente?

soloscuola.it la prima piattaforma
No Profit gestita dai

Volontari Per la Didattica
per il mondo della Scuola. 

 

Tutti i servizi sono gratuiti. 

Associazione di Volontariato Koinokalo Aps

Ente del Terzo Settore iscritta dal 2014
Tutte le attività sono finanziate con il 5X1000