A che serve questo cane-robot?

Negli ultimi anni, l’intelligenza artificiale ha permesso di far compiere passi da gigante a diverse discipline, tra cui la robotica. Gli ingegneri dell’ETH di Zurigo, infatti, hanno utilizzato un modello di apprendimento automatico per insegnare a un cane-robot (della serie ANYmal, prodotta dell’azienda ANYbotics) ad aprire le porte servendosi di una delle sue zampette metalliche. Sembra una cosa da poco, ma fino a oggi i più avanzati quadrupedi meccanici – come per esempio il cane Spot, star di molti video pubblicati sui social network dalla società Boston Dynamics – hanno spesso avuto bisogno di un “innaturale” braccio extra per superare l’ostacolo.

Meglio la zampa. La vera novità introdotta dal robot addestrato dal team svizzero – guidato da Philip Arm, che ha pubblicato sul suo canale Youtube più di un video esemplificativo a riguardo – è che, mentre con un arto anteriore apre sportelli o completa azioni come premere pulsanti o raccogliere oggetti, riesce a mantenere l’equilibrio sulle altre tre gambe. «Il nostro cane non riesce a fare con le sue zampe quello che si può far eseguire a una mano robotica, che attualmente è molto più funzionale», ha specificato Arm, riferendosi al braccio che il “concorrente” Spot ha montato sul corpo, «ma il punto è che stiamo cercando di adeguarlo a situazioni in cui possono presentarsi vincoli di dimensione».

Applicazioni utili. Nel dettaglio, un arto montato al posto della testa è più funzionale, ma può essere d’impaccio negli spazi angusti. Gli ingegneri, infatti, non stanno certo sviluppando robot di questo tipo per semplice divertimento, ma perché possano essere sempre più efficienti e utili in circostanze pericolose e inaccessibili per gli esseri umani, come per esempio tra le macerie di un palazzo crollato, in ambienti radioattivi e tra le fiamme di un incendio. «O nel campo dell’esplorazione spaziale – aggiunge Arm – dove ogni chilogrammo risparmiato è importante».

Addestramento. Per insegnare al robot come fare, Arm e il suo team hanno dato al modello di apprendimento automatico l’obiettivo di trovare un punto specifico nello spazio servendosi delle zampe anteriori. Il software ha poi capito da solo come ridistribuire i pesi tra le tre gambe restanti, permettendogli di restare in piedi o, persino, di camminare. Controllato da remoto, l’automa quadrupede è riuscito a sollevare una borsa e metterla in una scatola oppure a raccogliere delle rocce. L’obiettivo, però, è che in futuro, grazie ai miglioramenti delle intelligenze artificiali, il cane possa manipolare autonomamente gli oggetti con le sue zampe.

Continua la lettura su: https://www.focus.it/tecnologia/innovazione/primo-cane-robot-in-grado-di-aprire-porta-con-solo-4-zampe Autore del post: Focus Rivista Fonte: http://www.focus.it

Articoli Correlati

Robotica collaborativa, perché è la chiave per l’industria 5.0

Tra le tecnologie abilitanti l’industria 5.0, un ruolo importante è rivestito dall’intelligenza artificiale e dalla robotica collaborativa, tecnologie in grado di ridisegnare i paradigmi di produzione in diversi settori e di modificare il rapporto tra macchina e uomo così come è stato inteso tradizionalmente.I cobot sono una leva per un’industria che si avvia verso la fase 5.0 della propria evoluzione, con notevoli cambiamenti sulla società e nuovi scenari di applicazione di tali innovazioni.Indice degli argomenti
Il ruolo della robotica nell’industriaFino ad ora i robot sono stati principalmente impiegati in ambito industriale per tutte quelle operazioni usuranti o negli ambienti ostili in cui potesse sostituire l’uomo, si pensi alle operazioni di saldatura, verniciatura, di manipolazione di carichi ripetitivi o usuranti.L’impiego principale è da sempre stato nei settori tradizionali industriali quali il settore automobilistico, elettronico, della manifattura e della lavorazione dei metalli, per compiti quali la manipolazione di oggetti, la saldatura e l’assemblaggio in primis (dati tratti da international Federation of Robotics (IFR 2020).Il 2006 è stato il primo anno in cui il maggior numero di robot è stato impiegato fuori dal ramo dell’industria automobilistica, andando oltre il driver iniziale delle 3D che avevano favorito lo sviluppo della robotica industriale, ovvero ridurre o eliminare i lavori “ripetitivi, pericolosi e sporchi”, dall’inglese “Dull, Dangerous and Dirty” (Østergaard 2018).Anche se non così ben noto ai più, l’Italia rimane uno dei paesi principali utilizzatori di robot. Si deve considerare che nella classifica mondiale dei paesi utilizzatori di robot guidata dalla Cina con poco più di 140,000 unità per anno, l’Italia è posizionata in sesta posizione con 11,000 unità per anno, dietro Giappone, Stati Uniti, Corea e Germania confermando la sua vocazione industriale di paese manifatturiero, oltre che leader nel settore della robotica ed automazione industriale. Questo dato economico indiretto di per sé è infatti un indicatore positivo della dimensione economica industriale del nostro paese Italia.Che cos’è la robotica collaborativaCon robotica collaborativa ci si riferisce a quei sistemi robotici di nuova generazione che sono in grado di interagire fisicamente in sicurezza con l’uomo e di condividerne lo spazio, non rimanendo pertanto più confinati in una “gabbia” che separa lo spazio dell’uomo da quello del robot. Un vero e proprio cambiamento che apre la strada ad una modalità diversa di impiego della robotica in ambito industriale e non solo.Nell’interazione fisica uomo-robot PhHRI ovvero Physical Human-Robot Interaction gli aspetti della percezione dell’ambiente e la previsione dell’intenzione umana rappresentano un requisito fondamentale che deve possedere il robot collaborativo per poter coesistere e collaborare in sicurezza con l’uomo.In questo modo si viene a costituire un binomio uomo-robot che operando insieme beneficiano mutuamente dell’azione coordinata di entrambi. Il robot è in grado di sollevare l’uomo dalle operazioni gravose con un rischio biomeccanico elevato, quali ad esempio il trasferimento e la manipolazione di carichi elevati, l’esecuzione di mansioni ripetitive ed usuranti, e d’altro canto il robot può beneficiare delle abilità individuali dell’uomo, in grado di prevedere e risolvere situazioni imprecise, adattarsi alla flessibilità e alla variabilità dei compiti (Pieskä and Kaarela 2018).Le applicazioni dei cobotUn’applicazione rilevante del robot 4.0 è la possibilità di movimentare carichi da un punto all’altro in ambienti arbitrari, manipolando oggetti di diverso tipo, in un ambiente comunemente condiviso con gli esseri umani, anche in un layout di impianto altamente flessibile e non strutturato, come tipicamente accade nella piccola media impresa, dove è richiesta una maggiore flessibilità di linea e di prodotto.A tal fine, possiamo identificare un requisito importante che i robot devono soddisfare, ovvero la capacità del robot mobile di implementare la navigazione naturale in ambienti non strutturati, con la capacità di eseguire anche l’ottimizzazione del percorso, basata su sensori di visione artificiale LIDAR multipli e SLAM ottimizzati.Le previsioni per i cobot: una tecnologia in crescitaQuesto rivoluziona da un lato l’utilizzo dei robot nei settori tradizionali, quali quello dell’automazione, ad esempio nel settore automobilistico e della manifattura, dall’altro apre dei nuovi settori importanti industriali, in quello che viene definito il mercato della robotica di servizio.La robotica di servizio trae infatti nuova linfa attraverso applicazioni nel settore industriale ed anche civile, sia domestico sia professionale. E l’innovazione in questo ambito viene fatto per la gran parte da aziende start-up innovative che sono in grado di generare nuove idee di robotica, portando sul mercato soluzioni innovative e paradigmi originali di interazione con l’uomo e di produzione.Dai dati estratti dall’ultimo report IFR 2020 della International Federation of Robotics sulle prospettive di crescita della robotica di servizio, si vede come il settore indubbiamente in crescita maggiore in termini di migliaia di unità impiegate sia quello della robotica per la logistica .Figura 1 – Rappresentazione grafica delle unità di robot vendute nei diversi settori , elaborazione grafica sulla base dei dati di IFR 2020, con una proiezione dei dati fino al 2023.Casi aziendali, dove trovano impiego i cobotUn grosso impulso in questa direzione è stato dato anche da aziende come Amazon, che ha investito notevolmente nell’automazione dei propri magazzini.È il 2003 quando viene fondata a Boston Kiva Systems, definita “Kiva the Disrupter” dalla Harvard Business Reviews (Mountz 2012) , riconosciuta oggi come una delle aziende che ha rivoluzionato il mercato della robotica per la logistica, i cui fondatori sono annoverati nella “National Inventors Hall of Fame” (NIHF). americana, con l’obiettivo di introdurre un nuovo concetto di piattaforme robotiche in grado di cambiare la logistica tradizionale. E’ storia nota che Amazon poi nel Marzo 2012 acquisì Kiva Systems per 775 milioni di dollari.Tra le storie di successo made in Europe, Swisslog nel 2014 viene invece acquisita da Kuka, e diventa uno degli attori protagonisti della logistica 4.0, realizzando soluzioni di automazione all’avanguardia per centri di stoccaggio e distribuzione orientati al futuro, registrando nel solo comparto della logistica nel 2019 ordini per 750,2 milioni, segnando un +24,8 % rispetto all’esercizio del 2018. E sono tante le altre storie di successo che si potrebbero raccontare simili a queste, che delineano un chiaro modello di “open innovation” nella robotica. Come evidenziato dalla grafica sopra riportata, un altro settore in forte espansione è rappresentata dalla robotica per pulizia.La Gaussian Robotics, fondata a Shanghai nel 2013, è un’azienda di Shanghai che sta rivoluzionando il mercato della pulizia robotica, la quale ha chiuso a Settembre 2020 un round da 22 milioni di dollari. E’ interessante notare che il fondatore e CEO di Gaussian Robot Cheng Haotian si è laureato presso l’Università di Cambridge in Ingegneria Elettronica, per tornare quindi poi in Cina e portare una innovazione dirompente in questo settore.La robotica collaborativa nella pandemia da coronavirusIn questo periodo di pandemia anche la robotica per disinfezione ha dimostrato di poter dare un contributo fondamentale per la sanificazione degli ambienti attraverso irradiazione UV-C o il rilascio controllato di vapori freddi, tutelando quindi la sicurezza dell’uomo (Tiseni et al. 2021),Figura 2 – Esempio di robot di disinfezione mediante radiazione UV-C sviluppati presso la Scuola Sant’Anna.La manutenzione predittivaNon da ultimo, e non meno trascurabile, è la categoria dei robot per ispezione e per la manutenzione, che grazie alle tecnologie di visione artificiale potenziate dall’Intelligenza Artificiale sono in grado di potenziare il paradigma della manutenzione predittiva, ovvero un tipo di manutenzione che prevede ed anticipa il guasto, attraverso la misura con sistemi di sensori di parametri fisici di sistema e di modelli matematici che consentono di identificare il tempo residuo prima del guasto.Verso Industria 5.0Ma anche nell’ambito industriale tradizionale la robotica collaborativa introduce un importante cambio di paradigmi, pienamente in linea e sintonia con il concetto di Industria 5.0, un paradigma di produzione per un’industria più sostenibile, resiliente e incentrata sull’uomo, in accordo alla doppia transizione verde e digitale (EU Directorate 2021). Industria 5.0 nasce anche dal desiderio di restituire l’uomo al centro del processo di manifattura e produzione, e di poter quindi usare la tecnologia per ritornare a dare valore all’uomo nel processo di manifattura, con la possibilità della personalizzazione anche nella produzione di massa. I prodotti dell’industria 5.0 sono prodotti che richiedono il coinvolgimento dell’uomo e del “tocco umano” nella loro realizzazione, con un unico imprinting dell’artigiano e del designer umano (Østergaard 2018).Il concetto di micro-fabbrica proposto da Arrival, all’opposto delle giga-fabbrica, dove rispetto alla fabbrica seriale in cui i processi di manifattura sono condotti in serie, secondo il principio del nastro trasportatore, si rende tutto più flessibile con l’introduzione della robotica mobile.Robotica collaborativa e occupazioneLa robotica collaborativa consente inoltre di ridurre la soglia di accesso per la gestione e la programmazione di queste macchine. La collaborazione uomo-robot nello spazio condiviso è infatti un potente abilitatore per il trasferimento di capacità tra esseri umani e robot, dal momento che diventa possibile la programmazione del robot attraverso la dimostrazione guidata del compito da eseguire e la manipolazione fisica del robot. Lavori recenti hanno mostrato i progressi e le prospettive di presentare le istruzioni per mezzo di robot fisicamente collaborativi utilizzando approcci di insegnamento enattivo, più simili a quello umano (Ajoudani et al. 2018).Si prevede che la prossima generazione di robot autonomi funzionerà con maggiori capacità senza o con limitata supervisione, così come la prossima generazione di robot interattivi, con capacità cognitive, sociali e fisiche intuitive, sicure ed efficienti notevolmente migliorate, per assistere ed interagire con gli esseri umani.Questo è in linea con la visione della International Federation of Robotics (IFR) che nel suo position paper su “L’impatto della robotica sull’occupazione” riconosce le crescenti esigenze di flessibilità e resilienza della produzione e come una maggiore adozione di robot offra grandi vantaggi anche per i lavoratori della produzione , creando ruoli nuovi e interessanti con nuovi profili di competenze. In Italia diversi enti si occupano della promozione della Robotica collaborativa, recentemente il Ministero dello Sviluppo Economico (MISE) ha favorito la creazione di Artes 4.0 centro nazionale di competenza incentrato proprio sulla Robotica Collaborativa e le tecnologie e sistemi digitali 4.0 abilitanti.È ampiamente dimostrato che l’automazione non porta alla sostituzione del lavoro, ma piuttosto a una riallocazione sia dei lavori che delle attività in cui i robot completano e aumentano il lavoro umano eseguendo attività di routine o pericolose. Per fare in modo che i robot si integrino e aumentino il lavoro, il futuro prevederà che robot e umani lavorino insieme, in modo che i robot sostituiranno le attività lavorative, ma non sostituiranno i posti di lavoro._NoteSLAM acronimo inglese per Localizzazione Simultanea e Ricostruzione dell’ambiente ↑BibliografiaAjoudani, Arash, Andrea Maria Zanchettin, Serena Ivaldi, Alin Albu-Schäffer, Kazuhiro Kosuge, and Oussama %J Autonomous Robots Khatib. 2018. ‘Progress and prospects of the human–robot collaboration’, 42: 957-75.EU Directorate, Reseach and Innovation. 2021. “Industry 5.0 Towards asustainable, human-centric and resilient European industry.” In, edited by European Commission.Mountz, Mick. 2012. “Kiva the Disrupter.” In Harvard Business Review.Østergaard, Esben H %J Retrieved on February. 2018. ‘Welcome to industry 5.0’, 5: 2020.Tiseni, Luca, Domenico Chiaradia, Massimiliano Gabardi, Massimiliano Solazzi, Daniele Leonardis, Antonio %J IEEE Robotics Frisoli, and Automation Magazine. 2021. ‘UV-C Mobile Robots with Optimized Path Planning: Algorithm Design and On-Field Measurements to Improve Surface Disinfection Against SARS-CoV-2’.

Coding: OpenAI Codex 2025 e la transizione verso team ibridi

Il nuovo OpenAI Codex presentato il 17 maggio 2025 è un agente di programmazione autonomo integrato in ChatGPT. Si tratta di un sistema di AI avanzato per la scrittura di codice, descritto come l’agente di coding più potente finora disponibile.Indice degli argomenti
Caratteristiche principali di OpenAI Codex 2025Diversamente dal semplice modello di completamento codice lanciato nel 2021 (che aveva lo stesso nome), questa nuova versione di Codex è un “software engineering agent” cloud-based in grado di operare in parallelo su più task di sviluppo. In pratica, Codex funge da “collega virtuale” per gli ingegneri del software, capace di collaborare su compiti complessi e prolungati e non solo di rispondere a domande immediate.Al momento l’azienda americana ha rilasciato Codex in modalità research preview (anteprima di ricerca), inizialmente ai soli abbonati ChatGPT di livello Pro, Team ed Enterprise, con l’intenzione di estenderlo successivamente anche agli utenti Plus ed Edu.Codex opera tramite l’interfaccia di ChatGPT, in particolare attraverso una barra laterale dedicata. L’utente può assegnare un nuovo compito di programmazione descrivendolo in linguaggio naturale e cliccando su “Code” (per far scrivere/eseguire codice) oppure fare domande sul codice cliccando “Ask”. Ogni richiesta viene gestita in modo isolato all’interno di un ambiente cloud sandbox: Codex clona il repository di codice pertinente (tramite integrazione con GitHub) e carica i file in un ambiente virtuale sicuro, configurato per rispecchiare il setup di sviluppo reale dell’utente. All’interno di questa sandbox, Codex può leggere e modificare file, oltre a eseguire comandi (per fare qualche esempio: lanciare test, compilatori o altri tool).Tecnologie e modello alla base di OpenAI CodexDal punto di vista dell’IA, Codex è alimentato dal modello “codex-1”, una variante specializzata del più potente modello di ragionamento di OpenAI o3, ottimizzata specificamente per compiti di ingegneria del software. I ricercatori hanno addestrato questo modello tramite tecniche di Reinforcement Learning su attività di coding reali per produrre codice aderente alle istruzioni fornite e agli standard di stile dei programmatori umani.Una caratteristica chiave del modello è la sua capacità di “auto-correzione”: Codex può iterare sulle proprie soluzioni, ad esempio eseguendo test sul codice generato e continuando a modificarlo affinché tutti i test possano essere eseguiti con successo.Il modello supporta anche un contesto esteso (fino a 192.000 token) per poter gestire codebase molto grandi.In termini di integrazioni tecnologiche, Codex si collega direttamente a servizi come GitHub: l’utente può autorizzare Codex ad accedere ai propri repository, in modo tale che l’agente possa pre-caricare il codice del progetto su cui lavorare.La piattaforma consente di configurare l’ambiente di esecuzione in modo da allinearlo al proprio stack (ad esempio specificando versioni di linguaggi, dipendenze, variabili d’ambiente, ecc.). Inoltre, OpenAI ha introdotto uno speciale file di configurazione denominato AGENTS.md che gli sviluppatori possono inserire nel repository: simile a un README, questo file fornisce a Codex linee guida su come navigare il codice, quali comandi usare per build e test, e come aderire alle convenzioni del progetto. Ciò aiuta l’agente a comprendere il contesto applicativo e a comportarsi in modo più conforme alle aspettative del team di sviluppo.Da notare che Codex mantiene un approccio trasparente e verificabile nelle sue operazioni: mentre esegue un task, registra log delle azioni (es. output del terminale, risultati dei test) e li cita nelle sue risposte finali. In questo modo l’utente può ispezionare il processo svolto passo-passo e verificare cosa ha fatto l’agente prima di integrare qualsiasi modifica. Una volta completato un compito, Codex effettua un commit delle modifiche nel suo ambiente virtuale e presenta all’utente un riepilogo delle modifiche effettuate, includendo differenze di codice e risultati dei test per facilitare qualsiasi possibile attività di code review.Funzionalità operative di OpenAI Codex 2025Il nuovo Codex offre un ampio spettro di funzionalità per automatizzare compiti di sviluppo software.Scrittura di nuove funzionalità: dato un requisito in linguaggio naturale, Codex è in grado di implementare codice corrispondente, creando nuovi moduli o funzioni nel progetto. Ad esempio, si può chiedere “implementa la funzionalità X secondo queste specifiche…” e Codex svilupperà il codice necessario (seguendo lo stile del progetto) e lo testerà fino ad assicurarsi che funzioni.Correzione di bug: l’agente può localizzare e risolvere bug nel codice esistente. Si può, ad esempio, indicare “trova e correggi il bug introdotto negli ultimi 5 commit” e Codex analizzerà la cronologia del repository per identificare il problema e proporre una correzione. Durante questo processo, eseguirà i test pertinenti per verificare che il bug sia effettivamente risolto.Answering sul codice (Q&A): Codex può rispondere a domande sul codebase dell’utente. Ciò significa che può fungere da assistente di documentazione: ad esempio si può chiedere “Dove viene calcolata la variabile Y nel progetto?” oppure “Cosa fa esattamente questa funzione?”, e l’agente fornirà spiegazioni basate sul codice, citando i file e le linee rilevanti.Refactoring e miglioramenti del codice: l’agente eccelle in compiti di manutenzione come rifattorizzare porzioni di codice per migliorarne la leggibilità o l’efficienza, rinominare variabili/funzioni per seguire uno standard, eliminare codice duplicato, ecc.. Questi sono compiti “meccanici” che spesso interrompono il flusso di lavoro umano, e Codex può gestirli autonomamente su richiesta.Scrittura ed esecuzione di test: Codex può generare test automatici per il codice (ad esempio creando casi di test per funzioni non ancora coperte) e poi eseguirli. Può quindi aiutare a aumentare la copertura di test e a garantire che nuove modifiche non introducano regressioni. Se qualche test fallisce, l’agente tenterà di correggere il codice fino a farlo passare, oppure segnalerà chiaramente il problema all’utente.Impostazione di workflow CI/CD o strumenti di supporto: come parte delle sue funzionalità, Codex può configurare file di build o pipeline di integrazione continua. Ad esempio, può creare un workflow per eseguire automaticamente l’ESLint ad ogni pull request, bloccare merge che violano le regole di lint, ecc., come mostrato da uno dei task nell’interfaccia Codex. In generale, può occuparsi di compiti infrastrutturali ripetitivi come setup di ambienti, aggiornamento di configurazioni o script di deployment.Proposta di Pull Request e documentazione: una volta completata una modifica, Codex permette di preparare direttamente una pull request con le modifiche proposte, pronta per la revisione umana. Inoltre, può aiutare a redigere documentazione o commenti descrittivi per il codice che ha scritto, facilitando la comprensione da parte del team.La capacità di parallelismo di OpenAI Codex 2025Una caratteristica distintiva di Codex è la sua capacità di gestire più incarichi contemporaneamente (parallelism): l’utente può lanciare diversi task in parallelo (ad esempio, far lavorare l’agente su più bug o su differenti feature allo stesso tempo) e controllarne l’avanzamento simultaneamente. Mentre Codex elabora questi compiti in background (ciascuno isolato nel proprio sandbox), lo sviluppatore può continuare a fare altro e/o utilizzare altri strumenti, senza doversi fermare ad aspettare.Questa esecuzione asincrona e parallela consente di risparmiare tempo e di ridurre i tempi morti: in pratica, Codex può occuparsi di “lavoro noioso” (come potrebbero definirlo molti sviluppatori) mentre la persona può dedicarsi ad attività più creative o critiche.Molto probabilmente l’adozione di un flusso di lavoro multi-agente asincrono, inaugurato da Codex, potrebbe diventare uno standard per la produttività di chi si occupa di ingegneria del software in futuro.Impatto di OPenAI Codex 2025 su team e aziendeIl nuovo Codex è rivolto principalmente a sviluppatori e team di ingegneri che vogliono aumentare la produttività automatizzando compiti ripetitivi o time-consuming.La stessa OpenAI ha raccontato come i propri ingegneri interni abbiano già integrato Codex nel loro toolkit quotidiano per attività come refactoring, scrittura di test, scaffolding di nuove funzionalità e triage di problemi durante il turno di reperibilità. L’obiettivo è permettere ai programmatori umani di concentrarsi sui compiti più creativi e critici, delegando all’IA le parti più meccaniche o che potrebbero interrompere l’attenzione.Naturalmente, oltre ai singoli sviluppatori, Codex è pensato per intere aziende e team software. Durante il periodo di test iniziale, OpenAI ha collaborato con alcune organizzazioni per valutare l’impatto di Codex su codebase e workflow diversi.Casi d’uso aziendaliAd esempio, Cisco ha esplorato l’uso di Codex per accelerare la realizzazione di idee ambiziose da parte dei propri team, fornendo feedback a OpenAI come partner di design.La startup Temporal lo utilizza per velocizzare lo sviluppo di feature, debug e refactoring di grandi basi di codice, sfruttando la possibilità di eseguire task complessi in background così che i loro ingegneri possano rimanere concentrati.L’azienda Superhuman ha impiegato Codex per automatizzare piccoli task ripetitivi (come migliorare la copertura dei test o correggere errori di integrazione), arrivando persino a permettere ai product manager di apportare piccole modifiche al codice (con l’assistenza di Codex) senza coinvolgere direttamente un ingegnere, se non nella fase di code review finale.Kodiak Robotics, nel campo della guida autonoma, ha usato Codex per scrivere strumenti di debug, migliorare la suite di test e rifattorizzare codice, in modo da accelerare lo sviluppo del loro software di guida,In molti, tra l’altro, raccontato come Codex sia diventato anche un prezioso strumento di apprendimento interno, aiutando le persone a capire parti di codice non familiari grazie alla capacità dell’agente di fornire contesto e richiamare modifiche storiche rilevanti.Interessante sottolineare che OpenAI intende rendere Codex accessibile anche a studenti, educatori e ricercatori tramite account ChatGPT Edu. Questo potrebbe aprire le porte a utilizzi in ambito formativo: ad esempio, come assistente nei corsi di programmazione (per aiutare gli studenti a capire e correggere codice) o come strumento per insegnanti che vogliono generare esempi di codice o test automaticamente.Guida pratica all’uso di OPenAI Codex 2025Per utilizzare Codex è necessario avere accesso a ChatGPT con un piano supportato (inizialmente ChatGPT Pro da $200/mese, o un account Team/Enterprise; l’accesso per utenti Plus da $20/mese e per account Edu sarà aggiunto in seguito). All’interno dell’interfaccia web di ChatGPT, gli utenti abilitati vedranno una barra laterale o sezione dedicata a Codex. Prima di iniziare, è consigliabile collegare il proprio account GitHub o fornire a Codex l’accesso al repository di codice su cui dovrà operare, in modo che l’agente possa clonarlo e analizzarlo.Fatto questo, si possono seguire diversi passi:Impostare il contesto: selezionare dall’interfaccia il repository e il branch su cui lavorare (oppure permettere a Codex di clonare un repo pubblico/privato autorizzato). Assicurarsi che il file AGENTS.md sia presente e configurato (opzionale, ma migliora la qualità del risultato) con istruzioni su build/test e convenzioni del progetto.Formulare una richiesta (prompt): nella casella di input di Codex, descrivere in linguaggio naturale il compito da svolgere o la domanda da porre. Esempi di prompt possono essere: “Correggi il bug che causa il crash quando l’utente clicca sul pulsante X”, oppure “Implementa la funzionalità Y seguendo le specifiche Z”, o ancora “Qual è la differenza tra la funzione A e B in questo progetto?”. Una volta scritto il prompt, si clicca “Code” se si tratta di un task operativo, oppure “Ask” se si tratta di una domanda di chiarimento.Esecuzione asincrona: a questo punto Codex avvia il lavoro in background. Nell’interfaccia, l’utente vedrà il task elencato in una lista di attività con uno stato (ad esempio “In esecuzione”). È possibile lanciare ulteriori task nel frattempo. Ogni task viene eseguito isolatamente: Codex carica il codice, analizza il problema, genera eventuale nuovo codice e lo testa. L’utente può monitorare in tempo reale l’avanzamento: ad esempio, vedere log di test che appaiono, o uno stato percentuale di completamento, a seconda di come OpenAI visualizza il progresso. In genere, ogni attività può durare da pochi minuti fino a una mezz’ora circa, a seconda della complessità.Revisione del risultato: quando Codex completa un task, lo stato nell’elenco passerà a “Completato” e l’utente potrà cliccarlo per vedere i dettagli. Codex fornirà:Un riepilogo di cosa ha fatto (es: “Ha identificato che il bug era causato da X e ha modificato Y per risolverlo”).Le differenze di codice (diff) con evidenziate le aggiunte (+) e rimozioni (-) nei file modificati.Gli output di test e log pertinenti, ad esempio indicando “ Tutti i test sono passati” oppure mostrando eventuali errori incontrati. (Vedi immagine sotto per un esempio di schermata di risultato di Codex.)Azioni successive: dopo aver esaminato il lavoro di Codex, l’utente ha varie opzioni. Se il risultato è soddisfacente, può scegliere di integrarlo nel codice base: ad esempio, Codex offre un comando per aprire direttamente una pull request su GitHub con le modifiche effettuate, pronta per il code review umano e il merge. In alternativa, l’utente può scaricare/applicare le patch al proprio repository locale manualmente. Se il risultato non è del tutto soddisfacente, si può chiedere a Codex di apportare revisioni o miglioramenti (ad esempio: “Ottimo, ora applica la stessa correzione anche alla classe correlata XYZ” oppure “Puoi ottimizzare questo algoritmo?”). In ogni momento, l’utente mantiene il controllo: tutte le modifiche di Codex avvengono nel sandbox e nulla viene cambiato nel repository reale finché l’utente non decide di applicarle.OpenAI Codex 2025: limitazioni e considerazioni pratiche Grazie al suo utilizzo, credo sia utile condividere alcune considerazioni pratiche.Essendo un agente autonomo, Codex non sempre avrà successo al primo tentativo su compiti complessi: potrebbe segnalare nei log di non essere certo di una soluzione o di aver incontrato un test fallito. In tali casi, Codex esplicita l’incertezza o l’errore invece di procedere alla cieca, e attende indicazioni dall’utente su come procedere. Ad esempio, potrebbe comunicare: “Alcuni test stanno fallendo; vuoi che provi un approccio diverso o preferisci rivedere tu stesso il codice?”. Ciò garantisce che il programmatore sia coinvolto nelle decisioni critiche e possa intervenire. OpenAI raccomanda comunque agli utenti di revisionare manualmente ogni modifica proposta prima di integrarla definitivamente, come buona pratica di sicurezza e qualità.Per quanto riguarda limitazioni attuali: Codex, essendo in anteprima, non supporta ancora input visivi (ad es. fornire screenshot o GUI per capire problemi di frontend) e non consente di intervenire a metà di un task già in esecuzione (non è possibile “mettere in pausa e correggere” l’agente durante il suo lavoro; bisogna attendere l’esito e poi eventualmente lanciare un nuovo task). Inoltre, delegare un compito a un agente remoto richiede tempi di attesa maggiori rispetto a eseguire modifiche minori a mano; quindi, c’è una curva di adattamento nel lavorare in modo asincrono. Tuttavia, chi ha provato Codex sottolinea che il beneficio di poter parallelizzare attività e di ridurre il contesto da tenere a mente compensa ampiamente questi tempi di attesa.L’evoluzione di OpenAI Codex 2025 rispetto al modello del 2021OpenAI Codex fu inizialmente lanciato nel 2021 come un modello di AI per la generazione di codice basato sul modello GPT-3. Quella prima versione di Codex funzionava principalmente come un motore di autocompletion: l’utente forniva un prompt (es. un commento descrittivo) e il modello restituiva codice corrispondente, eccellendo soprattutto con linguaggi come Python.Quell’iterazione originale ebbe un grande impatto (fu il motore dietro GitHub Copilot), ma presentava anche varie limitazioni: poteva generare codice sintatticamente non corretto, proporre soluzioni solo apparentemente corrette che però fallivano in fase di esecuzione. Inoltre, operava su singole richieste alla volta e non aveva alcuna capacità di “comprendere” davvero il contesto eseguendo o testando il codice – produceva output testuale e bastava.Il Codex 2025 riprende il nome, ma – di fatto – rappresenta un salto generazionale netto rispetto al 2021.Da modello a agente autonomoil Codex originale era un modello di completamento integrato via API/IDE, mentre il nuovo Codex è un vero agente software autonomo. Ciò significa che esegue attivamente operazioni (leggere/scrivere file, eseguire test, effettuare chiamate di sistema) e lavora per obiettivi di alto livello dati dall’utente. Non si limita a produrre codice in base a un prompt, ma porta a termine un compito in modo semi-indipendente. Ad esempio, se gli si chiede di “correggere un bug”, il Codex 2025 esplorerà il codice, tenterà diverse modifiche, eseguirà i test e itererà finché il bug non è risolto – comportamenti fuori portata per il modello 2021.Parallelismo e durata dei taskla nuova versione è progettata per gestire più task simultaneamente e lavorare su ciascuno per diversi minuti (fino a mezz’ora o più), riflettendo un approccio asincrono tipico di un “collega” che lavora in background. Il Codex originale generava un blocco di codice in pochi secondi come risposta diretta; non aveva alcuna nozione di esecuzione prolungata o multitasking. Questa capacità di multitasking in background è considerata da OpenAI un cambiamento fondamentale: Greg Brockman (co-fondatore di OpenAI) ha sottolineato che il vero passo avanti introdotto da Codex è proprio il parallelismo, .Integrazione con ecosistema e strumentiCodex 2025 è integrato nell’ecosistema ChatGPT e si connette con strumenti di sviluppo reali (repository Git, ambienti di test, CLI). OpenAI prevede inoltre di connettere Codex ad altri tool: ad esempio lanciare task da un IDE desktop ChatGPT, o da un sistema di tracciamento issue, o integrarlo in pipeline CI/CD in futuro. Al contrario, il vecchio Codex operava quasi esclusivamente tramite l’API OpenAI o tramite plugin dedicati (come Copilot nei vari IDE), generando codice “su richiesta” ma senza eseguire integrazioni operative dirette con altri sistemi.Qualità del codice e affidabilitàGrazie all’addestramento su RLHF specifico per coding, il nuovo Codex tende a produrre codice più pulito, aderente alle istruzioni e agli standard umani, rispetto al modello 2021. OpenAI afferma che codex-1 genera patch pronte per essere revisionate e integrate immediatamente, mentre il vecchio modello spesso richiedeva correzioni manuali e verifiche approfondite. Inoltre, Codex 2025 fornisce evidenze verificabili (log/test) di quello che fa, aumentando la trasparenza e la fiducia nel suo operato – cosa inesistente nel 2021.Modello sottostanteIl Codex originale era basato su GPT-3 (175 miliardi di parametri) con un fine-tuning su codice open source. Il nuovo Codex utilizza codex-1, un modello derivato dal più recente “OpenAI o3” (un modello di reasoning avanzato, successore di GPT-4). Ciò si traduce in maggiori capacità di ragionamento e contesto. Ad esempio, codex-1 può gestire contesti enormemente più grandi (fino a 192k token), permettendogli di avere “in mente” un intero repository di grandi dimensioni durante l’elaborazione. In più, i benchmark interni mostrano che codex-1 supera tutti gli ultimi modelli generici di OpenAI nei compiti di programmazione (SWE tasks) utilizzati nei test.Verso un nuovo paradigma di collaborazione uomo-macchinaLo strumento rappresenta un’evoluzione significativa, da semplice assistente di completamento codice a agente autonomo collaborativo: si possono immaginare scenari in cui gli sviluppatori “dirigono il lavoro che vogliono curare in prima persona e delegano il resto agli agenti”.Se il Codex originale, una sorta di prima versione, aveva dimostrato il potenziale dell’IA nel coding, la versione 2025 ambisce a rivoluzionare il modo in cui il software viene costruito, introducendo un nuovo paradigma di collaborazione uomo-macchina nello sviluppo software.Sam Altman (CEO di OpenAI), in occasione del lancio, ha paragonato l’importanza di questo agente a quella di ChatGPT al suo esordio, suggerendo che Codex potrebbe rappresentare un cambiamento di paradigma simile ma nell’ambito dello sviluppo software.OpenAI ha anche sottolineato di voler procedere con cautela ed iterazione controllata: Codex viene rilasciato come preview proprio per raccogliere feedback, migliorare la sicurezza e valutare l’impatto sul flusso di lavoro umano.L’azienda riconosce che, se da un lato strumenti come Codex possono aumentare la produttività, dall’altro è fondamentale monitorarne gli effetti su abilità umane, mercato del lavoro e sicurezza del codice prodotto.Quello che abbiamo è certamente un notevole passo avanti nell’assistenza IA alla programmazione. Le prime implementazioni indicano che non è pensato per sostituire gli sviluppatori, ma per potenziarli: l’idea è quella di poter avere al nostro fianco dei collaboratori che non rimpiazzano gli ingegneri software, ma che cambiano il modo in cui questi lavorano.Prospettive future per OpenAI Codex nello sviluppo softwareSe il 2021 ci aveva mostrato che un’IA poteva scrivere codice su richiesta, il 2025 ci sta mostrando che un’IA può diventare parte attiva del team di sviluppo, lavorando al fianco delle persone per costruire software in modo più rapido ed efficiente.Le prossime evoluzioni di Codex (e strumenti simili) ci diranno fino a che punto questa collaborazione uomo-macchina potrà spingersi nel rivoluzionare il mondo del software.

Vuoi rimanere aggiornato sulle nuove tecnologie per la Didattica e ricevere suggerimenti per attività da fare in classe?

Sei un docente?

soloscuola.it la prima piattaforma
No Profit gestita dai

Volontari Per la Didattica
per il mondo della Scuola. 

 

Tutti i servizi sono gratuiti. 

Associazione di Volontariato Koinokalo Aps

Ente del Terzo Settore iscritta dal 2014
Tutte le attività sono finanziate con il 5X1000