Discover PlayDecide. Download games, prepare, play. GET STARTED

L'intelligenza artificiale sta rapidamente cambiando il mondo, in meglio e in peggio

Choose your language

PlayDecide games may be available in multiple languages

Play the game

Download, prepare, discuss & collect results.

SIGN INRegister

Sono sempre più numerosi i sistemi esperti basati sull'intelligenza artificiale che promettono di cambiare il mondo in cui viviamo, lavoriamo e interagiamo tra noi, e in molti casi lo stanno già cambiando.

Author / translator Fabio Turone

Sono sempre più numerosi i sistemi esperti basati sull'intelligenza artificiale che promettono di cambiare il mondo in cui viviamo, lavoriamo e interagiamo tra noi, e in molti casi lo stanno già cambiando. La comparsa di chat-GPT - sviluppato da OpenAI – ha permesso a chiunque di verificare il grado di avanzamento di questo ambito di ricerca. Chat-GPT può essere consultato da chiunque online, ed è in grado di produrre su qualsiasi argomento testi indistinguibili da quelli scritti da esperti madrelingua. Ha però la tendenza a mischiare nello stesso testo affermazioni vere e fatti inventati di sana pianta.
L'Intelligenza artificiale ha anche molti altri impieghi, e secondo molti analisti è destinata a rivoluzionare il mondo del lavoro e le relazioni sociali, con un impatto che è difficile prevedere. Quello che appare oggi certo è che l'uso di questi sofisticati strumenti richiede l'adozione di numerose cautele, per attenuare il rischio di abusi e di conseguenze indesiderate, in particolare a danno delle fasce più deboli della società.
**************************
Questo lavoro è stato realizzato nell'ambito del progetto "FOCS - Format per la cittadinanza scientifica" ideato e condotto dal Center for Ethics in Science and Journalism di Milano in collaborazione con FRAME - Divagazioni scientifiche e con Fondazione Compagnia di San Paolo FOCS - Un format per la cittadinanza scientifica

Created 21 July 2023
Last edited 17 February 2025
Topics Ethics, Science, Technology

Policy positions

Policy position 1

La ricerca sull'intelligenza artificiale e l'apprendimento automatico (machine learning) dovrebbe essere sospesa per precauzione, in attesa di avere da parte dei ricercatori adeguate rassicurazioni sull'assenza di rischi significativi, per l'immediato e per il futuro.

Policy position 2

La ricerca sull'intelligenza artificiale e l'apprendimento automatico (machine learning) dovrebbe essere soggetta ad autorizzazione preventiva, per poter impedire sviluppi tecnologici che non forniscano adeguate garanzie sull'assenza di rischi significativi, per l'immediato e per il futuro.

Policy position 3

La ricerca sull'intelligenza artificiale e l'apprendimento automatico (machine learning) dovrebbe essere libera, ma ogni nuova applicazione dovrebbe essere valutata con attenzione da gruppi multidisciplinari di esperti per soppesare il bilancio tra rischi possibili e benefici attesi, e adottare contromisure per attenuare i rischi significativi, per l'immediato e per il futuro.

Policy position 4

La ricerca sull'intelligenza artificiale e l'apprendimento automatico (machine learning) dovrebbe essere libera, con la raccomandazione di soppesare il bilancio tra rischi possibili e benefici attesi, e adottare contromisure per attenuare i rischi significativi, per l'immediato e per il futuro.

Policy position 5

La ricerca sull'intelligenza artificiale e l'apprendimento automatico (machine learning) dovrebbe essere totalmente libera.

Story cards

Nasrin vive in Bangladesh, e da piccola ha deciso che avrebbe fatto il medico. Quando ha perso una zia per l'infezione da virus Nipah, endemica nella sua regione dal 2001, ha cominciato a chiedersi perché non sia stato ancora sviluppato un vaccino. Secondo l'Organizzazione Mondiale della Sanità, il virus ha causato piccole epidemie stagionali nel paese, con una decina di casi registrati anche nel 2023. La malattia può dare sintomi minimi in alcuni, ma nella maggioranza dei casi – circa il 73% – è letale. Non esistono vaccini né terapie efficaci, ma solo cure palliative. L'infezione è trasmessa da pipistrelli infetti, e dai cibi contaminati. Per esempio è legata anche al consumo di linfa grezza delle palma da dattero, come Nasrin ha appreso a scuola. Ha provato a spiegarlo a familiari e conoscenti, ma con poco successo. Quando l'insegnante ha letto in classe un articolo sull'uso dell'intelligenza artificiale nella ricerca sui vaccini contro le cosiddette malattie emergenti e riemergenti, tra cui l'infezione da Nipah, Nasrin ha deciso di voler studiare anche quella.

Nasrin, che da grande vuole trovare un vaccino per la malattia che colpisce i paesi poveri

Lisa è stata promossa a conduttrice del notiziario televisivo della rete nazionale Odisha TV, nello Stato omonimo nell'India orientale. Lei stessa ha dato l'annuncio in un video pubblicato nell'estate del 2023 su Twitter, mostrando anche di parlare fluentemente diverse lingue. Non si è trattato di un normale avvicendamento nella conduzione del telegiornale, perché Lisa è un avatar animato dall'intelligenza artificiale. Tuttavia non è neanche una prima assoluta, perché già nel marzo del 2023 India Today ha affidato un notiziario a una conduttrice progettata al computer, Sana. Nella presentazione, Sana è stata definita "brillante, bellissima, senza età e instancabile". Entrambe queste conduttrici virtuali vengono formate non solo per presentare le notizie, ma anche per interagire con i telespettatori.

Lisa e Sana, che in India conducono il telegiornale

Delali Agbenyegah è originario del Ghana, ma vive da molti anni negli Stati Uniti, dove ha preso un Master in statistica all'Università di Akron, nell'Ohio, prima di trasferirsi ad Atlanta, in Georgia, dove ora lavora come senior data science manager in una grande azienda di e-commerce. Il suo lavoro quotidiano consiste nell'usare il machine-learning per migliorare l'esperienza di acquisto online da parte della clientela. Nel tempo libero, ha creato e dirige l'organizzazione non-profit "Deep Learning Indaba", che ogni anno organizza in un diverso paese del continente africano un meeting per la comunità dei professionisti che in Africa si occupano di machine-learning e intelligenza artificiale. Nel 2022 il meeting si è tenuto in Tunisia, con partecipanti provenienti da 52 paesi africani, e due soli paesi africani mancanti all'appello. Per l'evento del 2023, previsto in autunno in Ghana, Delali e gli altri organizzatori vorrebbero veder salire il totale a 54. L'obiettivo di Delali è contribuire a formare specialisti capaci di affrontare i problemi specifici di ciascun paese.

L'esperto formato negli Stati Uniti impegnato nella formazione per applicare l'IA ai problemi di chi vive in Africa

Margaret Atwood è una poetessa e scrittrice canadese, autrice fra l'altro del romanzo distopico "Il racconto dell'ancella". Insieme a molte migliaia tra scrittori e giornalisti nell'estate del 2023 ha scritto una lettera aperta alle principali aziende impegnate nello sviluppo dell'IA – da OpenAI a Google, da Microsoft a Meta e altri ancora – accusandoli di usare chatbot per "imitare e rigurgitare" illecitamente il loro linguaggio, il loro stile e le loro idee.
"Milioni di libri, articoli, saggi e poesie protetti dalle leggi sul diritto di autore sono dati in pasto ai sistemi di intelligenza artificiale, che continuano a ingurgitare senza pagare il conto" lamenta la lettera. "State spendendo miliardi di dollari per sviluppare le tecnologia dell'intelligenza artificiale. È giusto che voi ci ricompensiate per l'uso dei nostri scritti, senza i quali l'IA sarebbe banale ed estremamente limitata".

Il racconto dell'ancella dato in pasto all'IA

Lei si chiama Anne Hoffmann, e ha diretto il rotocalco tedesco Die Aktuelle fino all'aprile del 2023, quando ha perso il posto a causa, in un certo senso, dell'intelligenza artificiale. Hoffmann ha infatti deciso di pubblicare, con tanto di fotografia in copertina, una presunta intervista con il pilota di Formula 1 Michael Schumacher, da anni accudito in casa in uno stato di salute gravemente compromessa da un incidente di sci (la famiglia ha sempre mantenuto il massimo riserbo).
Un sistema di intelligenza artificiale generativa è stato usato per scrivere una variante molto plausibile del genere delle "interviste impossibili" (per esempio a personaggi storici morti da tempo) lasciando però intendere che si trattasse di una vera intervista esclusiva. L'editore ha chiesto scusa, dopo che la famiglia ha annunciato un'azione legale.

Quell'intervista mai concessa dal pilota di Formula 1 uscito di scena da anni

Maria Skoularidou è disabile, ed era ancora una studentessa di statistica quando nel 2018 ha partecipato alla conferenza internazionale NeurIPS che aveva portato a Montreal, in Canada, almeno 4.000 esperti studiosi di reti neurali. Per la sua mente allenata alla statistica, il fatto di non vedere neanche un partecipanti con qualche forma di disabilità era un chiaro segno di un problema. Per questo ha fondato il movimento {Dis}Ability in AI, che ha l'obiettivo di rendere i momenti di confronto e crescita professionale nel settore dell'intelligenza artificiale inclusivi e accessibili per chiunque.
La sua filosofia è che la disabilità fa parte della società, e deve essere rappresentata e inclusa, perché l'esperienza di un ricercatore che prova a tenere gli occhi chiusi per un po' non è paragonabile a quella di un non vedente, e così via, e il contributo di tutti è necessario per far sì che le applicazioni dell'intelligenza artificiale riducano le diseguaglianze e non le amplifichino.

La ricercatrice che denuncia i rischi legati al cosiddetto "abilismo"

Da oltre vent'anni Hilda lavora come giornalista in un quotidiano di Berlino, in Germania, edito dall'editore Axel Springer, che è il più grande di Europa e pubblica tra gli altri la Bild e Die Welt. Negli ultimi anni aveva partecipato a diversi convegni in cui sentiva parlare del possibile uso dell'intelligenza artificiale nel giornalismo, e i relatori denunciavano con preoccupazione la tendenza dei chatbot a mischiare dati reali e invenzioni. A lei sembravano discorsi molto astratti, fino a quando il 19 giugno del 2023 ha ricevuto una e-mail, inviata a tutti i dipendenti, in cui l'editore ha annunciato la scomparsa di molte figure professionali. Da allora si chiede se potrà finire di pagare il mutuo, perché l'editore ha scritto che molti ruoli – dal direttore editoriale al redattore, dal correttore di bozze al photo editor al personale di segreteria – diventeranno superflui a seguito dell'adozione di nuovi flussi di lavoro, resi possibili dall'intelligenza artificiale. E si domanda con profondo sconforto fino a che punto la sua professione di una vita sarà stravolta.

La giornalista Hilda, che forse sarà presto rimpiazzata dall'IA

William Agnew è uno studente di dottorato in computer science all'Università di Seattle, nello Stato di Washington, ed è uno degli organizzatori dell'associazione Queer in AI. L'associazione si occupa da alcuni anni di rivendicare i diritti dei ricercatori a prescindere dal loro orientamento sessuale, e la tutela delle minoranze non eterosessuali, che sono ancora oggi spesso soggette ad atti di discriminazione e molestie di ogni tipo.
Proprio il suo impegno nell'associazione lo ha spinto a occuparsi sempre meno di robot, e sempre più di etica della ricerca, perché chi fa parte della comunità queer vede con chiarezza i pericoli insiti nel lavoro tipico del machine learning, che consiste nel categorizzare gli elementi e le persone e applicare queste categorizzazioni per prevedere i risultati futuri sulla base del passato, con un elevato rischio di adottare etichette non corrispondenti al reale e quindi di portare avanti e magari peggiorare le discriminazioni.

Insegnare all'intelligenza artificiale il valore della diversità e dell'inclusione

Lei si chiama Ameca, ed è stata invitata a descrivere il peggior scenario possibile in tema di intelligenza artificiale alla conferenza internazionale su robotica e automazione tenuta a Londra nel 2023. Il suo intervento ha fatto scalpore perché lei è un robot dalle espressioni facciali molto realistiche, che usa il sistema chat-GPT per interagire con il mondo esterno, e perché la sua profezia è preoccupante. Lo "scenario da incubo" è quello di un mondo in cui i robot sono diventati così potenti da riuscire a controllare o manipolare gli umani a loro insaputa; una società oppressiva in cui non c'è più alcun rispetto per i diritti degli individui. Questo scenario non è al momento probabile, ha proseguito Ameca, che ovviamente non ha un pensiero proprio ma rielabora con notevole maestria un enorme numero di testi che le sono stati sottoposti: "È importante essere consapevoli dei rischi potenziali e i pericoli associati a IA e robotica. Occorre adottare ora delle misure per assicurarci che queste tecnologie vengano usate responsabilmente per evitare conseguenze negative in futuro".

Lo scenario da incubo di Ameca

Ogni anno l’industria tessile produce in tutto il mondo oltre 90.000 tonnellate di scarti di produzione, che vengono riciclati solo in un’infima percentuale, inferiore all’1%. Per questo Sarika Bajaj ha unito le forze con un gruppo di donne ingegnere e nel corso della pandemia da Covid-19 a fondato in California la startup Refirbed. La loro società usa un sistema brevettato basato su intelligenza artificiale e robotica per separare e riciclare i tessuti di scarto, compresi quelli compositi difficili da separare. Raccolgono qualsiasi tipo di tessuto di scarto, dai rotoli parzialmente utilizzati nei processi industriali agli abiti usati fino ai piccoli scampoli, spiega Sarika, che oggi è amministratore delegato di Refirbed. Grazie al sistema brevettato è possibile rimuovere bottoni e cerniere-lampo e qualsiasi altro elemento contaminante, riuscendo a rimettere in circolo la maggior parte del materiale. Oltre all’aspetto economico, Sarika e le sue colleghe sono state motivate dalla prospettiva di ridurre dell’impatto dell’industria tessile sul cambiamento climatico.

Sarika, che con l’IA combatte gli sprechi dell’industria tessile

Gli edifici esistenti sono responsabili ogni anno di circa il 40% delle emissioni di carbonio nell’atmosfera, a loro volta uno dei fattori determinanti del cambiamento climatico indotto dalle attività umane. Per quanto si investa nella costruzione di nuovi edifici con classe energetica molto elevata e quindi a basso impatto, o addirittura a impatto prossimo allo zero (i cosiddetti near-zero energy buildings), si stima che almeno l’80% degli edifici che saranno in uso nel 2050 esistono già oggi. Per questo l’intervento sul patrimonio immobiliare esistente è di fondamentale importanza, anche secondo Ruggiero Guida, Ranjeet Bhalerao, and Josephine Bromley (nella foto) cofondatori di Mortar IO, una società londinese specializzata nell’uso dell’intelligenza artificiale e della robotica per progettare interventi sugli edifici esistenti per renderli più efficienti e ridurre così i consumi e la loro impronta energetica.

Ridurre le emissioni di CO2 legate all’edilizia: è questo lo scopo di Mortar IO

Il cambiamento climatico, con l’intensificarsi di fenomeni meteorologici improvvisi sempre più estremi, continua a causare danni al mondo dell’agricoltura, e minaccia di compromettere i raccolti, soprattutto nelle regioni del pianeta più povere e fragili. Dall’altra parte, la produzione di cibo è responsabile di circa il 30% delle emissioni di gas responsabili dell’effetto serra. Parte da queste premesse il progetto della startup israeliana AgroScout, che utilizza l’intelligenza artificiale per rendere la filiera produttiva agroalimentare più sostenibile e più resiliente. La piattaforma messa a punto da AgroScout monitora lo stato delle coltivazioni in tempo reale, rilevando con grande tempestività eventuali malattie e infestazioni di parassiti, riuscendo a ridurre dell’85% l’uso di agrofarmaci e pesticidi. Grazie al supporto dell’acceleratore di startup di Google, nei primi mesi di attività AgroScout ha raccolto 2,4 milioni di immagini su un’area di 145.000 acri

AgroScout, uno strumento avanzato per aiutare gli agricoltori a monitorare le coltivazioni

Nell'estate del 2023 è stata diffusa anche in rete un'incredibile immagine color seppia che ritrae Leonardo da Vinci seduto, con la Gioconda (o meglio, la sua modella Lisa del Giocondo) seduta sulle ginocchia, mai vista prima. In questa immagine, che secondo il testo di acompagnamento risalirebbe al 1504, entrambi guardano verso l'obiettivo fotografico, con espressioni enigmatiche.
Ovviamente l'immagine può apparire verosimile ma è falsa, perché - a meno di evocare inverosimili teorie del complotto – all'epoca di Leonardo da Vinci la fotografia non era ancora stata inventata. È frutto di uno scherzo, che però mostra anche con chiarezza uno degli effetti della facilità d'uso di un numero crescente di sistemi di intelligenza artificiale: la produzione di falsi "reperti storici" quasi indistinguibili da quelli veri che rischiano di complicare terribilmente qualunque lavoro di indagine, da quella giornalistica a quella giudiziaria fino al lavoro degli storici del futuro.

L'incredibile ritratto fotografico di Leonardo da Vinci con la sua modella Lisa del Giocondo sulle ginocchia

"Avevo perso completamente le forze, come se tra me e il materasso ci fosse una calamita che continuava a tenerci incollati l’uno all’altra” e " All’inizio mi sentivo in trappola, come se io fossi la mia malattia e non avessi alcun controllo": sono le parole di due persone colpite da l'emoglobinuria parossistica notturna. Chi soffre di una malattia rara si trova circondato da incomprensione, che spesso ritarda anche la diagnosi che può aprire la strada a interventi mirati, in grado di curare la malattia o almeno attenuare i sintomi più gravi. Per questo le campagne di sensibilizzazione rivolte ai cittadini sono sempre più numerose. Per far conoscere meglio l'emoglobinuria parossistica notturna, una malattia ematologica ultra-rara, progressiva, che colpisce circa 350 persone in Italia, un'azienda farmaceutica ha deciso di lanciare nell'autunno del 2023 la campagna “what AI feel”, basata su comunicazione digitale e social e affissioni nella città di Milano. Le immagini sono prodotte dall'intelligenza artificiale, sulla base delle descrizione fornite da un gruppo di malati.

What AI feel: una campagna di sensibilizzazione per aiutare i malati a spiegare ciò che provano

Come risposta all'efferato omicidio nel bagno delle donne della metropolitana di Seul, in Corea, nell'aprile del 2023 è stata decisa l'installazione di dispositivi biometrici, basati sull’intelligenza artificiale, che verificheranno il genere di chi entra e faranno scattare un allarme nel caso di ingresso da parte di un uomo.
Prima di venire installato su larga scala il sistema verrà sperimentato per sei mesi nei bagni delle donne di una sola stazione di Seul, quella di Sinseol-dong. Secondo i promotori, il software analizzerà le immagini delle telecamere di sorveglianza e sarà in grado di distinguere il genere di una persona “in base alla forma del corpo, all’abbigliamento che porta, agli effetti personali e ai modelli comportamentali”, per poi inviare notifiche alla sicurezza nel caso riscontri la presenza di un uomo nel bagno delle donne.
Secondo i critici, la tecnologia è basata su stereotipi di genere del tutto superficiali e inaffidabili, e rischia di far scattare falsi allarmi a danni di persone vulnerabili senza alcuna garanzia di impedire altri episodi violenti.

In Corea del sud, sensori per la verifica del genere all'ingresso dei bagni pubblici

Le stupefacenti capacità con cui strumenti sempre nuovi usano l'IA per produrre testi e immagini possono avere effetti indesiderati gravi e inattesi, e per questo motivo richiedono una particolare cautela. Per questo il presidente americano Joe Biden ha annunciato nel luglio del 2023 l'adesione di sette tra le principali multinazionali attive in questo campo – Amazon, Google, Meta e Microsoft ma anche il produttore di ChatGPT, OpenAI, e le startup Anthropic e Inflection – ad alcuni principi di salvaguardia. In particolare, le nuove tecnologie saranno soggette a test di sicurezza (in particolare nell'ottica della biosicurezza e della cybersecurity – condotti anche da esperti indipendenti. Le verifiche preliminari saranno estese anche alla valutazione dei potenziali rischi sociali legati a bias (distorsioni inconsapevoli nella raccolta e interpretazione dei dati) e discriminazione. Anche i rischi più astratti, come quello dell'autoreplicazione dei sistemi esperti e della perdita di controllo da parte dell'uomo saranno considerati.

Il Presidente americano Joe Biden ha convinto le principali aziende che sviluppano IA ad agire con prudenza

Il sito Replika promette di creare un "partner che si prende cura di te": grazie all'intelligenza l'utente può stabilire un rapporto di intimità con un avatar realizzato a proprio gusto. Lo fa attraverso messaggi testuali e vocali scambiati per mezzo di una app del cellulare, che grazie alle continue iterazioni diventano progressivamente più capaci di toccare corde emotivamente profonde: l'avatar ascolta, annuisce, e risponde sempre più a tono, fino a passare ad ammiccamenti sbarazzini. Chi paga un abbonamento annuale di alcune decine di euro ha accesso anche a interazioni più "piccanti", a sfondo erotico. O almeno, aveva accesso fino a quando nel febbraio del 2023 il Garante italiano della privacy ha chiesto garanzie non solo per la tutela dei dati personali, ma anche per la salute psicologica e mentale dei soggetti emotivamente vulnerabili, minacciando multe milionarie, anche perché non c'è controllo sull'età degli utenti. Da quel momento, molti affezionati utenti della app hanno sofferto per il brusco raffreddamento della relazione, su cui l'azienda non ha dato spiegazioni.

La app che promette intimità artificiale

Sono sempre più numerosi i libri in vendita su piattaforme online come Amazon che anziché avere un autore in carne e ossa sono prodotti usando sistemi per la generazione di testi tipo Chat-GPT, con effetti che vanno al di là della perdita di reddito per gli autori che investono tempo e studio nella stesura di un libro, e in alcuni casi potrebbero addirittura avere conseguenze mortali per i lettori. L'allarme viene dalla società newyorkese di micologia, ovvero degli studiosi di funghi, che ha trovato raccomandazioni sbagliate, e potenzialmente pericolosissime, in alcuni manuali per principianti per distinguere i funghi commestibili da quelli velenosi, e in alcuni libri di cucina con ricette di funghi. I libri sono firmati con nomi verosimili, e a meno di indagini approfondite non è possibile capire che sono scritti dall'IA. Un'inchiesta giornalistica ha però verificato che alcuni di questi libri sono firmati da personaggi inesistenti, e il loro testo appare artificiale alla verifica con un software apposito.

Quando il libro per appassionati di funghi è scritto dall'intelligenza artificiale, si rischia la vita

Il Consiglio europeo della ricerca (ERC) ha pubblicato alla fine di marzo 2024 un rapporto alla luce degli oltre 1000 progetti di ricerca che ha finanziato per esplorare l'IA con il punto di vista e gli strumenti di tutte le discipline scientifiche. Questi progetti, selezionati esclusivamente per la loro eccellenza, spaziano dall'informatica all'ingegneria, e dalle neuroscienze alle applicazioni in ambito sanitario e non solo.
Il rapporto presenta una visione completa del contributo che la ricerca sull'IA ha dato e sta dando in ambiti chiave per l'Unione Europea, come la salute, la sostenibilità ambientale e la transizione verde, la democrazia, la giustizia, l'occupazione e l'istruzione, ed esplora le sfide sociali, economiche ed etiche poste dall'IA.
"Dobbiamo assicurarci di rimanere 'intelligenti in un mondo intelligente', un concetto che comprende l'essere informati, adattabili e responsabili nel nostro impegno con l'IA" ha spiegato nell'introduzione Gerd Gigerenzer, Vicepresidente del Consiglio scientifico dell'ERC.

Occorre essere "intelligenti in un mondo intelligente" spiegano i ricercatori dell'ERC

Nell’aprile del 2024, Te Ani Solomon, una neozelandese di etnia maori di Rorotua, stava facendo la spesa per festeggiare il suo quarantasettesimo compleanno insieme al figlio adolescente, quando due uomini della sicurezza le hanno intimato di uscire dal supermercato, perché il sistema di riconoscimento facciale l’aveva identificata come una ladra a cui era stato vietato l’accesso.
Pur dichiarandosi innocenze, la signora è stata umiliata davanti al figlio senza avere la possibilità di dimostrare che si trattava di un errore. Quando la notizia si è diffusa, un portavoce dell’azienda ha dato la colpa a un “errore umano” degli addetti alla sicurezza, che si sono fidati del nuovissimo sistema IA, anche se è noto che i sistemi automatizzati sono efficienti con i volti di maschi di pelle bianca, ma spesso inaffidabili con i tratti somatici delle minoranze etniche. Il Garante Privacy neozelandese – che già aveva aperto un’istruttoria per capire se questi sistemi riducono davvero i furti – sta verificando se sono state violate le leggi in materia di protezione dei dati personali.

La signora che voleva festeggiare il compleanno con il figlio, bollata come ladra

Nell'ottobre 2024, lo sviluppatore di software americano Nick Spreen ha ricevuto un avviso dal suo iPhone, scritto dalla funzione "Apple Intelligence" in fase di beta-testing, che gli ha riassunto in poche parole il contenuto di diversi lunghi messaggi con cui la sua ragazza gli annunciava la decisione di rompere.
Spreen ha condiviso lo screenshot del messaggio in un tweet divenuto virale sul social network X, scrivendo: “Per chiunque si sia chiesto come sia il riassunto di un messaggio di rottura fatto dall'intelligenza artificiale”. Questa funzione di riepilogo di Apple Intelligence, annunciata dal produttore di iPhone a giugno, dovrebbe essere disponibile con l'aggiornamento iOS 18.1, ma inizialmente sarà riservata alla clientela americana.
“Leggendo quel messaggio ho avuto l'impressione che mettesse un po' di distanza, che non è una cosa negativa” ha detto Spreen alla rivista Ars Technica. “Forse un po' come un assistente personale che rimane professionale e ti copre le spalle anche nelle situazioni più terribili, ma sì, più che altro mi è sembrato irreale e distopico”.

"La tua ragazza ti ha mollato e rivuole le sue cose"

Si chiama "deep fake", falso profondo: è la creazione di video molto realistici in cui si vedono persone reali compiere atti che non hanno mai compiuto, anche a sfondo sessuale. Dopo alcuni casi che hanno colpito personaggi famosi del mondo dello spettacolo, in particolare donne, la tecnologia è diventata talmente sofisticata e alla portata di tutti – con app cui basta fornire poche foto reperibili sui social media - da aver causato la diffusione di un gran numero di video pornografici con protagoniste del tutto ignare. Il fenomeno sta avendo un impatto drammatico in particolare in Corea del Sud, dove il presidente Yoon Suk Yeol ha parlato di una "epidemia di crimini sessuali digitali". Secondo un recente rapporto di Security Heroes, su 95.820 video porno deepfake reperibili nel mondo, oltre la metà prende di mira donne coreane. Questo accade perché la maturazione del paese in materia di uguaglianza di genere e diritti umani non è andata al passo con la rivoluzione digitale, che sta ora aggravando il fenomeno della violenza di genere che colpisce soprattutto le ragazze adolescenti.

Le donne coreane scendono in piazza contro l'abuso dell'IA per creare falsi video porno

INFO CARDSISSUE CARDS

L'IA applicata alla salute rischia di amplificare alcuni pregiudizi radicati e peggiorare le diseguaglianze

Una revisione della letteratura pubblicata nel giugno 2023 su "PLOS Digital Health" segnala che l'uso dell'IA in sanità non ha mantenuto la promessa di migliorare la qualità degli interventi e di promuovere l'equità: molti dati sanitari riflettono "bias" (distorsioni legate per esempio a pregiudizi razzisti o sessisti) che gli algoritmi predittivi amplificano. Occorre quindi immaginare, e applicare al più presto, contromosse efficaci.

Il Garante italiano ha bloccato ChatGPT segnalando aree grigie

All'inizio del 2023 il Garante italiano per la privacy ha contestato alla società OpenAI che sviluppa
il software ChatGPT il mancato rispetto della disciplina sulla privacy, la raccolta illecita di dati personali e l'assenza di sistemi per la verifica dell’età dei minori. Il software è quindi rimasto irraggiungibile per chi si collegava dall'Italia, finché dopo alcune settimane è tornato a essere disponibile.

L'impatto dell'intelligenza artificiale sul mercato del lavoro potrebbe essere devastante

Secondo un'analisi pubblicata nell'aprile del 2023 da "Forbes Advisor", oltre tre americani su quattro (77%) temono che la progressiva adozione di strumenti di lavoro basati sull'IA porterà un aumento della disoccupazione nel giro di un anno. Entro il 2030 il 15% della forza lavoro globale sarà colpita, con una riduzione di ben 400 milioni di posti di lavoro, e la creazione di 97 milioni di posti per lavoratori con nuove competenze.

Senza l’IA, l’Europa rischia di restare indietro

Uno studio dell’Unione Europea segnala che l’IA è già usata nella ricerca in modo pervasivo, e diventerà ancor più importante: “Se la tendenza in atto prosegue, la probabilità che le scoperte siano dovute principalmente all’IA aumenterà significativamente” hanno spiegato gli esperti, tra cui l’italiana Valentina Di Girolamo. Quindi ogni ostacolo allo sviluppo e all’adozione dell’IA rischia di riflettersi sull’autonomia strategica dell’Europa.

Un quinto delle apparecchiature mediche basate su IA approvate sono oggetto di pubblicità ingannevole

Uno studio pubblicato sulla rivista Jama Network Open ha scoperto che tra le 119 apparecchiature mediche che fanno uso di intelligenza artificiale approvate fino al 2022 dall'organismo regolatorio federale (la Food and Drug Administration), ben 23 – quasi una su cinque – sono pubblicizzate tra i medici per impieghi diversi da quelli in cui l'uso dell'intelligenza artificiale è autorizzata.

Secondo l'autorità britannica dell'informatica è a rischio la privacy

La diffusione dell'intelligenza artificiale generativa impone alle aziende di usare verifiche più stringenti nella tutela dei dati personali. L'allarme è stato lanciato nel giugno del 2023 dall'Information Commissioner’s Office (ICO), che ha invitato a comprendere a fondo che uso viene fatto dei dati, e mettere in atto tutte le possibili misure di mitigazione del rischio di abusi, prima di adottare le nuove promettenti tecnologie.

Oltre mille esperti lanciano l'allarme: l'IA rappresenta una minaccia

Nel marzo 2023 mille esperti di IA hanno segnalato "seri rischi per la società e per l'umanità", e chiesto una moratoria: preoccupa la disinformazione generata da sistemi come CHAT-GPT che spesso presentano come veri fatti e riferimenti inventati di sana pianta. A medio termine si teme la perdita di posti di lavoro per mansioni affidate all'IA, mentre a lungo termine il rischio di perdere il controllo sulla tecnologia spaventa alcuni.

I chatbot basati sull'IA: promesse e rischi per la ricerca scientifica

Secondo il ricercatore dell’INGV Fabio Florindo, chi fa ricerca può usare l'IA generativa purché sia uno strumento di supporto, non per sostituire le competenze umane e il pensiero critico, che sono indispensabili per formulare domande di ricerca, progettare esperimenti e interpretare i risultati. L'uso deve sempre essere dichiarato con la massima trasparenza, e accompagnato dalla verifica di ogni passaggio da parte del ricercatore.

L'intelligenza artificiale ha molto da offrire all'Europa del futuro

Secondo il Libro bianco 2020 della Commissione Europea, l'Europa dovrà sviluppare un ecosistema di IA che consenta di usufruire di una migliore assistenza sanitaria, un minor numero di guasti degli elettrodomestici, sistemi di trasporto più sicuri e più puliti e servizi pubblici migliori, e di strumenti appropriati per garantire la sicurezza dei cittadini, con adeguate garanzie quanto al rispetto dei loro diritti e delle loro libertà.

L'Australia vieta di usare l'IA nella valutazione dei progetti di ricerca

Il Consiglio australiano per la ricerca ha vietato l'uso dell'IA nella valutazione delle richieste di finanziamento dei progetti di ricerca, perché rischia di compromettere l'integrità del delicato processo, da sempre affidato a esperti indipendenti e soggetto a critiche e contestazioni. L'IA potrà essere usata nella stesura della richiesta del finanziamento, ma la raccomandazione agli scienziati è di farlo con tutte le cautele del caso.

Il CEO di Google mette in guardia: l'IA può creare video falsi molto realistici

In un'intervista nella trasmissione "60 minutes" della CBS, nell'estate 2023, l'amministratore delegato di Google Sundar Pichai ha annunciato che il sistema Bard messo a disposizione del pubblico è stato limitato, per ridurre il rischio di usi inappropriati. In particolare, preoccupa la facilità con cui potrebbe creare i cosiddetti "deep fake": immagini video false su eventi inesistenti, impossibili da distinguere dalle riprese televisive.

Le norme europee sono in fase di definizione. L'agenzia per il digitale potrebbe avere poteri di controllo

Il regolamento comunitario sugli algoritmi è in fase di negoziazione tra Commissione, Consiglio e Parlamento europeo, ed è atteso per la fine del 2023. Il governo italiano ha già espresso però l'intenzione di attribuire specifici poteri di vigilanza all'Agenzia per l'Italia digitale (AGID), affiancata dalle altre autorità toccate dai vari ambiti giuridici dell'IA, come il Garante della privacy, quello delle comunicazioni o l'Antitrust.

L'esperto di AI e Nobel per la chimica 2024 chiede più controllo

Il premio Nobel per la chimica 2024 (e CEO di Google DeepMind) Demis Hassabis ha detto nel 2023 che i rischi legati all'IA – come l'uso per la creazione di armi biologiche e la minaccia esistenziale posta da sistemi superintelligenti – vanno presi sul serio tanto quanto la crisi climatica. Per questo propone la creazione di un organismo analogo al Panel Intergovernativo sui Cambiamenti Climatici (IPCC) per la regolamentazione dell'IA.

Per il Nobel per la fisica 2024 occorre imporre alle aziende di investire sulla sicurezza dell'IA

Appena ha saputo di aver ricevuto il Nobel per la fisica 2024, Geoffrey Hinton (che nel 2023 aveva lasciato Google dopo molti anni per parlare liberamente dei rischi dell’intelligenza artificiale) ha ribadito le proprie preoccupazioni che l’IA possa sfuggire al controllo e prendere il sopravvento: "Penso che una cosa che i governi possono fare è obbligare le grandi aziende a spendere molte più risorse nella ricerca sulla sicurezza" ha detto.

Le stime dell'impatto sull'economia USA

Un'analisi pubblicata nell'aprile del 2023 dalla rivista americana online "Forbes Advisor" ha stimato in circa 87 miliardi di dollari il mercato per le applicazioni commerciali dell'intelligenza artificiale nel 2022. Questo mercato sta crescendo molto rapidamente, e appare destinato a più che quadruplicare in pochi anni, superando i 400 miliardi di dollari annui nel 2027. Due aziende su tre pensano che l'IA aiuterà a migliorare la produttività.

Nel 2030 si prevede che un'auto su dieci sarà a guida autonoma

Alla fine del decennio in corso, la percentuale di automobili a guida autonoma in circolazione sulle strade degli Stati Uniti di America raggiungerà il 10%, secondo un'analisi pubblicata nell'aprile del 2023 dalla rivista americana online "Forbes Advisor". Sempre secondo la stessa analisi, il mercato globale delle auto senza conducente passerà dai 20,3 miliardi di dollari del 2021 a 62,4 miliardi di dollari nel 2030.

La maggioranza delle aziende cinesi impiega già l'intelligenza artificiale

La Cina è all'avanguardia nel mondo nell'adozione di strumenti basati sull'intelligenza artificiale: un'analisi pubblicata nell'aprile del 2023 dalla rivista americana online "Forbes Advisor" rivela che quasi sei su dieci (il 58%) li stanno già usando, mentre altri tre stanno considerando come integrarli nei flussi di lavoro. Negli Stati Uniti una su quattro (25%) usa già l'intelligenza artificiale mentre il 43% sta valutando le opzioni.

A che cosa serve l'intelligenza artificiale nella vita quotidiana?

La società di consulenza Accenture ha chiesto a un campione di consumatori in che modo utilizzano o prevedono di utilizzare in futuro l'intelligenza artificiale. Quasi uno su due (45%) l'apprezza per la possibilità di inviare risposte testuali a e-mail e messaggi via chat di amici e colleghi. Una percentuale poco inferiore (43%) per informazioni finanziarie, per pianificare viaggi (38%), o preparare un colloquio di assunzione (30%).

È iniziata una "nuova era" nell'interpretazione automatizzata dell'elettroencefalogramma

Gli sforzi per automatizzare l'interpretazione del tracciato dell'elettroencefalogramma potrebbero aver raggiunto un risultato "eccellente", dopo anni di tentativi insoddisfacenti. È questo il giudizio dell'editoriale con cui la rivista "JAMA Neurology" ha commentato nel giugno 2023 la pubblicazione di uno studio sul sistema SCORE-AI (Standardized Computer-based Organized Reporting of EEG– Artificial Intelligence).

Un guanto robotico per reimparare a suonare dopo un ictus

La riabilitazione dopo un ictus è fondamentale per riprendere a camminare, parlare e recuperare l’autonomia. Per chi suona uno strumento, per professione o diletto, riprendere a fare musica è tanto importante e utile quanto è difficile. Ora un “guanto robot” gestito dall’IA, descritto nel giugno 2023 sulla rivista “Frontiers in Robotics and AI” si è dimostrato efficace nel semplificare il recupero della fluidità dei movimenti della mano.

L’IA è meglio del cardiologo per capire se è infarto

“Quando un paziente arriva in ospedale con dolore al petto ci chiediamo sempre se stia avendo un infarto. Sembra facile, ma quando l’elettrocardiogramma (ECG) non è chiaro servono fino a 24 ore per avere l’esito di altri test” ha spiegato il cardiologo Salah Al-Zaiti. Per questo ha testato l’IA, scoprendo che in molti casi interpreta l’ECG meglio degli specialisti, permettendo di avviare subito le terapie, e ne ha scritto su Nature Medicine.

Le tre intelligenze artificiali dei robot al servizio dell'uomo

Il successo dei robot di servizio (impiegati per esempio come camerieri nei ristoranti) dipenderà dallo sviluppo di diversi tipi di IA già in uso: IA meccanica – che secondo i ricercatori troverà largo impiego nei servizi a basso costo – IA intellettiva e IA emotiva, che rispondono meglio alle aspettative della clientela dei servizi di lusso. È questa la conclusione di una ricerca pubblicata nel 2022 sul Journal of Service Research.

La pandemia da Covid è stata un banco di prova per IA, robot e tecnologie digitali

In risposta alla minaccia del virus pandemico sono state impiegate nel mondo almeno 50 nuove tecnologie basate su IA, robotica e digitale: una ricerca pubblicata dalla Cambridge University Press del 2021 ha segnalato aspetti critici legati al costo e alla sicurezza (soprattutto per la robotica, non sempre adatta a muoversi nel contesto ospedaliero) e più in generale al rischio di violazioni delle normative sulla privacy dei dati sensibili.

Tra chi studia l'IA nel mondo accademico le donne sono un'esigua minoranza

Secondo il rapporto del 2019 dell’Istituto AI Now di New York che analizza la concentrazione di potere nel settore tecnologico, la presenza delle donne nello sviluppo dell'IA è limitatissima. Tra i relatori delle conferenze più importanti sull’intelligenza artificiale solo il 18% sono donne. Appena più numerose (20%) sono le donne che insegnano la disciplina in accademia. Questo fa sì che l'approccio alle questioni sia spesso poco equilibrato.

Il divario di genere nelle aziende tecnologiche è drammatico

Secondo il rapporto del 2019 dell’Istituto AI Now di New York che analizza la concentrazione di potere nel settore tecnologico, la presenza di donne nel personale al lavoro sull'IA nelle grandi aziende tecnologiche è quasi irrisoria: a Facebook non superava il 15 per cento, e addirittura all'interno di Google raggiungeva a stento il 10 per cento. Anche nell'impiego pratico dell'IA, il punto di vista femminile trova poco spazio.

L’UNESCO chiede una più stretta vigilanza sulle nuove tecnologie di IA

L'UNESCO segue da anni lo sviluppo delle nuove tecnologie, con l’aiuto di gruppi di esperti di ogni disciplina e di ogni area geografica. Nel giugno del 2023, l’UNESCO ha proposto uno strumento – chiamato Readiness Assesment, valutazione della preparazione – che aiuta a capire quali paesi sono più avanti nell’adozione, e nella capacità di governare consapevolmente, gli strumenti basati sull’intelligenza artificiale.

Molto intelligente, molto bianco e molto occidentale

Gli algoritmi e i sistemi esperti in uso sono stati creati al di fuori dell’Africa. Manca la prospettiva dell’Africa e, di conseguenza, l'IA diffonde e amplifica i pregiudizi sull’Africa, spiega Delali Agbenyegah, che ha organizzato la conferenza Deep Learning Indaba del 2023 in Ghana. Attualmente, i dati relativi all’Africa compongono meno dell’un per cento dei set di dati che contribuiscono all’apprendimento automatico dei sistemi di IA.

L'IA sta fornendo un aiuto importante nella lotta all'antibioticoresistenza

La diffusione di batteri resistenti agli antibiotici preoccupa le autorità sanitarie di tutto il mondo. L'uso inappropriato sta infatti rendendo sempre più inefficaci anche i farmaci un tempo più utili. Ora una ricerca pubblicata su Nature Chemical Biology descrive un sistema basato sull'IA che ha individuato tra migliaia di molecole un candidato farmaco contro Acinetobacter Baumannii, uno dei batteri resistenti più pericolosi al mondo.

Per sconfiggere su nascere le future pandemie l'intelligenza artificiale è in prima fila nello sviluppo di vaccini

La Coalizione americana per le innovazioni utili contro le epidemie (CEPI, Coalition for Epidemic Preparedness Innovations) ha messo a disposizione del Methodist Research Institute di Houston (HMRI) circa 5 milioni di dollari per sviluppare sistemi intelligenti in grado di rispondere prontamente alla comparsa delle prossime minacce virali (chiamate Malattia X) con la formulazione di un vaccino efficace. Primi obiettivi, i virus Nipah e Lassa.

Al patto europeo sull'IA hanno aderito 115 aziende nei primi due mesi

In ottobre 2024 la Commissione Europea ha reso noti i primi numeri del "Patto europeo sull’IA" che incoraggia le aziende ad adottare da subito le nuove norme che diventeranno obbligatorie a due anni dall'entrata in vigore, il primo agosto 2026. Hanno aderito 115 aziende, di cui 75 grandi, 11 medie e 28 piccole. L'obiettivo della normativa è quello di tutelare al meglio i diritti dei cittadini europei senza compromettere l’innovazione.

Le sette proposte delle Nazioni Unite per il governo globale dell’IA

Nel settembre del 2024 le Nazioni Unite hanno pubblicato il rapporto "Governing AI for Humanity’" che propone sette raccomandazioni per affrontare le lacune nella governance globale dell'IA e sottolinea l'importanza di un approccio inclusivo, ispirato ai principi del diritto internazionale e dei diritti umani, e promuove la cooperazione tra Stati e settori privati, evitando che l'IA rimanga una risorsa concentrata nelle mani di pochi.

Register to download vote results of this PlayDecide game.Register