in

IA, Big Tech lanciano allarme: “Può portare all’estinzione”

(Teleborsa) – L’intelligenza artificiale potrebbe portare all’estinzione dell’umanità. L’allarme arriva dagli esperti del settore tra cui Sam Altman, ad del produttore di ChatGPT OpenAI, Demis Hassabis, amministratore delegato di Google DeepMind e Dario Amodei di Anthropic. “Mitigare il rischio di estinzione dell’Intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare” si legge in una dichiarazione pubblicata sulla pagina web del Center for AI Safety. Un appello sostenuto anche da Geoffrey Hinton, professore emerito di scienze dei computer nell’Università di Toronto, considerato un pioniere nel settore dell’intelligenza artificiale, e da Yoshua Bengio, professore presso l’Università di Montreal, anche lui considerato uno dei padrini dell’IA.

Non è invece tra i firmatari al momento Yann LeCunn dell’Università di New York, che insieme a Hinton vinse il premio Turing nel 2019 per le loro ricerche che hanno aperto la strada all’IA. Le Cunn si è in realtà contrario a una visione catastrofista dell’IA. Anche il boss di Tesla e tra i primi finanziatori di OpenAI Elon Musk non risulta al momento tra i firmatari. Ma Musk recentemente ha fatto scalpore con la sua richiesta di moratoria delle ricerche sull’IA.

È stata l’urgenza di regole in un settore pervasivo come l’Intelligenza Artificiale, a dettare l’allerta lanciata dal Center for AI Safety. “L’uso estensivo dell’intelligenza artificiale da un lato sta portando a una vera rivoluzione e dall’altro sta ponendo seri problemi – osserva uno dei firmatari della dichiarazione, l’esperto di tecnologie dell’informazione Luca Simoncini, ex docente di Ingegneria dell’informazione all’Università di Pisa ed ex direttore dell’Istituto di tecnologie dell’informazione del Consiglio Nazionale delle Ricerche –. L’intelligenza artificiale è così pervasiva da avere un forte impatto in molti settori della vita sociale (pensiamo solo al rischio di produzione di fake news o al controllo delle auto autonome), come su aspetti economici, finanziari, politici, educativi ed etici. È evidente – aggiunge – che nessuno può opporsi se una tecnologia emergente è usata per scopi benefici, per esempio in campo biomedico o farmacologico”. Di conseguenza, se parlare di rischio di estinzione dell’umanità può sembrare un’iperbole secondo Simoncini la dichiarazione del Cias ricorda il manifesto nel quale Bertrand Russell e Albert Einstein nel 1955 denunciavano i rischi delle armi nucleari. Il caso dell’Intelligenza artificiale è diverso, ma il punto è che servono regole chiare e una presa di coscienza. “Spesso ci si dimentica che questi sistemi sono fallibili – aggiunge Simoncini – e le grandi aziende attive nel settore basano le loro attività solo sulla prevalenza tecnologica, non si sono poste il problema di una regolamentazione”. Come dimostra quanto sta accadendo nel settore delle auto autonome, nei test “si segue un approccio empirico” e “non si considera la necessità di andare verso sistemi che non siano capaci di prendere decisioni autonome senza l’intervento umano, mentre bisognerebbe andare verso sistemi che siano di aiuto al guidatore, che ha comunque in ogni momento la possibilità di intervenire e riprendere il controllo”. Anche nel caso dei Chatbot come ChatGpt, per esempio, – spiega Simoncini – “utilizzarli dovrebbe essere inteso come un aiuto, non come la sostituzione delle capacità umane da parte di un sistema di intelligenza artificiale”. Si dovrebbe pensare fin da adesso “alla necessità di porre limiti e vincoli – conclude Simoncini – considerando gli usi sbagliati dell’intelligenza artificiale nel confezionamento di fake news sempre più difficili da riconoscere: la difficoltà di distinguere fra vero e falso potrebbe creare situazioni difficilmente governabili”.

Secondo il fisico Roberto Battiston, dell’Università di Trento, tra i firmatari della dichiarazione, servono regole per gestire algoritmi potenti come quelli dell’intelligenza artificiale e per evitare effetti imprevisti. “Questo tipo di algoritmi di Intelligenza artificiale generativa si sono rivelati molto potenti nell’interfacciare le persone utilizzando i dati presenti sul Web e il linguaggio naturale, così potenti che potrebbero generare effetti secondari imprevisti – osserva Battiston –. Nessuno oggi sa realmente quali potrebbero essere questi effetti, positivi o negativi: servono tempo e sperimentazione – prosegue il fisico – per realizzare regole e norme che permettano di gestire l’efficacia di questa tecnologia proteggendoci dai relativi pericoli. Non si tratta della minaccia di una super intelligenza che possa sopraffare l’umanità, ma delle conseguenze del modo con cui gli esseri umani si abitueranno a utilizzare questi algoritmi nel loro lavoro e nella vita quotidiana della società. Pensiamo ad esempio – aggiunge – alla possibile interferenza sui processi elettorali, alla diffusione di notizie false, alla creazione di canali di notizie che rispondono a precisi interessi di disinformazione. Occorre prepararsi a gestire queste situazioni, le prime avvisaglie di problemi di questo genere le abbiamo già viste negli anni passati con la vicenda di Cambridge Analytica o con la tattiche di guerriglia dei troll russi sul web. Quando l’uomo non riesce a capire la realtà che lo circonda inventa miti, fantasmi, mostri, per cercare di proteggersi dai pericoli tramite un certo tipo di racconto mitologico. Il gioco è ancora saldamente nel campo dell’uomo, ma gli strumenti a disposizione sono molto più potenti che nel passato”. A proposto del confronto con le armi atomiche, recentemente portato in campo a proposito dei rischi dell’intelligenza artificiale, Battiston osserva che “quando abbiamo scoperto la forza dell’atomo, abbiamo dovuto trovare il modo di contenere la minaccia di uno scontro nucleare. Per il momento ci siamo riusciti, per circa 80 anni. Qualcuno – dice ancora – ha paragonato la potenza di queste tecnologie a quella nucleare, chiedendo vengano realizzate delle regole adatte ad affrontare questi rischi. C’è probabilmente un fondo di verità in questo. Io credo, però, che sia molto importante capire bene come funzionano questi algoritmi, in quanto solo in questo modo – conclude – potremo attivare una opportuna serie di regole di contenimento sociale, sfruttando allo stesso tempo l’enorme potenzialità positiva”.


Fonte: http://news.teleborsa.it/NewsFeed.ashx

Campari, buy-back per oltre 2,5 milioni di euro

Intesa Sanpaolo, accordo sindacale aumenta il premio variabile di risultato 2023