More stories

  • in

    EXOR: utile 1° semestre a 2,157 miliardi, lancia buyback da 1 miliardo

    (Teleborsa) – Exor ha annunciato oggi i risultati del primo semestre che chiude con un utile netto di 2,157 miliardi di euro, rispetto ai 265 milioni del pari periodo dell’anno precedente. Il NAV è pari a 34,2 miliardi di euro al 30 giugno 2023, risultando in crescita rispetto ai 28,2 miliardi di fine 2022, mentre il NAV per azione è aumentato del 22,8%, sovraperformando l’indice MSCI World di 11,3 punti, trainato principalmente dall’andamento delle società quotate.Al 30 giugno 2023, il patrimonio netto consolidato attribuibile ai soci della capogruppo ammonta a 22,197 miliardi, in aumento rispetto ai 20,627 miliardi al 31 dicembre 2022. L’indebitamento netto al 30 giugno 2023 era pari a 0,1 miliardi di euro e si confrontava con una posizione liquida netta di 0,8 miliardi di euro al 31 dicembre 2022, condizionato principalmente dai dividendi distribuiti, dagli investimenti effettuati e dal piano di riacquisto azioni proprie e parzialmente compensato dai dividendi ricevuti.Il Consiglio di Amministrazione ha approvato oggi un nuovo programma di buyback sino ad 1 miliardo di euro: 2050 milioni saranno usati per acquistare azioni sul mercato entro i prossimi 12 mesi; fino a 750 milioni saranno impiegati per acquistare azioni tramite Offerta Pubblica di Acquisto, da lanciare entro il 14 settembre 2023, con un premio massimo del 10% rispetto al prezzo delle azioni. A questo proposito, la Giovanni Agnelli BV, che controlla il 53,6% di Exor, si è impegnata a aderire all’operazione per un ammontare massimo di 250 milioni. LEGGI TUTTO

  • in

    Danaher acquisirà Abcam in operazione da 5,7 miliardi di dollari

    (Teleborsa) – Danaher, società statunitense attiva nel campo della scienza e della tecnologia, ha stipulato un accordo definitivo per l’acquisizione di Abcam, società britannica attiva nella fornitura di beni di consumo proteici, in base al quale acquisirà tutte le azioni in circolazione di Abcam per 24,00 dollari per azione in contanti, ovvero un valore aziendale totale di circa 5,7 miliardi di dollari compreso l’indebitamento.Fondata nel 1998 e con sede a Cambridge, nel Regno Unito, Abcam offre alla comunità scientifica anticorpi, reagenti, biomarcatori e test. Le sue tecnologie sono utilizzate da circa 750.000 ricercatori. Si prevede che Abcam opererà come società operativa e marchio autonomo all’interno del segmento Life Sciences di Danaher.”Non potremmo essere più entusiasti di accogliere Abcam in Danaher – ha commentato Rainer Blair, CEO di Danaher – La lunga esperienza di innovazione, l’eccezionale qualità dei prodotti e l’ampiezza del portafoglio di anticorpi di Abcam li posiziona come partner chiave per la comunità scientifica”.Si prevede che la transazione si concluderà a metà del 2024 ed è soggetta alle consuete condizioni, tra cui il ricevimento delle approvazioni normative e l’approvazione degli azionisti di Abcam. Danaher prevede di finanziare l’acquisizione utilizzando la liquidità disponibile e i proventi derivanti dall’emissione di commercial paper. LEGGI TUTTO

  • in

    IA, Confartigianato: “Impatto su 8,4 milioni di lavoratori. In pericolo 1 posto su 3”

    (Teleborsa) – Sono 8,4 milioni i lavoratori italiani a rischio per effetto della diffusione dell’intelligenza artificiale. Ad evidenziarlo è un rapporto di Confartigianato che analizza il grado di esposizione all’IA del nostro mercato del lavoro. Ne emerge che il 36,2% del totale degli occupati subirà l’impatto delle profonde trasformazioni tecnologiche e dei processi di automazione. Una percentuale, quella italiana, inferiore di 3,3 punti rispetto al 39,5% della media europea di lavoratori maggiormente esposti all’IA. Stanno peggio di noi Germania e Francia rispettivamente al 43% e al 41,4% di lavoratori in bilico e il Lussemburgo con addirittura il 59,4%, seguito da Belgio al 48,8% e Svezia al 48%.Le professioni più esposte sono quelle maggiormente qualificate e a contenuto intellettuale e amministrativo, a cominciare dai tecnici dell’informazione e della comunicazione, dirigenti amministrativi e commerciali, specialisti delle scienze commerciali e dell’amministrazione, specialisti in scienze e ingegneria, dirigenti della pubblica amministrazione. Tra le attività lavorative a minor rischio vi sono quelle con una componente manuale non standardizzata.Secondo la rilevazione di Confartigianato, l’espansione dell’intelligenza artificiale insidia il 25,4% dei lavoratori in ingresso nelle imprese nel 2022, pari 1,3 milioni di persone. Per le piccole imprese fino a 49 addetti la quota è del 22,2%, pari a 729mila persone. A livello territoriale, la maggiore percentuale di personale in bilico si registra nel centro-nord, con in testa la Lombardia (35,2% degli occupati assunti nel 2022 più esposti a impatto IA), seguita dal Lazio (32%), Piemonte e Valle d’Aosta (27%), Campania (25,3%), Emilia Romagna (23,8%), Liguria (23,5%).Da rischio a opportunità – Il rapporto di Confartigianato mette anche in evidenza che l’intelligenza artificiale è l’arma che le imprese stanno sfruttando per ottimizzare le proprie attività. In particolare, il 6,9% delle nostre piccole aziende utilizza robot, superando il 4,6% della media europea e, in particolare, doppiando il 3,5% della Germania. Inoltre, il 5,3% delle Pmi usa sistemi di intelligenza artificiale e il 13% prevede di effettuare nel prossimo futuro investimenti nell’applicazione dell’IA.”L’intelligenza artificiale – sottolinea il presidente di Confartigianato Marco Granelli – è un mezzo, non è il fine. Non va temuta, ma governata dall’intelligenza artigiana per farne uno strumento capace di esaltare la creatività e le competenze, inimitabili, dei nostri imprenditori. Non c’è robot o algoritmo che possano copiare il sapere artigiano e simulare l”anima’ dei prodotti e dei servizi belli e ben fatti che rendono unico nel mondo il made in Italy”. LEGGI TUTTO

  • in

    Meta sfida X: previsto lancio della versione web di Threads, ecco quando

    (Teleborsa) – Meta Platforms prevede di lanciare una versione web dell’app di testo Threads all’inizio di questa settimana, mentre prosegue la rivalità con X, la app di Elon Musk.. Lo rivela il Wall Street Journal, informato di alcuni piani interni dell’azienda.La versione desktop comincerebbe a rispondere alla lunga lista di funzionalità che gli utenti hanno richiesto per Threads, che nella versione iniziale di luglio aveva raggiunto i 100 milioni di download in 5 giorni, ma nelle ultime settimane ha visto precipitare il suo utilizzo. Fino a questo momento gli utenti sono stati in grado di vedere post di thread specifici sul Web, ma il loro accesso è stato limitato, poiché l’app era principalmente orientata ai telefoni cellulari, ora la nuova versione potrebbe ampliare questo accesso. Adam Mosseri, capo di Instagram, ha dichiarato sul suo profilo Instagram che la versione web di Threads sarà lanciata presto ed è già in fase interna di test. Inoltre si sta testando anche una nuova funzione di ricerca non solo di profili ma anche degli stessi threads. LEGGI TUTTO

  • in

    Biogen taglia 1.000 posti di lavoro. Utile 2° trimestre supera le stime

    (Teleborsa) – Biogen, multinazionale statunitense attiva nel campo delle biotecnologie, ha registrato entrate pari a 2.456 milioni di dollari nel secondo trimestre del 2023, in diminuzione del 5% rispetto allo stesso periodo del 2022 (-3% a valuta costante). L’EPS è stato di 4,07 dollari (-44%), mentre l’EPS rettificato è stato di 4,02 dollari (-23% vs attese del mercato per 3,77 dollari).La società ha annunciato un nuovo programma “Fit for Growth”, che dovrebbe generare circa 1 miliardo di dollari di risparmi sui costi operativi lordi, di cui circa 300 milioni saranno reinvestiti in lanci di prodotti e programmi di ricerca e sviluppo, con un conseguente risparmio netto di circa 700 milioni sui costi operativi entro il 2025. Il programma include una riduzione netta dell’organico di circa 1.000 persone. Biogen contava 8.725 dipendenti in tutto il mondo alla fine dello scorso anno.”Nel secondo trimestre, Biogen ha continuato a portare avanti la scienza pionieristica con l’approvazione da parte della FDA di due terapie di prima classe per il morbo di Alzheimer e la SLA, soddisfacendo anche le nostre aspettative commerciali di base – ha commentato il CEO Christopher Viehbacher – L’attività di Biogen è in fase di transizione”. “Di conseguenza, abbiamo adottato una visione dal basso verso l’alto per spostare le nostre risorse nelle aree di maggiore creazione di valore – ha aggiunto – Sebbene faremo investimenti significativi nella nostra nuova pipeline prioritaria e nel lancio di nuovi prodotti, dovremo anche investire meno in altre aree che non sono più in crescita. Con questi cambiamenti, credo che Biogen sarà in una posizione migliore per massimizzare le sue opportunità di crescita in futuro”.(Foto: Photo by National Cancer Institute on Unsplash) LEGGI TUTTO

  • in

    Innovazione: ENEA brevetta metodo per estrarre olio di alta qualità da scarti dell’industria dolciaria

    (Teleborsa) – Un gruppo di ricercatori ENEA ha brevettato un processo innovativo e a basso impatto ambientale, che permette di estrarre da scarti di prodotti da forno un olio di alta qualità da utilizzare per la produzione di biolubrificanti e bioplastiche. Il metodo, che si basa sull’uso di mosche soldato, ovvero le larve del dittero Hermetia illucens, – spiega ENEA in una nota – consente di recuperare, in condizioni ambientali controllate, fino all’80% dell’olio presente nei biscotti – in genere di semi di girasole – che non essendo stato metabolizzato, mantiene le caratteristiche di alta qualità (alto oleico).”Le larve della mosca soldato convertono biomasse organiche accumulando nel proprio corpo proteine e lipidi, ottimi ingredienti per mangimi. Contemporaneamente restituiscono un residuo digerito, utile per la produzione di compost e fertilizzanti per la crescita delle piante”, spiega Silvia Arnone, ricercatrice ENEA del Laboratorio di Tecnologie e processi per le bioraffinerie e la chimica verde e autrice del brevetto insieme ai colleghi Francesco Petrazzuolo, Isabella De Bari, Massimiliano De Mei, Vito Valerio e Alessio Ubertini.Per l’applicazione del metodo è stato ideato un dispositivo, chiamato “splitter”, costituito da un contenitore con griglia forata e un condotto per il convogliamento e la raccolta dell’olio, dove vengono collocati insieme il composto da frazionare e le larve immature. Il metodo offre prospettive di guadagno in termini di recupero di un olio alto oleico la cui domanda di mercato è in crescita, valorizzando il 5% in media di scarti di prodotti da forno, che comprendono prodotti sia invenduti sia non commercializzabili perché poco cotti, bruciati, spezzati o in scadenza.”L’olio alto oleico può essere utilizzato per la produzione di biolubrificanti per uso agricolo, di monomeri per le bioplastiche e di bioerbicidi e può essere trasformato in polioli per la produzione di poliuretani. Tutti questi prodotti a base biologica – conclude Arnone– hanno un’impronta di carbonio più favorevole rispetto ai prodotti di origine fossile”. LEGGI TUTTO

  • in

    IA, Big Tech lanciano allarme: “Può portare all’estinzione”

    (Teleborsa) – L’intelligenza artificiale potrebbe portare all’estinzione dell’umanità. L’allarme arriva dagli esperti del settore tra cui Sam Altman, ad del produttore di ChatGPT OpenAI, Demis Hassabis, amministratore delegato di Google DeepMind e Dario Amodei di Anthropic. “Mitigare il rischio di estinzione dell’Intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare” si legge in una dichiarazione pubblicata sulla pagina web del Center for AI Safety. Un appello sostenuto anche da Geoffrey Hinton, professore emerito di scienze dei computer nell’Università di Toronto, considerato un pioniere nel settore dell’intelligenza artificiale, e da Yoshua Bengio, professore presso l’Università di Montreal, anche lui considerato uno dei padrini dell’IA.Non è invece tra i firmatari al momento Yann LeCunn dell’Università di New York, che insieme a Hinton vinse il premio Turing nel 2019 per le loro ricerche che hanno aperto la strada all’IA. Le Cunn si è in realtà contrario a una visione catastrofista dell’IA. Anche il boss di Tesla e tra i primi finanziatori di OpenAI Elon Musk non risulta al momento tra i firmatari. Ma Musk recentemente ha fatto scalpore con la sua richiesta di moratoria delle ricerche sull’IA.È stata l’urgenza di regole in un settore pervasivo come l’Intelligenza Artificiale, a dettare l’allerta lanciata dal Center for AI Safety. “L’uso estensivo dell’intelligenza artificiale da un lato sta portando a una vera rivoluzione e dall’altro sta ponendo seri problemi – osserva uno dei firmatari della dichiarazione, l’esperto di tecnologie dell’informazione Luca Simoncini, ex docente di Ingegneria dell’informazione all’Università di Pisa ed ex direttore dell’Istituto di tecnologie dell’informazione del Consiglio Nazionale delle Ricerche –. L’intelligenza artificiale è così pervasiva da avere un forte impatto in molti settori della vita sociale (pensiamo solo al rischio di produzione di fake news o al controllo delle auto autonome), come su aspetti economici, finanziari, politici, educativi ed etici. È evidente – aggiunge – che nessuno può opporsi se una tecnologia emergente è usata per scopi benefici, per esempio in campo biomedico o farmacologico”. Di conseguenza, se parlare di rischio di estinzione dell’umanità può sembrare un’iperbole secondo Simoncini la dichiarazione del Cias ricorda il manifesto nel quale Bertrand Russell e Albert Einstein nel 1955 denunciavano i rischi delle armi nucleari. Il caso dell’Intelligenza artificiale è diverso, ma il punto è che servono regole chiare e una presa di coscienza. “Spesso ci si dimentica che questi sistemi sono fallibili – aggiunge Simoncini – e le grandi aziende attive nel settore basano le loro attività solo sulla prevalenza tecnologica, non si sono poste il problema di una regolamentazione”. Come dimostra quanto sta accadendo nel settore delle auto autonome, nei test “si segue un approccio empirico” e “non si considera la necessità di andare verso sistemi che non siano capaci di prendere decisioni autonome senza l’intervento umano, mentre bisognerebbe andare verso sistemi che siano di aiuto al guidatore, che ha comunque in ogni momento la possibilità di intervenire e riprendere il controllo”. Anche nel caso dei Chatbot come ChatGpt, per esempio, – spiega Simoncini – “utilizzarli dovrebbe essere inteso come un aiuto, non come la sostituzione delle capacità umane da parte di un sistema di intelligenza artificiale”. Si dovrebbe pensare fin da adesso “alla necessità di porre limiti e vincoli – conclude Simoncini – considerando gli usi sbagliati dell’intelligenza artificiale nel confezionamento di fake news sempre più difficili da riconoscere: la difficoltà di distinguere fra vero e falso potrebbe creare situazioni difficilmente governabili”.Secondo il fisico Roberto Battiston, dell’Università di Trento, tra i firmatari della dichiarazione, servono regole per gestire algoritmi potenti come quelli dell’intelligenza artificiale e per evitare effetti imprevisti. “Questo tipo di algoritmi di Intelligenza artificiale generativa si sono rivelati molto potenti nell’interfacciare le persone utilizzando i dati presenti sul Web e il linguaggio naturale, così potenti che potrebbero generare effetti secondari imprevisti – osserva Battiston –. Nessuno oggi sa realmente quali potrebbero essere questi effetti, positivi o negativi: servono tempo e sperimentazione – prosegue il fisico – per realizzare regole e norme che permettano di gestire l’efficacia di questa tecnologia proteggendoci dai relativi pericoli. Non si tratta della minaccia di una super intelligenza che possa sopraffare l’umanità, ma delle conseguenze del modo con cui gli esseri umani si abitueranno a utilizzare questi algoritmi nel loro lavoro e nella vita quotidiana della società. Pensiamo ad esempio – aggiunge – alla possibile interferenza sui processi elettorali, alla diffusione di notizie false, alla creazione di canali di notizie che rispondono a precisi interessi di disinformazione. Occorre prepararsi a gestire queste situazioni, le prime avvisaglie di problemi di questo genere le abbiamo già viste negli anni passati con la vicenda di Cambridge Analytica o con la tattiche di guerriglia dei troll russi sul web. Quando l’uomo non riesce a capire la realtà che lo circonda inventa miti, fantasmi, mostri, per cercare di proteggersi dai pericoli tramite un certo tipo di racconto mitologico. Il gioco è ancora saldamente nel campo dell’uomo, ma gli strumenti a disposizione sono molto più potenti che nel passato”. A proposto del confronto con le armi atomiche, recentemente portato in campo a proposito dei rischi dell’intelligenza artificiale, Battiston osserva che “quando abbiamo scoperto la forza dell’atomo, abbiamo dovuto trovare il modo di contenere la minaccia di uno scontro nucleare. Per il momento ci siamo riusciti, per circa 80 anni. Qualcuno – dice ancora – ha paragonato la potenza di queste tecnologie a quella nucleare, chiedendo vengano realizzate delle regole adatte ad affrontare questi rischi. C’è probabilmente un fondo di verità in questo. Io credo, però, che sia molto importante capire bene come funzionano questi algoritmi, in quanto solo in questo modo – conclude – potremo attivare una opportuna serie di regole di contenimento sociale, sfruttando allo stesso tempo l’enorme potenzialità positiva”. LEGGI TUTTO

  • in

    OpenAI: “ChatGpt è di nuovo disponibile in Italia”

    (Teleborsa) – “Bentornata, Italia! Siamo lieti di riprendere ad offrire ChatGPT in Italia”. È questo il messaggio che da oggi appare accedendo sul sito dell’applicazione gestita dalla società statunitense OpenAI. “ChatGpt è di nuovo disponibile per gli utenti in Italia. Siamo entusiasti di accoglierli di nuovo e rimaniamo impegnati a proteggere la loro privacy. Abbiamo incontrato o chiarito le questioni sollevate dal Garante” ha spiegato un portavoce dell’azienda in una comunicazione ufficiale a pochi giorni dal termine ultimo, del 30 aprile, fissato dal Garante della Privacy italiano. “Abbiamo affrontato o chiarito le questioni sollevate dal Garante – ha aggiunto il portavoce – tra cui le nuove informazioni sul Centro assistenza e su come raccogliamo e utilizziamo i dati; maggiore visibilità della nostra Informativa sulla privacy sulla homepage di OpenAI e sulla pagina di accesso di ChatGpt. Maggiore visibilità del nostro modulo di disattivazione dei contenuti degli utenti negli articoli del Centro assistenza e nell’Informativa sulla privacy”. L’Autorità aveva annunciato il 31 marzo scorso l’avvio di un’istruttoria, dopo aver rilevato, tra l’altro, la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati venivano raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica per giustificare la raccolta e la conservazione massiccia di dati personali. Poi l’11 aprile aveva inviato una serie di prescrizioni all’azienda.”Continuiamo ad offrire il nostro processo di risposta alle email e alle richieste di privacy via e-mail – spiega la nota di OpenAI – nonché un nuovo modulo per gli utenti dell’Ue per esercitare il loro diritto di opporsi al nostro utilizzo dei dati personali per alimentare i nostri modelli. E uno strumento per verificare l’età degli utenti in Italia al momento della registrazione. Apprezziamo la collaborazione del Garante e attendiamo con impazienza di proseguire le discussioni in corso”.”OpenAI, la società che gestisce ChatGPT, ha fatto pervenire una nota nella quale illustra le misure introdotte in ottemperanza alle richieste dell’Autorità contenute nel provvedimento dello scorso 11 aprile, spiegando di aver messo a disposizione degli utenti e non utenti europei e, in alcuni casi, anche extra-europei, una serie di informazioni aggiuntive, di aver modificato e chiarito alcuni punti e riconosciuto a utenti e non utenti soluzioni accessibili per l’esercizio dei loro diritti” spiega il Garante della Privacy. È alla luce di questi miglioramenti che OpenAI ha potuto rendere nuovamente accessibile ChatGPT in Italia. L’elenco delle misure decise da OpenAI – OpenAI, ha reso noto il Garante, ha attuato diverse misure. Nel dettaglio: ha predisposto e pubblicato sul proprio sito un’informativa rivolta a tutti gli utenti e non utenti, in Europa e nel resto del mondo, per illustrare quali dati personali e con quali modalità sono trattati per l’addestramento degli algoritmi e per ricordare che chiunque ha diritto di opporsi a tale trattamento; ampliato l’informativa sul trattamento dei dati riservata agli utenti del servizio rendendola ora accessibile anche nella maschera di registrazione prima che un utente si registri al servizio; riconosciuto a tutte le persone che vivono in Europa, anche non utenti, il diritto di opporsi a che i loro dati personali siano trattati per l’addestramento degli algoritmi anche attraverso un apposito modulo compilabile online e facilmente accessibile; ha introdotto una schermata di benvenuto alla riattivazione di ChtaGPT in Italia, con i rimandi alla nuova informativa sulla privacy e alle modalità di trattamento dei dati personali per il training degli algoritmi; ha previsto per gli interessati la possibilità di far cancellare le informazioni ritenute errate dichiarandosi, allo stato, tecnicamente impossibilitata a correggere gli errori; ha chiarito, nell’informativa riservata agli utenti, che mentre continuerà a trattare taluni dati personali per garantire il corretto funzionamento del servizio sulla base del contratto, tratterà i loro dati personali ai fini dell’addestramento degli algoritmi, salvo che esercitino il diritto di opposizione, sulla base del legittimo interesse; ha implementato per gli utenti già nei giorni scorsi un modulo che consente a tutti gli utenti europei di esercitare il diritto di opposizione al trattamento dei propri dati personali e poter così escludere le conversazioni e la relativa cronologia dal training dei propri algoritmi; ha inserito nella schermata di benvenuto riservata agli utenti italiani già registrati al servizio un pulsante attraverso il quale, per riaccedere al servizio, dovranno dichiarare di essere maggiorenni o ultratredicenni e, in questo caso, di avere il consenso dei genitori; ha inserito nella maschera di registrazione al servizio la richiesta della data di nascita prevedendo un blocco alla registrazione per gli utenti infratredicenni e prevedendo, nell’ipotesi di utenti ultratredicenni ma minorenni che debbano confermare di avere il consenso dei genitori all’uso del servizio.L’Autorità ha espresso “soddisfazione per le misure intraprese” auspicando che OpenAI, nelle prossime settimane, ottemperi alle ulteriori richieste impartitele con lo stesso provvedimento dell’11 aprile “con particolare riferimento all’implementazione di un sistema di verifica dell’età e alla pianificazione e realizzazione di una campagna di comunicazione finalizzata a informare tutti gli italiani di quanto accaduto e della possibilità di opporsi all’utilizzo dei propri dati personali ai fini dell’addestramento degli algoritmi”. L’Autorità “riconosce i passi in avanti compiuti per coniugare il progresso tecnologico con il rispetto dei diritti delle persone e auspica che la società prosegua lungo questo percorso di adeguamento alla normativa europea sulla protezione dati”. Il Garante “proseguirà dunque nell’attività istruttoria avviata nei confronti di OpenAI e nel lavoro che porterà avanti la apposita task force costituita in seno al Comitato che riunisce le Autorità per la privacy dell’Unione europea”. LEGGI TUTTO