La città di Napoli ospita un evento di fondamentale importanza per il futuro della ricerca sull’intelligenza artificiale . La prima Conferenza generale di Fair – Future AI Research mette in luce le sfide e le opportunità che si presentano in questo campo, con un forte focus sull’affidabilità, sostenibilità e intelligenza delle nuove tecnologie. Alle 17, il pubblico avrà la possibilità di assistere in streaming alla sessione speciale dedicata alla ricerca italiana sull’IA, un’iniziativa che permetterà di esplorare non solo i progressi tecnologici, ma anche le implicazioni etiche e sociali di queste innovazioni.
La conferenza Fair: un’importante occasione di approfondimento
L’incontro rappresenta il culmine di 18 mesi di lavoro per Fair, un partenariato non profit creato per coordinare le attività legate all’IA nell’ambito del Piano Nazionale di Ripresa e Resilienza . Circa 700 esperti del settore sono impegnati a discutere di come l’Italia può posizionarsi in una scena mondiale caratterizzata da importanti player internazionali. Giuseppe De Pietro, presidente di Fair, ha dichiarato che l’evento ha il duplice scopo di evidenziare ciò che è stato fatto sino ad ora e di progettare un futuro collaborativo nel campo dell’intelligenza artificiale.
Una delle questioni più calde affrontate durante la conferenza è la necessità di un approccio sistematico e armonizzato per sviluppare modelli di IA più efficienti ed eco-sostenibili. Sono enfatizzate le potenzialità di aggregazione e cooperazione, il presidente evidenzia come l’Italia, pur non detenendo le stesse risorse economiche dei giganti tecnologici, può contare su una fiorente comunità scientifica in grado di contribuire in modo significativo ai progressi nel settore.
Sfide future: intelligenza più umana e risorse sostenibili
Tra i temi principali discussi ci sono la creazione di modelli di IA che siano non solo più affidabili, ma anche in grado di utilizzare energia in modo più efficiente. Ci si concentra anche sulla necessità di sviluppare una intelligenza artificiale che simuli funzioni cognitive umane. Questo approccio non solo potrebbe portare a un uso più responsabile delle tecnologie emergenti, ma è essenziale anche per affrontare le sfide etiche associate alla rapida evoluzione delle applicazioni di IA.
Durante la sessione speciale organizzata da ANSA, si parlerà di come l’IA influisca su diversi aspetti della società, incluso il settore dell’editoria. Interverranno numerosi esperti, tra cui il Sottosegretario all’Editoria Alberto Barachini, il quale discuterà il ruolo che l’IA sta giocando nel plasmare l’informazione e il reporting. Sarà anche un’occasione per esplorare i pregiudizi di genere e le implicazioni sulla salute, temi sempre più centrali nel discorso pubblico relativo all’intelligenza artificiale.
La trasformazione digitale: l’importanza della collaborazione
Il Ministro delle Imprese e del Made in Italy Adolfo Urso ha sottolineato quanto sia fondamentale la collaborazione tra istituzioni, ricerca e settore privato per la trasformazione digitale del Paese. Urso ha evidenziato che le aziende stanno cominciando ad abbracciare le tecnologie di intelligenza artificiale, ma spesso si trovano a dover affrontare sfide come le problematiche legate alla sicurezza dei dati e alla privacy. La sua attenzione è rivolta anche ai programmi di sostegno della trasformazione digitale, come le cosiddette “AI factories”, in collaborazione con Cineca e l’Agenzia per la Cybersicurezza Nazionale. Queste iniziative mirano a favorire la diffusione delle tecnologie IA tra le imprese italiane, utilizzando il supercomputer Leonardo come motore per la crescita.
Opportunità e minacce: la visione di ANSA
Stefano De Alessandri, amministratore delegato dell’ANSA, ha parlato della duplice natura delle opportunità e delle minacce presentate dall’IA, commentando l’impatto del suo utilizzo nel settore informativo. La sua esperienza riferisce del riconoscimento delle potenzialità dell’IA nell’automazione della gestione di un flusso costante di notizie. De Alessandri ha evidenziato che l’agenzia è stata pioniere nell’applicazione della blockchain per garantire la verifica delle fonti, riflettendo sull’importanza di mantenere l’integrità e la reputazione nel panorama informativo.
La crescita di tecnologie come ChatGPT ha generato discussioni sulle problematiche di diritti d’autore e sull’importanza di stabilire regole chiare per tutelare i contenuti delle agenzie editoriali, senza vietare l’uso dei loro materiali per scopi di studio. De Alessandri ha concluso la sua dichiarazione affermando la necessità di trovare un equilibrio tra innovazione e protezione dei diritti dei creatori di contenuti.
Regole e conformità nell’era dell’IA
Alberto Barachini, Sottosegretario alla Presidenza del Consiglio con delega all’editoria, ha parlato delle recenti normative e delle strutture che sono state messe in atto per garantire un comportamento etico e regolamentato nell’ambito dell’IA. Con l’apparente assenza di regole precedenti, Barachini ha sottolineato come ora ci siano “guardrail” che possono tutelare i diritti degli editori e garantire sicurezza. Ha ricordato come l’unità di regolamentazione stia lavorando a una strategia nazionale per creare un contesto ben definito in cui l’IA possa prosperare garantendo, al contempo, la protezione della proprietà intellettuale.
Questa nuova approccio normativo è necessario non solo per affrontare le sfide odierne, ma anche per anticipare i futuri sviluppi nel campo dell’informazione e della tecnologia. Barachini ha espresso l’auspicio di una collaborazione tra tutti gli attori del settore per creare un ambiente favorevole e sicuro per il settore editoriale.
Monitoraggio dell’AI Act europeo
L’eurodeputato Brando Benifei ha annunciato che da ottobre partirà il monitoraggio del rispetto dell’AI Act europeo, una normativa pionieristica nella regolamentazione dell’intelligenza artificiale. Questo atto è stato concepito per essere flessibile e in grado di adattarsi agli sviluppi rapidi nel settore. Tuttavia, il suo successo dipenderà dalla capacità di affrontare e superare problematiche legate alla trasparenza, all’uso di dati e alle questioni etiche. La sfida è duplice: rendere riconoscibili i contenuti generati dall’IA e garantire la remunerazione di chi ha prodotto informazioni utilizzate per alimentare i modelli.
Benifei ha messo in evidenza che l’adempimento a questa normativa richiede un’efficace cooperazione tra politiche nazionali e contesto internazionale, specialmente in un’epoca in cui l’uso dell’IA solleva questioni delicate relative alla privacy e alla sicurezza. Le misure normative mirano a stabilire un corretto equilibrio tra innovazione e tutela dei diritti dei cittadini, mentre le istituzioni lavorano per evitare derive che possano minacciare la libertà e la sicurezza in una società sempre più digitalizzata.