Uso nell’editoria delle IA e la Commissione Amato

Intelligenze Artificiali Generative

Che l’uso delle Intelligenze Artificiali per generare testi stesse diventando “anche” un problema è noto a tutti i professionisti, e non, del settore editoriale e non solo. Come qualunque altra risorsa, anche le intelligenze artificiali generative di testi, immagini, video e contenuti in generale comportano dei rischi e dei benefici, ma indubbiamente c’è un vuoto di regolamentazione che bisogna in qualche modo. L’accelerazione tecnologica che stiamo vivendo sta sfumando sempre di più i confini tra ciò che è lecito e ciò che non lo è, e questo rende l’argomento AI generative particolarmente importante in questo momento, anche per il comparto editoriale.

LA SITUAZIONE IN ITALIA E NEL MONDO

Per questo, diversi Stati hanno deciso di dedicare alla questione lo spazio necessario a compare questi vuoti di norma e regola, scegliendo dei “capi commissione” che dovrebbero indirizzare le strategie di sviluppo e implementazione dell’IA nei vari settori. In Italia: «La Commissione lavorerà su un report da consegnare al Governo sull’impatto dell’intelligenza artificiale sul mondo dell’informazione e dell’editoria, suggerendo eventuali interventi legislativi. I membri sono 10, tra professori universitari ed esperti come Francesco Bonchi, Direttore della ricerca presso Centai (Centro per l’intelligenza artificiale), Giuseppe De Pietro, Direttore dell’istituto di calcolo e reti ad alte prestazioni del Cnr e presidente della fondazione Future Artificial Intelligence Research (Fair) che gestisce il partenariato nazionale sull’Intelligenza Artificiale, e il giornalista Roberto Sommella.» [Fonte]

LE DIVERSE SCELTE SU RISCHI E BENEFICI

Come detto, l’Italia non è la sola. La commissione algoritmi (così battezzata dai giornalisti) del Governo italiano si inserisce all’interno dei tentativi di regolamentazione dell’intelligenza artificiale su cui molti Paesi si stanno confrontando. L’Unione Europea ha iniziato il percorso con il noto IA Act nel 2021, approvato a giugno 2023, che definisce anche dei limiti all’uso delle Intelligenze Artificiali, ma gli obblighi di trasparenza generativa dovrebbero entrare in vigore solo 2025 (magari perché intanto gli utenti usandola possano addestrarla a uso e consumo di chi poi potrà usarla all’interno di questi vincoli?). Gli Stati Uniti si stanno muovendo con una sorta di adesione volontaria da parte delle grandi aziende tecnologiche (Google, Meta, OpenIA) a una serie di principi etici di coordinamento. In Giappone, invece, ricercatori e aziende stanno lavorando per creare una versione giapponese di ChatGPT, il celebre chatbot basato su intelligenza artificiale sviluppato da OpenAI.

REGOLAMENTARE PER USARE

Chiaramente, non è possibile continuare sulla strada di romanzi, testi e contenuti prodotti con le sole intelligenze artificiali, senza in qualche modo distinguere questa produzione da quella “umana”: «Dall’efficienza economica alla sicurezza nazionale, dalla qualità dell’istruzione alla sanità, l’IA ha il potenziale per rivoluzionare ogni aspetto della società. Se gestita correttamente, potrebbe essere un motore di crescita e prosperità. Se trascurata o mal gestita, le conseguenze potrebbero essere disastrose.» [Fonte]

ARTICOLI PER APPROFONDIRE

  • Intelligenza artificiale. Amato, 85 anni, a capo della commissione algoritmi italiana. Hogarth, 38 anni, in UK (qui).
  • ChatGPT: dai linguaggi artificiali alle interpretazioni semantiche, l’evoluzione è partita (qui)
  • Il problema della Commissione algoritmi non è (solo) Giuliano Amato (qui)

Leave a comment

All fields marked with an asterisk (*) are required