Intelligenza Artificiale, quello che accadrà a breve spaventa tutti: pronta una Task Force

Come si stanno muovendo i più importanti Paesi in previsione dello sviluppo dell’Intelligenza Artificiale? Il caso di Rose Villan e la Task Force negli Stati Uniti, fino all’esempio della Corea

Un problema o una possibilità? Un qualcosa da cui proteggersi, o un grande passo verso il futuro? L’intelligenza artificiale si sta diffondendo in maniera incredibile in tutto il mondo. Le superpotenze economiche ed industriali, stanno studiando il modo migliore per sfruttarne le potenzialità e per riuscire ad essere competitivi in un mercato in continuo sviluppo. Ieri la Corea del Sud ha annunciato la volontà di investire quasi 7 miliardi di dollari nell’intelligenza artificiale entro il 2027. Lo stato coreano intende diventare il leader globale di questo segmento, sfruttando le grandi possibilità tecniche ed economiche.

Intelligenza artificiale, tra speranze e preoccupazioni. Ecco cosa accadrà nei prossimi giorni – Cityrumors.it (Pixabay Foto)

Il Paese è la patria di Samsung e SK Hynix, i due principali produttori mondiali di chip di memoria, tra cui la memoria premium ad alta larghezza di banda (HBM) utilizzata nell’hardware che alimenta l’intelligenza artificiale. L’industria dei semiconduttori è un pilastro cruciale dell’economia della Corea del Sud, basata sulle esportazioni, e il presidente Yoon ha detto a una riunione di funzionari e dirigenti del settore tecnologico che la sua amministrazione vuole che il paese guidi il mondo nei chip AI. “Non è esagerato dire che il futuro dell’industria dei semiconduttori dipende dall’intelligenza artificiale”, ha detto Yoon. “Investiremo 9,4 trilioni di won (6,94 miliardi di dollari) nei campi dell’intelligenza artificiale e dei semiconduttori AI entro il 2027” e istituiremo un fondo separato da 1,4 trilioni di won (1 miliardo di dollari) “per aiutare la crescita delle aziende innovative di semiconduttori AI”, ha aggiunto.

I problemi legati a possibili rischi per l’umanità

La corsa alla costruzione di un’intelligenza artificiale generale futuristica, con la creazione di macchine che siano ampiamente intelligenti come gli esseri umani, o almeno in grado di fare molte cose come le persone, è iniziata da tempo. Un concetto comunemente indicato con il termine AGI e che riassume la missione trainante del produttore di ChatGPT OpenAI: una vera e propria priorità per le ali di ricerca d’élite dei giganti della tecnologia Amazon, Google, Meta e Microsoft. Ma non tutti la pensano allo stesso modo. Per alcuni governi mondiali invece, rappresenta un motivo di grande preoccupazione. Alcuni tra i principali scienziati dell’IA hanno infatti pubblicato una ricerca sulla rivista Science, nella quale hanno avvisato che, gli agenti di IA non controllati con capacità di “pianificazione a lungo termine” potrebbero rappresentare un rischio esistenziale per l’umanità.

Cosa c’è da aspettarsi dall’Intelligenza Artificiale? Si tratta di un processo spaventoso o di una grande occasione, da poter sfruttare immediatamente? Qualcuno l’ha definita come un cambiamento economico, una minaccia per la democrazia o addirittura una minaccia esistenziale per l’umanità. E’ necessario dunque, sin da subito provare a regolamentarla, attraverso delle leggi che spieghino fin da subito i limiti del suo utilizzo. Tutti gli Stati principali si stanno adeguando. Negli Stati Uniti ad esempio i membri del Congresso stanno cercando di capire come regolamentare il settore in modo da incoraggiare i suoi potenziali benefici e mitigare i rischi peggiori. I legislatori hanno creato una task force e invitato esperti a spiegare come l’IA potrebbe trasformare le nostre vite. Il rappresentante Don Beyer, democratico della Virginia, si sta spingendo oltre, iscrivendosi all’università per conseguire un master in apprendimento automatico.

L’IA rivoluzionerà presto il mondo del lavoro. Come sfruttarla al meglio e non rischiare che si creino disagi ? – Cityrumors.it

L’esempio di Rose Villan e la necessità di nuove regole

Don Bayer ha deciso di studiare ogni tipo di possibile sviluppo dell’Intelligenza Artificiale. A 73 anni è tornato sui libri e si è iscritto alla George Mason University per conseguire un master in apprendimento automatico. In un’epoca in cui i legislatori e i giudici della Corte Suprema a volte ammettono di non comprendere le tecnologie emergenti, il viaggio di Beyer è un caso a sé stante, ma evidenzia uno sforzo più ampio da parte dei membri del Congresso di istruirsi sull’intelligenza artificiale mentre prendono in considerazione leggi che ne modificherebbero lo sviluppo. Tendo a essere un ottimista in materia di IA“, ha dichiarato Beyer. “Non possiamo nemmeno immaginare quanto sarà diversa la nostra vita tra cinque, dieci o vent’anni grazie all’IA. … Non ci saranno robot con gli occhi rossi che ci inseguiranno a breve. Ma ci sono altri rischi esistenziali più profondi a cui dobbiamo prestare attenzione”.

L’AI potrebbe infatti portare alla perdita massiccia di posti di lavoro nelle industrie e soprattutto, causare dei problemi di non facile soluzione: ad esempio la creazione di  risultati distorti o imprecisi, o di immagini, video e audio falsi che potrebbero essere sfruttati per disinformazione politica, truffe o sfruttamento sessuale (basti vedere in Italia ciò che è successo alla cantante Rose Villan, che ha denunciato la pubblicazione di alcune sue immagini hard, create dall’Intelligenza Artificiale). Come muoversi in contesti del genere? Come regolamentare queste situazioni? 

Rose Villain: il segreto che nasconde
Rose Villain ha denunciato la diffusione di alcune sue foto hard create artificialmente dall’AI (Instagram @rosevillain) – cityrumors.it

Ma c’è anche chi lancia un allarme diverso. Inserire norme troppo stringenti, potrebbe anche frenare l’innovazione. Soprattutto negli Stati Uniti molti politici e scienziati temono che lo Stato possa restare in una  posizione di svantaggio rispetto ad altre nazioni che cercano di sfruttare la potenza dell’IA. Trovare il giusto equilibrio richiederà il contributo non solo delle aziende tecnologiche, ma anche dei critici del settore e delle industrie che l’IA potrebbe trasformare. Sebbene molti americani si siano fatti un’idea dell’IA grazie a film di fantascienza come Terminator o Matrix, è importante che i legislatori abbiano una comprensione chiara della tecnologia, ha dichiarato il rappresentante Jay Obernolte, R-Calif, e presidente della Task Force AI della Camera. Quando i legislatori hanno domande sull’IA, Obernolte è una delle persone a cui si rivolgono. Ha studiato ingegneria e scienze applicate al California Institute of Technology e ha conseguito un master in intelligenza artificiale all’UCLA. Il repubblicano californiano ha anche fondato una propria azienda di videogiochi. Obernolte ha dichiarato di essere rimasto “piacevolmente colpito” dalla serietà con cui i suoi colleghi di entrambi gli schieramenti stanno prendendo la responsabilità di comprendere l’intelligenza artificiale.

La task Force che indaga

Gli ambiti più delicati dove negli Stati Uniti intendono regolamentare l’Intelligenza Artificiale sono quelli legali, sanitari, medici e finanziari. Provare a tenere il passo con la tecnologia è una sfida per il Congresso da sempre. I legislatori federali hanno creato diversi uffici – la Biblioteca del Congresso, il Congressional Budget Office, ecc. – per fornire risorse e contributi specialistici quando necessario. Inoltre, si affidano a personale con competenze su argomenti specifici, tra cui la tecnologia. “Hanno gruppi di interesse e lobbisti che bussano alla loro porta per dare loro informazioni”, ha detto Lowande. Beyer ha detto di essersi interessato da sempre ai computer e che quando l’intelligenza artificiale è emersa come argomento di interesse pubblico ha voluto saperne di più. Molto di più. Quasi tutti i suoi compagni di corso sono più giovani di decenni; la maggior parte di loro non sembrano spaventati quando scoprono che il loro compagno di corso è un membro del Congresso, ha detto Beyer.

Negli Stati Uniti è stata creata una sorta di Task Force, chiamata a giudicare le varie proposte di miglioramento. E capire, una volta per tutte, se ci si trova di fronte ad una grande possibilità da sfruttare, o ad un potenziale pericolo. “L’IA non è né buona né cattiva”, ha dichiarato l’amministratore delegato di Black Cloak (una società di cybersicurezza) Chris Person. “È il modo in cui la si usa”. Chi sarà in grado di definire quale sia realmente il modo giusto?

 

 

Impostazioni privacy