INTELLIGENZA ARTIFICIALE

Definizione di intelligenza artificiale:
L’ IA è una disciplina appartenente all’informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana. In pratica si sta cercando di ricreare artificialmente l’intelligenza tipica dell’essere umano.
Che vuol dire? Ogni essere umano apprende grazie all’intelligenza e l’apprendimento consiste nel ripetere l’azione molte volte, commettere errori e imparare dagli errori che si commettono.
Con l’intelligenza artificiale si cerca di creare degli algoritmi che, attraverso loop e interazioni possono ripetere un’azione più volte, e quindi imparare sempre di più a fare quell’azione , fino a superare
l’essere umano. Per questo l’intelligenza artificiale può essere considerata come l’automazione di comportamenti intelligenti.
Bruxelles presenta la nuova strategia sull’intelligenza artificiale. L’obiettivo è sostenere lo sviluppo di un’intelligenza artificiale antropocentrica, sostenibile, sicura, inclusiva e affidabile, ricorrendo ai fondi europei della nuova programmazione 21/27.
Proposte del parlamento europeo
Durante la plenaria del 20 ottobre 2020, il parlamento europeo, ha approvato due iniziative legislative e una relazione in cui affronta diversi temi legati all’uso dell’intelligenza artificiale:
• Nella prima iniziativa legislativa si sollecita la commissione a presentare un quadro giuridico che delinei i principi etici e gli obblighi legali da seguire nello sviluppo e nell’utilizzo dell’intelligenza artificiale della robotica e delle tecnologie correlate,compresi software, algoritmi e dati. Le future leggi dovranno improntarsi ai principi di: sicurezza, trasparenza e responsabilità. Le tecnologie di intelligenza artificiale ad alto rischio dovrebberopercui essere progettate in modo da consentire la sorveglianza umana in qualsiasi momento.
• Nella seconda iniziativa legislativa, gli eurodeputati richiedono un quadro giuridico in materia di responsabilità civile che renda gli operatori dell’Al ad alto rischio responsabili dei danni che ne possono derivare. Un quadro giuridico chiaro, contribuirà a stimolare l’innovazione, fornendo alle imprese la certezza del diritto, proteggendo i cittadini e promuovendo la loro fiducia nelle nuove tecnologie. Le regole dovrebbero essere applicate alle attività di Al fisiche o virtuali che creano un rilevante danno che si traduce in una perdita economica verificabile .
Nella relazione si chiarisce che l’Unione Europea richieda un sistema efficace di diritti di proprietà intellettuale e salvaguardia per far si che il sistema europeo dei brevetti protegga gli sviluppatori innovativi e che sia importante distinguere tra le creazioni umane ottenute con l’assistenza dell’Al e quelle generate autonomamente dall’intelligenza artificiale. Che l’intelligenza artificiale non dovrebbe avere personalità giuridica e che la proprietà dovrebbe solo essere concessa agli essere umani. Inoltre , nel testo si approfondisce ulteriormente il tema del diritto d’autore, della raccolta di dati, dei segreti commerciali, dell’uso di algoritmi e del Deep fake.
Per quanto riguarda la carta dei diritti fondamentali, il consiglio sottolinea che lo sviluppo e l’applicazione dell’ Al devono andare di pari passo e sulla base di un approccio umanocentrico. Dignità, libertà ed eguaglianza sono i principi guida che l’UE e gli Stati membri devono tenere al fine di delineare il nuovo quadro regolamentare.
AI in ambito militare e civile
Quest’anno l’europarlamento ha anche approvato le linee guida per l’utilizzo dell’intelligenza artificiale in campo militare e civile. Per quanto riguarda le applicazioni in ambito militare, gli eurodeputati hanno concordato che i sistemi d’arma autonomi letali dovrebbero essere usati solo come ultima risorsaed essere legali solo se soggetti al controllo umano.
L’ Europarlamento deve assumere un ruolo guida nella promozione di un quadro globale sull’uso militare dell’ Al.
In ambito civile, poi, l’aumento dell’uso dei sistemi di intelligenza artificiale nei servizi pubblici, specialmente nella sanità e nella giustizia, non dovrebbero sostituire il contatto umano. Quando l’intelligenza artificiale viene utilizzata nell’ambito della salute pubblica’ i dati personali dei pazienti devono essere protetti e il principio della parità di trattamento deve essere rispettato.
Nel settore della giustizia, invece, l’uso di queste tecnologie possono contribuire ad accelerare i procedimenti ed a prendere decisioni più razionali, ma le decisioni finali devono essere prese da esseri umani, rigorosamente verificate da una persona, garantendo il diritto ad un giusto processo. Si richiama l’attenzione anche sulle minacce ai diritti umani fondamentali e alla sovranità dello Stato derivanti dall’uso delle tecnologie di intelligenza artificiale nella sorveglianza civile militare di massa. Il parlamento chiede che alle autorità pubbliche sia vietato l’uso di applicazioni altamente invasiva di punteggio sociale.
Preoccupano poi le tecnologie di Deep fake, che hanno il potenziale di destabilizzare i paesi, diffondere la disinformazione e influenzare le consultazioni elettorali. I creatori dovrebbero essere obbligati ad etichettare tale materiale come non originale e si dovrebbe fare più ricerca sulle tecnologie in grado di contrastare questo fenomeno.
Intelligenza artificiale in ambito culturale.
Il 16 marzo 2021 è approvata una risoluzione sull’uso dell’intelligenza artificiale in ambito culturale. Le nuove tecnologie basate sull’intelligenza artificiale dovranno tutelare la diversità e il pluralismo, rispettando il principio di non discriminazione. Serve perciò un quadro etico chiaro e di riferimento oltre a indicatori allo scopo di garantire agli utenti l’accesso a diversi contenuti culturali e linguistici.
Per quanto riguarda l’istruzione gli europarlamentari hanno sottolineato la necessità di formare i docenti, che dovranno sempre essere in grado di correggere le decisioni prese dall’intelligenza artificiale, come quelle riguardanti le valutazioni degli studenti.
La strategia di Bruxelles sull’intelligenza artificiale
Il 21 aprile 2021, la commissione europea ha presentato un pacchetto di misure che delinea la strategia europea sull’intelligenza artificiale. Il pacchetto prevede un quadro giuridico, un nuovo piano coordinato con gli Stati membri per garantire la sicurezza e i diritti fondamentali di persone, imprese e macchine.
Il quadro normativo sull’intelligenza artificiale
Il quadro normativo si concentra sull’affidabilità dell’intelligenza artificiale,seguendo un approccio basato sul rischio:
1) rischio inaccettabile: quando i sistemi di intelligenza artificiale sono considerati una chiara minaccia per la sicurezza.
2) rischio alto : quando la tecnologia di intelligenza artificiale viene
utilizzata per infrastrutture critiche: istruzione, formazione professionale, servizi pubblici.
3) rischio limitato: nel caso di sistemi di intelligenza artificiale con specifici obblighi di trasparenza come i chatbot.
4) rischio minimo: in questo caso è previsto il libero utilizzo di applicazioni quali videogiochi o filtri spam basati sull’intelligenza artificiale.
La commissione europea propone che le autorità nazionali di vigilanza del mercato competenti supervisionano le nuove regole, mentre l’istituzione di un comitato europeo per l’intelligenza artificiale ne feliciterà l’attuazione stimolando lo sviluppo di norme per l’intelligenza artificiale.
Vengono proposti codici di condotta volontari per i sistemi di intelligenza artificiale non ad alto rischio, nonché spazi di sperimentazione normativa per facilitare un’innovazione responsabile.
Il nuovo piano coordinato con gli Stati membri utilizzerà i finanziamenti assegnati attraverso i programmi:
Digital Your Hope, Orizon Your Hope, nonche il dispositivo per la ripresa e la resilienza, che prevede un obiettivo di spesa per il digitale del 20 %, i programmi della politica di coesione al fine di:
1) Creare le condizioni favorevoli allo sviluppo e all’adozione dell’intelligenza artificiale attraverso lo scambio di informazioni strategiche
2) Muovere l’eccellenza in materia di intelligenza artificiale dal laboratorio al mercato, istituendo un partneriato pubblico-privato, costruendo e mobilitando capacità di ricerca, sviluppo e innovazione, non che poli dell’innovazione digitale.
3) Garantire che l’intelligenza artificiale sia al servizio delle persone, e sia una forza positiva nella società, operando in prima linea nello sviluppo e nella diffusione di un’intelligenza artificiale affidabile, coltivando talenti e competenze mediante tirocini, reti di dottorato e borse post-dottorato in ambito digitale, integrando la fiducia nelle politiche in materia di intelligenza artificiale e promuovendo la visione europea.
4) Creare la leadership strategica in settori e tecnologie ad alto impatto, compreso l’ambiente, concentrandosi sul contributo dell’intelligenza artificiale alla produzione sostenibile, alla salute, ampliando lo scambio trans Frontalieri di informazioni, nonché al settore pubblico, alla mobilità, agli affari interni agricoltura e alla robotica.
Stretta ulteriore della UE sull’ intelligenza artificiale
La Commissione, il braccio esecutivo della UE, il 21 aprile 2021 ha emanato una proposta di regolamento di armonizzazione delle regole europee sull’intelligenza artificiale. L’obiettivo sarebbe quello di contrastare gli utilizzi della tecnologia che possono risultare lesivi per i diritti fondamentali e la sicurezza dei cittadini dell’Unione Europea.
La stretta nell’agenda dell’esecutivo von der Leyen include il divieto di alcune applicazioni, tra cui:
A) riconoscimento facciale, le tecnologie di riconoscimento
biometrico dovrebbero essere proibite, con l’unica eccezione di casi di ricerca di vittime di rapimenti, il contesto all’attività terroristica o indagini su criminali.
B) le applicazioni in grado di manipolare le persone attraverso tecniche subliminali
C) le applicazioni che sfruttano le vulnerabilità di gruppi particolarmente fragili come i bambini o i disabili.
D) sistemi di social scoring e cioè i punteggi attribuiti da governi come quello cinese pe r valutare l’affidabilità dei cittadini.
Nel testo della commissione emerge che i trasgressori potrebbero incorrere in sanzioni amministrative fino a 30 milioni di euro o in caso di aziende multe fino a 6% del proprio fatturato complessivo ha detto la vicepresidente della commissione Margrethe Vestager. Queste regole rappresentano una svolta, che consentirà all’UE di guidare lo sviluppo dell’intelligenza artificiale al fine di poter essere considerata affidabile.