• Sab. Ott 23rd, 2021

Red Viper News

L'aggregatore di notizie di Red VIper

Governare il futuro. Per l’Onu l’intelligenza artificiale è preziosa ma va governata subito

“L’intelligenza artificiale può essere una forza positiva, aiutando le società a superare alcune delle grandi sfide dei nostri tempi. Ma le tecnologie di intelligenza artificiale possono avere effetti negativi, persino catastrofici, se vengono utilizzate senza tenere in sufficiente considerazione il modo in cui influiscono sui diritti umani delle persone”.

Lo hai detto mercoledì scorso l’Alta Commissaria delle Nazioni Unite per i diritti umani Michelle Bachelet.

È un rapporto bello, ricco di elementi fattuali e spunti di riflessione, vibrante e illuminante in alcuni passaggi e che si conclude con dieci raccomandazioni ai Governi e cinque a Governi e imprese quello con il quale Michelle Bachelet accende il faro delle Nazioni Unite sul governo dell’intelligenza artificiale in maniera tale da garantirne uno sviluppo sostenibile sul versante dei diritti umani.

“L’intelligenza artificiale raggiunge quasi ogni angolo della nostra vita fisica e mentale e persino la nostra dimensione emotiva. I sistemi di intelligenza artificiale vengono utilizzati per determinare chi ha diritto ai servizi pubblici, decidere chi deve essere assunto e, naturalmente, per decidere le informazioni che le persone vedono e possono condividere online”, ha affermato l’Alta Commissaria.

Troppa fretta, poca ponderazione, troppo entusiasmo, poco riflessione e valutazione da parte di Stati e imprese nel progettare, sviluppare e utilizzare soluzioni di intelligenza artificiale senza verificarne l’impatto sulla società, sulle persone, sui diritti umani.

È la sintesi del giudizio della Bachelet che fa riflettere.

La strada è quella sbagliata.

Se non ci si ferma un istante, non si valutano pro e contro, non si dettano regole capaci di orientare lo sviluppo delle applicazioni diversamente intelligenti in maniera sostenibile si rischia il peggio, si rischia un’autentica catastrofe dei diritti umani.

Alcune soluzioni – come, per esempio, quello applicate al riconoscimento facciale – semplicemente non sono ancora mature per poter essere impiegate su larga scala, alcuni algoritmi sono addestrati utilizzando database pieni di bias che rischiano di produrre discriminazioni nel momento nel quale le relative soluzioni vengono utilizzate, alcune forme di impiego vanno meglio ponderate considerando il rischio che producano effetti con i quali la società non è pronta a confrontarsi.

Ci sono persone nel mondo – ha detto la Commissaria ONU per i diritti umani – che, già oggi, sono trattate ingiustamente per colpa di un algoritmo, persone che si vedono negare benefici che loro competerebbero da parte dello Stato, persone che si vedono privare di un lavoro che, invece, potrebbero ottenere.

Niente ipotesi, nessuna proiezione futuristica, ma fatti tratti dalla realtà già oggi sotto gli occhi di tutti, solo a voler guardare.

Il rapporto descrive in dettaglio come i sistemi di intelligenza artificiale si basino su grandi set di dati, con informazioni sugli individui raccolte, condivise, messe insieme e analizzate in modi diversi e spesso opachi.

I dati utilizzati prima per addestrare e, poi, per far funzionare i sistemi di intelligenza artificiale possono essere difettosi, discriminatori, non aggiornati o irrilevanti.

E anche l’archiviazione a lungo termine dei dati comporta rischi particolari, poiché in futuro i dati potrebbero essere sfruttati in modi ancora sconosciuti.

È per questo che, secondo la Bachelet, “quella dei dati utilizzati per addestrare e far funzionare l’intelligenza artificiale è una delle questioni più urgenti, sul versante dei diritti umani, che dobbiamo affrontare”.

“Il rischio di discriminazione legato alle decisioni guidate dall’intelligenza artificiale – decisioni che possono cambiare, definire o danneggiare le vite umane – è fin troppo reale. Questo è il motivo per cui è necessario valutare e monitorare sistematicamente gli effetti dei sistemi di intelligenza artificiale per identificare e mitigare i rischi per i diritti umani”, ha aggiunto Bachelet.

Occorre inoltre una maggiore trasparenza da parte delle aziende e degli Stati nel modo in cui sviluppano e utilizzano l’IA.

“La complessità dell’ambiente dei dati, degli algoritmi e dei modelli alla base dello sviluppo e del funzionamento dei sistemi di intelligenza artificiale, nonché la segretezza intenzionale del governo e degli attori privati ​​sono fattori che minano modi significativi per il pubblico di comprendere gli effetti dei sistemi di intelligenza artificiale sui diritti umani e sulla società ”, chiarisce il rapporto.

“Non possiamo permetterci di continuare a essere in ritardo sull’intelligenza artificiale, consentendone l’uso con limiti o controlli limitati o assenti e affrontando le conseguenze quasi inevitabili sui diritti umani a fatto compiuto.

Il potere dell’IA di servire le persone è innegabile, ma lo è anche la capacità dell’IA di alimentare violazioni dei diritti umani su vasta scala, praticamente senza visibilità. È necessaria un’azione ora per mettere le barriere dei diritti umani sull’uso dell’intelligenza artificiale, per il bene di tutti noi”, ha concluso la Bachelet.

Difficile darle torto.

Bisogna mettersi al lavoro e bisogna farlo ora.

Articolo proveniente da Huffington Post Italia