Tutti i progetti di Human Hall

INTELLIGENZA ARTIFICIALE INCLUSIVA

L’intelligenza artificiale è una tecnologia dalle enormi potenzialità. Il suo impatto sulla società è destinato a crescere, ma ci sono anche rischi e sfide da affrontare. Se gestita in modo efficace, con un data set adeguato e algoritmi trasparenti, può contribuire alla tutela dei diritti umani e delle libertà individuali.. 

Questo progetto si propone di sviluppare buone pratiche tecnologiche per il contrasto delle discriminazioni e la promozione dell’inclusione sociale. Attraverso l’utilizzo di soluzioni come il sistema NOME, sarà possibile analizzare documenti e atti amministrativi per individuare termini contrari alle linee guida antidiscriminatorie. L’intelligenza artificiale permette così di capire come e dove intervenire, supportando l’adozione di un linguaggio inclusivo.

TEAM

SCOPRI I VIDEO DI
INTELLIGENZA ARTIFICIALE INCLUSIVA

AI & Inclusion: NOME

Uno studio empirico
sull’annotazione del testo

Cosa facciamo

IL PROGETTO IN SINTESI

INIZIATIVE

L'INTELLIGENZA ARTIFICIALE CONTRO LA DISCRIMINAZIONE

Parla Paolo Ceravolo, professore associato di Informatica

Che legame c’è tra intelligenza artificiale e diritti umani?

L’intelligenza artificiale, sempre più presente nella nostra quotidianità, solleva profonde questioni etiche. La decisione algoritmica può influenzare la vita delle persone in modo significativo. È quindi importante che gli sviluppatori di algoritmi tengano conto delle conseguenze sociali e politiche delle loro creazioni, in modo tale da garantire l’equità e la giustizia per tutti, indipendentemente dal genere o stato sociale.

In che modo l’intelligenza artificiale può “lavorare” per l’inclusione?

L’obiettivo è far sì che le decisioni dell’intelligenza artificiale non siano discriminatorie. Per raggiungerlo, si può agire su due aspetti: da una parte la “pulizia” del data set, che non deve includere elementi tossici; dall’altra l’accuratezza e le scelte dell’algoritmo. Credo che, tra le due, la più importante sia la prima.

Perché l’intelligenza artificiale non è “neutra”?

Nel momento in cui apprende da un insieme di dati, che sono espressione di una società, l’intelligenza artificiale ne riflette gli equilibri e gli eventuali elementi discriminatori. È quindi necessario un lavoro di ripulitura. L’intelligenza artificiale è in un certo senso il riassunto di tutta la conoscenza acquisita dall’umanità. E se ci sono elementi di debolezza, vengono replicati. In una società che fa un uso sempre più importante di strumenti di automazione, dobbiamo agire con senso di responsabilità ancora più spiccato: siamo noi ad educare i sistemi, mai il contrario. Quindi, oggi siamo chiamati a migliorare la nostra conoscenza complessiva per far sì che i futuri processi decisionali siano più giusti.

Uno degli strumenti utili in questo senso è il sistema NOME. In cosa consiste?

NOME è uno strumento di valutazione di documenti che individua i testi non conformi alle linee guida sul linguaggio inclusivo. Elabora statistiche sulle tipologie di atti e sulle situazioni più critiche, monitorandoli nel tempo. In prospettiva, potrebbe formulare suggerimenti in tempo reale, già durante la scrittura del testo. NOME è già stato applicato agli atti amministrativi dell’Università degli Studi di Milano, ma potrebbe essere utilizzato in altri contesti, più ampi e avanzati.

Perché è importante un approccio integrato nella progettazione di un’intelligenza inclusiva?

È molto importante. Progettare l’attività di ricerca in relazione a degli “utilizzatori finali” aiuta non solo la società ma anche la comunità scientifica, spinta a definire delle priorità chiare. L’altro elemento importante è la condivisione di competenze diverse. La comunità informatica, ad esempio, ha già lavorato molto sull’apprendimento automatico e la non discriminazione. Ma il collegamento con gli aspetti giuridici e normativi diventa uno strumento di validazione in più, che può aiutare a raggiungere risultati importanti.

Che legame c’è tra intelligenza artificiale e diritti umani?

L’intelligenza artificiale, sempre più presente nella nostra quotidianità, solleva profonde questioni etiche. La decisione algoritmica può influenzare la vita delle persone in modo significativo. È quindi importante che gli sviluppatori di algoritmi tengano conto delle conseguenze sociali e politiche delle loro creazioni, in modo tale da garantire l’equità e la giustizia per tutti, indipendentemente dal genere o stato sociale.

In che modo l’intelligenza artificiale può “lavorare” per l’inclusione?

L’obiettivo è far sì che le decisioni dell’intelligenza artificiale non siano discriminatorie. Per raggiungerlo, si può agire su due aspetti: da una parte la “pulizia” del data set, che non deve includere elementi tossici; dall’altra l’accuratezza e le scelte dell’algoritmo. Credo che, tra le due, la più importante sia la prima.

Perché l’intelligenza artificiale non è “neutra”?

Nel momento in cui apprende da un insieme di dati, che sono espressione di una società, l’intelligenza artificiale ne riflette gli equilibri e gli eventuali elementi discriminatori. È quindi necessario un lavoro di ripulitura. L’intelligenza artificiale è in un certo senso il riassunto di tutta la conoscenza acquisita dall’umanità. E se ci sono elementi di debolezza, vengono replicati. In una società che fa un uso sempre più importante di strumenti di automazione, dobbiamo agire con senso di responsabilità ancora più spiccato: siamo noi ad educare i sistemi, mai il contrario. Quindi, oggi siamo chiamati a migliorare la nostra conoscenza complessiva per far sì che i futuri processi decisionali siano più giusti.

Uno degli strumenti utili in questo senso è il sistema NOME. In cosa consiste?

NOME è uno strumento di valutazione di documenti che individua i testi non conformi alle linee guida sul linguaggio inclusivo. Elabora statistiche sulle tipologie di atti e sulle situazioni più critiche, monitorandoli nel tempo. In prospettiva, potrebbe formulare suggerimenti in tempo reale, già durante la scrittura del testo. NOME è già stato applicato agli atti amministrativi dell’Università degli Studi di Milano, ma potrebbe essere utilizzato in altri contesti, più ampi e avanzati.

Perché è importante un approccio integrato nella progettazione di un’intelligenza inclusiva?

È molto importante. Progettare l’attività di ricerca in relazione a degli “utilizzatori finali” aiuta non solo la società ma anche la comunità scientifica, spinta a definire delle priorità chiare. L’altro elemento importante è la condivisione di competenze diverse. La comunità informatica, ad esempio, ha già lavorato molto sull’apprendimento automatico e la non discriminazione. Ma il collegamento con gli aspetti giuridici e normativi diventa uno strumento di validazione in più, che può aiutare a raggiungere risultati importanti.

Paolo Ceravolo, Samira Maghool, Costanza Nardocci

Torna in alto
Cerca
12
Dicembre
2024
15.00 – WEBINAR GRATUITO
Intelligenza artificiale e diritti: La valutazione di impatto dei sistemi di IA