Tutti i progetti di Human Hall
INTELLIGENZA ARTIFICIALE INCLUSIVA
L’intelligenza artificiale è una tecnologia dalle enormi potenzialità. Il suo impatto sulla società è destinato a crescere, ma ci sono anche rischi e sfide da affrontare. Se gestita in modo efficace, con un data set adeguato e algoritmi trasparenti, può contribuire alla tutela dei diritti umani e delle libertà individuali..
Questo progetto si propone di sviluppare buone pratiche tecnologiche per il contrasto delle discriminazioni e la promozione dell’inclusione sociale. Attraverso l’utilizzo di soluzioni come il sistema NOME, sarà possibile analizzare documenti e atti amministrativi per individuare termini contrari alle linee guida antidiscriminatorie. L’intelligenza artificiale permette così di capire come e dove intervenire, supportando l’adozione di un linguaggio inclusivo.
TEAM
SCOPRI I VIDEO DI
INTELLIGENZA ARTIFICIALE INCLUSIVA
Cosa facciamo
IL PROGETTO IN SINTESI
INIZIATIVE
L'INTELLIGENZA ARTIFICIALE CONTRO LA DISCRIMINAZIONE
Parla Paolo Ceravolo, professore associato di Informatica
Che legame c’è tra intelligenza artificiale e diritti umani?
L’intelligenza artificiale, sempre più presente nella nostra quotidianità, solleva profonde questioni etiche. La decisione algoritmica può influenzare la vita delle persone in modo significativo. È quindi importante che gli sviluppatori di algoritmi tengano conto delle conseguenze sociali e politiche delle loro creazioni, in modo tale da garantire l’equità e la giustizia per tutti, indipendentemente dal genere o stato sociale.
In che modo l’intelligenza artificiale può “lavorare” per l’inclusione?
L’obiettivo è far sì che le decisioni dell’intelligenza artificiale non siano discriminatorie. Per raggiungerlo, si può agire su due aspetti: da una parte la “pulizia” del data set, che non deve includere elementi tossici; dall’altra l’accuratezza e le scelte dell’algoritmo. Credo che, tra le due, la più importante sia la prima.
Perché l’intelligenza artificiale non è “neutra”?
Nel momento in cui apprende da un insieme di dati, che sono espressione di una società, l’intelligenza artificiale ne riflette gli equilibri e gli eventuali elementi discriminatori. È quindi necessario un lavoro di ripulitura. L’intelligenza artificiale è in un certo senso il riassunto di tutta la conoscenza acquisita dall’umanità. E se ci sono elementi di debolezza, vengono replicati. In una società che fa un uso sempre più importante di strumenti di automazione, dobbiamo agire con senso di responsabilità ancora più spiccato: siamo noi ad educare i sistemi, mai il contrario. Quindi, oggi siamo chiamati a migliorare la nostra conoscenza complessiva per far sì che i futuri processi decisionali siano più giusti.
Uno degli strumenti utili in questo senso è il sistema NOME. In cosa consiste?
NOME è uno strumento di valutazione di documenti che individua i testi non conformi alle linee guida sul linguaggio inclusivo. Elabora statistiche sulle tipologie di atti e sulle situazioni più critiche, monitorandoli nel tempo. In prospettiva, potrebbe formulare suggerimenti in tempo reale, già durante la scrittura del testo. NOME è già stato applicato agli atti amministrativi dell’Università degli Studi di Milano, ma potrebbe essere utilizzato in altri contesti, più ampi e avanzati.
Perché è importante un approccio integrato nella progettazione di un’intelligenza inclusiva?
È molto importante. Progettare l’attività di ricerca in relazione a degli “utilizzatori finali” aiuta non solo la società ma anche la comunità scientifica, spinta a definire delle priorità chiare. L’altro elemento importante è la condivisione di competenze diverse. La comunità informatica, ad esempio, ha già lavorato molto sull’apprendimento automatico e la non discriminazione. Ma il collegamento con gli aspetti giuridici e normativi diventa uno strumento di validazione in più, che può aiutare a raggiungere risultati importanti.
Che legame c’è tra intelligenza artificiale e diritti umani?
L’intelligenza artificiale, sempre più presente nella nostra quotidianità, solleva profonde questioni etiche. La decisione algoritmica può influenzare la vita delle persone in modo significativo. È quindi importante che gli sviluppatori di algoritmi tengano conto delle conseguenze sociali e politiche delle loro creazioni, in modo tale da garantire l’equità e la giustizia per tutti, indipendentemente dal genere o stato sociale.
In che modo l’intelligenza artificiale può “lavorare” per l’inclusione?
L’obiettivo è far sì che le decisioni dell’intelligenza artificiale non siano discriminatorie. Per raggiungerlo, si può agire su due aspetti: da una parte la “pulizia” del data set, che non deve includere elementi tossici; dall’altra l’accuratezza e le scelte dell’algoritmo. Credo che, tra le due, la più importante sia la prima.
Perché l’intelligenza artificiale non è “neutra”?
Nel momento in cui apprende da un insieme di dati, che sono espressione di una società, l’intelligenza artificiale ne riflette gli equilibri e gli eventuali elementi discriminatori. È quindi necessario un lavoro di ripulitura. L’intelligenza artificiale è in un certo senso il riassunto di tutta la conoscenza acquisita dall’umanità. E se ci sono elementi di debolezza, vengono replicati. In una società che fa un uso sempre più importante di strumenti di automazione, dobbiamo agire con senso di responsabilità ancora più spiccato: siamo noi ad educare i sistemi, mai il contrario. Quindi, oggi siamo chiamati a migliorare la nostra conoscenza complessiva per far sì che i futuri processi decisionali siano più giusti.
Uno degli strumenti utili in questo senso è il sistema NOME. In cosa consiste?
NOME è uno strumento di valutazione di documenti che individua i testi non conformi alle linee guida sul linguaggio inclusivo. Elabora statistiche sulle tipologie di atti e sulle situazioni più critiche, monitorandoli nel tempo. In prospettiva, potrebbe formulare suggerimenti in tempo reale, già durante la scrittura del testo. NOME è già stato applicato agli atti amministrativi dell’Università degli Studi di Milano, ma potrebbe essere utilizzato in altri contesti, più ampi e avanzati.
Perché è importante un approccio integrato nella progettazione di un’intelligenza inclusiva?
È molto importante. Progettare l’attività di ricerca in relazione a degli “utilizzatori finali” aiuta non solo la società ma anche la comunità scientifica, spinta a definire delle priorità chiare. L’altro elemento importante è la condivisione di competenze diverse. La comunità informatica, ad esempio, ha già lavorato molto sull’apprendimento automatico e la non discriminazione. Ma il collegamento con gli aspetti giuridici e normativi diventa uno strumento di validazione in più, che può aiutare a raggiungere risultati importanti.
Paolo Ceravolo, Samira Maghool, Costanza Nardocci