Results

Council of Europe

01/15/2026 | Press release | Distributed by Public on 01/16/2026 02:20

Lacune e politiche in materia di discriminazione basata su IA e algoritmi in Europa

Quali sono le sfide principali nella lotta contro la discriminazione basata sull'intelligenza artificiale e su sistemi decisionali automatizzati? Come rafforzare i quadri di governance? Quale ruolo possono svolgere le autorità pubbliche, gli organismi di promozione dell'uguaglianza e le istituzioni per i diritti umani nel prevenire la discriminazione e assicurare il risarcimento dei danni?

Queste le domande al centro di un recente evento online organizzato dal Consiglio d'Europa. Nel corso del webinar, sono state presentate due nuove pubblicazioni intitolate "Legal protection against algorithmic discrimination in Europe: current frameworks and remaining gaps" (Protezione giuridica contro la discriminazione algoritmica in Europa: quadri attuali e lacune ancora presenti) e "European policy guidelines on AI and algorithm-driven discrimination for equality bodies and other national human rights structures" (Linee guida di politica europea relative alla discriminazione basata su IA e algoritmi per gli organismi di promozione dell'uguaglianza e altre strutture nazionali per i diritti umani).

I pregiudizi algoritmici aggravano le disuguaglianze sociali esistenti

L'IA si diffonde sempre di più in ogni aspetto della nostra vita quotidiana, ponendo importanti sfide per la protezione dei diritti fondamentali. La discriminazione algoritmica emerge come un problema particolarmente preoccupante. La ricerca ha dimostrato che i pregiudizi algoritmici non solo riflettono, ma aggravano le disuguaglianze sociali esistenti.

Nel mondo del lavoro, gli algoritmi di selezione addestrati su dati di assunzione storici potrebbero favorire ingiustamente i candidati maschi riproducendo decisioni di assunzione passate distorte da stereotipi discriminatori contro le donne o i gruppi minoritari. Alcuni degli strumenti di profilazione utilizzati dalle agenzie pubbliche per l'impiego come ausilio per decidere l'allocazione di risorse a chi cerca lavoro sono stati giudicati discriminatori. L'IA e i sistemi decisionali automatizzati (ADM) vengono utilizzati regolarmente dalle forze dell'ordine, ma la ricerca dimostra che le tecnologie di riconoscimento facciale possono presentare pregiudizi discriminatori o essere impiegate in modo da prendere di mira e sorvegliare le minoranze in maniera sproporzionata, conducendo così una profilazione etnica. L'IA e i sistemi ADM sono inoltre utilizzati da alcune amministrazioni pubbliche in Europa a sostegno del processo decisionale nel campo della migrazione, ad esempio per le decisioni su cittadinanza, asilo o soggiorno. Gli utilizzi segnalati includono, a titolo esemplificativo, l'identificazione della lingua e la valutazione delle competenze linguistiche, il rilevamento di frodi legate ai documenti di identità, la gestione dei casi, l'interazione con i migranti anche attraverso chatbot, le previsioni in materia di migrazione e le tecnologie di controllo delle frontiere. Altre aree politiche in cui le amministrazioni pubbliche utilizzano l'IA e i sistemi ADM sono il welfare, la giustizia, l'istruzione, la fiscalità e la salute.

Nel settore privato, le agenzie di reclutamento utilizzano l'AI e i sistemi ADM per selezionare i candidati e tracciarne il profilo, abbinare le richieste di lavoro ai loro profili o redigere e tradurre offerte di lavoro. Questi sistemi vengono inoltre distribuiti in aree critiche del settore privato, come quelle delle banche e delle assicurazioni.

Nuovi quadri giuridici

Nel 2024, l'Unione europea e il Consiglio d'Europa hanno adottato strumenti giuridici di riferimento: l'AI Act dell'UE (Regolamento 2024/1689) e la Convenzione quadro del Consiglio d'Europa sull'intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto. Una delle pubblicazioni presentate all'evento di oggi esamina il modo in cui questi nuovi strumenti giuridici contribuiscono a rafforzare le protezioni contro la discriminazione algoritmica in Europa e valuta le lacune che continuano a interessare questi quadri giuridici.

Aiutare gli attori a livello nazionale

La seconda pubblicazione pone al centro il ruolo chiave che gli organismi di promozione dell'uguaglianza e altre strutture nazionali per i diritti umani possono svolgere nell'identificare e limitare i rischi posti dai sistemi di IA/ADM e nel promuovere una distribuzione di tali sistemi da parte delle organizzazioni del settore pubblico che sia conforme ai diritti fondamentali. Le linee guida propongono raccomandazioni ed esempi per l'applicazione delle nuove norme dell'UE e del Consiglio d'Europa e sono concepite per assistere e consigliare le parti coinvolte a livello nazionale nell'ambito dei diritti umani, dell'uguaglianza e della non discriminazione.

Hanno partecipato all'evento rappresentanti della Commissione europea, di organismi nazionali di promozione dell'uguaglianza di Belgio, Portogallo e Finlandia e del mondo accademico.

Il webinar e le pubblicazioni sono stati realizzati nel quadro del progetto di sostegno tecnico dell'Unione europea e del Consiglio d'Europa Difesa dell'uguaglianza e della non discriminazione da parte di organismi di promozione dell'uguaglianza relativamente all'utilizzo dell'intelligenza artificiale (IA) nelle amministrazioni pubbliche - inclusione and anti-discriminazione, con la collaborazione del Centro interfederale per le pari opportunità (Unia, Belgio), del mediatore per la non discriminazione (Finlandia) e della Commissione per la cittadinanza e la parità di genere (Portogallo).

Il Consiglio d'Europa gestisce ampi programmi di attività di cooperazione per combattere la discriminazione, il discorso d'odio e i reati di odio e per sostenere l'empowerment delle minoranze, la gestione positiva della diversità e il rispetto dei diritti umani, tra cui la distribuzione delle tecnologie digitali e dei sistemi algoritmici e di intelligenza artificiale.

Leggere la pubblicazione completa "European policy guidelines on AI and algorithm-driven discrimination for equality bodies and other national human rights structures" (anche in FRA, DUT, POR, FIN, SWE) in full (also in FRA, DUT, POR, FIN, SWE)

Leggere la pubblicazione completa "Legal protection against algorithmic discrimination in Europe: current frameworks and remaining gaps" (anche in FRA, DUT, POR, FIN, SWE)

Il Consiglio d'Europa e l'inclusione e l'antidiscriminazione

Convenzione quadro sull'intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto

Council of Europe published this content on January 15, 2026, and is solely responsible for the information contained herein. Distributed via Public Technologies (PUBT), unedited and unaltered, on January 16, 2026 at 08:20 UTC. If you believe the information included in the content is inaccurate or outdated and requires editing or removal, please contact us at [email protected]