Vi sono almeno due modi in cui il processo di profilazione può risultare discriminatorio: il primo, “in senso stretto”, coincide con la possibilità che questa porti all’esclusione dall’accesso a determinati beni e servizi di alcune categorie protette di individui che condividono delle qualificate caratteristiche (quali la razza, l'origine etnica, il genere...); il secondo, "in senso ampio", rivela invece come essa debba considerarsi, in quanto tale, fisiologicamente tesa a distinguere e, dunque, discriminare, a prescindere dalla ricorrenza di una qualità giuridicamente tutelata. Se nella prima ipotesi il problema può dirsi di tipo “ontologico”, poiché colpisce il dataset su cui l’algoritmo compie le sue elaborazioni, comune invece ad entrambe le individuate tipologie di discriminazione è un problema di carattere “epistemologico”, afferente cioè non ai dati, bensì all’algoritmo che su di essi lavora, le cui elaborazioni non riescono ad essere ricostruite. Il presente contributo intende evidenziare come nel GDPR non riescano ad essere rinvenuti efficaci strumenti capaci di dare soluzione a tali problematiche. Un significativo passo in avanti in questo senso, tuttavia, può essere visto nelle disposizioni della recente proposta di Regolamento sull'IA.

Profilazione e discriminazione. Dal GDPR alla proposta di Regolamento sull’IA.

Beniamino Parenzo
2022-01-01

Abstract

Vi sono almeno due modi in cui il processo di profilazione può risultare discriminatorio: il primo, “in senso stretto”, coincide con la possibilità che questa porti all’esclusione dall’accesso a determinati beni e servizi di alcune categorie protette di individui che condividono delle qualificate caratteristiche (quali la razza, l'origine etnica, il genere...); il secondo, "in senso ampio", rivela invece come essa debba considerarsi, in quanto tale, fisiologicamente tesa a distinguere e, dunque, discriminare, a prescindere dalla ricorrenza di una qualità giuridicamente tutelata. Se nella prima ipotesi il problema può dirsi di tipo “ontologico”, poiché colpisce il dataset su cui l’algoritmo compie le sue elaborazioni, comune invece ad entrambe le individuate tipologie di discriminazione è un problema di carattere “epistemologico”, afferente cioè non ai dati, bensì all’algoritmo che su di essi lavora, le cui elaborazioni non riescono ad essere ricostruite. Il presente contributo intende evidenziare come nel GDPR non riescano ad essere rinvenuti efficaci strumenti capaci di dare soluzione a tali problematiche. Un significativo passo in avanti in questo senso, tuttavia, può essere visto nelle disposizioni della recente proposta di Regolamento sull'IA.
2022
"La via europea per l'Intelligenza Artificiale"
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in ARCA sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10278/5020601
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact