Vi sono almeno due modi in cui il processo di profilazione può risultare discriminatorio: il primo, “in senso stretto”, coincide con la possibilità che questa porti all’esclusione dall’accesso a determinati beni e servizi di alcune categorie protette di individui che condividono delle qualificate caratteristiche (quali la razza, l'origine etnica, il genere...); il secondo, "in senso ampio", rivela invece come essa debba considerarsi, in quanto tale, fisiologicamente tesa a distinguere e, dunque, discriminare, a prescindere dalla ricorrenza di una qualità giuridicamente tutelata. Se nella prima ipotesi il problema può dirsi di tipo “ontologico”, poiché colpisce il dataset su cui l’algoritmo compie le sue elaborazioni, comune invece ad entrambe le individuate tipologie di discriminazione è un problema di carattere “epistemologico”, afferente cioè non ai dati, bensì all’algoritmo che su di essi lavora, le cui elaborazioni non riescono ad essere ricostruite. Il presente contributo intende evidenziare come nel GDPR non riescano ad essere rinvenuti efficaci strumenti capaci di dare soluzione a tali problematiche. Un significativo passo in avanti in questo senso, tuttavia, può essere visto nelle disposizioni della recente proposta di Regolamento sull'IA.
Profilazione e discriminazione. Dal GDPR alla proposta di Regolamento sull’IA.
Beniamino Parenzo
2022-01-01
Abstract
Vi sono almeno due modi in cui il processo di profilazione può risultare discriminatorio: il primo, “in senso stretto”, coincide con la possibilità che questa porti all’esclusione dall’accesso a determinati beni e servizi di alcune categorie protette di individui che condividono delle qualificate caratteristiche (quali la razza, l'origine etnica, il genere...); il secondo, "in senso ampio", rivela invece come essa debba considerarsi, in quanto tale, fisiologicamente tesa a distinguere e, dunque, discriminare, a prescindere dalla ricorrenza di una qualità giuridicamente tutelata. Se nella prima ipotesi il problema può dirsi di tipo “ontologico”, poiché colpisce il dataset su cui l’algoritmo compie le sue elaborazioni, comune invece ad entrambe le individuate tipologie di discriminazione è un problema di carattere “epistemologico”, afferente cioè non ai dati, bensì all’algoritmo che su di essi lavora, le cui elaborazioni non riescono ad essere ricostruite. Il presente contributo intende evidenziare come nel GDPR non riescano ad essere rinvenuti efficaci strumenti capaci di dare soluzione a tali problematiche. Un significativo passo in avanti in questo senso, tuttavia, può essere visto nelle disposizioni della recente proposta di Regolamento sull'IA.File | Dimensione | Formato | |
---|---|---|---|
Parenzo, Profilazione e discriminazione in Camardi (a cura di) La via Europea per l_IA.pdf
non disponibili
Tipologia:
Versione dell'editore
Licenza:
Accesso chiuso-personale
Dimensione
5.5 MB
Formato
Adobe PDF
|
5.5 MB | Adobe PDF | Visualizza/Apri |
I documenti in ARCA sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.