Di ‘a HUD: gli algoritmi non dovrebbero essere una scusa per discriminare

Di 'a HUD: gli algoritmi non dovrebbero essere una scusa per discriminare

Il Dipartimento statunitense per l'edilizia abitativa e lo sviluppo urbano (HUD) ha recentemente pubblicato una proposta di legge che avrà gravi conseguenze per l'applicazione di leggi edilizie eque. Secondo il Fair Housing Act , gli individui possono presentare reclami sulla base di una caratteristica protetta (come razza, sesso o stato di disabilità) quando esiste una politica o una pratica neutrali dal punto di vista del viso che si traduce in un effetto discriminatorio ingiustificato o impatto disparato . La norma proposta rende molto più difficile presentare una richiesta d'impatto diversa ai sensi del Fair Housing Act. Inoltre, la regola di HUD crea tre difese affermative per i fornitori di alloggi, le banche e le compagnie assicurative che utilizzano modelli algoritmici per prendere decisioni in materia di alloggi. Come abbiamo spiegato in precedenza , queste difese algoritmiche dimostrano che l'HUD non capisce come funziona effettivamente l'apprendimento automatico.

Questa norma proposta potrebbe avere un impatto significativo sulle decisioni in materia di alloggi e rendere la discriminazione più diffusa. Ti invitiamo a inviare commenti per far valere la regola proposta da HUD. Ecco come farlo in tre semplici passaggi:

  1. Vai al sito dei commenti del governo e fai clic su “Commenta ora”.
  2. Inizia con la bozza del linguaggio di seguito riguardante le preoccupazioni di EFF con la proposta di regola HUD. Ti invitiamo a personalizzare i commenti per riflettere le tue preoccupazioni specifiche. L'adattamento della lingua aumenta le possibilità che HUD consideri il tuo commento come un invio “unico”, il che è importante perché HUD è tenuto a leggere e rispondere a commenti unici.
  3. Premi “Invia commento” e sentiti bene nel fare la tua parte per proteggere i diritti civili delle comunità vulnerabili e per educare il governo su come la tecnologia funziona davvero!

I commenti sono attesi per venerdì 18 ottobre 2019 alle 23:59 ET.

Per chi è coinvolto:

Scrivo per oppormi alla proposta di HUD, che cambierebbe gli standard di impatto disparati per l'applicazione da parte dell'Agenzia del Fair Housing Act. La norma proposta istituirebbe un quadro di trasferimento degli oneri che renderebbe pressoché impossibile per un querelante sostenere una domanda di ingiustificato effetto discriminatorio. Inoltre, la norma proposta offre un porto sicuro agli imputati che si basano su modelli algoritmici per prendere decisioni in materia di alloggi. L'approccio di HUD non è scientifico e non riesce a capire come funziona effettivamente l'apprendimento automatico.

La regola proposta da HUD offre tre difese algoritmiche complete se: (1) gli input utilizzati nel modello algoritmico non sono essi stessi “sostituti o proxy vicini” per caratteristiche protette e il modello è predittivo di rischio o altro obiettivo valido; (2) una terza parte crea o gestisce il modello algoritmico; oppure (3) una terza parte neutrale esamina il modello e determina che gli input del modello non sono proxy vicini per caratteristiche protette e il modello è predittivo di rischio o altro obiettivo valido.

Nella prima e terza difesa, l'HUD indica che fintanto che gli input di un modello non sono discriminatori, il modello complessivo non può essere discriminatorio. Tuttavia, il punto centrale di sofisticati algoritmi di apprendimento automatico è che possono imparare come combinazioni di input diversi potrebbero prevedere qualcosa che qualsiasi singola variabile potrebbe non prevedere da sola. Queste combinazioni di variabili diverse potrebbero essere proxy vicini per le classi protette, anche se le variabili di input originali non lo sono. Oltre alle combinazioni di input, altri fattori, come il modo in cui un'IA è stata addestrata, possono anche portare a un modello che ha un effetto discriminatorio, di cui l'HUD non tiene conto nella sua regola proposta.

La seconda difesa proteggerà i fornitori di alloggi, i finanziatori e le compagnie assicurative che si basano sul modello algoritmico di una terza parte, come sarà il caso della maggior parte degli imputati. Questa difesa elimina qualsiasi incentivo per gli imputati a non utilizzare modelli che generano effetti discriminatori o a esercitare pressioni sui produttori di modelli per garantire che i loro modelli algoritmici evitino risultati discriminatori. Inoltre, non è chiaro se un querelante possa effettivamente ottenere sollievo inseguendo un modellista, un terzo distante e forse sconosciuto, piuttosto che un imputato diretto come un fornitore di alloggi. Di conseguenza, questa difesa potrebbe consentire agli effetti discriminatori di continuare senza ricorso. Anche se un querelante può intentare causa a un creatore di terze parti, la legge sui segreti commerciali potrebbe impedire al pubblico di scoprire l'impatto discriminatorio del modello algoritmico.

L'HUD afferma che le sue difese affermative proposte non intendono creare una “speciale esenzione per le parti che utilizzano modelli algoritmici” e quindi isolarle da cause d'impatto disparate. Ma questo è esattamente ciò che farà la regola proposta. Oggi, l'uso da parte del convenuto di un modello algoritmico in un caso di impatto diverso viene preso in considerazione caso per caso, con un'attenzione particolare rivolta ai fatti specifici in questione. Questo è esattamente come dovrebbe funzionare.

Esorto rispettosamente HUD a revocare la regola proposta e continuare a utilizzare l'attuale standard di impatto disparato.

(Articolo originale: EFF)

Commenta su Facebook

Babel Fish

Con l'ausilio di un Pesce di Babele, Babel Fish traduce in italiano articoli da noti blog intergalattici e - giammai soddisfatto - traduce dall'italiano al Vogon e poi di nuovo dal Vogon all'italiano articoli da noti blog italiani. I risultati delle lavoro di Babel Fish sono pubblicati su questo blog.