Por qué una regla propuesta de HUD podría empeorar la discriminación de vivienda impulsada por algoritmos

En 1968, el Congreso aprobó y el presidente Lyndon B. Johnson promulgó la ley Ley de Equidad de Vivienda (FHA), que prohíbe la discriminación relacionada con la vivienda por motivos de raza, color, religión, sexo, discapacidad, estado familiar y origen nacional. La reglamentación administrativa y los casos judiciales en las décadas transcurridas desde la promulgación de la FHA han ayudado a dar forma a un marco que, a pesar de todas sus deficiencias, ha sido, no obstante, una herramienta vital para combatir la discriminación en la vivienda. Pero un regla propuesta publicado en agosto de 2019 por el Departamento de Vivienda y Desarrollo Urbano (HUD) amenaza con socavar los intentos de combatir la discriminación en la vivienda impulsada por algoritmos.





La FHA desempeñará un papel clave a medida que los algoritmos para el financiamiento, la zonificación, la suscripción y otras actividades del sector de la vivienda obtengan una adopción generalizada en los próximos años. Si bien algunos algoritmos se diseñarán e implementarán de manera que ayuden a mitigar el sesgo y los patrones de vivienda discriminatorios resultantes, otros tendrán el efecto contrario. Cuando eso ocurre, la FHA debe facilitar, no impedir, la adjudicación de reclamos por discriminación.



La FHA, que es administrada por el Departamento de Vivienda y Desarrollo Urbano (HUD), aborda no solo la discriminación intencional sino también la discriminación no intencional. Por ejemplo, la discriminación intencional ocurre si el dueño de una propiedad se niega a vender o alquilar una vivienda sobre la base de una característica protegida como la raza. La discriminación involuntaria puede surgir si, por ejemplo, un prestamista tiene políticas que parecen neutrales con respecto a las características protegidas, pero sin darse cuenta ponen en desventaja a los solicitantes de préstamos de un grupo protegido. Como las regulaciones desarrolladas bajo FHA explique , [l] iabilidad puede establecerse en virtud de la Ley de Equidad de Vivienda sobre la base del efecto discriminatorio de una práctica. . . incluso si la práctica no fue motivada por una intención discriminatoria.



Los marcos para abordar la discriminación involuntaria son particularmente importantes en el contexto de los algoritmos. Si bien pocos desarrolladores de algoritmos para su uso en el sector de la vivienda se involucrarían deliberadamente en una discriminación ilegal, la combinación de sesgos en los datos y puntos ciegos incluso entre los programadores mejor intencionados significa que algunos algoritmos terminarán produciendo resultados discriminatorios. Esto podría reforzar o incluso ampliar los patrones existentes de segregación y discriminación.



El sistema judicial jugará un papel vital en la adjudicación de reclamos de que un algoritmo está sesgado de manera que viola la FHA. Desafortunadamente, la regla propuesta por HUD aumenta drásticamente la carga sobre los demandantes en formas que limitarán severamente a la FHA como herramienta para combatir la discriminación.



cuantas horas son 28 dias

La regla propuesta establece un conjunto estricto de requisitos, llamado carga prima facie, que debe cumplir un demandante que presenta un reclamo de efecto discriminatorio. Si bien esta carga no es específica de las acusaciones de discriminación que involucran algoritmos, será particularmente difícil de satisfacer cuando se trata de algoritmos. Uno de los requisitos es que el demandante declare hechos que aleguen de manera plausible que existe un vínculo causal sólido entre la política o práctica impugnada y un impacto dispar en los miembros de una clase protegida que demuestre que la práctica específica es la causa directa del efecto discriminatorio. Esto será muy difícil de hacer sin acceso a la información sobre el funcionamiento interno de un algoritmo que a menudo sería necesario para identificar una política discriminatoria. Pero esa información generalmente no estaría disponible para un demandante en las primeras etapas del litigio dadas las protecciones de secreto comercial que los acusados ​​casi siempre invocarán.



El demandante también deberá declarar hechos que aleguen de manera plausible que la política o práctica impugnada es arbitraria, artificial e innecesaria para lograr un interés válido u objetivo legítimo, como un negocio práctico, una ganancia, una consideración de política o un requisito de la ley. Esto puede suponer una carga insuperable para los demandantes que, al no tener acceso a los detalles del algoritmo, pueden ser incapaces de demostrar que una práctica o política es arbitraria, artificial e innecesaria. Para tomar un ejemplo, demostrar que una política es innecesaria normalmente requerirá un conocimiento suficiente del algoritmo asociado para demostrar que se puede lograr el mismo objetivo de política mediante un enfoque diferente y menos discriminatorio.

Además de hacer onerosas demandas a los demandantes, la regla propuesta proporciona a los acusados ​​una variedad de defensas afirmativas, cualquiera de las cuales es suficiente para que un tribunal desestime el caso. Con respecto a un algoritmo supuestamente sesgado, un acusado puede eludir la responsabilidad demostrando que el modelo impugnado es producido, mantenido o distribuido por un tercero reconocido que determina los estándares de la industria, las entradas y los métodos dentro del modelo no son determinados por el acusado. y el acusado está utilizando el modelo según lo previsto por el tercero. Esto es lo que equivale a una defensa que no es mi culpa, que permite a los acusados ​​desviar la culpa a entidades que se encuentran más arriba en la cadena de suministro del algoritmo.



Sin embargo, otra forma en que los acusados ​​pueden eludir la responsabilidad es proporcionando los factores materiales que componen los datos utilizados en el modelo impugnado y demostrando que estos factores no se basan en ninguna parte material en factores que son sustitutos o sustitutos cercanos de las clases protegidas. bajo la Ley de Vivienda Justa. Un acusado a menudo podrá presentar una teoría bajo la cual se realiza esta demostración, especialmente cuando varias entradas consideradas por el algoritmo se procesan de manera compleja.



Según la regla propuesta, la combinación de 1) los altos obstáculos que enfrentan los demandantes y 2) la variedad de defensas afirmativas disponibles para los acusados ​​hará que los reclamos de la FHA que involucran una supuesta discriminación algorítmica sean extremadamente difíciles de perseguir. Un mejor enfoque sería formular una regla que reconozca las desventajas de información que enfrentarán los demandantes. Por ejemplo, no se debería exigir a los demandantes en la etapa prima facie que identifiquen como sospechosa una política en particular incorporada en el algoritmo. En cambio, los tribunales deben considerar la evidencia estadística con respecto a si el algoritmo, en su totalidad, tiene un impacto desigual en un grupo protegido.

Además, en la etapa prima facie, no debería exigirse a los demandantes que demuestren que el algoritmo funciona de una manera innecesaria para el logro de un objetivo legítimo y no discriminatorio. Más bien, después de que el demandante satisfaga la carga prima facie, la carga debería recaer en los demandados para demostrar afirmativamente que las políticas dentro del algoritmo tienen un propósito legítimo y no discriminatorio. Un marco más equilibrado para litigar las reclamaciones de la FHA ayudaría a garantizar que los algoritmos se utilicen para mitigar, en lugar de perpetuar potencialmente, la discriminación en el sector de la vivienda.