“
La emoción de Mary Louis al mudarse a un apartamento en Massachusetts en la primavera de 2021 se convirtió en consternación cuando Louis, una mujer negra, recibió un correo electrónico diciendo que un “servicio de terceros” le había negado la tenencia.
Ese servicio de terceros incluía un algoritmo diseñado para puntuar a los solicitantes de alquiler, que se convirtió en el tema de una demanda colectiva, con Louis a la cabeza, alegando que el algoritmo discriminaba en función de la raza y los ingresos.
Un juez federal aprobó un acuerdo en la demanda, una de las primeras de su tipo, el miércoles, con la empresa detrás del algoritmo aceptando pagar más de $2.2 millones y revertir ciertas partes de sus productos de selección que la demanda alegaba eran discriminatorios.
El acuerdo no incluye ninguna admisión de culpa por parte de la empresa SafeRent Solutions, que dijo en un comunicado que aunque “sigue creyendo que las puntuaciones de SRS cumplen con todas las leyes aplicables, la litigación es costosa y consume mucho tiempo”.
Aunque este tipo de demandas pueden ser relativamente nuevas, el uso de algoritmos o programas de inteligencia artificial para seleccionar o puntuar a los estadounidenses no lo es. Durante años, la IA ha estado ayudando furtivamente a tomar decisiones importantes para los residentes de EE. UU.
Cuando una persona envía una solicitud de empleo, solicita un préstamo hipotecario o busca cierta atención médica, existe la posibilidad de que un sistema de IA o un algoritmo los esté puntuando o evaluando como lo hizo con Louis. Sin embargo, estos sistemas de IA están en gran medida sin regular, a pesar de que se ha descubierto que algunos discriminan.
“Las empresas de gestión y los propietarios deben saber que ahora están avisados, que estos sistemas que están asumiendo que son fiables y buenos serán desafiados”, dijo Todd Kaplan, uno de los abogados de Louis.
La demanda alegaba que el algoritmo de SafeRent no tenía en cuenta los beneficios de los vales de vivienda, que dijeron era un detalle importante para la capacidad de pago mensual de un inquilino, y por lo tanto discriminaba a los solicitantes de bajos ingresos que calificaban para la ayuda.
La demanda también acusó al algoritmo de SafeRent de depender demasiado de la información crediticia. Argumentaron que no ofrece una imagen completa de la capacidad de un solicitante para pagar el alquiler a tiempo y perjudica injustamente a los solicitantes con vales de vivienda que son negros e hispanos en parte porque tienen puntajes de crédito medios más bajos, atribuibles a desigualdades históricas.
Christine Webber, una de las abogadas de la demandante, dijo que aunque un algoritmo o IA no esté programado para discriminar, los datos que utiliza o pondera podrían tener “el mismo efecto que si le dijeras que discrimine intencionalmente”.
Cuando la solicitud de Louis fue denegada, intentó apelar la decisión, enviando dos referencias de propietarios para mostrar que había pagado el alquiler temprano o a tiempo durante 16 años, aunque no tenía un historial crediticio sólido.
Louis, que tenía un vale de vivienda, estaba en apuros, ya que ya le había avisado a su arrendador anterior que se mudaba y tenía la responsabilidad de cuidar a su nieta.
La respuesta de la empresa de gestión, que utilizaba el servicio de selección de SafeRent, decía: “No aceptamos apelaciones y no podemos anular el resultado de la selección de inquilinos”.
Louis se sintió derrotada; el algoritmo no la conocía, dijo.
“Todo se basa en números. No obtienes la empatía individual de ellos”, dijo Louis. “No se puede vencer al sistema. El sistema siempre nos vencerá”.
Aunque los legisladores estatales han propuesto regulaciones agresivas para estos tipos de sistemas de IA, las propuestas han fracasado en gran medida en obtener suficiente apoyo. Eso significa que demandas como la de Louis están empezando a sentar las bases para la responsabilidad de la IA.
Los abogados defensores de SafeRent argumentaron en una solicitud de desestimación que la empresa no debería ser considerada responsable por discriminación porque SafeRent no tomaba la decisión final de aceptar o rechazar a un inquilino. El servicio seleccionaría a los solicitantes, los puntuaría y enviaría un informe, pero dejaría que los propietarios o empresas de gestión aceptaran o rechazaran a un inquilino.
Los abogados de Louis, junto con el Departamento de Justicia de EE. UU., que presentó una declaración de interés en el caso, argumentaron que el algoritmo de SafeRent podría ser considerado responsable porque aún juega un papel en el acceso a la vivienda. El juez rechazó la solicitud de desestimación de SafeRent en esos aspectos.
El acuerdo estipula que SafeRent no puede incluir su función de puntuación en sus informes de selección de inquilinos en ciertos casos, incluido si el solicitante está utilizando un vale de vivienda. También requiere que si SafeRent desarrolla otra puntuación de selección que planea utilizar, debe ser validada por un tercero aceptado por los demandantes.
El hijo de Louis encontró un apartamento asequible para ella en Facebook Marketplace en el que se mudó desde entonces, aunque era $200 más caro y en una zona menos deseable.
“No soy optimista de que vaya a tener un respiro, pero tengo que seguir adelante, eso es todo”, dijo Louis. “Tengo demasiadas personas que dependen de mí”.
¿A cuántos grados de separación estás de los líderes empresariales más poderosos del mundo? Explora quiénes forman parte de nuestra nueva lista de las 100 personas más poderosas del mundo de los negocios. Además, conoce las métricas que utilizamos para elaborarla.” – reescribe un total de 500-750 palabras. Luego traduce al español B1 y recupera solo el texto en español. Mantén las etiquetas HTML. No devuelvas la versión en inglés. No me devuelvas lo que te envié. No me devuelvas el texto enviado. Solo proporciona el texto en español.