Caso Emblemático Desafía la IA en la Vivienda
En un caso histórico que resalta los posibles daños de la toma de decisiones basada en IA en el sector inmobiliario, SafeRent, una empresa de selección de inquilinos impulsada por inteligencia artificial, ha acordado un acuerdo de $2.3 millones y a detener su sistema de puntuación.
¿Apurada? ¡Aquí están los datos rápidos!
- SafeRent rechazó la solicitud de alquiler de Mary Louis a pesar de una sólida referencia de su arrendador.
- Una demanda alegó que la puntuación de SafeRent discriminaba a los inquilinos negros e hispanos que usaban vales.
- Las agencias federales están supervisando el caso ya que la regulación de la IA en la vivienda sigue siendo limitada.
La demanda, presentada por las inquilinas Mary Louis y Monica Douglas, alegaba que el algoritmo utilizado por SafeRent discriminaba desproporcionadamente a los inquilinos negros e hispanos que dependían de los vales de vivienda, violando la Ley de Vivienda Justa, como se informó por primera vez en The Guardian.
Mary Louis, una guardia de seguridad en Massachusetts, se encontraba entre más de 400 inquilinos afectados por el controvertido sistema de SafeRent. A pesar de recibir una brillante referencia de su arrendador con el que llevaba 17 años y de utilizar un bono de vivienda de bajos ingresos que garantizaba el pago parcial del alquiler, su solicitud fue rechazada.
El rechazo se produjo después de que SafeRent le asignara una puntuación de 324, muy por debajo del requisito mínimo de la compañía de gestión de 443. No se proporcionó ninguna explicación para la puntuación ni se ofreció un proceso de apelación, según informó The Guardian.
La demanda, presentada en 2022, acusó a SafeRent de utilizar un sistema de puntuación opaco que tomaba en cuenta datos financieros irrelevantes, como la deuda de tarjetas de crédito, mientras ignoraba los pagos garantizados proporcionados por los vales de vivienda, según The Guardian.
Los estudios muestran que los inquilinos negros e hispanos tienen más probabilidades de tener puntuaciones de crédito más bajas y de depender de los vales que los solicitantes blancos, lo que agrava las desigualdades existentes, según lo informado por el Centro Nacional de Leyes del Consumidor.
Louis describió su frustración con la falta de contexto del algoritmo. “Sabía que mi crédito no era bueno. Pero la IA no conoce mi comportamiento: sabía que me había atrasado en el pago de mi tarjeta de crédito, pero no sabía que siempre pago mi alquiler”, dijo a The Guardian.
El acuerdo, aprobado el 20 de noviembre, es notable no solo por su componente financiero, sino también por exigir cambios operativos.
SafeRent ya no puede utilizar un sistema de puntuación ni recomendar decisiones de arrendamiento para los solicitantes que usan vales de vivienda sin la validación independiente de una organización de vivienda justa de terceros. Estos ajustes son raros en los acuerdos que involucran a empresas de tecnología, que generalmente evitan alterar los productos principales, señaló The Guardian.
“Eliminar la determinación de pulgar arriba, pulgar abajo realmente permite al inquilino decir: ‘Soy un excelente inquilino’”, dijo Todd Kaplan, un abogado que representa a los demandantes, según lo informado por The Guardian.
El caso pone de relieve las crecientes preocupaciones sobre el uso de la IA en aspectos fundamentales de la vida, incluyendo la vivienda, el empleo y la atención sanitaria.
Una encuesta de Consumer Reports 2024 reveló un malestar generalizado con la toma de decisiones algorítmicas, particularmente en áreas de alto riesgo. Los críticos argumentan que estos sistemas a menudo se basan en suposiciones estadísticas defectuosas, lo que lleva a resultados discriminatorios.
Kevin de Liban, un experto legal en daños por IA, señaló que las empresas tienen poco incentivo para crear sistemas equitativos para las personas de bajos ingresos. “Las fuerzas del mercado no funcionan cuando se trata de personas pobres”, dijo, enfatizando la necesidad de regulaciones más fuertes, según informó The Guardian.
“En la medida en que este es un caso emblemático, tiene el potencial de proporcionar una hoja de ruta sobre cómo abordar estos casos y fomentar otros desafíos”, dijo Kaplan, aunque los expertos advierten que el litigio por sí solo no puede mantener a las empresas responsables, según informó The Guardian.
Para inquilinos como Louis, sin embargo, el acuerdo representa una victoria arduamente lograda, allanando el camino para un trato más justo para aquellos que dependen de los programas de asistencia de vivienda.
Dejar un comentario
Cancelar