In English | Instamos a la Comisión Federal de Comercio (FTC) el lunes a investigar cómo las empresas usan los datos de las personas en Estados Unidos, incluso cómo construyen procesos informáticos automatizados y algoritmos que pueden introducir prejuicios por edad, género y grupo demográfico en la manera en que usan los datos para catalogar y servir a los consumidores.
Las leyes federales prohíben a las compañías que discriminen —ya sea mediante la contratación o en la prestación de servicios a los consumidores— según ciertas características, como la edad, el género y la raza o el origen étnico. Pero las empresas dependen cada vez más de los programas informáticos y los algoritmos para administrar los datos de los consumidores. Y esos sistemas tienen el potencial de discriminar, incluso si no se crearon de esa manera de forma intencional.
“Por ejemplo, las empresas tecnológicas son menos propensas a contratar a afroamericanos, mujeres y adultos mayores”, escribimos en comentarios a la FTC. “Por lo tanto, la falta de diversidad entre quienes inicialmente desarrollan los algoritmos puede contribuir al sesgo algorítmico”.
Nuestra declaración llamó a estos problemas “insidiosos” porque no siempre son evidentes para la víctima o la compañía que utiliza el algoritmo, lo que abre la puerta a “discriminación sistemática pero no reconocida”. Instamos a la FTC a alentar a las empresas que desarrollan algoritmos a hacerlos transparentes y a establecer un sistema de controles para eliminar la discriminación. También instamos a la agencia a trabajar con el Congreso si no tiene la autoridad necesaria para actuar.
La FTC está considerando si introducir nuevas reglas o pautas sobre cómo las empresas recopilan, usan y almacenan datos de los consumidores. La ventana de comentarios públicos cerró el lunes 21 de noviembre.
Lee nuestra declaración ante la FTC (en inglés).