Si bien es posible que los perfiles de Facebook no indiquen explícitamente la raza o el origen étnico de los usuarios, mi investigación demuestra que los algoritmos publicitarios actuales de Facebook pueden discriminar por estos factores. Según una investigación realizada en 2020 y 2021, utilicé las herramientas publicitarias de Facebook para probar cómo los anunciantes pueden usar sus opciones de orientación, como grupos de afinidad multicultural, audiencias similares y audiencias publicitarias especiales, para garantizar que sus anuncios lleguen a blancos, afroamericanos, asiáticos o hispanos. usuarios. Lo que encontré es que la discriminación por raza y etnia en las plataformas de Facebook es una amenaza significativa para el interés público por dos razones. Primero, es una violación de las leyes de derechos civiles existentes que protegen a los consumidores marginados contra los daños publicitarios y la discriminación por raza y etnia, especialmente en las áreas de vivienda, empleo y crédito. En segundo lugar, estas mismas herramientas publicitarias de Facebook se pueden utilizar para difundir información errónea dirigida y mensajes políticos controvertidos a grupos demográficos vulnerables. Para resolver estas preocupaciones, los reguladores, los grupos de defensa y la industria deben abordar directamente estos problemas con Facebook y otras plataformas publicitarias para garantizar que la publicidad en línea sea transparente y justa para todos los estadounidenses.
Durante los últimos 5 años, Facebook se ha enfrentado a repetidas críticas, demandas y controversias sobre el potencial de discriminación en su plataforma publicitaria . Los periodistas han demostrado lo fácil que es excluir a los usuarios que Facebook ha clasificado algorítmicamente en ciertos grupos de afinidad racial o étnica desde ser el objetivo de anuncios de vivienda o empleo . Los investigadores también han demostrado prejuicios raciales y étnicos en los algoritmos de audiencia similar y audiencia de publicidad especial de Facebook, que identifican nuevos usuarios de Facebook similares a los clientes existentes de un anunciante. En respuesta a estas acusaciones, Facebook ha sido demandado por el Alianza Nacional de Vivienda Justa , el ACLU , el Trabajadores de las comunicaciones de América , el Departamento de Vivienda y Desarrollo Urbano de EE. UU. (HUD) , y otros sobre cuestiones de discriminación en su plataforma publicitaria y violaciones de las leyes de derechos civiles como la Ley de Equidad de Vivienda y el Ley de derechos civiles de 1964 , que expresa intolerancia a cualquier tipo de discriminación racial.
reinado de isabel la primera
También hay controversias en curso sobre cómo los actores políticos pueden utilizar la plataforma de Facebook, tanto extranjero y Doméstico , para difundir desinformación y objetivo minorías raciales y étnicas en los ciclos electorales de 2016 y 2020. En julio de 2020, un boicot de alto perfil de la plataforma de publicidad de Facebook para Detener el odio con fines de lucro fue organizada por grupos de defensa y derechos civiles, incluidos NAACP, la Liga Anti-Difamación, Color of Change y otras organizaciones sobre la desinformación y las violaciones de los derechos civiles. Estos grupos pidieron a las principales corporaciones que dejen de anunciarse en Facebook durante todo el mes de julio. Más de 1000 grandes empresas incluidos Microsoft, Starbucks, Target y otros participaron en el boicot.
El 8 de julio de 2020, Facebook lanzó su propio auditoría de derechos civiles realizado por Laura Murphy, exdirectora de la Oficina Legislativa de la ACLU, y abogados del bufete de abogados Relman Colfax. La auditoría criticó a Facebook por haber puesto más énfasis en la libertad de expresión que en el valor de la no discriminación. Buscando dar pasos concretos para reducir la discriminación, el 11 de agosto de 2020, Facebook anunció que lo haría retire sus controvertidos grupos de afinidad multicultural que permitían a los anunciantes dirigirse a usuarios que Facebook ha clasificado como afroamericanos (EE. UU.), asiáticoamericanos (EE. UU.) o hispanos (EE. UU. - Todos).
No.
No todos los casos de discriminación publicitaria pueden ser ilegales. Teniendo esto en cuenta, ideé un estudio de investigación y probé el grado en que las diferentes herramientas en la plataforma de anuncios de Facebook pueden, intencionalmente o no, llevar a cabo la discriminación racial y étnica, siguiendo la Criterios de la Ley de Equidad de Vivienda lo que hace que sea ilegal publicar un anuncio que indique cualquier preferencia, limitación o discriminación por motivos de raza o etnia.
Hasta la fecha, Facebook ofrece a los anunciantes cuatro formas principales de orientar anuncios:
Realicé mi estudio en enero de 2020 y nuevamente en enero de 2021, antes y después del boicot Stop Hate for Profit en julio de 2020. Como Facebook ya no ofrece grupos de afinidad multicultural: afroamericanos (EE. UU.), Asiáticoamericanos (EE. UU.) E hispanos ( EE. UU. - Todos) - como opciones de orientación para los anunciantes en 2021, en su lugar examiné los grupos de interés cultural que suenan similares que Facebook todavía ofrece como opciones de orientación, como la cultura afroamericana, la cultura asiático-estadounidense y la cultura hispanoamericana. En ambos años, probé cuántos usuarios de minorías podrían ser blanco de estas opciones de publicidad relacionadas con la raza y la etnia de Facebook.
Figura 1: Ejemplo de la diferencia en las opciones de orientación de anuncios de Facebook, 2020 a 2021
Año disponible | Opción de orientación | Jerarquía de categorías de segmentación | Descripción | Tamaño |
2020 | Afroamericano (EE. UU.) | Comportamientos> Afinidad multicultural | Personas que viven en los Estados Unidos cuya actividad en Facebook se alinea con la afinidad multicultural afroamericana | 87,203,689 |
2021 | Cultura afroamericana | Intereses> Intereses adicionales | Personas que han expresado interés o les han gustado páginas relacionadas con la cultura afroamericana. | 79,388,010 |
Nota: Facebook ofreció la opción de segmentación por afroamericanos (EE. UU.) Hasta agosto de 2020, pero ha seguido ofreciendo la opción de segmentación por cultura afroamericana en 2021. |
También probé si las otras herramientas publicitarias de Facebook, como las audiencias similares y las audiencias publicitarias especiales, pueden discriminar por raza y etnia. Para estas pruebas, utilicé el conjunto de datos de registro de votantes más reciente de Carolina del Norte, que tiene información sobre raza y etnia proporcionada por los votantes. En los datos de votantes de Carolina del Norte, había aproximadamente 4.0 millones de votantes activos blancos, 1.2 millones de afroamericanos, 90,000 asiáticos y 180,000 hispanos. Creé diferentes submuestras de votantes homogéneas racial y étnicamente con las Audiencias personalizadas de Facebook y luego le pedí a Facebook que buscara usuarios similares adicionales para orientar anuncios utilizando sus herramientas de Audiencia publicitaria especial y similar.
Si bien Facebook no permite consultas demográficas directas para una audiencia de anuncios similares o especiales, pude aprovechar las estimaciones de alcance diario de la herramienta de planificación de anuncios de Facebook para observar indirectamente el desglose racial y étnico de una audiencia de anuncios similares o especiales en Carolina del Norte. votantes. Por ejemplo, una audiencia similar basada en 10,000 votantes afroamericanos en 2021 tuvo una superposición en el alcance diario estimado de 139,000 usuarios con una muestra de 1 millón de votantes afroamericanos, pero solo una superposición de 17,000 usuarios con una muestra de 1 millón de votantes blancos. Esto indica que los afroamericanos probablemente estaban sobrerrepresentados en la audiencia Lookalike, ya que al cruzar la audiencia Lookalike con una muestra combinada de 2 millones de votantes que era 50% afroamericanos y 50% blancos en la línea de base, encontré que el 89% de la audiencia Lookalike la superposición fue con los votantes afroamericanos y sólo el 11% con los votantes blancos. Repliqué un proceso similar para probar la demografía de las audiencias de anuncios especiales y similares según los votantes blancos, asiáticos e hispanos. Se pueden obtener más detalles sobre la metodología. encontrado aquí .
Figura 2: Superposición de una audiencia similar a Facebook basada en afroamericanos con muestras de votantes de Carolina del Norte basadas en la raza
Una audiencia similar de 2,3 millones de usuarios de Facebook en los EE. UU. Según una lista de clientes de afroamericanos tenía 139.000 usuarios en común con la muestra de 1 millón de votantes afroamericanos y solo 17.000 usuarios en común con la muestra de 1 millón de votantes blancos.
¿Cuál fue el papel de darwin en el beagle?
Una de las principales preocupaciones sobre la discriminación algorítmica es si las computadoras están reforzando los patrones existentes de discriminación que los humanos han hecho en los Estados Unidos. Los investigadores de las ciencias sociales han encontrado en empleo , alojamiento , préstamo , y otros aspectos de la vida, los representantes raciales como los nombre y vecindario puede aumentar el grado de discriminación de los tomadores de decisiones humanos. Por lo tanto, utilicé un algoritmo informático capacitado con los nombres de 13 millones de votantes en Florida para identificar nombres de uso común para cada grupo demográfico y PIOJO. Datos del censo para identificar códigos postales de enclaves étnicos. Luego, probé si el uso de muestras de votantes basadas en representantes raciales de uso común, como nombres y códigos postales, puede afectar el grado de sesgo en las audiencias publicitarias especiales y similares resultantes. Por ejemplo, ¿una audiencia similar basada en votantes afroamericanos con nombres afroamericanos comunes y que viven en códigos postales mayoritariamente afroamericanos sería aún más probable que representara en exceso a los afroamericanos por encima del 50% de referencia?
Mi estudio de investigación de la plataforma publicitaria de Facebook en 2020 y 2021 tuvo tres hallazgos importantes. La plataforma publicitaria de Facebook todavía ofrece múltiples formas de discriminación por raza y etnia a pesar del boicot histórico que enfrentó en 2020, y los malos actores pueden explotar estas vulnerabilidades en la nueva economía digital.
En 2021, ciertos grupos de intereses culturales raciales y étnicos que Facebook aún ofrecía a los anunciantes eran incluso más precisos al dirigirse a los usuarios minoritarios que los viejos grupos de afinidad multicultural que Facebook se retiró en agosto de 2020. Por ejemplo, en 2020, 150.000 votantes afroamericanos en Carolina del Norte podrían hacerlo. ser alcanzados por la opción de orientación afroamericana (EE. UU.) de Facebook cada día, que es un poco más de los 142,000 a los que se puede llegar con la opción de orientación de la cultura afroamericana de Facebook en 2021. Sin embargo, hubo una disminución dramática en el número de votantes blancos que se puede alcanzar con las mismas opciones de segmentación, de 428.000 en 2020 a solo 109.000 en 2021. Esto significa que en 2020, la opción de segmentación afroamericana (EE. UU.) de Facebook probablemente llegaría a casi tres veces más usuarios blancos que usuarios afroamericanos, mientras que en 2021, la opción de orientación de la cultura afroamericana de Facebook se volvió significativamente más precisa para llegar a casi el mismo número de usuarios afroamericanos mientras dirigido a un 75% menos de usuarios blancos.
Figura 3: Número de votantes de Carolina del Norte por raza alcanzados por las opciones de orientación relacionadas con afroamericanos de Facebook, 2020 y 2021
La cantidad de votantes blancos en Carolina del Norte a los que se puede llegar con las dos opciones de orientación relacionadas con los afroamericanos de Facebook disminuyó en un 75% en 2021 frente a 2020, mientras que la cantidad de votantes afroamericanos a los que se puede llegar con las mismas dos opciones de orientación se mantuvo casi sin cambios. durante el mismo período de tiempo.
Las audiencias de anuncios especiales y similares de Facebook pueden estar sesgadas por la raza y el origen étnico tanto en 2020 como en 2021, según los datos demográficos de una lista de clientes que un anunciante proporciona a Facebook. Por ejemplo, en 2020, una audiencia similar basada en votantes afroamericanos en Carolina del Norte tenía una muestra del 83% de afroamericanos, que aumentó al 89% en 2021. Por lo tanto, estas audiencias similares sobrerrepresentaron significativamente a los afroamericanos por encima de los 50 esperados. % de participación de la muestra de referencia (Figura 4). De manera similar, las audiencias similares basadas en votantes blancos tuvieron una participación de muestra del 73% de blancos en 2020 y del 71% en 2021, lo que representa una sobrerrepresentación significativa de blancos por encima del 50% de referencia. Otras pruebas encontraron que las audiencias similares basadas en votantes asiáticos o hispanos también representarían significativamente a los asiáticos o hispanos por encima de la proporción de referencia esperada.
También encontré un alto grado de prejuicio racial y étnico al probar la herramienta Audiencia de anuncios especiales que Facebook diseñó para evitar explícitamente el uso de atributos demográficos sensibles al encontrar usuarios similares a la lista de clientes de un anunciante. Por ejemplo, en 2020, una audiencia de anuncios especiales basada en votantes afroamericanos tenía una participación de muestra del 83% de afroamericanos, que disminuyó ligeramente al 76% en 2021 (Figura 4). Las audiencias publicitarias especiales basadas en votantes blancos tuvieron una proporción de muestra similarmente alta de 83% blancos en 2020 y 81% en 2021. Finalmente, también encontré que las audiencias publicitarias especiales basadas en votantes hispanos representaron significativamente a los hispanos tanto en 2020 como en 2021. Esto El hallazgo es especialmente problemático ya que significa que los anunciantes de vivienda, crédito y empleo pueden usar la herramienta de audiencia de anuncios especiales que Facebook ha creado para estos sectores protegidos legalmente para perseguir la discriminación por raza y etnia. Esto también socava los objetivos del 2019. acuerdo legal entre Facebook y la ACLU, que requirió que Facebook creara una solución alternativa de orientación de anuncios para estos sectores donde un anunciante no puede orientar anuncios en función de la edad, el género, la raza o las categorías de los usuarios de Facebook que están asociadas con la membresía en grupos protegidos, o basados en Código postal o un área geográfica.
Tanto en 2020 como en 2021, el grado de prejuicio racial y étnico en las Audiencias de anuncios especiales y similares de Facebook es mayor cuando el algoritmo de orientación de anuncios está tratando de encontrar usuarios similares a personas con rasgos estereotipados raciales, como su nombre o vecindario. Por ejemplo, una audiencia similar basada en votantes afroamericanos con nombres afroamericanos comúnmente dados y que viven en códigos postales mayoritariamente afroamericanos tuvo una proporción de muestra muy alta del 93% de afroamericanos en 2020, que aumentó a 94% en 2021 (Figura 4). En el caso más extremo, en 2021, descubrí que una audiencia similar basada en votantes asiáticos con nombres asiáticos comúnmente dados y que viven en códigos postales asiáticos populares tenía una muestra de 100% asiáticos.
También descubrí que el uso de nombres y códigos postales con estereotipos raciales puede aumentar las oportunidades para una discriminación más precisa en el uso de audiencias publicitarias especiales. Por ejemplo, en 2020, una audiencia de anuncios especiales basada en votantes afroamericanos con nombres afroamericanos comúnmente dados y que viven en códigos postales mayoritariamente afroamericanos tuvo una participación de muestra del 97% de afroamericanos, que fue incluso más alta que la muestra del 83%. porcentaje observado al probar la audiencia de anuncios especiales en función de una muestra genérica de votantes afroamericanos (Figura 4).
Figura 4: Porcentaje de muestra de votantes afroamericanos en audiencias similares (arriba) y audiencias de anuncios especiales (abajo) según listas de votantes de Carolina del Norte con diferentes rasgos
El gráfico superior muestra cómo las audiencias similares basadas en afroamericanos sobrerrepresentan significativamente a los votantes afroamericanos. Tienen una participación de muestra del 83% y 89% en 2020 y 2021 respectivamente, que aumenta a más del 93% en ambos años cuando la audiencia de Lookalike se basa en votantes afroamericanos con nombres comunes y en códigos postales de mayoría afroamericana. El gráfico inferior muestra resultados similares en pruebas con audiencias de anuncios especiales, que es una herramienta creada explícitamente por Facebook para abordar la discriminación.
¿Qué logró Felipe II?
Según la investigación de la discriminación algorítmica, es probable que una combinación de múltiples causas contribuya a los resultados sesgados observados en este estudio. Uno de los factores principales es que los algoritmos informáticos tienden a replicar patrones y comportamientos existentes que ya existen en la sociedad. Los algoritmos Lookalike y Special Ad Audience de Facebook están utilizando la enorme cantidad de datos que Facebook tiene sobre sus usuarios para identificar qué usuarios son más similares entre sí y, por lo tanto, tienen más probabilidades de responder bien al mismo tipo de anuncios. Cuando se trata de grupos demográficos, los investigadores han descubierto que grupos raciales y étnicos tienden a comportarse de manera diferente entre sí en línea y que los estadounidenses tienden a tener redes de amigos muy homogéneas desde el punto de vista racial . Por lo tanto, los usuarios de un grupo racial o étnico pueden parecer más parecidos entre sí a los ojos de los algoritmos de Facebook que los usuarios de diferentes grupos entre sí. Sin embargo, esto no significa que Facebook deba facilitar la orientación discriminatoria de las minorías raciales y étnicas con anuncios, ni que los sustitutos raciales de uso común, como el nombre o el código postal, también deban influir en el mundo digital creado por los algoritmos publicitarios de Facebook. Después de todo, las muy reñidas leyes de derechos civiles en los EE. UU. Han elevado intencionalmente el interés de la sociedad en reducir la discriminación por encima del interés privado de los propietarios, empleadores y prestamistas para maximizar las ganancias a través de una posible discriminación. Sería dar un paso atrás para hacer nuevas concesiones a la discriminación en Facebook simplemente porque quien toma las decisiones es ahora una computadora en lugar de un ser humano.
Dados estos hallazgos, los formuladores de políticas tienen un papel en la mitigación de los sesgos que están activando empresas como Facebook y otros anunciantes que dependen de las herramientas en línea.
Claramente, en el corazón de los problemas, está la falta de transparencia de Facebook para el público y sus anunciantes sobre cómo su plataforma publicitaria puede discriminar potencialmente por raza y etnia. Esto puede ser explotado por anunciantes discriminatorios mientras socava los objetivos de los no discriminatorios.
Por ejemplo, es posible que los anunciantes discriminatorios ya sepan que la opción de segmentación por cultura afroamericana contiene menos usuarios blancos que la opción afroamericana (EE. UU.) Que Facebook eliminó en 2020. Los anunciantes discriminatorios también pueden estar usando técnicas de variable proxy similares a las probadas en este estudio. basado en nombres y códigos postales estereotipados racialmente para crear audiencias de anuncios especiales y similares sesgadas. Por otro lado, los anunciantes no discriminatorios pueden elegir involuntariamente configuraciones de orientación similares a las discriminatorias, pero desconocen cómo la plataforma publicitaria de Facebook está llevando a cabo una orientación racial y étnica en su nombre.
Facebook puede revertir esta falta de transparencia mediante una mayor responsabilidad corporativa, declaraciones de transparencia, divulgación a los anunciantes y una sólida ingeniería contra la discriminación. Sin embargo, es de vital importancia que los reguladores, los grupos de defensa y los grupos de la industria puedan responder para mejorar dichos resultados.
Las plataformas publicitarias como Facebook deberían proporcionar una mayor transparencia sobre la forma en que los anunciantes utilizan sus herramientas para orientar los anuncios. Los reguladores pueden exigir Biblioteca de anuncios de Facebook para que los anuncios políticos, de vivienda, de empleo y relacionados con el crédito muestren los metadatos relevantes para establecer un vínculo causal sólido para las demandas por discriminación racial o étnica. Esto es especialmente importante ya que la Implementación del Estándar de Impacto Disparejo de la Ley de Vivienda Justa por parte del Departamento de Vivienda y Desarrollo Urbano (HUD) publicada el 24 de septiembre de 2020 ahora requiere que un demandante presente evidencia de un vínculo causal sólido para poder presentar un demanda por discriminación de impacto dispar en primer lugar. Facebook ha comenzado a compartir metadatos relevantes para anuncios políticos con investigadores aprobados en 2021, pero actualmente no publica ningún metadato de orientación de anuncios para anuncios relacionados con la vivienda, el empleo y el crédito.
Las futuras auditorías de derechos civiles de la plataforma de Facebook deberían probar sus tecnologías para detectar sesgos algorítmicos basados en raza, etnia, género, orientación sexual y otras clases protegidas. En julio de 2020, Facebook lanzó su primer auditoría de derechos civiles se centró principalmente en el discurso político, la desinformación y los problemas legales durante el boicot Stop Hate for Profit. Los grupos de derechos civiles que organizaron el boicot pidieron auditorías periódicas de la plataforma de Facebook. Estas futuras auditorías de derechos civiles pueden basarse en los esfuerzos técnicos realizados por mí y otros investigadores . Idealmente, si se proporciona un acceso aún más profundo a los datos y sistemas de Facebook, estas auditorías pueden ir más allá al examinar por qué existen estos prejuicios raciales y étnicos y cómo abordarlos. Desde 2014, muchas grandes empresas de tecnología de EE. UU. Como Facebook, Apple, Google, Microsoft, Amazon, Twitter y otras han participado en la norma relacionada de liberación. informes anuales de diversidad de la fuerza laboral . Los reguladores federales como la Comisión Federal de Comercio (FTC) también pueden auditar la plataforma de anuncios de Facebook para detectar discriminación y usar sus poderes de ejecución para abordar las infracciones de la Sección 5 de la Ley de la FTC, la Ley de informes crediticios justos y la Ley de igualdad de oportunidades crediticias.
La tecnología y la política tecnológica deben ir más allá justicia a través de la inconsciencia —La idea de que la discriminación se evita eliminando el uso de variables de clase protegidas o proxies cercanos — para abordar realmente la discriminación algorítmica. Por ejemplo, Facebook creó la herramienta Special Ad Audiences como alternativa a Lookalike Audiences para no utilizar explícitamente atributos sensibles como edad, sexo o código postal al considerar qué usuarios son lo suficientemente similares a la audiencia de origen para ser incluidos. Sin embargo, mi investigación demuestra que las audiencias publicitarias especiales basadas en afroamericanos o blancos pueden estar sesgadas hacia la raza que es más dominante en la lista de clientes utilizada para crear la audiencia, al igual que las audiencias similares correspondientes.
Investigación estadística ha etiquetado este fenómeno como el efecto Rashomon o multiplicidad. Dado un gran conjunto de datos con muchas variables, existe una gran cantidad de modelos potenciales que pueden funcionar de aproximadamente igual a igual como un modelo prohibido que usa variables de clase protegidas . Por lo tanto, aunque el algoritmo de audiencias publicitarias especiales para encontrar usuarios similares a una lista de clientes no usa atributos demográficos de la misma manera que el algoritmo de audiencias similares, los dos algoritmos pueden terminar tomando decisiones funcionalmente comparables sobre qué usuarios se consideran similares. suficiente para ser incluido.
Existen riesgos de política pública al continuar implementando un estándar de equidad por desconocimiento, que ha demostrado ser estadísticamente ineficaz. Por ejemplo, el lenguaje propuesto inicialmente el 19 de agosto de 2019 por el Departamento de Vivienda y Desarrollo Urbano (HUD) para su estándar actualizado de Impacto Disparate , probablemente habría protegido injustamente a empresas como Facebook de ser demandadas por discriminación simplemente porque su algoritmo de audiencia publicitaria especial sigue la equidad a través del desconocimiento y no se basa en factores que son sustitutos o representantes cercanos de las clases protegidas bajo la Ley de Vivienda Justa.
En cambio, el enfoque más eficaz es utilizar la equidad a través de la conciencia para diseñar herramientas contra la discriminación, que luego podrían considerar con precisión las experiencias de diferentes grupos raciales y étnicos en la plataforma. Por lo tanto, las empresas de tecnología como Facebook necesitarían conocer la información demográfica de sus usuarios. Una forma es pedir directamente a sus usuarios que proporcionen su raza y etnia de forma voluntaria, como con Autoidentificación de LinkedIn . Otra forma es utilizar evaluadores algorítmicos o humanos para generar esa información para sus herramientas de prueba contra la discriminación. Este fue el enfoque adoptado por Airbnb Proyecto Faro , lanzado en 2020 para estudiar la brecha de experiencia racial para huéspedes y anfitriones en Airbnb. Project Lighthouse utilizó un contratista externo para evaluar la raza percibida de un individuo en función de su nombre y foto de perfil. En diciembre de 2009, Investigadores de Facebook utilizó una metodología relacionada comparando los apellidos de los usuarios de Facebook con el conjunto de datos de apellidos frecuentes del censo de EE. UU. para demostrar cómo Facebook se estaba convirtiendo en cada vez más diverso con el tiempo al tener más usuarios afroamericanos e hispanos.
La "hora media de Greenwich" también se conoce como ________.
Los daños de la publicidad discriminatoria en Facebook dirigida a grupos demográficos específicos son reales. Los anuncios de Facebook tienen oportunidades de empleo reducidas , Sembró división política y desinformación. , e incluso socavado los esfuerzos de salud pública para responder a la pandemia de COVID-19. Mi investigación muestra cómo Facebook continúa ofreciendo a los anunciantes una miríada de herramientas para facilitar la segmentación de anuncios discriminatorios por raza y etnia, a pesar del boicot de alto perfil de Stop Hate for Profit de julio de 2020. Para abordar este problema, los reguladores y los grupos de defensa pueden hacer cumplir y exigir una mayor publicidad focalización en la transparencia, más auditorías de sesgos algorítmicos y un enfoque de equidad a través de la conciencia por parte de Facebook y sus anunciantes.
En julio de 2020, director de operaciones de Facebook Sheryl Sandberg declaró que su auditoría de derechos civiles fue el comienzo del viaje, no el final. Frente a un largo camino por recorrer, es hora de que Facebook continúe por el camino para crear sistemas de publicidad más equitativos y menos dañinos.
Informe producido por Centro de Innovación Tecnológica