5 preguntas que los legisladores deberían hacer sobre el reconocimiento facial, la aplicación de la ley y el sesgo algorítmico

En la película futurista de 2002 Minority Report, las fuerzas del orden utilizan una tecnología predictiva que incluye inteligencia artificial (IA) para evaluaciones de riesgo para arrestar a posibles asesinos antes de que cometan delitos. Sin embargo, un oficial de policía es ahora uno de los futuros asesinos acusados ​​y está huyendo del Departamento de Justicia para demostrar que la tecnología tiene fallas. Si cree que esta película de ficción podría convertirse en realidad, entonces debería seguir leyendo, porque el arte se ha convertido en realidad.





Tanto la promesa como el peligro de las tecnologías emergentes están sobre nosotros. Para las fuerzas del orden, la IA ofrece avances sobre los métodos utilizados anteriormente para disuadir y resolver el crimen, mejorar la eficiencia, reducir las disparidades raciales y, potencialmente, ahorrar recursos relacionados con el capital humano y financiero. Actualmente, algunas de las tecnologías de aplicación de la ley que utilizan algoritmos de aprendizaje automático incluyen alumbrado público inteligente, vigilancia de puntos calientes, reconocimiento facial, vigilancia con drones, geovallas, evaluaciones de riesgos y datos de redes sociales para detener la violencia de las pandillas . La policía del estado de Massachusetts ahora se está desplegando perros robóticos en el campo, lo que genera comparaciones con la película distópica de 1987 RoboCop. Las funciones de la aplicación de la ley y la tecnología también están cambiando rápidamente. En 2017, realicé un estudio que mostró un apoyo sustancial de civiles y policías para cámaras para llevar en el cuerpo siendo una supuesta panacea para mejorar las relaciones policía-comunidad. Ahora, la IA supuestamente puede determinar quién cometerá un delito, predecir dónde ocurrirá el delito e identificar las amenazas potenciales, todo lo cual amplifica su viabilidad percibida relacionada con las cámaras corporales.



Las empresas de tecnología ya están creando productos comerciales de inteligencia artificial con poca supervisión o regulación. Además, a menudo solicitan a los organismos encargados de hacer cumplir la ley que participen en estudios piloto y ensayos de prueba a cambio del uso de la nueva tecnología. Dado que muchas agencias de aplicación de la ley tienen problemas económicos, la oportunidad de probar un juguete nuevo y brillante es tentadora. El Reino Unido desplegó un software de reconocimiento de pasaportes a pesar de saber que no funcionó bien en personas con tonos de piel más oscuros y claros. Sin embargo, esto no solo está sucediendo en Europa. Como demuestra este documento, Estados Unidos está plagado de estos problemas. Al tratar de competir con China, India y otros países en tecnología de justicia penal, Estados Unidos está comprometiendo el desempeño máximo y potencialmente poniendo a todos los estadounidenses en riesgo.



Al tratar de competir con ... otros países en tecnología de justicia penal, EE. UU. Está comprometiendo el rendimiento máximo y potencialmente poniendo en riesgo a todos los estadounidenses.



Pero los formuladores de políticas pueden intervenir de manera constructiva. Hay salvaguardias significativas que deben implementarse para proteger a las personas. También se podría argumentar que el potencial de AI para determinar quién será arrestado por las fuerzas del orden, encarcelado y liberado de la prisión está en la parte superior de la lista con respecto a la necesidad de ser cauteloso. ¿Qué deben saber los responsables de la formulación de políticas sobre el despliegue de la IA en la aplicación de la ley, y cuáles son las preguntas centrales que deben hacerse a medida que se implementan las regulaciones y las salvaguardas?



Reconocimiento facial en la vigilancia

Una de las principales preocupaciones del público en torno al uso de la IA y otras tecnologías emergentes por parte de las fuerzas del orden se encuentra en el área del reconocimiento facial. En 2016, más de la mitad de caras de los adultos estadounidenses formaban parte de las bases de datos de reconocimiento facial accesibles a las fuerzas del orden. Sin embargo, no todo el mundo está preocupado por este despliegue. Más del 50% de la gente confía en el uso del reconocimiento facial por parte de la policía y casi el 75% cree que el reconocimiento facial identifica a las personas con precisión. Sin embargo, existen importantes diferencias demográficas. Aproximadamente el 60% de los encuestados blancos en comparación con un poco más del 40% de los encuestados negros confían en el uso del reconocimiento facial por parte de la policía. La edad muestra un gradiente similar, pero no en la dirección esperada. Las personas menores de 30 años, en comparación con las personas mayores de 65, confían menos en el uso del reconocimiento facial en la vigilancia. El escepticismo de los adultos jóvenes puede deberse a que tienen más conocimiento sobre las capacidades de la IA para manipular imágenes de video reales y alterar lo que la persona está diciendo y haciendo.



A partir de 2016, más de la mitad de los rostros de los adultos estadounidenses formaban parte de las bases de datos de reconocimiento facial accesibles para las fuerzas del orden.

Sin embargo, aquí está el gran enigma: solo el 36% de los adultos creen que el reconocimiento facial está siendo utilizado de manera responsable por empresas privadas, que a menudo venden sistemas de reconocimiento facial a las fuerzas del orden.



Aunque la opinión pública está dividida sobre el uso del reconocimiento facial para la vigilancia, la investigación indica que el reconocimiento facial sufre un sesgo algorítmico. El Instituto Nacional de Estándares y Tecnología (NIST) publicó un papel mostrando que el reconocimiento facial resultó en tasas de precisión más bajas para las mujeres en comparación con los hombres, y para las personas negras en comparación con las personas blancas. Un estudio mostró que el género de las mujeres negras se clasificó erróneamente en más del 33% de las veces. En 2019, el software de reconocimiento facial de Amazon, Rekognition, etiquetado incorrectamente atletas profesionales en Boston como criminales. El software también etiquetó incorrectamente a uno de cada cinco legisladores de California como criminales . El Departamento de Policía de la ciudad de Nueva York (NYPD) manipuló imágenes borrosas con actores como Woody Harrelson para obtener más claridad sobre los posibles sospechosos en las imágenes de vigilancia.



Por estas y otras razones, San Francisco ha prohibido uso de reconocimiento facial por parte de la policía; Oakland y partes de Massachusetts pronto siguieron su ejemplo. Por el contrario, ciudades como Detroit y Chicago han utilizado software de reconocimiento facial con poca supervisión durante los últimos años. Las nuevas regulaciones promulgadas en Detroit en 2019 restringen el uso del reconocimiento facial a fotografías relacionadas con crímenes violentos e invasiones de hogares. Aunque las fuerzas del orden de la ciudad aplauden la capacidad de seguir utilizando el reconocimiento facial, los miembros del comité de supervisión civil afirman que la tecnología es una forma de tecno-racismo en una ciudad predominantemente negra que tiene una historia de brutalidad policial y relaciones problemáticas entre la policía y la comunidad. Una preocupación clave es la crítica de que la aplicación de la ley está utilizando tecnología poco confiable que clasifica erróneamente a los residentes de la ciudad, como se mencionó anteriormente.

Si bien es importante que las fuerzas del orden tengan la oportunidad de experimentar con nuevas tecnologías, la inteligencia artificial no debería ayudar a tomar decisiones en casos penales hasta que la tecnología mejore su precisión.



Si bien es importante que las fuerzas del orden tengan la oportunidad de experimentar con nuevas tecnologías, la inteligencia artificial no debería ayudar a tomar decisiones en casos penales hasta que la tecnología mejore su precisión. Debería haber una moratoria en la implementación a gran escala para analizar los datos de los estudios piloto (potencialmente con análisis realizados por un tercero, como un centro de investigación universitario o una empresa) para evaluar los resultados de la policía utilizando métodos existentes a los de usar IA.



a que hora lluvia de meteoritos

Vigilancia con IA

Además del reconocimiento facial, existen otras formas de implementación de IA que los legisladores deben tener en cuenta. En la búsqueda de ser la primera verdadera ciudad inteligente, San Diego implementó luces de calle inteligentes en 2016. Presentado como una forma de reducir el consumo de energía, los sensores en las farolas inteligentes se están utilizado por las fuerzas del orden para monitorear el tráfico de peatones, vehículos y estacionamientos, grabar videos del área y resolver delitos. Para muchos residentes de la ciudad, las luces no son el problema. Más bien, el despliegue de las luces por parte de la policía sin el consentimiento del público es el problema mayor. Tres concejales pidieron una moratoria sobre el uso de las luces.

San Diego también está en proceso de desplegar un zumbido sobre la ciudad en 2020 que tiene el potencial de realizar vigilancia y recopilar inteligencia similar a las capacidades de reconocimiento de las fuerzas armadas. En 2018, Condado de Rutherford, Tennessee , se convirtió en el primero en el país en obtener la aprobación federal para volar drones sobre personas. Los empleados de la ciudad dicen que el condado de Rutherford puede usar drones para combatir la crisis de un vertedero, evaluar los daños causados ​​por las tormentas, observar a la multitud en un mitin nacionalista blanco y rastrear a los fugitivos. En la costa este, NYPD tiene drones usados en una serie de marchas y desfiles, incluida la Marcha del Orgullo y el Desfile del Día de Puerto Rico. En este sentido, el programa de ciencia ficción Black Mirror puede volverse predictivo: su episodio Hated in the Nation presentó reconocimiento facial avanzado y enjambres de abejas diminutas, parecidas a drones, con capacidades letales.



Varios ejecutivos de negocios de TI en los paises incluidos los Estados Unidos, Francia, Australia y Canadá están extremadamente preocupados por el uso de IA para armas autónomas. Algunas personas se oponen rotundamente a usar tecnologias de esta manera, incluidos los miembros de las Naciones Unidas. Algunos líderes políticos y empresariales, académicos y organizaciones sin fines de lucro argumentan que las armas completamente autónomas en realidad conducirán a más conflicto , desigualdad y elevado potencial de guerra. Curiosamente, la gente parece tener menos problemas con la tecnología actual y más problemas con la falta de regulación, transparencia, privacidad y consentimiento a su alrededor.



En 2017, las fuerzas del orden utilizaron geofencing para monitorear a los activistas contra el racismo en la Universidad de Carolina del Norte-Chapel Hill que protestaban contra una estatua confederada conocida como Silent Sam. Geofencing es un perímetro virtual que permite el monitoreo de datos de teléfonos celulares, la recopilación de datos de redes sociales (como la ubicación de las personas que twittean en una marcha o protesta) y la recopilación de información del sitio web para que las empresas realicen anuncios basados ​​en la ubicación. para servicios y productos. Muchos se preguntaron por qué se utilizó la geovalla para monitorear la actividad en las redes sociales de estos manifestantes contra el racismo, pero no se implementó para monitorear a los supremacistas blancos. El despliegue dispar de estas tecnologías provoca memorias colectivas sobre cómo se utiliza la fuerza policial en las comunidades marginadas. Teniendo en cuenta la decisión de la Corte Suprema de Carpenter v. Estados Unidos, otros cuestionaron la legalidad del uso de geovallas en esa situación. La gente tiene preocupaciones similares sobre vigilancia de puntos calientes —En las que la aplicación de la ley se enfoca en áreas geográficas específicas donde el crimen puede estar más concentrado — y se preguntan si se trata simplemente de un perfil racial bajo un nombre policial predictivo.

El despliegue dispar de estas tecnologías provoca recuerdos colectivos sobre cómo se utiliza la fuerza policial en las comunidades marginadas.

Los departamentos de policía también están obteniendo acceso a las cámaras de los propietarios privados si se cometió un delito en el área. La empresa de cámaras de timbre más destacada, Anillo , ha establecido asociaciones para compartir videos con 400 departamentos de policía en los Estados Unidos. Aunque la policía debería tener la capacidad de acceder a una amplia variedad de recursos para resolver delitos, debería haber una forma más regulada y transparente de acceder a videos y datos de residencias privadas. Por ejemplo, los propietarios deberían poder ver el metraje al que se accedió desde sus hogares y saber cuánto tiempo se almacenará el metraje.

¿Hay luna llena este fin de semana?

De acuerdo con Minority Report, algunos tribunales utilizan algoritmos para realizar evaluaciones de riesgo en reincidencia antes de sacar a la gente de la cárcel. De Chicago Lista de temas estratégicos y Crime and Victimization Risk Model han utilizado software de inteligencia artificial para predecir quién podría cometer más delitos después de ser arrestado. Un informe de 2020 de la Oficina del Inspector General de Chicago encontró que el software no era confiable y la calidad de los datos era deficiente. En una ciudad como Chicago, estos hallazgos son aún más relevantes dado el nivel de racismo Descubierto dentro de los juzgados.

La suposición parece ser que las tecnologías que utilizan algoritmos son mejores para identificar amenazas y posibles delincuentes. Algunas investigaciones que utilizan el aprendizaje automático para libertad bajo fianza mostrar cómo se puede utilizar la inteligencia artificial para reducir la reincidencia, la delincuencia y las disparidades raciales en las sentencias. Al mismo tiempo, los algoritmos pueden replicar decisiones perjudiciales que ocurren en la vida social. Este parecía ser el caso de Chicago. Un punto clave es que omitir la raza como atributo del modelo, que es el caso del software de Chicago, puede generar más sesgos que incluirlo. Sin más regulación y salvaguardas, la variabilidad de estos resultados continuará manifestándose.

[O] mitigar la raza como un atributo modelo ... puede generar más sesgos que incluirla.

Dados estos casos de uso, ¿en qué deberían centrarse los responsables de la formulación de políticas cuando se trata del uso justo y la implementación de sistemas de IA?

Preguntas que los legisladores deben hacer a las empresas de tecnología y de aplicación de la ley

Los formuladores de políticas tienen un trabajo difícil al tratar de descubrir cómo regular un mercado tecnológico en constante cambio con algoritmos que utilizan el aprendizaje automático para construir sobre sí mismos en tiempo real. Si bien los legisladores pueden no tener todas las respuestas o la experiencia para tomar las mejores decisiones para equilibrar la libre empresa, la transparencia, la privacidad y la regulación, conocer las mejores preguntas para hacer puede ser un paso importante en el ínterin. Enumero cinco a continuación.

1) ¿Se ha informado a la comunidad y se ha tenido la oportunidad de hacer preguntas y dar sugerencias?

La falta de transparencia viola la confianza de la comunidad y dificulta los avances tecnológicos. Por lo tanto, la respuesta a esta pregunta debe ir más allá de una respuesta que simplemente mencione un ayuntamiento o una visita a una iglesia. El público debe estar informado antes del lanzamiento de nuevas tecnologías a través de los medios locales, avisos directos y divulgaciones, ya sea por correo, correo electrónico o redes sociales. El público debe tener derecho a hacer preguntas y dar sugerencias sobre tecnología cerca de sus hogares. La supervisión pública de la tecnología policial ( CORREO ) Act en la ciudad de Nueva York es una opción viable para lo que podría parecer. Esta sitio web proporcionar información al público sobre el uso de la inteligencia artificial en la ciudad de Nueva York, compilada por estudiantes graduados de la Escuela de Gobierno Kennedy de la Universidad de Harvard, debe ser importante para los organismos encargados de hacer cumplir la ley y los gobiernos municipales sobre la importancia de asociarse con académicos.

2) ¿Qué salvaguardas se implementan para garantizar que la tecnología se utilice correctamente y funcione según lo previsto?

Esta pregunta tiene que ver con la regulación. La Ley de Autorización de Tecnología de Reconocimiento Facial es un buen paso adelante y destaca la importancia de ser bipartidista. Si las fuerzas del orden quieren utilizar el reconocimiento facial durante más de 72 horas, la legislación dictará que deben obtener la aprobación de un juez, y la aprobación está limitada a 30 días. Con los informes del juez, el director de la Oficina Administrativa de los Tribunales de los Estados Unidos debe proporcionar información al Comité Judicial en el Senado y la Cámara cada año que incluya el número de órdenes judiciales, los delitos asociados con las órdenes judiciales, la frecuencia de uso de la tecnología, la cantidad de personas observadas y la cantidad de personas que se identificaron erróneamente con la tecnología. Si bien este proyecto de ley es encomiable, existen posibles lagunas. Por ejemplo, la aplicación de la ley podría operar continuamente durante el período de 72 horas, o afirmar que la búsqueda de reconocimiento facial es una preocupación de seguridad nacional, una condición que parece anular el proyecto de ley.

3) ¿Cómo se protegerá de los prejuicios en su tecnología?

Esta pregunta trata sobre datos perjudiciales y resultados discriminatorios. La Ley de Responsabilidad Algorítmica y la Ley de Algoritmos de Justicia Forense de 2019 tienen como objetivo ayudar con este proceso al exigir a las empresas que evalúen sus algoritmos en busca de resultados sesgados. En muchos aspectos, estos actos están pidiendo a las empresas que realicen declaraciones de impacto racial . Las declaraciones de impacto racial son herramientas para ayudar a los legisladores a evaluar si la legislación propuesta puede tener disparidades implícitas antes de aprobar un proyecto de ley. Estas declaraciones ayudan a los legisladores a aclarar y desarrollar un lenguaje específico para eliminar posibles sesgos.

Utilizando técnicas de muestreo representativas, las empresas deberían tener que producir resultados significativos en línea con los estándares académicos para demostrar que sus algoritmos predicen de manera similar para las personas a través de identidades sociales, como la raza, el género y la intersección entre los dos. Las empresas y los organismos encargados de hacer cumplir la ley pueden asociarse con centros universitarios de investigación y grupos de expertos para llevar a cabo estas tareas de investigación. El NIST puede desarrollar un panel asesor que revise informes de manera similar a las formas en que las revistas académicas utilizan los consejos editoriales y los revisores externos para verificar nuevas investigaciones. También debería ser una prioridad protegerse de los estudios que no incluyan adecuadamente a los grupos minoritarios. Además, las empresas más diversas a menudo significan ideas más diversas, lo que a su vez puede conducir a una mayor recopilación de datos demográficos, algo que puede reducir de manera efectiva los sesgos y las disparidades. Silicon Valley tiene mucho espacio para crecer en esta zona. Si estos estándares no se vuelven normativos, la tecnología en la aplicación de la ley tendrá algunos de los mismos sesgos y fallas que se ven en medicamento y otros campos.

4) ¿Cómo se moverá su tecnología más allá del consentimiento para incluir protecciones de privacidad?

La protección de la privacidad es importante. Las cámaras corporales nos enseñan sobre el consentimiento. Los oficiales tienen una indicación que usan para informar a la persona de interés que se les está grabando en video y audio. Para el reconocimiento facial, debemos ir más allá del consentimiento. Esta pregunta trata sobre cómo las fuerzas del orden se asegurarán de que el uso del software de reconocimiento facial y los datos de las redes sociales no recopilen información a nivel meta y micro que viole aún más la privacidad de las personas. A medida que se construyen los algoritmos de aprendizaje automático, enlazan datos definidos de manera similar. A veces, no está claro cómo serán estos resultados. Se necesitan salvaguardias para regular esto. Las personas también deben saber cuánto tiempo se almacenarán sus datos y para qué se utilizan. Aún así, los letreros en lugares públicos y privados que dicen que se usa software de reconocimiento facial aquí son útiles.

5) ¿Existen formas de utilizar la inteligencia artificial para la formación policial?

Esta pregunta se trata de impulsar a las empresas a pensar en formas de mejorar la eficiencia de la formación policial. El laboratorio de investigación en ciencias sociales aplicadas , donde me desempeño como director ejecutivo, trabaja con las principales corporaciones y entidades gubernamentales para brindar capacitación en realidad virtual utilizando algoritmos avanzados que brindan a los agentes del orden una experiencia más realista de los encuentros que tienen en el campo. Empresas como Flikshop están comenzando a utilizar algoritmos para brindar capacitación laboral a las personas que están encarceladas. Estas actividades ayudan a reducir los prejuicios en la actividad policial, mejoran las relaciones entre la policía y la comunidad y reducen la reincidencia.

En general, la tecnología puede hacer que la policía sea más eficiente, pero la eficiencia no significa necesariamente equidad o falta de sesgo. Los algoritmos de aprendizaje automático están superando con creces la comprensión del público sobre estas tecnologías. Los formuladores de políticas no solo tienen que pensar en la regulación, sino también en las sanciones si los organismos encargados de hacer cumplir la ley y las empresas violan las salvaguardias. Si esto se parece en algo al pasado, el sesgo seguirá desempeñando un papel muy importante en los resultados sociales a menos que la implementación de estas tecnologías en los entornos de aplicación de la ley se desacelere drásticamente. Los legisladores y las partes interesadas deben centrarse en políticas inteligentes que ayuden a que nuestra sociedad sea más segura y garanticen que la privacidad, el consentimiento y la transparencia sean equitativos para todos.