Siguiendo un Orden ejecutiva de febrero de 2019 , la Oficina de Administración y Presupuesto de los EE. UU. (OMB) emitió su Orientación final sobre la regulación de la inteligencia artificial. (AI) el 17 de noviembre de 2020. Este documento presenta la estrategia del gobierno de los EE. UU. Hacia la supervisión de la inteligencia artificial y, como tal, merece un escrutinio cuidadoso. La guía de la Casa Blanca está razonada y refleja una comprensión matizada de la IA; sin embargo, también existen motivos reales de preocupación con respecto al impacto a largo plazo en la regulación de la IA.
Para empezar, hay muchos aspectos positivos de la guía reguladora de IA de la Casa Blanca. Su alcance es razonable, reconociendo que la regulación de la IA del sector privado es fundamentalmente diferente a la implementación de sistemas de IA por parte del gobierno, dejando este último para un documento separado. También aboga adecuadamente por un enfoque de la IA en el que la regulación sea específica para el sector y el tipo de aplicación de la IA, en lugar de políticas amplias y radicales que no tienen sentido en el amplio espectro del uso de la IA. El documento OMB adopta un enfoque basado en el riesgo, lo que sugiere la priorización de protecciones más sólidas para los sistemas de IA que demuestran el potencial de un mayor riesgo. El documento también pide que las agencias federales trabajen con los organismos de estándares, pidiéndoles específicamente que se adhieran a las normas del Instituto Nacional de Estándares y Tecnología. plan de participación federal para el desarrollo de estándares técnicos de IA .
Otros aspectos de la orientación son menos positivos. El tono del documento es muy insistente en la promesa del desarrollo y la innovación de la IA, especialmente para el crecimiento económico, la promoción de la innovación y el crecimiento de la IA es una alta prioridad para el gobierno de EE. UU. Esto es comprensible, ya que la economía digital cuenta por más del 9% del PIB y estaba creciendo al 6,8% anual antes de la pandemia de COVID-19. La IA es una gran parte de ese sector y también se está expandiendo a muchos otros sectores. Sin embargo, si bien el valor económico de la IA es importante, la guía se centra demasiado en argumentar que la regulación no debería obstaculizar su innovación y despliegue. El documento señala una serie de enfoques no regulatorios para la IA y tiene una sección sobre la reducción de las barreras para el despliegue y el uso de la IA, pero no se equilibra con una amplia contextualización de los daños de la IA.
La guía de la OMB establece de manera destacada que muchas aplicaciones de inteligencia artificial no necesariamente plantean problemas novedosos. Esta afirmación es parcialmente cierta, ya que el gobierno no necesita preocuparse por muchas aplicaciones de IA. Sin embargo, lo contrario también es cierto: muchas aplicaciones de inteligencia artificial del sector privado plantean problemas novedosos. Los sistemas de inteligencia artificial pueden sistematizar la discriminación y redistribuir el poder lejos de los consumidores y los empleados de primera línea. Los sistemas de inteligencia artificial también pueden permitir la vigilancia corporativa a gran escala. Pueden hacer todo esto, al tiempo que hacen que los procesos sean más difíciles de comprender para las personas y potencialmente socavan su recurso legal por daños.
como se llaman los nuevos piratas del caribe
Estos problemas no se ignoran por completo en el documento de la Casa Blanca. Enumera diez principios para la administración de las aplicaciones de IA, que son consistentes con las recomendaciones de los principales expertos en IA ética. Esa lista incluye: confianza pública en la inteligencia artificial, participación pública, evaluación y gestión de riesgos, equidad y no discriminación, y divulgación y transparencia. El problema es que estos criterios se enmarcan como una lista de verificación que debe elaborarse antes de que las agencias puedan implementar nuevas reglas sobre IA. Directamente antes de la lista de principios, la guía establece que las agencias deben considerar una nueva reglamentación únicamente ... a la luz de la sección anterior ... que la reglamentación federal es necesaria. Junto con el marco anti-regulatorio más amplio del documento, esto sugiere una intención de adelantarse a las acciones regulatorias.
La preferencia es problemática porque ya sabemos que hay áreas que requieren una aplicación y regulación más estrictas. La Administración de Drogas y Alimentos es considerando cómo adaptar sus reglas para garantizar la seguridad de los dispositivos médicos mejorados por IA y, al mismo tiempo, permitirles actualizarse con nuevos datos. El Departamento de Trabajo y la Comisión de Igualdad de Oportunidades en el Empleo tendrán que analizar cómo las herramientas algorítmicas afectan la compensación del trabajador, la seguridad en el lugar de trabajo y los procesos de contratación. Salud y Servicios Humanos tiene que aprender a hacer cumplir protecciones legales contra la discriminación sobre los servicios de salud asignados algorítmicamente. Del mismo modo, el Departamento de Transporte necesita nuevas reglas para garantizar la seguridad de los vehículos autónomos.
En ausencia de regulaciones y procesos de aplicación actualizados, el status quo facilita eludir la ley mediante el uso de algoritmos. Supervisión de algoritmos requiere nuevas ideas , experiencia técnica y capacidad adicional, y la Casa Blanca y la OMB deberían alentar a las agencias a abordar los nuevos riesgos de la IA. Desafortunadamente, en una regla finalizada con respecto a los estándares de impacto dispares, Vivienda y Desarrollo Urbano ignoraron los nuevos desafíos de la IA, haciéndolo imposible para que los demandantes demuestren que fueron discriminados por algoritmos.
cuando fue el inicio de la revolucion francesa
Más allá de la influencia directa en la elaboración de reglas de la agencia, esta guía también puede afectar el papel futuro de OMB, especialmente su brazo de revisión regulatoria, la Oficina de Información y Asuntos Regulatorios (OIRA). En ocasiones, en sus cuarenta años de historia, OIRA ha jugado un papel de guardián regulador activo. Esta función se centra especialmente en 'acciones reguladoras importantes', que incluyen reglas que se estima que tienen un impacto económico de más de $ 100 millones o, alternativamente, regulaciones que plantear cuestiones legales o políticas novedosas . Si bien algunas regulaciones de IA probablemente cumplirán con los criterios de impacto económico, seguramente muchas más plantearán problemas novedosos en la ley y la política. Es posible que el personal relativamente pequeño de OIRA, dividido en grupos asignados a diferentes agencias federales, no tenga la experiencia en inteligencia artificial necesaria para sopesar de manera efectiva estas nuevas reglas emergentes. No se sabe exactamente cómo se desarrollará este problema, pero es posible que la guía de la Casa Blanca, según la interpretación de OIRA, cree nuevas cargas de cumplimiento.
Puede que no lleve mucho tiempo averiguar el impacto que tendrá esta guía. Quizás su contribución más valiosa de esta guía es que pide a las agencias federales que proporcionen planes de cumplimiento dentro de los seis meses (antes del 17 de mayo de 2021). Con la afluencia de nuevos nombramientos de la administración de Biden, es posible que este documento impulse nuevas ideas y un grado de acción sin precedentes para construir regulaciones de IA sensatas y efectivas. Con suerte, OIRA trabajará principalmente para fomentar el intercambio de conocimientos y la cooperación entre agencias, como ha argumentado Cass Sunstein .
Éste podría ser el caso. Aún así, existe un motivo de preocupación en la elaboración de este documento, y su efecto dependerá significativamente de cómo lo interprete y aborde el personal de la agencia en el futuro. Es difícil imaginar que cambiar esta guía será una de las principales prioridades de la Casa Blanca de Biden, dados todos sus otros problemas urgentes. Sin embargo, existe un riesgo real de que este documento se convierta en una fuerza para mantener el status quo, en lugar de abordar los daños graves de la IA.