Cómo mejorar la experiencia técnica de los jueces en litigios relacionados con la IA

Introducción

La inteligencia artificial (IA) se refiere a la capacidad de las máquinas para realizar tareas que normalmente se asocian con la toma de decisiones humana. Los sistemas informáticos de IA utilizan una variedad de conjuntos de datos y entradas sensoriales para tomar decisiones en tiempo real y modificar decisiones futuras con datos y experiencia adicionales con una mínima intervención humana o programación adicional. Junto con el aprendizaje automático, la IA toca casi todos los aspectos de la vida moderna. A medida que las tecnologías digitales reemplazan ciertas actividades humanas, las disputas legales en torno a la IA son inevitables.





Estas cuestiones ya han llegado a los tribunales estatales y federales. Los jueces están abordando problemas emergentes de IA y creando jurisprudencia que afectará el curso futuro de la innovación tecnológica. Por ejemplo:



  • Las demandas por agravio abordan quién es responsable cuando un vehículo semiautónomo o autónomo daña a un peatón o un pasajero. Accidentes con implicaciones legales incluyen un Google Car que chocó contra un autobús público en 2016, la muerte de un conductor de Tesla en un accidente con el piloto automático, un motociclista que chocó con un vehículo eléctrico Chevy Bolt autónomo en 2017 y un peatón atropellado y asesinado por un vehículo de prueba autónomo de Uber en 2018. En algunos casos, será difícil identificar la causa exacta de una mala toma de decisiones de IA en un caso particular porque, por diseño, los algoritmos de decisión utilizan múltiples conjuntos de datos y entradas sensoriales que evolucionan con el tiempo. Puede ser incluso más difícil identificar a la parte o partes responsables entre el propietario de la máquina real que causó el daño, los desarrolladores de software, el fabricante de la máquina o los diversos contribuyentes que proporcionaron los datos ingresados ​​en el sistema de toma de decisiones.
  • Los algoritmos de medicina de precisión de IA predicen los riesgos del paciente, ayudan con el diagnóstico y la selección del tratamiento, y priorizan la atención del paciente cuando los recursos son limitados.1Es probable que las tecnologías de IA orientadas a la salud planteen dilemas de negligencia médica, por ejemplo, con respecto a quién es responsable cuando la IA que utiliza un radiólogo para leer imágenes no detecta un cáncer. De manera similar, cuando la IA monitorea los signos vitales para predecir el riesgo de ataque cardíaco, ¿quién es responsable del daño de un evento perdido o del costo de responder a una alerta falsa? Estas aplicaciones también plantean varios problemas legales y éticos que se cruzan, incluido cómo proteger los datos del paciente cuando la IA predice los problemas médicos que probablemente enfrentará una persona y cómo protegerse contra la discriminación mientras se planifica la atención preventiva.
  • El uso de IA en contextos de derecho penal plantea cuestiones legales y éticas críticas. Por ejemplo, ¿cuáles son las implicaciones constitucionales del uso de sensores acústicos en toda la ciudad para detectar la ubicación de disparos? ¿La señal de un sensor constituye una base válida para las búsquedas policiales de puerta a puerta o de patio a patio cuando un sensor que utiliza tecnología de inteligencia artificial indica la latitud, la longitud y la dirección de la calle de un supuesto disparo? Además, se ha escrito mucho sobre cómo los conjuntos de datos de entrenamiento para los sistemas de reconocimiento facial pueden introducir sesgos en el reconocimiento de una manera que identifica erróneamente o identifica falsamente a las minorías como perpetradores potenciales de manera desproporcionada. Finalmente, existen serias implicaciones para el uso de herramientas de evaluación de riesgos de IA para la liberación previa al juicio, la sentencia y para predecir la reincidencia. El uso de conjuntos de datos y algoritmos basados ​​en prácticas discriminatorias previas, por ejemplo, basadas de manera inapropiada en factores raciales o socioeconómicos, puede tener el efecto de amplificar esos sesgos, crear más daño y generar predicciones inexactas sobre quienes tienen más probabilidades de hacerlo. faltar a las comparecencias ante el tribunal o cometer delitos reincidentes.

En estos y otros casos, los jueces deben comprender el papel que desempeñan la inteligencia artificial y el aprendizaje automático en el propio sistema legal. Los abogados, así como los jueces y su personal, utilizan el aprendizaje automático para mejorar la búsqueda de jurisprudencia de la autoridad legal relevante para citar en resúmenes y decisiones. La producción de documentos y las revisiones asistidas por tecnología utilizan inteligencia artificial para buscar documentos relevantes para producir y extraer esos documentos para obtener la información más importante para los reclamos de una parte sin que los abogados tengan que revisar todos los documentos. Algunos académicos y profesionales ya están utilizando IA para predecir el resultado de casos basados ​​en algoritmos basados ​​en decenas de miles de casos anteriores. Investigaciones recientes sugieren que tales predicciones de resultados pueden tener una tasa de precisión de alrededor del 70%. La IA está marcando el comienzo de una nueva era de previsión cuantitativa de decisiones legales.2



La IA está marcando el comienzo de una nueva era de previsión cuantitativa de decisiones legales.



En resumen, los tribunales enfrentan una tarea no pequeña en: identificar las cuestiones legales y éticas en juego, incluidas las preocupaciones sobre la transparencia, el debido proceso y la privacidad de los datos; comprender la tecnología de inteligencia artificial en cuestión para poder emitir sentencias legales sólidas; y apreciando las posibles implicaciones de los fallos legales sobre los futuros avances tecnológicos y los derechos individuales.



Teniendo esto en cuenta, es vital mejorar la capacidad de los jueces para comprender los problemas técnicos en los litigios relacionados con la inteligencia artificial. Hay varias cosas que los sistemas judiciales y las organizaciones profesionales deben hacer para mejorar las capacidades técnicas de los jueces:



  • Educar al poder judicial sobre las estrategias actualmente disponibles para informar a los jueces sobre las innovaciones tecnológicas clave en cuestión en un litigio.
  • Fomentar la investigación y los programas piloto sobre innovaciones adicionales para proporcionar a los jueces la experiencia técnica que puede ayudar a garantizar una toma de decisiones legales sensatas.
  • Trabajar con los colegios de abogados estatales y otras organizaciones profesionales legales para familiarizar a los abogados con la tecnología impulsada por la inteligencia artificial, las implicaciones más amplias de los casos legales relacionados con la inteligencia artificial y los métodos que pueden proponer a los jueces para proporcionar información neutral sobre la inteligencia artificial relevante a la corte.
  • Reúna a los principales profesionales con experiencia en IA para trabajar en conjunto para educar a los miembros del poder judicial sobre la IA.
  • Involucrar a todas las partes interesadas relevantes para informar y recomendar políticas y leyes que aborden la IA de manera sistemática, por ejemplo, sobre cuestiones de privacidad, derechos constitucionales o si ciertos tipos de IA constituyen productos o servicios con fines de responsabilidad, antes de que los jueces y jurados deban hacer IA individual. determinaciones de casos relacionados, especialmente aquellos que pueden tener implicaciones a largo plazo para la innovación tecnológica y los derechos individuales.

Educar al tribunal sobre las herramientas disponibles para comprender mejor la IA

Hay una variedad de estrategias disponibles para educar a los jueces sobre la tecnología relacionada con la inteligencia artificial en cuestión en un litigio. Estos incluyen el uso de tutoriales de ciencia o tecnología, asesores técnicos designados por el tribunal o maestros especiales y expertos designados por el tribunal.

he escrito previamente sobre el uso de tutoriales de tecnología para permitir que los jueces soliciten a las partes, expertos o asesores técnicos que identifiquen y eduquen a un juez sobre cuestiones científicas y tecnológicas centrales en un litigio. El objetivo de un tutorial de tecnología es transformar la sala del tribunal en un aula. Los tutoriales pueden incluir una demostración de cómo funciona un determinado método, software o producto, una descripción general de la terminología técnica clave o una presentación de cómo se desarrolló una determinada innovación a lo largo del tiempo. Los jueces pueden solicitar, o las partes pueden recomendar, presentaciones en vivo de uno o más expertos o de las partes, sesiones de preguntas y respuestas o tutoriales o demostraciones grabadas en video. Los tutoriales brindan un foro para que los jueces hagan preguntas sobre la tecnología de inteligencia artificial fuera del contexto de las partes que abogan en nombre de una moción en particular o en el juicio.



Deben añadirse salvaguardias para garantizar que exista una oportunidad limitada para que los asesores técnicos introduzcan sesgos en el proceso de toma de decisiones judiciales.



¿Cuándo murió James Cook?

Además, los jueces federales tienen la autoridad para nombrar asesores técnicos, utilizar secretarios especialmente capacitados o solicitar maestros especiales que les proporcionen la experiencia técnica que necesitan. Por lo general, estos asesores no testifican en el juicio; su función es educar al juez sobre los aspectos técnicos involucrados en un caso. Para evitar cualquier influencia indebida y asegurar que se dé el peso adecuado a las opiniones de las partes sobre ciencia y tecnología, deben agregarse salvaguardas para asegurar que haya oportunidades limitadas para que los asesores técnicos introduzcan sesgos en el proceso de toma de decisiones judiciales. Estas salvaguardas incluyen limitar el alcance de los materiales específicos del caso que un asesor técnico revisa o analiza y definir el contenido y la naturaleza de cualquier ayuda científica o técnica que se le brinde al juez. Los nombramientos de asesores técnicos se mencionan en la jurisprudencia federal ya en 1950, y su uso es cada vez más común.

Por último, los jueces pueden nombrar expertos para circunstancias excepcionales y problemas de inteligencia artificial particularmente complejos en un litigio. Los jueces pueden nombrar a esos expertos por iniciativa de una de las partes o por propia iniciativa del juez. Un experto designado por el tribunal debe informar a todas las partes de cualquier hallazgo, puede ser destituido por cualquier parte, puede ser llamado a testificar en el juicio y puede ser sometido a un contrainterrogatorio por cualquier parte.3Aunque todavía es bastante novedoso, los expertos designados por los tribunales se han utilizado en varios litigios, y su uso es cada vez más común.



Independientemente de la estrategia utilizada, es fundamental que el proceso proporcione información técnica y experiencia a los jueces de la manera más neutral posible. La toma de decisiones judiciales sensatas y subsiguientes se sirve mejor mediante una entrega educativa y neutral de información sobre IA a través de un tutorial, un asesor técnico o un experto designado por el tribunal. Si bien puede parecer contrario a los fundamentos de nuestro sistema acusatorio, el juez debe exigir que las partes trabajen juntas para proporcionar al tribunal recomendaciones mutuamente acordadas sobre el formato, los temas y los presentadores ideales para los tutoriales, o una lista conjunta de posibles asesores técnicos o expertos designados por el tribunal (si fuera necesario).



Sin embargo, estos métodos no deben interpretarse como un impedimento para que las partes presenten sus propios peritos en el juicio. Además, es importante que, independientemente de la estrategia utilizada, estos métodos se ajusten a la expectativa básica subyacente al sistema adversario de que, con limitadas excepciones, los jueces no deben recibir asesoramiento y orientación sin que las partes en la controversia tengan la oportunidad de impugnar ese asesoramiento. y orientación.

Fomentar la investigación y los programas piloto en los tribunales sobre estrategias adicionales para educar a los jueces sobre la tecnología relacionada con la inteligencia artificial.

Además de las prácticas descritas anteriormente, los sistemas judiciales y las organizaciones profesionales deben realizar investigaciones y programas piloto para que el poder judicial explore otras estrategias que puedan ser útiles para ayudar a los jueces a desarrollar la comprensión técnica necesaria para las demandas relacionadas con la IA. Un ejemplo sería un programa piloto para realizar tutoriales de tecnología a nivel de apelación. Hasta la fecha, los jueces de los tribunales de primera instancia han sido los principales usuarios de los tutoriales. Tanto los académicos como los jueces cuestionado la confiabilidad de la información técnica obtenida por los jueces de manera informal fuera del expediente de hechos existente, incluida la información que ha aparecido en decisiones de apelación y de la Corte Suprema. Brindar tutoriales sobre cuestiones clave relacionadas con la inteligencia artificial a los jueces de apelación puede reducir la dependencia de recursos no validados, como los amicus briefs, que no han sido sometidos a verificación de hechos por terceros o materiales que no han sido sometidos a contrainterrogatorio por las partes en el juicio. Las tutorías pueden ayudar a limitar la necesidad percibida de que la propia investigación independiente de los jueces y secretarios proporcione datos adicionales en las decisiones de apelación.



[Da] da la necesidad de experiencia técnica en litigios relacionados con la IA, los tribunales técnicos especializados pueden proporcionar una solución viable en algunos casos.



Otra propuesta que ha resurgido recientemente es la creación de paneles de expertos o tribunales de ciencia con jurisdicción especial para conocer de controversias científicas o tecnológicas complejas.4Algunos jueces, legisladores y juristas han argumentado que los jueces o paneles técnicamente capacitados deberían decidir cuestiones científicas en lugar de jueces generalistas o jurados legos para garantizar que los componentes científicos o tecnológicos del litigio sean decididos correctamente por aquellos con la experiencia pertinente. Aunque este concepto sigue siendo controvertido, la idea de los tribunales de ciencia o tecnología ha ganado un interés renovado en nuestro mundo cada vez más complejo. Se necesitan más investigaciones para explorar si estos paneles cumplen con nuestras expectativas sociales de justicia y proceso judicial. Tampoco está claro si las cuestiones científicas complejas pueden separarse de las cuestiones políticas y legales que surgen, así como qué tribunal debe decidir estas cuestiones cuando se superponen. A medida que la IA se abre paso en todos los aspectos de nuestra vida diaria, puede parecer irrazonable eliminar el papel de los tribunales generales (y de los jurados) en las decisiones legales que rodean a la IA. No obstante, dada la necesidad de experiencia técnica en litigios relacionados con la IA, los tribunales técnicos especializados pueden proporcionar una solución viable en algunos casos.

Trabajar con organizaciones de abogados estatales para capacitar a los profesionales del derecho y alentar a los jueces a desarrollar experiencia técnica

Es poco probable que las iniciativas para proporcionar a los jueces la comprensión técnica necesaria para los litigios relacionados con la IA tengan éxito sin el apoyo de las partes involucradas en una disputa y sus abogados. Es importante que los colegios de abogados estatales y otras organizaciones profesionales legales familiaricen a los abogados con las implicaciones más amplias de los casos legales relacionados con la IA y los métodos que pueden sugerir a los jueces para proporcionarles información neutral sobre la IA.

Los abogados pueden ser comprensiblemente reacios a recomendar a su cliente o un juez el uso de tutoriales, asesores técnicos u otras estrategias con las que no están familiarizados. Sin embargo, la educación no solo del poder judicial sino de otros profesionales del derecho puede ayudar a garantizar su participación necesaria para implementar las estrategias existentes, participar en programas piloto de nuevos enfoques y ayudar a los jueces a recibir los conocimientos tecnológicos necesarios para una toma de decisiones judiciales sensatas.

Aproveche la experiencia de los profesionales de la inteligencia artificial para educar a los tribunales y al público

Las organizaciones profesionales de IA y sus miembros deben trabajar juntos para brindar oportunidades y recursos educativos adicionales a los tribunales federales y estatales. Existe una serie de modelos que las organizaciones profesionales pueden seguir para brindar asistencia valiosa y experiencia técnica a los jueces en general. El Centro Judicial Federal, la agencia de investigación y educación del poder judicial federal, brinda información y educa a los jueces sobre áreas de ciencia y tecnología emergentes a través de guías de bolsillo escritas, tutoriales y módulos en línea y talleres presenciales. La comunidad legal a menudo se basa en el Manual de referencia sobre evidencia científica del centro para comprender y evaluar mejor la relevancia y confiabilidad de la evidencia científica y técnica que ofrecen los expertos en litigios.5El centro es nuevo Tecnología y el banco La iniciativa ayudará a proporcionar a los jueces federales información crítica sobre áreas donde la tecnología y los problemas legales se superponen. Además, las Academias Nacionales de Ciencias brindan valiosas oportunidades para que los miembros del poder judicial (y la comunidad tecnológica) discutan áreas de tecnología emergente que es probable que aparezcan en juicios.

La naturaleza omnipresente de la IA requerirá la coordinación entre una variedad de profesionales de la tecnología para educar al público sobre la IA y el aprendizaje automático.

Es esencial que las organizaciones profesionales de IA y las partes interesadas relevantes se unan a estos esfuerzos y trabajen juntos para desarrollar contenido educativo neutral adicional para los tribunales. Es poco probable que sea eficaz proporcionar a los jueces silos de capacitación sobre temas específicos, ya que la inteligencia artificial abarca todos los aspectos de la vida: privacidad de datos, transacciones financieras, transporte, salud y seguridad humana y entrega de bienes y servicios. La naturaleza omnipresente de la IA requerirá la coordinación entre una variedad de profesionales de la tecnología para educar al público sobre la IA y el aprendizaje automático.

Los profesionales de la inteligencia artificial también deben considerar la posibilidad de desarrollar un glosario universal de términos técnicos clave o un conjunto básico de materiales de referencia generales diseñados específicamente para proporcionar al poder judicial antecedentes generales sobre la inteligencia artificial que serían ampliamente aplicables, independientemente de la asignación de un caso en particular. Los manuales de referencia sobre otros temas relacionados con la ciencia y la tecnología han demostrado ser muy eficaces para ofrecer contenido útil a los jueces.6

Además, las organizaciones profesionales de IA deberían considerar la posibilidad de formar un panel o sistema de derivación de asesores técnicos que esté disponible para ayudar a los jueces o árbitros en casos con problemas únicos de IA. Dicho panel o sistema de referencia, cuando se solicite, podría proporcionar a los jueces los nombres de posibles expertos independientes en inteligencia artificial, incluidos científicos informáticos, ingenieros, analistas de datos y programadores de software. La Asociación Estadounidense para el Avance de la Ciencia ayuda a la profesión legal al brindar una sistema de referencia de expertos independientes para cuestiones relacionadas con la ciencia. Este tipo de sistema podría adaptarse para abordar las necesidades de experiencia técnica de los jueces relacionadas con la IA. Sin embargo, se necesita investigación adicional para evaluar si los jueces conocen este recurso, con qué frecuencia los jueces lo han utilizado y cualquier cambio que pueda mejorar su utilidad para ellos.

Finalmente, las personas capacitadas con experiencia técnica deben poder transmitir de manera efectiva, a los jueces y jurados, los conceptos clave relevantes en sus respectivos campos. Esto significa que los científicos de datos, los programadores y los desarrolladores de software necesitarán capacitación para comunicarse con el público no especializado sobre los aspectos clave de la tecnología que probablemente estén en juego en las demandas relacionadas con la inteligencia artificial. Esto es especialmente cierto dados los hallazgos recientes de baja alfabetización pública sobre temas relacionados con la tecnología en general y los conceptos de IA en particular.

Abordar la IA de manera sistemática a través de políticas, no a través de demandas individuales.

Otros han escrito extensamente sobre los costos y beneficios de la formulación de políticas judiciales, y ese no es el enfoque de este resumen de políticas. No obstante, vale la pena repetir que cuando los legisladores, los formuladores de políticas y los reguladores no anticipan y actúan sobre los problemas de la tecnología emergente, los jueces quedan en la desafortunada posición de ser la primera rama del gobierno en evaluar nuevos problemas relacionados con la inteligencia artificial.

[C] uando los legisladores, los legisladores y los reguladores no anticipan ni actúan sobre los problemas de la tecnología emergente, los jueces quedan en la desafortunada posición de ser la primera rama del gobierno en evaluar nuevos problemas relacionados con la IA.

Una legislación guiada por consideraciones de políticas sólidas establecería los medios para proporcionar a los tribunales la orientación que necesitan para evitar sentar precedentes legales que, por un lado, sofocan involuntariamente el avance tecnológico o interfieren indebidamente con las libertades, la seguridad, la privacidad o el derecho a una compensación justa de las personas. daño en el otro. Debido a que tanto la ley estatal como la federal impactan los litigios relacionados con la IA, los actores a nivel estatal y federal deben trabajar juntos para tratar de garantizar que las políticas y la legislación federal y estatal estén alineadas. Eso ayudaría a abordar los problemas de IA y al mismo tiempo elevaría el nivel de experiencia disponible para los tomadores de decisiones.