Históricamente, la robótica en la industria significaba automatización, un campo que se pregunta cómo las máquinas funcionan de manera más efectiva que los humanos. En estos días, la nueva innovación destaca un espacio de diseño muy diferente: lo que las personas y los robots pueden hacer mejor juntos. En lugar de idolatrar a las máquinas o menospreciar sus defectos, estas asociaciones entre humanos y máquinas reconocen y se basan en la capacidad humana. Desde coches autónomos que reducen los accidentes de tráfico, hasta abuelos que visitan a sus nietos mediante robots de telepresencia, estas tecnologías pronto formarán parte de nuestra vida y entornos cotidianos. Lo que tienen en común es la intención de apoyar o empoderar a los socios humanos con capacidad robótica y, en última instancia, complementar los objetivos humanos.
La respuesta cultural humana a los robots tiene implicaciones políticas. La política afecta lo que permitiremos y no permitiremos que los robots hagan. Afecta dónde insistimos en la primacía humana y qué tipo de decisiones delegaremos a las máquinas. Un ejemplo actual de esto es la campaña en curso de Human Rights Watch por un tratado internacional para prohibir los robots militares con poder de disparo letal autónomo, para garantizar que un ser humano permanezca al tanto de cualquier decisión letal. Actualmente no existen tales robots, ni ningún ejército tiene planes de desplegarlos, ni está claro cuándo el rendimiento robótico es inferior o en qué se diferencia del rendimiento humano en situaciones de fuerza letal. Sin embargo, la aversión cultural a los robots con el poder de apretar el gatillo por sí mismos es tal que la campaña ha ganado una tracción significativa.
Las cuestiones culturales también se convertirán en clave a nivel doméstico y civil. ¿Se sentirá cómoda la gente subiendo a un avión sin piloto, incluso si los drones domésticos de pasajeros tienen un historial de seguridad mucho mejor que el de la aviación comercial pilotada por humanos? ¿Un paciente quedará desconcertado o gratamente sorprendido por un dispositivo médico que hace una pequeña charla, aterrorizado o tranquilizado por uno que hace incisiones muy precisas? La sociabilidad, los antecedentes culturales y los estereotipos tecnológicos influyen en las respuestas a estas preguntas.
Mi experiencia es la robótica social, un campo que diseña robots con sistemas de comportamiento inspirados en cómo los humanos se comunican entre sí. Los roboticistas sociales pueden incorporar la postura, la sincronización del movimiento, la prosodia del habla o la reacción a las personas y los entornos en el repertorio de comportamiento de un robot para ayudar a comunicar el estado o las intenciones del robot. El beneficio de estos sistemas es que permiten a los transeúntes y a los socios de interacción comprender e interactuar con los robots sin una formación previa. Esto abre nuevas aplicaciones para máquinas incorporadas en nuestra vida diaria, por ejemplo, guiándonos hacia el producto correcto en Home Depot.
Mi propósito en este documento no es proporcionar recomendaciones de políticas detalladas, sino describir una serie de elecciones importantes que enfrentamos al diseñar robots que la gente realmente querrá usar y con las que interactuar. Las consideraciones de diseño actuales pueden presagiar opciones políticas en el futuro. Gran parte de la investigación actual sobre equipos humano-robóticos busca explorar aplicaciones prácticas plausibles dados los conocimientos tecnológicos mejorados y una mejor comprensión social. Por ahora, estos son desafíos de diseño técnico previos a la política para robots colaborativos que tendrán, o podrían, tener implicaciones de política pública en el futuro. Pero manejarlos bien en la fase de diseño puede reducir las presiones políticas con el tiempo.
Desde automóviles sin conductor hasta dispositivos médicos semiautónomos y cosas que ni siquiera hemos imaginado todavía, las buenas decisiones que guían el desarrollo de asociaciones humano-robóticas pueden ayudar a evitar fricciones políticas innecesarias sobre nuevas tecnologías prometedoras y ayudar a maximizar el beneficio humano. En este artículo, proporciono una descripción general de algunas de estas consideraciones previas al diseño de políticas que, en la medida en que podamos pensar en el diseño social inteligente ahora, pueden ayudarnos a navegar por las consideraciones de política pública en el futuro.
DATOS que realiza el robot.
Si está leyendo este artículo, probablemente esté muy acostumbrado a ser humano. Puede que no parezca nada especial. Pero después de 12 años en robótica, con los investigadores celebrando cuando logramos que los robots realicen los comportamientos humanos más simples, me ha quedado claro cuán complejas son las acciones humanas y cuán impresionantes son las capacidades humanas, desde nuestra vista hasta nuestra comunicación emotiva. . A diferencia de los robots, las personas tienen un talento único para adaptarse a situaciones novedosas o dinámicas, como reconocer a una nueva persona que ingresa a la habitación mientras mantienen una conversación con otra persona. Podemos identificar la importancia en una escena compleja en contextos que las máquinas encuentran difíciles, como ver un camino en un bosque. Y podemos analizar fácilmente el significado humano o social, notando que alguien está sonriendo pero está bloqueando claramente su entrada, por ejemplo, o sabiendo sin preguntar que una tienda está cerrada. También somos creativos y, a veces, hacemos cosas impredecibles.
¿Se sentirá cómoda la gente subiendo a un avión sin piloto?
Por el contrario, los robots se desempeñan mejor en tareas muy restringidas, por ejemplo, buscando posibles coincidencias con la dirección que está escribiendo en su sistema de navegación a unas pocas millas de las coordenadas de su GPS. Su capacidad para buscar grandes cantidades de datos dentro de esas limitaciones, su potencial de diseño para capacidades físicas o de detección únicas, como tomar una fotografía o levantar un objeto pesado, y su capacidad para conectarnos con información y comunicaciones remotas, son ejemplos de cosas que No podría hacerlo sin ayuda. Así, las máquinas capacitan a las personas, pero las personas también guían y motivan a las máquinas. Asociar las capacidades de las personas con las de las máquinas permite la innovación, el rendimiento mejorado de las aplicaciones y la exploración más allá de lo que cualquiera de los socios podría hacer individualmente.
Para completar con éxito tales sistemas de comportamiento, el campo de la robótica social adapta la metodología de la psicología y, en mi trabajo reciente, el entretenimiento. Los compañeros de trabajo humanos no son solo colegas útiles; la colaboración requiere simpatía e, idealmente, placer en la compañía del otro. De manera similar, mientras que las máquinas con capacidades sociales pueden proporcionar una mayor eficiencia y utilidad, las máquinas carismáticas podrían ir más allá, creando valor y disfrute común. Mi esperanza es que la adaptación de las técnicas de la formación actoral y la colaboración con los artistas intérpretes o ejecutantes pueda proporcionar métodos adicionales para iniciar este proceso. Por lo tanto, entre los diversos estudios de caso de robots colaborativos que se detallan a continuación, incluiré ideas de la creación de un comediante robot.
¿Se sentirá cómoda la gente subiendo a un avión sin piloto?
Los robots no necesitan ojos, brazos o piernas para que los tratemos como agentes sociales. Resulta que evaluamos rápidamente las capacidades de las máquinas y las personas de manera instintiva, tal vez porque las máquinas tienen encarnaciones físicas y objetivos que se pueden leer con frecuencia. La sociabilidad es nuestra interfaz natural, entre nosotros y con los seres vivos en general. Como parte de ese comportamiento innato, buscamos rápidamente identificar objetos de agentes. De hecho, como criaturas sociales, a menudo nuestro comportamiento predeterminado es antropomorfizar a los robots en movimiento.
Como criaturas sociales, a menudo nuestro comportamiento predeterminado es antropomorfizar a los robots en movimiento.
calendario de lanzamiento de la nasa 2021
La animación está llena de personajes antropomórficos y no antropomórficos, desde la lámpara de Pixar hasta la alfombra mágica de Aladdin. Los neurocientíficos han descubierto que una clave para nuestra atribución de agencia es el movimiento dirigido a objetivos.1Heider y Simmel probaron esta teoría con animaciones de formas simples, y los sujetos atribuyeron fácilmente la personalidad y el pensamiento a los triángulos en movimiento.2
Para ayudar a comprender qué distingue el comportamiento del objeto del comportamiento del agente, imagine una hoja que cae y se mueve hacia adelante y hacia atrás en el aire siguiendo las leyes de la física. Aunque está en movimiento, ese movimiento no es voluntario, por lo que llamamos a la hoja un objeto. Sin embargo, si una mariposa aparece en la escena y la hoja se mueve repentinamente cerca de la mariposa, manteniendo esa proximidad incluso cuando la mariposa continúa moviéndose, diríamos inmediatamente que la hoja había visto a la mariposa y que la hoja la estaba siguiendo. eso. De hecho, los neurocientíficos han descubierto que no atribuir intencionalidad a ejemplos similares de comportamiento dirigido a objetivos puede ser una indicación de un trastorno social.3La atribución de agencia es parte del ser humano.
Una implicación de atribuir agencia a las máquinas es que podemos vincularnos con ellas independientemente de la experiencia innata de la máquina, como demuestran los siguientes ejemplos. En 2008, Cory Kidd completó un estudio con un robot destinado a ayudar en los objetivos de fitness y pérdida de peso, proporcionando una presencia social con la que los participantes del estudio siguieron sus rutinas.4El robot hizo contacto visual (sus únicas partes móviles), vocalizó sus saludos e instrucciones y tenía una interfaz de pantalla táctil para la entrada de datos. Buscando mantenerse en buena posición, podría haber intentado volver a involucrar a los participantes diciéndoles lo agradable que era volver a verlos si no hubieran visitado el robot en unos días. Su programación incluía una variable interna dinámica que calificaba su relación con su socio humano.
Cuando Kidd realizó un estudio comparando qué tan bien los participantes rastreaban sus hábitos, comparó tres grupos: aquellos que usaban lápiz y papel, pantalla táctil sola o pantalla táctil con robots. Mientras que todos los participantes en el primer grupo (lápiz y papel) se rindieron antes de que terminaran las seis semanas, y solo unos pocos en el segundo (solo pantalla táctil) optaron por extender el experimento a ocho semanas cuando se les ofreció (aunque todos habían completado el experimento), casi todos los del último grupo (robot con pantalla táctil) completaron el experimento y optaron por extender las dos semanas adicionales. De hecho, con la excepción de un participante que nunca encendió su robot, la mayoría en el tercer grupo nombraron a sus robots y todos usaron descriptivos sociales como él o ella durante sus entrevistas. Una participante incluso evitó devolver las llamadas de la directora del estudio al final del estudio porque no quería devolver su robot. Con cierto grado de alegría, habían tratado a estos robots como personajes y tal vez incluso se habían unido a ellos. Ciertamente, los robots tuvieron más éxito en involucrarlos para que completaran sus diarios de alimentación y fitness que las tecnologías no sociales.
Con cierto grado de alegría, habían tratado a estos robots como personajes y tal vez incluso se habían unido a ellos.
Compartir experiencias traumáticas también puede fomentar la unión, como hemos visto en los soldados que trabajan con robots de eliminación de bombas.5En el campo, estos robots trabajan con sus socios humanos, poniéndose en peligro para evitar que sus socios estén en peligro. Después de trabajar juntos durante un período prolongado, el soldado puede sentir que el robot le ha salvado la vida una y otra vez. Esto no es solo teórico. Resulta que iRobot, los fabricantes de los robots de eliminación de bombas Packbot, han recibido cajas de metralla que consisten en los restos de los robots después de una explosión con una nota que dice: ¿Puedes arreglarlo? Al ofrecer enviar un nuevo robot a la unidad, los soldados dicen: No, queremos ese. Ese robot específico era con el que habían compartido experiencias, con el que se habían unido y con el que no querían morir.
Por supuesto, la gente no siempre se vincula con las máquinas. Un mal diseño social puede ser difícil de interpretar o desagradable en lugar de atractivo. Una rúbrica útil a la que hacen referencia los diseñadores de robots para este último es Uncanny Valley.6El concepto es que hacer que las máquinas sean más humanas es bueno hasta cierto punto, después de lo cual se vuelven incómodas (espeluznantes), hasta que logras la semejanza humana, que es el mejor diseño de todos. El gráfico teórico del Uncanny Valley incluye dos líneas, una curva para agentes que están inmóviles (por ejemplo, una fotografía de una persona muerta estaría en el valle), y otra curva con picos y valles más altos para aquellos que se están moviendo (por ejemplo, un zombi es la versión móvil de eso).
En mi interpretación, parte de la incomodidad en la respuesta de las personas a los robots con diseños muy parecidos a los humanos es que sus comportamientos aún no son completamente humanos, y estamos muy familiarizados con cómo debería ser el comportamiento humano. Por lo tanto, cuanto más humano es un robot, más alta es la barra que deben cumplir sus comportamientos antes de que consideremos que sus acciones son apropiadas. El juguete robótico Pleo hace uso de esta idea. Se supone que es un dinosaurio bebé, un animal con el que no estamos familiarizados convenientemente. Esta es una idea inteligente, porque a diferencia de las posibles mascotas robóticas como perros o gatos, no tenemos nada con qué compararlo al evaluar su comportamiento. En muchos casos, puede ser igualmente conveniente tener diseños más caricaturizados o incluso no antropomórficos. No es necesario que todos los robots se parezcan, ni siquiera un poco, a las personas.
Reuters - (L) El presidente de Bandai Co Ltd, el fabricante de juguetes más grande de Japón, Takeo Takasu, sostiene el nuevo robot de juguete parlante de la compañía basado en el popular personaje de dibujos animados llamado Doraemon, un gato robot del futuro; (R) El actor Richard Eden vestido como Robocop.
Nuestras expectativas de los robots y nuestra respuesta a sus diseños varían a nivel internacional; la curva de Uncanny Valley tiene un arco diferente dependiendo de dónde se encuentre. Ciertamente, nuestra forma de contar historias diverge mucho. En Japón, los robots son lindos y tiernos. La gente tiende a pensar en mascotas robóticas. En los Estados Unidos, por el contrario, los robots dan miedo. Tendemos a pensar en ellos como amenazantes.
En Japón, los robots son lindos y tiernos. En los Estados Unidos, los robots dan miedo.
La respuesta cultural es importante para la voluntad de las personas de adoptar sistemas robóticos. Esto es particularmente importante en áreas de servicio, particularmente en los servicios de cuidado de un tipo u otro, donde la comodidad humana es tanto el objetivo como, hasta cierto punto, necesario para la cooperación humana en el logro de ese objetivo.
Los informes de noticias sobre tecnologías robóticas en los Estados Unidos con frecuencia hacen referencia a escenarios apocalípticos que recuerdan a Terminator o RoboCop, incluso cuando la innovación es inocua. Mi asesor de doctorado, Reid Simmons, bromea diciendo que los especialistas en robótica deberían abordar esos miedos humanos preguntándonos: ¿Qué importancia debe tener el gran botón rojo en los robots que vendemos? Aunque también hay ejemplos notables de lo contrario (Wall-E, Johnny-5, C3P0), es cierto que a Hollywood le gusta dramatizar robots terroríficos, al menos en algunas ocasiones (Skynet, HAL, Daleks, Cylons).
Una explicación para la respuesta cultural diferente podría ser de origen religioso. Las raíces del complejo Terminator occidental en realidad pueden provenir del predominio de religiones monoteístas en Occidente. Si el papel de Dios es crear a los seres humanos, se podría considerar que los seres humanos que crean máquinas semejantes a los hombres están usurpando el papel de Dios, un acto que se presume tiene malas consecuencias. Independientemente de la práctica religiosa actual, tal narración puede impregnar las expectativas culturales. Vemos esta construcción en la historia de Frankenstein de Mary Shelley, publicada por primera vez en 1818. Un científico ficticio, el Dr. Frankenstein, cose cadáveres y luego da vida a su supercriatura en una tormenta eléctrica. Al verla animada, se horroriza ante el resultado, y en su abandono por parte de su creador, la criatura se comporta mal. Este sentido de inevitabilidad es cultural, no lógico.
En Japón, por el contrario, la historia religiosa temprana se basa en el sintoísmo. En el animismo sintoísta, los objetos, los animales y las personas comparten espíritus comunes, que naturalmente quieren estar en armonía.7Por lo tanto, no existe una jerarquía de especies y, si se deja al azar, la expectativa es que el resultado de las nuevas tecnologías complemente a la sociedad humana. En la siempre popular serie de dibujos animados japonesa Astroboy, encontramos una historia de formación muy similar a Frankenstein, pero el entorno cultural de la historia genera una conclusión opuesta. Astroboy es un robot creado por un Ministerio de Ciencia ficticio para reemplazar al hijo fallecido del director. Inicialmente rechazado por esa figura paterna, se une a un circo donde es redescubierto años después y se convierte en un superhéroe, salvando a la sociedad de los defectos humanos.
Gran Hermano ya no parece ser un problema para muchas personas.
¿Inglaterra observa el horario de verano?
Como escribe un periodista, dado que la cultura japonesa predispone a sus miembros a ver a los robots como compañeros de ayuda y como iguales imbuidos de algo parecido a la concepción occidental de un alma, mientras que los estadounidenses ven a los robots como construcciones peligrosas y voluntarias que eventualmente provocarán la muerte de sus seres humanos. fabricantes, no debería sorprendernos que una nación favorezca su uso en la guerra mientras que la otra los imagina como compañeros benevolentes adecuados para ayudar a una población que envejece rápidamente y cada vez más dependiente.8Nuestros fundamentos culturales influyen en las representaciones mediáticas de la robótica y pueden influir en las aplicaciones a las que nos dirigimos para el desarrollo, pero eso no significa que sea inevitable que los robots sean buenos, malos o no. Además, la nueva narración puede influir en nuestras costumbres culturales, una de las razones por las que el entretenimiento es importante. La cultura está siempre en constante cambio.
Reuters / Larry Downing - El presidente de Estados Unidos, Barack Obama (2 ° a la izquierda), se inclina ante el robot Asimo mientras visita Miraikan o el Museo Nacional de Ciencia e Innovación Emergentes, en Tokio, el 24 de abril de 2014.
La respuesta cultural humana a la tecnología en general ha entrado en un rápido cambio. Hace varias décadas, nadie podía haber previsto la comodidad que sienten muchos de los adolescentes de hoy con tanta información personal que aparece en línea. Gran Hermano ya no parece ser un problema para muchas personas. Los proveedores de teléfonos móviles pueden compartir nuestros datos de ubicación con otras empresas, el gobierno podría leer nuestros correos electrónicos, pero en un mundo donde la presencia social insiste en las actualizaciones constantes de Twitter y las fotos de Instagram, se anima constantemente a las personas a compartir estos datos con el mundo de todos modos. . La revolución sexual de las décadas de 1960 y 1970 no duró para siempre, y el péndulo también puede retroceder en la privacidad de los datos, pero se mantendrán los aspectos razonados del cambio cultural en relación con la tecnología.
Los robots sociales aprovechan nuestra necesidad humana de conectarse entre sí y, por lo tanto, existen consideraciones éticas y culturales únicas que surgen al introducir tales robots en la sociedad. La otra cara de considerar el vínculo humano con las máquinas es que los diseñadores robóticos y, en última instancia, los legisladores, pueden necesitar proteger a los usuarios de las oportunidades para que los robots sociales reemplacen o complementen el contacto humano saludable o, más oscuro, retrasen el desarrollo normal. Piense en una versión más extrema de cómo los videojuegos son usados ocasionalmente por poblaciones vulnerables (por ejemplo, los socialmente aislados o los deprimidos) como un escape que puede o no evitar que se reencuentren con otros humanos. La inteligencia del robot y los comportamientos sociales simulados son simplistas en comparación con el equivalente humano. Uno no puede suplantar al otro, y deben existir protecciones para evitar una dependencia excesiva asocial.
Los robots sociales aprovechan nuestra necesidad humana de conectarse entre sí.
Por otro lado, también es posible buscar formas de utilizar estas tecnologías para fomentar la conexión humana. Como están investigando algunos investigadores del autismo, los robots sociales podrían ayudar a las personas con discapacidad social a relacionarse con los demás.9practicar comportamientos empáticos como un trampolín hacia el contacto humano normal. En general, las ramificaciones del rol social y las capacidades de un robot deben tenerse en cuenta al diseñar pautas de fabricación y regular las tecnologías de consumo.
Además de fomentar aplicaciones positivas para la tecnología y proteger al usuario, también puede surgir en última instancia la cuestión de si deberíamos regular el tratamiento de las máquinas. Esto puede parecer una propuesta ridícula hoy en día, pero cuanto más consideramos a un robot como una presencia social, más parecemos extender nuestros conceptos de lo correcto y lo incorrecto a nuestro comportamiento hacia ellos. En un estudio, los experimentadores hicieron que los sujetos realizaran una variedad de ejercicios de formación de equipos junto con seis dinosaurios robóticos, luego les entregaron un martillo y les pidieron a los participantes que destruyeran los robots. Todos los participantes se negaron.10De hecho, la única forma en que los conductores del estudio podían hacer que los participantes dañaran a cualquiera de los robots era amenazar con destruir todos los robots, a menos que el grupo destrozara al menos uno. Como dijo una vez el especialista en ética de Carnegie Mellon, John Hooker, en nuestra clase de Ética en Robots, si bien en teoría no hay un negativo moral en lastimar a un robot, si consideramos a ese robot como una entidad social, causarle daño se refleja mal en nosotros. Esto no es diferente a desalentar a los niños pequeños de lastimar a las hormigas, ya que no queremos que tales comportamientos de juego se conviertan en morder a otros niños en la escuela.
Otro efecto de considerar a los robots (y otras máquinas) como agentes es que reaccionamos socialmente a sus comportamientos y solicitudes. Algunos robots deberían ser intencionalmente similares a una máquina. En la década de 1960, cuenta la leyenda que los primeros detectores de cinturones de seguridad de automóviles debutaron con clips de sonido que podían indicar a los pasajeros que se abrocharan el cinturón de seguridad. Inicialmente, los propietarios celebraron la capacidad de hablar de sus autos, invitando a los vecinos a verlo y diciendo que estaban viviendo en el futuro. Sin embargo, después de que la novedad desapareció, la idea de que su automóvil les diera órdenes se volvió no solo irritante, sino socialmente ofensiva. La voz personificada del coche estaba tratando de decirles qué hacer. Nuestras reacciones a los agentes sociales difieren de nuestras reacciones a los objetos y, finalmente, los fabricantes de automóviles buscaron reducir la afrenta cambiando la notificación a un pitido.
Los diferentes contextos humanos pueden beneficiarse de los robots con características más similares a las de una máquina o más similares a las humanas. En un experimento en el que, en teoría, los robots debían realizar una variedad de tareas de asistencia, se pidió a los participantes que seleccionaran su preferencia por la cara de robot, humano-robot mixto o humano.11En el contexto del aseo personal, como el baño, la mayoría de los participantes prefirieron fuertemente un sistema que actuara solo como equipo. Quizás los usuarios se sintieron incómodos con la camaradería debido a la naturaleza personal de la tarea. Por otro lado, al seleccionar un rostro para ayudar al sujeto con una tarea informativa importante, como dónde invertir el dinero del sujeto, se eligió menos el rostro robótico, es decir, los usuarios prefirieron la presencia de características humanas. Los participantes más jóvenes seleccionaron el rostro mixto humano-robot, y los participantes mayores generalmente seleccionaron el rostro más humano, tal vez porque tener cualidades humanas hacía que los robots parecieran más confiables. Comprender este tipo de expectativas de interfaz influirá en la acogida y el rendimiento de cualquier robot que opere en un contexto humano.
Los robots sociales aprovechan nuestra necesidad humana de conectarse entre sí.
Para motivar las consideraciones de diseño y políticas, divido las asociaciones entre humanos y robots en tres categorías, cada una con aplicaciones industriales o de consumo a corto plazo: robots de telepresencia, robots colaborativos y vehículos autónomos. En la primera categoría, los humanos dan comandos de nivel superior a los sistemas remotos, como el pilotaje remoto en un escenario de búsqueda y rescate. En el segundo, introducimos robots en entornos humanos compartidos, como nuestros hospitales, lugares de trabajo, parques temáticos u hogares (por ejemplo, un robot de parto en un hospital que ayuda a las enfermeras a traer ropa de cama limpia y transportar muestras clínicas). En el tercero, las personas viajan dentro de máquinas con la capacidad de proporcionar comandos de nivel superior como destino o control compartido, por ejemplo, aterrizar un avión después de que un vuelo se realiza en piloto automático.
Para todas estas categorías, los robots eficaces deben tener interfaces intuitivas para la participación humana, una comunicación clara del estado, la capacidad de sentir e interpretar los comportamientos de sus socios humanos y, por supuesto, ser capaces de defender su papel en la tarea compartida. Extraemos los ejemplos dentro de cada categoría por consideraciones de diseño y políticas. La esperanza es habilitar diseños en los que la división de las capacidades humanas y de la máquina habilite a los usuarios y tenga un impacto humano positivo, lo que resultará en comportamientos, rendimiento e impacto social que vayan más allá de lo que cualquiera de los socios podría hacer por sí solo.
La telepresencia ofrece la capacidad de que las personas tengan capacidad de detección y presencia física en un entorno en el que es difícil, peligroso o inconveniente para una persona viajar. Cuando trabajaba en el Laboratorio de Propulsión a Chorro de la NASA, a la gente de allí le gustaba pensar en sus naves espaciales y rovers como extensiones de los sentidos humanos. Otras aplicaciones y desarrollos de telepresencia incluyen que una agencia de noticias obtenga una mejor vista de un evento político, que un empresario se salte un vuelo largo asistiendo a una conferencia a través de un robot, la recopilación de datos de un científico o los principales sobrevivientes de un equipo de búsqueda y rescate a un lugar seguro.
Un miembro del equipo de Micro Vehículos Aéreos del Laboratorio de Investigación de la Fuerza Aérea (REUTERS / Skip Peterson) sostiene un modelo de un dron de la Fuerza Aérea de EE. UU. Del tamaño de un insecto.
Debido a la distancia, todas estas tareas requerirían interfaces de control remoto y modelos para una autonomía compartida. La decisión de cuánta computación y control debe delegarse a la máquina (autonomía compartida) puede existir en una escala móvil entre diferentes robots. Exigir una mayor autonomía local por parte del robot sería importante cuando necesita una respuesta y un control rápidos, por ejemplo, para mantener la altitud, tiene un conocimiento único de su entorno local para poder, por ejemplo, orientarse hacia un sonido o está fuera del alcance de las comunicaciones. Asignar mayores niveles de control a la persona (o equipo de personas) puede ser una buena opción cuando la tarea requiere experiencia humana, el robot está a la vista o existen consideraciones de responsabilidad. Incluso los rovers de Marte tienen salvaguardias que les impiden completar sus órdenes en presencia de un obstáculo o peligro inesperado, como, por ejemplo, el borde de un acantilado, dado que los operadores estarían demasiado lejos para comunicarse rápidamente con los robots.
para que es la luna
La ruptura de la autonomía es similar a la distinción en el cuerpo humano entre reflejos y decisiones cognitivas. Cuando tocas un quemador caliente, tu médula espinal envía una respuesta rápida para retirar tu mano sin consultar al cerebro. No lo piensas ni tomas la decisión de retirar tu mano. Simplemente sucede, una adaptación biológica para salvaguardar el organismo. De manera similar, en situaciones en las que los bucles de control no ocurren lo suficientemente rápido, la comunicación se interrumpe o en las que quisiéramos que el piloto supervisara a otros robots, podemos usar la autonomía compartida para hacer uso del conocimiento del operador sobre la prominencia y el objetivo sin sopesarlo. con las minucias de las tareas mecánicas confiables, como ejecutar una ruta de vuelo conocida.
El desafío de diseñar una interfaz para un sistema de este tipo es permitir un equilibrio entre las capacidades humanas y de la máquina que logre la tarea de manera efectiva sin sobrecargar al operador o sin alcanzar el objetivo. Una forma de permitir esto es adaptar la proporción de humanos a robots. Idealmente, los talentos humanos pueden complementar y mejorar el rendimiento de la máquina, pero esto solo funciona si no tienen que microgestionar a los robots. Para proporcionar un ejemplo de una aplicación con alta autonomía de robot, imagine a un geólogo que quiere usar media docena de robots voladores para reasignar una línea de falla después de terremotos para predecir mejor los daños futuros. Mediante el uso de un equipo de robots, este científico puede explorar con seguridad una gran franja de terreno, mientras que los robots se benefician del conocimiento del científico sobre la prominencia: ¿cuáles son las áreas para mapear, digamos, o las características particulares de la tierra que presentan peligro de colapso futuro?
La cuestión de la relación entre humanos y robots ha sido un problema en el despliegue militar de robots voladores, a menudo llamados drones. La carga cognitiva del operador influirá en el rendimiento de la tarea y la fatiga.
Los diseños que fomentan interfaces de control simples y averías de autonomía adecuadas pueden ayudar a gestionar la carga cognitiva del piloto, lo que permite la seguridad y una mejor toma de decisiones. La complejidad de la tarea, la precisión requerida y la salud del operador pueden ser factores en la regulación de cuáles deberían ser las asignaciones máximas para cada piloto. (También hay varios problemas sociales y de política en la selección de diseños de autonomía en este espacio, como la ordenanza en Colorado que busca legalizar los disparos de drones por el cielo.12.)
En las tareas de búsqueda y rescate, podría ser deseable un nivel mucho más bajo de autonomía del robot debido a la complejidad y el peligro potenciales. El diseño operativo debe reflejar una consideración primordial: la seguridad humana. En las implementaciones actuales, los operadores a menudo están en el sitio, utilizando los robots para obtener vistas aéreas que los humanos no pueden duplicar fácilmente. Eso significa que ellos mismos podrían enfrentar el peligro, por lo que en ciertos entornos, los equipos de investigación han tenido éxito con equipos de tres personas.13Mientras el piloto principal observa el punto de vista (transmisión de video) del robot y controla su movimiento, una segunda persona observa al robot en el cielo y le informa al piloto sobre los próximos obstáculos u objetivos que están fuera de la vista del robot. Un tercero actúa como oficial de seguridad, asegurándose de que los dos primeros no estén tan absortos en volar y observar al robot como para entrar en entornos peligrosos. La estandarización de las normas de seguridad para tales tareas, a medida que dichos sistemas se utilicen más ampliamente, podría salvar vidas.
Otra área de aplicación de los robots de telepresencia es la presencia remota, en la que una sola persona puede asistir a un evento remoto a través de un robot. Por ejemplo, en lugar de perderse una reunión importante, un empleado enfermo puede iniciar sesión en el robot de la oficina y llevarlo a la sala de conferencias. Una vez allí, podría ser más práctico (y natural) que el robot se localice y se oriente hacia quien esté hablando en ese momento utilizando su matriz de micrófonos, extendiendo la idea de autonomía local. Dichos comportamientos pueden mantener automáticamente a los otros oradores a la vista del usuario remoto, mientras muestran a los asistentes su atención. Mientras el usuario remoto habla, el robot puede hacer contacto visual automáticamente con los demás asistentes mediante su capacidad de rotación.
En lugar de perderse una reunión importante, un empleado enfermo puede iniciar sesión en el robot de la oficina y llevarlo a la sala de conferencias.
Nuestra respuesta social a las máquinas puede ser una ventaja para su impacto y usabilidad. En el ejemplo anterior, la presencia física del robot y tales movimientos naturales podrían impactar inconscientemente a los otros asistentes, dando como resultado una comunicación más efectiva e impactante de las ideas del usuario remoto. Además, cuando finaliza la reunión, el usuario remoto puede charlar con las personas cuando salen de la sala o acompañarlas mientras visitan la máquina de café al final del pasillo. Una máquina de este tipo podría ayudar a mostrar personalidad y presencia de una manera más natural que una simple llamada o una videoconferencia. Establecer confianza, discutir ideas y llevarse bien es una parte esencial de la productividad, y las interfaces de telepresencia se beneficiarán al incorporar ese conocimiento.
Una preocupación política de tener tales sistemas en el lugar de trabajo es la privacidad, ya sea de la propiedad intelectual discutida durante la reunión o de las imágenes capturadas por los colegas. Quizás los datos de video se eliminan una vez transmitidos y el uso del robot se basa en un acuerdo vinculante de no capturar los datos de video de forma remota. Para que un sistema de telepresencia mantenga su función social de empoderar al empleado enfermo, la empresa y los colegas deben saber que están a salvo del uso indebido de los datos del robot de la oficina, y deben existir políticas y protecciones firmes. Piense en las leyes de escuchas telefónicas.
El lugar de trabajo no es el único usuario potencial de los sistemas de presencia remota. Los investigadores de Georgia Tech han comenzado a investigar el potencial de uso de robots de telepresencia por parte de los ancianos.14Ya sea por discapacidad física o pérdida de percepción, como la vista, perder la licencia de conducir puede causar una pérdida traumática de la independencia a medida que se envejece. Una idea para contrarrestar esos sentimientos de aislamiento podría ser permitir que una persona mayor asista a eventos o visite a su familia por medio de un robot de telepresencia. Durante un estudio exploratorio, los investigadores descubrieron que, si bien los ancianos encuestados tuvieron una reacción muy negativa a la idea de que sus hijos pudieran visitarlos por medios robóticos, en lugar de venir en persona, la idea de tener un robot en el hogar de sus hijos que pudieran iniciar sesión a voluntad fue muy atractivo.
La diferencia, por supuesto, es que el primero podría aumentar su aislamiento social, mientras que el segundo ejemplo aumenta el sentido de libertad personal del usuario. Algunos participantes del estudio expresaron el deseo de simplemente dar un paseo al aire libre o asistir en persona a un concierto al aire libre. El truco aquí es utilizar dichas tecnologías de manera que protejan a las poblaciones a las que la tecnología debe apoyar, o alentar a los consumidores a casos de uso que puedan tener un impacto social positivo.
Reuters / Kim - Satsuko Yatsuzaka (84) sostiene un robot terapéutico llamado Paro en la casa de retiro de Suisyoen, a unos 30 km (19 millas) al sur de la planta nuclear dañada por el tsunami en Iwaki, prefectura de Fukushima.
Definamos los robots cotidianos como aquellos que trabajan directamente con las personas y comparten un entorno común. Desde Rosie the Robot hasta autómatas controlados a distancia en Walt Disney World, estos sistemas pueden capturar nuestra imaginación. También pueden ayudar a nuestros ancianos, ayudar a los trabajadores o proporcionar un enlace entre dos personas, como, por ejemplo, un oso de peluche robótico diseñado para ayudar a cerrar la brecha entre la enfermera y el niño en un entorno hospitalario intimidante.
Los diseños físicos y de comportamiento de dichos robots suelen estar especializados en un dominio en particular (los robots se desempeñan mejor en escenarios de tareas prescritos), pero pueden operar de manera flexible en ese espacio con ayuda humana; por ejemplo, el robot Baxter es un robot industrial que puede aprender fácilmente nuevas tareas y utiliza señales sociales. Debido a su estrecho contacto con las personas, la efectividad de los robots cotidianos requerirá un análisis del contexto social, la percepción de los compañeros de interacción humana y la generación de acciones socialmente apropiadas.
Desde juguetes robóticos hasta robots en el escenario, existe un gran potencial de mercado para los robots en aplicaciones de entretenimiento. Los robots pueden ser costosos; por lo tanto, es probable que exista una alta proporción de personas por robots para estas aplicaciones. El entretenimiento también puede proporcionar un beneficio cultural al ayudar a dar forma a lo que imaginamos que es posible. Los parques temáticos de Disney han incorporado durante mucho tiempo movimientos de personajes mecanizados en los juegos y atracciones del parque. Más recientemente, han comenzado a incluir robots controlados a distancia o parcialmente autónomos, como un dinosaurio robótico, un bote de basura amigable y una tortuga holográfica.
Puede que esté sesgado, pero también hay valor de investigación para colocar robots en contextos de entretenimiento. Piense en una audiencia de teatro que cambia de una noche a otra. Con las protecciones de privacidad adecuadas para los datos recopilados sobre la audiencia, el escenario puede proporcionar un entorno restringido para que un robot explore pequeñas variaciones de forma iterativa de una actuación a la siguiente, utilizando a los miembros de la audiencia como puntos de datos para el aprendizaje automático.15Cuando comencé a explorar con mi comediante robot, también puede ser más fácil para los robots interpretar los comportamientos sociales de la audiencia frente a los de una persona individual debido a las estadísticas agregadas (movimiento promedio, volumen de risa y similares) y las convenciones sociales conocidas (aplausos en el final de una escena).16
Incluso más allá de los algoritmos de aprendizaje automático, lo que vemos en las respuestas de la audiencia a los animadores de robots puede proporcionar información sobre otros robots colaborativos. En el contexto adecuado, un robot que reconoce sus errores con autodesprecio podría hacer que a la gente le guste más. En mi experiencia con la comedia de robots, a la gente le encanta escuchar a un robot compartir la perspectiva de una máquina: hablar sobre sus sistemas de percepción, las limitaciones de la velocidad de su procesador y la duración de la batería, y los motores sobrecalentados dan un sentido de realidad a una interacción. El valor común creado puede o no invertir a los socios humanos en el robot, pero definitivamente puede equipar a los socios de interacción con una mejor comprensión de las capacidades reales del robot, las limitaciones y el estado actual, particularmente si la información se entrega de manera carismática.
En el contexto adecuado, un robot que reconoce sus errores con autodesprecio podría hacer que a la gente le guste más.
Otro beneficio de incorporar la metodología de rendimiento y las colaboraciones en la investigación de robótica es lo que podemos aplicar de forma cruzada a partir de la formación actoral. No todos los robots hablan. Pero incluso sin verbalización, la gente predecirá la intención de un robot por sus acciones. El entrenamiento de actuación ayuda a conectar la motivación del agente con la fisicalidad y los gestos. Por lo tanto, adaptar la metodología en estos dominios podría ser particularmente beneficioso para el desarrollo de comunicaciones robóticas no verbales y también para la creación de personajes coherentes, comprensivos o personalizados para aplicaciones robóticas particulares.
Uno de los beneficios del rendimiento robótico es que crea una mayor comprensión de los niveles de comodidad humano-robótica, comprensión que luego se puede aplicar en otros lugares. Los robots que operan en espacios compartidos con humanos se benefician al aprender nuestros patrones y convenciones sociales. Un robot que entregue muestras en un hospital no solo necesitará navegar por los pasillos, sino que también necesitará saber cómo atravesar a las personas de una manera socialmente apropiada.
En un estudio que comparó los robots de parto en un hospital que operaban en una sala de cirugía con una sala de maternidad, el contexto social de su implementación cambió la forma en que las personas evaluaban el desempeño laboral del robot.17Mientras que los cirujanos y otros trabajadores del primero se sintieron frustrados porque los robots se interponían aunque sea un poco en el entorno de mayor estrés, los mismos robots en la sala de maternidad fueron calificados como muy efectivos y agradables. Aunque sus funcionamientos eran exactamente los mismos, el mismo sistema de comportamiento resultó en una respuesta humana muy diferente. Esto resalta la necesidad de personalizar el comportamiento y la función al contexto social y cultural.
Se podría decir que los vehículos autónomos ya están en funcionamiento en la mayoría de los aeropuertos. Los pilotos se encargan del despegue y el aterrizaje, pero en la parte menos desafiante del viaje, para la cual las personas tienen más dificultades para mantenerse alerta, un piloto automático suele estar a cargo a menos que suceda algo inusual. Los sistemas de metro japoneses también funcionan con un horario estándar con sensores para humanos en la puerta. En ambos sistemas, existe la opción para que los humanos asuman, reinicien o anulen las decisiones de la máquina, por lo que, en última instancia, estos son sistemas de autonomía compartida con una escala variable de toma de decisiones humana y mecánica.
Reuters / Stephen Lam - El vehículo autónomo de Google recorre el estacionamiento del Museo de Historia de la Computación después de una presentación en Mountain View, California, el 13 de mayo de 2014.
He oído a gente decir que una de las razones por las que los robots voladores se han vuelto tan populares es que tienen muy poco con qué chocar en el cielo. En otras palabras, la percepción de la máquina está lejos de ser perfecta, pero si un sistema se mantiene lejos del suelo, hay pocos obstáculos y puede depender mínimamente del respaldo humano. Pero, ¿qué sucede en el caso de los autos autónomos que navegan por entornos llenos de obstáculos rodeados de autos llenos de gente? Dichos entornos resaltan la importancia de las consideraciones de diseño que permiten, y las políticas regulatorias que requieren, que dichos vehículos aprendan, sigan y comuniquen las reglas de tránsito de una manera socialmente apropiada y efectiva.
Los automóviles autónomos han avanzado rápidamente en los últimos años. Sus beneficios inmediatos incluirían seguridad y conveniencia para el pasajero humano; Imagínese no tener que preocuparse por encontrar un lugar para estacionarse mientras hace un mandado, porque el automóvil puede estacionarse solo. Su uso habitual afectaría los cambios de infraestructura, ya que los estacionamientos podrían estar más alejados de un evento y las reglas de tráfico podrían seguirse de manera más universal. De alguna manera, los sistemas semiautónomos proporcionan un atajo claro para los responsables de la formulación de políticas para las consideraciones de responsabilidad. Al mantener a un humano al tanto, la falla en el caso de una mala toma de decisiones que conduzca a un accidente se vuelve más fácil de asignar.
Sin embargo, lo que se volverá cada vez más complicado es la idea de cambiar la distribución de la toma de decisiones, de modo que el vehículo no solo esté a cargo de la mecánica de trabajo (extrayendo energía de su combustible y transfiriendo el movimiento del volante al ángulo del volante), sino también para conducir (decidir cuándo acelerar o quién va primero en una intersección). Ya tenemos autos con frenos antibloqueo, control de crucero y funciones de detección de distancia. La próxima generación de automóviles inteligentes cambiará la proporción de autonomía compartida de centrada en el ser humano a centrada en el robot. Los pasajeros o un conductor humano proporcionarán directivas de nivel superior (elegir el destino, solicitar una ruta diferente o pedirle al automóvil que se detenga abruptamente cuando alguien se da cuenta de un restaurante que le gustaría probar).
La tecnología de los vehículos debe diseñarse para empoderar a las personas. Puede ser tentador observar las crecientes estadísticas de accidentes debido a los mensajes de texto mientras se conduce y prohibir a los humanos conducir por completo, pero asociarse con la tecnología podría proporcionar una mejor solución. Si el conductor humano se distrae, un sistema robótico podría suavizar las trayectorias y mantener la seguridad, al igual que un robot quirúrgico puede eliminar los temblores de la mano humana. El automóvil podría usar técnicas de reconocimiento de patrones o incluso un alcoholímetro incorporado para detectar la embriaguez con una alta probabilidad y asegurarse de que los pasajeros que están adentro lleguen a casa de manera segura. Incluso sin esa tecnología, es posible que deshabiliten la función del automóvil hasta que estén en mejores condiciones para conducir.
Las consideraciones de seguridad adicionales incluyen los modos de precisión y falla de los sistemas de percepción de vehículos. Deben cumplir con altos estándares para asegurarse de que los sistemas automatizados realmente brinden un beneficio general. Las empresas que fabrican los vehículos deben estar reguladas como con cualquier tecnología de consumo, pero los clientes pueden controlar las variables locales. Si los pasajeros tienen prisa, ¿serán capaces de aumentar la agresividad del automóvil, arrastrándose hacia la intersección, a pesar de que ese Honda Civic probablemente llegó un segundo antes que nosotros?
Con un usuario modificando variables locales o reprogramando ciertas estrategias de conducción, quién es realmente el creador de la tecnología puede convertirse en un objetivo en movimiento. A veces ocurren accidentes, y aunque los autos no pueden ser demandados en los tribunales, un fabricante puede hacerlo. Por lo tanto, los formuladores de políticas deben repensar las preocupaciones sobre la responsabilidad con miras a la seguridad y el beneficio social.
rey carlos i ejecución
Otra consideración interesante es la interfaz social entre automóviles autónomos y automóviles con conductores humanos. Los estilos particulares de conducción robótica podrían adaptarse mejor a la aceptación y la bienvenida humanas. ¿Se sentirían molestos los pasajeros si sus automóviles insistieran en seguir los límites de velocidad establecidos en lugar de conducir a la velocidad predominante del tráfico? Si compartimos la carretera, ¿querríamos que fueran serviles, dando siempre el paso a los conductores humanos? Estas son consideraciones que podemos evaluar directamente utilizando las herramientas de Robótica Social, evaluando sistemas con características de comportamiento variadas utilizando humanos reales como muestras de estudio. A veces, estos estudios tienen resultados no intuitivos. Podríamos encontrar que lo que se suponía que era una vacilación cortés podría interpretarse como falta de confianza y podría hacer que otros conductores cuestionen las capacidades del automóvil autónomo, sintiéndose menos seguros en su vecindad. La aplicación de la ley de tráfico para vehículos autónomos podría ser más severa para enviar un mensaje a los fabricantes, o más indulgente porque los oficiales asumen que las transgresiones fueron el resultado de errores computacionales, en lugar de violaciones intencionales.
Como se destaca en los ejemplos anteriores, cuando colocamos robots en entornos humanos compartidos, las atribuciones sociales se vuelven relevantes para la bienvenida y la eficacia del robot debido a lo que comunican y las reacciones que provocan. Los peatones con frecuencia hacen contacto visual con los conductores antes de cruzar una calle. Un automóvil autónomo también debería poder señalar su conciencia, ya sea haciendo parpadear sus luces o con alguna interfaz adicional para las comunicaciones sociales.
Un robot también debería poder comunicarse con patrones de movimiento reconocibles. Si un conductor no puede entender que un vehículo robótico quiere adelantarlo en la carretera, es posible que no cambie de carril. Si el vehículo autónomo viaja demasiado cerca de alguien, esa persona podría enojarse e intentar bloquear su paso viajando junto a un vehículo en el siguiente carril. Tal comportamiento del conductor de forma aislada puede parecer irracional o demasiado emocional, pero en realidad refleja reglas y marcos sociales conocidos que las máquinas necesitarán al menos aproximarse antes de que puedan esperar compartir con éxito nuestras carreteras.
Esta próxima generación de robótica se beneficiará de la formulación de políticas proactiva y del diseño ético informado. La asociación humana con robots es lo mejor de ambos mundos: acceso profundo a la información y capacidad mecánica, así como pensamiento sistémico de alto nivel, capacidad para lidiar con fenómenos nuevos o inesperados y conocimiento de la prominencia humana. En última instancia, no habrá un conjunto único de reglas para los robots colaborativos. La necesidad de sistemas de personalización y comportamiento individualizado se producirá tanto porque es lo que queremos (demanda del consumidor) como porque funciona mejor. Seguirán apareciendo nuevas aplicaciones e innovaciones.
Las capacidades únicas de humanos y máquinas se complementan entre sí, como ya hemos visto con la proliferación de dispositivos móviles. Al extender este potencial de diseño a máquinas incorporadas socialmente inteligentes, el buen diseño y las políticas públicas pueden respaldar esta asociación simbiótica al valorar específicamente la capacidad humana, manteniendo la consideración de los objetivos sociales y el impacto humano positivo. Desde consideraciones de costumbres locales hasta respuestas humanas naturales a acciones similares a agentes, existen profundas consideraciones culturales que impactan en la aceptación y efectividad de los equipos humano-robot. A medida que los investigadores de robótica social aumentan su comprensión de la respuesta cultural humana a los robots, ayudamos a revelar las líneas rojas culturales que los diseñadores en primera instancia y los responsables políticos en el futuro deberán tener en cuenta.
Los legisladores pueden tomar mejores decisiones para aliviar la ansiedad humana y facilitar una mayor aceptación de los robots.
Al comprender mejor las consideraciones de diseño de los robots colaborativos, los legisladores pueden tomar mejores decisiones para aliviar la ansiedad humana y facilitar una mayor aceptación de los robots. Las regulaciones que fomentan y protegen el buen diseño influirán en si los usuarios querrán mantener a los humanos al mando, como en los sistemas de telepresencia, unir fuerzas en entornos colaborativos compartidos o entregar la toma de decisiones mientras viajan en un vehículo autónomo. Las interfaces claras y los comportamientos legibles pueden ayudar a los socios humanos a comprender o dirigir mejor las acciones del robot. Los sistemas de percepción mejorados y confiables ayudarán a las máquinas a tener una autonomía local confiable e interpretar los comportamientos y reacciones naturales de sus socios humanos. El objetivo es crear pautas que permitan que la robótica social y colaborativa prospere, explorando de manera segura su potencial para impactar positivamente nuestras vidas.
Caballero del brezo es candidata a doctorado en Carnegie Mellon y fundadora de Marilyn Monrobot, que produce comedias de robots y un Robot Film Festival anual. Su investigación actual involucra la interacción humano-robot, las comunicaciones no verbales de la máquina y los robots sociales no antropomórficos.