Knepper examina las emociones detrás de los humanos
Cuando los robots se vuelvan comunes en nuestros hogares y lugares de trabajo, ¿cómo nos relacionaremos con ellos? ¿Los trataremos con dignidad y respeto o los consideraremos ciudadanos de segunda clase? ¿Podríamos desarrollar relaciones emocionales con ellos?
"Los ingenieros tenemos el deber de planificar esto", dice Ross Knepper, profesor asistente de informática. Knepper abordó la cuestión en una conferencia, "Autonomía, encarnación y antropomorfismo: la ética de la robótica", el 24 de abril, parte de una serie semanal sobre "El surgimiento de las máquinas inteligentes: desafíos y oportunidades".
Los robots con los que nos encontremos estarán "encarnados": hay una máquina parada allí; no es solo la voz incorpórea de una inteligencia artificial corriendo en una caja. Y serán "autónomos", tomando sus propias decisiones sobre qué hacer: no estás controlando la máquina con un joystick. (Esto no es libre albedrío, enfatizó Knepper; dado que el robot está siguiendo su programación, lo que ves es una "operación humana en diferido").
Pero como resultado de esta combinación nos antropomorfizamos, respondiendo al robot como si fuera humano.
Knepper ha construido pequeños robots que ensamblan muebles de Ikea. Parte de su programación es pedir ayuda a un ser humano cuando sea necesario: "Ubique el número de pieza F-13". Descubrió que cuando esto sucede, los visitantes de su laboratorio conversarán con los robots como si fueran niños pequeños.
Algunas personas pintan caras en sus aspiradoras robot Roomba. Los robots hechos con forma de perros o animales de peluche a veces provocan las mismas respuestas que los animales reales.
El elefante en la habitación resulta ser un robot sexual (recientemente introducido en Japón). En las encuestas, mucha gente piensa que esto es algo bueno, para reducir la prostitución y prevenir la propagación de enfermedades de transmisión sexual. Pero la mayoría está de acuerdo en que estos robots no deberían expresar emociones.
Independientemente de los tipos de robots involucrados, es posible que nos encontremos en el "valle inquietante", a menudo una preocupación de los creadores de películas animadas, donde algo que parece muy parecido a un humano pero no perfecto despertará inquietud o incluso repugnancia.
Knepper abrió con el video actualmente viral de una niña hablando con un calentador de agua, pensando que era un robot. Ella termina abrazándolo. Pero luego estaba el "Hitchbot", un robot que fue enviado para tratar de hacer autostop a través de los Estados Unidos pero terminó destrozado. "Un experimento en la humanidad que fracasó", dijo Knepper.
El futuro puede depender de cómo los ingenieros enseñen a los robots a comportarse, pero la conclusión, dijo Knepper, es: "La forma en que tratamos a los robots refleja la forma en que tratamos a las personas".
No es solo un problema para los ingenieros.
La serie de conferencias, aunque abierta al público, es parte de un curso, CS 4732, "Cuestiones éticas y sociales en IA".
Reciba las noticias de Cornell directamente en su bandeja de entrada.