El miedo al robot perfecto
David Hanson es un ex-trabajador de Disney especializado en animatrónica que ha diseñado algunos de los robots más realistas del mundo. Sus creaciones son famosas en todo el planeta por el increíble parecido que pueden llegar a tener con una persona real. Ahora, la Universidad de Bristol ha creado un sistema que permite a uno de sus robots —Jules- copiar las expresiones de quien se pone frente a él.
Con 34 motores instalados bajo la piel Jules puede llegar a ser increíblemente convincente. Su truco más famoso es copiar las expresiones de actores y personas que ve en los vídeos y puede hacerlo a gran velocidad -25 veces por segundo-. En la web de New Scientist hay dos vídeos más en los que se puede ver el robot en funcionamiento. La imitación de expresiones es una característica muy importante para robots que interactúan con humanos, contribuye a hacer creíble un mensaje. No hace falta ser un genio para darse cuenta de que es muchísimo más gratificante hablar con Jules que hablarle al aspirador robótico de casa —que además no responde-.
Jules es muy realista, pero aún no es perfecto. Y eso es un problema. Como señalan en New Scientist los robots con facciones realistas pueden conseguir a menudo el efecto opuesto al que buscan. La expresión facial es una parte tan importante de la comunicación no verbal que cuando no se imita a la perfección provoca una sensación inquietante. "Los estudios nos dicen que cuando un robot tiene demasiados rasgos humanos y trata de imitar el comportamiento de las personas con elevado realismo la gente puede reaccionar de forma negativa", dice Kerstin Dautenhahn, experta en robótica de la Universidad de Hertfordshire.
Dautenhahn, que dice estar impresionada con la expresividad de Jules propone una interesante reflexión. Al exponer un robot que parece humano y actúa como tal ante niños o ancianos, estos pueden llegar a asumir que se trata de una máquina que también tiene sentimientos e incluso se puede dar el caso de que desarrollen vínculos afectivos. ¿Es ético tratar de crear un robot que "engañe" a personas vulnerables?¿Debemos crear entonces robots que tengan rasgos diferentes de los humanos?
David Hanson es un ex-trabajador de Disney especializado en animatrónica que ha diseñado algunos de los robots más realistas del mundo. Sus creaciones son famosas en todo el planeta por el increíble parecido que pueden llegar a tener con una persona real. Ahora, la Universidad de Bristol ha creado un sistema que permite a uno de sus robots —Jules- copiar las expresiones de quien se pone frente a él.
Con 34 motores instalados bajo la piel Jules puede llegar a ser increíblemente convincente. Su truco más famoso es copiar las expresiones de actores y personas que ve en los vídeos y puede hacerlo a gran velocidad -25 veces por segundo-. En la web de New Scientist hay dos vídeos más en los que se puede ver el robot en funcionamiento. La imitación de expresiones es una característica muy importante para robots que interactúan con humanos, contribuye a hacer creíble un mensaje. No hace falta ser un genio para darse cuenta de que es muchísimo más gratificante hablar con Jules que hablarle al aspirador robótico de casa —que además no responde-.
Jules es muy realista, pero aún no es perfecto. Y eso es un problema. Como señalan en New Scientist los robots con facciones realistas pueden conseguir a menudo el efecto opuesto al que buscan. La expresión facial es una parte tan importante de la comunicación no verbal que cuando no se imita a la perfección provoca una sensación inquietante. "Los estudios nos dicen que cuando un robot tiene demasiados rasgos humanos y trata de imitar el comportamiento de las personas con elevado realismo la gente puede reaccionar de forma negativa", dice Kerstin Dautenhahn, experta en robótica de la Universidad de Hertfordshire.
Dautenhahn, que dice estar impresionada con la expresividad de Jules propone una interesante reflexión. Al exponer un robot que parece humano y actúa como tal ante niños o ancianos, estos pueden llegar a asumir que se trata de una máquina que también tiene sentimientos e incluso se puede dar el caso de que desarrollen vínculos afectivos. ¿Es ético tratar de crear un robot que "engañe" a personas vulnerables?¿Debemos crear entonces robots que tengan rasgos diferentes de los humanos?
Vie 24 Mar 2023 - 17:25 por alma14
» Felices fiestas
Sáb 25 Dic 2021 - 7:00 por alma14
» Excedencia y posterior pedida de la habilitación
Sáb 25 Dic 2021 - 6:57 por alma14
» BAJA
Vie 15 Oct 2021 - 17:51 por Invitado
» Limpieza total
Mar 11 Ago 2020 - 17:45 por cliper91
» Juicio y vacaciones
Lun 10 Ago 2020 - 23:53 por alma14
» Necesito ayuda sobre el tema de requisitos de Escolta Privado
Lun 11 Mayo 2020 - 12:45 por escolta63
» que es un impacto negativo
Lun 11 Mayo 2020 - 12:43 por escolta63
» pregunta temario escolta
Lun 11 Mayo 2020 - 12:39 por escolta63
» Artículo de Alba
Lun 11 Mayo 2020 - 8:52 por alma14
» El TSJC rechaza el despido de dos gerocultoras por negarse a preparar medicación
Mar 25 Feb 2020 - 14:21 por alma14
» Comparativa Sueldos Vigilantes USA vs Alemania vs Francia vs España Por Toni -
Lun 24 Feb 2020 - 11:10 por alma14
» La empresa no puede exigir recuperar los días de asuntos propios
Lun 2 Dic 2019 - 17:05 por alma14
» El despido durante la baja médica ya es despido nulo
Lun 2 Dic 2019 - 16:49 por alma14
» Permiso retribuido en elecciones generales
Dom 3 Nov 2019 - 10:06 por alma14
» Venta de Corsys de Seguridad
Jue 12 Sep 2019 - 13:56 por popazo09
» Vigilantes barcelona
Miér 10 Jul 2019 - 15:34 por Iliess
» Infarto como accidente de trabajo
Mar 9 Jul 2019 - 19:54 por alma14
» convenio 2021
Mar 9 Jul 2019 - 19:46 por errnovato
» Tiempo TIP
Mar 9 Jul 2019 - 19:19 por alma14