• Descarga | Suscripciones en iVoox / Apple Podcasts / Spotify / Google Podcasts •
Juegos Robótica episodio 37. Dotando de vida a un robot.
Bienvenidos a Juegos Robótica, el podcast en el que hablamos de robótica educativa, iniciación a la programación, aplicaciones para docentes, entornos de programación para niños y en general todo lo que tiene que ver con despertar la curiosidad de los más jóvenes por la programación y la tecnología para que se conviertan en creadores y no en meros consumidores.
Como ya sabes este podcast es un reflejo sonoro de los contenidos y cursos que puedes encontrar en juegosrobotica.es
Y recuerda que si quieres aprender a programar a través de la robótica o quieres formarte para enseñar a programar puedes darle un vistazo a nuestra plataforma de cursos y acceder a la formación online más completa con robótica educativa aprendiendo desde la base y a tu ritmo.
Tras el último reto que hemos resuelto dotando de mirada a un robot utilizando la representación de unos ojos en una matriz de LEDs sois varios los que nos habéis comunicado que os ha gustado el tema del pestañeo.
El objetivo del reto era que el robot siguiera con la mirada un objeto que se le presentara delante y que se moviera lateralmente. Técnicamente se podía resolver midiendo la posición exacta del objeto y representando tres posiciones de ojos y pupila para que el robot pudiera mirar de frente o hacia cada uno de los lados.
Sin embargo lo que más ha llamado la atención es que hiciéramos que el robot pestañeara aleatoriamente dando una sensación de humanidad imitando nuestra necesidad de cerrar los párpados frecuentemente.
Desde tiempos inmemoriales el hombre ha intentado dotar de vida a seres inertes y en robótica hay toda una rama que intenta asemejar los robots al comportamiento humano.
Estamos muy lejos de alcanzar una inteligencia artificial que se acerque mínimamente a la del ser humano, y sigue siendo implanteable que una máquina o robot pueda tener sentimientos como plantean algunas películas.
El hecho de que no podamos dotar a los robots de sentimientos no significa que no podamos programar una sensación de humanidad.
Desde hace miles de años los constructores de autómatas mecánicos han intentado engañar mediante su ingenio, dotando de habilidades humanas, incluso a veces sobre humanas, a sus construcciones.
Es conocido que en la antigüedad varias estatuas de dioses o reyes asustaban a quienes las contemplaban expulsando fuego a través de sus ojos, como era el caso de la estatua de Osiris.
Otras estatuas estaban dotadas de controles para que los sacerdotes pudieran hacer que se movieran de manera remota.
La estatua de Memon en Etiopía emitía sonidos sin la ayuda de la intervención humana por medio de un sistema termodinámico al recibir los rayos del sol.
Herón de Alejandría, que vivió entre el año 10 y el 70, describió decenas de este tipo de artilugios que normalmente se diseñaban para el entretenimiento, pero también para el asombro en algunos cultos religiosos.
El siglo XVIII fue el siglo de oro para los autómatas mecánicos que buscaban una representación humana o animal que pareciera tener vida propia.
Tal y como se muestra en la recomendable película “La invención de Hugo” estos artefactos solían ser construidos por maestros relojeros que tenían las herramientas y conocimientos para diseñar complejos sistemas mecánicos.
Aunque la fantasía nos pueda transmitir el asombro de quienes creían ver vida en estos autómatas con forma humana, sabemos que eran máquinas con sistemas de control específicos para simular comportamientos humanos, pero que lógicamente carecían de inteligencia y por supuesto de vida propia.
Con la aparición en esa época de auténticas maravillas automáticas fueron varios los magos e ilusionistas que dieron un paso más allá y combinaron los autómatas con auténticos fraudes en los que por ejemplo un autómata cantante escondía en su interior una cantante de carne y hueso.
Este tipo de fraudes no deben hacernos dudar de que hubieron auténticos autómatas mecánicos que maravillaron a las gentes del siglo XVIII puesto que existe amplia documentación además de conservarse muchos de ellos en museos como los de el Centro Internacional de Mecánica del Arte en Suiza.
Aunque no siempre es lo más práctico los desarrolladores siguen buscando diseños de robots androides de apariencia antropomorfa.
El término androide aparece por primera vez de puño y letra de alberto Magno en 1270 y popularizado en la novela de 1886 “La Eva futura”.
Como decía es poco práctico diseñar un robot que se desplace a través de dos patas o piernas, pero nos parece que tiene más “vida” un robot bípedo que uno con ruedas u orugas para desplazarse.
Si conseguimos toda la representación humana tendremos un robot que a nuestros ojos estará muy cerca de la vida, y en esa pelea han estado muchas empresas durante muchos años como Honda y su famoso Asimo.
Otra vía para conseguir hacer ver que el robot tiene vida es intentar mostrar sentimientos o conductas humanas o animales aunque no tenga forma de humanoide.
El éxito de Tamagotchi, la primera mascota virtual de masas aparecida en los años 90 y de la que se vendieron millones de unidades, vino dado por la capacidad de transmitir sentimientos vitales.
Los usuarios aunque eran conscientes de que tenían una fría máquina empatizaban con la mascota, a la que protegían y cuidaban para que no sufriera.
Racionalmente, y en un podcast técnico como este, podemos entender que no tiene sentido que alguien pueda ver sentimientos o vida en un Tamagotchi, pero lo cierto es que siguen habiendo usuarios de esta mascota virtual que comercializa Bandai.
El cierre de Tama Town, la comunidad virtual de usuarios de Tamagotchi, seguro ha provocado más de una depresión.
La cuestión es que podemos simular sentimientos o estados de ánimo en un robot aunque evidentemente el robot no pueda sentir, y podemos dotarle de cierta humanidad con expresiones y movimientos corporales.
Las expresiones faciales son las más efectivas para transmitir sentimientos y estados de ánimo, por eso diferentes robots comerciales prestan atención en la mirada y la representación facial.
El robot Aisoy, por ejemplo, intenta potenciar la expresión facial a través de los ojos, la posición de las cejas y la postura de la boca.
Es un robot que debe ser capaz de mostrar emociones, aunque sean programadas, para interactuar con los niños y que puedan trabajar la inteligencia emocional, que es una de sus finalidades.
Aisoy es un robot comercial que cuenta con otras muchas funciones pero cuyo valor diferenciador es poder mostrar emociones.

El hecho de no llegar a ser una persona real sino un robot que puede mostrar emociones cercanas a las humanas, le ha convertido en una herramienta muy práctica en niños del espectro autista.
Con un kit de robótica educativa generalista podemos conseguir dotar de esas expresiones o sentimientos a nuestro robot a través de pantallas LCD o matrices de LEDs.
En el reto 56 que comentaba simplemente hacíamos parpadear a nuestro robot, pero de la misma manera podríamos generar un catálogo completo de expresiones faciales o miradas que expresen diferentes sentimientos.
Enfado, tristeza, alegría, sorpresa, y otros muchos sentimientos se pueden expresar personalizando la mirada del robot.
Incluir en la representación de la mirada la posición de las cejas ayudará mucho a reforzar el mensaje, y si de alguna manera podemos representar la posición de la boca o labios sería perfecto para completar la expresión facial.
Si sois profesores no dejéis de trabajar la inteligencia emocional con la ayuda de vuestro kit de robótica educativa.
Un grupo que esté trabajando la programación en secundaria podría diseñar los robot emocionales y en el propio diseño ya estarían trabajando con sus propias emociones y las de sus compañeros.
Los robots resultado de ese proyecto se utilizarían como herramienta para ayudar a los maestros de primaria que quieran trabajar la inteligencia emocional de sus alumnos.
Y a nivel más personal puede que quieras crear una mascota virtual, similar a lo que propone el campeonato STEAM Challenge.
Para plantearse una mascota virtual hay que programar el control de ciertas cuestiones vitales básicas como que la mascota descanse, se alimente o tenga una higiene como ocurre con un Tamagotchi.
Pero si acompañas toda esa parte de juego con una expresión que permita mostrar los sentimientos que tiene la mascota será mucho más vistosa y alcanzarás más empatía hacia tu mascota.
Una vez programada la colección de expresiones que mostrará un listado de emociones lo complicado es programar el robot para que muestre esas emociones cuando realmente las tiene que mostrar.
Aquí no hay magia y de la misma manera que en el resto objetivos que nos marcamos con programación y robótica debemos ayudarnos de sensores y definir una serie de algoritmos que den como resultado las expresiones diseñadas gráficamente.
Es decir, esas expresiones funcionan como cualquier actuador de nuestro robot, de la misma forma que movemos un motor, hacemos sonar un pitido o damos color a un LED.
Como siempre comentamos un mayor número de sensores, de diferentes tipos, nos va a permitir tener una mejor lectura por parte del robot del mundo que le rodea y de esa forma poder generar los algoritmos que permitan un mejor resultado final.
En el ejemplo del reto 56 con un único sensor de ultrasonidos conseguimos saber la posición lateral de un objeto situado a la altura de los ojos del robot, pero con otro sensor adicional podríamos situar el objeto en dos dimensiones.

A través de visión artificial con una única cámara también conseguiríamos ese análisis en dos dimensiones por ejemplo, además de conseguir otros datos como la forma del objeto o el color.
La manera en la que más nos estamos acercando al comportamiento humano es a través de la inteligencia artificial, y también en ese campo se pueden hacer cosas a nivel de iniciación, pero lo dejaremos para un próximo episodio del podcast.
Espero tus comentarios si quieres algún ejemplo en los retos o los cursos de Juegos Robótica que tengan que ver con la expresión facial y los sentimientos en los kits que utilizamos habitualmente.
Nos escuchamos en un próximo episodio analizando otras cualidades humanas en robots, probando un kit de robótica educativa, hablando de entornos de programación, repasando algún accesorio o cualquier otra herramienta que nos ayude en el aprendizaje de la programación y la robótica.
Hasta entonces disfruta creando, programando y aprendiendo, nos escuchamos en las próximas semanas… adiós!
Deja una respuesta