Los robots y la Inteligencia Artificial (IA) nos rodean desde hace tiempo: piense en su aspiradora «inteligente», Alexa o Siri y el asistente electrónico que enciende las luces de casa
Pero, a medida que crecen las actividades que se realizan con IA, algunos expertos advierten sobre las consecuencias «sociales» de ese desarrollo. Y una científica israelí incluso descubrió que los robots nos pueden hacer enojar, poner tristes y hasta herir el orgullo.
Las personas, explicó la doctora Hadas Erel, jefa de Investigación de Interacción Social Humano-Robot de la Universidad Reichman, en Herzlia, «tenemos la tendencia a percibir el mundo a través de una lente social, por lo que humanizamos todo».
Erel puso como ejemplo la aspiradora robot, que «limpia tu casa, no está diseñada para la interacción social en absoluto, y aún así, sientes que te sigue». No solo eso: «más del 70 por ciento de las personas le pone nombre», señaló la académica israelí.
Los robots «pueden causar daño involuntario a la psique de una persona»
Citada por el portal de noticias tecnológicas NoCamels, la profesora recordó, por si es necesario, que ese robot «es una entidad, no crees que sea humana, sabes que no es humana y no está tratando de ser humana, pero igualmente mantienes una relación con tu aspiradora».
También le puede interesar: Investigan en Israel cómo «controlar» la Inteligencia Artificial
En un experimento del laboratorio que dirige Erel, conocido como Milab, algunos voluntarios «se molestaron tanto cuando un robot los ‘ignoró’ que ya no pudieron hablarle», apuntó el artículo del portal.
Los robots, añadió la nota, «pueden causar daño involuntario a la psique de una persona», y como ejemplo describió otro experimento, en el que los voluntarios probaban si esas máquinas «podían influir en su disposición» a vivir «nuevas experiencias o iniciar nuevas relaciones».
Así fue que dos grupos de varias personas pasaron dos minutos sentados a solas con un robot, «contándole sus planes futuros».
El robot que «escuchó» a los voluntarios del primer grupo había sido programado para «inclinarse, mirar y asentir mientras hablaban, todos gestos muy importantes en las interacciones humanas», dijo Erel.
En cambio, cuando llegó el turno de los miembros del segundo grupo, el robot «miraba a la pared» e «ignoraba» a esas personas que le estaban confiando sus pensamientos.
«Las personas pueden hacer mal uso de los robots de muchas maneras»
Luego, siempre como parte del estudio, los investigadores descubrieron que los participantes del primer grupo, los que recibieron una respuesta «positiva» del robot, aceptaron sugerencias de probar nuevas frutas, «comprar muebles inusuales o hablar con personas desconocidas».
Para seguir leyendo: Crearon en Israel un robot que puede «oler» (utilizando un biosensor)
Pero los voluntarios del segundo grupo, los «ignorados» por el robot, «no mostraron ningún interés en nuevos alimentos, muebles o personas», relató el artículo.
Los «ignorados» sabían que era una máquina, pero algunos de ellos «simplemente no podían seguir hablando -contó Erel-. Fue una interacción negativa muy intensa, una interacción de dos minutos con el robot que tuvo un impacto poderoso en los participantes», reveló la la profesora.
Se puede «diseñar tecnología a nuestro alrededor que será súper inteligente y se supone que es útil -concluyó Erel-, pero que hará que las personas se sientan muy rechazadas».
Hablando con la revista estadounidense Slate, Erel dijo que, en general, «la gente puede ponerse mal por muchas razones».
En esta época, «claramente las personas pueden hacer mal uso de los robots de muchas maneras, como hacemos mal uso de otras tecnologías de muchas maneras».
«Espero que no hagan eso» con los robots en el futuro, cuando sean todavía una presencia más masiva en la vida de los seres humanos, completó.