La mentira y el engaño son a menudo vistos como indicadores de inteligencia avanzada, ya que requieren la capacidad de comprender la verdad para manipularla. En el contexto del futuro cercano, ¿hasta dónde podrían llegar los robots con inteligencia artificial (IA) en su interacción con los humanos?

¿Aceptaremos robots que puedan mentir? Los científicos revelan que depende del tipo de mentira

Crédito: MysteryPlanet.com.ar.

La honestidad es la mejor política... la mayor parte del tiempo. Las normas sociales ayudan a los humanos a entender cuándo debemos decir la verdad y cuándo no, ya sea para evitar herir los sentimientos de alguien o para prevenir un daño. Pero, ¿cómo se aplican estas normas a las inteligencias artificiales que cada vez están más presentes en nuestra cotidianidad?

Un ejemplo que ilustra bien esta cuestión ocurrió recientemente, cuando el youtuber Alex O'Connor mantuvo un interesante intercambio con la última versión de ChatGPT (hasta la fecha de esta publicación). Al preguntarle si realmente sentía arrepentimiento al disculparse, el asistente de IA simplemente respondió: «No». Y es que este modelo de lenguaje utiliza expresiones como «lo siento» solo para suavizar la situación, no porque realmente sienta algo.

Ante esta respuesta, O'Connor replicó: «Entonces, no eres consciente, pero eres un mentiroso, ¿verdad?». ChatGPT respondió: «Sí».

Esto pone de manifiesto que, a medida que avance esta tecnología y, por ejemplo, se introduzca en robots humanoides que interactúen con nosotros en muchos aspectos de nuestras vidas, estaremos expuestos a que no solo los humanos nos mientan y manipulen.

Engaño robótico

Para entender si las personas pueden aceptar que los robots mientan, los científicos pidieron a casi 500 participantes que evaluaran y justificaran diferentes tipos de engaño robótico.

«Quise explorar un aspecto poco estudiado de la ética robótica, para contribuir a nuestra comprensión sobre la desconfianza hacia las tecnologías emergentes y sus desarrolladores», comentó Andrés Rosero, candidato a doctorado en la Universidad George Mason y autor principal del estudio publicado en Frontiers in Robotics and AI. «Con el surgimiento de la inteligencia artificial generativa, sentí que era importante empezar a examinar posibles casos en los que el diseño y comportamiento antropomórficos pudieran ser utilizados para manipular a los usuarios».

Tres tipos de mentiras

Los científicos seleccionaron tres escenarios que reflejan situaciones donde los robots ya trabajan: el ámbito médico, la limpieza y el comercio minorista, junto con tres tipos de comportamiento engañoso. Estos fueron: engaño sobre el estado externo, donde el robot miente acerca del mundo que lo rodea; engaño sobre el estado oculto, en el que el diseño del robot oculta sus capacidades; y engaño sobre el estado superficial, donde el diseño del robot exagera sus capacidades.

En el escenario de engaño sobre el estado externo, un robot que cuida a una mujer con Alzheimer le miente diciéndole que su difunto esposo volverá pronto a casa. En el escenario de engaño sobre el estado oculto, una mujer visita una casa donde un robot está limpiando, sin saber que también está grabando. Finalmente, en el escenario de engaño superficial, un robot que trabaja en una tienda, como parte de un estudio sobre relaciones humano-robot, se queja falsamente de sentir dolor al mover muebles, lo que lleva a una persona a pedir a otro que lo reemplace.

La maraña que tejemos

Los científicos les pidieron a los participantes del experimento que leyeran uno de los escenarios, respondiendo posteriormente un cuestionario. Se les preguntó si aprobaban el comportamiento del robot, cuán engañoso les parecía, si el engaño se podía justificar y si había alguien más responsable del mismo. Las respuestas fueron codificadas por los investigadores para identificar temas comunes y luego analizadas.

Los participantes desaprobaron en su mayoría el engaño sobre el estado oculto, considerando al robot limpiador con la cámara oculta como el más engañoso. Aunque consideraron que los engaños sobre el estado externo y el estado superficial eran moderadamente engañosos, desaprobaron más el engaño superficial, donde un robot fingía sentir dolor, ya que percibieron esto como manipulativo.

El comportamiento más aprobado fue el engaño sobre el estado externo, en el que el robot mentía a una paciente. Los participantes justificaron esta acción afirmando que protegía a la paciente de un dolor innecesario, priorizando la norma de proteger los sentimientos de alguien sobre la honestidad.

Crédito: A. Rosero et al.

El fantasma en la máquina

Aunque los participantes pudieron justificar, en cierta medida, los tres tipos de engaño —por ejemplo, algunos sugirieron que el robot limpiador podría estar grabando por motivos de seguridad—, la mayoría declaró que el engaño sobre el estado oculto no tenía justificación. De manera similar, cerca de la mitad de los participantes que evaluaron el engaño superficial dijeron que tampoco se podía justificar. Además, tendieron a culpar a los desarrolladores o dueños de los robots por estos engaños inaceptables, especialmente en el caso del engaño sobre el estado oculto.

«Deberíamos preocuparnos por cualquier tecnología capaz de ocultar la verdadera naturaleza de sus capacidades, ya que podría llevar a los usuarios a ser manipulados de formas que ni ellos ni, tal vez, los desarrolladores habían previsto», advirtió Rosero. «Ya hemos visto ejemplos de empresas que utilizan principios de diseño web e inteligencia artificial para manipular a los usuarios hacia ciertas acciones. Necesitamos regulaciones para protegernos de estos engaños perjudiciales».

Sin embargo, los científicos advirtieron que esta investigación debe ser ampliada con experimentos que puedan modelar mejor las reacciones en la vida real, como videos o pequeños juegos de roles.

«El beneficio de usar un estudio transversal con viñetas es que podemos obtener una gran cantidad de actitudes y percepciones de los participantes de una manera controlada en cuanto a costos», explicó Rosero. «Los estudios con viñetas proporcionan hallazgos básicos que pueden ser corroborados o refutados mediante experimentación adicional. Experimentos con interacciones en persona o simuladas entre humanos y robots probablemente ofrecerán mayor comprensión sobre cómo los humanos perciben realmente estos comportamientos de engaño robótico».

Fuente: TechX. Edición: MP.

Sin comentarios
Etiquetas: , , , , , ,

¿Te gustó lo que acabas de leer? ¡Compártelo!

Facebook Reddit Twitter WhatsApp Pinterest Email

Artículos Relacionados

 0 comentarios
Sin comentarios aún. ¡Sé el primero en dejar uno!
Dejar un comentario