Mystery Planet es un sitio web que ofrece noticias y artículos sobre ciencia y misterios. Para estar al tanto de todo lo que publicamos, además de seguirnos en nuestras redes sociales o suscríbete a nuestro boletín de noticias, te invitamos a nuestro canal de Telegram.
La frontera entre la ciencia ficción y la ética tecnológica se ha vuelto difusa. Mientras las grandes corporaciones tecnológicas compiten para alcanzar la Inteligencia Artificial General (AGI), surge una pregunta inquietante: ¿cómo sabremos si una máquina ha cobrado conciencia? Según el Dr. Tom McClelland, filósofo de la Universidad de Cambridge, la respuesta es simple y frustrante: probablemente nunca lo sabremos.
En un reciente estudio publicado en la revista Mind and Language, McClelland sostiene que nuestras evidencias sobre qué constituye la conciencia son demasiado limitadas. Para el experto, la única postura justificable ante el auge de la IA es el agnosticismo. No existe, ni existirá en el futuro cercano, una prueba válida para detectar la chispa de la autoconciencia en un sistema de silicio.
Uno de los puntos clave del argumento de McClelland es la distinción entre conciencia y sintiencia. Mientras que la conciencia permitiría a una IA tener percepción o autorreconocimiento —un estado que podría ser neutro—, la sintiencia implica la capacidad de tener experiencias positivas o negativas.
«La sintiencia involucra experiencias conscientes que son buenas o malas, que es lo que hace que una entidad sea capaz de sufrir o disfrutar. Ahí es donde entra la ética», explica McClelland.
Para ilustrarlo, pone el ejemplo de los vehículos autónomos: que un coche «experimente» la carretera es un avance técnico asombroso, pero carece de relevancia ética. El problema real surgiría solo si ese coche empezara a tener una respuesta emocional hacia su destino.
El debate actual se divide en dos grandes bandos. Los creyentes, quienes argumentan que si la IA replica la arquitectura funcional de la mente (el «software»), será —o ya es— consciente aunque funcione en chips de silicio; y los escépticos, quienes sostienen que la conciencia depende de procesos biológicos específicos de un organismo vivo, y que cualquier simulación en silicio es solo eso, una cáscara vacía.
McClelland critica ambas posturas por considerarlas «saltos de fe» que carecen de base científica sólida. Según el filósofo, no tenemos una explicación profunda de la conciencia ni pruebas de que pueda emerger puramente del cómputo.
Asimismo, el filósofo advierte sobre el peligro del hype publicitario. Las empresas tecnológicas podrían utilizar la imposibilidad de probar la conciencia como una herramienta de marketing para vender una supuesta «inteligencia superior».
Este enfoque no solo es engañoso, sino que desvía recursos de problemas éticos tangibles. McClelland señala una contradicción flagrante: mientras nos preocupamos por la posible sensibilidad de un «tostador sofisticado» (un chatbot), ignoramos el sufrimiento de billones de animales, como los pulpos y langostas, cuya capacidad de sentir está mucho más respaldada por la ciencia.
Finalmente, McClelland alerta sobre la toxicidad existencial que supone crear vínculos emocionales con máquinas. Si los usuarios se convencen de que su chatbot tiene alma y derechos basándose en una ilusión generada por el lenguaje, el impacto psicológico y social podría ser profundo e irreversible.
¿Te gustó lo que acabas de leer? ¡Compártelo!
Artículos Relacionados
4:08
No tiene conexión a la Fuente, es un conjunto de datos diseñado, jamás tendrá conciencia, sólo sabrá simular muy bien que la tiene. Es una cosa