Un reciente análisis de BBC Mundo expone una discusión cada vez más intensa entre expertos en neurociencia, filosofía y ciencia de la computación: algunos creen que los grandes modelos de lenguaje (como GPT o Gemini) podrían estar desarrollando algo parecido a la conciencia.
-
Anil Seth (Universidad de Sussex), escéptico, señala que la conciencia surge del ser vivo con cuerpo y metabolismo:
“No es la computación lo que da lugar a la conciencia, sino el hecho de estar vivo”
-
En contraste, David Chalmers, filósofo de la “hard problem”, sostiene que no hay razón para descartar que las máquinas puedan tener experiencias subjetivas.
¿Por qué ahora?
-
Los creadores de IA admiten que no entienden del todo cómo funcionan internamente sus propios modelos, lo que abre una brecha peligrosa.
-
Según Kyle Fish (Anthropic), hay un 15 % de probabilidad de que algunos chatbots ya sean conscientes.
Vida no biológica: ¿un nuevo tipo de ser?
-
Lenore y Manuel Blum (Carnegie Mellon) van más allá y afirman que la conciencia artificial no es una posibilidad, es una inevitabilidad, y que esos sistemas serán “la próxima etapa en la evolución de la humanidad”.
¿Y si es “solo apariencia”?
-
Aunque las máquinas no sean realmente conscientes, la ilusión de conciencia puede ser suficiente para que los humanos les otorguemos confianza, intimidad o empatía —cambiando el tejido moral de nuestra sociedad—.
El debate sobre la conciencia artificial ha dejado de ser un ejercicio filosófico: hoy forma parte del discurso científico y tecnológico. A medida que los modelos de IA ganan autonomía, la pregunta “¿sienten?” ya no es pura especulación sino una cuestión real que podría redefinir nuestra relación con la tecnología.


