Por primera vez en la historia, científicos han logrado decodificar el monólogo interno de personas con graves discapacidades del habla mediante combinaciones de chips cerebrales (BCI) e inteligencia artificial. Este avance abre caminos para una comunicación más natural y eficiente.
1. ¿Qué es la voz interna y por qué es clave?
La voz interna —también llamada monólogo interno o “speech imaginado”— se activa en zonas del cerebro vinculadas al movimiento verbal, como la corteza motora, aunque a menor intensidad que el habla real. Al tratarse de señales más suaves que las del habla, su decodificación requiere tecnologías de alta sensibilidad.
2. El experimento: chips e IA trabajando juntos
Investigadores de Stanford crearon un modelo de inteligencia artificial capaz de traducir pensamientos en fonemas y palabras. Trabajaron con cuatro personas que tenían electrodos implantados en su corteza motora del habla. De forma silenciosa y sin emitir sonidos, los participantes repitieron frases solo con la mente. El sistema logró decodificar hasta el 74 % de precisión.
La sutil similitud entre las señales del habla imaginada y la articulada permitió entrenar la IA de forma efectiva. Las fallas en decodificar textos imaginados se compensaron con un mecanismo de seguridad: un “password mental” que solo activa la decodificación cuando el usuario lo piensa, con una precisión de activación del 98.75 %.
3. ¿Por qué es más eficiente pensar que hablar?
Hablar implica coordinar alrededor de 100 músculos del sistema respiratorio y fonador. En personas con discapacidades motoras, ese esfuerzo puede ser frustrante y extenuante. Pensar en hablar es mucho más liviano y eficiente desde el punto de vista energético y cognitivo.
4. Complementos recientes en BCIs para personas con parálisis
Este avance se suma a otras tecnologías de vanguardia:
-
Un implante BCI capaz de convertir pensamiento en palabras con una fluidez cercana a la verbalización natural.
-
Un dispositivo experimental capaz de decodificar y “escuchar” el inner monologue inmediatamente, sin requerir habla intentada.
5. Consideraciones éticas y sobre la privacidad mental
Este tipo de tecnología plantea importantes preguntas sobre privacidad. ¿Qué ocurre si la IA capta pensamientos privados no destinados a expresarse? Los investigadores lo anticipan, diseñando salvaguardas como los “passwords mentales” y sistemas que distinguen los tipos de activación cerebral.
La combinación de IA y chips cerebrales para decodificar el habla internal es uno de los avances más prometedores en la neurotecnología del siglo XXI. Ofrece una ventana hacia la comunicación fluida y natural para quienes la habían perdido, recuperando no solo la voz sino la dignidad del diálogo humano.


