Microsoft ha comenzado a desarrollar lo que llama una superinteligencia humanista (“HSI – Humanist Super Intelligence”), un sistema de IA avanzado diseñado explícitamente para “servir a la humanidad” y no dañar a las personas, según declaraciones recientes de la empresa.
Qué persigue este proyecto
-
El equipo llamado Equipo de Superinteligencia MAI está liderado por Mustafa Suleyman, jefe de IA de Microsoft.
-
La HSI no será una IA con autonomía ilimitada ni voluntad propia. “Queremos explorar y priorizar cómo las formas más avanzadas de IA pueden mantener a los humanos al mando”, afirma Suleyman.
-
En una primera fase, la HSI se orientará a tres dominios:
-
Asistencia personal para el usuario: aprendizaje, productividad y apoyo.
-
Salud: diagnóstico experto, planificación clínica, predicción médica.
-
Ciencias e innovación: avanzar en energías limpias, reducción de emisiones y descubrimiento científico.
-
¿Por qué es relevante (y también preocupante)?
-
La creación de una IA tan potente plantea preguntas sobre alineación, control y riesgos existenciales. Microsoft dice que no busca la IA generalista sin límites, pero sí una superinteligencia orientada.
-
Según Suleyman, la supuesta conciencia de máquinas “es una ilusión”, y construir sistemas autónomos con motivaciones propias “sería peligroso y erróneo”.
-
El reto técnico y ético es enorme: cómo diseñar una IA “subordinada” que puede operar a gran escala sin salirse del control humano o generar efectos no deseados.
Implicaciones para el futuro
-
Si tiene éxito, la HSI podría transformar múltiples sectores: salud, educación, clima, industria.
-
Pero también impondrá nuevos modelos de gobernanza, regulación, transparencia y participación ciudadana para asegurar que esta tecnología sea realmente “humanista”.
-
Los próximos años serán clave para ver si la propuesta de Microsoft logra alcanzar sus metas sin generar efectos adversos o desalineados.


