Superinteligencia artificial: qué buscan los nuevos proyectos liderados por ex‑integrantes de OpenAI
La superinteligencia artificial ya dejó de ser solo una idea de ciencia ficción para convertirse en el horizonte que impulsa la nueva oleada de startups y laboratorios fundados por ex‑miembros de OpenAI en plena revolución de la IA. Este artículo explica qué proponen proyectos como Safe Super Intelligence y Thinking Machine Lab, cómo difieren estratégicamente de OpenAI y qué implicaciones tienen para la carrera por la superinteligencia. También cubriremos quiénes son los actores clave y por qué sus decisiones importan para la seguridad y el ritmo del cambio tecnológico.
Lectura estimada
8 minutos
Key takeaways
- Ex‑miembros de OpenAI están lanzando laboratorios con énfasis en seguridad y nuevas arquitecturas.
- Proyectos como Safe Super Intelligence priorizan el alineamiento sobre la comercialización temprana.
- Thinking Machine Lab busca arquitecturas con memoria y razonamiento explicable, resaltando la diversidad de enfoques.
- La competencia por compute y talento puede acelerar avances pero también introducir riesgos de despliegues sin evaluación suficiente.
Tabla de contenidos
- Entrada / Lead
- Contexto y por qué importa
- Perfiles de los nuevos actores
- ¿En qué se diferencian de OpenAI?
- Impactos y escenarios futuros
- Señales clave que conviene vigilar
- Recursos y verificación
- Conclusión
- FAQ
Entrada / Lead
La superinteligencia artificial ya dejó de ser solo una idea de ciencia ficción para convertirse en el horizonte que impulsa la nueva oleada de startups y laboratorios fundados por ex‑miembros de OpenAI en plena revolución de la IA. Este artículo explica qué proponen proyectos como Safe Super Intelligence y Thinking Machine Lab, cómo difieren estratégicamente de OpenAI y qué implicaciones tienen para la carrera por la superinteligencia. También cubriremos quiénes son los actores clave y por qué sus decisiones importan para la seguridad y el ritmo del cambio tecnológico.
Contexto y por qué importa
¿Qué entendemos por “superinteligencia artificial”?
- Superinteligencia artificial: sistemas con capacidades intelectuales que superan a las humanas en casi cualquier tarea práctica —desde descubrir fórmulas científicas hasta planificar estrategias complejas— y que pueden actuar de forma autónoma para lograr objetivos.
- No es solo un modelo grande: implica generalidad, razonamiento profundo y autonomía en la toma de decisiones.
Estado actual: OpenAI y ChatGPT
OpenAI y ChatGPT popularizaron la IA generativa y demostraron el poder de los modelos a gran escala para lenguaje, código e imagen. Aun así, existen límites prácticos y conceptuales que motivan la aparición de nuevos proyectos de inteligencia artificial.
Límites de ChatGPT (y por qué preocupan)
- Generalización limitada: falla en razonamiento abstracto y contexto de muy largo plazo.
- Alineamiento y sesgos: puede producir respuestas problemáticas o sesgadas si no está debidamente afinado.
- Dependencia de compute: entrenar y ejecutar estos modelos exige enormes recursos.
- Transparencia reducida: modelos cerrados dificultan auditorías públicas y verificación independiente.
Estos límites de ChatGPT explican por qué algunos investigadores prefieren crear laboratorios alternativos que prioricen la seguridad, la investigación fundamental o arquitecturas distintas al enfoque “más grande es mejor”. Si quieres ejemplos concretos de esos proyectos, sigue leyendo.
Perfiles de los nuevos actores
A continuación encontrarás fichas claras y concisas de los proyectos más comentados. Cada perfil indica lo que se sabe públicamente y qué falta por verificar.
Safe Super Intelligence
- Fundadores / figuras clave: incluye a Ilya Sutskever (cofundador y ex‑Chief Scientist de OpenAI) entre sus nombres públicos; también aparecen inversores y ejecutivos con experiencia en Silicon Valley (fuente, fuente).
- Misión declarada: construir una superinteligencia segura, con el alineamiento y la contención como prioridades superiores a la comercialización.
- Enfoque estratégico: seguridad primero; retraso deliberado de productos de consumo hasta demostrar garantías técnicas sobre riesgos y comportamientos emergentes.
- Propuestas técnicas conocidas: hasta ahora han divulgado compromisos éticos y gobernanza; los detalles arquitectónicos y de datasets permanecen mayormente privados (fuente).
- Financiamiento y alianzas: reportes señalan fuerte respaldo financiero (miles de millones) y acuerdos para acceso a infraestructura, aunque los socios exactos suelen mantenerse confidenciales (fuente).
- Estado actual / hitos: trabajo centrado en investigación y debates públicos sobre gobernanza; sin producto de consumo lanzado a gran escala.
Ejemplo/analogía: SSI se parece a un equipo de ingenieros que, ante la posibilidad de un puente que podría colapsar, decide probar y reforzar todos los cimientos antes de abrirlo al tráfico, aunque eso retrase la inauguración.
Thinking Machine Lab
- Fundadores / figuras clave: combinación de ex‑investigadores de OpenAI y académicos; los nombres exactos y roles requieren confirmación pública.
- Misión declarada (reportada): explorar nuevas arquitecturas de “pensamiento” y sistemas cognitivos que vayan más allá de la predicción estadística pura.
- Enfoque estratégico: investigación teórica y experimentación en arquitecturas inspiradas en procesos cognitivos; probable énfasis en transparencia y publicaciones académicas.
- Propuestas técnicas conocidas: interés en modelos que integren memoria de largo plazo y mecanismos de razonamiento más explicables.
- Financiamiento y hitos: menos público que SSI; énfasis en publicaciones y prototipos de laboratorio.
Nota práctica: por su perfil, Thinking Machine Lab podría publicar más papers y menos productos comerciales, lo que facilita la revisión independiente pero ralentiza la llegada al mercado.
“Iliutkevers” — aclaración necesaria
- Verificación de nombre: no existe evidencia sólida de una entidad llamada “Iliutkevers”. Es casi seguro que la referencia correcta sea Ilya Sutskever, figura central en OpenAI y vinculada a SSI (fuente).
- Consejo editorial: confirmar siempre ortografía y roles con fuentes primarias (entrevistas, LinkedIn/X, comunicados oficiales) antes de publicar.
Otros proyectos de ex‑OpenAI (contexto comparativo)
- Anthropic: fundado por ex‑miembros de OpenAI; famoso por su enfoque en “Constitutional AI” y prácticas de alineamiento.
- Inflection AI: enfoque en asistentes conversacionales y productos de usuario; también explora alineamiento práctico.
- Mira Murati: figura conocida de OpenAI (CTO hasta 2025 en registros públicos) — no hay evidencia pública de que haya liderado los proyectos mencionados aquí; verificar antes de atribuir movimientos personales (fuente).
Pequeño consejo al lector: guarda estos nombres; volveremos sobre sus estrategias y cómo podrían cambiar el rumbo de la revolución de la IA.
¿En qué se diferencian de OpenAI? (Comparativa clave)
Lista comparativa por criterio:
- Prioridad: seguridad/alineamiento vs. velocidad de despliegue
- OpenAI: equilibrio entre producto (ChatGPT) y seguridad.
- SSI: seguridad y alineamiento por encima de todo.
- Thinking Machine Lab: investigación y comprensión arquitectónica antes que despliegue comercial. (fuente)
- Gobernanza y transparencia
OpenAI: mezcla de investigación pública y decisiones privadas sobre despliegues. Proyectos nuevos: algunos adoptan modelos más herméticos para evitar presiones de mercado; otros prometen mayor apertura científica.
- Apertura (open source) vs. cerrado
OpenAI: abertura parcial (GPT‑2 fue abierta), pero versiones recientes son más cerradas. SSI: no ha anunciado apertura total; prioriza control y revisiones de seguridad. Thinking Machine Lab: probable inclinación hacia la publicación académica.
- Acceso a compute y alianzas
OpenAI: alianza estratégica con Microsoft y acceso a recursos a gran escala. Nuevos proyectos: financiamiento elevado reportado en algunos casos, pero con alianzas menos visibles públicamente (fuente).
- Foco: producto vs. investigación
OpenAI: fuerte énfasis en ChatGPT y productos para usuarios. Nuevos laboratorios: más inclinados a investigación fundamental, gobernanza y pruebas de alineamiento.
- ¿Abordan los límites de ChatGPT?
En teoría sí: todos estos proyectos afirman atacar los límites de ChatGPT —alineamiento, razonamiento de largo plazo, transparencia— aunque con rutas distintas (OpenAI, Anthropic).
Breve interpretación práctica: Si OpenAI es un lanzador de cohetes que busca llegar a la órbita con usuarios, SSI actúa como el equipo que insiste en validar cada componente antes del lanzamiento; Thinking Machine Lab, en cambio, diseña nuevas físicas del vuelo. Esa diferencia en prioridades afectará quién avanza más rápido y con qué riesgos en la carrera por la superinteligencia.
Cómo podrían cambiar el futuro de la IA: impactos y escenarios
Impactos positivos probables
- Mejora del alineamiento y la seguridad. Grupos como Safe Super Intelligence ponen la seguridad en el centro, lo que puede elevar los estándares técnicos y regulatorios en todo el ecosistema.
- Diversificación de enfoques arquitectónicos. Thinking Machine Lab y similares podrían impulsar modelos más explicables y con memoria de largo plazo, reduciendo algunas limitaciones actuales de los grandes modelos.
- Nueva cultura de gobernanza. Laboratorios con foco en investigación podrían promover auditorías independientes, revisión por pares y mejores prácticas en transparencia.
Riesgos y externalidades a considerar
- Carrera por recursos y talento. Más actores bien financiados intensifican la competencia por GPUs y talento, lo que puede acelerar desarrollos sin controles suficientes.
- Fragmentación y concentración simultánea. Aunque haya más laboratorios, el acceso real a supercomputación puede quedar en manos de pocos, aumentando la concentración de poder.
- Fallos de alineamiento en modelos avanzados. Incluso con intenciones de seguridad, errores de diseño o evaluaciones incompletas pueden generar comportamientos peligrosos.
Tres escenarios para el corto, medio y largo plazo
- Corto plazo (1–3 años): evolución incremental. Nuevos papers, prototipos y debates regulatorios. Más herramientas seguras pero sin salto hacia capacidades generales.
- Medio plazo (3–10 años): avances disruptivos posibles. Un laboratorio podría demostrar capacidades emergentes en razonamiento o autonomía, obligando a revisiones regulatorias.
- Largo plazo (10+ años): llegada incierta de la superinteligencia artificial — puede ser gradual o por saltos; la distribución del riesgo dependerá de gobernanza, transparencia y cooperación internacional.
Señales clave que conviene vigilar
Señales de progreso (buenas)
- Publicaciones en arXiv y conferencias con experimentos reproducibles.
- Benchmarks públicos que muestren mejoras en razonamiento de largo plazo o generalización.
- Demostraciones auditadas con acceso a protocolos y dataset.
- Acuerdos públicos de gobernanza entre laboratorios y reguladores.
Señales de alerta (riesgo)
- Despliegues comerciales amplios sin evaluación de seguridad pública.
- Secretismo excesivo sobre datasets, pruebas y arquitectura.
- Competencia pública por despliegues que omita revisiones externas.
- Concentración de financiación y compute en entidades con controles insuficientes.
Actores que pueden y deben intervenir
- Reguladores: diseñar marcos que exijan auditorías independientes, pruebas de seguridad y transparencia mínima antes de despliegues a gran escala.
- Empresas: implementar revisiones internas, compartir métricas de seguridad y colaborar en estándares.
- Comunidad académica: ayudar a reproducir resultados y crear benchmarks críticos.
- Público y periodistas: exigir transparencia y fiscalizar decisiones públicas y privadas.
Recursos y fuentes para investigación y verificación
- Cobertura sobre Safe Super Intelligence
- Artículo y análisis en El Artesano
- OpenAI — misión, productos y limitaciones públicas
- Anthropic — enfoque en alineamiento
- Inflection AI — productos conversacionales
- Repositorios académicos: arXiv para papers y benchmarks.
- Registros financieros y perfiles de equipos: Crunchbase, LinkedIn/X y comunicados oficiales.
Nota de verificación sobre nombres y figuras
- El término “Iliutkevers” aparece en algunas transcripciones, pero no existe evidencia pública de una persona con ese nombre en el ecosistema. Es muy probable que la referencia corresponda a Ilya Sutskever; verificar siempre con fuentes primarias antes de publicar (fuente).
- Mira Murati figura en registros públicos como CTO de OpenAI hasta 2025; no hay confirmación pública de su liderazgo en SSI o Thinking Machine Lab al momento de escribir (fuente).
Elementos adicionales útiles para el lector
Mini‑biografía verificada: Mira Murati
- Rol conocido: CTO de OpenAI hasta 2025 según comunicación oficial.
- Trayectoria: ingeniería en productos de IA y liderazgo en despliegues comerciales como ChatGPT (fuente).
¿Qué NO puede hacer hoy ChatGPT? (resumen práctico)
- No mantiene planes de largo plazo ni objetivos propios.
- No razona de forma humana sobre problemas nuevos sin ejemplos claros.
- Puede reproducir sesgos presentes en los datos de entrenamiento.
- No es transparente en su toma de decisiones internas.
Glosario rápido
- Alineamiento: asegurar que el comportamiento del modelo coincida con valores humanos.
- Safety: prácticas para prevenir daños y usos malintencionados.
- Modelo multimodal: integra texto, imágenes, audio u otros tipos de datos.
- Fine‑tuning: adaptar un modelo preentrenado a tareas específicas.
Conclusión
La emergencia de Safe Super Intelligence, Thinking Machine Lab y otros nuevos proyectos de inteligencia artificial cambia el ritmo y la narrativa de la revolución de la IA. Algunos priorizan seguridad y alineamiento; otros exploran nuevas arquitecturas cognitivas. Ambos caminos pueden enriquecer el ecosistema y disminuir ciertos riesgos, pero también introducen nuevos desafíos: competencia por compute, concentración de poder y necesidad urgente de regulaciones claras.
La carrera por la superinteligencia artificial no es solo técnica: es política, económica y social. Vigilar señales públicas, exigir transparencia y apoyar estándares de seguridad son acciones concretas que pueden marcar la diferencia en cómo y cuándo lleguemos a capacidades críticas.
FAQ (preguntas frecuentes)
1) ¿Qué probabilidades hay de ver superinteligencia pronto?
No hay consenso. Algunos expertos creen que avances significativos pueden ocurrir en décadas; otros ven una trayectoria más gradual. La probabilidad depende del acceso a compute, avances en alineamiento y cooperación entre laboratorios.
2) ¿Debería preocuparme que la superinteligencia llegue sin controles?
Sí, hay razones para preocuparse. Por eso laboratorios como Safe Super Intelligence ponen la seguridad en primer lugar y por eso la regulación y auditoría independientes son imprescindibles.
3) ¿Cómo diferenciar información fiable de rumores sobre nuevas startups?
Prioriza comunicados oficiales, perfiles verificables (LinkedIn/X), publicaciones en arXiv y cobertura de medios de referencia. Desconfía de nombres no verificados (p. ej. “Iliutkevers”) hasta confirmar con fuentes primarias.
4) ¿Qué papel tienen empresas como OpenAI frente a los nuevos proyectos?
OpenAI sigue siendo un actor central por su base instalada (ChatGPT) y alianzas estratégicas. Los nuevos proyectos pueden presionar a OpenAI a mejorar prácticas de seguridad y transparencia, o bien competir en enfoques técnicos distintos (fuente, fuente).
5) ¿Qué puede hacer un profesional de IA hoy para contribuir a la seguridad?
– Promover y aplicar prácticas de testing y auditoría.
– Publicar resultados reproducibles y colaborar en benchmarks.
– Priorizar la ética y el alineamiento en diseño y despliegue.
6) ¿Dónde seguir las noticias y avances de estos laboratorios?
– Blogs y comunicados oficiales de cada laboratorio.
– arXiv y conferencias de ML (NeurIPS, ICML).
– Medios tecnológicos de referencia y perfiles verificados en X/Twitter.
7) ¿Es “Iliutkevers” una persona real en este contexto?
No hay evidencia pública. Lo más probable es que se trate de una transcripción errónea de Ilya Sutskever. Verificar siempre con fuentes primarias antes de citar nombres (fuente).
Si quieres, puedo preparar un cuadro comparativo listo para publicar con todos los criterios (prioridad, transparencia, acceso a compute, etc.) o una lista de verificación práctica para periodistas que cubren estos nuevos proyectos. ¿Cuál prefieres?
