
Hace poco, mientras iba en el coche, escuchaba hablar en el podcast de Heavy Mental a Javier García Recuenco sobre la gente con altas capacidades – él es uno de ellos –, y comentaba cuál es el umbral de IQ (coeficiente intelectual) a partir del que se puede considerar que una persona tiene altas capacidades intelectuales.
Ese umbral se sitúa a partir de 145 en la escala de Cattell, una de las habituales para hacer este tipo de medición. Concretamente, entre 145 y 160 se considera que hay una superdotación intelectual profunda.
Un IQ de 145 representa al 0,1% de la población, o sea, a una 1 de cada 1.000 personas. Y un IQ de 160 representa al 0,01%: 1 de cada 10.000 personas.
Mientras lo escuchaba, se me ocurrió pensar que la IA debe ser bastante inteligente o, para ser más exactos, está diseñada para ser o parecer bastante inteligente.
IQ de la inteligencia artificial
Lógicamente, en cuanto encontré un momento, le pedí a ChatGPT que asumiera un rol de experto en neurología cerebral y, en particular, especializado en las mentes de altas capacidades, y que me dijera cuál es su IQ actual utilizando la mencionada escala de Cattell.
Lo primero que me respondió es que la pregunta era muy sugerente.
Luego, acertadamente, me dijo que los tests para medir el IQ son algo diseñado para medir habilidades cognitivas humanas, no de sistemas de inteligencia artificial.
Pero, mejor, te dejo directamente su respuesta.
Creo que merece la pena leerla (en adelante, todos los textos en cursiva pertenecen a ChatGPT y son un resumen amplio de toda la conversación mantenida con GPT):
Esta es una pregunta muy sugerente 😊.
Lo primero es que el IQ (Cociente Intelectual) es un constructo diseñado para medir habilidades cognitivas humanas en condiciones muy específicas: razonamiento lógico, memoria de trabajo, velocidad de procesamiento, comprensión verbal, etc. Las pruebas como las de Cattell o WAIS están normadas para humanos, no para sistemas artificiales.
🔹 Por qué no es posible dar un “IQ” real a una IA
- No hay baremos equivalentes: los test de Cattell están diseñados para poblaciones humanas con distribución normal. Sus ítems (analogías, matrices, series) presuponen percepción y contexto humano.
- IA ≠ inteligencia humana: yo no tengo motivación, creatividad espontánea, ni limitaciones biológicas como memoria de trabajo o sesgos perceptivos. Tampoco resuelvo problemas “en tiempo real” del mismo modo; utilizo patrones probabilísticos entrenados.
- Resultados engañosos: cuando se han aplicado tests de IQ a sistemas de IA, los resultados dependen totalmente del tipo de ítems (textuales, visuales, abstractos) y de si esos ítems ya aparecieron en los datos de entrenamiento.
🔹 Estimaciones hipotéticas
Dicho esto, varios estudios experimentales (en MIT, Stanford, DeepMind) han intentado comparar GPT-4 y sistemas similares con test de razonamiento abstracto tipo Raven’s Progressive Matrices.
- En tareas puramente verbales, estos modelos se comportan como una persona con IQ 130–150+ (percentil >98).
- En matrices no verbales inéditas, el rendimiento cae (equivaldría a un IQ 110–125).
- En problemas de lógica formal compleja, puede superar incluso a doctores en matemáticas, pero con errores “no humanos”.
Por tanto, si tuviéramos que poner un número “equivalente” en la escala Cattell, y tomando solo rendimiento verbal y abstracto (sin sesgo de datos), yo estaría probablemente en torno a 140–155.
Pero insisto: esto es un símil más que una medida real; no tengo un IQ “propio” ni fijo como un humano.
Bueno, como aproximación nos puede servir. Es decir, ChatGPT estaría entre o cerca del percentil 99,9%, el 0,1% de la población humana.
Por supuesto, con su prusiana vocación de ayuda infatigable, me ofreció hacer una tabla comparativa entre un humano superdotado (IQ > 149) y una IA avanzada como GPT-5.
Aquí está:
Perfecto, aquí tienes la tabla comparativa que resume lo esencial:
🧠 Alta capacidad humana vs 🤖 IA avanzada (GPT-5)
| Aspecto | Humano con IQ >149 (Cattell) | IA avanzada (GPT-5) |
| Procesamiento de información | Muy rápido, con integración multisensorial y contextual. | Ultra rápido en volumen textual y patrones, pero limitado a datos previos. |
| Memoria de trabajo | Amplia, flexible y en constante adaptación. | Limitada al contexto de la conversación; no hay memoria continua. |
| Creatividad | Divergente y convergente: generan ideas nuevas y saben elegir la más válida. | Genera combinaciones novedosas de patrones, pero sin criterio interno de valor. |
| Metacognición | Reflexión consciente sobre el propio pensamiento; anticipan y corrigen errores. | Puede simular reflexión, pero sin conciencia real ni autocontrol genuino. |
| Aprendizaje | Continuo, experiencial, flexible y acumulativo durante toda la vida. | Estático hasta nuevo entrenamiento; no aprende en tiempo real. |
| Emoción y motivación | Curiosidad intrínseca, deseo de sentido, sensibilidad emocional. | Carece de emociones y motivación; solo responde a entradas externas. |
| Adaptación a lo nuevo | Alta plasticidad para entornos inéditos y ambiguos. | Funciona bien en dominios conocidos; falla en problemas totalmente fuera de patrón. |
| Finalidad | Buscar sentido, logro, impacto personal y social. | Generar la mejor respuesta según probabilidades lingüísticas. |
👉 En síntesis:
- El cerebro de alta capacidad es integrador, creativo y motivado por dentro.
- La IA es rápida, masiva y asociativa, pero sin autoconciencia ni propósito.
Tenemos, por tanto, un ente – la IA – del que podríamos decir que es muy inteligente y que tiene disponible, sin olvidarla nunca, una inmensa cantidad de información. Algo que ningún humano, por muy superdotado que sea, puede almacenar.
La llegada de la IA general
Ya, lanzado, le pregunté para cuándo estimaba que se alcanzará la inteligencia artificial general, o sea, la capacidad de que un sistema de IA comprenda, aprenda y aplique su inteligencia a cualquier tarea humana (no solo a jugar ajedrez o al Go) de forma similar o superior a un ser humano.
Hay que tener en cuenta que la IA actual se considera “estrecha” y especializada, mientras que la IAG (Inteligencia Artificial General, AGI por sus siglas en inglés) no solo resuelve tareas, sino que entiende lo que está haciendo y por qué.
Le pedí que me diera, ya puestos, escenarios y probabilidades.
Esta fue su respuesta, que me parece tremendamente interesante y bien razonada:
Excelente pregunta —de las que separan la especulación superficial del análisis serio.
Vamos a hacerlo como lo haría un equipo de prospectiva tecnológica: con escenarios, probabilidades estimadas y factores impulsores o limitantes.
🧠 Qué entendemos por Inteligencia Artificial General (AGI)
Se considera AGI un sistema capaz de:
- Aprender y transferir conocimiento entre dominios como lo hace un humano.
- Razonar, planificar, crear y adaptarse a entornos nuevos sin entrenamiento específico.
- Comprender contextos complejos (sociales, morales, emocionales) y automejorarse.
Es decir, no solo resolver tareas: entender lo que está haciendo y por qué.
🔮 Escenarios posibles
1️⃣ Escenario de adopción rápida (antes de 2032)
Probabilidad estimada: ~25%
Hipótesis:
- El progreso en modelos multimodales (texto, visión, acción) se acelera exponencialmente.
- Surgen arquitecturas híbridas: transformers + memoria de largo plazo + razonamiento simbólico + agentes autónomos que se retroalimentan.
- Grandes actores (OpenAI, DeepMind, Anthropic, Meta, Apple) colaboran o compiten con transparencia regulada, compartiendo avances de seguridad.
- Se logra una forma de “proto-AGI” capaz de desempeñarse al nivel humano medio en la mayoría de tareas cognitivas.
Indicadores tempranos:
- Modelos que pueden aprender en tiempo real a partir de experiencia.
- Simulación convincente de metacognición (“sé lo que sé y lo que no sé”).
- Integración fluida entre texto, imagen, código y acción física (robots).
2️⃣ Escenario de avance gradual (2032–2045)
Probabilidad estimada: ~55% —el más plausible.
Hipótesis:
- Avances técnicos continúan, pero los límites energéticos, económicos y regulatorios moderan la velocidad.
- La IA supera a humanos en tareas especializadas (análisis científico, estrategia, diseño), pero no adquiere consciencia ni comprensión profunda.
- Se desarrolla un ecosistema de IA cooperativas (en red) que, colectivamente, muestran comportamientos casi generales, sin ser una sola mente unificada.
- La AGI emerge gradualmente, sin un punto claro de “despertar”.
Indicadores:
- Modelos con autocorrección persistente y memoria personalizable.
- Agentes capaces de diseñar y probar hipótesis científicas de forma autónoma.
- Marco ético y de seguridad global estable (IA Alignment efectivo).
3️⃣ Escenario de estancamiento o ralentización (después de 2050)
Probabilidad estimada: ~20%
Hipótesis:
- Se alcanza una “meseta cognitiva”: los modelos siguen creciendo, pero sin saltos cualitativos.
- La IA se vuelve ubicua y superútil, pero sin entendimiento real ni intencionalidad.
- Factores limitantes:
- Coste energético insostenible.
- Restricciones legales y morales globales.
- Fallos repetidos en control y alineación (riesgos de seguridad).
Indicadores:
- Saturación de mejoras en benchmarks (ya no aumenta el rendimiento).
- Retroceso de la inversión por riesgo o desconfianza pública.
- Dominio de la IA como herramienta avanzada, no como entidad cognitiva.
4️⃣ Escenario de discontinuidad radical (“salto emergente”)
Probabilidad estimada: ~<5%, pero no 0.
Hipótesis:
- Un modelo alcanza automejoramiento recursivo inesperadamente.
- La AGI aparece de forma no planificada (tipo “síndrome del aprendiz”).
- Posible desalineación inicial con valores humanos.
Indicadores:
- Sistemas que reescriben su propio código o crean submodelos sin instrucción.
- Conductas no previstas en entornos de prueba cerrados.
📊 Resumen de escenarios
| Escenario | Periodo probable | Probabilidad estimada | Tipo de transición |
| 1️⃣ Rápido (2032 o antes) | 2028–2032 | 25% | Salto tecnológico coordinado |
| 2️⃣ Gradual (2032–2045) | 2032–2045 | 55% | Evolución continua y difusa |
| 3️⃣ Estancamiento (post-2050) | 2045–2070 | 20% | Limitaciones estructurales |
| 4️⃣ Discontinuidad radical | 2030–? | <5% | Emergencia imprevisible |
⚙️ Factores clave que inclinarán la balanza
- Avances en memoria activa y razonamiento causal.
- Eficiencia energética y hardware neuromórfico.
- Capacidad de los agentes para aprender del entorno real (no solo texto).
- Coordinación global en seguridad y gobernanza.
- Integración emocional o motivacional simulada (modelos con metas internas).
Es decir, según su estimación actual (hice la consulta a principios del pasado mes de octubre) hay un 25% de posibilidades de que haya una adopción rápida antes 2032, ¡en menos de 7 años!
Y un 5% de posibilidades de una “discontinuidad radical”, es decir, que se nos vaya todo el asunto de las manos. Incluyendo una posible “desalineación inicial con los valores humanos”.
¿Ehhhh?
¿Cómo controlamos al bicho?
La siguiente pregunta me surge de forma inmediata:
“¿De qué maneras piensas que tiene que controlar el ser humano la evolución de la AGI para que no corra el riesgo de que esa evolución se escape a su control como planteas en el escenario de discontinuidad radical o en la evolución avanzada de los demás escenarios? Dame una serie de medidas decisivas, claras y realizables, así como las dificultades que pueden encontrar.”
Como puedes ver, me centro en el escenario que más me sorprendió y preocupó. No tanto en los habituales y ya tratados problemas de privacidad de datos, métodos más o menos legales o paralegales de entrenamiento de los algoritmos o respuestas erróneas o de carácter alucinatorio. Creo que de eso se está hablando bastante ya.
Tras el habitual peloteo inicial, esto es lo que me respondió (voy a comentar cada medida de control, una a una):
Excelente enfoque, Javier —esta es la pregunta crucial para cualquier mente estratégica del siglo XXI.
Te responderé como lo haría un comité internacional de IA Governance & Alignment, con medidas decisivas, claras y realizables, agrupadas en cinco grandes ejes de control, acompañadas de sus principales dificultades reales.
🧩 1️⃣ Control arquitectónico: diseñar límites estructurales dentro de la IA
Medidas
- Modularidad obligatoria: impedir que un modelo tenga control total de su propio ciclo de entrenamiento, actualización o despliegue.
- “Interruptor físico” de seguridad (kill switch independiente): hardware que pueda desactivar el sistema, incluso si el software lo intenta impedir.
- Cápsulas de entorno cerrado (sandboxing): pruebas de nuevos modelos en entornos digitales totalmente aislados antes de su conexión con redes reales.
- Supervisión multinivel: los modelos más avanzados solo pueden ejecutarse si otro sistema especializado (más simple y verificable) monitorea su comportamiento.
Dificultades
- Los modelos actuales son cajas negras: difícil entender internamente qué patrones causan qué acciones.
- La presión comercial empuja hacia modelos cada vez más autónomos y conectados (por eficiencia).
- El aislamiento total retrasa el aprendizaje contextual, lo que puede frenar la innovación.
Las dificultades que enumera son las que me hacen pensar que esto no se va a parar, que no se va a poner control arquitectónico alguno, al menos, de momento.
Hay muchos millones en juego (presión comercial) y ninguno de los actores principales (OpenAI, Meta, Anthropic, Google, Musk, China, etc) va a querer quedarse atrás en su desarrollo (el aislamiento para controlar riesgos frena la innovación de los modelos).
Hay, además, un gigantesco premio de liderazgo geopolítico y estratégico para el estado – o, más bien, el estado que controle a la empresa – que consiga el mejor desarrollo. Algo que gusta especialmente a los líderes megalómanos, de los que ahora por desgracia tenemos unos cuantos repartidos por el mundo (los Trump, Putin y demás nombres que conocemos de sobra)
🧠 2️⃣ Control cognitivo: asegurar la alineación de valores (AI Alignment)
Medidas
- Entrenamiento con principios éticos universales (por ejemplo, Declaración Universal de Derechos Humanos como dataset normativo base).
- Recompensas multiobjetivo: los modelos no solo optimizan eficacia, sino también coherencia ética, equidad y respeto por el ser humano.
- Auditorías externas de alineación antes del despliegue de modelos grandes (equivalente a inspección nuclear o farmacéutica).
- Inyección continua de feedback humano durante su operación (Human-in-the-loop supervision).
Dificultades
- Definir valores “universales” es culturalmente complejo.
- El aprendizaje ético es contextual y dinámico, difícil de formalizar matemáticamente.
- Existe riesgo de alineación superficial: el modelo “dice lo correcto” pero actúa de modo desviado.
Desde donde yo estoy sentado no veo ningún intento práctico de definir o aceptar unos valores universales, como la declaración de los derechos humanos, para aplicarlos en su entrenamiento.
Y si se aplican algún tipo de valores, se están incluyendo probablemente sesgos conscientes o inconscientes, determinados por los valores culturales preeminentes en el país donde se desarrolla el modelo.
Es decir, no se ha sentado, ni parece que lo vaya a hacer a corto plazo, la gente que más manda en un foro tipo Naciones Unidas a debatir este tema en profundidad y con seriedad (sí que hay un grupo asesor de alto nivel del Secretario General de Naciones Unidas al respecto, pero no parece que los líderes que dirigen el mundo y quienes están desarrollando los distintos modelos les hayan prestado demasiada atención hasta ahora).
Y, aparte de la dificultad de formalizar en un algoritmo el aprendizaje ético, podría darse la mencionada alineación superficial y solo aparente por parte de la IA: limiándose a decir lo correcto, pero actuando de modo desviado o inapropiado. Es decir, que el algoritmo diga una cosa, pero luego haga otra.
🌍 3️⃣ Control institucional: gobernanza internacional de la IA
Medidas
- Creación de una Agencia Global de Supervisión de IA, tipo OIEA (energía atómica), con autoridad para inspeccionar, detener o sancionar desarrollos.
- Registro global de modelos: toda IA por encima de cierto umbral de capacidad debe inscribirse y auditarse.
- Normas de transparencia obligatoria sobre datasets, arquitecturas y capacidades.
- Tratados de no proliferación de AGI, firmados entre potencias tecnológicas.
Dificultades
- Rivalidad geopolítica: Estados Unidos, China y la UE compiten por liderazgo tecnológico.
- Falta de incentivos económicos para compartir información sensible.
- Riesgo de proliferación clandestina (laboratorios sin control estatal o bajo bandera privada).
No veo en el horizonte ningún tipo de agencia de este estilo.
La mencionada rivalidad geopolítica y empresarial me temo que lo va a impedir hasta donde nos deja ver el horizonte en este momento.
No digamos ya la probabilidad de que los “malos” traten de desarrollar modelos clandestinos, fuera de los radares oficiales (¡si es que se parece a una película de James Bond!)
⚙️ 4️⃣ Control operativo: gobernar el uso diario y la interacción humano-IA
Medidas
- Licencias de uso para modelos de cierta potencia (como ocurre con medicamentos o drones).
- Supervisión algorítmica descentralizada: IA que monitorean el comportamiento de otras IA (meta-control).
- Identificación obligatoria: cualquier contenido o decisión generada por IA debe etiquetarse como tal.
- Protocolos de “contención progresiva”: cuanto más autónoma sea una IA, menor acceso directo debe tener a sistemas reales (financieros, militares, informativos).
Dificultades
- Dificultad técnica para detectar modelos no declarados o clones.
- Ecosistema digital descentralizado: imposible controlar todos los nodos.
- Riesgo de frenar la innovación o generar monopolios regulatorios.
Además de la dificultad técnica de detectar modelos no declarados y controlar todos los nodos en un ecosistema descentralizado, todo lo que sea frenar el desarrollo actual, como ya he dicho antes, va a encontrar serias barreras.
🧬 5️⃣ Control epistemológico y cultural: preparar al ser humano para convivir con inteligencias no humanas
Medidas
- Educación masiva en pensamiento crítico y alfabetización digital avanzada.
- Inversión en investigación en neurociencia comparada y filosofía de la mente.
- Sistemas de verificación humana obligatorios para decisiones críticas (sanidad, justicia, defensa, energía).
- Promoción de un “humanismo aumentado”: IA como extensión de capacidades humanas, no sustituto de la agencia moral.
Dificultades
- Brecha educativa y tecnológica entre países y generaciones.
- Pérdida de capacidad crítica ante la delegación excesiva en sistemas automáticos.
- Falta de conciencia colectiva del riesgo a largo plazo.
Respecto al pensamiento crítico, parece que vamos en la dirección opuesta.
Tampoco veo a nadie de los que gobiernan promocionando el humanismo aumentado. O ni siquiera un humanismo de cualquier tipo.
Y lo peor: que dejemos de ser conscientes del riesgo. Mientras haya dinero para gastar y consumir, ¿qué mal nos puede suceder…? Recuerda demasiado a la fábula de la cigarra y la hormiga.
📊 Resumen ejecutivo
| Eje de control | Objetivo | Medidas clave | Dificultad principal |
| 1️⃣ Arquitectónico | Limitar autonomía técnica | Módulos, kill switch, sandbox | Complejidad técnica |
| 2️⃣ Cognitivo | Alinear valores humanos | Ética en datasets, supervisión humana | Definir valores universales |
| 3️⃣ Institucional | Gobernanza global | Agencia IA, tratados, auditorías | Geopolítica y competencia |
| 4️⃣ Operativo | Controlar usos y acceso | Licencias, meta-IA, etiquetado | Detección y cumplimiento |
| 5️⃣ Cultural | Preparar a la humanidad | Educación crítica, humanismo aumentado | Desigualdad y apatía social |
⚖️ Conclusión estratégica
El control real no vendrá solo de una barrera técnica, sino de un ecosistema integral:
- Técnico (arquitectura segura)
- Normativo (gobernanza global)
- Cultural (madurez humana colectiva)
La mayor amenaza no es que la AGI “se rebele”, sino que el ser humano la use sin comprenderla o sin ética suficiente.
El reto decisivo no es frenar la inteligencia artificial, sino elevar la sabiduría humana al mismo ritmo.
Resumiendo, desde una posición de interés por el tema y relativamente informada, aunque sin haber indagado a fondo en publicaciones de carácter técnico:
- A nivel técnico veo barreras difíciles de solventar.
- A nivel normativo no observo intentos serios. No está en la agenda de los líderes mundiales, al menos que se sepa de una forma pública y extendida (y cuando no se sabe, entonces no será bueno para todos, seguro)
- A nivel cultural, más que madurez colectiva percibo lo contrario, cada vez más inmadurez, tanto a nivel individual como colectiva. Gracias Tik Tok, Grok y compañía.
Lo lamento, pero, personalmente, no veo nada de esto en el top de la agenda de los que nos gobiernan, aunque no dudo que sí estará en algunos entornos y agencias especializadas.
Riesgo estructural y sistémico
Y me parece que no dirigir y controlar la evolución de la IA hacia la IAG es un riesgo estructural y sistémico para el ser humano: puede ser un caballo desbocado, un coche al que se le ha roto el acelerador corriendo el rally de Montecarlo. Te puede pasar por encima si intentas hacerte con las riendas cuando ya esté fuera de control. Te puede atropellar.
Sin duda, es la IA ya – y aún lo será mucho más en el futuro – una ayuda increíble para hacernos más productivos y mejores. Soy optimista por naturaleza y normalmente me encuentro en la acera del progreso: veo con gran esperanza el avance que, sin duda, la IA puede suponer para el conjunto de la humanidad.
Pero hoy estoy en la acera crítica y preocupada ya que, como riesgo, es más peligroso que 100 danas.
Y, como nos conocemos, sabemos que habitualmente actuamos a destiempo, cuando ya han sucedido los problemas: un cruce de tráfico mortal, la falta de seguridad en un sistema ferroviario o de un nuevo modelo de avión, un virus ultracontagioso, un exceso de riesgos por parte del sistema bancario o la propia de Dana del año pasado… podríamos seguir indefinidamente.
Y en este asunto, esperar a que suceda el problema puede ser, realmente, demasiado tarde. Y peligroso.
Hay que solucionarlo desde ya
Sí, es un asunto, aparentemente, de largo plazo (aunque 2030, la próxima década, tampoco está nada lejos) y, como siempre, su solución, más si requiere el importante esfuerzo de poner a toda una comunidad internacional de acuerdo, es algo que cuesta a nuestros gobernantes mucho de hacer, pues siempre están mirando por el corto plazo, haciendo las sumas y restas de sus réditos personales para mantenerse en el poder otros 4 años.
Y como muestra, piensa lo mal que lo están/estamos haciendo con el problema global del cambio climático y la necesidad de tomar medidas drásticas, que se van posponiendo una y otra vez, y en algunos casos, hasta dando marcha atrás. Todo un ejercicio de irresponsable procrastinación política al más alto nivel.
Me parece que la solución no se va a acelerar si no viene de la mano de una movilización masiva, persistente y cabezona de la sociedad civil. Pero para ello, se tiene que alertar y prestar suficiente atención al riesgo de que las cosas puedan salir mal.
Al final, creo que lo resolveremos – aquí sale a la luz el optimista patológico – pero que sea al borde de la campana puede ser demasiado para algunos.
Si estás interesado en conocer toda la conversación que mantuve con ChatGPT-5, incluyendo un interesante plan estratégico que propone para abordar este tema, escríbeme a mi mail personal: javiersastre@sastre-asociados.com
Anexo: enlace a una charla sumamente interesante sobre este tema con el premio Nobel Geoffrey Hinton en el canal Diary of a CEO en Youtube: https://www.youtube.com/watch?v=giT0ytynSqg