- Nexus, de Yuval Noah Harari
- La singularidad está más cerca, de Ray Kurzweil
- La ola que viene, de Mustafa Suleyman y Michael Bhaskar
1. Yuval Noah Harari – “Nexus: la historia de la información como red de poder”
2. Ray Kurzweil – “La singularidad está más cerca: el optimismo de la integración”
Ray Kurzweil —ingeniero, inventor y futurista— plantea una visión profundamente optimista. Para él, la IA no amenaza lo humano, sino que lo expande. Kurzweil predice que para 2029 la IA alcanzará el nivel de la inteligencia humana y que hacia 2045 se producirá la «singularidad tecnológica»: un momento en que la inteligencia no biológica superará ampliamente a la natural y se integrará plenamente en nuestra biología. Esta fusión permitirá multiplicar nuestras capacidades cognitivas, físicas y sensoriales.
Desde esta perspectiva, la IA es una aliada evolutiva. Aunque reconoce desafíos éticos y técnicos, Kurzweil no teme a la IA en sí, sino a que la humanidad no esté preparada para gestionarla. Su propuesta es avanzar en paralelo con el progreso técnico, desarrollando simultáneamente tecnologías defensivas, marcos éticos y sistemas adaptativos.
Acento clave: la IA como oportunidad evolutiva.
Riesgo secundario: el mal uso humano de una tecnología potencialmente benéfica.
Propuesta: integración gradual entre humanos y máquinas para amplificar nuestras capacidades.
3. Mustafa Suleyman y Michael Bhaskar – “La ola que viene: contención antes del caos”
En La ola que viene, Suleyman —cofundador de DeepMind y hoy al frente de Microsoft AI— junto con Bhaskar, adopta una postura más pragmática y cautelosa. El libro parte de una premisa inquietante: estamos entrando en la era de la capacidad, donde tecnologías como la IA, la biología sintética o la computación cuántica otorgan poderes descomunales sin precedentes históricos.
Los autores no niegan el potencial positivo de estas tecnologías, pero advierten que el ritmo de innovación supera nuestra capacidad de gobernanza. Sin marcos regulatorios adecuados, la IA podría convertirse en una herramienta de vigilancia masiva, desigualdad estructural o incluso en un arma autónoma fuera de control.
Suleyman propone establecer con urgencia principios éticos globales para la contención del riesgo. Sugiere tomar como referencia la experiencia de la no proliferación nuclear: cooperación internacional, verificación mutua y límites estrictos al desarrollo de capacidades potencialmente destructivas.
Acento clave: la IA como desafío geopolítico y regulatorio.
Riesgo principal: pérdida de control, inestabilidad global y crisis de gobernabilidad.
Propuesta: contención proactiva mediante marcos éticos y regulaciones internacionales.
4. Tres visiones, una preocupación común
Aunque estos autores parten de distintos supuestos —filosóficos, tecnológicos o políticos—, comparten una preocupación: la IA redefine los límites de lo humano y exige una respuesta activa.| Autor | Visión de la IA | Riesgo principal | Propuesta |
| Harari | Herramienta de manipulación informativa | Erosión de la autonomía y la democracia | Regulación ética e institucional |
| Kurzweil | Oportunidad de evolución y fusión | Mal uso humano de la tecnología | Avance técnico con marcos éticos |
| Suleyman / Bhaskar | Fuerza desestabilizadora global | Crisis de gobernanza y desigualdad | Contención y gobernanza internacional |
¿Tecnología para la emancipación o para la sumisión?
Los tres libros coinciden en que la IA no es una revolución más, sino un cambio estructural. Las preguntas que plantean afectan tanto a la política como a la ética, la cultura o la economía:- ¿Debe la IA potenciar nuestras capacidades o sustituir nuestras decisiones?
- ¿Quién define los límites entre lo humano y lo artificial?
- ¿Podemos confiar en que el mercado o la competencia internacional basten para evitar abusos?
Epílogo: leer para entender el futuro
En la Feria del Libro 2025, detenerse en estos tres títulos no es solo un ejercicio intelectual, sino una invitación a participar en el gran debate de nuestra época. Lejos de ser distopías o utopías, los escenarios que plantean Harari, Kurzweil y Suleyman son hipótesis serias sobre el mundo que ya estamos habitando. Comprender la IA exige más que saber cómo funciona: exige preguntarse para qué, para quién y a costa de qué. Y en esa conversación, estos tres libros son aliados imprescindibles.Francisco Martínez Consultor y Profesor en Dirección Estratégica francisco.martinez@creandovalor.es creandovalor.es Mayo 2025



