Una nueva y audaz predicción del director ejecutivo de la empresa Anthropic ha sacudido el debate sobre la inteligencia artificial: la humanidad podría estar a solo seis meses de alcanzar la singularidad tecnológica, ese hipotético punto en el que las máquinas superarán a la inteligencia humana. El pronóstico, que contrasta con evaluaciones más conservadoras, plantea interrogantes críticos sobre el rumbo de la tecnología y el futuro de la civilización.
¿Qué es la singularidad tecnológica?
La singularidad tecnológica es un concepto popularizado por el matemático Vernor Vinge y el futurista Ray Kurzweil. Describe el momento en el que la inteligencia artificial no solo iguale, sino supere la inteligencia humana, provocando un crecimiento exponencial e impredecible del conocimiento, la innovación y la transformación social.
Se estima que este punto desatará una aceleración sin precedentes en todos los ámbitos: desde la ciencia hasta la economía, pasando por la política, la educación y la misma naturaleza humana. Su rasgo definitorio: nadie puede prever lo que vendrá después.
Un pronóstico en solitario… ¿o una tendencia creciente?
La afirmación de Anthropic no surge en el vacío. Un análisis macro de más de 8.500 predicciones realizado por la firma AIMultiple revela que las estimaciones sobre la llegada de la AGI (Inteligencia Artificial General) y la singularidad han cambiado drásticamente en los últimos años. Donde antes se hablaba del año 2060, hoy se habla de 2040 —e incluso antes, si se consulta a empresarios tecnológicos.
El estudio muestra que las estimaciones de científicos apuntan al año 2040 como horizonte de la AGI, mientras que los líderes empresariales son más optimistas, ubicándola alrededor de 2030. La irrupción de modelos de lenguaje avanzados, como ChatGPT, ha acelerado esta visión.
Cuatro pilares que sostienen la singularidad
Superinteligencia: las máquinas serán más inteligentes que los humanos en todos los aspectos.
Crecimiento exponencial: las IA mejorarán otras IA, fuera del alcance humano.
Imprevisibilidad: será imposible anticipar qué viene después.
Transformación radical: afectará todas las estructuras sociales, económicas y científicas.
El rol de la computación: entre límites físicos y nuevas fronteras
Aunque la Ley de Moore —que indica que el poder de cómputo se duplica cada 18 meses— sigue siendo una referencia, muchos expertos predicen su agotamiento en esta década. Sin embargo, la computación cuántica emerge como alternativa para sostener el avance.
Esta tecnología permitiría entrenar modelos de IA más grandes y sofisticados, potencialmente capaces de alcanzar o incluso desencadenar la singularidad.
No todo es optimismo: voces críticas en el debate
Importantes figuras del mundo de la IA, como Yann LeCun, han expresado dudas sobre la inevitabilidad de la AGI. Para LeCun, más que hablar de “inteligencia general”, deberíamos referirnos a “inteligencia de máquina avanzada”.
Otros expertos destacan que la inteligencia humana es múltiple —emocional, existencial, interpersonal— y no se reduce a la lógica computacional que hoy domina los desarrollos de IA. Según esta visión, la AGI podría ser una ilusión conceptual más que un destino realista.
Además, la investigación advierte que más inteligencia no garantiza más descubrimientos. Por ejemplo, la IA puede facilitar experimentos más eficientes, pero no necesariamente encontrar curas para enfermedades como el cáncer sin intervención humana.
¿Hacia un futuro inevitable o aún evitable?
Pese a las diferencias en las proyecciones —que oscilan desde los seis meses hasta varias décadas—, el consenso general es que la AGI llegará antes de que termine este siglo. La pregunta clave, sin embargo, no es solo cuándo llegará, sino cómo estaremos preparados para enfrentarlo.
La investigación concluye que el impacto será profundo. Si será positivo o devastador, dependerá de las decisiones éticas, políticas y sociales que se tomen hoy.
El debate sobre la singularidad tecnológica ya no es exclusivo de los círculos académicos o futuristas. Se ha vuelto una cuestión urgente de política pública, seguridad y ética global. Frente a predicciones tan dispares como inquietantes, el desafío es pensar no solo en lo que viene, sino en cómo lo controlamos antes de que nos controle.