jueves, 19 febrero 2026

Inteligencia artificial general: desempeño humano en todas las tareas cognitivas

Al azar

Un reciente estudio entre expertos en inteligencia artificial (IA) sugiere que alcanzar un nivel de razonamiento similar al humano no será posible con la tecnología actual. Más de tres cuartas partes de los encuestados consideran que expandir los sistemas de IA actuales no conducirá a la inteligencia artificial general (AGI), y un número aún mayor cree que las redes neuronales por sí solas no podrán igualar o superar la inteligencia humana.

¿Qué es la IA General?

El término inteligencia artificial general (AGI) se refiere a un sistema de IA capaz de igualar o superar el desempeño humano en toda la gama de tareas cognitivas. A diferencia de la IA especializada en funciones concretas, la AGI tendría la capacidad de razonar, aprender y adaptarse a múltiples contextos, similar a como lo hace un ser humano. Sin embargo, no existe aún un consenso sobre cómo medir o determinar cuándo se ha alcanzado la AGI.

La encuesta, presentada en la reunión anual de la Association for the Advancement of Artificial Intelligence (AAAI), incluyó a 475 miembros, de los cuales el 67% eran académicos. Solo una cuarta parte de los encuestados cree que la búsqueda de la AGI debería ser la prioridad central de la comunidad investigadora. La investigadora Francesca Rossi, de IBM, señala que el propósito de la IA debería ser apoyar el crecimiento humano, no reemplazarlo.

Limitaciones de las redes neuronales

Los sistemas de IA generativa, como los chatbots y generadores de imágenes, están basados en redes neuronales que aprenden a partir de grandes volúmenes de datos. A lo largo de la última década, su desempeño ha mejorado al aumentar el tamaño de los modelos y los datos de entrenamiento. Sin embargo, el 84% de los encuestados considera que este enfoque no es suficiente para alcanzar la AGI.

El informe de la AAAI enfatiza que otras formas de IA deben recibir más atención, como la IA simbólica, que se basa en reglas lógicas en lugar de análisis estadístico. Más del 60% de los expertos cree que el razonamiento a nivel humano solo se alcanzará combinando IA simbólica con redes neuronales.

Preocupaciones sobre la IA General

El estudio también revela inquietudes sobre el desarrollo descontrolado de la AGI. Más del 75% de los encuestados cree que la investigación en IA debe centrarse en sistemas con un perfil de riesgo-beneficio aceptable, en lugar de priorizar la AGI. Solo el 23% opina que la AGI debería ser la máxima prioridad.

Un 30% de los encuestados cree que la investigación en AGI debería detenerse hasta que existan mecanismos para controlar completamente estos sistemas y garantizar que operen de manera segura y en beneficio de la humanidad. Sin embargo, la mayoría de la comunidad se opone a esta idea, argumentando que las empresas privadas seguirían desarrollando AGI aunque las agencias de investigación dejaran de financiarla. El investigador Anthony Cohn, de la Universidad de Leeds, considera poco probable que la AGI sea alcanzada en el corto plazo, lo que daría tiempo a desarrollar medidas de seguridad.

Los agentes de IA y sus riesgos

Muchas empresas están desarrollando agentes de IA, sistemas capaces de manejar tareas complejas y abiertas, como reservar viajes o programar software. Sin embargo, hay un debate sobre si los beneficios de estos agentes justifican sus costos en términos de consumo de energía y complejidad computacional.

Además, los agentes de IA pueden representar nuevas amenazas de seguridad. Algunos científicos utilizan un agente para ayudarlo con matemáticas y programación, pero reconoce que no sabe exactamente qué está haciendo el sistema. Temores como que un agente acceda a credenciales privadas y realice acciones sin autorización reflejan la incertidumbre sobre los riesgos de estas tecnologías.

El estudio también destaca la falta de un consenso sobre términos clave en la investigación de IA. Por ejemplo, cuando se preguntó cuándo una IA completamente autónoma haría un descubrimiento científico digno de un Premio Nobel, la respuesta más común entre los expertos fue: “No tengo ni idea”.

Los resultados de la encuesta revelan una comunidad científica dividida sobre el futuro de la IA General. Mientras que algunos expertos creen que es un objetivo inalcanzable con la tecnología actual, otros argumentan que es posible si se combinan diferentes enfoques, como la IA simbólica y las redes neuronales.

Sin embargo, persisten preocupaciones sobre los riesgos y la seguridad de estos sistemas, así como sobre la necesidad de establecer controles antes de que se logre la AGI. Por ahora, la incertidumbre sigue dominando el campo, con más preguntas que respuestas sobre el verdadero potencial de la inteligencia artificial.


Fuente: Nature (doi: https://doi.org/10.1038/d41586-025-00649-4).

Relacionados

Dejar un comentario

Lo más visto últimamente

Lo más visto desde siempre

Descubre más desde TRIPLENLACE

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo