Utilizamos cookies propias y de terceros para realizar estadísticas de uso de la web con la finalidad de identificar fallos y poder mejorar los contenidos y configuración de la página web.
Para más información, visita la Política de cookies.
Durante décadas, se ha pensado que para alcanzar una "superinteligencia digital" haría falta construir una IA que imitara el razonamiento humano en toda su amplitud y flexibilidad: conciencia, intención, aprendizaje simbólico, sentido común, razonamiento abstracto...
Lo que llamaríamos una IA fuerte.
Pero ese camino ha demostrado ser extremadamente difícil, lleno de escollos filosóficos, técnicos y computacionales.
Con la entrada de los modelos GPT (transformers) este camino vertical hacia una AGI (IA general) “desde cero” ha perdido fuerza.
Lo que ha sorprendido a la comunidad es que modelos basados en tareas muy específicas (por ejemplo, predecir la siguiente palabra en un texto) pueden desarrollar capacidades emergentes sin haber sido explícitamente programados para ello.
Esto plantea dos giros importantes:
1.- Se abren nuevas líneas de investigación científicas y tecnológicas con el objeto de adquirir capacidades generales desde una arquitectura débil.
2.- Nos encontramos en un momento de posible aceleración de la inteligencia artificial: si seguimos escalando modelos, mejorando eficiencia, integrándolos con herramientas externas, razonadores simbólicos o memorias a largo plazo, podríamos alcanzar sistemas mucho más inteligentes sin pasar por una AGI clásica.
Sistemas que, sin ser conscientes ni tener metas, están transformando radicalmente nuestra relación con la inteligencia artificial.
Una IA “tonta” que hace cosas “inteligentes” ha resultado más poderosa y transformadora que décadas de intentos de construir un “cerebro artificial”.
Un modelo predictivo que solo intenta adivinar la siguiente palabra ha acabado modelando nuestro lenguaje, nuestro conocimiento, nuestras lógicas y hasta nuestras decisiones.
Unai