Utilizamos cookies propias y de terceros para realizar estadísticas de uso de la web con la finalidad de identificar fallos y poder mejorar los contenidos y configuración de la página web.
Para más información, visita la Política de cookies.
Mira, los bebés aprenden la noción causa-efecto a través de la experimentación.
Si se te cae un vaso de agua éste se desparramará. Imposible adivinar la disposición del agua una vez derramada pero el efecto de la causa es claro.
Este modelo de aprendizaje biológico en ningún caso se ha conseguido con chatGPT.
chatGPT no funciona así.
Estos modelos de IA son completamente predictivos.
Me explico.
Son reglas de asociación capaces de llegar a la causalidad pero a través de modelos de aprendizaje que están muy lejos del aprendizaje biológico.
No comprenden la causa de que el agua se derrame, simplemente lo asocian con casos parecidos y predicen el resultado.
Incluso predicen la disposición del agua derramada, aunque no sepan justificar por qué.
Quiero decir, ¿son capaces de hacer predicciones sobre contextos muy complejos, pero sin embargo no son capaces de comprender la causa del efecto?
Algo así, todo esto es muy loco.
¿Se ha abierto la puerta a algo que no sabemos cómo aprende por lo que su evolución está cada vez más fuera de nuestro control?
No lo sé, pudiera ser.
Quizás en este momento, ¿esté naciendo una “materia gris” digital superior a la nuestra que seremos incapaces de comprender?
Y yo qué sé.
Soy Unai y lo que me importa en este momento es esclavizar IA-s para ponerlas al servicio de tu negocio.
Para saber cómo hacerlo me debes agendar una cita telefónica desde AQUÍ y nos ofrecemos mutuamente, tú y yo, 15 minutos de nuestras vidas para conversar.