Ciencia

La inteligencia artificial autodidacta puede tener mucho en común con el cerebro humano

durante una década Hoy en día, muchos de los sistemas de IA más impresionantes se entrenan utilizando enormes conjuntos de datos etiquetados. La imagen podría etiquetarse como «pez gato» o «tigre», por ejemplo, para «enseñar» a la red neuronal artificial la discriminación correcta. La estrategia fue a la vez espectacularmente exitosa y lamentablemente inadecuada.

Este aprendizaje «supervisado» requiere que los datos sean meticulosamente etiquetados por humanos, y las redes neuronales a menudo toman atajos al aprender a asociar etiquetas con información mínima y, a veces, superficial. Por ejemplo, una red neuronal puede utilizar la presencia de hierba para reconocer la imagen de una vaca. porque las vacas se suelen fotografiar en el campo.

“Estamos criando una generación de algoritmos que son como estudiantes. [who] no vinieron a clase durante todo el semestre, y luego la noche antes de la graduación se abarrotaron», dijo alexey efrosinformático de la Universidad de California, Berkeley. «Realmente no absorben el material, pero les va bien en la prueba».

Además, para los investigadores interesados ​​en la intersección de la inteligencia animal y artificial, tal «aprendizaje supervisado» puede limitarse a lo que puede revelar sobre el cerebro biológico. su entorno es el suyo propio y así obtener una comprensión rica y estable del mundo.

Ahora, algunos neurocientíficos computacionales han comenzado a estudiar redes neuronales que han sido entrenadas con pocos o ningún dato humano etiquetado. Estos algoritmos de «aprendizaje supervisado» han tenido un gran éxito en simulación del lenguaje humano y, más recientemente, el reconocimiento de patrones. En un trabajo reciente, los modelos computacionales de los sistemas visuales y auditivos de los mamíferos construidos utilizando modelos de aprendizaje autosupervisados ​​mostraron una coincidencia más cercana con las funciones cerebrales que sus contrapartes de aprendizaje supervisado. Para algunos neurocientíficos, esto es como redes artificiales. están comenzando a revelar algunos de los métodos reales que utiliza nuestro cerebro para aprender.

Supervisión inapropiada

Los modelos cerebrales inspirados en redes neuronales artificiales maduraron hace unos 10 años, casi al mismo tiempo que una red neuronal llamada AlexNet revolucionó la tarea de clasificar imágenes desconocidas.Esta red, como todas las redes neuronales, constaba de capas de neuronas artificiales, unidades computacionales que forman conexiones entre sí que pueden variar en fuerza o «peso». imagen correcta, el algoritmo de aprendizaje actualiza los pesos de las conexiones entre las neuronas para que esta clasificación errónea sea menos probable en la próxima ronda de entrenamiento. El algoritmo repite este proceso muchas veces con todas las imágenes de entrenamiento, cambiando los pesos hasta que la tasa de error de la red sea aceptablemente baja.

Alexei Efros, científico informático de la Universidad de California, Berkeley, cree que la mayoría de los sistemas modernos de IA se basan demasiado en etiquetas hechas por humanos: “Realmente no aprenden cosas.Contribuido por Alexey Efros

Casi al mismo tiempo, los neurocientíficos desarrollaron los primeros modelos computacionales sistema visual de los primatesusando redes neuronales como AlexNet y sus sucesores.La alianza parecía prometedora: cuando, por ejemplo, a monos y redes neuronales artificiales se les mostraron las mismas imágenes, la actividad de las neuronas reales y las neuronas artificiales encontró una coincidencia intrigante. Modelos artificiales de audición y posterior detección de olores.

Pero a medida que el campo se desarrolló, los investigadores se dieron cuenta de las limitaciones del aprendizaje supervisado. Por ejemplo, en 2017, Leon Gattis, científico informático de la Universidad de Tübingen en Alemania, y sus colegas tomaron una imagen de un Ford Modelo T y luego superpusieron una patrón de piel de leopardo en la imagen. , creando una imagen extraña pero fácilmente reconocible. La principal red neuronal artificial clasificó correctamente la imagen original como un patrón en T, pero confundió la imagen modificada con un leopardo. Estaba obsesionado con la textura y no entendía la forma de un automóvil (o un leopardo, para el caso).

Las estrategias de autoaprendizaje están diseñadas para evitar tales problemas. Con este enfoque, las personas no etiquetan los datos. Más bien, «las etiquetas provienen de los datos mismos», dijo. Friedemann Senkeneurocientífico computacional del Instituto Friedrich Miescher de Investigación Biomédica en Basilea, Suiza. Los algoritmos de autosupervisión esencialmente crean brechas en los datos y requieren que la red neuronal llene esas brechas. Por ejemplo, en el llamado modelo de lenguaje grande, el algoritmo de aprendizaje muestra a la red neuronal las primeras palabras de una oración y le pide que prediga la siguiente palabra. modelo parece estar aprendiendo la estructura sintáctica del idioma, demostrando habilidades lingüísticas impresionantes, todo sin etiquetas externas ni supervisión.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *