Por qué la IA no puede reproducir la visión humana

toronto: Si bien las computadoras pueden detectar una cara familiar o un vehículo que se aproxima más rápido que el cerebro humano, su precisión es cuestionable.

Se puede enseñar a las computadoras a procesar los datos entrantes, como observar caras y automóviles, utilizando inteligencia artificial (IA) conocida como redes neuronales profundas o aprendizaje profundo. Este tipo de proceso de aprendizaje automático utiliza nodos o neuronas interconectados en una estructura en capas que se asemeja al cerebro humano.

La palabra clave es «se parece» ya que las computadoras, a pesar del poder y la promesa del aprendizaje profundo, aún tienen que dominar los cálculos humanos y, lo que es más importante, la comunicación y la conexión que se encuentran entre el cuerpo y el cerebro, específicamente cuando se trata del reconocimiento visual, según un estudio dirigido por Marieke Mur, experta en neuroimagen de la Western University en Canadá.

“Si bien las redes neuronales profundas son prometedoras, están lejos de ser modelos computacionales perfectos de la visión humana”, dijo Mur.

Estudios anteriores han demostrado que el aprendizaje profundo no puede reproducir perfectamente el reconocimiento visual humano, pero pocos han intentado establecer qué aspectos del aprendizaje profundo de la visión humana no logran emular.

El equipo utilizó una prueba médica no invasiva llamada magnetoencefalografía (MEG) que mide los campos magnéticos producidos por las corrientes eléctricas del cerebro. Usando datos MEG adquiridos de observadores humanos durante la visualización de objetos, Mur y su equipo detectaron un punto clave de falla.

Descubrieron que las partes fácilmente nombrables de los objetos, como «ojo», «rueda» y «cara», pueden explicar la variación en la dinámica neuronal humana más allá de lo que puede ofrecer el aprendizaje profundo.

“Estos hallazgos sugieren que las redes neuronales profundas y los humanos pueden depender en parte de diferentes características de los objetos para el reconocimiento visual y proporcionar pautas para la mejora del modelo”, dijo Mur.

El estudio muestra que las redes neuronales profundas no pueden dar cuenta por completo de las respuestas neuronales medidas en observadores humanos mientras las personas miran fotos de objetos, incluidos rostros y animales, y tiene implicaciones importantes para el uso de modelos de aprendizaje profundo en entornos del mundo real, como la autoevaluación. conducción de vehículos.

“Este descubrimiento proporciona pistas sobre lo que las redes neuronales no logran comprender en las imágenes, es decir, las características visuales que son indicativas de categorías de objetos ecológicamente relevantes, como rostros y animales”, dijo Mur.

«Sugerimos que las redes neuronales se pueden mejorar como modelos del cerebro al brindarles una experiencia de aprendizaje más humana, como un régimen de entrenamiento que enfatiza más las presiones conductuales a las que los humanos están sujetos durante el desarrollo».

Por ejemplo, es importante que los humanos identifiquen rápidamente si un objeto es un animal que se acerca o no y, de ser así, predecir su próximo movimiento consecuente. La integración de estas presiones durante el entrenamiento puede beneficiar la capacidad de los enfoques de aprendizaje profundo para modelar la visión humana.

El trabajo se publica en The Journal of Neuroscience.