samedi 26 décembre 2015

Comment le cerveau peut gérer autant de données?

Les êtres humains apprennent à identifier très rapidement des objets et de leurs variations complexes. Nous reconnaissons généralement un «A», peu importe ce que la police, la texture ou de fond, par exemple, ou le visage d'un collègue de travail, même si elle met un chapeau ou modifie sa coiffure. Nous pouvons également identifier un objet lorsque seulement une partie est visible, comme le coin d'un lit ou la charnière d'une porte. Mais comment? Y a-t-il des techniques simples que les humains utilisent pour diverses tâches? Et ces techniques peuvent être répliquées de calcul pour améliorer la vision par ordinateur, l'apprentissage de la machine ou de la performance robotique?
Des chercheurs de Georgia Tech ont découvert que les humains peuvent classer les données en utilisant moins de 1 pour cent de l'information originale, et validés un algorithme pour expliquer l'apprentissage humain - une méthode qui peut également être utilisé pour l'apprentissage de la machine, l'analyse de données et la vision par ordinateur.
"Comment pouvons-nous donner un sens à tant de données autour de nous, de tant de types différents, si rapidement et robuste?" dit Santosh Vempala, professeur émérite de sciences informatiques à l'Institut de technologie de Géorgie et l'un des quatre chercheurs sur le projet. "À un niveau fondamental, comment les humains commencent à faire cela? Il est un problème de calcul."
Les chercheurs Rosa Arriaga, Maya Cakmak, David Rutter, et Vempala au Collège de Georgia Tech d'informatique étudié la performance humaine dans des tests "de projection aléatoire" pour comprendre comment les êtres humains apprennent un objet. Ils ont présenté des sujets d'essai avec l'original, des images abstraites et a ensuite demandé si elles pouvaient identifier correctement cette même image lorsque montré hasard juste une petite partie de celui-ci.
"Nous émettons l'hypothèse que la projection aléatoire pourrait être un moyen humains apprennent," Arriaga, chercheur principal et psychologue du développement, explique."L'histoire est courte, la prédiction était juste. Juste 0,15 pour cent du total des données est assez pour l'homme."
Ensuite, les chercheurs ont testé un algorithme de calcul pour permettre aux machines (réseaux neuronaux très simples) pour compléter les mêmes tests. Machines effectués ainsi que les humains, ce qui fournit une nouvelle compréhension de la façon dont les êtres humains apprennent. "Nous avons trouvé la preuve que, en fait, l'humain et le réseau de neurones se comportent de manière très similaire", a déclaré Arriaga.
Les chercheurs ont voulu venir avec une définition mathématique de ce stimuli typiques et atypiques ressemblent et, de là, prédire quelles données seraient plus difficile pour l'humain et la machine à apprendre. Les humains et les machines effectués de manière égale, ce qui démontre que l'on peut en effet prédire quelles données seront plus difficiles à apprendre au fil du temps.
Les résultats ont été récemment publiés dans la revue Calcul neuronal (MIT Press). Il est considéré comme la première étude de «projection aléatoire," la composante de base de la théorie des chercheurs, avec des sujets humains.
Pour tester leur théorie, les chercheurs ont créé trois familles d'images abstraites à 150 x 150 pixels, alors très petits `` croquis aléatoires »de ces images. Les sujets ont été présentés l'ensemble de l'image pendant 10 secondes, puis montré au hasard 16 croquis de chacun. Utilisation images abstraites assuré que ni les humains ni les machines n’avaient aucune connaissance préalable de ce que les objets étaient.
"Nous avons été surpris par la proximité de la performance était entre les réseaux de neurones et les humains très simples», a déclaré Vempala. "La conception des réseaux de neurones a été inspiré par la façon dont nous pensons que les humains apprennent, mais il est une source d'inspiration faible. Pour trouver qu'il correspond à la performance humaine est tout à fait une surprise."
«Ce document fascinant introduit une projection aléatoire localisée qui compresse les images tout en rendant possible pour les humains et les machines à distinguer grandes catégories", a déclaré Sanjoy Dasgupta, professeur de sciences informatiques et de l'ingénierie à l'Université de Californie à San Diego et un expert sur l'apprentissage machine et la projection aléatoire. "Il est une combinaison créative de connaissances de la géométrie, le calcul neuronal, et l'apprentissage de la machine."
Bien que les chercheurs ne peuvent prétendre définitivement que le cerveau humain engage effectivement en projection aléatoire, les résultats soutiennent la notion que la projection aléatoire est une explication plausible, concluent les auteurs. En outre, il suggère une technique très utile pour l'apprentissage de la machine: une grande donnée est un formidable défi d'aujourd'hui, et la projection aléatoire est une façon de rendre les données gérables sans perdre contenu essentiel, au moins pour les tâches de base telles que la catégorisation et la prise de décision.
La théorie algorithmique de l'apprentissage basé sur la projection aléatoire a déjà été cité plus de 300 fois et est devenu une technique couramment utilisée dans la machine à apprendre à gérer de grandes données de divers types.