Project

Back to overview

Probabilistic approaches to synaptic learning

English title Probabilistic approaches to synaptic learning
Applicant Pouget Alexandre
Number 165831
Funding scheme Project funding (Div. I-III)
Research institution Dépt des Neurosciences Fondamentales Faculté de Médecine Université de Genève
Institution of higher education University of Geneva - GE
Main discipline Neurophysiology and Brain Research
Start/End 01.01.2017 - 30.06.2021
Approved amount 561'941.00
Show all

All Disciplines (2)

Discipline
Neurophysiology and Brain Research
Mathematics

Keywords (5)

information; computational; learning; neuroscience; uncertainty

Lay Summary (French)

Lead
Les neurones communiquent entre eux à l’aide d’impulsions électriques. Ces impulsions conduisent à la libération de molécules de neurotransmetteur au niveau des synapses, point de contact entre neurones. Ce projet se penche sur le rôle des synapses dans l’apprentissage et la mémoire.
Lay summary

Tous les calculs effectués par le cerveau sont soumis à l’incertitude du fait de la nature bruitée et ambiguë des signaux sensoriels. Afin de prendre en considération cette incertitude de manière optimale, les neurones représentent l’information sous forme de distribution de probabilités et effectuent des inférences statistiques. Par exemple, lorsque les neurones encodent la couleur d’un objet, ils ne se contentent pas de représenter une couleur en particulier mais ils extraient de l’image une distribution de probabilités sur les couleurs étant donnée l’image.

Curieusement, ces théories probabilistes, qui sont pourtant bien établies, n’ont pas été encore appliquées à l’apprentissage. Dans les réseaux neuronaux, l’apprentissage est formalisé comme un problème d’ajustement de ce qu’on appelle les poids synaptiques. Ces poids déterminent l’influence d’un neurone sur l’autre et, par conséquent, la nature des calculs effectués par les neurones. Ils sont ajustés au cours de l’apprentissage en fonction de règles bien précises telle que la règle de Hebb. Néanmoins, dans toutes les théories de l’apprentissage, chaque synapse est caractérisée par la valeur de son poids synaptique sans considérer l’incertitude liée à ce poids. Or, dans la mesure où tous les signaux représentés pas le cerveau sont soumis à l’incertitude, les poids synaptiques qui en sont dérivés devraient eux-aussi être soumis à l’incertitude. Les synapses devraient donc représenter non des poids synaptiques mais des distributions de probabilités sur les poids synaptiques. C’est précisément cette hypothèse que nous allons explorer dans ce projet. Nous allons d’une part dériver les règles d’apprentissage qui permettent de mettre à jour les distributions de probabilités sur les poids, et d’autre part collaborer avec des laboratoires expérimentaux pour tester les prédictions de notre travail théorique. 

 

Direct link to Lay Summary Last update: 10.04.2016

Responsible applicant and co-applicants

Employees

Associated projects

Number Title Start Funding scheme
197296 Neural models of probabilistic reinforcement learning 01.01.2021 Project funding (Div. I-III)
143707 Theory of correlations and attention with population codes 01.01.2013 Project funding (Div. I-III)

Abstract

The data provided by the real world is highly ambiguous and subject to uncertainty. Well adapted behavior, and ultimately survival, are critically dependent on the ability of the nervous system to handle this uncertainty as well as possible. Recent experimental data and theory have revealed that the brain does indeed represent uncertainty and that neural computation can be modeled as a form of approximate statistical inference. Interestingly, however, neuroscientists have yet to apply this approach to synaptic learning. Current learning rules in neuroscience partially ignore the uncertainty about the input entering the network and do not represent the uncertainty about the weights themselves. In this proposal, we will derive new learning rules that are uncertainty dependent and we will explore the implication of this form of probabilistic learning for neural computation in general.
-