Project

Back to overview

Self-Organizing Machine Architecture - SOMA

English title Self-Organizing Machine Architecture - SOMA
Applicant Upegui Andres
Number 175720
Funding scheme Project funding (Div. I-III)
Research institution HEPIA (HES-SO) inSTI -Institut des Sciences et Technologies HES-SO
Institution of higher education University of Applied Sciences and Arts Western Switzerland - HES-SO
Main discipline Information Technology
Start/End 01.03.2018 - 28.02.2021
Approved amount 335'228.00
Show all

Keywords (5)

auto-organisation; architecture des ordinateurs; dispositifs numériques reconfigurables; machines neuromorphiques; calcul cellulaire

Lay Summary (French)

Lead
L'augmentation des transistors au cours des dernières années a permit une large adoption des architectures massivement parallèles. Un des grands problèmes de ces architectures est la conception et le déploiement d'applications qui ne peuvent pas faire une utilisation optimale du matériel. Cette limite est plus aiguë lorsque l'on considère les domaines d'application où le système évolue dans des conditions inconnues telles que l'IoT ou les véhicules autonomes. Dans ces cas, il est impossible de prévoir l'ensemble des contextes possibles auxquels le système sera confronté pendant sa vie, rendant impossible l'identification d'un substrat matériel optimal. Le cerveau biologique a "résolu" ce problème en utilisant une architecture dédiée et des mécanismes qui offrent des calculs adaptatifs et dynamiques, à savoir, l'auto-organisation. Cependant, l'auto-organisation au niveau matériel reste un sujet mal étudié qui exige de relever un certain nombre de défis interdisciplinaires.
Lay summary

Contenu et objectifs du travail de recherche :

Le premier défi consiste à étendre les mécanismes habituels d'auto-organisation aux niveaux des calcul et des communications dans une architecture matérielle neuromorphique. Du point de vue biologique, cela correspond à une combinaison des phénomènes de plasticité synaptique et corticale. Nous avons l'intention de définir des modèles computationnels capables de s'organiser simultanément à ces deux niveaux, et compatibles avec un déploiement matériel, distribué et tolérants aux pannes. Le deuxième défi consiste à prouver la faisabilité d'une auto-organisation structurelle matérielle. Considérant que ces propriétés émergent à grande échelle de cartes neuronales entièrement connectées, nous nous concentrerons sur la définition d'une architecture matérielle numérique utilisant des neurones impulsionnels. Le troisième défi consiste à coupler ce nouveau paradigme de calcul à une architecture parallèle conventionnelle. Cette volonté nécessite la spécification d'un réseau sur puce qui s'adapte aux ressources matérielles auto-organisées, ainsi que la définition d'un modèle de programmation utilisant l'apprentissage des données d'entrée pour automatiquement diviser et allouer des éléments fonctionnels.

Contexte Scientifique :

Ce projet est un point de convergence entre des travaux de recherche passées vers de nouveaux paradigmes de calcul : neurosciences computationnelles, architectures neuromorphiques, architectures adaptatives reconfigurables et calcul cellulaire. Ce projet représente enfin un pas significatif vers la définition d'un vrai modèle de calcul distribué, adaptatif et décentralisé. Ce nouveau modèle permettra d'étudier l'intégration viable des systèmes neuromorphiques et des architectures conventionnelles de Von Neumann en dotant ces systèmes de calcul de nouvelles propriétés adaptatives.

Direct link to Lay Summary Last update: 15.02.2018

Responsible applicant and co-applicants

Employees

Abstract

The tremendous increase of transistors integration during the last few years has reached the limits of classic Von Neuman architectures. This has enabled a wide adoption of parallel processors by the industry, enabling many-core processing architectures as a natural trend for the next generation of computing devices. Nonetheless, one major issue of such massively parallel processors is the design and the deployment of applications that cannot make an optimal use of the available hardware resources. This limit is even more acute when we consider application domains where the system evolves under unknown and uncertain conditions such as mobile robotics, IoT, autonomous vehicles or drones. In the end, it is impossible to foresee every possible context that the system will face during its lifetime, making thus impossible to identify the optimal hardware substrate to be used. Interestingly enough, the biological brain has ''solved'' this problem using a dedicated architecture and mechanisms that offer both adaptive and dynamic computations, namely, self-organization. However, even if such neuro-biological systems have often been a source of inspiration for computer science (as recently demonstrated by the renewed interest in deep-learning), the transcription of self-organization at the hardware level is not straightforward and requires a number of challenges to be taken-up.The first challenge is to extend the usual self-organization mechanisms to account for the dual levels of computation and communication in a hardware manycore architecture. From a biological point of view, this corresponds to a combination of the so-called synaptic and structural plasticity. We intend to define computational models able to simultaneously self-organize at both levels, and we want these models to be hardware-compliant, fault tolerant and scalable thanks to a neuro-cellular structure.The second challenge is to prove the feasibility of a self-organizing hardware structure. Considering that these properties emerge from large scale and fully connected neural maps, we will focus on the definition of a self-organizing hardware architecture based on digital spiking neurons. The third challenge consists in coupling this new computation paradigm with classical Von Neumann programming. This will require the definition of a programming model using the learning of input data to better and automatically divide and allocate functional elements.Hence, this project is a convergence point between past research approaches toward new computation paradigms: adaptive reconfigurable architecture, cellular computing, computational neuroscience, and neuromorphic hardware: - SOMA is an adaptive reconfigurable architecture to the extent that it will dynamically re-organize both its computation and its communication by adapting itself to the data to process. - SOMA is based on cellular computing since it targets a massively parallel (many-core), distributed and decentralized architecture. - SOMA is based on computational neuroscience since its self-organization capabilities are inspired from neural mechanisms. - SOMA is a neuromorphic hardware system since its organization emerges from the interactions between neural maps transposed into hardware from brain observation.This project represents a significant step toward the definition of a true fine-grained distributed, adaptive and decentralized neural computation framework. Using self-organized neural populations onto a cellular machine where local routing resources are not separated from computational resources, it will ensure natural scalability and adaptability as well as a better performance/power consumption tradeoff compared to other embedded solutions. This new computing framework may indeed represent a viable alternative to the classical Von Neumann architecture and could endow hardware systems with novel adaptive properties.
-