Lead
Pour améliorer l’expérience de l’utilisateur, des centres de calcul surveillent continuellement les grandes quantités de données entrantes. Les mégadonnées ainsi engendrées permettent de réunir des enseignements utiles. Dapprox développe des méthodes et des outils de prévision des anomalies de performance en temps réel, en sélectionnant un sous-ensemble de données clés et en proposant des solutions en vue d’une meilleure gestion des ressources. Dapprox comporte un ensemble de méthodes et d’outils logiciels d’analyse rapides et en temps réel selon un mode approximatif. Il vise à prévoir de potentielles anomalies (et de proposer des solutions) en prenant simultanément en compte exigences d’exactitude, délais maximaux et ressources disponibles.

Lay summary

Dapprox cherche d’abord des caractérisques communes aux serveurs, puis ne traite qu’un sous-ensemble de données clés d’une façon qui ne nuit pas à l’exactitude des résultats. Dapprox peut notamment sélectionner et traiter de façon dynamique le volume optimal de données, basées sur des structures communes qui changent au cours du temps. Dapprox englobe trois types de tâches: analyses prédictives attentives aux dépendances pour les prévisions, analyses approximatives du streaming pour les données vivantes et gestion des anomalies du centre de données.

Afin de garantir la qualité du service et la fiabilité du système, des centres de données contrôlent et collectent les rapports de performance de nombreuses ressources informatiques réelles et virtuelles. Le volume des données ainsi générées est tellement grand qu’il est presque impossible de les analyser correctement en temps réel. Les analyses existantes tendent à être rudimentaires et lentes, induisant des retards dans la réparation des anomalies de performance et altérant significativement l’expérience de l’utilisateur.

Notre objectif est d’analyser des données de performance afin de mieux gérer les ressources informatiques dans les centres de calcul, ceci afin d’améliorer l’expérience de l’utilisateur. Au lieu d’analyser toutes les données, nous développerons des analyses approximatives – des méthodes et des outils basés sur des sous-ensembles de données – afin de prévoir des modèles complexes de séries d’utilisation de ressources et ce qu’on appelle des états critiques. Nous allons aussi créer des outils pour le traitement et l’analyse d’anomalie en temps réel. Enfin, nous proposerons des programmes de gestion des anomalies aux centres de calcul