Project

Back to overview

Eye Labeling for Medical Image Data

Applicant Sznitman Raphael
Number 162347
Funding scheme Project funding (Div. I-III)
Research institution ARTORG Center Medizinische Fakultät Universität Bern
Institution of higher education University of Berne - BE
Main discipline Information Technology
Start/End 01.03.2016 - 29.02.2020
Approved amount 228'609.00
Show all

Keywords (3)

Machine Learning; Computer Vision; Medical Image Computing

Lay Summary (French)

Lead
De nos jours, l’analyse automatique d’image médicale se fait en utilisant des algorithmes qui cherchent des patterns dans des corpus d’images important, souvent nommé corpus d’entrainement. Pour que ces algorithmes fonctionnent d’une manière efficace, les patterns doivent être manuellement définis pour chaque exemple dans le corpus d’entrainement. Ceci peut impliquer l’annotation de milliers de mitochondries dans des images 3D de cerveaux ou bien l’annotation de tumeur dans des images RMI. Quelconque les patterns à définir, ils sont en grande partie la source des réussites de ses algorithmes automatiques.
Lay summary

De nos jours, l’analyse automatique d’image médicale se fait en utilisant des algorithmes qui cherchent des patterns dans des corpus d’images important, souvent nommé corpus d’entrainement. Pour que ces algorithmes fonctionnent d’une manière efficace, les patterns doivent être manuellement définis pour chaque exemple dans le corpus d’entrainement. Ceci peut impliquer l’annotation de milliers de mitochondries dans des images 3D de cerveaux ou bien l’annotation de tumeur dans des images RMI. Quelconque les patterns à définir, ils sont en grande partie la source des réussites de ses algorithmes automatiques. 

Malheureusement, ce processus d’annotation demeure un travail laborieux, frustrant et souvent extrêmement long. De plus, les patterns en questions, donc des tumeurs, des lésions, des pathogènes, ne sont reconnaissables que par des experts ayant suivi des formations de longue durée. Ce fait rend le nombre de personnes capable d’annoter les images très petites et par conséquent limite de façon importante le nombre d’annotations exploitables. 

C’est pour ces raisons, que ce projet cherche a déterminé une nouvelle façon d’acquérir ses patterns. En particulier, nous sommes intéressés à développer de nouveaux algorithmes qui peuvent trouver des patterns à l’aide d’où les experts regardent dans les images médicales qu’ils observent. 

 

Direct link to Lay Summary Last update: 28.09.2015

Responsible applicant and co-applicants

Employees

Name Institute

Publications

Publication
Iterative multi-path tracking for video and volume segmentation with sparse point supervision
Lejeune Laurent, Grossrieder Jan, Sznitman Raphael (2018), Iterative multi-path tracking for video and volume segmentation with sparse point supervision, in Medical Image Analysis, 50, 65-81.
A tracking-based method for video and volume annotation with sparse point supervision
LejeuneLaurent, GrossriederJan, SznitmanRaphael (2018), A tracking-based method for video and volume annotation with sparse point supervision, Springer, Granada, Spain.
Expected Exponential Loss for Gaze-Based Video and Volume Ground Truth Annotation
Lejeune Laurent, Christoudias Mario, Sznitman Raphael (2017), Expected Exponential Loss for Gaze-Based Video and Volume Ground Truth Annotation, Springer International Publishing, Cham.

Communication with the public

Communication Title Media Place Year
Media relations: print media, online media Gaze Label International 2017

Use-inspired outputs

Software

Name Year
Gaze Label 2018


Abstract

Computer vision and machine learning are now critical to large scale medical image analysis. To train state-of-the-art methods for automatic detection and segmentation of biomedical structures, manually annotated, or labeled, image data must be provided by expert-users who have significant knowledge in specific subject matters (eg tumors, mitochondria, lesions, etc).Due to this critical reliance on experts, acquiring training data remains a major bottleneck for large scale machine learning in medically relevant applications. While crowd-sourcing has been very successful in traditional computer vision, its success hinges on access to large populations of annotators. This makes it at odds with many medically driven applications where the number of experts capable of providing accurate annotations is often very small.In addition, the data annotation bottleneck is particularly problematic as it not only strongly limits the quantity of data that can be acquired to train classification algorithms, which in turn reduces performances, but also places an overwhelming annotation burden on a small number of experts.To reduce these burdens, the aim of this project is to leverage low-cost gaze-tracking hardware with machine learning and computer vision techniques to allow experts to seamlessly and effortlessly annotate large quantities of medical image data by simply looking at the them.
-