Project

Back to overview

Conversational Agent forInteractive Access to Information

Applicant Hofmann Thomas
Number 167176
Funding scheme NRP 75 Big Data
Research institution Departement Informatik ETH Zürich
Institution of higher education ETH Zurich - ETHZ
Main discipline Information Technology
Start/End 01.01.2017 - 31.12.2020
Approved amount 368'016.00
Show all

Keywords (5)

Deep Learning; Conversational Agent; Machine Learning; Question Answering; Discourse Understanding

Lay Summary (German)

Lead
Bald schon werden uns intelligente Softwareagenten Rede und Antwort stehen und uns mit Unterhaltung und Information versorgen. Damit solche interaktiven Anwendungen möglich werden, untersucht dieses Projekt Grundlagenmethoden des maschinellen Sprachverstehens und Lernens.
Lay summary

Dialogfähige Agenten benötigen eine Reihe von Lesefähigkeiten. Sie müssen etwa Referenzen auf Personen, Organisationen, Ereignisse und Begriffe identifizieren – also quasi automatisch Wikipedia-Links erstellen – können. Sie müssen trotz der fundamentalen Mehrdeutigkeit und Kontextabhängigkeit unserer Sprache verstehen, von wem oder was die Rede ist. Auch muss der Gehalt der Aussagen erkannt und extrahiert werden. Hier bieten neuere Verfahren des «Deep Learnings» Möglichkeiten, den Bedeutungsinhalt von Sätzen unabhängig von Wortwahl und Satzbau zu verstehen. Schliesslich geht es darum, geeignete Diskursmodelle zu entwickeln, die verbunden mit einem Situationsverständnis eine effektive Interaktion mit Menschen ermöglichen.

Vielfältige Algorithmen helfen uns bei der Beschaffung und Bewertung von Informationen, etwa im Zusammenhang mit Suchmaschinen oder sozialen Medien. Gleiches gilt für den Bereich der Unterhaltung oder des E-Commerce. Mehr und mehr kommen dabei intelligente, dialogfähige Systeme zum Einsatz, an die wir gesprochene Anfragen in natürlicher Sprache richten können. Die wirtschaftlichen und gesellschaftlichen Auswirkungen dieser neuen Technologien sind enorm.

Eine dialogfähige Software muss automatisch Text und Sprache verstehen. Dabei geht es nicht nur um gesprochene Anfragen, sondern auch um ein tieferes Verständnis der Dokumente und Texte, in denen unser Weltwissen niedergeschrieben ist. Dieses Projekt entwickelt neue Methoden des Textverstehens: Wovon ist die Rede und was wird ausgesagt? Was davon könnte für einen Nutzer relevant oder wissenswert sein? Fragen, die einer algorithmischen Lösung bedürfen.

Direct link to Lay Summary Last update: 26.07.2017

Lay Summary (French)

Lead
Des agents logiciels intelligents seront bientôt en mesure de répondre à nos questions et de fournir divertissement et information. Afin de rendre possibles de telles applications interactives, ce projet explore les méthodes de base de la compréhension et de l’apprentissage automatique du langage.
Lay summary

Des agents aptes au dialogue ont besoin d’une série de compétences de lecture. Ils doivent par exemple pouvoir identifier des références sur des personnes, des organisations, des événements et des notions, c’est-à-dire créer presque automatiquement des liens de type Wikipédia. Malgré l’ambiguïté fondamentale de notre langue et son caractère contextuel, ils doivent comprendre de qui et de quoi l’on parle. Le contenu des déclarations doit aussi être compris et extrait. De nouveaux procédés de "Deep Learnings" offrent ici la possibilité de comprendre le contenu sémantique des phrases indépendamment du choix des mots et de la syntaxe. Il s’agit enfin de développer des modèles de discours appropriés qui, associés à une compréhension de la situation, permettent une interaction effective avec des personnes.

Divers algorithmes nous aident à obtenir et à évaluer des informations, en lien par exemple avec des moteurs de recherche ou des médias sociaux. Il en va de même dans le domaine du divertissement et de l’e-commerce. Dans ce contexte, on utilise de plus en plus des systèmes intelligents et aptes au dialogue auxquels, on peut poser des questions en langage naturel. Les conséquences économiques et sociales de ces nouvelles technologies sont énormes.

Un logiciel apte au dialogue doit comprendre de manière automatique texte et langage. Il ne s’agit pas seulement de répondre à des questions posées de vive voix, mais d’être capable de comprendre en profondeur des documents et des textes dans lesquels notre connaissance du monde est consignée. Ce projet développe de nouvelles méthodes de compréhension des textes: de quoi parle-ton et qu’exprime-t-on? Qu’est-ce qui pourrait être pertinent ou intéressant pour un utilisateur? Ces questions nécessitent une réponse algorithmique.


Direct link to Lay Summary Last update: 26.07.2017

Lay Summary (English)

Lead
Intelligent software agents will soon be engaging in question-and-answer dialogues with us, as well as providing us with information and entertainment. To enable such interactive applications, this project is investigating fundamental methods of machine speech comprehension and learning.
Lay summary

Conversational agents require a series of reading capabilities. They need to be able to identify references to persons, organisations, events and concepts – comparable to automatically creating Wikipedia links. Despite the fundamental ambiguity and context sensitivity of our language, they must be able to understand who or what is being referred to. The facility to recognise and extract the content of statements is also essential. Recent advances in deep learning provide ways of understanding the meaning of sentences independently of the choice of words and sentence structure. The ultimate aim is to develop suitable discourse models which, in combination with situational understanding, permit effective interaction with humans.

Numerous different algorithms help us to procure and evaluate information, including in the context of search engines or social media. The same applies in the areas of entertainment or e-commerce. Intelligent, conversational systems to which we can direct spoken queries in natural language are being used to an increasing extent. The economic and social consequences of these new technologies are enormous.

Conversational software must be able to understand text and language automatically. This means more than just handling spoken queries. A deeper understanding of the documents and texts containing the world’s knowledge is also called for. The aim of this project is to develop new methods of text comprehension: What is the subject matter and what is being said? What could be relevant or interesting to a user? These are questions that demand an algorithmic solution.

 
Direct link to Lay Summary Last update: 26.07.2017

Responsible applicant and co-applicants

Employees

Publications

Publication
Local Saddle Point Optimization: A Curvature Exploitation Approach
AdolphsLeonard (2019), Local Saddle Point Optimization: A Curvature Exploitation Approach, in Local Saddle Point Optimization: A Curvature Exploitation Approach, AISTATS 2019, n.a..
Poincare Glove: Hyperbolic Word Embeddings
TifreaAlexandru (2019), Poincare Glove: Hyperbolic Word Embeddings, in Poincare Glove: Hyperbolic Word Embeddings, International Conference on Learning Representations 2019, n.a..
Riemannian Adaptive Optimization Methods
BecigneulGary (2019), Riemannian Adaptive Optimization Methods, in Riemannian Adaptive Optimization Methods, International Conference on Learning Representations 2019, n.a..
Evaluating GANs via Duality
GrnarovaPaulina (2018), Evaluating GANs via Duality, in arXiv, arXiv, n.a..
Deep State Space Models for Unconditional Word Generation
SchmidtFlorian (2018), Deep State Space Models for Unconditional Word Generation, in Deep State Space Models for Unconditional Word Generation, Conference on Neural Information Processing Systems, n.a..
Deep Structured Boilerplate Removal
Vogels T., Ganea O. E., Eickhoff C (2018), Deep Structured Boilerplate Removal, in Advances in Information Retrieval 40th European Conference on IR Research ECIR 2018, Grenoble, FranceSpringer, 2018.
Hyperbolic Neural Networks
GaneaOctavian E. (2018), Hyperbolic Neural Networks, in Hyperbolic Neural Networks, Conference on Neural Information Processing Systems, n.a..
Neural Multi-Step Reasoning for Question Answering on Semi-Structured Tables
Haug T., Ganea O.E., Grnarova P. (2018), Neural Multi-Step Reasoning for Question Answering on Semi-Structured Tables, in 40th European Conference on IR Research, ECIR 2018, Grenoble, France, Springer, Grenoble, France.
Deep Joint Entity Disambiguation with Local Neural Attention
Ganea O.E., Hofmann T. (2017), Deep Joint Entity Disambiguation with Local Neural Attention, in Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, Association for Computational Linguistics, Copenhagen, Denmark.

Collaboration

Group / person Country
Types of collaboration
Stephan Mandt United States of America (North America)
- in-depth/constructive exchanges on approaches, methods or results
Enrique Alfonseca/Google Switzerland (Europe)
- Industry/business/other use-inspired collaboration
Massimiliano Ciaramita/Google Switzerland (Europe)
- Exchange of personnel
Martin Jaggi/EPFL Switzerland (Europe)
- Exchange of personnel

Knowledge transfer events

Active participation

Title Type of contribution Date Place Persons involved


Communication with the public

Communication Title Media Place Year
Talks/events/exhibitions Deep Learning Systems @Work German-speaking Switzerland 2018
Talks/events/exhibitions Maschinelle Intelligenz durch selbstlernende Algorithmen International 2018
Media relations: print media, online media Oft entscheiden Menschen sehr schlecht NZZ German-speaking Switzerland 2017
Media relations: radio, television Wie Computer lernen E-Mails zu sortieren SRF German-speaking Switzerland 2017

Abstract

The ultimate goal of our research is to design machines that can understand natural language. As human level text understanding remains one of the grand challenges in machine intelligence, we settle for a more pragmatic intermediate goal: a conversational agent interface to a large document collection. One can think of such a system as an intelligent search engine that provides interactive access to an ever increasing volume of digital information by building semantic indexes and context models.
-