Natural Language Understanding NLU

Natural Language Understanding (NLU) – Wenn Künstliche Intelligenz Texte versteht und interpretiert

In vielen Unternehmen ist das Erkennen, Analysieren, Zusammenfassen und Kategorisieren von Texten ein wesentlicher Bestandteil der Arbeitsprozesse. Die manuelle Verarbeitung ist oft sehr zeitaufwendig. Mit Natural Language Understanding (NLU) kann Künstliche Intelligenz (KI) diese Aufgaben übernehmen und somit monotone Tätigkeiten, wie die Prüfung von Rechnungen oder die Vertragsbearbeitung, teilautomatisieren. Was ist bereits möglich? Welche Unternehmen setzen schon verstärkt auf NLU, und wo liegen die Grenzen dieser Technologie? Ein Expert*innengespräch mit den Data Scientists Birgit Kirsch und Dr. Jörg Kindermann aus dem Team Natural Language Understanding vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS.

Was ist eigentlich Natural Language Understanding?

NLU ist ein Teilbereich der Data Science, der sich mit dem Verstehen unstrukturierter Texte und Dokumente mithilfe von Künstlicher Intelligenz beschäftigt. Kurz gefasst: Bei NLU geht es zum Beispiel darum, Informationen aus Texten zusammenzufassen oder zu kategorisieren.

Welche NLU-Projekte verfolgen Sie?

Bei den zahlreichen Kundenprojekten des Teams stehen unter anderem folgende Ziele im Vordergrund:

  • Informationsextraktion, um zum Beispiel aus Patientenakten wichtige Informationen über Behandlungen und Medikation zu extrahieren
  • Klassifikation der Texte, beispielsweise um diese in einem Dokumentenmanagementsystem automatisch zu taggen oder nach Posteingang dem richtigen Bereich zuordnen zu können
  • Question Answering – eine kompliziertere Anforderung, bei der aus einem größeren Text die Passage ausgesucht wird, die eine Frage beantwortet. So kann das Auffinden relevanter Informationen in Rechtsdokumenten beschleunigt werden
  • Emotions- und Meinungserkennung, z.B. zur Analyse sozialer Medien

Wo bestehen Zusammenhänge oder Abgrenzungen von NLU zu Natural Language Processing (NLP)?

NLP versucht, natürliche Sprache zu erfassen und mithilfe von Regeln und Algorithmen computerbasiert zu verarbeiten. Bei NLU geht es darüber hinaus um das Verstehen von Texten. Das beinhaltet das Erkennen von Synonymen und inhaltlichen Beziehungen. Wie sich dieses Feld entwickelt hat, zeigt beispielsweise die Google-Suche, bei der man mittlerweile in ganzen Sätzen suchen und auch Fragen stellen kann. Diese neuen Möglichkeiten der semantischen Analyse von Suchanfragen erleichtern den intuitiven Umgang mit der Suchmaschine.

Wo liegen heute die Herausforderungen bei NLU?

Eine aktuelle Herausforderung ist der große Datenhunger der KI-Modelle beim Modell-Training. Man rechnet mittlerweile mit Terabytes an Daten. Außerdem versucht man, generische Modelle zu entwickeln, die beispielsweise Dutzende von Sprachen gleichzeitig verstehen.

Bis heute kann man oft nicht nachvollziehen, warum ein System auf eine bestimmte Art und Weise reagiert. Um unfaires Verhalten, wie Genderbevorzugung oder Diskriminierung zu vermeiden, beschäftigt sich ein wachsendes Forschungsgebiet daher mit der Erkennung solcher Verzerrungen und mit dem Thema: »Wie lässt sich das Systemverhalten erklären?«. Und dann gibt es noch eine Grenze in Bezug auf Kreativität: NLU und KI können nur Fakten und Ideen aus vorhandenen Inhalten, auf die sie trainiert wurden, ableiten. Damit sind Einfallsreichtum und Fantasie nur in geringem Maß möglich und noch sehr weit von menschlichen Fähigkeiten entfernt.

Welche Unternehmen adressiert Ihr Team mit den Angeboten zu NLU?

Unsere Kunden sind KMUs und Großunternehmen, die NLU überwiegend zur Unterstützung bei der Digitalisierung und Prozessautomatisierung nutzen wollen. Sie kommen aus allen Branchen. Einen besonders großen Bedarf sehen wir im Bereich Medizin. Hier ist das Stichwort Entlastung der Fachkräfte. Wir haben dazu eine KI-Komponente entwickelt, die die Abrechnung von Krankenhausleistungen vereinfacht.
Auch im Bereich Recht ist die Nachfrage sehr groß, beispielsweise zur Automatisierung von Vertragsbearbeitungen oder der Recherche von Rechtsdokumenten.
Für das Thema Dokumentenmanagement arbeiten wir mit Dokumentenmanagementsystem-Herstellern zusammen und entwickeln KI-Komponenten, die das Taggen und die Extraktion von Informationen aus Dokumenten automatisieren.

Die Fraunhofer-Allianz Big Data und Künstliche Intelligenz bietet im Rahmen der zertifizierten Ausbildung zum Data Scientist eine Vertiefungsschulung zum Thema »Deep Learning for Text Mining« an. Schulungsdozent ist u. a. Sven Giesselbach, NLU-Experte und -Teamleiter am Fraunhofer IAIS.

Was ist entscheidend für ein erfolgreiches NLU-Projekt?

Wir suchen frühzeitig das Gespräch mit den Entscheider*innen, aber auch mit den späteren Nutzer*innen in den Fachbereichen, um die unterschiedlichen Erwartungen zu kennen. Unsere Prototypen zeigen schnell auf, ob die Richtung stimmt. Außerdem verfügen wir über vorgefertigte Softwarelösungen aus bestehenden Projekten. Wichtig für den Projekterfolg ist agiles Management. Wir definieren Zwischenziele, die diskutiert und bedarfsgerecht angepasst werden. In ungefähr einem Monat können wir so ein NLU-Projekt umsetzen.

Wo stehen wir in Deutschland in Sachen NLU mit Blick auf den internationalen Vergleich?

Ein wichtiger Trend geht in Richtung sogenannter Sprachmodelle. Diese werden auf großen Datenmengen angelernt und sind anschließend durch Nachtraining für viele Spezialaufgaben einsetzbar. Um hier konkurrenzfähig zu bleiben, arbeitet das Fraunhofer IAIS zusammen mit anderen Projektpartnern im Rahmen von OpenGPT-X an einer europäischen Variante eines umfassenden Sprachmodells.

Am Fraunhofer IAIS spannen wir außerdem die Brücke zwischen Grundlagenforschung und konkreten Anwendungsentwicklungen für unsere Kund*innen. Das birgt großes Potenzial durch deutschsprachiges NLU für deutsche Unternehmen aus erster Hand. Hinzu kommt, dass wir unsere KI-Lösungen auf Sicherheit und Vertrauenswürdigkeit prüfen.

Für Interessierte:

Im Rahmen des Kompetenzzentrums Maschinelles Lernen Rhein-Ruhr veröffentlichen wir zusammen mit anderen Forscher*innen regelmäßig Beiträge zum Thema Maschinelles Lernen. Diese adressieren nicht nur Forschende, sondern auch neugierige Einsteiger- sowie Anwender*innen aus Wirtschaft und Industrie: https://machinelearning-blog.de/ueber-uns/

Weitere Informationen zum Thema Natural Language Understanding am Fraunhofer IAIS.

Unsere Expert*innen im Interview

Data Scientist Birgit Kirsch

Birgit Kirsch
Data Scientist vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS

Dr. Jörg Kindermann

Dr. Jörg Kindermann
Data Scientist vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert