Hey, Fremdsprache!
Inwieweit sind Übersetzungsmaschinen in der Lage, präzise Sprachergebnisse zu liefern
Für viele sind die Übersetzungs-App auf dem Smartphone oder der Translator von Google auf dem Rechner wertvolle Werkzeuge. Die Programme funktionieren immer besser. Warum eigentlich? Und wo sind die Grenzen? Werden unsere Kinder künftig womöglich gar keine Fremdsprachen mehr lernen?
Eine kleine zweisprachige Plauderei über Gott und die Welt, die so abläuft, dass kaum der Verdacht keimt, sich mit einem Computer zu unterhalten? Das ist keine Science-Fiction, sondern das Ziel, an dem unter anderem Alan Akbik, Professor für Machine Learning an der Humboldt-Universität zu Berlin, arbeitet. Sein Forschungsschwerpunkt ist Natural Language Processing, also die maschinelle Verarbeitung natürlicher Sprache, kurz: NLP. Mit diesen Techniken und Methoden gelingt es unter anderem, dass Maschinen uns verstehen, wenn wir, salopp formuliert, sprechen, wie uns der Schnabel gewachsen ist. Auch der Sinn des Gesprochenen wird erkannt, so dass die Software beispielsweise logische Schlüsse ziehen und Anschlussfragen stellen kann, was sich dann, wenn es gut läuft, wie ein natürliches Gespräch anfühlt.
„Mein Forschungsziel ist es, Maschinen das Verständnis der menschlichen Sprache zu ermöglichen“, sagt der Adlershofer Forscher. Keine leichte Aufgabe: „Ein großer Teil davon besteht darin, Maschinen ein besseres Verständnis der Welt zu vermitteln, was wir durch Modellierung des sprachlichen Weltwissens in Form neuronaler Sprachmodelle angehen.“ Stichwort: „Deep Learning“, also maschinelles Lernen, das so ähnlich wie Lernvorgänge in unserem Gehirn abläuft. Und das heißt: büffeln, büffeln, büffeln. Die Rechner werden mit aberwitzig vielen Paaren von Vokabeln, Sätzen und Kurztexten gefüttert. Mit diesem millionenfachen Input wird die Übersetzungssoftware angelernt, die wiederum von selbst dazulernt.
Allerdings gibt es Grenzen: „Eine große Einschränkung besteht darin, dass diese Ansätze sehr datenhungrig sind“, erklärt Akbik. Soll heißen: Die Qualität des maschinellen Übersetzungssystems hängt davon ab, wie viele Daten für ein Sprachpaar verfügbar sind. Akbik: „Die Daten sollten auch aus der richtigen ‚Domäne‘ stammen.“ Wenn man also medizinische Texte übersetzen möchte, müssen die Trainingsdaten auch medizinische Texte sein. „Dies ist ein großer Engpass, da solche Trainingsdaten nicht immer verfügbar sind“, sagt der Forscher. Eine weitere Einschränkung komplexer neuronaler Ansätze bestehe darin, so Akbik, dass das zugrunde liegende Modell letztlich eine „Black Box“ sei, die mit Datenbeispielen trainiert wird: „Das macht es schwierig zu verstehen, welche Übersetzungsfehler das System macht (auch als ‚Halluzinationen’ bezeichnet) und welche Art von Wissen im Modell noch fehlt, um es zu verbessern.“
Nichtsdestotrotz findet der Forscher, dass, speziell seit 2016, durch auf neuronale Netze basierende Ansätze maschinelle Übersetzer „unglaubliche Fortschritte“ gemacht haben.
Den technologischen Sprung registriert auch Übersetzer Simon Wolff, der seit Jahren unter anderem für die WISTA Management GmbH arbeitet: „Der Unterschied im Vergleich zu vor fünf Jahren ist gewaltig: Während Übersetzungen von Google & Co. vorher mehr als hölzern waren und kaum die korrekte Wortwahl gelang, klappt das nun deutlich besser.“ Er staunt, dass Programme wie DeepL sogar automatisch den Satzbau an die Zielsprache anpassen. Bei stark formalisierten, kodifizierten Texten, etwa aus der Medizin oder Rechtsprechung, kann sich Wolff gut vorstellen, dass mittels Machine Learning in einigen Jahren tatsächlich Maschinen den Übersetzerjob komplett übernehmen können.
Er selbst glaubt nicht, dass seine Arbeit absehbar durch künstliche Intelligenz ersetzbar ist: „Solange es um das Was geht, kann das der Computer übernehmen. Nicht jedoch, wenn es um das Wie eines Textes geht. Also um Emotionen, Atmosphäre und Intention des Autors, die transportiert werden sollen.“ Wie etwa in journalistischen, aber auch werblichen Texten. Wolff, deutsch-englischer Muttersprachler, legt bei seiner Arbeit großen Wert auf natürliche Sprache, Lesbarkeit und Sensibilität für kulturelle Feinheiten. „Ein Algorithmus kann das nicht“, betont er. Sich in eine andere Sprache einzufühlen zeige sich im Idealfall daran, dass man dem übersetzten Text nicht mehr anmerke, dass dieser ursprünglich in Deutsch verfasst wurde. Künstlich intelligente Systeme werden wohl nie den speziellen Sound eines Textes, feinen Humor oder würzige Wortspiele wiedergeben können. Dafür wird es weiterhin Menschen wie Wolff geben müssen. Den Job von Dolmetschern bei Friedensverhandlungen Maschinen zu überlassen, wäre für ihn undenkbar, denn dabei spielen Nuancen und Tonalität mitunter die entscheidende Rolle.
Allerdings: „Privatleute, die keine Lust haben, eine Fremdsprache zu lernen, können im Urlaub durchaus mit dem allseits bereiten Smartphone in der Tasche ganz gut durch die Welt kommen“, meint Wolff. Aus seiner Sicht gibt es trotzdem viele gute Gründe für das Erlernen einer neuen Sprache. Dem muss auch Akbik beipflichten: „Eine neue Sprache zu lernen, sprechen und verstehen, ist eine der lohnendsten Erfahrungen, die man machen kann“, sagt er, und: „Die maschinelle Übersetzung kann die Erfahrung, in eine andere Sprache und Kultur einzutauchen, nicht ersetzen.“
Von Chris Löwer für Adlershof Journal