Als Douglas Adams in den 1970er Jahren Anhaltern in der Galaxis ermöglichte, mithilfe eines Babelfischs alle gesprochenen Sprachen zu verstehen, ahnte er wohl noch nicht, wie nah er mit der kleinen Kreatur dem Konzept der Maschinenübersetzung gekommen war. Rasanter technischer Fortschritt hat es inzwischen ermöglicht, mithilfe von Software fremde Sprachen zu verstehen, ohne sie selbst zu sprechen oder einen Umweg über Dritte nehmen zu müssen. Und die Reise ist noch längst nicht am Ende.
Computer sagt Nein – es war ein weiter Weg
Wie so viele technologische Neuheiten wurde die maschinelle Übersetzung anfangs für das US-amerikanische Militär entwickelt. Schnell erklärte man das Projekt allerdings für gescheitert. Erst zwanzig Jahre später wurde die Forschung wiederaufgenommen, unter anderem von der deutschen Siemens AG. Die ersten Versuche orientierten sich an der regelbasierten Maschinenübersetzung. Dabei wurde der Ausgangstext mithilfe eines elektronischen Wörterbuchs Wort für Wort übersetzt und anschließend Wortreihenfolge und Grammatik an die Zielsprache angepasst. Die Qualität ließ mit dieser Methode allerdings zu wünschen übrig. Heute werden hauptsächlich zwei Methoden von maschinellen Übersetzern kombiniert: Die statistische und die neuronale maschinelle Übersetzung.
Statistische maschinelle Übersetzung
Mit dem Siegeszug des Internets in den 2000ern, der große Textmengen maschinell lesbar machte, setzte sich die statistische maschinelle Übersetzung durch. Dabei analysiert das Programm vor der eigentlichen Übersetzung möglichst große zweisprachige Textkorpora, bei denen Worte und grammatische Phänomene Ausgangs- und Zielsprache einander zugeordnet werden. Auf den so erkannten Regeln baut anschließend die Übersetzung auf. Der prominenteste Vertreter unter den statistischen Übersetzern ist wohl der Google Übersetzer.
Neuronale maschinelle Übersetzung
Einige Jahre später kamen zunehmend neuronale maschinelle Übersetzungsmethoden zum Einsatz. Ihren Namen verdankt diese Methode einem künstlichen neuronalen Netz – einer speziellen KI – das die Übersetzung durchführt. Ähnlich wie die statistische maschinelle Übersetzung sind auch hier hochwertige zweisprachige Text-Korpora Voraussetzung, die von der KI, ähnlich wie beim menschlichen Fremdsprachenerwerb, gelernt werden. Dieser Lernprozess ermöglicht es der KI, ihre Übersetzung stets zu verbessern ebenso wie kontextabhängig zu übersetzen. Dadurch sind auch branchenspezifische Übersetzungen kein Problem. Allerdings kann durch den Lernprozess nicht genau nachvollzogen werden, wie die Übersetzung entstanden ist, was die Fehlerquellsuche erheblich erschwert. Zu den erfolgreichsten Vertretern von Übersetzungs-KI gehören der Kölner Online-Dienst DeepL.
Ist der menschliche Übersetzer damit überflüssig?
Wozu dann noch Sprachen lernen, wenn die Software alles selbst übersetzt? Microsoft, die selbst über eine solche KI verfügen, teilte dazu aber bereits mit, dass deren Übersetzungen die Qualität eines professionellen menschlichen Übersetzers nicht erreichen. Also ist der menschliche Übersetzer nicht überflüssig, aber seine Rolle ändert sich im Übersetzungsprozess. Denn maschinelle Übersetzungssoftware liefert heute fast immer schnelle und qualitativ zumindest akzeptable Ergebnisse, dennoch sollte ein menschlicher Übersetzer dringend kontrollieren und verbessern. Ein Blick auf die unzähligen Screenshots im Netz, die kuriose Stilblüten des Google Übersetzers zeigt. (Man denke nur an das Wort „Kernseife“, was Googles Übersetzer lange Zeit mit „nuclear soap“ übersetzte). Hier muss der Übersetzer korrigierend eingreifen, vor allem wenn es um sehr spezifische Übersetzungen mit unkonventionellem Sprachgebrauch (z. B. im juristischen oder medizinischen Bereich) geht.
Als kleiner Selbstversuch: Kopieren Sie den ersten Satz des Wikipedia-Artikels für „Volkswirtschaftslehre“ in den Google Übersetzer und lassen Sie ihn auf Englisch übersetzen. Das Ergebnis ist translatorisch interessant.
Bild: Alexander Limbach – stock.adobe.com