Vielleicht weckt der Begriff »Künstliche Intelligenz« (KI) falsche Erwartungen. Maschinen können nicht denken. Sie rechnen. Wie genau sie das tun und was das für maschinelle Übersetzungen und Texte bedeutet, darüber war am 1. November 2019 im LCB viel zu erfahren. Der von Hannes Langendörfer und Nina Thielicke grandios konzipierte Übersetzertag des DÜF unter dem Titel »Geist in Maschinen. Übersetzung in Zeiten künstlicher Intelligenz« bot ein vielfältiges Programm zum Thema (Programmübersicht auf uebersetzerfonds.de).
Wie Maschinen übersetzen

Samuel Läubli beim Übersetzertag des Deutschen Übersetzerfonds im November 2019; Foto: mimmiamara
Zum Einstieg nannte Samuel Läubli, Computerlinguist und Experte für KI an der Universität Zürich sowie Partner und CTO bei TextShuttle, »drei Gründe, warum wir maschinelle Übersetzung nicht unterschätzen sollten«. Bremse er vor Informatiker*innen meist eher die KI-Euphorie, wolle er hier umgekehrt zeigen, was tatsächlich schon möglich und relevant sei. Dafür erklärte der sympathische junge Mann mit Schweizer Akzent zunächst in groben Zügen die Funktionsweise maschineller Übersetzung: Damit KI menschliche Übersetzungen imitieren kann, braucht es mindestens 20 Millionen übersetzte Sätze als Trainingsdaten. Die Maschine lernt daraus keine Grammatikregeln, sondern bringt über wiederholte Rechenvorgänge die Bedeutungsräume in der Ausgangs- und Zielsprache über eine Zuordnungsfunktion in Verbindung. Sie stützt sich auf die Wahrscheinlichkeit der Wortfolge aus dem Trainingsmaterial. Die Maschine arbeitet also nicht mit Bedeutungen, sondern mit der Oberfläche der Zeichenfolgen. So ist für sie beispielsweise ein Wort in Großbuchstaben ein anderes Wort.
Drei Gründe, KI-Übersetzungen nicht zu unterschätzen
Warum nun sollten wir diese eigentlich eher »dummen Maschinen« trotzdem nicht unterschätzen?
- Erstens: Sie mögen zwar nicht »verstehen«, was sie da tun (und wer sie programmiert hat, tut das auch nur bis zu einem gewissen Grad), aber sie sind wahnsinnig schnell. Läubli zitierte verschiedene Studien, denen zufolge durch Post-Editing maschinell übersetzter Texte zwischen 17 % (Marketing), 36 % (Romankapitel) und 40 % (Software-Dokumentation) Zeitersparnis und entsprechende Produktivitätssteigerung messbar waren.
- Zweitens liege es nur an Zeit und Geld, dass die uns bekannten Systeme wie GoogleÜbersetzer und DeepL noch so viele grammatische Inkongruenzen ausspucken. Um kostspielige Serverzeit zu sparen, werden Texte von diesen Maschinen nämlich in Sätze aufgesplittet, diese unabhängig voneinander zeitgleich übersetzt und dann wieder zusammengefügt. Theoretisch könne man die Systeme jetzt schon so programmieren, dass sie satzübergreifend übersetzen und dadurch konsistenter werden. Sobald also Rechenleistung günstiger wird, wird auch die Qualität besser werden.
- Drittens kann die maschinelle Hilfe zur Inspiration genutzt werden. Denkt man etwa an Georges Perecs Roman La Disparition, ließe sich eine Übersetzungsmaschine ohne großen Aufwand so programmieren, dass sie nur Wörter ohne den Buchstaben e verwendet.
Abschließend wollte Läubli die Überlegenheit der Maschine qua Schnelligkeit live am Beispiel des Satzes »Fishing is my hobby« vorführen. Das klappte allerdings nicht ganz, da auch aus dem übersetzungserfahrenen Publikum sofort ein überzeugender »Humanvorschlag« ohne den Buchstaben e kam: »Fischfang macht mir Spaß.« Sehr anerkennend klang daraufhin Läublis vorbereiteter Schlusssatz, der den brückenschlagenden Tenor seines gesamten Vortrags zusammenfasste: »Wir haben 60 Jahre übereinander gelacht, wir sollten anfangen miteinander zu arbeiten.«
Produktivitätssteigerung durch Post-Editing?
Im anschließenden Podiumsgespräch mit Samuel Läubli, dem Journalisten und Politikberater Mads Pankow und der preisgekrönten Literaturübersetzerin aus dem Russischen Olga Radetzkaja ging es u.a. darum, ob der Alltag des Literaturübersetzens bald nur noch aus dem Redigieren maschinell übersetzter Texte besteht.
Olga Radetzkaja äußerte Skepsis, ob Maschinen sich insbesondere in der Literaturübersetzung durchsetzen werden. Wir übersetzen ja nicht Sprache, sondern Gedanken, und wollen auch, dass Gedanken dabei herauskommen. Samuel Läubli warf ein, wir sollten KI eher als Hilfsmittel ansehen, wie ein Wörterbuch, gerade, weil sie anders funktioniert. Auf den Einwand, dass die Maschine auf Ähnlichkeit zu bisher existierenden Texten trainiert sei, Literatur aber ja gerade das Unähnliche suche, erwiderte er wiederum, man könne die Übersetzungsmaschinen durchaus anders einstellen, bestimmte Trainingsbeispiele höher gewichten und eine Maschine – anders als die generischen Tools im Internet – gezielt mit bestimmtem Trainingsmaterial füttern. Daraus folgerte die Literaturübersetzerin: „Traue keiner Übersetzungsmaschine, die du nicht selbst trainiert hast.“
Damit kommt zwangsläufig die ökonomische Frage ins Spiel: Welche freischaffende Übersetzerin kann sich ein eigenes Übersetzungstool programmieren (lassen)? Die wahrscheinlichere Variante ist, dass große Verlage sich so etwas anschaffen, ja in einem späteren Podiumsgespräch zur Zukunft des Übersetzens zwischen Läubli, S. Fischer-Lektorin Cordelia Borchardt und Imke Brodersen, Fachübersetzerin aus dem Englischen und Spanischen, ebenfalls moderiert von Birthe Mühlhoff, riet Läubli Verlagen sogar dazu, computerlinguistisch geschultes Personal einzustellen.
Qualität der Texte, Qualität des Arbeitens
Eng mit der ökonomischen Frage verknüpft ist die nach der Qualität. »Bei DHL kommuniziere ich mit Robotern, nicht weil die so gut sind, sondern weil sie billiger sind als Menschen«, so Olga Radetzkaja. In einem bestimmten Segment der Unterhaltungsliteratur hätten ja schon die Originale keine gute Qualität, zähle nur die Handlung. Es würde sie wundern, wenn das nicht schon maschinell übersetzt würde und nur noch Post-Editing durch Lektor*innen oder dafür noch schlechter als üblich bezahlte Übersetzer*innen passiere.

Folie aus dem Vortrag von Samuel Läubli; Foto: mimmiamara
Darüber hinaus geht es um die Qualität des Arbeitens. Nach meinen wenigen neugierigen Versuchen, eine DeepL-Übersetzung als Grundlage zu verwenden, bin ich ohnehin skeptisch, ob das mit der Zeitersparnis so stimmt. Ich habe es nur bei inhaltlich wenig komplexen, kurzen Sachtexten ausprobiert. Da kam ich im Vergleich zu inhaltlich und stilistisch ähnlichen Texten einmal auf 7 % Zeitersparnis durch Post-Editing, einmal war ich ohne DeepL 6% schneller – ähnliche Schwankungen gibt es sicher auch bei meinen sonstigen Übersetzungen, je nach Inhalt und Tagesform.
Doch selbst wenn das mit der höheren Effizienz stimmen sollte, ist Post-Editing eine höhere kognitive Belastung und führt zu weniger zufriedenem Arbeiten. Weil die Maschine eben nicht »mitdenkt«, muss man jedem Satz vor sich mit Misstrauen begegnen. Gleichzeitig hegt man Misstrauen gegen sich selbst, ob man nicht etwas hat durchgehen lassen, was oberflächlich richtig klingt, aber den falschen Gedanken transportiert.
Aus dem Publikum wünschte sich Literaturübersetzer Thomas Brovot, dass die Maschine wenigstens angeben würde, wo sie sich wie sicher ist. Läubli zufolge wird daran zwar gearbeitet, noch funktioniere eine »quality estimation« der Maschine selbst aber leider nicht.
Imke Brodersen gab zu Bedenken, dass in der Fachübersetzung das Zeitdruckproblem auch ohne Übersetzungsmaschinen schon zu einer nicht optimalen Übersetzungserfahrung führe: Teilweise wird zu siebt ein Buch übersetzt, um es rechtzeitig fertig zu haben.
Einigermaßen einig waren sich die Diskutierenden, dass es von der Textsorte abhängt, ob eine Übersetzung auch in schlechter Qualität funktioniert. Samuel Läubli zufolge bei hoher Literatur eher nicht, bei Werbekampagnen auch nicht – bei der Bedienungsanleitung einer Taschenlampe aber schon.
Wenn KI nur dafür sorgen würde, dass wir Humanübersetzer*innen keine allzu banalen Texte mehr auf dem Tisch haben bzw. dass Menschen Texte in anderen Sprachen überhaupt irgendwie zugänglich sind, die sonst gar nicht übersetzt würden, könnten wir uns ja freuen. Das Problem am Inhaltemarkt ist aber, dass ein vermeintlich kostenloses Buch durch Daten und Werbung bezahlt wird. Wenn Leser*innen sich zwischen »kostenlosen« maschinell übersetzten Büchern (bei denen durch schlechtbezahlte Click-Worker nur die gröbsten Fehler und Inkongruenzen beseitigt wurden) und guten, aber »teuren« Übersetzungen entscheiden müssen, haben erstere durchaus eine Chance, trotz der schlechteren Qualität.
Übersetzermarktwerte im Schöpfungstief

Valentin Döring bei seinem Vortrag mit dem Titel »Artifizielle Schöpfungstiefe: wem gehört der Text? Maschinenübersetzungen und Urheberrecht«; Foto: mimmiamara
Auf letzteres aufmerksam machte Valentin Döring, Jurist und Geschäftsführer des VS in ver.di. Dieser kam in seinem Vortrag nach kurzweiligen Ausführungen über das Urheberrecht, Schöpfungshöhe, Affenselfies und dumme Programme mit intelligenten Ergebnissen zu dem Schluss, dass das Rechtliche beim Thema KI derzeit eigentlich kein Thema sei. Da die Trainingsdaten von Maschinen nur gelesen und gelernt, aber nicht vervielfältigt werden, handelt es sich nicht um eine »Nutzung« im juristischen Sinne. Rein maschinell geschöpfte Werke wiederum haben keinen Urheber und sind deshalb gemeinfrei.
Zwar wäre es wünschenswert, erstens entscheiden zu können, ob eigene Werke als Trainingsdaten dienen dürfen, und zweitens eine Vergütung dafür zu bekommen (bei kostenloser Nutzung für alle gewinnt schließlich immer der mit der größten Rechenleistung, nicht einmal der mit dem besten Programm). Wirtschaftlich ändere sich für uns Übersetzende seiner Meinung nach aber nichts: weil unsere Rechte am Markt ohnehin schon nichts wert sind. Für Verlage und Co. wäre es deutlich gewinnbringender, die Autor*innen durch KI zu ersetzen.
Das Sams offenbart die Grenzen der KI
Ein sehr anschauliches Beispiel dafür, was KI nicht kann und auch auf absehbare Zeit nicht können wird, gab Mahmoud Hassanein, Übersetzer deutschsprachiger Literatur ins Arabische und wissenschaftlicher Mitarbeiter am Germersheimer Fachbereich der Universität Mainz. Am Beispiel seiner Sams-Übersetzung zeigte er, dass Literaturübersetzung neben der Sprache eben auch die Kultur kennen und mitübersetzen muss. Besonders bei Wortspielen ist zudem häufig eine Form von Kreativität gefragt, die keine Maschine ausrechnen kann:
Damit das Sams überhaupt kommt, spielen am Anfang der Geschichte bekanntlich die deutschen Wochentagsnamen eine wichtige Rolle. »Am Sonntag schien die Sonne« etc. Nun sind die heute üblichen Bezeichnungen der Wochentage im Arabischen keine sprechenden Namen, sondern nummerieren nur die Tage, d.h. die Google-Übersetzung ins Arabische lautet sinngemäß »Am ersten Tag schien die Sonne.« Da würden sich arabische Leser*innen fragen: »Warum ist das erwähnenswert?« Im arabischen Sprachraum scheint eigentlich täglich die Sonne.
Der menschliche Übersetzer hatte dagegen die Idee, veraltete arabische Bezeichnungen für die Wochentage zu verwenden und analog Wortspiele mit den jeweiligen Wortbedeutungen zu erfinden. Weil heutige Kinder die Bezeichnungen allerdings nicht mehr kennen, waren weitere Umdichtungen nötig: Als das Sams Herrn Taschenbier fragt, woher er wisse, wie es heißt, sagt dieser im Arabischen ein Gedicht auf, in dem die alten Wochentagsnamen vorkommen, und erläutert es. Wortspielbedingt tragen übrigens auch Herr Taschenbier und das Sams im Arabischen andere Namen.
Maschinen haben also Schwierigkeiten mit uneigentlicher Sprache wie Ironie, kulturellen Besonderheiten oder poetischen Assoziationen, sofern es sich nicht um konventionalisierte Wendungen handelt.
Inspirationen durch den maschinellen Makel
Das widerspricht allerdings nicht Samuel Läublis letzter Anregung, KI doch als literarische Inspiration zu nutzen. Solchem kreativen Umgang mit Maschinen und deren Funktionsweisen widmete sich das Gespräch zwischen Hannes Bajohr und Christiane Frohmann unter dem Titel »Poesieautomat, Hypertext, Twitteratur!«, moderiert von Dania Schüürmann.
Bajohr, Übersetzer und Autor digital konzeptueller Literatur, betonte, dass ihn KI gerade da anrege, wo es hake, wo ein unerwartetes Wort auftauche. Wenn KI zu gut wird, wird sie als Inspiration uninteressant. Frohmann, die Bajohrs Werke verlegt, erklärte, dass es nicht nur um »Daten-Dada« gehe, sondern um performative Aufklärung. Durch das Pegida-Buch Glaube Liebe Hoffnung von Gregor Weichbrodt und Hannes Bajohr, das Kommentare der Pegida-Website nach Sätzen sortierte, die mit »ich glaube …«, »ich liebe …«, »ich hoffe …« anfangen, verstehe man beispielsweise auf andere Art etwas.
Auch ihre eigene Twitteratur, insbesondere die alles erklärenden Präraffaelitischen Girls (@PGexplaining), haben einen aufklärerischen Anspruch. Um nur einen Tweet herauszugreifen: »Wenn wir uns treffen, machen wir halt so Mädchensachen: Philosophie, Business, Revolution.« Oder:
Präraffaelitische Girls wussten: Sobald mehr Menschen sich Zeitreisen in die Vergangenheit als in die Zukunft wünschten, wurde es gesellschaftlich brenzlig. pic.twitter.com/Km4400g9S0
— Präraffaelitische Girls erklären (@PGexplaining) December 1, 2019
Ebenfalls automatenlyrisch auf Twitter unterwegs ist Kathrin Passig, die sich wie Hannes Bajohr ein wenig davor fürchtet, dass die Zeit schön sperriger, erfindungsreicher Maschinenübersetzung zu schnell zu Ende geht. Beeindruckt von dem riesigen Qualitätssprung bei GoogleÜbersetzer von einem auf den anderen Tag im Jahr 2016, jagt sie im Abstand von einem halben Jahr J.A. Bakers The Peregrine durch GoogleÜbersetzer und DeepL, um zu schauen, ob sich etwas geändert hat, und wenn ja, in welche Richtung.
Ein warnender Blätterteig von Spatzen wurde von dem Wanderer gefolgt, der langsam über tausend kauernde Watvögel schwebte.
— Der Wanderfelsen (@Wanderfelsen) June 15, 2019
In den letzten zwei Jahren konnte sie keine Qualitätsunterschiede mehr feststellen. Besonders schöne, besonders erfindungsreiche oder besonders absurde Sätze aus diesen automatischen Übersetzungen schickt der Twitter-Bot Der Wanderfelsen (@wanderfelsen) in die Welt. Der Bot-Titel rührt daher, dass unter anderem der Vogel, der in der publizierten deutschen Übersetzung Der Wanderfalke heißt, durch die Maschine immer wieder anders kreativ falsch übersetzt wird.
Der Tiercel Peregrine wirbelte den Wind herunter und stieg auf einer böigen Flut von Vögeln auf. Als die Welle nach oben brach, stach er durch das Herz davon ab, so dass der Puls starb und die Vögel wieder in den Schnee fielen.
— Der Wanderfelsen (@Wanderfelsen) December 28, 2019
Bei ihrer Freude über diese schönen Sätze neigte auch Passig ein wenig zur Personifizierung von KI-Maschinen, die ja schon im Begriff der »Künstlichen Intelligenz« enthalten ist. Später erklärte sie dazu: Weil es so schwer zu vermitteln ist, was das eigentlich Großartige ist, was Robotiker*innen machen, wird die Maschine personifiziert. So bekommen sie auf Umwegen trotzdem das verdiente Lob.
»Easy is dead« – das Unerwartete ist Trumph
Zum Abschluss des Übersetzertags im LCB durfte das Publikum dann auch noch den »Humanübersetzer« von Bakers Wanderfalken, Andreas Jandl, in Aktion erleben. Beim Spiel mit dem Titel »Chinesisches Zimmer und Kleist-Test: Mensch gegen Maschine« trat er im Team mit Kathrin Passig und Birthe Mühlhoff gegen DeepL, GoogleÜbersetzer und GPT-2 an.
Moderiert von den Organisator*innen Hannes Langendörfer und Nina Thielicke, die den gesamten Tag so wunderbar kuratiert und organisiert hatten, gab es zunächst einige Runden Übersetzungswettstreit. Die Maschinen waren zwar schneller und spuckten (wie in John Searles Gedankenexperiment des »Chinesischen Zimmers«, vgl. Wikipedia), auch ohne zu verstehen, was sie da tun, keine allzu schlechten Texte aus. Dennoch erkannte das Publikum jeweils sehr schnell, welche die menschengemachte Übersetzung war und kürte diese auch zum Sieger.

Parallel zur Veranstaltung waren im Foyer Installationen und Interaktionen zu sehen, unter anderem ausgestellte Texterzeugnisse von GPT-2; Foto: mimmiamara
Beim Kleist-Test – der seinen Namen Kleists Aufsatz Über die allmähliche Verfertigung der Gedanken beim Reden verdankt – ging es anschließend nicht mehr ums Übersetzen, sondern um das Weiterschreiben eines (englischen) Ausgangssatzes. Im Wettstreit diesmal mit dem Algorithmus GPT-2 von Open AI entstanden so kleine Geschichten.
Die öffentliche Version von GPT-2, die im Februar zugänglich gemacht wurde, ist nur halb so groß ist wie die Mutterversion, um allzu gut geschriebenen Fake News vorzubeugen (auf der Website talktotransformer.com kann man GPT-2 selbst ausprobieren). Trotzdem war hier das Publikumsvotum weniger eindeutig. In einer von drei Runden gewann GPT-2: Der Algorithmus hatte nicht nur deutlich mehr Text produziert, sondern vor allem, nach erwartbaren Variationen mit einem gewissen ekstatischen Hineinsteigern ins Thema, einen Bruch und völlig Unerwartetes eingebaut: »Easy is dead.«
Einige schienen den Begriff der »Künstlichen Intelligenz« nun doch nicht mehr so irreführend zu finden und überlegten, Bot-Literaturkritiker zu werden. Die nächsten beiden Runden gewannen dann aber wieder die Menschen, die schnell dazu gelernt und ebenfalls durch Variation in kurzer Zeit ähnlich viel Text produzierten, nur deutlich schöner, rhythmischer und vor allem sinnvoller. Trotzdem war die Textproduktion von GPT-2, wie schon tagsüber an einer der Installationen im Foyer zu sehen war, sehr beeindruckend.
Die neue Frage nach diesem Tag ist also vielleicht, ob die Zukunft des Literaturübersetzens darin besteht, von Maschinen geschriebene Literatur zu übersetzen.
Kommentar verfassen