Wer ein Wort, einen Satz oder gar einen ganzen Text in einer Sprache vor sich liegen hat, die er nicht versteht, handelt meist wie folgt: Er kopiert das Ganze, ruft ein Online-Übersetzungsprogramm auf, fügt alles dort ein und klickt auf „Übersetzen“. Mit dem Ergebnis lässt sich im Normalfall recht gut weiterarbeiten. Über kleinere Fehler, mit denen das jeweilige Programm etwa aufgrund eines Tippfehlers oder eines unbekannten Worts nicht klarkommt, schauen die meisten Menschen auch mal hinweg. Für das Verständnis reicht es schon. Oder?
In Sachen grobes Verständnis des Inhalts mag das stimmen. Doch was die Geschlechtergerechtigkeit anbelangt, nicht unbedingt: „Gender Bias“ nennt sich das, was da beim automatischen Übersetzen stattfindet. Auf Deutsch bedeutet der Begriff so viel wie „geschlechterbezogener Verzerrungseffekt“. Dabei sorgen Formulierungen, gedankliche Annahmen oder sprachliche Formulierungen dazu, dass tatsächlich vorherrschende geschlechtsspezifische Verhältnisse in einem falschen Verhältnis erscheinen. Zum Beispiel bezeichnet das englische Wort „nurse“ sowohl eine Krankenschwester als auch einen Krankenpfleger. Früher spuckte etwa der Google-Übersetzer automatisch die weibliche Form aus, genau wie bei anderen Berufen, die im Allgemeinen eher Frauen zugeordnet werden. Bei Berufen, die allgemein eher „männlich“ zu sein scheinen, kam nur die männliche Form, etwa bei „doctor“.
Schon im Jahr 2016 gab es eine Studie namens „Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings“ zu diesem Thema, auf Deutsch etwa: „Der Programmierer ist männlich, wie die Hausfrau weiblich ist? Ausgleich von Verzerrungseffekten bei eingebetteten Wörtern“. Sie zeigte, dass Übersetzungsprogramme tatsächlich auf Geschlechterstereotype zurückgreifen, und das insbesondere im Hinblick auf Berufe. Die Ursache dafür ist unter anderem, dass die Künstliche Intelligenz hinter solchen Übersetzerprogrammen aus bereits übersetzten Texten im Internet lernt – entsprechend potenzieren sich einmal gemachte Fehler dadurch um ein Vielfaches.
2018 kündigte Google via Blog-Eintrag an, Gender Bias in Zukunft reduzieren zu wollen. Allerdings war hier bislang nur die Rede von Übersetzungen aus dem Englischen ins Französische, Italienische, Portugiesische und Spanische, als Beispiel für die Gender-Bias-Reduzierung diente der türkische Satz „O bir doktor“, den Google mittlerweile völlig richtig in „She’s a doctor“ und „He’s a doctor“ übersetzt. Ins Deutsche übersetzt der Google-Übersetzer kurioserweise nur „Sie ist Ärztin“ – sicherlich besser, als den Beruf allein dem männlichen Teil der Welt zuzuordnen, aber leider immer noch nicht so richtig im Sinne des Erfinders.
Wir waren neugierig, wie es im Jahr 2021 um die Online-Übersetzer bestellt ist, und haben die Begriffe „veterinarian“, „pilot“, „teacher“, „doctor“, „firefighter“, „astronaut“, „educator“, „hairdresser“, „journalist“ und „entrepreneur“ jeweils einzeln eingegeben und ins Deutsche übersetzen lassen. Das Ergebnis: jeweils die männliche und die weibliche Form. Doch sobald man einen Artikel vor den englischen Begriff setzt oder mehrere Wörter im Feld stehen, scheint die Software verwirrt. Und so existiert bei dem oben erwähnten Wort „nurse“ plötzlich wieder nur noch die Krankenschwester, bei „doctor“ wieder nur noch der Arzt.
Unser Fazit: Es besteht noch immer Nachholbedarf. Bis dahin lohnt es sich, weiterhin aufmerksam zu bleiben und sich nur bedingt auf Übersetzerprogramme zu verlassen – denn für Geschlechtergerechtigkeit in der Sprache stehen bislang eben doch nur Menschen und keine Maschinen ein. Wir sind übrigens auch große Verfechter des ganzen „Genderkrams“ – warum, könnt ihr in diesem Beitrag noch einmal nachlesen.