Der Programmierer ist männlich, wie die Hausfrau weiblich ist? – Gendergerechtigkeit bei automatischen Übersetzerprogrammen

Wer ein Wort, einen Satz oder gar einen ganzen Text in einer Sprache vor sich liegen hat, die er nicht versteht, handelt meist wie folgt: Er kopiert das Ganze, ruft ein Online-Übersetzungsprogramm auf, fügt alles dort ein und klickt auf Übersetzen. Mit dem Ergebnis lässt sich im Normalfall recht gut weiterarbeiten. Über kleinere Fehler, mit denen das jeweilige Programm etwa aufgrund eines Tippfehlers oder eines unbekannten Worts nicht klarkommt, schauen die meisten Menschen auch mal hinweg. Für das Verständnis reicht es schon. Oder?

In Sachen grobes Verständnis des Inhalts mag das stimmen. Doch was die Geschlechtergerechtigkeit anbelangt, nicht unbedingt: Gender Bias nennt sich das, was da beim automatischen Übersetzen stattfindet. Auf Deutsch bedeutet der Begriff so viel wie geschlechterbezogener Verzerrungseffekt. Dabei sorgen Formulierungen, gedankliche Annahmen oder sprachliche Formulierungen dazu, dass tatsächlich vorherrschende geschlechtsspezifische Verhältnisse in einem falschen Verhältnis erscheinen. Zum Beispiel bezeichnet das englische Wort nurse sowohl eine Krankenschwester als auch einen Krankenpfleger. Früher spuckte etwa der Google-Übersetzer automatisch die weibliche Form aus, genau wie bei anderen Berufen, die im Allgemeinen eher Frauen zugeordnet werden. Bei Berufen, die allgemein eher männlich zu sein scheinen, kam nur die männliche Form, etwa bei doctor.

Schon im Jahr 2016 gab es eine Studie namens Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings zu diesem Thema, auf Deutsch etwa: Der Programmierer ist männlich, wie die Hausfrau weiblich ist? Ausgleich von Verzerrungseffekten bei eingebetteten Wörtern. Sie zeigte, dass Übersetzungsprogramme tatsächlich auf Geschlechterstereotype zurückgreifen, und das insbesondere im Hinblick auf Berufe. Die Ursache dafür ist unter anderem, dass die Künstliche Intelligenz hinter solchen Übersetzerprogrammen aus bereits übersetzten Texten im Internet lernt – entsprechend potenzieren sich einmal gemachte Fehler dadurch um ein Vielfaches.

2018 kündigte Google via Blog-Eintrag an, Gender Bias in Zukunft reduzieren zu wollen. Allerdings war hier bislang nur die Rede von Übersetzungen aus dem Englischen ins Französische, Italienische, Portugiesische und Spanische, als Beispiel für die Gender-Bias-Reduzierung diente der türkische Satz O bir doktor, den Google mittlerweile völlig richtig in She’s a doctor und He’s a doctor übersetzt. Ins Deutsche übersetzt der Google-Übersetzer kurioserweise nur Sie ist Ärztin – sicherlich besser, als den Beruf allein dem männlichen Teil der Welt zuzuordnen, aber leider immer noch nicht so richtig im Sinne des Erfinders.

Wir waren neugierig, wie es im Jahr 2021 um die Online-Übersetzer bestellt ist, und haben die Begriffe „veterinarian, „pilot, „teacher, „doctorfirefighter, „astronaut, educator“, hairdresser“, journalist und entrepreneur jeweils einzeln eingegeben und ins Deutsche übersetzen lassen. Das Ergebnis: jeweils die männliche und die weibliche Form. Doch sobald man einen Artikel vor den englischen Begriff setzt oder mehrere Wörter im Feld stehen, scheint die Software verwirrt. Und so existiert bei dem oben erwähnten Wort nurse plötzlich wieder nur noch die Krankenschwester, bei doctor wieder nur noch der Arzt.

Unser Fazit: Es besteht noch immer Nachholbedarf. Bis dahin lohnt es sich, weiterhin aufmerksam zu bleiben und sich nur bedingt auf Übersetzerprogramme zu verlassen – denn für Geschlechtergerechtigkeit in der Sprache stehen bislang eben doch nur Menschen und keine Maschinen ein. Wir sind übrigens auch große Verfechter des ganzen Genderkrams – warum, könnt ihr in diesem Beitrag noch einmal nachlesen.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert