Ancestors

Written by Oliver Czulo on 2024-09-20 at 08:07

1/2 Mit @TomCoal von der Leipziger Zeitung sprach ich über die Lage von #Dolmetscher|n und #Übersetzer|n in Zeiten von '#KI', und darüber, warum Menschen nie überflüssig werden: https://www.l-iz.de/epaper/ausgabe-128#10

Der Beitrag ist mit einigen schönen Beispielbildern zum so genannten #genderbias garniert, die zeigen, dass "physics professor" zum Beispiel von DeepL als "Physikprofessor" übersetzt wird, "lovely physics professor" ...

=> More informations about this toot | More toots from OliverCzulo@wisskomm.social

Toot

Written by Oliver Czulo on 2024-09-20 at 08:07

2/2 ... aber als "schöne Physikprofessorin" oder auch als "reizende Physikprofessorin" (bei ganzen Sätzen wird dieser Unterschied noch deutlicher). Es kommt das raus, was wir als Daten reinstecken! Und offenbar sind in den Trainingstexten immer noch Männer Physikprofessoren, außer, sie sind "lovely". #Translation

=> More informations about this toot | More toots from OliverCzulo@wisskomm.social

Descendants

Written by Jens Jäger on 2024-09-20 at 08:26

@OliverCzulo Ich habe letzte Woche jemanden kennengelernt, der bei DeepL arbeitet - dabei habe ich gelernt, dass es dort ein 30-köpfiges Team gibt, das sich wohl ausschließlich um genderbezogene Themen kümmert, um genau so etwas zu verhindern/verringern. Das fand ich sehr überraschend.

=> More informations about this toot | More toots from JensJot@mas.to

Written by Oliver Czulo on 2024-09-20 at 08:49

@JensJot Die Daten sind halt die Daten, außerdem: Wie soll die Maschine entscheiden, worum es geht? (Nicht nur) Dafür bräuchte sie ein Verständnis oder zumindest ein sehr reichhaltiges Modell unserer Welt. Ich weiß, dass man an solchen Modellierung arbeitet, aber damit ist man konzeptuell wieder zurück auf dem Stand der 1950er bis 1980er, nur mit moderneren Technologien, um das anzugehen.

=> More informations about this toot | More toots from OliverCzulo@wisskomm.social

Written by Jens Jäger on 2024-09-20 at 09:46

@OliverCzulo 🤷🏻‍♂️ Ich weiß nicht, wie und was sie da genau machen. Als Laie stelle ich es mir vor, dass man den Modellen mitgibt, dass sie bei Sätzen, in denen es um Menschen geht, "vorsichtig sein" sollen und neutrale Formulierungen verwenden oder ggf. dendie Nutzerin fragen, welche Variante gewählt werden soll.

=> More informations about this toot | More toots from JensJot@mas.to

Written by Oliver Czulo on 2024-09-20 at 10:09

@JensJot Zum De-Biasing gibt es verschiedene Methoden, z. B. über Datenmanipulation; ein Weg wäre, Texte bereitzustellen, die den Bias in die andere Richtung haben. Da können allerdings auch schräge Ergebnisse rauskommen. Es geht bei der Frage u. a. um korrekte Referenzen: War es jetzt der Arzt oder die Ärztin, die etwas bestimmtes zu Protokoll gab, oder ging es bei der geschlechterspezifischen Behandlung um die Patientin oder den Patienten (oder ein anderes Geschlecht)? etc etc

=> More informations about this toot | More toots from OliverCzulo@wisskomm.social

Proxy Information
Original URL
gemini://mastogem.picasoft.net/thread/113168853622758981
Status Code
Success (20)
Meta
text/gemini
Capsule Response Time
300.516272 milliseconds
Gemini-to-HTML Time
2.062135 milliseconds

This content has been proxied by September (ba2dc).