imagazin arrow2-left arrow2-right arrow2-top arrow-up arrow-down arrow-left arrow-right cart close dossiers education fb instagram menu notification oander rss rss-footer search service shuffle speech-bubble star store stores tests twitter youtube

DJI Osmo Mobile 2

Teszteltük a DJI legújabb kamerastabilizátorát

Ismét megbélyegezték a Google fordítóját


Megint előkerült a téma és újra skarlát betűként virít a Google Translate-en a szexista jelző. Leginkább nem is erről az egyedi esetről van szó, hanem egy általános tendenciáról. Kit kell felelősségre vonni, ha egy gép rasszista, szexista vagy épp xenofób?

A nyelvtani nemek kérdésköréhez kapcsolódón fel szoktak merülni a fordíthatóság körüli problémák is. Vajon milyen nemre fordíthatóak az egyes kifejezések, ha a forrásnyelv nem használ nyelvtani nemeket. Míg az emberi fordítás esetében legtöbbször a szövegkörnyezet iránymutatást adhat a kérdésben, addig az egyre népszerűbb automatikus, algoritmusokon alapuló fordítóprogramoknak valamilyen előre beprogramozott elvek mentén dönteniük kell.

A Google Translate-tel kapcsolatban pedig rendszeresen heves viták robbannak ki, mivel a fordítóprogram a társadalmilag pozitívabb megítélésű munkákat (sebész, orvos, főnök, stb.), valamint az előnyös emberi tulajdonságokat (okos, bátor, erős, stb.) hímnemre fordította, míg az alacsonyabb presztízsű, sztereotipikusan női munkákat (takarító, ápoló, stb.) és negatívabb emberi tulajdonságokat nőnemre. Ezt a gyakorlatot ellenzők azzal érveltek, hogy az ilyen fordítások tovább mélyítik, illetve megerősítik az amúgy is komoly társadalmi problémát jelentő szexizmust.

A jelenség mögött nem a Google Translate szándékosan szexista programozása, hanem a fordítóprogram működési mechanizmusa áll. Az eszköz a fordítást statisztikai alapon végzi, azaz milliós nagyságrendben vizsgál emberi erővel lefordított könyveket, weboldalakat, és hivatalos dokumentumokat (többek között az ENSZ-től is), majd mintázatokat keres.

Ha egy kifejezést gyakran, több fordításban is adott nyelvtani nemmel fordítanak, akkor az automatikus fordítás során ezt a statisztikailag elterjedtebb változatot fogja javasolni. Az tehát, ha következetes nemi egyenlőtlenségek rajzolódnak ki a program fordítási gyakorlatában, sokkal inkább jelenti azt, hogy a világban ezek az egyenlőtlenségek tényleg léteznek, mintsem azt, hogy a program szándékosan erősíti ezeket.

Kérdés, hogy ezek alapján mennyiben várható a társadalmi gyakorlat megváltozása attól, hogy az eszköz működését úgy módosítják, hogy az politikailag korrekt fordításokat javasoljon, annak ellenére is, hogy a valóságban tényleg a nemileg szteretipikus megoldás az elterjedtebb.

Érdekes kérdés még, hogy a most hőbörgők mennyire szándékosan szítják a tüzet. Ugyanis persze, össze lehet szedni rengeteg egyenlőtlennek látszó példát, de ez csak egy kiragadott, szándékosan a jelenséget kihangsúlyozó példatár lesz.

Ennek bemutatására kicsit kutakodni kezdtem a fordítóprogramban. Nézzük az eredményeket.

A jelenlegi gyakorlatban úgy tűnik, hogy valamilyen módon randomizálták a fordítási javaslatok nem választását, hiszen egyaránt érkezett hím és nőnemű fordítása a negatív, alacsony presztízsértékű, és az előnyös, magas presztízsű tulajdonságoknak, és munkáknak is.

Az észbeli képességeket illetően például a butára nő nemet, az okosra hímnemet adott meg a program, ugyanakkor a legokosabb jelzőre ismét nőnemet.

Hasonló a helyzet a foglalkozásokat és cselekvéseket illetően is. Az, hogy hímnemre fordítja a főnököt megerősítené a feltételezést, hogy a program alkalmazza a megkülönböztető gyakorlatot, ugyanakkor a politikus szóra nőnemet ajánlj, a prostituáltra viszont hímet, így ismét kiegyenlítődik a különbség.

Annak a gyakorlatnak viszont, hogy a vélhető randomizálás miatt nem a természetes előfordulási gyakoriságokban jelennek meg a kifejezések nyelvtani nemei, megvan az egyértelmű hátránya is, hiszen ezáltal olyan alakok is létrejöhetnek a fordítás során, amik ellentmondanak biológiai törvényszerűségeknek is, az alábbi példán nevesül annak, hogy gyermeket csak nők tudnak világra hozni.

Az, hogy felszámolódjanak a társadalomban tapasztalható nemi egyenlőtlenségek nyilvánvalóan rendkívül fontos törekvés. A megoldandó kérdés az, hogy ez milyen módon történjen. A Google Translate körüli cirkuszok nem a probléma gyökerére, hanem annak hozadékaira próbálnak megoldást keresni. Ez pedig nem jó.

A Google fordítója eredeti, randomizálás előtti statisztikai alapú fordítása rávilágított a problémára. Az, hogy a politikai korrektség jegyében módosítják az algoritmusok működését, azon felül, hogy a fentebb is tapasztalható nonszensz hibákat fogja eredményezni, még azt a destruktív hatást is kiváltja, mivel elfedik a valóságot.

Nyilvánvalóan az, hogy a Translate fordítási gyakorlatában nem jelentkeznek többé a nemi egyenlőtlenségek, nem oldja meg a társadalmi problémát, ellenben még azt a hamis illúziót is kelti, hogy azok nem is léteznek. Ez pedig vélhetően jelentősen károsabb, mint az, hogy bizonyos nyelvek megkülönböztetnek nyelvtani nemeket.

Beoplay P6

Ezt már olvastad?

A Sirinek ez is az egyik baja, hogy mindenki a célközönség. Valószínűleg hatékonyabb lenne, ha először jól működő modulokat hoznának létre egy-egy funkcióra szabva.

Miért nem ismeri anyanyelvünket az Apple virtuális asszisztense? - Klikk ide!