Előítéleteinket hordozza a mesterséges intelligencia

2017. szeptember 11. hétfő - 08:20 / Nagy Mariann
  •    

Több nagy amerikai egyetemen kutatják, hogyan alakul ki a mind jobban terjedő mesterséges intelligencia, és milyen hátulütői vannak. Kiderült, hogy a gépek ugyanúgy hordozzák előítéleteinket, negatív sztereotípiáinkat, mint mi magunk.

A Princeton Egyetem kutatóinak egyik meglepő felfedezése: a mesterséges intelligencián alapuló rendszerek ugyanúgy pozitívan ítélik meg az európai és amerikai keresztneveket, mint az emberek, ugyanakkor a rovarokat, valamint az afroamerikai keresztneveket negatív összefüggésben jelenítik meg. Míg a férfinevekhez általában karrier fogalmakat társítanak, a női nevekhez inkább a családot, a gyermekeket. A férfiak esetében a matematika és a tudomány társul különösen gyakran a nevekhez, a nők vonatkozásában a művészet. Mindez és sok más hasonló jelenség arra mutat, hogy távol vagyunk még a mesterséges intelligencia nagy ígéretének teljesülésétől, hogy némileg ilyen módon értékmentes döntéseket tudunk hozni.

Úgy gondolkodik, mint az emberek Kép: Pixabay

Úgy gondolkodik, mint az emberek
Kép: Pixabay

Mint a kutatásokból kitűnt, a gond mögött természetesen éppen az új, korszerű tudományág alkotói, természetesen az emberek vannak. Miután az előítéletek, sztereotípiák nyelvünkbe vannak ágyazva, azokat már szinte csecsemőkorunktól hordozzuk: az első szavakkal bekerülnek az első előítéletek a tudatunkba, és felnőtt korban ezeket továbbítjuk az algoritmusokba is, amelyeknek segíteniük kell a döntéshozásban.

A Microsoft egyik kutatója egyértelműen megállapította, hogy a gépek vezérelte mesterséges nyelvfeldolgozás (így például a gépi fordítás) reprodukálja a szexista és rasszista előítéleteket.

Ez azonban aggasztó, hiszen végső soron a mesterséges intelligencia az embereket szolgálja, és hibái éppen használóira ütnek vissza. A kérdésre, hogyan lehetne ezt a problémát megszüntetni, a kutatók még nem tudják a választ. A

Csengetett, Mylord?
A kaliforniai Szilícium-völgyben az „Aloft Cupertino” hotelben egyszer csak elénk áll a robot, amelyet A.L.O.-nak hívnak. Nem valamelyik hollywoodi scifi-ből szabadult, hanem a szálloda alkalmazottja, a 91 cm magas, 45 kiló súlyú készülék. Feladatai sokrétűek: a szálló vendégének rendelésére sok mindent tud a szobákba kézbesíteni, legalábbis mindent, ami „csomagtartójába” belefér.

rendkívül bonyolult feladat az, hogy megtalálják, hol torzítja el a rendszer a beletáplált adatokat. Ha pontosan meg tudnák állapítani, milyen tényezőknek ad a kialakuló algoritmus nagyobb hangsúlyt, mint másoknak. Ennek felderítése azonban különösen nehéz feladat, hiszen nem minden torzítás jelenti, hogy valóban hiba került az algoritmusokba.

Jó példa volt erre a Facebook korábbi munkatársának esete: az illető riadót fújt azzal, hogy sikerült megállapítania, miszerint a cég női alkalmazottai gyakrabban kényszerülnek kódjuk megváltoztatására, mint a férfiak. A női munkatársak válaszként tiltakoztak azzal, hogy ilyen módon akarják diszkriminálni őket, de a vállalati vizsgálat tisztázta: az, hogy gyakrabban változtatták nők kódjukat, pusztán azzal függ össze, hogy több a fiatal női munkatárs, akik a betanulás közben természetesen gyakrabban kényszerülnek ilyen lépésre.

Az amerikai és egyéb kutatások folynak tovább, hogy megtalálják a választ a nagy kérdésre: miután a gépek csak számítani tudnak – hogyan érhetjük el, hogy értsenek is?

(Neue Zürcher Zeitung)

Info & tech
Kedves Olvasónk!
Ha érdekli ez a téma, és szeretne heti hírlevelet kapni a témában, vagy értesítést a megjelent új cikkekről, kérjük, adja meg nevét és e-mail címét!

Segítünk kiszámolni

EKÁER kalkulátor

kalkulátor

Céges bankszámla

kalkulátor

Pályázatkereső

kalkulátor