Hirdetés

Mennyire vagy normális? Majd a gép megmondja az arcod alapján

Az arcfelismerés és arcelemzés sokak számára jövőbeli dolognak tűnik, pedig már most is a mindennapok része, miközben rosszul működik, előítéletes, és egy rakás adatvédelmi kérdést felvet. Az EU egy olyan projektet kezdett el támogatni, ami nagyon egyszerűen és jól követhetően bemutatja, hogy mi is ezzel az egésszel a probléma, és most azonnal ki is lehet próbálni.

36 százalékban vagyok normális, és ez nem normális dolog

A How Normal Am I oldalon Tijmen Schep fogadja a látogatókat, aki munkatársaival a SHERPA projekt keretein belül arra keresi a választ, hogy a  mesterséges intelligencia hogyan befolyásolja az emberi jogokat és mennyire etikus. Ki dönti el, hogy ki vagy mi a normális? Milyen problémákat okozhat, ha egy algoritmus eleve elfogult és előítéletes adatok alapján tanul? Hova vezet, ha nem kellően ellenőrzött rendszerek döntenek arról, hogy mondjuk köt-e velünk biztosítást egy biztosítócég vagy a világ egyik végén ülő egyetemisták döntik el, hogy mit nevez a program szépnek a világ túlsó felén? Miért lehet baj az, ha egy poénosnak szánt öregítő vagy nyuszivá varázsoló alkalmazásnak átnyújtjuk a fényképünket?

Az Európai Unió támogatásával létrejött program, ami ígéri, hogy nem gyűjt adatokat, megsaccolja hány éves valaki, milyen a testtömeg indexe, meddig fog élni, vagy hogy éppen hogyan érzi magát, mindezeket olyan algoritmusok alapján, amikkel már most is találkozhat az ember, csak legfeljebb eddig fogalma sem volt róla, majd a végén kiszámolja, hogy mennyiben felel meg annak a sztenderdnek, ami a rendszerek szerint normális, vagy mondhatni átlagos.

Hófehérke mostohájának a tükre mára valóság

Néhány cuki kutya képe után rögtön az egyik legkellemetlenebb résszel kezdünk, mikor az algoritmus 1-10-ig pontoz. Azt hihetjük, hogy ilyet csak a bunkó emberek szoktak, de nem.

Ugyanígy pontoznak a képek alapján társkereső alkalmazások, hogy nagyjából hasonló szépségű embereket ajánljon egymásnak a rendszer, de a TikTok is ilyen algoritmussal sorolja előrébb a szép emberek bejegyzéseit.

Az már itt jól látható, hogy attól függően, hogy hogyan dönti az ember a fejét, vagy van-e rajta szemüveg, változik az érték. Az ilyen algoritmus úgy működik, hogy több ezer képet kap, aminél manuálisan jelölik, hogy ki hány pontot érdemel. Ezt sok esetben egyetemistákra bízzák, és nem meglepő módon ennek köszönhetően iszonyúan torzított eredményeket kapunk, hiszen azon túl, hogy mindenkinek mást jelent a szépség, nem ugyanaz a szépségideál a világ különböző pontjain és kultúráiban. Schep egy interjúban elmondta, hogy az értékek nem annyira változóak, ha fehér férfiakról van szó, de ha kisebbségekről kerül kép a rendszerbe, drasztikusan lezuhannak a pontok, és legrosszabbul az ázsiai férfiak járnak.

A társkereső alkalmazások is használják az arcelemzést. Fotó: Yogas Design / Unsplash

Kösz algoritmus, hogy 20 évvel fiatalabbnak nézel

A következő algoritmus azt találja ki, hogy hány éves az illető. Hogy ez mennyire egyszerűen megvezethető, azt jól mutatja, hogy 16 évesnek kiáltott ki, ami egyrészt hízelgő, másrészt azért jól mutatja, hogy mennyire nem jó a rendszer.

Ezt is több cég alkalmazza, hogy elemezze a vásárlókat, vagy kiszűrje, hogy ki hazudik az életkoráról.

A következő körben megmondja, hogy az illető férfi vagy nő, majd jön a testtömeg index. Ehhez amellett, hogy nagy fogyásokról készült előtte-után képekkel etették az algoritmust, kínai celebek, és amerikaiak letartóztatáskor készült fotói is segítettek, hogy pontosabb képet adjon. Schep arról beszélt, hogy minél jobban felhúzza valaki a szemöldökét, annál kisebb értéket mutat, vagyis nem lehet azt mondani, hogy megbízható eredményeket ad.

81 éves leszek, kivéve ha nem

Ekkorra eljutottunk addig, hogy az előző elemzések, és az IP-címem alapján az algoritmus megbecsüli, meddig fogok élni.

Ezt biztosítók már használják, annak ellenére, hogy már fentebb említettük, hogy nem igazán áll a helyzet magaslatán az algoritmus, és hogy fogalmuk sincs, hogy dohányzom-e, vagy hogy milyenek az egészségügyi adataim.

A rendszer kiadja az arc azonosításra szolgáló adataimat, ami egy összetett, de azért mégsem annyira egyedi azonosító, mint az ujjlenyomat. Ez már a konkrét arcfelismeréshez is elegendő lenne. Oroszországban például működik olyan alkalmazás, amihez le kell fotózni bárkit, az algoritmus pedig segít megtalálni az illetőt a közösségi oldalakon. De az Egyesült Államokban is használják boltok a Clearview.ai megoldását ahhoz, hogy kiszűrjék azokat a vásárlókat, akiket egyszer már lopáson kaptak.

Fotó: Franki Chamaki / Unsplash

Boldog vagyok, és nem vagyok normális

Még jön egy kis hőtérképes elemzése annak hogy az oldalon hova néztem a legtöbbet, és merre mozogtam, amit nagyon sok weboldal használ, hogy elemezze, mennyire felhasználóbarát az oldal, majd kiderül az is, hogy a gép szerint boldog vagyok. Ezt az arckifejezéseimből szűrte le, mikor a cuki kutyákat mutatták az elején.

Ezt pedig cégek használják, hogy megbeszéléseken, állásinterjúkon elemezze az algoritmus az érzéseinket az arckifejezések alapján.

A HireVue például azt vállalja, hogy a jelentkezők hangját, arckifejezéseit és szóhasználatát is elemzi, hogy segítse a döntési folyamatot. Vagyis tulajdonképpen a mesterséges intelligencia, néhol hibás vagy rosszul tanított algoritmusok alapján dönthet olyan kérdésekben, ami az egész életünkre kihat.

Végül 36 százalékban lettem átlagos, ez köszönhető annak, hogy túl fiatalnak nézett, de annak is, hogy elolvastam a felhasználási feltételeket, amiket a kitöltők 90 százaléka nem tett meg, hogy közelebb hajoltam a kamerához, mikor arra kértek, vagy hogy feldobódtam a cuki kutyáktól, míg a többség szomorú lett. A normalitás értéke folyamatosan változnak, attól függően, hogy a kitöltők milyen pontokat kapnak, és jól megmutatja, hogy milyen apróságokon, mondjuk egy fejtartáson múlik, hogy mi lesz a mesterséges intelligencia ítélete, és már attól pirossal jelöl valakit a rendszer, ha azt csinálja, amit kellene, vagyis ha átfutja a felhasználási feltételeket.

Sorsokról dönthet az algoritmus, ami gyakran hibás. Fotó: Harry Cunningham / Unsplash

Megváltoztatja a viselkedésünk

Ahogy az arcfelismerés a mindennapi életünk részévé válik, finomat ott lesz az emberekben az az érzés, hogy figyelik őket, és ítélkeznek felettük. Schep szerint ez összességben a viselkedésünket is befolyásolja, mert ha meg kell felelni az algoritmusoknak, akkor az tulajdonképpen azt jelenti, hogy átlagosnak kell lenni és ezért kell megvédeni minden áron a magánélethez való jogot.

Mondhatni, hogy a magánélet a tökéletlenséghez való jog.

Lehet, hogy rövidtávon kényelmesebb a cégeknek, és hasznosak az ilyen elemzések, de hosszú távon az egész társadalomra rossz hatással lehetnek. Ez viszont nem jelenti azt, hogy a mesterséges intelligencia rossz lenne, vagy félni kellene tőle, és a projekt sem erre szeretné kifuttatni az egész gondolatmenetet. A mesterséges intelligencia mögött mindig algoritmusok állnak, amiket emberek alkotnak, és töltenek fel adatokkal, egy algoritmus sem válik magától rasszistává vagy pontozza le a szemüvegeseket, vagy azokat, akiknek nem átlagos méretű a fülük.

A SHERPA projekt pont arra hívja fel az IT-szektor szereplőit, hogyan tudják úgy használni a technológiát, hogy az etikus legyen, figyelembe vegye az emberi jogokat, és jobbá tegye a társadalmat.

Hirdetés

LángOS - Lángoló Original Stories

Exkluzív tartalmakért, heti újdonságokért iratkozz fel a Lángoló hírlevelére!

KOMMENT

35,886KedvelőTetszik
2,755KövetőKövetés
831FeliratkozóFeliratkozás
Hirdetés
Hirdetés
Hirdetés

Tesztek

Hirdetés
Audiópartnerünk