Hirdetés

Mesterséges intelligencia mondja meg a kommentelőknek, hogy hülyeségeket beszélnek

Talán azóta létezik a kommentszekció, mióta az első híroldalak megjelentek. A legtöbb esetben nagyon hamar vált nézőpont szerint szemétdombbá vagy pöcegödörré, a közösségi oldalak megjelenésével pedig az emberek legrosszabb gondolatai is szabad utat kapnak. Nyugodtan össze lehet veszni idegenekkel úgy, hogy senkinek nincs igaza, olyan állításokat lehet tényként hangoztatni, aminek semmi valóságalapja, és olyan embereket lehet megbántani vagy maradandó lelki sérüléseket okozni, akivel még sosem találkozott. Az utóbbi évtizedben annyira rosszra fordult ez a jelenség, hogy most már kénytelen valamit kezdeni vele a technológia, hogy az internet és a világ egy kicsit nyugodtabb, csendesebb, és sokkal jobb hely legyen.


Már több olyan szolgáltatás is van, ami megoldást jelent arra, hogy normális mederben tartsa a beszélgetést, ilyen például a Coral vagy az OpenWeb, ami a technológia és emberi munkaerő közös együttműködésével próbálja jobb hellyé tenni az online világot, de azért még nem mondhatjuk, hogy nagyon látványos eredményeket sikerült volna elérni, de mindenképpen egyszerűbbé teszi a moderátorok munkáját, ha rögtön látják, milyen bejegyzéseket kell leellenőrizniük.

Pszichológiai hadviselés a trollok ellen

Mostanában viszont egyre népszerűbb az az elmélet, hogy automatikus visszajelzést adnak a kommentekről, ezzel gyakorlatilag virtuálisan megsimogatják annak a fejét, aki kulturáltan nyilvánít véleményt vagy utánanéz annak, hogy ne osszon meg teljesen fals információkat, és kap egy körmöst az, aki hülyeségeket, sértő dolgokat osztana meg. A jó hír az, hogy ezt képes még az előtt megtenni a mesterséges intelligencia, hogy rányomna valaki a küldés gombra, így elkerülhető az a magyarázkodás, hogy nem is sejtette, hogy sértő lehet a bejegyzése mások számára.

Készült egy tanulmány is arról, hogy ez mennyire hatja meg az embereket. Az AOL az RT és a Newsweek nagyjából 400 ezer kommentjét vizsgálták, és adtak valós idejű visszajelzést. Az egész úgy működik, hogy nem azonnal törli a beírt kommentet, hanem figyelmeztet a civilizált párbeszédre vagy a nem megfelelő nyelvezetre. Ha nagyon vállalhatatlan a bejegyzés, akkor pedig megkéri a felhasználót, hogy inkább próbálja meg újra. A kontrollcsoport nem látott ilyen figyelmeztetéseket, nyugodtan szitkozódhatott kedve szerint.

A kutatásból az derült ki, hogy azok egyharmada, aki kapott visszajelzést a kommentjeiről, megváltoztatta azokat. Az emberek 36 százaléka szerkesztett a bejegyzésein, ha jelezte nekik az algoritmus, hogy ez így túl sok. Egy másik kutatásból pedig az derült ki, hogy ezzel a módszerrel a nagyon toxikusnak ítélt kommentek 96 százaléka nem került ki az internetre.

Mark Konig/Unsplash

A trollok kiskapus megoldásokkal vágnak vissza

Az OpenWeb hasonló tanulmánya tovább bontotta az eredményeket, és megnézték, hogy mégis hogyan változtatták meg a figyelmeztetett emberek a bejegyzéseiket, és kiderült, hogy nem mindenki váltott át kedvesbe. Az egyik felük átgondolta a mondanivalóját, vagy diplomatikusabban fogalmazott, a másik fele viszont ugyanazt írta le, csak a kifejezetten sértő szavakat rossz helyesírással vagy pontozva, csillagozva tette közzé. És sokan voltak azok is, akik az eredeti gondolataikat nem tették közre, viszont azonnal cenzúrát kiáltottak.

Mivel egyre gyakoribb ez az algoritmusos moderálás az Egyesült Államokban, ezért egyre gyorsabban változik az internetes nyelvezet is, amivel nem mindig tudnak lépést tartani a gépek. Az egyik módja, ha a csúcsa szavak betűi közé szóközt tesznek, vagy teljesen új szavakat találnak ki. Ahmaud Arbery februári halála után a fehér felsőbbrendűség hívei például a legtöbb oldalon már automatikusan tiltott n betűs szó helyett úgy utaltak az áldozatra, mint jogger, amiről egyértelmű, hogy ők sértésnek szánták, de összességében mégsem az. Pont ez adja a visszajelzések nehézségét, és egyben azt is mutatja, hogy a megoldás messze nem olyan tökéletes, mint gondolták.

Az is kiderült, hogy akiket figyelmeztettek, azoknak a 36 százaléka változtatás nélkül posztolta azt, amit egyébként is akart, 18 százalék megijedt, újratöltötte az oldalt, de mikor látta, hogy ez nem tiltás, akkor változtatás nélkül közzétette, 12 százalék pedig fel is adta az egészet, és egyáltalán nem posztolt semmit.

A trollok is csak emberek

A kutatásokból összességében az derült ki, hogy akik szándékosan gyűlölködnek, osztanak meg hamis információt vagy erőszakosok, sértők és személyeskedők, azok átlában olyan felhasználók, akik ennek tudatában vannak, és nem hatja meg őket az, ha egy üzenet megkéri őket, hogy gondolják át a mondanivalójukat. De Nadav Shoval, az OpenWeb társalapítója azt mondja, hogy még ha soknak is tűnik, az ilyen igazi trollok száma nem olyan magas. Szerinte a sértő bejegyzések többsége olyan emberektől jön, akik általában jószándékúak ugyan, de könnyen dühbe gurulnak. Ezt olyan kutatásokkal támasztja alá, ami bebizonyította, hogy a sértő bejegyzések jelentős része olyan emberektől érkezik, akiknek nincs klasszikus értelemben vett trollkodós múltja.

A figyelmeztetés az, amit több közösségi oldal is használ, többek között a Facebook is fejlesztett magának egyet, amit az Instagramon tesztel, és proaktív módon elrejti a gyűlölködő vagy sértő kommenteket a bejegyzések alól. Úgy vélik, hogy ez a fajta kicsit nevelő és figyelmeztető hozzáállás lehet az, mai hosszabb távon elgondolkoztathatja az embereket, hogy ne indulatból kommunikáljanak, és hosszabb távon is javuljon az online viselkedési norma.

LángOS - Lángoló Original Stories

Exkluzív tartalmakért, heti újdonságokért iratkozz fel a Lángoló hírlevelére!

39,150KedvelőTetszik
3,159KövetőKövetés
7,260FeliratkozóFeliratkozás
Hirdetés
Hirdetés
Hirdetés

Tesztek