Emberek helyett hamarosan robotok fogják értékelni az új intézkedések kockázatait a Metánál
Belsős dokumentumok alapján szinte teljes egészében a mesterséges intelligenciára fogja bízni a Meta az új funkcióinak kockázatfelmérését. Így a jövőben emberek helyett egy robot fogja eldönteni, hogy egy funkciónak vannak-e olyan szintű adatvédelmi aggályai, jelent-e akkora veszélyt a kiskorúakra vagy növeli-e akkora mértékben a káros tartalmak terjedését, hogy a cég ne vezesse be azt valamelyik platformján – írja az npr.
A gyakorlatban ez azt jelenti, hogy ha a Meta csavar egyet a Facebook algoritmusán, mondjuk azért, hogy több ajánlott tartalmat lássunk, új biztonsági intézkedéseket vezet be, vagy változtat azon, hogy hogyan és mit lehet megosztani, azt mostantól egy mesterséges intelligencián alapuló rendszer fogja kiértékelni. Ez a rendszer aztán vagy kiszűri, hogy hogyan lehet rossz célokra használni egy jó szándékkal bevezetett funkciót, és ennek milyen, előre nem látott következményei lehetnek, vagy nem.
Az npr szerint a Metánál a változtatásra abszolút pozitívumként tekintenek, mert így a fejlesztők sokkal gyorsabban tudnak majd frissítéseket kiadni. Jelenlegi és volt alkalmazottak szerint viszont ennek az lesz az ára, hogy a változtatások negatív következményei csak akkor fognak kiderülni, mikor már érvénybe léptek. A Meta a lapnak azt írta, az összetettebb problémáknál továbbra is fognak emberi szakértőket alkalmazni, és az automatizálás csak az alacsony kockázatú dolgokra vonatkozik,
a dokumentumok alapján azonban olyan, érzékeny témáknál is az MI kezében lehet majd a döntés, mint az MI-biztonság, a fiatalkorúak védelme és az erőszakos, valamint hamis hírek terjesztése.
Ez egyébként tökéletesen beleillik a Meta elmúlt években követett filozófiájába, a moderációhoz is hasonlóan állnak hozzá. Ott állításuk szerint szintén alkalmaznak valódi embereket a komplexebb ügyek felgöngyölítésénél, és 2020 óta a legfelsőbb bíróságukhoz is lehet fellebbezni. A tapasztalat viszont azt mutatja, hogy az ügyek legnagyobb részét automatizmus intézi, ami gyakran semmilyen magyarázatot nem ad, és a döntések ellen fellebbezni sem lehet. Emiatt rengeteg volt a fals pozitív is, amit a Meta végül azzal oldott meg, hogy eltörölte a tényellenőrzést, és lényegében bedobta a lovak közé a gyeplőt.
Ez a megközelítés ebben az esetben még veszélyesebb lehet. Ezentúl nem kell a kollégáikhoz járkálni, és egyeztetni arról, hogy milyen problémák merülhetnek fel egy frissítésnél, csak betáplálják a rendszerbe, ami megmondja, hogy mit kellene még csinálni, és milyen kritériumoknak kell megfelelni. Az egyeztetős kör pedig ugyan megmarad, de a fejlesztőcsapaton fog múlni, hogy lefutják-e, azaz a Meta lényegében rájuk bízza a kockázatfelmérést, maguk a kockázatfelmérők pedig csak akkor kerülnek képbe, ha a fejlesztők szerint szükség van rájuk.
Zvika Krieger, a Meta korábbi, felelős innovációért felelős igazgatója az npr-nek azt mondta, a fejlesztők nem kockázatfelmérők, nem ehhez értenek, és nem is ez a prioritásuk. Így aztán logikus, hogy amikor korábban próbálkoztak ilyen jellegű kísérletekkel, azokból hamar az lett, hogy fejlesztők csak a kipipálandó kis négyzeteket látták, és nem foglalkoztak a háttérben meghúzódó, komolyabb kockázatokkal.
Persze itt az MI is segíteni fog, ami a Meta szerint bizonyos kérdésekben meghaladja az emberi képességeket, de az jó kérdés, hogy a cég tényleg bízhat-e a még mindig rendszeresen légből kapott dolgokat kitaláló nagy nyelvi modellekben úgy, hogy az átlagosnál jóval nagyobb figyelem övezi minden apró frissítésüket. Ha pedig a rendszer hibázik, akkor kevésbé fog számítani, hogy milyen gyorsan adták ki azokat.