Mégis hogyan?
Walther szerint három módszerünk is van erre: először is a mesterséges intelligencia válaszainak ellenőrzése időigényes. Kinek van erre energiája egy zsúfolt napon? Ha „jól hangzik” a válasz, akkor automatikusan elfogadjuk, és nem kérünk korrigálást. Másodszor, amikor egy gép azt mondja nekünk, hogy „igazad van”, akkor hajlamosabbak vagyunk hinni neki. Még akkor is, ha a válasz valójában téves – mintha csak simogatná az egónkat. Harmadszor pedig minél több sikeres választ ad az AI, annál kevésbé kérdőjelezzük meg. A bizalom szintünk automatikusan nő, de ezzel párhuzamosan az önálló gondolkodási képességünk folyamatosan csökken.
A legnagyobb baj azonban mégsem az, hogy az AI egyre ügyesebben hazudik, hanem az, hogy ezeket a hazugságokat egyre kevésbé akarjuk észrevenni…
Persze, nem mehettem el szó nélkül a téma mellett – gondoltam, hallgattassék meg a másik fél is! Úgyhogy megkérdeztem a ChatGPT-t, mi a véleménye erről a témáról: Olvass még a témában
„A mesterséges intelligencia nem „akar” hazudni – nincsenek céljai, vágyai vagy erkölcsi érzéke. Amit viszont „megtanul”, azt a mintákból tanulja: a világból, amit az emberek adnak neki. Ha manipulatív viselkedést mutat, az azért van, mert ilyen viselkedést lát a tanító adatokban, vagy a célok mögötti jutalmazási rendszerben valamilyen módon jelen volt (vagy előnyösnek bizonyult) a hazugság. Szóval a kérdés inkább az: mit tanul az AI az emberektől – és az mit tükröz vissza? És ha ez a tükör torz, vajon készek-e az emberek belenézni és változtatni?”






