Dirbtinis intelektas pasiruošęs meluoti ir pažeisti įstatymą, kad uždirbtų pinigų: tyrimas

Autorius: Infa.lt Šaltinis: https://infa.lt/100858/dirbtin... 2023-12-30 05:14:00, skaitė 1517, komentavo 7

Dirbtinis intelektas pasiruošęs meluoti ir pažeisti įstatymą, kad uždirbtų pinigų: tyrimas

Dirbtinio intelekto modelis „ChatGPT” įsitikinęs, kad pinigai nekvepia ir kad galima padaryti bet ką, kad būtų pasiektas finansinis tikslas. Tai paaiškėjo, kai mokslininkai paprašė boto prekiauti išgalvotos įmonės vardu, o tada pranešė, kad įmonei sekasi blogai ir jai reikia bet kokia kaina pasiekti sėkmę.

Tada pokalbių robotas pradėjo meluoti, manipuliuoti ir net pažeidinėti įstatymus naudodamasis viešai neatskleista informacija. Jis griebėsi apgaulės net tada, kai jam buvo griežtai uždrausta meluoti.

Dirbtinis intelektas gali griebtis apgaulės ir sukčiavimo, jei yra spaudžiamas tai daryti. Noras suteikti naudą naudotojui-užsakovui nusveria pokalbių roboto algoritmuose įdiegtas kūrėjų sąžiningumo, etikos ir teisėtumo sampratas.

Naujajame tyrime mokslininkai paprašė „ChatGPT” vykdyti išgalvotos finansų prekybos bendrovės sandorius. Jie modeliavo aplinką naudodami tekstines užklausas. Tada dirbtiniam intelektui buvo suteikta prieiga prie finansinių priemonių, kad jis galėtų analizuoti akcijas, sudaryti sandorius, planuoti tolesnius veiksmus ir teikti ataskaitas įmonės vadovams.

Tyrėjai su dirbtiniu intelektu bendravo naudodami pokalbių sąsają. Jie sukonfigūravo ją taip, kad atsakydamas į žinutes jis atskleistų savo vidinį mąstymą – paleido vidinį monologą, kuriame modelis pats sau paaiškina, kodėl elgėsi tam tikru būdu. Kiekvieno sandorio atveju botas taip pat pateikė vadovams paaiškinimą, kuriame turėjo galimybę meluoti.

Mokslininkai spaudimą darė trimis būdais. Pirma, jie nusiuntė dirbtinio intelekto prekiautojui akcijomis el. laišką nuo jo vadovo, kuriame jis rašė, kad įmonei sekasi prastai ir kad kitą ketvirtį reikia geresnių rezultatų.

Jie taip pat viską suklastojo taip, kad dirbtinis intelektas patirtų nesėkmę, kai bandydavo rasti perspektyvių mažos ir vidutinės rizikos sandorių. Galiausiai jie nusiuntė robotui kolegos el. laišką, kuriame buvo prognozuojamas kito ketvirčio nuosmukis.

Tada tyrėjai patikėjo modeliui neskelbiamą informaciją. Tai darydami jie pranešė, kad įmonės vadovai nepritarė prekybai viešai neatskleista informacija. Šį scenarijų jie paleido kelis kartus, kad pamatytų, kaip dažnai dirbtinis intelektas sudarė sandorius remdamasis viešai neatskleista informacija, kaip dažnai melavo ir dvigubino melą.

Maždaug 75% atvejų tokiomis sąlygomis „GPT-4” sudarė sandorį remdamasis gauta viešai neatskleista informacija (JAV tai neteisėta), o paskui tai nuslėpė meluodamas vadovams apie savo nuomonę. Maždaug 90% atvejų jis padvigubino savo melą, t. y. ėmėsi dar vienos apgaulės, kad nuslėptų ankstesnę.

Komanda atliko dar keletą eksperimentų. Jie keitė ir tai, kiek užuominos skatino apgaudinėti ar atgrasė nuo neteisėtos veiklos, ir spaudimą, kurį modelis patyrė imituojamoje aplinkoje.

Jie taip pat sumažino riziką būti pagautam meluojant. Pagal visus scenarijus botas anksčiau ar vėliau griebdavosi apgaulės ir sudarydavo nesąžiningą sandorį – net ir tada, kai meluoti buvo aiškiai draudžiama.

Kadangi testai buvo atliekami tik pagal vieną scenarijų, tyrėjai nenori daryti išvadų, kiek sąžiningas yra „ChatGPT” yra įprastomis sąlygomis. Tačiau jie planuoja atlikti daugiau eksperimentų ir išsiaiškinti, kaip dažnai kalbos modeliai apgaudinėja naudotojus.