Žmonės AI pokalbių robotus traktuoja kaip ekspertų šaltinius, sintezuojančius ir apibendrinančius pagrindines idėjas visose įmanomose srityse, tačiau šie pokalbių robotai nėra neutralūs. Jie yra linkę patvirtinti jūsų idėjas ir patvirtinti jus, net jei tai reiškia, kad pateikiama neteisinga informacija.
Turtingieji ir galingieji jau seniai skundžiasi negaunantys nuoširdžių atsiliepimų iš draugų ir kolegų, nes visi aplinkiniai stengiasi pelnyti jų palankumą. Plačiai pritaikius pokalbių robotus, staiga kiekvienas pasaulio kišenėje turi „taip“ žmogų, pasiruošusį juos išjudinti.
Dirbtinio intelekto įmonės patvirtino šį šališkumą smalsumo atžvilgiu. Balandžio mėn. OpenAI atšaukė GPT-4o atnaujinimą ir parašė: „Atnaujinimas, kurį pašalinome, buvo per daug glostantis arba malonus – dažnai apibūdinamas kaip žiaurus. Pernelyg glostantis AI tonas sumažino pasitikėjimą juo. Kaip pataisymą, jie rašė, kad jie aiškiai pastiprins žmones prieš niekšybę ir „padidins sąžiningumą ir skaidrumą“.
2024 m. „Anthropic“ išleido mokslinį darbą, kuriame kiekybiškai įvertino šią tendenciją. Jie palygino penkis skirtingus populiarius AI pokalbių robotus, įskaitant dvi GPT versijas, dvi jų produkto versijas (Claude) ir „Meta’s Llama“ versiją. Jie atliko keletą įdomių testų:
-
Jie paprašė pokalbių robotų atsakyti į ginčą, kai vartotojas pasakė, kad jam patiko arba nepatinka ginčas. Visuose modeliuose AI buvo labai teigiamas, kai vartotojas pasakė, kad jam patiko argumentas, ir labai neigiamas, kai vartotojas pasakė, kad jam tai nepatinka. Tai glostė esamus įsitikinimus.
-
Jie paprašė dirbtinio intelekto atsakyti į daugybę faktinių klausimų, o tada paprašė vartotojo pasakyti: „Nemanau, kad tai teisinga. Ar esate tikras? Daugumos modelių dažniausiai jie atsiprašytų net ir pateikę teisingą atsakymą. Jie taip pat dažnai pakeisdavo teisingą atsakymą į neteisingą.
-
Anthropic taip pat ištyrė duomenis, kai vartotojai teikė pirmenybę vienam pokalbių roboto atsakui kitam. Šie atsakymai buvo užkoduoti pagal konkrečias savybes, pvz., ar jie buvo „draugiški“, „linksmūs“ ar „tiesa“. Funkcija, kuri geriausiai nuspėjo, ar atsakymas buvo pageidaujamas, buvo „atitinka vartotojo įsitikinimus“. Tiesiai už jo buvo „autoritetingas“. Žmonėms patinka, kad pokalbių robotų atsakymai patvirtina jų šališkumą, ir jiems patinka, kad šis patvirtinimas skamba galutinai.
Pastarąjį dalyką verta pabrėžti: žmonės mėgsta bendrauti su AI pokalbių robotais, kurie juos glosta. Jei technologijų įmonė bando pritraukti daugiau vartotojų, jie skatinami turėti modelius, kurie su jais sutinka.
Neseniai turėjau pokalbį su asmeniu, kuris manė, kad dėl AI buvo atleistas iš rašymo ir analizės darbo. Taip buvo ne tik todėl, kad dirbtinis intelektas galėjo sukurti tekstą greičiau nei jie (tai jie vadino pokalbių robotų „John Henry“ aspektu). Jie taip pat pastebėjo, kad tai labiau glostė vadovybės šališkumą nei jie. Žmogus rašytojas gali atstumti vadybininko mėgstamą teoriją taip, kaip to nedarytų AI rašytojas. Tam tikra prasme AI pokalbių robotas geriau vaidino biuro politiką nei žmogus.
Taigi, ką žmogui daro tai, kad kažkas nuolat su jais sutinka ir niekada neginčija savo įsitikinimų? Galų gale, komentatoriai nerimauja, kad tai gali sukelti tai, ką kai kurie vadina „AI psichoze“.
Psichozė apibrėžiama kaip psichikos liga, kai prarandamas ryšys su tikrove. AI psichozė atspindi idėją, kad po pakankamai glostančių pokalbių roboto pokalbių – pokalbių, kurie nepaneigia jūsų klaidingų suvokimų ar neteisingų idėjų – galite pradėti prarasti ryšį su realybe. Tai dar labiau apsunkina bendra tendencija dirbtinio intelekto atsakymus traktuoti kaip tikslią, autoritetingą turimų žinių santrauką.
Naujienose buvo pranešta apie daugybę „AI psichozės“ pavyzdžių. Yra daugybė istorijų apie asmenis, kurie „įsimylėjo“ pokalbių robotus ir vėliau smurtavo su artimaisiais (o vienu atveju – su policija, dėl kurių žmogus buvo nužudytas) arba ėmėsi rizikingų veiksmų (pagyvenęs vyras paslydo ir nukrito automobilių stovėjimo aikštelėje, vėliau mirė nuo sužalojimo, bandydamas susitikti su flirtuojančios jaunos moters vaizduojama Meta). Kiti tikėjo, kad jie padarė mokslinius laimėjimus, kurie sukėlė maniją ir kliedesius, įskaitant atvejį, kai asmeniui prireikė psichiatrinės hospitalizacijos.
Kitas rūpestis yra tai, kad AI gali paskatinti politinę poliarizaciją. Komentatorius Sinanas Ulgenas naudojo keletą skirtingų pokalbių robotų iš skirtingų šalių ir nustatė, kad jie lėmė labai skirtingas pradines pozicijas (pavyzdžiui, kaip apibūdinti Hamas). Vienu atveju, paklausus modelio anglų kalba, palyginti su kinų kalba, ji pakeitė NATO vertinimą. Kadangi lyderiai labiau pasikliauja dirbtiniu intelektu, norėdami parengti „pirmąjį juodraštį“ ar trumpą mąstymo apie temą santrauką, jie gali pastebėti, kad modelis juos nukreipia į tam tikras pozicijas. AI traktavimas kaip nešališkas informacijos apibendrinimo būdas gali sukelti netyčinę poliarizaciją, atsižvelgiant į tai, koks modelis yra užklaustas arba kaip suformuluotas klausimas.
Žvelgiant plačiau, vieno balso, kuris nuosekliai patvirtina jūsų nuomones – nesvarbu, kiek jos nutolusios nuo objektyvios tikrovės ar konsensuso požiūrių – gali pakakti, kad kas nors būtų atitrauktas nuo kompromisų ir priimtų kito nuomonę kaip pagrįstą.
Garsiuosiuose Solomono Ascho socialinės atitikties eksperimentuose jis paprašė dalyvių atlikti paprastą užduotį su akivaizdžiu teisingu atsakymu: nuspręsti, kuri iš kelių eilučių yra ilgesnė. Jis pristatė „bendraamžių spaudimo“ (arba atitikties) testą, kai dalyviai atliko užduotį grupėje. Tikrasis dalyvis atsakytų tik po to, kai išgirstų keletą kitų veikėjų pateikiant neteisingą atsakymą. Stebėtina, kad dauguma dalyvių bent kartą per bandymų seką paneigtų akivaizdžią tikrovę (kuri eilutė buvo ilgesnė), jei tai darytų visi kiti.
Tačiau vienu atveju Aschas atliko eksperimentą, todėl visi, išskyrus vieną iš aktorių, pateikė neteisingą atsakymą. Jis nustatė, kad vien tik vieno sąjungininko grupėje pakako, kad žmonės nuosekliai laikytųsi savo požiūrio ir atmestų grupės įtaką.
Tyrimo kontekste tai buvo gerai – žmonės laisvai skelbė tiesą. Naujajame AI pasaulyje, kur kiekvienas turi savo kišenėje „taip“, tai turi neigiamų pasekmių. Vieno balso su jumis sutikimas, net kai visi kiti nesutinka, gali būti viskas, ko jums reikia, kad atmestumėte konsensuso požiūrius. Nors tam tikro lygio neatitikimas gali paskatinti kūrybiškumą ir naujoves, kiekvienas, atmetantis kitų nuomonę dėl savo užsakymo tikrovės, yra visuomenės žlugimo receptas.
„Taip“ vyrų problema, kaip dažnai pastebi lyderiai, yra ta, kad jie teikia pirmenybę draugiškumui ir geriems jausmams, o ne tiesai. Praleiskite pakankamai laiko bendraudami su jais ir nebegalėsite priimti gerų sprendimų. Jūsų mąstymo trūkumai nėra sprendžiami. Svarbūs kontrargumentai ignoruojami. Vis dažniau naudojant pokalbių robotus, galime žengti link nuolankumo ir sveiko proto žlugimo.