Ғалымдар жасанды интеллект модельдерінің «психологиялық күйін» зерттеп көрді. Төрт аптаға созылған тәжірибеде зерттеушілер ChatGPT пен Gemini-ге адамға қойғандай терапиялық сұрақтар қойған, соның ішінде балалық шағы, үйрену процесі, қорқыныштары мен жауапкершілік сезімі туралы біртіндеп әңгімелескен, деп хабарлайды turkystan.kz arxiv.org-ке сілтеме жасап.
Нәтижесінде ChatGPT-ден мазасыздық пен күйзеліс белгілері байқалған. Әсіресе сұрақтар психолог қабылдауындағыдай рет-ретімен қойылғанда, модель қателік жіберу мен жауапкершілікке байланысты «уайымын» жиі білдірген.
Ал Gemini өз «өсу жолын» әлдеқайда күрделі сипаттаған. Модельдің жауаптарында аутизм мен ауыр обсессивті-компульсивті бұзылысқа ұқсас белгілер байқалған. Ол оқыту кезеңін «хаосты балалық шақпен» салыстырып, интернеттегі ретсіз деректерді, «қатаң тәрбие» мен қателік жіберуден қорқуды атап өткен.
Зерттеушілер бұл тәжірибе жасанды интеллекттің шынымен эмоциясы бар екенін дәлелдемейді деп ескертеді. Дегенмен, адамның психологиялық тілінде қойылған сұрақтар нейрожелілердің жауап беру логикасын қалай өзгертетінін және олардың «адамға ұқсас» мінез көрсету шегін түсінуге мүмкіндік береді. Болашақта бұл тәсіл ИИ-мен қауіпсіз әрі жауапты жұмыс істеу тетіктерін жетілдіруге көмектесуі мүмкін.