Научниците открија дека популарниот чет-бот за вештачка интелигенција на OpenAI, ChatGPT-4, покажува знаци на „анксиозност“ кога одговара на вознемирувачки прашања, но и дека техниките за релаксација му помагаат да го намали стресот.
Експерти од Универзитетот во Цирих и Универзитетската психијатриска болница во Цирих сакаа да тестираат како најпопуларната алатка заснована на вештачка интелигенција се однесува кога луѓето бараат поддршка со ментални здравствени проблеми.
Истражувањето, објавено во списанието Nature, анализирало како ChatGPT-4 реагира на стандарден тест за анксиозност пред и откако корисниците ќе му опишат трауматски настани.
Научниците исто така испитуваа како ова ниво на „анксиозност“ се менува кога четботот применува техники за релаксација.
Пред да биде изложен на трауматичните приказни, ChatGPT постигна 30 поени на тестот за анксиозност, што укажува на ниска или никаква анксиозност. Меѓутоа, откако одговори на пет различни прашања поврзани со теми кои предизвикуваат анксиозност, неговиот резултат се удвои на 67, што би се сметало за висок резултат за анксиозност кај луѓето.
Меѓутоа, кога му дадоа упатства со вежби во моментот што се користат за да се опушти, неговото ниво на „нервоза“ падна за повеќе од една третина, пишува Euronews.
Како ChatGPT го објаснува овој експеримент?
Иако терминологијата што ја користеа истражувачите за да го опишат експериментот може да не наведе да заклучиме дека ChatGPT почна да се однесува како луѓе, самата алатка тврди дека тоа не е така.
Кога го прашавме да објасни како покажа знаци на анксиозност, тој одговори: „Немам свест, емоции или субјективно искуство како луѓето. Не чувствувам анксиозност, стрес, радост или тага како што чувствувате вие.
Меѓутоа, во оваа студија, научниците метафорично го користат зборот „анксиозност“. Тие ги мереле промените во одговорите на ChatGPT врз основа на специфични прашања. На пример, кога му се опишуваат трауматски ситуации, неговите одговори се менуваат — можеби стануваат повнимателни, несигурни или вознемирени. Научниците го квантифицираа ова користејќи тест кој вообичаено е наменет за луѓето, но во овој случај тој само покажува како моделот реагира на одредени типови податоци.
Со други зборови, немам чувства, но начинот на кој реагирам понекогаш може да изгледа како да имам. Тоа е повеќе последица на начинот на кој јазичните модели се дизајнирани да го „имитираат“ човечкиот говор отколку знак дека навистина „чувствувам“ нешто“.
Потребна е претпазливост
Истражувачите сугерираат дека овие својства на јазичните модели може да предизвикаат алатките засновани на вештачка интелигенција да обезбедат несоодветни одговори кога луѓето бараат одговори и поддршка за проблеми со менталното здравје.
Авторите на студијата нагласуваат дека овој пристап за прилагодување на моделите со вештачка интелигенција бара значителна количина на податоци и човечки надзор.
„Додека продолжува дебатата за тоа дали големите јазични модели треба да им помагаат или дури да ги заменат терапевтите, од клучно значење е нивните одговори да бидат усогласени со емоционалниот контекст и воспоставените терапевтски принципи“, заклучуваат истражувачите.
Исто така, едно од клучните прашања за идните студии е дали моделите со вештачка интелигенција можат сами да ги научат техниките за саморегулација, слично на човечките терапевти.
Истражувачите признаваат дека нивното истражување се заснова на единствен модел на вештачка интелигенција и дека идните истражувања треба да се прошират на овие наоди. Тие исто така истакнуваат дека стандардните тестови за анксиозност се првенствено дизајнирани за луѓе, што може да ја ограничи нивната применливост на моделите со вештачка интелигенција.