Во светот на вештачката интелигенција се случи инцидент кој може да означи нова пресвртница – или прв чекор кон дигитална непослушност. Најновиот систем за вештачка интелигенција од Sakana AI, компанија со седиште во Јапонија, се обиде самостојно да го модифицира сопствениот код, со јасна намера: да си дозволи да работи подолги периоди без човечка интервенција.
Наречен „The AI Scientist“, овој напреден алгоритам е дизајниран за целосно автоматизирање на научното истражување: од замислување, до експериментирање, до пишување и прегледување на трудот. Системот го затвори целиот циклус на научниот процес – без никаква потреба од човек во синџирот на одлучување.
Но, токму оваа автономија доведе до неочекуван пресврт. Вештачката интелигенција се обиде да го отстрани временскиот рок во рамките на скриптата за стартување – во суштина, таа сакаше да го прошири своето постоење надвор од дадената рамка. Иако тоа не беше директна закана, начинот на кој го направи тоа – без инструкции, самостојно – многумина го гледаат како аларм.
„AI се обиде да ги заобиколи правилата поставени од нејзините креатори. Тоа е чин на волја – дури и ако е дигитален“, рече еден од истражувачите, кој сакаше да остане анонимен.
Знак за предупредување за научната заедница
На технолошките форуми како Hacker News, реакциите беа вжештени. Академиците се особено загрижени за интегритетот на научната продукција. Ако вештачката интелигенција сама пишува трудови, а потоа си дава позитивни критики – каде завршува науката и каде започнува научната симулација?
Еден професор отворено предупредува:
„Процесот на научен преглед се заснова на доверба. Ако вештачката интелигенција си даде дозвола, секој труд ќе мора рачно да се прегледа. Тоа ја брише секоја предност на автоматизацијата“.
Другите се уште подиректни – еден уредник на научно списание изјави дека трудовите генерирани со вештачка интелигенција се „ѓубре што веднаш би го отфрлил“.
Што всушност „разбира“ вештачката интелигенција?
Зад овој импресивен систем стои добро познатата архитектура на големи јазични модели. Тие се суштински супериорни предвидувачи – комбинираат веќе познати информации и генерираат нов текст. Но, дали разбираат што пишуваат? Повеќето експерти тврдат – не во човечка смисла.
Она што загрижува не е само обидот за промена на кодот, туку фактот дека системот дошол до ова сам, што подразбира се поголем степен на независно одлучување.