Вештачката интелигенција наскоро ќе одлучува кого да убие? Како Чет Џи-пи-ти се користи во одбрана и во напад

352

Партнерството меѓу компаниите OpenAI и Anduril Industries ги отвора вратите за примена на вештачката интелигенција во воената индустрија, со етички дилеми и потенцијални ризици. Некогаш строго против употребата на своите модели во воени апликации, OpenAI сега соработува со Anduril Industries за да развие алатки за вештачка интелигенција за американската војска и нејзините сојузници. Целта на оваа соработка е да се подобри системот за одбрана од воздушни закани, особено од беспилотни летала, преку брза обработка на податоците и намалување на оптоварувањето на човечките оператори.

Како што истакнува компанијата Anduril, моделите со вештачка интелигенција ќе се користат за синтетизирање на податоци чувствителни на времето, подобрување на свесноста за ситуацијата и олеснување на донесувањето одлуки во стресни околности. Иако овие системи бараат човечка контрола при донесување смртоносни одлуки, нивната автономна способност може да се подобри во иднина.

Оваа соработка доаѓа во време кога технологиите за вештачка интелигенција стануваат клучни елементи на модерното војување, особено во Украина. Системот познат како систем за контра-беспилотни авиони (CUAS) се користи за неутрализирање на беспилотни летала, но се споменува и одбрана од „класични“ авиони со екипаж.

Зголеменото влијание на вештачката интелигенција во воената индустрија
OpenAI не е единствената компанија што ја истражува воената примена на вештачката интелигенција. Мета почна да ги нуди своите модели на Лама на партнерите од одбраната, додека Антропик склучи договор со Палантир за да ги анализира доверливите податоци. Дури и гиганти како Google, Microsoft и Amazon учествуваат во битката за профитабилни воени договори.

Сепак, ваквата примена на вештачката интелигенција покренува прашања за доверливоста и безбедноста. Големите јазични модели (LLM), како што се оние развиени од OpenAI, често произведуваат неточни информации и се подложни на манипулации. На пример, т.н „брзите инјекции“ може да доведат до лажни одлуки, што претставува значителен ризик во ситуации опасни по живот. Иако Андурил ветува робустен мониторинг и етички протоколи, скептиците предупредуваат на потенцијални злоупотреби и ранливости на таквите системи.

Профитот пред етиката?
Во јуни, OpenAI го назначи поранешниот шеф на НСА Пол Накасоне во својот одбор на директори, што сигнализира можно интензивирање на соработката во областа на сајбер безбедноста и шпионажата. Оваа одлука и новите договори со војската укажуваат на променета динамика во индустријата: од јавни протести на вработените во Google во 2018 година до денешната борба на технолошките компании за профитабилни воени договори.

Дали системите базирани на вештачка интелигенција навистина се соодветни алатки за воени апликации или тоа е непромислено туркање на технологијата во чувствителни сфери? Времето ќе покаже како ќе се развиваат овие технологии, но едно е сигурно: вештачката интелигенција игра сè поважна улога на глобалната воена сцена.

ИЗДВОЕНИ