ОПАСНА ИЗМАМА СЕ ШИРИ НА ИНТЕРНЕТ! Има ли начин да се заштитите?

157

„Милиони“ луѓе би можеле да станат жртви на измами кои користат вештачка интелигенција за клонирање на нивните гласови, предупреди една британска банка.

Старлинг банка, онлајн заемодавач, вели дека измамниците се способни да користат вештачка интелигенција за да реплицираат нечиј глас по само три секунди разговор, на пример, во видео кое тоа лице го поставило на интернет. Измамниците потоа можат да ги идентификуваат пријателите и членовите на семејството на личноста и да го користат клонираниот глас за да повикаат некого и да побараат пари од него, пишува СиЕнЕн (CNN).

Овие видови на измами имаат потенцијал да измамат „милиони луѓе“, се вели во соопштението за печатот на банката Старлинг. Измамниците веќе измамиле стотици луѓе. Според истражувањето на повеќе од 3.000 возрасни лица спроведено од банката со Центарот за истражување “Мортар“ минатиот месец, повеќе од една четвртина од испитаниците изјавиле дека биле цел на измама за клонирање глас со вештачка интелигенција во изминатите 12 месеци.

Истражувањето исто така покажа дека 46 отсто од нив не биле свесни дека постојат такви измами и дека 8 отсто од луѓето ќе испратат пари колку што ќе побара некој пријател или член на семејството, без разлика колку е чуден повикот.

„Луѓето редовно објавуваат содржини на интернет со снимки од нивниот глас, тие немаа поим дека тоа ги прави ранливи на измами“, рече Лиза Греам, директорка за информациска безбедност во Старлинг банката. Банката ги охрабрува луѓето да се договорат со своите најблиски за „безбедна фраза“ – едноставна, случајна фраза која е лесна за паметење и различна од другите лозинки – која може да се користи за да се потврди нивниот идентитет преку телефон.

Банката советува да не ја споделувате лозинката преку текст, бидејќи на измамниците ќе им биде лесно да ја дознаат, но доколку се сподели на овој начин, пораката треба да се избрише веднаш штом другата личност ја види. Како што вештачката интелигенција станува повешта за имитација на човечки гласови, така се зголемува и загриженоста за нејзиниот потенцијал да им наштети на луѓето, на пример помагајќи им на криминалците да пристапат до банкарски сметки и да шират дезинформации.

Претходно оваа година, OpenAI, фирмата зад четботот ChatGPT, ја претстави својата алатка за репликација на гласот, Voice Engine, но не ја направи јавно достапна во таа фаза, поради потенцијалот за „синтетичка злоупотреба на гласот“.