Терористичне угруповання ІДІЛ навчає новобранців «відповідально» використовувати штучний інтелект

Афганський солдат націлює зброю на банер угруповання «Ісламська держава» під час патрулювання під час зіткнень у районі Кот на сході провінції Нангархар 26 липня 2016 року. Аттаулла Хог'яні, речник губернатора Нангархара, заявив, що афганські сили безпеки взяли під контроль територію, де бойовики угруповання «Ісламська держава» керували власними судами. / AFP / NOORULLAH SHIRZADA (Фото: NOORULLAH SHIRZADA/AFP via Getty Images)
Афганські солдати роками воюють проти угруповання ІДІЛ, що базується в Хорасані (Фото: AP)

В останньому випуску журналу, опублікованому афганським відділенням ІДІЛ, пояснюється, як прихильники можуть використовувати штучний інтелект для «відповідальності».

Видання Politico виявило, що видання англомовного журналу «Голос Хорасана», що створюється ІДІЛ в Афганістані, показують своїм прихильникам, як використовувати цю технологію для «моджахедів».

«Муджахід» – це термін для позначення тих, хто займається джихадом, або захищає іслам.

У журналі написано: «Штучний інтелект — як вогонь. Його можна використовувати, щоб освітити будинок або спалити його».

«Штучний інтелект скрізь. Вивчайте його, перш ніж він дізнається про вас забагато. Виховуйте дітей та учнів кіберсвідомими та духовно обґрунтованими», – додається.

У статті також зазначалося, що це корисно для «анонімних приватних досліджень» і може допомогти новобранцям уникнути «непотрібного розкриття інформації».

Це сталося після попередження незалежного експерта британського уряду з питань тероризму Джонатана Холла, який заявив Politico: «Розробки штучного інтелекту та агентного штучного інтелекту швидко прискорюються, і все більше і більше цих можливостей доступні терористичним групам».

«Я не здивуюся, якщо радикалізація чат-ботів почне набирати обертів: якщо можна створити терористичний веб-сайт, чому ж утримуватися від створення терористичного чат-бота?»

«Якщо урядовці не стежать за новинами про розвиток штучного інтелекту, то вони справді повинні це робити».

Минулого року колишній генеральний директор Google попереджав про «надзвичайний ризик», який становлять терористи або держави-ізгої, що використовують штучний інтелект.

Ерік Шмідт закликав уряди контролювати приватні технологічні компанії, посилаючись на побоювання щодо використання терористами цих технологій для «злочинних цілей».

«Справжні побоювання, які я маю, — це не ті, про які більшість людей говорить про штучний інтелект, — я говорю про надзвичайний ризик», — сказав пан Шмідт BBC, назвавши Північну Корею, Іран чи Росію.

КАБУЛ, АФГАНІСТАН -- 8 ВЕРЕСНЯ 2021 РОКУ: Бійці Талібану намагаються зупинити просування протестувальників, які марширують районом Дашті-е-Барчі, через день після того, як Талібан оголосив про створення нового повністю чоловічого тимчасового уряду без представництва жінок та етнічних меншин у Кабулі, Афганістан, у середу, 8 вересня 2021 року. (MARCUS YAM / LOS ANGELES TIMES)
Бойовики ІДІЛ воюють з членами Талібану в Афганістані (Фото: Getty)

Пан Шмідт, який обіймав керівні посади в Google з 2001 по 2017 рік, заявив, що цю технологію можна використовувати для створення біологічної зброї.

Більше трендів

«Мене завжди турбує сценарій «Усами бен Ладена», де якась справді зла людина захоплює певний аспект нашого сучасного життя та використовує його, щоб завдати шкоди невинним людям», – сказав він.

Оскільки приватні компанії є лідерами в розробці штучного інтелекту, пан Шмідт закликав до ретельного моніторингу та регулювання з боку урядів.

«Дуже важливо, щоб уряди розуміли, що ми робимо, і стежили за нами», – сказав він.

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *