Вчені закликали заборонити використання штучного інтелекту у військових цілях
Автономна зброя може сама по собі стати причиною виникнення воєн.
Стівен Хокінг, Елон Маск, Стів Возняк, Ноам Хомські та провідні дослідники штучного інтелекту відкрито написали лист до ООН, в якому висловлюють свої побоювання з приводу "гонки щодо створення військового штучного інтелекту" і тих наслідків, які вона може принести для всього людства. Також вони підкреслили необхідність розгляду "питання заборони розробки автоматизованого озброєння".
Вчені побоюються, що зброя, яка здатна автоматично обирати і атакувати цілі без людського втручання", може стати "автоматом Калашникова завтрашнього дня" і стати джерелом нових воєн, тероризму та глобальної нестабільності.
"Технологія штучного інтелекту досягла точки, після якої можливість розгортання і застосування подібних систем стає питанням вже не десятиліть, а всього кількох років", - йдеться в листі.
"Поява автономного зброї на чорному ринку, в руках терористів і диктаторів, охочих підкорити собі волю народів, божевільних катів, які будуть виступати за етнічні чистки, — все це в такому разі стане лише питанням часу. Автономне озброєння може ідеально підходити для проведення вбивств з політичних мотивів, використовуватися в операціях по дестабілізації країн, підпорядкування населення і вибіркового знищення конкретних етнічних груп", - вважають дослідники.
За їх словами, незважаючи на думку про те, що технологія автономного зброї може знизити людські втрати при веденні бойових дій, така думка є помилковим, так як дана технологія сама по собі може стати причиною нових воєн, пише Dt.ua
"На відміну від атомної зброї, автономне озброєння не потребує використання дорогої сировини і надтонкої ручної збірки, отже, така зброя стане масовим для будь-якої великої військової держави світу", - пишуть вчені.