Фахівці зі штучного інтелекту закликали ООН заборонити виробництво бойових роботів

22.08.2017
Керівник компанії Tesla Ілон Маск, засновник компанії DeepMind Technologies Мустафа Сулейман та 114 інших провідних фахівців у сфері штучного інтелекту звернулися з відкритим листом до ООН.
 
Вони закликають заборонити розробку та використання летальної автономної зброї.
 
Документ підтримали експерти з понад 26 країн, повідомляє в неділю, 20 серпня, британська газета «Гардіан».
 
Автори листа вважають, що виробництво бойових роботів спричинить «третю збройну революцію». Вони порівнюють це з винаходами ядерної зброї й пороху.
 
До так званої автономної зброї належать, зокрема, безпілотники та автоматизовані кулемети, пише «Гардіан».
 
«Летальна автономна» технологія — це скринька Пандори, попереджають фахівці.
 
Підписанти застерігають від воєнних дій «небачених масштабів, які розвиватимуться зі швидкістю, яку людство не може усвідомити».
 
«Це може стати зброєю терору, зброєю диктаторів, яку використовуватимуть проти безневинного населення», зазначається в листі.
 
Підписанти закликали ООН заборонити автономну зброю нарівні з хімічною відповідно до конвенції ООН 1983 року. Нещодавно ООН вирішила розпочати формальні дискусії щодо автономної летальної зброї.
 
Фахівці надіслали листа ООН напередодні Міжнародної конференції ООН iз питань використання штучного інтелекту, яка мала розпочатися вчора в Мельбурні, але її відклали до листопада. Раніше в комітетах ООН обговорювали можливу заборону на технологію «роботів-убивць».
 
У 2015 році більше тисячі експертів, науковців та дослідників, зокрема Стівен Гокінг, Ілон Маск та співзасновник Apple Стів Возняк, уже публікували листа, в якому попереджали про небезпеку застосування автономної зброї.
 
Робот-убивця — це повністю автоматизовна зброя, яка може обирати й уражати цілі без втручання людини. Зараз такої технології не існує, але прогрес у розвитку технологій наближає її появу.
 
Наприклад, різновидом автономної зброї є бойовий безпілотник армії США Air Force MQ-1.
 
Прибічники роботів-убивць упевнені, що чинних законів, які регулюють воєннi дії, цілком достатньо, аби вирішити будь-які проблеми, пов’язані з застосуванням технології.
 
Однак противники технології стверджують, що вона становить загрозу людству, і всі автоматичні «функції вбивства» слід заборонити.