Бойни роботи: забранено не може да бъде позволено

Съдържание:

Бойни роботи: забранено не може да бъде позволено
Бойни роботи: забранено не може да бъде позволено

Видео: Бойни роботи: забранено не може да бъде позволено

Видео: Бойни роботи: забранено не може да бъде позволено
Видео: Моя работа наблюдать за лесом и здесь происходит что-то странное 2024, Април
Anonim

Експертите се срещнаха в Женева, но споразумение не можа да бъде постигнато: САЩ и Русия блокираха всяка работа. Може би това е единственият път, когато хегемоните работят толкова хармонично.

Бойни роботи: забранено не може да бъде позволено
Бойни роботи: забранено не може да бъде позволено

В Женева завършиха срещи на експерти във формата на Конвенцията за нечовешкото оръжие, за да се реши съдбата на така наречените бойни роботи - автономни оръжия, които използват изкуствен интелект за поражение на цели. Споразумения обаче не можаха да бъдат постигнати. САЩ, Русия, Южна Корея, Израел и Австралия бяха сред малцинствените държави, които успяха да блокират настроението към пълна забрана на роботите-убийци.

Така че, въпреки че в света все още няма работещо автономно оръжие, технологията остава, така да се каже, хуманна - тя може да бъде разработена и изследвана. Интересното е, че САЩ и Русия, според Стокхолмския институт за изследване на мира (SIPRI), оглавяват списъка на най-големите износители на оръжие. Южна Корея, Израел и Австралия също не изостават в тази класация - те са сред първите 20 играчи на пазара.

И въпреки че Китай (петият износител на оръжия в света, постоянен член на Съвета за сигурност на ООН, се застъпва за забрана на бойни роботи, той не успя да оправи везните в негова посока по време на срещите. Днес 26 държави открито подкрепят забрана за използване на изкуствен интелект по време на война. Други се отклоняват от ясна позиция) Франция и Германия (третият и четвъртият износител на оръжие) предлагат да подпишат документ, който да затвърди примата на човека над изкуствения интелект, но те са по-вероятни на страната на тези, които искат да разработят автономни бойни машини.

„Със сигурност е разочароващо, че малка група военни гиганти могат да сдържат волята на мнозинството“, коментира Мери Верхем, координатор на кампанията за спиране на роботите-убийци, резултатите от срещите в Женева.

Всъщност ситуацията изглежда като заговор на въоръжени монополни магнати, като се има предвид, че САЩ и Русия обикновено не могат да постигнат поне някакъв компромис по важни въпроси. Да вземем сирийската: Вашингтон и Москва взаимно си блокираха резолюциите, след като използваха химическо оръжие в Сирия тази пролет. Асфиксиращите газове и други токсични вещества за военни цели, между другото, преди това бяха забранени от Конвенцията за нечовешкото оръжие.

Следващата среща за съдбата на роботите-убийци ще се състои в Женева през ноември.

Защо искат да забранят автономните оръжия

Привържениците на забраната за роботите на войната настояват, че бойното поле не е място за изкуствен интелект. Според тях подобни технологии представляват огромна заплаха. Поне днес не е ясно как машината ще прави разлика между бойци (онези, които са пряко замесени в бойни действия) от некомбатантите (служители на армейската служба, които могат да използват само оръжия за самоотбрана) и цивилните като цяло. Съществува вероятност работата да убие ранените и тези, които се предават, което е забранено от настоящите правила за воюване.

Какво пречи на работата да прекъсне всички страни в конфликта, дори собствениците на такива оръжия? Елементите на изкуствения интелект вече успешно се използват във военна техника, ракети; роботите са привлечени за разузнаване, но последната дума все още зависи от хората. Автономните оръжия няма да се подчиняват на заповедите на командирите - затова те са автономни. Ето защо военните генерали от различни страни са скептични по отношение на въвеждането на машини в редиците на личния състав.

И още един отворен въпрос е международният тероризъм. Технологията за автономно оръжие може да попадне в грешните ръце и в крайна сметка може да бъде хакната. Преди година руският президент Владимир Путин заяви, че владетелят на света ще бъде този, който ще стане лидер в развитието на изкуствения интелект. В случай на автономни оръжия, този, който получи достъп до такива технологии, ще стане владетел на света. А за това всъщност ви трябват само компютър и измамник, който ще премине през системите за сигурност. Впрочем Пентагонът е хакван неведнъж. Следователно никой не може да даде гаранции, че автономните оръжия ще останат неприкосновени.

Също така не е ясно кой ще носи юридическа отговорност, ако военно престъпление е извършено в резултат на функционирането на автономната оръжейна система. „Инженерът, програмистът, производителят или командирът, които са използвали оръжието? Ако отговорността не може да бъде определена съгласно изискванията на международното хуманитарно право, може ли внедряването на такива системи да бъде признато за правно или етично обосновано? “, Отбелязва Международният комитет на Червения кръст.

Интересното е, че учените също се застъпиха за забрана на бойните роботи. През юли тази година повече от две хиляди учени, по-специално създателят на Tesla и SpaceX Илон Мъск и съоснователите на DeepMind, подписаха документ, че няма да разработват летални автономни оръжия. Google направи същото. Техническият гигант се е отказал от работата по проекта Maven на Пентагона. А през 2017 г. редица учени вече призоваха ООН да забрани създаването на роботи-убийци.

Между другото, въпросът за изкуствения интелект по време на война се появи в дневния ред на ООН в края на 2013 г., но на практика нищо не се е променило оттогава. Едва тази година започнаха експертни срещи във формата на Конвенцията за нечовешкото оръжие. Тоест бяха необходими повече от четири години, за да се стигне до някаква повече или по-малко практична равнина.

Защо не искат да забранят автономните оръжия

Колкото и грубо да звучи, надпреварата във въоръжаването е основната причина, поради която те не искат да забранят роботите убийци. Путин е прав: който получи автономни оръжия първи, ще доминира в света. Официално тази причина се изразява.

Основният аргумент на противниците на забраната е невъзможността да се отдели гражданският изкуствен интелект от военния. Например няма да забраним кухненските ножове само защото терористите могат да ги използват. Всъщност е практически невъзможно да се отдели гражданското развитие на изкуствения интелект от военното. Но сега говорим за забраната на това оръжие, което ще може самостоятелно да определя и атакува цели. Това може да е проектът Maven, по който Министерството на отбраната на САЩ работи съвместно с Booz Allen Hamilton (Google отказа договора).

Разработчиците на Maven искат да научат дроновете да анализират изображения, по-специално от сателити и - потенциално - да идентифицират цели за атака. Пентагонът започна да работи по проекта още през април 2017 г. и се надяваше да получи първите работещи алгоритми до края на годината. Но чрез демарша на служителите на Google разработката се забави. Към юни тази година, според Gizmodo, системата може да прави разлика между елементарни обекти - автомобили, хора, но се оказва напълно незначителна в трудни ситуации. Ако забраната за автономни оръжия въпреки това бъде приета на ниво ООН, проектът ще трябва да бъде премахнат, докато Пентагонът твърди, че тяхното развитие може да спаси животи, тъй като може да бъде програмиран да работи по-точно и надеждно в сравнение с хората.

"Трябва да разберете, че говорим за технология, че тя няма образци, които да работят. Идеята за такива системи все още е много повърхностна", отбеляза в навечерието на срещата в Женева в руското външно министерство. - Според нас международното право, по-специално хуманитарният сектор, може да се прилага към автономни оръжия. Те не се нуждаят от модернизация или адаптиране към системи, които все още не съществуват."

Е, и още една истинска, но не озвучена причина са парите. Днес пазарът на технологии за военен изкуствен интелект се оценява на повече от шест милиарда долара. Но до 2025 г. цифрата ще се утрои - до почти 19 милиарда, според анализатори на американската компания MarketsandMarkets. За най-големите износители на оръжие това е добра мотивация за блокиране на всякакви ограничения върху разработването на роботи-убийци.

Напредъкът не може да бъде спрян

Привържениците на забраната за автономни оръжия отбелязват, че технологиите се развиват много бързо и изкуственият интелект в крайна сметка ще се превърне в оръжие - въпрос на време. В техните думи има логика. Изкуственият интелект е неразделна част от четвъртата научно-техническа революция, която продължава и сега. Трябва да се има предвид, че техническият прогрес по един или друг начин е свързан с военни операции. Третата научно-техническа революция продължи до средата на 50-те години на XX век, тоест нейният връх пада в периода на Втората световна война.

През 1949 г. Женева приема Конвенцията за защита на цивилните лица по време на война. В следвоенния период те допълват и IV Хагска конвенция от 1907 г., която определя правилата за водене на война. Тоест ужасите от Втората световна война станаха катализатор за този процес. Така че защитниците на човешките права не искат да чакат Третата световна война, за да защитят човечеството от автономни оръжия. Ето защо сега е необходимо да се реши съдбата на роботите-убийци, настояват те.

Според експерти на Human Rights Watch използването на бойни роботи противоречи на Декларацията на Мартенс - преамбюла на Хагската конвенция от 1899 г. за военните закони и обичаи. С други думи, роботите-убийци нарушават законите на човечеството и изискванията на общественото съзнание (позицията е потвърдена в IV Хагска конвенция).

„Трябва да работим заедно, за да наложим превантивна забрана на такива оръжейни системи, преди те да се разпространят по света“, каза Бони Дохърти, старши изследовател в отдела по оръжие в Хюман Райтс Уоч.

Е, този път не се получи забрана на роботите-убийци. Предвидимо срещите през ноември също ще бъдат безрезултатни. Вярно е, че почти всички страни са съгласни - технологията не може да бъде оставена да тече от гравитацията и бойните роботи се нуждаят от такъв стоп-кран. Но все още не е ясно дали човечеството ще има време да го изтегли, когато възникне нужда.

Препоръчано: