صدای پای سلاحهای کشنده هوش مصنوعی به گوش میرسد
[ad_1]
Автоматизираните оръжия, управлявани от изкуствен интелект, вече се използват и изследователи, правни експерти и етици се борят с предизвикателството какво трябва и какво не трябва да се допуска на бойното поле
Според ISNA, Развитието на смъртоносни автономни оръжия (LAW), включително дронове, оборудвани с изкуствен интелект, нараства. Например, Министерството на отбраната на САЩ вече е отделило 1 милиард долара за своята програма Replicator, която има за цел изграждането на флот от малки автономни превозни средства и оръжия. Построени са подводници, танкове и експериментални кораби, които използват изкуствен интелект за пилотиране и стрелба. Съществуващите комерсиални дронове могат да използват AI разпознаване на изображения, за да ги насочат и взривят. Смъртоносните автономни оръжия не изискват изкуствен интелект, за да работят, но тази технология добавя скорост, специфичност и избягване. Някои наблюдатели се страхуват от бъдеще, в което рояци евтини AI дронове се изпращат от всяка фракция, за да унищожат конкретен индивид, използвайки технология за лицево разпознаване.
Според Nature във войната между Русия и Украйна видеоклипове показват, че дронове са проникнали на руска територия на повече от 1000 километра от границата и са унищожили нефтена и газова инфраструктура. Според експерти изкуственият интелект (AI) може да е помогнал за насочването на дронове към техните цели. За да използвате такива оръжия, не е необходимо никой да държи спусъка или да вземе окончателното решение за детониране.
Warfare е сравнително проста програма за изкуствен интелект. Стюарт Ръсел, компютърен учен в Калифорнийския университет в Бъркли и водещ борец срещу оръжията с изкуствен интелект, казва, че техническите възможности на една система да намери и убие човек е много по-лесна от разработването на самоуправляваща се кола.
Появата на изкуствения интелект на бойното поле предизвика дебати сред изследователи, правни експерти и етици. Някои твърдят, че задвижваните с изкуствен интелект оръжия могат да бъдат по-точни от ръководените от хора оръжия, като потенциално намаляват съпътстващите щети като цивилни жертви и щети в жилищни райони и намаляват броя на убитите и осакатените войници, докато уязвимите държави и групи трябва да допринасят за отбраната . Други подчертават, че автономните оръжия могат да направят катастрофални грешки и много наблюдатели имат всеобхватни етични опасения относно предаването на решенията за насочване към алгоритъм.
От години изследователите се борят да контролират тази нова заплаха. Сега Обединените нации предприеха решителна стъпка. Резолюция от декември миналата година добави въпроса за смъртоносните автономни оръжия към дневния ред на Общото събрание на ООН този септември. А Антониу Гутериш, генералният секретар на ООН, каза през юли миналата година, че иска забрана на безпилотните оръжия до 2026 г. Бони Дохърти, адвокат по правата на човека в Юридическия факултет на Харвард в Кеймбридж, Масачузетс, казва, че въпросът е на видно място в дневния ред на ООН от десетилетие или повече. Той казва: Дипломацията се движи бавно, но е важна стъпка.
Експертите казват, че този ход предлага първия реалистичен път за правителствата да работят върху оръжия с изкуствен интелект. Но това е по-лесно да се каже, отколкото да се направи. Тези оръжия повдигат трудни въпроси относно човешката дейност, отговорността и степента, до която властите трябва да могат да делегират решения за живот и смърт на машини.
да се постави под контрол
Усилията за контрол и регулиране на използването на оръжия датират от стотици години. Например средновековните рицари се съгласили да не насочват копията си към конете на другия. През 1675 г. Франция и Римската империя се споразумяват да забранят използването на отровни куршуми.
Днес основните международни ограничения върху оръжията са чрез Конвенцията на ООН за определени конвенционални оръжия (CCW), договор от 1983 г., който е използван например за забрана на заслепяващите лазерни оръжия.
Автономните оръжия съществуват от поне десетилетия, включително ракети с топлинно насочване и дори действащи под налягане противопехотни мини, датиращи от Американската гражданска война. Разработването и използването на алгоритми за изкуствен интелект обаче сега разширява възможностите на подобни оръжия.
Конвенцията на ООН за някои конвенционални оръжия официално обмисля подобрени с ИИ оръжия от 2013 г., но тъй като изисква международен консенсус за приемане на разпоредби и тъй като много страни, които активно използват технологията, са против всяка забрана, напредъкът на този процес е бавен.
Част от проблема е липсата на консенсус относно това какво всъщност представляват смъртоносните автономни оръжия.
Анализ от 2022 г. откри най-малко дузина дефиниции на автономни оръжейни системи, предлагани от държави и организации като Организацията на Северноатлантическия пакт (НАТО). Тези дефиниции обхващат цялата гама, казва Ръсел, и показват степента на съгласие или дори ограничено разбиране на ИИ.
Например, Великобритания казва, че смъртоносните автономни оръжия са “способни на по-високо ниво на възприемане на цел и посока”, докато Китай казва, че такова оръжие може “да се учи автономно, разширявайки своите функции и възможности отвъд човешките очаквания”. Германия вижда “самосъзнанието” като необходима характеристика на автономните оръжия, което според повечето изследователи е далеч от това, което идва от изкуствения интелект днес.
Този вид самосъзнание означава, че оръжието трябва да се събуди сутринта и да реши да атакува Русия самостоятелно, казва Ръсел.
Въпреки че остава да се види по-всеобхватна, конкретна и реалистична дефиниция на смъртоносни автономни оръжия, някои експерти казват, че може да почака. Работната дефиниция обикновено е достатъчна, за да започне процеса, казва Дохърти, и може да помогне за намаляване на първоначалните възражения от страни, които се противопоставят на действията.
Предимството на изкуствения интелект
Според анализ, публикуван през 2023 г. от Центъра за военни изследвания към Университета на Южна Дания, управляваните от AI автономни оръжия, достъпни за военните командири днес, са сравнително груби. И те включват бавно движещи се, тромави дронове, оборудвани с достатъчно експлозиви, за да взривят себе си и своите цели.
Тези „бездомни боеприпаси“ могат да бъдат с размерите на модел на самолет, да струват около 50 000 долара и да носят няколко килограма експлозиви на разстояние до 50 километра, достатъчни да унищожат превозно средство или да убият войници.
Тези боеприпаси използват бордови сензори, които следят оптични, инфрачервени или радиочестоти, за да идентифицират потенциални цели. AI сравнява тези сензорни входове с предварително дефинирани профили на танкове, бронирани превозни средства и радарни системи, както и хора.
Наблюдателите казват, че най-важното предимство на тези автономни бомби пред дистанционно управляваните дронове е, че те все още ще работят, ако другата страна има оборудване за заглушаване на електронни комуникации.
Въпреки че имаше слухове за бойци в Либия, убити от автономни боеприпаси през 2020 г., докладите от конфликта в Украйна затвърдиха идеята, че сега се използват AI дронове.
Трудно е да се знае колко добре AI оръжията ще се представят на бойното поле, до голяма степен защото военните не публикуват такива данни. Томас Копингър-Саймс, заместник-командир на Британското стратегическо командване, отказа да коментира, когато беше попитан директно за оръжейните системи с изкуствен интелект миналата година, като каза само, че армията на страната провежда проучвания.
Въпреки че данните от бойното поле в реалния свят са оскъдни, изследователите отбелязват, че AI има превъзходни умения за обработка и вземане на решения, които на теория осигуряват значително предимство. Например, в годишните тестове за бързо разпознаване на изображения, алгоритмите превъзхождат човешките експерти в продължение на почти десетилетие. Например, проучване от миналата година показа, че изкуственият интелект може да намери дублирани изображения в научни статии по-бързо и по-изчерпателно от човешки експерт.
През 2020 г. модел с изкуствен интелект победи опитен пилот на изтребител F-16 в поредица от симулирани битки благодарение на „агресивни и прецизни маневри, които човешки пилот не би могъл да управлява“. След това, през 2022 г., китайски военни изследователи казаха, че дрон, задвижван от AI, е надхитрил самолет, управляван дистанционно от човешки оператор на земята. Самолетът с изкуствен интелект беше в състояние да свали противника си.
Зак Каленборн, анализатор по сигурността в Центъра за стратегически и международни изследвания във Вашингтон, окръг Колумбия, казва: „Изкуственият интелект на дрона може да вземе много сложни решения за това как да изпълни определени маневри, как да се приближи до противника и ъгъла на атака. “
Каленборн казва, че все още не е ясно какво значително стратегическо предимство предоставят оръжията с изкуствен интелект, особено ако и двете страни имат достъп до тях. Той добави: “Голяма част от проблема не е самата технология, а как военните използват тази технология.”
Изкуственият интелект може да се използва и в други аспекти на войната, включително съставянето на списъци с потенциални цели.
Линия в пясъка
Един от ключовите критерии, често използван за оценка на морала на автономните оръжия, е колко надеждни са те и доколко нещата могат да се объркат.
Каленборн казва, че оръжията с изкуствен интелект могат лесно да се заключат върху мощни инфрачервени или радарни сигнали и да ги сравнят с набор от данни. Това означава, че когато AI оръжие открие източника на входящ радарен сигнал на бойното поле, то може да стреля с малък риск от нараняване на цивилни.
Но визуалното разпознаване на изображения е по-проблематично, казва той. Там, където основно има само един сензор като камера, мисля, че сте много по-податливи на грешки. Въпреки че AI е добър в идентифицирането на изображения, той не е безпогрешен. Той казва, че изследванията са показали, че малки промени в изображенията могат да променят начина, по който невронните мрежи ги категоризират, причинявайки например самолет да бъде сбъркан с куче.
Друга разделителна линия за етиците е как се използва оръжието: за нападение или за защита.
Понастоящем за защита на кораби в морето се използват комплексни автономни системи с радарно насочване. Луси Сучман, социолог от университета Ланкастър в Обединеното кралство, който изучава взаимодействията човек-машина, казва, че етиците се чувстват по-удобно с тези видове автономни оръжия, защото те са насочени към боеприпаси, а не към хора и сигналите са по-трудни за откриване. Той погрешно ги приписва на нещо друго .
Един от общите принципи, предложен от изследователите и военните, е хората да бъдат в примката на автономните оръжия. Но къде и как хората трябва да се включат все още е предмет на дебат. Много хора, включително Sachman, обикновено тълкуват тази идея в смисъл, че човешките агенти трябва визуално да инспектират целите, преди да разрешат атаки и трябва да могат да атакуват, ако условията на бойното поле се променят, като цивилни, влизащи в зоната на бойните действия
Някои системи позволяват на потребителите да превключват между напълно автономни и управлявани от човека режими в зависимост от ситуацията. Сучман и други казват, че това не е достатъчно. Принуждаването на човек да деактивира автономна функция не осигурява смислен контрол, казва той. Ръсел предлага стрелбата да се активира от дистанционен оператор и никога от изкуствен интелект.
Има поне една точка в дискусията за смъртоносните автономни оръжия, по която почти всички, дори страните, които обикновено се противопоставят на контрола, изглежда са съгласни, и това е решението да се пуснат ядрени оръжия.
Контролиране на системата
За съжаление, всяка забрана за използване на автономни оръжия ще бъде трудно да се наложи чрез инспекции и наблюдения, казва Каленборн.
Например, в случай на ядрени оръжия, има система за инспектиране на обекти и одит на ядрени материали. Но с AI е по-лесно да скриете или промените нещата в движение.
Всички тези въпроси ще влязат в дебатите на ООН, които ще започнат на Общото събрание през септември. Австрия също организира водеща конференция в края на април, за да подпомогне започването на тези преговори. Ако достатъчно държави гласуват да предприемат действия през септември, ООН вероятно ще създаде работна група, която да определи проблемите.
Дохърти, който изигра ключова роля в преговорите за договора за ядрена забрана на ООН през 2017 г., добавя, че договор може да бъде представен в рамките на три години. Според моя опит, след като преговорите започнат, процесът протича сравнително бързо.
край на съобщението
[ad_2]