През първите 24 часа от операция „Епична ярост“ американските военни удариха над 1000 цели в Иран с помощта на изкуствен интелект.
Като се има предвид честотата от 42 предложени цели на час, експертите се питат дали машините вече контролират бойното поле, защото човешкият мозък не може да се справи.
Те повдигат въпроса дали изкуственият интелект може да е идентифицирал погрешно началното училище в Минаб в първия ден от войната, тъй като все повече доказателства сочат, че САЩ са атакували учебното заведение с крилата ракета „Томахоук“, убивайки 110 деца и десетки други.
Системите с изкуствен интелект могат да обработват огромни количества данни от няколко източника, включително сателитни изображения, данни от самолети за разузнаване и човешки източници, за да избират или отхвърлят цели.
Исторически сателитни снимки показват, че началното училище „Шаджаре Тайебех“ някога е било част от комплекс на Корпуса на гвардейците на ислямската революция, дом на военноморска казарма и спомагателни сгради. Въпреки това, поне през последните девет години то е било отделено от комплекса. Цветни стенописи по стените и малко игрище се виждат на някои сателитни снимки.
Повдигнати са въпроси дали система с изкуствен интелект разчита на старите изображения за целите на атаката.
„Ако бомбардировката в училището е била грешка, човешка грешка ли е била или грешка на скоростта на автоматизация на системата? Дали атаката е била базирана на стари данни? Броят на ударите, които виждаме, дава известна достоверност на идеята, че целите се създават до голяма степен автономно“, обяснява Ноа Силвия, изследователски анализатор в Кралския институт за обединени служби, пред The Times.
Д-р Крейг Джоунс, старши преподавател по политическа география в университета в Нюкасъл, добавя:
„В този момент не можем да изключим, че изкуственият интелект може да не е успял да идентифицира училището като училище и вместо това да го е идентифицирал като военна цел.“
Той казва, че ключовият въпрос е степента, до която изкуственият интелект е бил използван при събирането и анализа на разузнавателни данни, за да представи училището като военна цел, посочвайки, че всяко човешко решение за удар се основава на данни и анализи, за чието изграждане е помогнал изкуственият интелект.
„Каквото и да се случи – и фактите ще останат замъглени за известно време – ударът беше катастрофален провал на разузнаването, независимо дали е бил предизвикан от изкуствен интелект или от човек с някакъв компонент на изкуствен интелект“, допълва той.
На въпрос на The Times дали системите за изкуствен интелект са предоставили остаряла информация за училището, Пентагонът заяви, че разследването е в ход. Президентът Тръмп предположи, без доказателства, че Иран или „някой друг“ може да е извършил удара, но анализът на мястото показва, че са използвани американски оръжия.
САЩ и Израел разполагат с множество системи с изкуствен интелект във войната срещу Иран
Пентагонът разработва Project Maven с помощта на подкрепяната от ЦРУ компания за извличане на данни Palantir от 2018 г. насам, а софтуерът е вграден във всички бойни командвания на САЩ.
В иранската война САЩ използват изкуствен интелект и машинно обучение, за да помогнат с военното насочване и наблюдение. Експертите го оприличават на военна версия на Uber.
В интелигентната система Maven е вграден чатботът Claude на Anthropic. Той е използван в операция „Епичен гняв“ за разузнавателен анализ. На теория той би могъл да събере данни с отворен код за това какво се случва в иранското правителство. Но има строги правила за употреба и не може да се използва за атака. Anthropic вярва, че хората трябва да бъдат отговорни за идентифицирането на потенциални цели и вземането на решения за удари. Администрацията на Тръмп вече е добавила компанията в черен списък, шокирайки много служители във Вашингтон.
Въпреки че софтуерът на Palantir вече е бил използван във войната в Украйна, Силвия казва, че мащабът на операциите в Близкия изток е „много по-драматичен“.
По думите му източниците на данни ще бъдат различни и че САЩ и Израел използват различни системи от тези, използвани в Украйна – оръжия за удари с голям обсег, а не артилерия и дронове с видимост от първо лице.
„Това е коренно различно поради географския обхват на операциите и порядъка на величината“, казва Силвия. „Източна Украйна е малка в сравнение с Иран. Способността за нанасяне на удари върху голяма част от Иран изисква много повече данни и много повече мощни системи за обработка на данните.“
С това идват и рискове, отбелязва той, добавяйки, че търговските компании произвеждат по-усъвършенствани модели и обслужващият персонал, който ги управлява, трябва да е в крак с времето. Той изразява загриженост относно „бързото внедряване на технологии и липсата на техническа експертиза сред персонала“.
„Когато имате чувство за неотложност, хората могат да помогнат само до известна степен. С увеличаването на темпото на операциите във войната, все по-безпрецедентно мащабно, ще видим увеличение с течение на времето на нивото на автономност в някои от системите. Това повдига въпроса колко комфортно се чувстват хората по отношение на това?“
Елке Шварц, професор по политическа теория в Лондонския университет „Кралица Мери“, заяви, че системи, които предполагат хиляди цели на ден, създават „пристрастие към автоматизация“, което означава, че решението на машината става авторитет.
„Човекът има ограничени когнитивни способности, за да пренебрегне тази способност“, допълва тя.
Съществува и „пристрастие към действие“, казва тя, визирайки бързото решение на машината, създаващо неотложност за действие.
„Хората се нуждаят от време за обмисляне и това обмисляне е от решаващо значение за правната и етичната оценка.“
По думите й 42 предложени цели на час са „много и става трудно да се оцени валидността на всички тези цели, когато скоростта и мащабът са приоритет“.
Експертите в областта се опасяват какво може да донесе бъдещето на конфликта и предупреждават за „пълзене на мисията“. Шварц казва, че бъдещите системи с изкуствен интелект биха могли да идентифицират не само възможни цели със скорост и мащаб, но и „подозрително“ поведение или движения, които след това биха могли да доведат до превантивни удари.
„Трябва да приемем, че изкуственият интелект ще играе все по-голяма роля в решението за използване на сила и това е ужасяващо“, казва тя.
Dnes.bg









