Можно ли использовать ИИ в военных целях и для обороны?

0

Популярность искусственного интеллекта, как инструмента для автоматизации различных процессов постоянно растет. Роль ИИ, как помощника за последних несколько лет стала настолько заметной, что ученые стали вновь рассуждать о целесообразности применения искусственного разума в военных целях. Может ли предсказание кинематографистов о будущем, в котором ИИ погубит человечество стать реальностью? Мы спросили об этом экспертов.

Алексей Хохлатов, писатель-футуролог, atma.ru

Конечно же, искусственный интеллект (ИИ) можно использовать в военных целях. Сейчас война уже не та, что была – это битва технологий, далеко не всегда заметная невооружённому глазу. Гражданский сотрудник может заниматься, казалось бы, текущими задачами программирования, сидя за рабочим местом какой-нибудь крупной корпорации или госпредприятия, и не подозревать, что у его разработок есть иное применение, за которым внимательно наблюдают спецслужбы.

Управление пусками ракет, отслеживание поведения летающих объектов, в том числе и в стратосфере, перехват и раскодировка сигналов противника, создание иллюзорных целей, создание помех в аналогичной деятельности противника – далеко не полный перечень задач искусственного интеллекта. ИИ – это сложнейшие аналитические алгоритмы, способные анализировать поведение внешних систем, вычисляя вероятности и на их основе выстраивая поведение вверенных технических средств и систем.

А также выдает рекомендации человеческому интеллекту. Это, так называемые, полуавтоматические системы. Сейчас ИИ и его элементы уже широко применяются в армиях мира. Прежде всего, в трёх ведущих военных державах: США, Китае и России. Это, например, использование роботов в целях разведки, минирования и разминирования территории, огневой атаки. Также с начала 2000-х ведутся разработки военных нанороботов, способных, словно саранча или вирусы, проникать на территорию противника и блокировать работоспособность его военных и гражданских систем.

Применение ИИ стоит ограничивать во всех областях, не только военной. Человек обязан вводить множественные функции контроля и перепроверки искусственных систем, чтобы их развитие и саморазвитие не вышло из-под контроля.

Сейчас учёные бьются над воссозданием человеческого мозга, что стало возможным благодаря исследованиям последнего десятилетия, и прежде всего это самообучение ИИ по принципам работы нейронных систем мозга. Классической поворотной точкой в развитии ИИ считается момент, когда робот сможет клонировать самого себя, используя при этом подручный материал, такой как земля, например. Программные алгоритмы обязаны в этом плане содержать ограничения, которые не позволят роботам неограниченно размножаться.

Сейчас идут большие споры насчёт того, что разработки ИИ разных стран могут быть объединены в единую систему вместо того, чтобы определять друг друга как враждебные. Сторонники объединения утверждают, что таким образом удастся достичь хорошей синергии учёных в разработках, и создать единое кибернетическое пространство, управлять которым гораздо легче, чем десятком различных сложнейших систем.

А другие считают, что в случае сбоя роботизированные системы уничтожат друг друга, ибо они запрограммированы на войну, и в этом случае у человечества есть шанс выжить. По всем вышеуказанным причинам многие учёные, политики и бизнесмены призывают научные круги всех стран вести разработки с учётом имплементированных в программные коды ограничений всемогущества ИИ.

Дмитрий Жигалов, генеральный директор Аргументум

Невозможно использовать то, чего на самом деле нет. Искусственный интеллект, который сегодня предлагается на рынке, интеллектом не является. Концепция перцептрона, реализуемая на базе нейросетей и байесовских сетей, по своей функциональности и сути является искусственным глазом, ухом, носом, но не мозгом. Поэтому такой искусственный интеллект (десятилетия тому назад называемый слабым, а сегодня модно именуемый быстрым) имеет серьёзные ограничения по возможному применению.

Интеллектуальный армагеддон пока отменяется. Максимум, на что способны современные системы, это автономные действия на тактическом уровне — так что война между современными ИскИнами это что-то вроде ковбойской перестрелки один на один или группа на группу. Мыслить глобальнее нынешние системы не способны. Впрочем, они вообще не думают — в них эта функция не заложена. Чтобы понять базовый алгоритм работы современных ИскИнов, достаточно познакомиться с экспериментом «китайская комната».

Оборонные проекты современных систем ИскИн правильнее называть «автопилоты» и тогда становится ясно, где они применяются и на что способны. В гражданской сфере совсем недавно автопилот самолётов Боинг показал свою элементарную неспособность адекватно отрефлексировать ситуацию в условиях поломки датчика, что привело к нескольким катастрофам.

Какова реальная практика по оборонным проектам в этой сфере: только в июне 2018 года Пентагон создал Объединённый центр искусственного интеллекта (JAIC) и его офицеры обсуждают не какие-то глобальные идеи, а банальную системную интеграцию и обмен данными. А название центра это скорее пиар ход, потому что «данные это не сексуально» (Марк Билл, начальник отдела стратегического взаимодействия и политики JAIC).

Никаких разработок в сфере искусственного интеллекта Пентагон не ведёт и ждёт предложений от гражданской промышленности. Капитан Майкл Канаан, сопредседатель службы по искусственному интеллекту: «одна из проблем, с которой могут столкнуться подрядчики — это более дорогие продукты, ориентированные на государственные программы, ориентированные на безопасность, по сравнению с теми же, менее дорогими коммерческими программами. Новое отношение к коммерческим готовым технологиям в рамках сервиса может помочь». «Примите коммерческие стандарты, потому что несекретный не означает незащищенный».

Практическая задача, которую сегодня решает JAIC — это прогнозирующее обслуживание, которая является скорее эксплуатационной задачей, чем управленческой. Майор Даниэль Тадросс (JAIC): «мы начали изучать экосистему обслуживания авиации Министерства обороны, которая просто огромна и слишком сложна для любого искусственного интеллекта».

Что касается спора Илона Маска и Марка Цукерберга по поводу ИскИна, то это всё выглядит чересчур театрально и очень похоже на методику манипуляции общественным сознанием со стороны американской элиты.

 

 

Digital Report
Share.

About Author

Digital-Report.ru — информационно-аналитический портал, который отслеживает изменения цифровой экономики. Мы описываем все технологические тренды, делаем обзоры устройств и технологических событий, которые влияют на жизнь людей.

Comments are closed.