Новости из мира высоких технологий

Южнокорейскому институту объявили бойкот за разработку вооружений на базе ИИ

Более 50 ведущих экспертов в области разработки искусственного интеллекта сообщили о намерении бойкотировать Корейский институт передовых технологий (KAIST) – престижный и ведущий учебно-исследовательский университет Южной Кореи — за создание лаборатории по разработке вооружений с использованием искусственного интеллекта. Об этом они сообщили в открытом письме.

Возмущение экспертов области ИИ вызывало также и подписанное KAIST соглашение с оружейной компанией Hanwha Systems, которая, как сообщают различные источники, уже занимается разработками мощных видов вооружения, в числе которых, помимо прочего, имеются кассетные авиабомбы, запрещенные в соответствии с Конвенцией ООН по кассетным боеприпасам (Южная Корея эту конвенцию не подписала).

«В то время как Организация Объединённых Наций ведет обсуждение вопроса о том, как сдержать угрозу для международной безопасности со стороны автономных видов вооружения, вызывает сожаление тот факт, что такой престижный университет, как KAIST, ищет способы ускорить гонку вооружений через новые разработки подобных типов вооружения», — пишут эксперты ИИ в своем открытом письме.

«Поэтому мы публично заявляем, что будем бойкотировать все виды сотрудничества с любыми подразделениями KAIST до тех пор, пока президент KAIST не предоставит заверения в том, что центр не будет заниматься разработками автономных видов вооружения, чье функционирование возможно без значительного участия человека».

KAIST имеет в своем распоряжении одни из лучших в мире робототехнические и научные лаборатории: здесь проводятся исследования и разработки самых различных продвинутых технологий, начиная от жидких батарей и заканчивая медицинским оборудованием.

Глава KAIST Син Сон Чоль сказал, что он опечален решением о бойкоте, добавив, что институт не собирается создавать роботов-убийц.

«Как академическое учреждение, мы очень ценим человеческие права и этические стандарты. KAIST не собирается проводить исследовательскую деятельность, противоречащую принципам человеческого достоинства, в том числе и вести разработку автономного вооружения, не требующего человеческого контроля», — прокомментировал Син Сон Чоль в своем официальном заявлении по поводу бойкота.

Учитывая столь быстрые темпы развития аппаратных и программных средств, многие эксперты обеспокоены тем, что рано или поздно мы создадим нечто, что будем не в состоянии контролировать. Илон Маск, Стив Возняк, почивший недавно Стивен Хокинг и многие другие весьма видные фигуры в сфере IT-технологий в свое время призывали правительства стран и ООН наложить ограничения на разработки систем вооружения, управляемых ИИ.

По мнению многих, если мы придем к ракетам и бомбам, чье функционирование станет возможно независимо от человеческого контроля, то последствия этого могут оказаться ужасающими, особенно если такие технологии попадут не в те руки.

«Создание автономного вооружения приведет к третьей революции в военном деле. Подобные технологии позволят вести более стремительные, разрушительные и масштабные военные конфликты», — отмечают авторы открытого письма.

«Эти технологии имеют потенциал превращения в оружие террора. Диктаторы и террористы смогут использовать их против невинных групп населения, игнорируя любые этические аспекты. Это настоящий ящик Пандоры, закрыть который, в случае его открытия, будет практически невозможно».

Члены ООН собираются провести на следующей неделе встречу, на которой планируется обсудить вопросы, связанные с запретом летального автономного вооружения, способного убивать без участия человека. К слову, это будет уже далеко не первая подобная встреча, однако участники обсуждения пока так и не пришли к какому-либо соглашению. Одна из проблем, стоящая на пути принятия каких-то конкретных решений, заключается в том, что некоторые страны как раз совсем не против ведения разработок подобных технологий, поскольку те смогут повысить их военный потенциал. Камнем преткновения становятся и частные компании, которые активно противятся контролю со стороны правительств за разработками их собственных моделей систем искусственного интеллекта.

Казалось бы, многие согласны с тем, что роботы-убийцы – это плохо. Однако принять каких-то конкретных решений в отношении того, что же делать с их разработкой, пока не получается. Вполне возможно, что разработка новых систем вооружения, которой планирует заняться KAIST, заставит больше сторон принять участие в необходимом обсуждении проблемы.

Многие ученые призывают к созданию рекомендательных инструкций, регулирующих вопросы разработки и развертывания ИИ-систем. Тем не менее высока вероятность, что даже при наличии оных будет весьма сложно следить за тем, чтобы каждая сторона их придерживалась.

«Мы зациклены на гонке вооружений, которой никому не хочется. Действия KAIST только ускорят эту гонку вооружений. Мы не можем терпеть это. Я надеюсь, что этот бойкот повысит актуальность в необходимости обсуждения данного вопроса в ООН в понедельник», — прокомментировал профессор по искусственному интеллекту австралийского Университета Нового Южного Уэльса Тоби Уолш, также подписавший письмо.

«Это ясное обращение к сообществу, занимающемуся развитием технологий искусственного интеллекта и робототехники — не поддерживать разработки автономных видов вооружения. Любые другие институты, планирующие открыть подобные лаборатории, должны подумать дважды».


Источник: Южнокорейскому институту объявили бойкот за разработку вооружений на базе ИИ
Автор:
Теги: роботы технологии вооружение искусственный интеллект робототехника Южная Корея Бойкот Разработка безопасность

Комментарии (0)

Сортировка: Рейтинг | Дата
Пока комментариев к статье нет, но вы можете стать первым.
Написать комментарий:
Напишите ответ :
Как отказ от сахара в чае помог отменить рабство: Сахарный бойкот в Британии 18 века
Как отказ от сахара в чае помог отменить рабство: Сахарный бойкот в Британии 18 века
2
Человек познаёт мир 20:30 06 сен 2023
Немецкие научные библиотеки объявили бойкот всем журналам Elsevier
Немецкие научные библиотеки объявили бойкот всем журналам Elsevier
0
Общество и я 11:01 22 дек 2016
10 самых опасных вооружений США
10 самых опасных вооружений США
0
Интересный мир 10:20 13 окт 2016
Русские красавицы с выставки вооружений проснулись знаменитыми :)
Русские красавицы с выставки вооружений проснулись знаменитыми :)
0
Интересный мир 21:05 13 сен 2016
10 самых опасных вооружений США
10 самых опасных вооружений США
0
Интересный мир 23:20 12 окт 2016
Все фанатские объединения ФК «Спартак» объявили бойкот из-за Fan ID
Все фанатские объединения ФК «Спартак» объявили бойкот из-за Fan ID
0
Страничка добра и сплошного жизненного позитива! 10:36 24 янв 2022
Apple запустит платежную систему в России на базе iPhone
Apple запустит платежную систему в России на базе iPhone
0
Розничная торговля 10:51 07 апр 2016
Россия лишена права провести этап Кубка мира по биатлону и Чемпионата мира среди юниоров
Россия лишена права провести этап Кубка мира по биатлону и Чемпионата мира среди юниоров
0
Интересный мир 11:55 24 дек 2016
Сбербанк и ГК АТОЛ объявили о создании компании «Эвотор»
Сбербанк и ГК АТОЛ объявили о создании компании «Эвотор»
0
Розничная торговля 16:41 10 июн 2016
Полный игнор: дочь Хилькевич объявила ей бойкот из-за отъезда из России
Полный игнор: дочь Хилькевич объявила ей бойкот из-за отъезда из России
0
Страничка добра и сплошного жизненного позитива! 22:15 03 окт 2022
100% ведьма
100% ведьма
21
Страничка добра и сплошного жизненного позитива! 02:08 18 ноя 2020
Ламповый усилитель для наушников на базе Raspberry Pi
Ламповый усилитель для наушников на базе Raspberry Pi
0
Новости высоких технологий 13:30 10 май 2016

Выберете причину обращения:

Выберите действие

Укажите ваш емейл:

Укажите емейл

Такого емейла у нас нет.

Проверьте ваш емейл:

Укажите емейл

Почему-то мы не можем найти ваши данные. Напишите, пожалуйста, в специальный раздел обратной связи: Не смогли найти емейл. Наш менеджер разберется в сложившейся ситуации.

Ваши данные удалены

Просим прощения за доставленные неудобства