Новости из мира высоких технологий
<p itemscope itemtype="http://schema.org/ImageObject"> <p align="center"><img src="//s.mediasole.ru/cache/cont

Пять технологических экспертов поделились своими страхами и опасениями в отношении ИИ



Универсальный искусственный интеллект сможет сделать современный мир более привлекательным местом для жизни, заявляют исследователи. Он сможет лечить нас от рака, в целом улучшит здравоохранение по всему миру и освободит нас от ежедневных рутинных задач, на которые мы тратим большую частью своей жизни. Именно эти аспекты были главной темой для разговора среди инженеров, инвесторов, исследователей и политиков, собравшихся на недавней совместной мультиконференции по вопросам разработки искусственного интеллекта человеческого уровня.

Но были на этом мероприятии и те, кто видит в искусственном интеллекте не только пользу, но и потенциальную угрозу. Одни выражали свои опасения по поводу повышения безработицы, поскольку с приходом полноценного ИИ люди начнут терять свои рабочие места, освободив их для более гибких, не подверженных усталости роботов, наделенных сверхразумом; другие намекали о возможность восстания машин, если мы все пустим на самотек. Но где именно нам следует провести черту между беспочвенным паникерством и реальной заботой о нашем будущем?

Портал Futurism обратился с таким вопросом к пяти экспертам в области разработок искусственного интеллекта, и попытался выяснить, что именно в ИИ больше всего пугает его же создателей.

Кеннет Стенли, профессор Университета Центральной Флориды, старший технический директор и научный сотрудник лаборатории искусственного интеллекта компании Uber:

«Я думаю, что наиболее очевидные опасения связаны с тем, что ИИ будет использован во вред человеку. И на самом деле есть множество сфер, где такое может произойти. Мы должны приложить все усилия для того, чтобы эта плохая сторона в итоге не вышла наружу. Весьма сложно найти правильное решение в вопросе о том, как сохранить ответственность принятых действий за ИИ. Этот вопрос многогранен и требует рассмотрения не только с научной позиции. Другими словами, в поиске его решения потребуется участие всего общества, а не только научной среды».

О том, как разработать безопасный ИИ:

«Любая технология может быть использована как во благо, так и во вред. Искусственный интеллект в этом отношении является очередным примером. Люди всегда боролись с тем, чтобы новые технологии не попали в плохие руки и не использовались в гнусных целях. Я считаю, что и в вопросе ИИ мы сможем справится с этой задачей. Необходима правильная расстановка акцентов и поиск баланса в использовании этой технологии. Это сможет предостеречь нас от очень многих потенциальных проблем. Более конкретные решения, я, наверно, предложить не смогу. Единственное, что хотелось бы сказать: мы должны понять и принять ответственность за то воздействие, которое ИИ может оказать на все общество».

Ираклий Беридзе, глава Центра искусственного интеллекта и робототехники при Межрегиональном научно-исследовательском институте ООН по вопросам преступности и правосудия (ЮНИКРИ):

«Я думаю, что самая опасная вещь вокруг ИИ связана с темпами разработки – с тем, как быстро он будет создан и как быстро мы сможем к нему адаптироваться. Если этот баланс будет нарушен, мы можем столкнуться с проблемами».

О терроризме, преступности и других источниках риска:

«С моей точки зрения, основная опасность может заключаться в том, что ИИ смогут воспользоваться криминальные структуры и большие террористические организации, направленные на дестабилизацию мирового порядка. Кибертерроризм и дроны, оснащенные ракетами и бомбами – это уже реальность. В будущем сюда могут добавиться роботы, оснащенные системами ИИ. Это может стать серьезной проблемой.

Другой большой риск массового внедрения ИИ может быть связан с вероятной потерей рабочих мест людьми. Если эти потери будут массовыми, а подходящего решения у нас не будет, то это станет очень опасной проблемой».

«Но это лишь негативная сторона медали данной технологии. Я убежден в том, что в своей основе ИИ не является оружием. Это, скорее, инструмент. Очень мощный инструмент. И этот мощный инструмент может быть использован как в хороших, так и плохих целях. Наша задача заключается в том, чтобы понять и минимизировать риски, связанные с его использованием, а также в том, чтобы он использовался только в хороших целях. Мы должны сосредоточится на том, чтобы извлечь максимум положительной выгоды от использования данной технологии».

Джон Лэнгфорд, главный научный сотрудник корпорации Microsoft:

«Я думаю, что основную опасность будут представлять дроны. Автоматизированные дроны могут стать настоящей проблемой. Текущий уровень вычислительной мощности автономного вооружения недостаточно высок для выполнения каких-то экстраординарных задач. Однако я вполне могу себе представить, как через 5-10 лет на борту автономного вооружения будут проводиться расчеты на уровне суперкомпьютеров. Дроны используются при боевых действиях уже сегодня, но они по-прежнему управляются человеком. Через некоторое время оператор-человек уже не понадобиться. Машины станут достаточно эффективны для самостоятельного выполнения поставленных задач. Именно это меня беспокоит».

Хава Зигельман, программный менеджер микросистемых технологий DARPA:

«Любая технология может быть использована во вред. Я думаю, что все зависит о того, в чьи руки эта технология попадет. Я не думаю, что существуют плохие технологии, я думаю, что существуют плохие люди. Все сводится к тому, кто имеет доступ к этим технологиям и как именно он их использует».

Томас Миколов, научный сотрудник лаборатории Facebook AI:

«Если что-то привлекает интерес и инвестиции, вокруг этого всегда находятся люди, которые не против этим злоупотребить. Меня расстраивает тот факт, что некоторые люди пытаются продать ИИ и красочно описывают то, какие проблемы этот ИИ сможет решить. Хотя по факту никакого ИИ еще не создано.

Все эти стартапы-однодневки обещают золотые горы и приводят примеры якобы работы ИИ, хотя на самом деле, нам показывают лишь усовершенствованные или оптимизированные технологии настоящего. При этом в большинстве случаев об усовершенствовании или оптимизации этих технологий мало кто задумывался. Потому что они бесполезны. Взять хотя бы тех же чат-ботов, которых выдают за искусственный интеллект. И вот, потратив десятки тысяч часов на оптимизацию выполнения одной единственной задачи, эти стартапы приходят к нам и говорят о том, что достигли чего-то, чего не могли достигнуть другие. Но это же смешно.

Если говорить откровенно, большинство последних якобы технологических прорывов подобных организаций, названия которых мне бы не хотелось называть, никому до этого не были интересны, не потому, что никто больше не мог их совершить, а просто потому, что эти технологии не генерируют никакой финансовой выручки. Они совершенно бесполезны. Это ближе к шарлатанству. Особенно в тех случаях, когда ИИ рассматривается как инструмент, позволяющий максимально оптимизировать процесс решения одной единственной и узконаправленной задачи. Его невозможно масштабировать ни под что-либо другое, кроме как на выполнение самых простых задач.

При этом любой, кто хоть как-то начнет критиковать подобные системы тут же сталкивается с проблемами, которые будут идти вразрез со сладкими заявлениями таких компаний».

Согласны ли вы с мнениями экспертов? Поделитесь своими мыслями в нашем официальном Telegram-чате Hi-News.ru.


Источник: Пять технологических экспертов поделились своими страхами и опасениями в отношении ИИ
Опубликовал:
Теги: технологии чтиво Будущее искусственный интеллект отношение Поделиться страх эксперт 5

Комментарии (0)

Пока комментариев к статье нет, но вы можете стать первым.
Написать комментарий:
Напишите ответ :
Даниил Страхов впервые вывел в свет свою жену. Какая приятная пара!
Даниил Страхов впервые вывел в свет свою жену. Какая приятная пара!
28
Все о звездах шоубизнеса 13:07 28 авг 2017
Психосоматика: болезни вызывают не бактерии, а страхи и психологические блоки
Психосоматика: болезни вызывают не бактерии, а страхи и психологические блоки
31
Мир Путешествий 15:05 30 янв 2017
Интимный страх толстой женщины
Интимный страх толстой женщины
8
Живи правильно 06:02 24 июл 2016
До и после: трансгендеры всего мира поделились фото своих трансформаций
До и после: трансгендеры всего мира поделились фото своих трансформаций
3
Мир Путешествий 07:40 26 сен 2016
Как отличить закомлексованного человека за пять секунд
Как отличить закомлексованного человека за пять секунд
13
Живи правильно 16:59 07 июл 2016
Хотите знать, какая вы в любовных отношениях? Секрет кроется в мизинце
Хотите знать, какая вы в любовных отношениях? Секрет кроется в мизинце
5
Мир Путешествий 10:25 04 апр 2017
То, что вы увидите первым на картинке, расскажет о вашем истинном страхе
То, что вы увидите первым на картинке, расскажет о вашем истинном страхе
28
Новости и Факты (НиФ) 02:41 13 июн 2018
9 привычек счастливых пар, которые не теряют страсти в своих отношениях
9 привычек счастливых пар, которые не теряют страсти в своих отношениях
6
Новости и Факты (НиФ) 08:20 10 апр 2018
Эксперты выделили 6 привычек, которые разрушают ваш брак
Эксперты выделили 6 привычек, которые разрушают ваш брак
38
Новости и Факты (НиФ) 11:53 27 авг 2018
Родители поделились самыми жуткими высказываниями своих детей
Родители поделились самыми жуткими высказываниями своих детей
3
Мир Путешествий 07:35 25 дек 2016
Она была ошеломлена поведением своих детей по отношению к официантке. Урок, который последовал за этим, — гениальный!
Она была ошеломлена поведением своих детей по отношению к официантке. Урок, который последовал за этим, — гениальный!
20
Мир Путешествий 04:45 10 окт 2016
Ваш скрытый страх согласно вашему Знаку Зодиака
Ваш скрытый страх согласно вашему Знаку Зодиака
2
Новости и Факты (НиФ) 09:20 04 апр 2018

Выберете причину обращения:

Выберите действие

Укажите ваш емейл:

Укажите емейл

Такого емейла у нас нет.

Проверьте ваш емейл:

Укажите емейл

Почему-то мы не можем найти ваши данные. Напишите, пожалуйста, в специальный раздел обратной связи: Не смогли найти емейл. Наш менеджер разберется в сложившейся ситуации.

Ваши данные удалены

Просим прощения за доставленные неудобства