Стивен Хокинг считает, что у человечества в скором времени не останется выбора, как покинуть Землю и заняться поиском нового дома. С подобными заявлениями знаменитый физик-теоретик уже выступал и ранее. По его мнению, шанс на выживание у нас с вами появится только в том случае, если мы превратимся в межпланетный вид, в противном случае мы будем просто обречены на вымирание. В последнем интервью изданию WIRED Хокинг подчеркнул, что мы уже перешли так называемую «точку невозврата».
В интервью он еще раз напомнил, что его мысли о необходимости поиска второго дома для людей связаны сразу с двумя причинами: перенаселением нашей планеты и совсем не иллюзорной, а вполне реальной угрозой развития искусственного интеллекта (ИИ). Машины, по его мнению, очень скоро станут настолько умными, что в конечном итоге решат «заменить» человечество.
«Мы открываем настоящий ящик Пандоры. Боюсь, что ИИ сможет заменить всех людей», — прокомментировал Хокинг изданию WIRED.
Это определенно не первый раз, когда Хокинг пугает нас такими предупреждениями. В интервью издательству «Таймс» в марте этого года он также предупреждал всех об апокалипсисе и необходимости создания «новой формы мирового правительства», которое смогло бы держать эту технологию под контролем. Кроме того, физик-теоретик выражал беспокойство о том, что ИИ окажет существенное влияние на объем свободных рабочих мест для среднего класса, и даже призвал к запрету разработки и использования искусственного интеллекта в военных целях.
Как бы там ни было, его предупреждения практически полностью игнорируются технологическими компаниями, вовлеченными в создание и развитие ИИ. Однако уже сейчас некоторые отмечают, что интеллектуальные машины начинают постепенно отнимать рабочие места, заменяя живых людей, а в некоторых странах, включая США и Россию, преследуется цель создания вооружения, управляемого искусственным интеллектом. Чего греха таить, все мы в свое время смеялись над российским роботом Федором (он же FEDOR, или Final Experimental Demonstration Object Research), разработанным НПО «Андроидная техника» и Фондом перспективных исследований по заказу МЧС России. Однако на Западе люди к презентации этой машины отнеслись гораздо серьезнее, ведь российская разработка демонстрирует возможности, которых лишены даже роботы Boston Dynamics — одной из самых продвинутых робототехнических компаний в мире. Федора позиционируют как робота-спасателя, а также будущего космонавта, который должен будет отправиться в космос на новом космическом аппарате «Федерация» в 2021 году, но на Западе отмечают его явно боевой потенциал.
В последние годы разработка ИИ стала очень резонансной темой. Некоторые эксперты соглашаются с Хокингом и выдвигают аналогичные аргументы, взять хотя бы того же Илона Маска и Билла Гейтса. Оба видят в разработке искусственного интеллекта опасность для человечества. Ряд экспертов с «противоположной стороны баррикад» говорят о том, что подобные страхи в большей степени основаны на надуманных сценариях захвата мира сверхразумным ИИ, а потому очень вредны, так как имеют возможность негативно сказаться на восприятии общественностью истинной пользы от ИИ в будущем.
Хокинг, в свою очередь, непреклонен и уверен, что эти страхи имеют под собой вполне реальную основу.
«Если люди могут разрабатывать компьютерные вирусы, то кто-то определенно разработает ИИ, способный самостоятельно эволюционировать и реплицировать. Он сможет превратить себя в новую форму жизни, которая во всем будет превосходить людей», — прокомментировал Хокинг журналистам WIRED.
Здесь Хокинг, скорее всего, говорит о развитии ИИ до человеческого уровня мышления или даже превосходящего этот уровень мышления. Другими словами, он говорит о событии, которое предсказывают многие современные футурологи – технологической сингулярности. Касательно того, когда, по мнению Хокинга, это событие произойдет, физик-теоретик не предложил каких-либо конкретных дат. Можно лишь предположить, что речь идет о промежутке
Другие, такие как глава SoftBank Масаеси Сон и старший инженер Google Рэй Курцвейл, предполагают приход сингулярности еще раньше – в течение
Мы по-прежнему
Комментарии (0)