Хокинг предупредил человечество об угрозе искусственного интеллекта

"Интерфакс"
3 декабря 2014, 18:23
Известный астрофизик Стивен Хокинг опасается, что искусственный интеллект (ИИ) может вскоре оказаться угрозой для существования человечества, пишет Financial Times.

По словам Хокинга, методы генной инженерии вскоре позволят вносить изменения в ДНК человека для "улучшения человеческого рода", однако результаты этого процесса смогут проявиться лишь через какое-то время. "Компьютеры же, напротив, по закону Мура увеличивают свою производительность вдвое каждые полтора года. Существует риск, что вычислительные машины обзаведутся интеллектом и установят господство над людьми, которые не смогут составить им конкуренцию", - сказал он.

Ранее о необходимости установить жесткий контроль над разработками в сфере создания ИИ заявляли сооснователь платежной системы PayPal Питер Тиль и глава производителя электромобилей Tesla Илон Маск.

Вместе с тем Хокинг отметил и положительные стороны развития ИИ: практически полностью парализованный ученый продемонстрировал улучшения в системе, которая позволяет ему общаться с миром.

Система, разработанная Intel совместно с британским стартапом SwiftKey, теперь может печатать слова и произносить их в два раза быстрее благодаря новому алгоритму, анализирующему особенности речи ученого и предсказывающему слова по первым буквам. Самыми популярными словами в лексиконе физика-теоретика стали "дыры", "космология", "горизонт" и почему-то "перец".

Астрофизик настоял на том, чтобы при применении улучшений разработчики сохранили его узнаваемый компьютерный голос, отмечает Financial Times. Сам Хокинг ранее говорил, что голос и инвалидная коляска делают его идеальной кандидатурой на роль главного злодея фильма про Джеймса Бонда, и он был бы не против сняться в очередном кинофильме про агента 007.

Помимо искусственного интеллекта, по мнению Хокинга, у человечества существует множество других угроз. "Существует множество рисков - от ядерной войны до глобального потепления и мутирующих вирусов. Число угроз постоянно растет, и вероятность катастрофического события на земле в ближайшие 1-10 тыс. лет является почти стопроцентной", - сказал Хокинг.

"Нам нужно раздвинуть наши горизонты за пределы планеты Земля, чтобы катастрофа на Земле не означала конец человечества, - заявил астрофизик. - Мы должны создавать колонии на других планетах, способные к полному самообеспечению. Сейчас это сложно, но с развитием технологий такая задача упростится".
Заметили ошибку? Пожалуйста, выделите её и нажмите Ctrl+Enter
Дорогие читатели, не имея ресурсов на модерацию и учитывая нюансы белорусского законодательства, мы решили отключить комментарии. Но присоединяйтесь к обсуждениям в наших сообществах в соцсетях! Мы есть на Facebook, «ВКонтакте», Twitter и Одноклассники
•   UDFНовостиТехнологии ❯ Хокинг предупредил человечество об угрозе искусственного интеллекта