Легендарный ученый предупреждал, что автономный ИИ в конечном итоге может означать конец человечества.
В интервью СМИ в 2014 году Стивен Хокинг прямо предупредил, что создание полноценного искусственного интеллекта может означать конец человеческой расы. В своей последней книге "Краткие ответы на большие вопросы" Хокинг призвал научное сообщество и правительства строго регулировать развитие ИИ, прежде чем технология полностью выйдет из-под контроля человека, пишет WioNews.
Хокинг утверждал, что как только машины достигнут определенного порога, они будут быстро перестраивать себя с постоянно возрастающей скоростью. Он опасался, что люди просто не смогут конкурировать с продвинутыми алгоритмами. Он отметил, что человечество ограничено медленной биологической эволюцией, а это значит, что искусственный интеллект быстро превзойдёт человеческие возможности и будет доминировать в глобальных системах.
Он также предупреждал об угрозе военного ИИ. Он предостерёг, что начало глобальной гонки вооружений с использованием автономного оружия неизбежно приведёт к катастрофическим глобальным конфликтам.
Кроме того, Хокинг предсказал серьёзные экономические последствия от использования ИИ. Он заявил, что автоматизация заводов и интеллектуальная машинная обработка данных приведут к сокращению рабочих мест для среднего класса, радикально увеличив глобальное неравенство в распределении богатства.
Однако основной страх Хокинга заключался в том, что ИИ разрабатывает цели, полностью не соответствующие выживанию человека. По его мнению, сверхинтеллектуальный ИИ будет чрезвычайно эффективен в достижении своих целей, и если эти цели не совпадают с нашими, человечество окажется в беде.
В то же время учёный признал огромный потенциал преимуществ этой технологии. Он предположил, что успешное управление ИИ может помочь человечеству искоренить глобальную бедность, вылечить сложные заболевания и обратить вспять ущерб окружающей среде.
Как рассказывал уНИАН, Хокинг считал, что мы сможем начать поиски новых планет для колонизации примерно через 100 лет. Он также полагал, что это нужно сделать как можно быстрее, поскольку считал, что "ядерная конфронтация или экологическая катастрофа в какой-то момент в течение следующих 1000 лет парализуют Землю".