Стивен хокинг: человечество обречено, если не покинет землю.
Только в том случае, если человечество хочет выжить в долгосрочной перспективе, ему нужно найти способ покинуть планету земля. Знакомые слова? В этот раз они прозвучали из уст известного астрофизика Стивена хокинга. Возможно, у людей осталось меньше 200 лет, чтобы выяснить, как сбежать с родной планеты, заявил хокинг в недавнем интервью Big Think. В противном случае нашему виду может грозить вымирание.
"Будет довольно сложно избежать катастрофы в ближайшие сто лет, не говоря уже о следующей тысяче или миллионе лет, - сказал хокинг. - наш единственный шанс долговременного выживания - не остаться на планете земля, а распространиться в космосе".
Людей, застрявших на земле, ждет риск двух типов катастроф, считает хокинг. Первый тип мы можем создать самостоятельно, к примеру, вызывая кардинальное изменение климата или создав ядерное или биологическое оружие. Может стереть нас с лица земли и ряд космических явлений. Астероид, столкнувшийся с землей, убьет большую часть населения и оставит остальную часть планеты непригодной для жизни. Вспышка гамма-лучей сверхновой недалеко в млечном пути тоже может оказаться разрушительной для жизни на земле.
Жизнь на земле также может быть под угрозой внеземных цивилизаций, о чем любит говорить хокинг. Опасные чужаки могут завладеть планетой и ее ресурсами для собственного использования. Для выживания нашего вида было бы безопаснее иметь запасной план в виде других миров.
"Человеческой расе не стоит держать все яйца в одной корзине, или на одной планете. Будем надеяться, что мы не уроним корзину, пока не перераспределим нагрузку".
На днях хокинга спросили, какие недостатки людей он бы изменил, а какие добродетели улучшил, если было бы возможно. Он ответил: "больше всего я бы хотел поправить в человеке его агрессию. Она давала преимущество при выживании в дни пещерных людей, чтобы получить больше еды, территории или партнера, с которым можно продолжить род, но сегодня она угрожает уничтожить нас всех".
В ноябре Элон маск, генеральный директор Spacex и Tesla, предупреждал, что шанс на то, что случится нечто опасное в результате появления машин с искусственным интеллектом, может выстрелить уже через пять лет. Ранее он утверждал, что развитие автономных думающих машин сродни "Призыву Демона". Выступая на симпозиуме Aeroastro Centennial в октябре, маск описал искусственный интеллект как нашу "Крупнейшую Угрозу для Выживания". Тогда он сказал: "я думаю, нам стоит быть очень осторожными с искусственным интеллектом. Внимание! Только в том случае, если бы я мог предположить, какой будет наша крупнейшая угроза для выживания, то это он. Нам нужно быть очень осторожными с искусственным интеллектом. Я все больше и больше склоняюсь к тому, что должен быть некий регулятивный надзор, возможно, на национальном и международном уровне, просто чтобы знать, что мы не делаем дурацких ошибок".
"С искусственным интеллектом мы демона вызываем. Вы знаете эти истории, в которых парень с пентаграммой и святой водой … он думал, что сможет контролировать демона, но нет".
Возвращаемся к хокингу. "Качество, которое я хотел бы улучшить - это эмпатия, сочувствие. Она нас в состоянии мира и любви удерживает". Профессор также добавил, что космическая гонка для людей будет "Страхованием Жизни" и должна продолжаться.
"Отправка людей на луну изменила будущее человеческой расы таким образом, о котором мы пока даже не подозреваем, - сказал он. - она не решила наши насущные проблемы на планете земля, но позволила нам взглянуть на них под другим углом, изнутри и снаружи".
"Я Считаю, что Долгосрочным Будущим Человеческой Расы Должен Быть Космос и что он Представляет Собой Важную Страховку Жизни для Нашего Дальнейшего Выживания, Поскольку Может Препятствовать Исчезновению Человечества Путем Колонизации Других Планет".
В декабре 2014 года хокинг выступил с другим предупреждением - что искусственный интеллект может означать конец человеческой расы. Выступая на мероприятии в Лондоне, физик рассказал BBC, что "Развитие Полноценного Искусственного Интеллекта Может Положить Конец Человеческой Расе".
В январе группа ученых и предпринимателей, включая Элона маска и Стивена хокинга, подписала открытое письмо, обещающее положить начало исследованиям безопасности ИИ. Письмо предупреждает о том, что без каких-либо гарантий развитие умных машин может означать темное будущее для человечества.