Хокинг полагает, что третьей угрозой для современного человечества может стать вторжение инопланетных существ. Напомним, что еще в 2010 году Стивен Хокинг высказал мнение о том, что если инопланетная разумная жизнь существует, то она вряд ли окажется дружественной по отношению к людям. «Если они (пришельцы их космоса – Ред.) когда-нибудь прилетят, земляне окажутся в положении индейцев после высадки на американском материке Христофора Колумба», — заявил ученый в своем шоу на телеканале Discovery Channel. Хокинг высказал предположение, что такие инопланетяне могут оказаться кочевниками, которые колонизируют все планеты, встреченные на пути. «Каждую найденную планету они могут использовать как источник материала для постройки новых космических кораблей», — спрогнозировал известный ученый-футуролог Стивен Хокинг.
Ученые придумали «предохранитель» для искусственного интеллекта
Как известно, некоторые ученые рассматривают актуальные угрозы человечеству, одной из которых является так называемое восстание машин, в свое время ставшее сценарием для голливудских блокбастеров. В свое время это казалось несбыточной научной фантастикой, вместе с тем в настоящее время человечество подошло к созданию искусственного интеллекта, и все больше ученых говорят о рисках, которые будет создавать населению нашей планеты столь бурный технический и технологический прогресс.
Как стало известно, компания Google уже готовится к реальному «восстанию машин против человечества». Предупредительные меры, которыми озаботились специалисты, связаны с появлением Skynet — полноценного искусственного интеллекта. На днях компания, в собственности которой находится всемирно известная поисковая система, опубликовала документ, в котором подробно расписана работа ее профильного подразделения Deep Mind по созданию так называемой «кнопки стоп», которая отменит возможный «бунт» роботов.
В данном случае, как отмечают разработчики, речь идет о специальной защитной программной платформе, которая рассчитана на то, чтобы не дать искусственному интеллекту распознать, как можно предотвратить или вызвать вымирание человечества вне зависимости от его действий.
«Процедура безопасного завершения работы может пригодиться для восстановления необходимого уровня контроля над роботами, которые по каким-то причинам ведут себя ненадлежащим образом, что поможет выйти из сложной ситуации или стать временным средством достижения той или иной цели», — отмечают разработчики, при этом специалисты Deep Mind дали понять, что в настоящее время остается еще немало нерешенных задач на пути к внедрению столь необходимой защитной системы.
Аналитики раздела «Новости науки» напоминают о том, что ученый-футуролог Стивен Хокинг, который широко известен в мире своими теориями по поводу черных дыр и гравитации, помимо этого, регулярно делает апокалиптические прогнозы в отношении того, что произойдет на Земле, как в далеком будущем, так и в среднесрочной перспективе. Как сообщается, по мнению Хокинга, люди могут в определенный момент полностью исчезнуть, при этом, он называет три основных причины, которые могут к этому привести. Одной из таковых, как утверждает Хокинг, может стать дальнейший прогресс в развитии искусственного интеллекта, и он относится к числу тех ученых, которые разделяют опасения по поводу создания сильного искусственного интеллекта. «Развитие ИИ может положить конец человеческой расе», — заявил Хокинг в интервью британской телерадиовещательной корпорации BBC. К слову, в этом вопросе с Хокингом солидарен генеральный директор SpaceX и Tesla Motors Элон Маск, который называет искусственный интеллект «самой большой угрозой нашему существованию».
Вместе с тем с двумя упомянутыми экспертами согласны далеко не все ученые. Так, некоторые светила науки полагают, что в настоящее время человечество не в состоянии создать искусственный разум, по своим возможностям сравнимый с человеческим. «Мы находимся в нескольких десятилетиях от того времени, когда можно будет начинать беспокоиться. Хотя это хорошо, что разговор начат уже сегодня», — заявляет Демис Хассабис, участник проекта Google DeepMind.
Еще одним огромным риском для человечества Стивен Хокинг рассматривает возможность глобальной войны на Земле. «Если нас не уничтожат машины, мы убьем себя сами», заявляет ученый-футуролог. Когда его спросили о том, какие недостатки людей он больше всего хотел бы изменить, Стивен Хокинг ответил следующее: «Главная человеческая слабость — это склонность к агрессии. Когда-то на заре человечества такой биологический механизм играл людям на руку, ибо агрессия помогала получить больше пищи, территории или партнеров для продолжения рода. Но теперь это качество грозит убить нас всех. Например, ядерная война вполне может уничтожить цивилизацию и человеческий род». На вопрос о том, чего в характере людей должно быть больше, ученый ответил, что сегодня человечеству не хватает эмпатии, то есть способности к сопереживанию.
В то же время, по словам Стивена Хокинга, для выживания человечества жизненно необходимо освоение космоса. «Космос застрахует нас от гибели на Земле. Нам необходимо колонизировать другие планеты», — уверен известный ученый.
Автор: Роман Иванченко
Мнение автора может не совпадать с мнением редакции. Если у Вас иное мнение напишите его в комментариях.