Исследователи из американского Кембриджа хотят изучить вопроса о том, не станет ли развитие науки техники причиной гибели цивилизации, пишет ВВС.
СМИ отмечают со слов ученых, что было бы опасно не учитывать опасность восстания роботов. Эта тема давно считается одной из главных в научной фантастике. Такие киноленты, как "Терминатор" или "Матрица" показывают закабаление людей роботами, системами искусственного интеллекта. Похожая система Skynet, фигурирующая в лентах серии "Терминатор", создавалась военными США. И все-таки подобные предположения, по мнению ученых, заслуживают большого внимания. Серьезность подобной угрозы сложно оценить, но это должно само по себе вызывать тревогу, так как слишком много поставлено на кон, уверены исследователи центра.
Фантазий бояться не стоит
Проект CSER финансируется совместно профессором философии Хью Прайсом, профессором космологии и астрофизики Мартином Рисом, основателем фирмы Skype Яном Таллинном. Представляется реальным предположение, что в какой-то миг в этом или новом веке разум вырвется из биологических оков, говорит рофессор Прайс. Учены сейчас хотят сделать такой вопрос приемлемым для обсуждения в области респектабельных ученых. По мнению профессора, когда компьютеры и роботы по уровню интеллекта обгонят человека, люди могут оказаться во власти машин, интересы которых вне области интересов человека. Работа в Центре должна начаться в 2013 году.
«Цифровая неврология» приведет к формированию мощного искусственного интеллекта
Он уже будет дописывать ваши фразы в окошке Google, имитировать ход мысли. Сейчас фирма IBM работает над проектом Blue Brain. Фирма обещает, что к 2019 году создаст виртуальный мозг. И все же, пока не будет сделана неврологическая схема, которая описывает, как в мозгу людей рассчитываются итоги действий, формируется ответственность, нет оснований для суждений о технопрорывах, которые угрожают созданием реальных электрозлодеев, что рвутся к власти.
В ближайшем будущем нет причин ждать мятежа. Вернемся к вопросу спустя век, пока же это тема для фантастов. Потому что, как и все иные связанные с роботами страхи, такая фобия опасна загораживанием важных проблемы. Например, пациент, который страдает аутизмом нападает на робота-сиделку, чтобы его сломать. Что желать при этом самому роботу? Выключиться? Но это же очень дорогой аппарат, может все же защищаться? Если подобные роботы работать будут везде, будут часто встречаться случаи, когда они будут причиной сопутствующего ущерба – и физического, и морального.
Видя автономного робота, по своей собственной воле движущегося, жестикулирующегося, издающего звуки, в мозгу человека возбуждаются зеркальные нейроны. Они начинают работать как при исполнении какого-то действия, при наблюдении за выполнением действия иным существом. Ученые уверены, что они отвечают за обучение за счет подражания. Зеркальные нейроны не будут отвечать при виде восковой фигуры, машинки с дистанционным управлением, но начнут возбуждаться как реакция на исполнение разных действий автономного робота, так как мозг по какому-то недоразумению примет его как живое существо.
Распространение соцроботов опасно, но неизбежно. Эксперты отдела новости США «Биржевого Лидера» отмечают, что к 2015 году размер рынка роботов перевалит за 15 миллиардов долларов. Людей призывают к осторожности, так как страшно доверять святыню общения человека безличным автомашинам. Большую тревогу вызывает судьба тех, для кого делается новая сфера: дети в школах, которым не могут нанять полный штат учителей, старики с болезнью Альцгеймера. Такая армия роботов обойдется дешевле, чем сотни тысяч учителей, сиделок. И все же, как будет ориентироваться новое поколение, что появится из роботов-друзей, роботов-педагогов, в мире непредсказуемых отношений.
Бунт машин в искусстве
Робот стал самым живучим мифов культуры. Человека пугают не мехлюди, а их «искусственный интеллект», то ПО, что превращает машину в настоящее чудовище. И тому есть масса примеров: фильмы «Матрица», «Терминатор», «Робокоп», «2001: Космическая одиссея», пьеса R.U.R., рассказ А. Азимова «Конфликта можно избежать» и так далее