Неделю назад мир технологий загудел, когда стало известно о том, что Google отдала почти полмиллиарда долларов за DeepMind, британскую компанию-разработчика искусственного интеллекта. Западные эксперты Forbes представили свои размышления о том, какие последствия вызовет дальнейшее развитие событий. Об этом сообщают эксперты раздела "Hi-tech" издания для инвесторов "Биржевой лидер".
Связана ли сделка корпорации Google с приобретением в декабре семи компаний, разрабатывающих и произвдящих роботов, среди которых и Boston Dynamics (компании, которая очень тесно связана с армией Соединенных Штатов?). Google готовит армию роботов, обладающих искусственным интеллектом? Или Google намерена создать что-то типа Skynet?
Такая неопределенность вызывает один закономерный вопрос: что такое DeepMind, приобретение которой провоцирует гиганта Google на формирование совета по этике? Это обычная профилактическая мера либо необходимость для спасения человечества? Дело в том, что искусственный интеллект — это крайне мощная технология, которая уже сегодня в значительной степени незаметна обычному человеку. Сейчас искусственный интеллект управляет самолетами и фондовыми рынками, наблюдает за людьми, собирает информацию и многое другое. Это важные функции, которые имеют на общество и этику огромное влияние.
При этом разработчики искусственного интеллекта постоянно находятся под давлением. Так же как хозяин пистолета несет ответственность, DeppMind проявляет ответственность за создание мощных технологий. Сейчас DeepMind ищет независимого арбитра по этике, но в тени прячутся важные вопросы, о которых не стоит забывать.
Этика не только правовая ответственность.
Первая проблема – ограничение этики правовой ответственностью. Пока неизвестно, кого пригласят в совет по этике, однако известно, что «главный сотрудник по вопросам этики» в течение более десяти лет будет весьма популярной вакансией. На данную позицию будут приглашать юристов, ориентированных на вопросы соблюдения законов и предупреждения их нарушений. Корпорация Google сегодня показывает отличный пример со своей компанией по соблюдению законов и этике, которая сотрудничает «с консультантами по этике, чтобы соблюдать все политические законы».
Данный акцент может дать отличные результаты, например, уменьшение потребительского риска и повышение общественной безопасности. Однако давайте не будем обманываться: акцент продиктован исключительно корыстной целью – снизить корпоративную ответственность. Это серая зона развивающихся технологий, так как пока они не ограничены никакими нормами и законами.
Оказывается, сегодня существует не так уж и много законов, непосредственно регулирующих исследование искусственного интеллекта, хотя законы о неприкосновенности личной жизни и ответственности за качество продукции все еще остаются в силе. Требование компании DeepMind о создании совета по этике говорит о том, что компанию заинтересует не только минимизация количества правовых разбирательств.
Третейский суд.
Следующий вопрос связан с так называемыми этическими дымовыми завесами. Как пишут СМИ, DeepMind «настаивала» на создании совета по этике, словно бы утверждая, что сама Google была против этой идеи. Этот вариант поднимает вопрос, как долго будет поддерживаться такое соглашение и насколько серьезно в Google отнесутся к этой идее. Возможно, компания согласилась на создание такого совета, просто чтобы успокоить DeepMind?
Ходят слухи, что корпорация Google всерьез намерена сформировать совет по этике, так как должна получить приз на проводимом DARPA конкурсе Robotics Challenge, в котором сегодня лидирует. Это будет гарантировать ей денежный приз и международное признание. Независимо от того, считает ли Google неприбыльным военный рынок либо не хочет учувствовать в развитии военных технологий, множество антивоенных кампаний смогут вздохнуть с облегчением.
Если же совет по этике искусственного интеллекта является обычным шоу, Google не упустит возможности воплотить свою известную философию «не будь злом». Без создания совета по этике либо других аналогичных специалистов будет очень трудно определить настоящее зло.