Хокинг и Маск встали на защиту людей от сверхинтеллекта
Физик-теоретик Стивен Хокинг и основатель Tesla Motors Илон Маск поддержали ряд принципов, которые должны гарантировать, что искусственный интеллект (ИИ) не причинит вреда человеку и будет служить лишь на благо. Об этом сообщает Silicon Valley Business Journal.
Данный пакт необходим для того, чтобы обеспечить безопасность людей, а также ответить на многие вопросы, касающиеся ИИ. Маск уверен, что ИИ потенциально может быть более опасным, чем ядерное оружие. Хокинг также придерживается подобного мнения и утверждает, что ИИ может погубить человечество. Однако оба признают, что благодаря ИИ люди смогут решить многие проблемы — например, излечить рак или же замедлить глобальное потепление.
Следование всем 23 принципам должно гарантировать, что ИИ будет служить лишь благим целям. Они разбиты на три категории: «Исследовательские вопросы», «Вопросы этики и ценностей», а также «Долгосрочные проблемы». К первой категории относятся ответы на вопросы, которые встают перед создателями ИИ, в том числе описание того, как должно происходить финансирование. Во второй категории затронуты вопросы безопасности и способы нейтрализации угрозы. В третьей описаны возможные риски, с которыми может столкнуться человечество, когда ИИ достигнет пика своего развития и появится так называемый сверхинтеллект.
Данные принципы были разработаны на конференции, посвященной обсуждению ИИ в начале января 2017 года. В написании приняли участие генеральный директор DeepMind Демис Хассабис (Demis Hassabis).