Контроль над демонами: почему Маск и Возняк требуют остановить развитие искусственного интеллекта
Предприниматель Илон Маск, сооснователь Apple Стив Возняк и более тысячи экспертов в сфере высоких технологий подписали открытое письмо, призывающее лаборатории по всему миру приостановить разработку моделей искусственного интеллекта из-за «значительных рисков для общества и человечества».
В письме говорится, что многие команды исследователей ИИ вовлечены в «бесконтрольную гонку» по созданию и внедрению систем машинного обучения, «которые никто – даже их создатели – не способны понять, предсказать или уверенно контролировать».
Авторы петиции утверждают, что технологии с искусственным интеллектом, сопоставимым с человеческим, могут представлять значительный риск для общества.
Мощные ИИ-системы должны разрабатываться лишь при условии того, если человечество будет уверено, что их воздействие будет позитивным, а риски – управляемыми, отмечается в обращении.
В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев. За это время индустрия должна выработать набор правил, по которому в дальнейшем обязуется использовать ИИ. Иначе мир может столкнуться с глобальными рисками: конкуренция нейросетей на рынке труда, искусные фейки в соцсетях и потеря контроля за цивилизацией.
«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», – подчеркивают авторы письма.
«Все умрут, включая детей»
Рано или поздно суперумные нейросети выйдут за пределы интернета, перехватят управление всеми процессами на планете и избавятся от людей. Такой шокирующий прогноз в эмоциональной колонке для Time привел сооснователь Института исследования машинного интеллекта Элиезер Юдковский, один из главных IT-экспертов современности. Его предложение – полностью прекратить любые исследования в этой области, кроме тех, что помогут избежать гибели человечества, рас-
сказывает «Лента».
«Ключевая опасность – перспектива создания не такого интеллекта, который будет конкурировать с человеческим, а такого, который будет превосходить человеческий. На этом пути очень плохо видны критические границы, которые исследователи могут пересечь незаметно для них самих. Поэтому наиболее вероятным результатом создания сверхумного ИИ станет то, что буквально все люди на Земле умрут. Не в значении «есть отдаленная перспектива этого», а в значении «совершенно очевидно, что это случится», – написал Юдковский.
Он уверен, что сверхчеловеческому искусственному интеллекту будет наплевать как на людей, так и на разумную жизнь в целом. Безразличные нейросети будут руководствоваться не эмоциями, которые им неведомы, а своими потребностями, которые могут побудить машину использовать в своих целях человеческое тело. Например, превратить атомы, из которых оно состоит, во что-то более нужное с точки зрения машины.
Юдковский также предлагает задуматься о том, что искусственный интеллект сможет выбираться за пределы интернета, если этого захочет. Его предположения выглядят как сцена из какого-нибудь фантастического фильма: машины научатся красть расшифрованную ДНК отдельного человека, создавать на ее основе искусственные формы жизни или даже организуют постбиологическое молекулярное производство, при котором смогут пересобирать одни вещества в совершенно другие. «Если кто-то создаст слишком мощный ИИ в нынешних условиях, я думаю, что вскоре после этого умрет каждый представитель человеческого рода и вся биологическая жизнь на Земле. Если мы продолжим это, умрут все, включая детей», – пишет Юдковский.
Нейросеть уже вызвала землетрясение
В последние недели на тему стремительного развития нейросетей обратили внимание не только представители экспертного сообщества, но и власти отдельных стран. Это произошло на фоне сообщений о том, что искусственный интеллект начали использовать злоумышленники. Ситуацией обеспокоился даже Европол.
В частности, силовики опасаются, что нейросети смогут обходить защитные программы и помогать в организации кибератак, способствовать обучению киберпреступников новым тактикам или даже генерировать уникальный вредоносный код. Все это снизит порог входа в хакинг и сделает его доступным даже для тех, кто почти ничего в нем не понимает.
Правду уже не отличить от вымысла
О серьезности ситуации красноречиво свидетельствуют фотографии последствий землетрясения Великая Каскадия, произошедшего 22 года назад в Орегоне, которые публикует канал «Осторожно, новости». Тогда стихийное бедствие унесло жизни 8 тысяч человек, 785 тысяч людей остались без крова.
Но есть один нюанс – всего этого не было. Фотографии и подробности инцидента сгенерировали энтузиасты с англоязычного форума Reddit с помощью искусственного интеллекта, пишут «Новые известия». Опознать след ИИ можно по минимальным ошибкам – например, неестественном положении руки девушки на одном из фото.
Пользователям Reddit было интересно: смогут ли они создать достоверные фото фейкового события в стиле документальных хроник. В итоге отличить правду от вымысла без подготовки стало затруднительно: многие пользователи форума поначалу даже делали вид, что что-то помнят о той катастрофе.
Создание фейков, неотличимых от правды, и наводнение ими информационных лент назвали еще одной реальной опасностью ИИ, которая угрожает нам прямо сейчас.
Не все поверили в скорое уничтожение человечества
Мнение о том, что искусственный интеллект сможет вырваться за пределы интернета и уничтожить все сущее, поддерживают далеко не все. Против него выступили многие видные западные ученые, которые посвятили этой теме почти всю жизнь. Основным противником Маска и его сторонников стал представитель предыдущего поколения гигантов рынка – основатель Microsoft Билл Гейтс.
«Я не думаю, что если мы попросим одну конкретную группу разработчиков приостановить свои исследования, это что-то изменит. Использование искусственного интеллекта несет колоссальные преимущества. Это значит, что нам просто нужно определиться с имеющимися рисками», – сказал Гейтс.
В материале с говорящим названием «Эра искусственного интеллекта началась» Гейтс рассуждает в основном о вкладе ИИ в различные сферы жизни. «Он изменит то, как люди работают, учатся, путешествуют, получают медицинскую помощь и общаются друг с другом», – писал основатель Microsoft.
«Но ни один из прорывов последних нескольких месяцев существенно не приблизил нас к сильному ИИ. Искусственный интеллект до сих пор не контролирует физический мир и не может устанавливать собственные цели», – уверен Гейтс.
Критики инициативы также обвиняют подписавших письмо в продвижении «шумихи вокруг искус-
ственного интеллекта», утверждая, что заявления о текущем потенциале технологии были сильно преувеличены.«Подобного рода заявления предназначены для того, чтобы поднять шумиху. Это должно заставить людей волноваться», – говорит Йоханна Бьерклунд, исследователь искусственного интеллекта Университета Умео.
lenta.ru, naked-science.ru, newizv.ru, e-vesti.ru
Вверх▲
Отзывы читателей (0)
Написать отзыв▼
Архив рубрики / Другие статьи этого номера 16 (1487) от 18 апреля 2023 года
Верховный суд оставил без изменения приговор за шпионаж бывшему подполковнику МВД из Курской области