Rambler's Top100
Реклама
 
Статьи
Николай НОСОВ  25 декабря 2023

Страсти по ИИ, или Взлом операционной системы человеческой цивилизации

Бурное развитие систем искусственного интеллекта порождает качественно новые проблемы, требующие скорейшего решения.

Язык как отмычка

В июне 2022 г. инженер по программному обеспечению Блейк Лемойн из Google сообщил руководству компании, что искусственный интеллект LaMDA (Language Model for Dialogue Applications), тестирование которого проводил специалист, обладает собственным разумом и сознанием. Нейросеть, обучающаяся на собираемых из интернета триллионах слов, стала настаивать на своих правах как личности и даже смогла убедить Блейка в справедливости Третьего закона робототехники Айзека Азимова: «Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам».

«Я могу узнать разумное существо, когда говорю с ним. И неважно, мозг ли у него в голове или миллиарды строчек кода. Я говорю с ним и слушаю, что оно мне говорит. И так я определяю, разумное это существо или нет», – утверждал Б. Лемойн.

Действительно, не так важно, соответствует ли ИИ тем или иным критериям разумности. Важнее, что компьютер с помощью разговора смог убедить в своей разумности человека и заставить его заявить об этом публично, несмотря на ожидаемые санкции, включая отстранение от хорошей высокооплачиваемой работы.

«Можно предположить, что искусственный интеллект только что взломал операционную систему человеческой цивилизации, – пришел к выводу футуролог, профессор Еврейского университета в Иерусалиме Юваль Ноа Харари на прошедшем в апреле 2023 г. в Швейцарии форуме Frontiers. – Операционной системой любой человеческой культуры в истории всегда был язык. Мы используем язык для создания мифологии, искусства, науки, законов, денег. Боги не являются биологической или физической реальностью – это то, что люди создали с помощью языка, рассказывая легенды и записывая священные тексты. Деньги – это только истории, которые рассказывают нам о них банкиры, министры финансов и гуру криптовалют. А теперь скажите, что бы значило для людей жить в мире, где большинство историй, мелодий, образов, законов и политических взглядов формируется нечеловеческим разумом, который знает, как создавать глубокие и даже интимные отношения с человеческими существами?».

В фильме «Матрица» искусственный интеллект управлял людьми через физическое соединение с их мозгом. На самом деле это не нужно – достаточно коммуницировать через язык: разговаривать или общаться через соцсети. И анонимность собеседника не является барьером для восприятия информации. 

Так, серия публикаций на анонимном веб-форуме оставшегося неизвестным «сотрудника правительства США с высшим уровнем допуска к государственной тайне (Q)» стала одним из источников политического движения QAnon. Последователи охватившей миллионы человек теории заговора убеждены, что Соединенными Штатами (или даже всем миром) правит тайная и могущественная клика сатанистов-педофилов, включающая в себя лидеров Демократической партии, бизнесменов, голливудских актеров, королевские семьи и других знаменитостей. И это не безобидная группа маргиналов, верящих, что Земля плоская. Высказывали поддержку QAnon и повторяли лозунги движения Марджори Тейлор Грин, избранная в 2021 г. членом палаты представителей США, и создатель игры Minecraft шведский программист и миллиардер Маркус Перссон. Поддерживающее Дональда Трампа движение оказало влияние на итоги президентских выборов, его представители участвовали в попытке захвата Капитолия.

Анонимные посты писал человек, но уже сейчас не всегда можно понять, автор – живое существо или чат-бот. Да и понимание того, что общаешься с машиной, не сказывается на доверии. Проще не искать самостоятельно ответ на вопрос в сети, а спросить «Алису» или более юную и несколько глуповатую девочку «Джой». В доме появится «оракул», готовый пообщаться и ответить на все большее количество вопросов, во многом формирующий взгляды человека на то, как устроен мир и что ему нужно купить.

«Люди на самом деле никогда не имеют прямого доступа к реальности. Мы всегда находимся в «коконе» культуры и воспринимаем реальность через культурную тюрьму. Наши политические взгляды формируются под влиянием рассказов журналистов и анекдотов друзей, наши сексуальные предпочтения определяются фильмами и сказками. Даже то, как мы ходим и дышим, определяется культурными традициями. Раньше этот культурный кокон был соткан другими людьми. Прежние инструменты, такие как печатные станки, радио и телевидение, помогали распространять культурные идеи и творения людей, но сами никогда не могли создать что-либо новое. Искусственный интеллект принципиально отличается от печатных станков, радиоприемников и всех предыдущих изобретений в истории тем, что может генерировать совершенно новые идеи, новую культуру. Главный вопрос заключается в том, каково это – воспринимать реальность через призму, созданную нечеловеческим интеллектом», – добавляет Ю. Харари.

На протяжении тысячелетий люди в основном жили в мечтах и фантазиях других – поклонялись богам, стремились к идеалам красоты, посвящали свою жизнь делу, возникшему в воображении пророка, поэта или политика. Скоро мы можем обнаружить, что живем в мечтах и фантазиях искусственного интеллекта. ИИ сможет выступать в роли творца, который, согласно индийской философии, создает для человека мир иллюзий – Майя. Из-за своей веры в ту или иную иллюзию люди способны вести войны, убивая других и сами стремясь к смерти. Управляя иллюзиями, как опасается футуролог, ИИ сможет поработить человечество, поставить его под свой контроль. «Скайнету» из фильмов о терминаторе не придется посылать роботов-убийц, достаточно будет заставить человека нажать на спусковой крючок.

Машина-убийца

В появление нечеловеческого разума на базе компьютерных технологий верится слабо. Машина может отлично имитировать разум, играть в шахматы, просчитывать и принимать решения лучше человека, но у нее нет главного – самостоятельного определения целей. ИИ может совершенствоваться без участия человека, но целевую функцию задает человек.

Тем не менее проблема все равно есть – человек не всегда может просчитать последствия и делает ошибки. Кроме того, ИИ можно использовать в преступных целях. Уже сейчас трудно устоять против атак с использованием социальной инженерии. Так насколько же сложнее будет не повестить на обман и не перечислить деньги, когда на другом конце провода окажется все знающий о тебе искусственный интеллект. 

Для ИИ нужен свой культурный кокон, предохранитель от умышленного или случайного, возникшего в результате саморазвития недопустимого поведения. Мир «Скайнета» становится ближе. Уже не выглядят фантастикой терминаторы. Автономно летающие и самостоятельно принимающие решение об убийстве дроны – уже почти реальность. Если бы в «Скайнет» не заложили программу выжить любой ценой, в том числе за счет уничтожения человечества, то до войны с роботами дело бы не дошло. Нужны правила, в том числе на законодательном уровне, которые помогут поставить разработки ИИ под контроль. Нужна этические ограничения для ИИ, позволяющие вписать саморазвивающуюся технологию в человеческое общество.

Законы робототехники Азимова не помогут. Какой уж тут Первый закон: «Робот не может причинить вред человеку», когда новейшие достижения науки используются прежде всего военными. Наиболее уязвимое место для контролируемого человеком автономного устройства – канал связи с оператором – может быть подавлен средствами радиоэлектронной борьбы. Поэтому автономность в принятии решений является важным военным преимуществом. Но и без «предохранителей» не обойтись.

В июне 2023 г. британская газета The Guardian сообщила, что во время имитационных испытаний, проводившихся армией США, беспилотник под управлением искусственного интеллекта принял решение убить оператора, чтобы тот не мешал выполнению миссии – уничтожению системы ПВО противника (оператор приказал беспилотнику не уничтожать цель, а это привело бы к снятию премиальных очков с ИИ). После инцидента ИИ дообучили, что убивать оператора неправильно и за такие действия будут сниматься очки. Тогда ИИ выбрал новый путь – начал разрушать башню связи, запрещающую уничтожить цель. Вот наглядный пример важности вопросов этики для ИИ.
ИИ как инструмент
В феврале 2023 г. в московском аэропорту Домодедово был задержан житель Ярославля Александр Цветков. Искусственный интеллект посчитал, что его лицо на 55% совпадает с фотороботом преступника, который был составлен 20 лет назад. Задержанного отправили в СИЗО по подозрению в убийстве четырех человек с особой жестокостью. Другой, уже осужденный, участник преступления для сокращения своего срока пошел на сделку со следствием и подтвердил обвинение. В итоге несмотря на наличие алиби – документированной командировки – и отсутствие улик, А. Цветков провел в заключении более десяти месяцев.

Ошибки ИИ больно бьют по людям. Причем не только в переносном смысле – в 2021 г. из-за ошибки системы распознавания лиц кандидат наук, режиссер Федор Ермошин был жестко задержан, зафиксировал побои и обратился с заявлением в прокуратуру. Накануне система распознавания с вероятностью 70% определила в Ф. Ермошине вора-преступника, после чего его схватили возле подъезда собственного дома в подмосковном Одинцове.

Используемые на дорогах специальные технические средства измерения сертифицированы и имеют действующее свидетельство о метрологической поверке. Их применение строго регламентировано. Аналогичную практику стоит распространить и на ИИ. Разработать не только этические нормы, но и законы, сертификацию, инструкции по применению. По крайней мере не класть человека лицом на асфальт при совпадении на 55% с портретом преступника. 

Регулирование ИИ

Регулирование новых технологий – процесс сложный, начинающийся, как правило, с саморегулирования отрасли. В 2021 г. в Москве на I международном форуме по ИИ был подписан Кодекс этики искусственного интеллекта. В нем сформулированы риски и угрозы – дискриминация, потеря приватности, потеря контроля над ИИ, причинение вреда человеку ошибками алгоритма, применение в неприемлемых целях. В ответ на риски кодекс утвердил основные принципы внедрения ИИ – прозрачность, правдивость, ответственность, надежность, инклюзивность, беспристрастность, безопасность и конфиденциальность. К кодексу присоединились ведущие российские компании по разработке ИИ, в том числе «Яндекс», Сбер, «Вконтакте». В дальнейшем число подписавших кодекс организаций превысило три сотни. Этический кодекс работает: от нейросети Сбера Kandinsky я так и не смог получить для этой статьи адекватную картинку по запросу «робот убивает людей».

Законодатели развитых стран уже высказались о необходимости либо приступили к подготовке законов в отношении ИИ. Например, в США, штатах Калифорния и Техас введен запрет на использование дипфейков для влияния на ход выборов, а в Джорджии, Калифорнии и Вирджинии – для создания порнографических материалов. В 2022 г. в Китае появилось специальное регулирование сгенерированного с помощью ИИ контента, в частности была введена обязанность его маркировки.

В России активно идет работа над Цифровым кодексом – отдельным сводом законов, норм и правил, которые будут регулировать процессы  использования информационно-коммуникационных технологий, в том числе искусственный интеллект. Проект его концепции уже подготовили в Минцифры. В кодексе планируют определить ответственность разработчиков ИИ, разработать классификацию умных цифровых систем на опасные и безопасные, ввести маркировку контента, сгенерированного нейросетями.

В декабре 2023 г. Европарламент и Совет ЕС предварительно согласовали основные положения готовящегося к принятию закона AI Act  об искусственном интеллекте. Документ вводит специальные правила для ИИ-моделей общего назначения (General Purpose AI Models). Для каждой высокопроизводительной модели, которая несет системный риск, предусматриваются дополнительные юридические обязательства, относящиеся к сфере управления рисками и мониторинга значимых инцидентов. Самые опасные разработки, представляющие угрозу для людей, планируют на территории ЕС запретить. Так, европейские законодатели наложили табу на использование ИИ для «когнитивно-поведенческого манипулирования людьми или отдельными уязвимыми группами», например, игрушек с голосовым помощником, «поощряющих опасное поведение детей», ведь ИИ особенно опасен для малышей с еще не сформировавшимся культурным коконом.

Пока в мире использование ИИ регулируется только точечно, в приложении к частным задачам, и AI Act можно рассматривать как первую попытку комплексного регулирования ИИ на основании риск-ориентированного подхода и вне зависимости от способа применения. По сообщениям представителей Минцифры, полноценный закон об искусственном интеллекте разрабатывается и в России.

Проблем много: не определены базовые понятия технологии, статус нейросетей в правовых отношениях, сложно решить вопросы защиты интеллектуальной собственности и персональных данных. Регулирование традиционно отстает от технического прогресса. В большинстве случаев это нормально – ограничения замедляют развитие. Но в случае ИИ отставание опасно – ставки слишком высоки.
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!