Секта ИИ

Такой заголовок подсказал девиз Агентства Искусственного интеллекта, поставленный на их сайте, похожий на призыв-обещание какого-нибудь новоявленного движения с задатками религиозной секты: «МЫ строим сияющий мир для всех!»(2018г.). Разумеется, соблазн узнать, что же обещается в этом «сияющем» мире для пока еще традиционного, генно-неотредактированного и неотчипированного «ИИ» homo sapiens оказался непреодолим. Тем более что совсем недавно, 26 ноября 2021 года 193 государства-члена ЮНЕСКО подписали документ, где определяются общие принципы и ценности, необходимые для обеспечения безопасного развития и использования искусственного интеллекта. И как-то не просматриваются в этом серьезном тексте перспективы «сияющего мира для всех»…
Наоборот, ЮНЕСКО предупреждает, что использование этой технологии может иметь непредсказуемые последствия. Среди основных вопросов, которые обсуждались, один из самых актуальных — право на конфиденциальность.
Вот что, в частности, говорится в заявлении ЮНЕСКО: «Мы наблюдаем… проявления нарушения неприкосновенности частной жизни и свобод, опасность массовой слежки и злоупотребление технологией искусственного интеллекта правоохранительными органами. Вплоть до недавнего времени не существовало универсальных стандартов, способных ограничить подобные злоупотребления». Поэтому соглашение между государствами является документом, «направленным на создание правовой инфраструктуры для обеспечения этического развития технологии искусственного интеллекта».
Несомненно, в этом имеющем общечеловеческое значение документе ключевое понятие даже не «безопасность», а акцент на» «этической» составляющей в развитии и использовании технологии ИИ, на создании для этого «правовой инфраструктуры».
Разумеется, нелепо было бы отрицать значение ИИ для многих отраслей науки и производственной практики. Однако, признаться, во множестве материалов, помещенных в сегменте российской сети, касающихся ИИ, в высказываниях разработчиков этой технологии рассуждения об этике в связи с предлагаемым ими «продуктом» практически отсутствуют. Видимо, в упоении от перспектив «сияющего» нового мира с ИИ, которому якобы будет под силу «улучшить», «продвинуть» «углубить» потенциалы несовершенного человеческого разума, не говоря о физических возможностях человека, этическая, гуманная сторона результатов научного поиска в данной сфере остается где-то далеко за кадром. И что самое удручающее — не слышно авторитетных дискуссий на эту тему в обществе, хотя эти технологии у нас уже активно используются государством и бизнесом. И с этической точки зрения здесь многое вызывает сомнения.

Речь, например, о системе «умных» камер, которые начали активно внедрять в Москве с 2017 года, а с 1 июля 2020 года столица оказалась пилотной площадкой эксперимента по использованию ИИ. Пишут, что эта система «самообучаемая», однако пока нет убедительных данных о проценте ошибок, которые она выдает. Тем не менее МВД представило проект по внедрению ИИ для выявления связи между преступлениями и поиском нарушителей закона, на который обещали выделить 55 млрд рублей из федерального бюджета. По сообщениям прессы, московская мэрия заказала сотни мощных серверов для системы распознавания лиц, которая должна анализировать данные 175 тысяч городских видеокамер, входящих в цифровую сеть по отслеживанию граждан, предполагается, что их будет более 200 тысяч. Скажут, о чем можно спорить, если необходимо выследить и поймать преступников? Но ведь под такую тотальную «слежку» попадают и дробропорядочные граждане, есть ли гарантии, что данная технология будет служить только закону и сама не станет инструментом беззакония?
Важный момент: после задержаний силовиками участников протестных акций в столице в 20 году с помощью системы «распознавания лиц» представитель одной из компаний — VisionLabs — отказался давать комментарий журналистам, сказав, что их эксперты «не любят комментировать такие темы».

«Мы делаем технологии, а другое дело — как их используют, и мы не готовы комментировать то, что происходит сейчас, — пояснил он. (https://news.ru/investigations/kamera-smotrit-v-mir-grozit-li-raspoznanie-lic-ohotoj-na-nesoglasnyh/). Заметим, Совет Европы выпустил рекомендации по использованию системы распознавания лиц, порекомендовав всем государствам не столь интенсивно внедрять эти технологии в правоохранительных и миграционных целях. А Еврокомиссия выразила желание на пять лет ограничить подобные системы, пока не будут оценены все их возможные опасности. У нас о таких подходах не слышно.
Итак, «мы делаем», рапортуют разработчики ИИ, а как это используют – не комментируем. Кто же должен поднять вопрос, четко выраженный в документе ЮНЕСКО насчет этического аспекта применения технологий ИИ, создания «правовой инфраструктуры» и «универсальных стандартов», предотвращающих злоупотребления? Очевидно, те же депутаты ГД, тем более что в России есть специалисты по цифровому праву, общественные организации, озабоченные этой серьезной проблемой. В частности, как предполагает исполнительный директор Общества защиты Интернета Михаил Климарёв, система слежки за гражданами посредством ИИ «может стать источником злоупотреблений силовиков». Пока же в повестке дня нашей новоизбранной Думы подобных инициатив не заметно. А кому, как не России с ее великой гуманистической культурной традицией подобные проблемы поднимать?

Между тем, как сообщалось в СМИ, шесть (!) исследовательских центров по искусственному интеллекту получат федеральные гранты порядка 1 млрд рублей каждый в рамках национальной программы «Цифровая экономика Российской Федерации». Отбор получателей из 36 заявок уже завершила рабочая группа под председательством заместителя председателя правительства Дмитрия Чернышенко. Общая сумма выделенных средств с учётом внебюджетного финансирования — 7 млрд рублей. В числе победителей: Сколковский институт науки и технологий, МФТИ, Институт системного программирования им. В.П. Иванникова, Университет «Иннополис», ИТМО, ВШЭ. Наиболее востребованными направлениями развития искусственного интеллекта, по которым поступили заявки, стали межотраслевые технологии для различных отраслей экономики, для оптимизации управленческих решений, для медицины и промышленности. Однако, кроме этого, правительство заинтересовалось возможностями использования искусственного интеллекта для анализа психологического состояния россиян по их аккаунтам в социальных сетях.
Согласно информации ТАСС от 29 ноября, Институт системного программирования им. В. П. Иванникова Российской академии наук (ИСП РАН) объявил тендер стоимостью 36 млн рублей на проведение исследования в области применения искусственного интеллекта для анализа психологического портрета россиян на основе данных из соцсетей. Об этом говорится в документе, размещенном на портале госзакупок 23 ноября, на что обратила внимание газета «Коммерсант».
Согласно этому документу, в качестве предмета закупки заявлено проведение научно-исследовательских работ по теме: «Приложение методов доверенного и объяснимого искусственного интеллекта к технологиям психологической диагностики личности по данным социальных сетей».
В заявке поясняется: «В настоящее время приобретает все большее распространение разработка технологий, использующих цифровые следы для диагностики свойств и состояний личности. Для разработки и дальнейшего применения подобных технологий критически важным является использование принципов доверенного искусственного интеллекта. <…> К одному из источников данных относятся социальные сети, накапливающие обширные материалы относительно интересов, увлечений, записей пользователя, фиксирующих показатели его поведенческой активности. Использование цифровых следов открывает широкие возможности по оценке личности и прогнозированию ее поведения без осуществления психологического тестирования, требующего, как правило, добровольного согласия тестируемого».
Результаты конкурсного отбора будут подведены 29 ноября. Генеральным заказчиком является Аналитический центр (АЦ) при правительстве. Окончание срока выполнения работ намечено на сентябрь 2024 года.
Во-первых, требует пояснения, что такое доверенный искусственный интеллект с его принципами? Во-вторых, мало того, что любой из нас при определенной наводке контролируем с внешней стороны в «системе распознавания лиц». Так теперь по постам, комментам и блогам в Интернете некий анонимный «большой брат» будет оценивать нашу личность, прогнозировать поведение и выдавать свое заключение? Причем, что особенно настораживает своим цинизмом – без «добровольного согласия тестируемого»!
Кто поручится за точность и адекватность подобных «профайлов», которые, видно, собираются, в частности, использовать и при приеме на работу, и для рекомендаций по профессиональному росту или «неросту»… В заключениях о «лояльности» или «нелояльности к тем или иным персонам…
Откуда такая уверенность, кто внушил, что в алгоритмы ИИ можно вместить всю сложность человеческой натуры, подверженной разным настроениям и влияниям, способной к рефлексии, к внутренним интеллектуальным и психологическим переменам? Кто будет, наконец, верифицировать результаты «диагностики» ИИ «психологического портрета россиян» по аккаунтам в соцсетям? Подход госорганов, заказавших такое исследование и отпустивших на него немалые средства из бюджета, напоминает подход пушкинского Сальери к творчеству: «музыку я разъял, как труп», «поверил алгеброй гармонией»…. Но пока человек не труп, а живое и мыслящее творение, пусть даже падшее, не слишком умное или развитое, его как пазл из готовых, стандартных дефиниций спецов не соберешь…
Хотя, как пишут СМИ, вот уже «Сбер» совместно с коллекторским агентством «АктивБизнесКонсалт» разработал систему распознавания эмоций по голосу для общения коллекторов с должниками. А «Ростех», как об этом сообщает «Коммерсант», занят разработкой специального программного обеспечения, которое поможет федеральным и региональным властям предсказывать и предотвращать массовые беспорядки. Специальное ПО будет изучать сообщения в СМИ, посты в соцсетях и данные с «умных» камер.
Естественно, в «сияющем мире для всех» не должно быть экстремизма, массовых беспорядков, преступности, должников… Вот только с того ли конца собираются наше государство и бизнес бороться с этими негативными социальными явлениями? Может быть, эффективнее было бы посмотреть в корень российских проблем, сформировавшихся за годы бесконечных и разрушительных реформ, за что никто не понес ответственности; за самодовольство власти; за рост цен и диспаритет зарплат и пенсий, которых, в большинстве своем, едва хватает, чтобы элементарно выжить…
Искусственный интеллект – не панацея от наших бед и проблем, что кому-то, похоже, кажется. Но и не спасательный круг…
Людмила Лаврова