На XIII Московском инновационном юридическом форуме обсудили поиск баланса интересов при регулировании и использовании искусственного интеллекта

14 мая 2026

14 мая 2026 года в рамках XIII Московского инновационного юридического форума состоялась работа стратегической сессии «ИИ и право: сложный тандем». В настоящее время технологии искусственного интеллекта кардинально меняют общественные отношения и создают новые вызовы. Быстрое развитие данного явления требует надлежащего правового регулирования. В ряде стран уже приняты специальные законы в этой сфере, в России также ведется активная работа в этом направлении. В рамках стратегической сессии эксперты обсудили баланс в регулировании: как гарантировать защиту прав человека, сохранить государственный суверенитет, не допустить полной замены человека при использовании искусственного интеллекта, а также какие перспективы и риски несут цифровые технологии.

В качестве модератора сессии выступили партнер юридической фирмы Firm. One, профессор кафедры информационного права и цифровых технологий Университета имени О.Е. Кутафина (МГЮА) Виктор Наумов и заведующий кафедрой информационного права и цифровых технологий Университета имени О.Е. Кутафина (МГЮА) Алексей Минбалеев.

Алексей Минбалеев отметил, что сегодня все более актуальным становится вопрос проникновения современных технологий в профессиональную деятельность, включая юридическую сферу. По его словам, внедрение искусственного интеллекта в профессию юриста уже активно происходит и сопровождается множеством дискуссионных вопросов и практических проблем. Особое внимание он уделил определению границ этого процесса. Спикер отметил, что именно эти аспекты – соотношение возможностей и рисков применения ИИ в юридической профессии – планируется внимательно проработать на площадке.

Виктор Наумов обозначил тематику сессии и перечислил круг вопросов для обсуждения: возможен ли тандем ИИ и права, как определить проникновение одного и другого, должно ли право должно подстраиваться под ИИ и как ИИ должен реагировать на право, как обеспечить права граждан, общества, государства при использовании ИИ, какой должна быть терминология и принципы регулирования в этой сфере.

Первый заместитель председателя Комитета Совета Федерации по конституционному законодательству и государственному строительству Артем Шейкин рассказал, какие аспекты использования ИИ нужно урегулировать.

«Нельзя тормозить развитие технологий, однако при этом важно не допустить ситуации, при которой скорость их развития будет давить на гарантии прав человека. Необходимо сформировать базовую архитектуру регулирования, включающую принципы, понятие и вопросы ответственности, а также выработать правильные ориентиры, основанные на верховенстве прав человека. В центре регулирования должны быть не только технологии, но и человек», – поделился мнением Артем Шейкин.

Отдельно Артем Шейкин отметил важность права на уведомление о применении искусственного интеллекта. Спикер подчеркнул, что речь должна идти не только об информировании о том, что используется ИИ, а о реальных правовых гарантиях: право на обращение к человеку и право на пересмотр решения, принятого с участием или посредством искусственного интеллекта. Также он отметил необходимость установления специальных требований к применению искусственного интеллекта в государственном управлении и в чувствительных сферах, где затрагиваются права и свободы граждан, особенно при принятии автономных юридически значимых решений.

Депутат, заместитель председателя Комитета по экономической реформе и региональному развитию Мажилиса Парламента Республики Казахстан Екатерина Смышляева рассказала об опыте регулирования искусственного интеллекта в Казахстане и ключевых подходах, закрепленных в национальном законодательстве: «Казахстан одним из первых в мире принял комплексный закон об искусственном интеллекте, который уже вступил в силу и проходит этап правоприменительной практики, позволяя выявлять как преимущества, так и недостатки выбранной модели регулирования. При разработке закона Казахстан столкнулся с проблемами, характерными для многих стран: отсутствием устоявшейся практики и готовых решений. В настоящее время весь мир ищет баланс между регулированием и развитием».

Екатерина Смышляева рассказала о подходах к ограничению отдельных практик использования искусственного интеллекта. Так, в Казахстане закреплены запреты на технологии, связанные с манипуляцией, дискриминацией и использованием персональных данных без согласия субъекта. Значительное внимание в выступлении было уделено вопросам авторского права. В Казахстане закреплен подход, согласно которому объектами авторского права признаются только произведения, созданные человеком, тогда как результаты, созданные искусственным интеллектом без творческого участия человека, авторскими не признаются. При этом предусмотрена возможность использования машиночитаемых меток, позволяющих правообладателю ограничивать использование своих материалов для обучения моделей ИИ. Также спикер подчеркнула, что весь синтетический контент должен маркироваться, причем маркировка должна быть как машиночитаемой, так и визуально доступной пользователю.

В завершении своего выступления Екатерина Смышляева пояснила, что искусственный интеллект в законодательстве рассматривается не как объект или субъект регулирования, а как способность имитировать когнитивные функции человека. При этом в Цифровом кодексе Казахстана уже закреплены базовые права человека при взаимодействии с алгоритмическими системами, включая право на прозрачность, объяснимость и оспаривание решений с участием человека.

Президент АО «Крибрум», член Совета при Президенте Российской Федерации по развитию гражданского общества и правам человека Игорь Ашманов посвятил свое выступление вопросам регулирования искусственного интеллекта и доверия к цифровым технологиям. Он рассказал, что при Комитете Совета Федерации по конституционному законодательству и государственному строительству была создана рабочая группа по подготовке законопроекта об искусственном интеллекте.

«У человека должно сохраняться право на отказ от взаимодействия с системой искусственного интеллекта, возможность обратиться к человеку для перепроверки, а также получить объяснение и оспорить решение в социально и юридически значимых ситуациях», – подчеркнул Игорь Ашманов.

Также спикер обратил внимание на уже реализующиеся риски, среди которых утечки конфиденциальной информации при использовании зарубежных систем ИИ, а также массовое применение искусственного интеллекта в образовательной среде. В завершение Игорь Ашманов отметил, что в критически значимых сферах искусственный интеллект должен быть доверенным, то есть разрабатываться на нашей территории и проходить проверку уполномоченными органами.

Руководитель цифровой трансформации адвокатуры России, вице-президент Гильдии российских адвокатов Елена Авакян посвятила выступление вопросам внедрения искусственного интеллекта в адвокатскую деятельность, а также связанным с этим рискам и профессиональным вызовам. Спикер отметила, что в юридическом сообществе пока отсутствует четкое понимание в вопросах регулирования и применения искусственного интеллекта. По ее словам, существующий подход к разработке законодательства нередко сталкивается с противоречием интересов различных сторон, при том что закон создается для общества, которое уже активно использует ИИ. Елена Авакян рассказала, что в рамках Федеральной палаты адвокатов создана рабочая группа по этике искусственного интеллекта в адвокатской деятельности, занимающаяся выработкой этических норм и правил его применения.

«Использование ИИ в правосудии возможно только при определенных условиях. Такие системы должны быть закрытыми, обучаться на понятных и проверяемых данных, а в их разработке должны участвовать не только судьи, но и адвокаты, ученые и профессиональное сообщество. При применении ИИ помощниками судей важно учитывать, что цифровые технологии способны помочь в анализе информации, однако не могут заменить профессиональное развитие специалистов», – обратила внимание Елена Авакян на применение технологий искусственного интеллекта в правосудии.

Руководитель налоговой практики ЮК «ЭБР» Игорь Грибков обсудил использование искусственного интеллекта в юридической деятельности и необходимость его правового регулирования: «Искусственный интеллект фактически используется всеми в профессиональной деятельности, и его запрет не имеет практического смысла. Однако наш интеллект не стал искусственным, а потому ключевые решения должны оставаться за человеком».

Особое внимание Игорь Грибков уделил вопросу принятия судебных решений, затрагивающих права и свободы человека и гражданина. По его словам, искусственный интеллект способен значительно быстрее выполнять техническую и аналитическую работу, однако ответственность должна сохраняться за лицом, принимающим и подписывающим решение. Игорь Грибков подчеркнул, что регулирование должно поспевать за жизнью.

«Необходимо законодательно определить категории судебных споров и сфер применения, которые можно передавать искусственному интеллекту, а также установить перечень юридически значимых действий, где его использование недопустимо. Правовое регулирование должно быть комплексным и включать набор гарантий для защиты прав и свобод человека и гражданина», – заключил Игорь Грибков.

Советник руководителя Департамента информационных технологий города Москвы Евгений Дук рассказал о международной практике внедрения искусственного интеллекта в судебную систему, в том числе при формировании заявлений и обработке больших массивов данных.

«При использовании ИИ решение всегда должно оставаться за человеком, независимо от уровня автоматизации процессов. Регулирование не должно ограничиваться только федеральным законом, а должно учитывать и другие нормативные акты, включая государственные программы и положения Гражданского кодекса Российской Федерации. В данной сфере необходимо действовать аккуратно и поэтапно», – подчеркнул Евгений Дук.

Руководитель НОЦ «Центр правовых исследований искусственного интеллекта и цифровой экономики», профессор МГУ Юлия Харитонова посвятила выступление вопросам риск-ориентированного регулирования искусственного интеллекта и ответственности за его применение. Спикер указала, что в практике уже существуют обучающие форматы с использованием ИИ под руководством преподавателя, однако это не снимает вопроса ответственности за возможный ущерб при применении технологий.

«В качестве эталона в регулировании выступает европейский закон, который ориентируется на распределение ИИ по определенным секторам. В России также присутствует нормативное закрепление системы рисков в финансовой, пожарной сфере, контрольно-надзорной сферах. Необходимы четкие правовые механизмы ответственности, расчета и учета ущерба и санкций, поскольку одних этических норм для регулирования ИИ недостаточно», – сообщила Юлия Харитонова.

Организаторами XIII Московского инновационного юридического форума выступают Московский государственный юридический университет имени О.Е. Кутафина (МГЮА) и Правительство Москвы при поддержке Ассоциации юристов России.

Контакты

По всем возникающим вопросам вы можете обращаться в соответствующие дирекции

Почта и телефон горячей линии Форума
Руководитель Дирекции

Мажорина Мария Викторовна

Руководитель Программы развития, проректор по стратегическому и международному развитию, доцент кафедры международного частного права Университета имени О.Е. Кутафина (МГЮА), кандидат юридических наук, доцент

По вопросам деловой программы

Никитина Алёна Алексеевна

Директор Центра управления изменениями Университета имени О.Е. Кутафина (МГЮА)

По вопросам партнерского участия

Бендицкая Ольга Игоревна

Начальник отдела развития партнерских программ Центра управления изменениями Университета имени О.Е. Кутафина (МГЮА), кандидат юридических наук

Дирекция по работе с участниками

Эпоев Юрий Анатольевич

Начальник Отдела научных мероприятий и молодежной научной деятельности НИИ Университета имени О.Е. Кутафина (МГЮА)

Дирекция по работе со СМИ

Бедненко Семен Павлович

Директор Пресс-службы Университета имени О.Е. Кутафина (МГЮА)