• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

«ИИ — это хороший вспомогательный инструмент, не более того»

Право и ИИ

Стремительная интеграция искусственного интеллекта в академическую среду трансформирует исследовательские и образовательные практики. ИИ выступает катализатором продуктивности, беря на себя задачи от анализа больших данных и литературного обзора до генерации первичных гипотез и редактирования текстов. Однако эта технологическая революция порождает комплекс этических, юридических и эпистемологических дилемм, ставящих под вопрос фундаментальные ценности академического сообщества. В фокусе дискуссии оказываются проблемы академической честности (стирание грани между ассистированием и плагиатом), авторства (правовой статус контента, созданного при помощи ИИ) и профессиональной ответственности за ошибки и недостоверные данные. Ключевым становится понимание того, на каких этических принципах должно строиться взаимодействие исследователя с ИИ для сохранения интеллектуальной автономии, как правовые системы должны адаптироваться для регулирования вопросов интеллектуальной собственности.

На вопросы Schola отвечает Екатерина Евгеньевна Кирсанова, доцент департамента права цифровых технологий и биоправа факультета права НИУ ВШЭ. Екатерина Евгеньевна — практикующий юрист и бизнес-медиатор с опытом в области корпоративного управления, юридического сопровождения бизнеса и менеджмента. Она занимается вопросами внедрения искусственного интеллекта в корпоративную практику и сопровождением процессов цифровой трансформации компаний, а также преподает курсы по правовому регулированию ИИ.

 

— Что побудило вас заняться вопросами правового и этического регулирования ИИ?

— Когда я начинала заниматься этими вопросами, открытые системы искусственного интеллекта только развивались, и речи об их применении, например в праве, еще не шло. Тем не менее многие исследователи предполагали, что это вопрос ближайшего будущего, а сама тема весьма перспективна. Я оказалась в числе таких исследователей, во многом благодаря моему научному руководителю — Виктору Алексеевичу Вайпану. Именно он порекомендовал мне обратить внимание на цифровую сферу в целом, сам он занимается в том числе вопросами цифровой экономики. Изучение специфики этого направления я начала еще в университете, на кафедре предпринимательского права. Блоку виртуальных активов, исключительных прав и т.д. уделялось особое внимание. Затем была защита диссертации по теме оборота прав в цифровой экономике, я увлеклась изменением концепции владения в современном праве в целом, исследованием цифровых активов (в том числе финансовых), и логичным развитием стало также применение систем ИИ. Огромное вдохновение мне дал курс по интеллектуальной собственности в Оксфорде, поскольку довелось пообщаться с коллегами из разных стран и обсудить видение интеллектуальной собственности в целом. Результатом стала совместная книга о влиянии интеллектуальной собственности на политику и наоборот.

Изначально это был именно исследовательский интерес, который в дальнейшем перерос в профессиональный: я довольно активно применяю системы ИИ в работе, помогаю их внедрять компаниям и обучаю этому как юристов, так и предпринимателей.

Екатерина Кирсанова
Екатерина Кирсанова

— Как, с вашей точки зрения, внедрение ИИ меняет корпоративную практику и академическую среду?

— Во многом это зависит от пользователей. Не стоит забывать, что ИИ — это хороший вспомогательный инструмент, не более того. И то, как он будет использоваться, зависит именно от человека. Однако не могу не отметить некую тенденцию к деградации, особенно у подростков: иногда приходится объяснять студентам или даже молодым специалистам, что ИИ не должен заменять навыки собственного мышления. Во-первых, системы пока несовершенны и зачастую дают ошибочные результаты. Во-вторых, использование ИИ для развития и улучшения качества своей работы — это одна история, а вот подмена собственного труда сгенерированными результатами — явно не лучший вариант использования такого инструмента. Системы антиплагиата выявляют определенный процент сгенерированного контента, существуют также специальные программы-детекторы. Ну и, конечно, определенная насмотренность тут тоже помогает: вы сами наверняка замечаете, что некоторые посты в соцсетях, например, явно написаны не человеком, о чем свидетельствуют особенности синтаксиса и стиля в целом. Не зря же мы говорим об авторском стиле — уникальном характере, который автор придает своему тексту. Так вот некую бездушность в текстах ИИ почувствовать весьма несложно.

— Какие этические принципы должны лежать в основе взаимодействия исследователя с ИИ-инструментами?

— Принцип всегда один: не выдавайте за свой труд чужую работу, пусть даже ее выполнил робот. Относитесь к ИИ как к помощнику, который работает с вами первый день: тщательно формируйте промпт, выверяйте итоговый результат. И конечно, не забывайте, что работа — это отражение вас как профессионала. Вы бы доверили молодому специалисту в первый же день выполнить задание, по которому вас будут оценивать в профессиональном сообществе? Вряд ли, это ведь в том числе формирование вашей репутации. А в случае с бизнесом это еще и конкретные финансовые риски. ИИ не несет ответственности за то, что вы можете понести убытки.

— Формируется ли сегодня в России или международном праве нормативная база, регулирующая использование ИИ?

— Разумеется. Начиная с вопросов авторства и заканчивая информированием об использовании ИИ при создании того или иного продукта.

— Кому принадлежат авторские права на текст или данные, созданные с помощью ИИ?

— Вопрос не такой простой, как может показаться. Нормативистский подход говорит нам о том, что автором может быть только человек, а правообладателем — только субъект права. И поскольку ИИ не является ни тем ни другим, охраняемого права в случае создания произведения таким образом не возникает. То есть авторского права нет. Думаю, что такой категоричный подход все же не отвечает интересам рынка, и нам нужно смотреть в сторону творческого вклада, доработки произведения человеком и т.д. Но пока таких механизмов нет.

— Кто несет ответственность, если ИИ допускает ошибки, влияющие на результат исследования или иной работы?

— Безусловно, исследователь или работник.

— Используете ли вы ИИ-инструменты в своей преподавательской, исследовательской и экспертной деятельности?

— Использую, причем весьма активно. Создаю картинки для иллюстрации примеров/презентаций; генерирую тексты с ошибками, чтобы студенты их находили; делаю подбор литературы и судебной практики для своих исследований. И поскольку я в целом обучаю работе с ИИ, показываю на примерах, как это делать.

— Какие правила вы бы порекомендовали соблюдать исследователям для этичного и безопасного использования ИИ?

— Понимать, что вся ответственность на вас, что ваша репутация требует постоянной работы над собой. В то же время не демонизировать ИИ, учиться с ним работать и определять для себя пределы комфортного использования. Ну и быть предельно честным — например, указывать в исследовании, что вы используете ИИ, в каком объеме и т.д.

 

Канал Екатерины Кирсановой в telegram: https://t.me/kirsanova_law

18 декабря, 2025 г.