Стремительная интеграция искусственного интеллекта в академическую среду трансформирует исследовательские и образовательные практики. ИИ выступает катализатором продуктивности, беря на себя задачи от анализа больших данных и литературного обзора до генерации первичных гипотез и редактирования текстов. Однако эта технологическая революция порождает комплекс этических, юридических и эпистемологических дилемм, ставящих под вопрос фундаментальные ценности академического сообщества. В фокусе дискуссии оказываются проблемы академической честности (стирание грани между ассистированием и плагиатом), авторства (правовой статус контента, созданного при помощи ИИ) и профессиональной ответственности за ошибки и недостоверные данные. Ключевым становится понимание того, на каких этических принципах должно строиться взаимодействие исследователя с ИИ для сохранения интеллектуальной автономии, как правовые системы должны адаптироваться для регулирования вопросов интеллектуальной собственности.
На вопросы Schola отвечает Екатерина Евгеньевна Кирсанова, доцент департамента права цифровых технологий и биоправа факультета права НИУ ВШЭ. Екатерина Евгеньевна — практикующий юрист и бизнес-медиатор с опытом в области корпоративного управления, юридического сопровождения бизнеса и менеджмента. Она занимается вопросами внедрения искусственного интеллекта в корпоративную практику и сопровождением процессов цифровой трансформации компаний, а также преподает курсы по правовому регулированию ИИ.
— Что побудило вас заняться вопросами правового и этического регулирования ИИ?
— Когда я начинала заниматься этими вопросами, открытые системы искусственного интеллекта только развивались, и речи об их применении, например в праве, еще не шло. Тем не менее многие исследователи предполагали, что это вопрос ближайшего будущего, а сама тема весьма перспективна. Я оказалась в числе таких исследователей, во многом благодаря моему научному руководителю — Виктору Алексеевичу Вайпану. Именно он порекомендовал мне обратить внимание на цифровую сферу в целом, сам он занимается в том числе вопросами цифровой экономики. Изучение специфики этого направления я начала еще в университете, на кафедре предпринимательского права. Блоку виртуальных активов, исключительных прав и т.д. уделялось особое внимание. Затем была защита диссертации по теме оборота прав в цифровой экономике, я увлеклась изменением концепции владения в современном праве в целом, исследованием цифровых активов (в том числе финансовых), и логичным развитием стало также применение систем ИИ. Огромное вдохновение мне дал курс по интеллектуальной собственности в Оксфорде, поскольку довелось пообщаться с коллегами из разных стран и обсудить видение интеллектуальной собственности в целом. Результатом стала совместная книга о влиянии интеллектуальной собственности на политику и наоборот.
Изначально это был именно исследовательский интерес, который в дальнейшем перерос в профессиональный: я довольно активно применяю системы ИИ в работе, помогаю их внедрять компаниям и обучаю этому как юристов, так и предпринимателей.
— Как, с вашей точки зрения, внедрение ИИ меняет корпоративную практику и академическую среду?
— Во многом это зависит от пользователей. Не стоит забывать, что ИИ — это хороший вспомогательный инструмент, не более того. И то, как он будет использоваться, зависит именно от человека. Однако не могу не отметить некую тенденцию к деградации, особенно у подростков: иногда приходится объяснять студентам или даже молодым специалистам, что ИИ не должен заменять навыки собственного мышления. Во-первых, системы пока несовершенны и зачастую дают ошибочные результаты. Во-вторых, использование ИИ для развития и улучшения качества своей работы — это одна история, а вот подмена собственного труда сгенерированными результатами — явно не лучший вариант использования такого инструмента. Системы антиплагиата выявляют определенный процент сгенерированного контента, существуют также специальные программы-детекторы. Ну и, конечно, определенная насмотренность тут тоже помогает: вы сами наверняка замечаете, что некоторые посты в соцсетях, например, явно написаны не человеком, о чем свидетельствуют особенности синтаксиса и стиля в целом. Не зря же мы говорим об авторском стиле — уникальном характере, который автор придает своему тексту. Так вот некую бездушность в текстах ИИ почувствовать весьма несложно.
— Какие этические принципы должны лежать в основе взаимодействия исследователя с ИИ-инструментами?
— Принцип всегда один: не выдавайте за свой труд чужую работу, пусть даже ее выполнил робот. Относитесь к ИИ как к помощнику, который работает с вами первый день: тщательно формируйте промпт, выверяйте итоговый результат. И конечно, не забывайте, что работа — это отражение вас как профессионала. Вы бы доверили молодому специалисту в первый же день выполнить задание, по которому вас будут оценивать в профессиональном сообществе? Вряд ли, это ведь в том числе формирование вашей репутации. А в случае с бизнесом это еще и конкретные финансовые риски. ИИ не несет ответственности за то, что вы можете понести убытки.
— Формируется ли сегодня в России или международном праве нормативная база, регулирующая использование ИИ?
— Разумеется. Начиная с вопросов авторства и заканчивая информированием об использовании ИИ при создании того или иного продукта.
— Кому принадлежат авторские права на текст или данные, созданные с помощью ИИ?
— Вопрос не такой простой, как может показаться. Нормативистский подход говорит нам о том, что автором может быть только человек, а правообладателем — только субъект права. И поскольку ИИ не является ни тем ни другим, охраняемого права в случае создания произведения таким образом не возникает. То есть авторского права нет. Думаю, что такой категоричный подход все же не отвечает интересам рынка, и нам нужно смотреть в сторону творческого вклада, доработки произведения человеком и т.д. Но пока таких механизмов нет.
— Кто несет ответственность, если ИИ допускает ошибки, влияющие на результат исследования или иной работы?
— Безусловно, исследователь или работник.
— Используете ли вы ИИ-инструменты в своей преподавательской, исследовательской и экспертной деятельности?
— Использую, причем весьма активно. Создаю картинки для иллюстрации примеров/презентаций; генерирую тексты с ошибками, чтобы студенты их находили; делаю подбор литературы и судебной практики для своих исследований. И поскольку я в целом обучаю работе с ИИ, показываю на примерах, как это делать.
— Какие правила вы бы порекомендовали соблюдать исследователям для этичного и безопасного использования ИИ?
— Понимать, что вся ответственность на вас, что ваша репутация требует постоянной работы над собой. В то же время не демонизировать ИИ, учиться с ним работать и определять для себя пределы комфортного использования. Ну и быть предельно честным — например, указывать в исследовании, что вы используете ИИ, в каком объеме и т.д.
Канал Екатерины Кирсановой в telegram: https://t.me/kirsanova_law