Петербургские вузы ужесточили правила использования ИИ студентами

Автор фото: ТАСС
Чтобы получить заветные корочки, многие готовы схитрить

Преподаватели вузов учатся распознавать студенческие работы, написанные при помощи ИИ. Для этого они иногда сами используют нейросети.

В вузах началась приёмная кампания. Каждое новое поколение студентов приносит с собой новые веяния и новые вызовы. Тренд последних лет — массовое использование нейросетей для создания учебных работ (рефератов, курсовых и даже дипломов). Чтобы справиться с этим, преподавателям тоже приходится осваивать технологии искусственного интеллекта (ИИ).

Игра без правил

Как рассказала "ДП" и.о. заведующего кафедрой информационных систем СПбГЭТУ "ЛЭТИ" Евгения Новикова, в прошлом году доля выпускных квалификационных работ, в которых присутствовал сгенерированный текст, составила менее 20%. В этом их уже больше 30%.
Преподаватель кафедры бизнес–информатики Президентской академии в Санкт–Петербурге Святослав Державин подтверждает, что случаи использования генеративных языковых моделей (ГИИ) стали встречаться всё чаще.
"Приведу статистику работ, которые мне довелось проверить системой “Антиплагиат”. Первая работа, содержащая сгенерированный ИИ текст, датирована 4 мая 2023 года. С тех пор более 20% проверенных мной работ содержали те или иные заимствования ГИИ", — говорит он.
Из–за отсутствия общих нормативных документов регулирования решение о том, как контролировать сдачу сгенерированных работ, во многом зависит от политики самого университета. Меры могут быть различны: от простых замечаний до повторной сдачи работы, выговора в личное дело студента или даже отчисления.
В СПбГУ разработаны внутренние строгие правила применения нейросетей.
"Использование ИИ полностью запрещено по направлениям “Психологические науки”, “Сервис и туризм”, “Физическая культура и спорт”, “Искусствознание”. По остальным направлениям применение искусственного интеллекта допустимо при соблюдении ряда условий, направленных на сохранение авторства и научной добросовестности", — объясняет начальник управления образовательных программ СПбГУ Белла Гатаева.
В частности, разрешается использование ИИ как вспомогательного инструмента для автоматизации рутинных задач: поиска информации, обработки данных, создания графиков и библиографии. При этом студент обязан обосновать целесообразность использования ИИ в своей работе, а результаты, полученные с его помощью, должны быть тщательно проверены, проанализированы и переработаны с внесением личного творческого вклада.
В НИУ ВШЭ приняли декларацию этических принципов создания и использования систем ИИ. Академический руководитель программ "Управление продуктом в ИТ–бизнесе", "Электронный бизнес и цифровые инновации" Высшей школы бизнеса НИУ ВШЭ Михаил Комаров считает, что в условиях современного мира нейросети — инструмент, с которым нужно учиться работать, поэтому их использование нельзя запрещать. Рутинные задачи теперь за доли секунды могут решаться с помощью языковой модели, но главная задача — думать — остаётся за студентом, акцентирует он.
В ЛЭТИ нет чёткой системы контроля за использованием ИИ студентами. "Мы можем только попросить их не использовать нейросети. В настоящее время отсутствуют какие–либо нормативные документы, которые регулировали бы применение генеративных языковых моделей в образовательной деятельности: как при проверке студенческих работ, так и при их выполнении. Мы можем только отмечать факт их использования", — говорит Евгения Новикова.

Своими словами

По мнению специалистов Европейского университета в Санкт–Петербурге, сейчас довольно сложно понять, что текст выпускной работы сгенерирован ИИ. Особенно если для этого применялись лучшие существующие модели, а результат генерации отредактирован для придания большей естественности.
"Мы не играем со студентами в кошки–мышки, а переворачиваем ситуацию — можно использовать что угодно, но текст работы должен отвечать высоким университетским требованиям научности, профессиональной подготовки и отсутствия плагиата. А её автор должен продемонстрировать хорошее владение материалом", — говорит директор–организатор Школы вычислительных социальных наук Европейского университета в Санкт–Петербурге Евгений Котельников.
Заведующий кафедрой искусственного интеллекта Финансового университета при правительстве Михаил Коротеев считает, что фокус должен сместиться на поиск новых форматов оценивания — приоритет устного общения преподавателя и студента, синхронные форматы. В живой беседе уровень индивидуальных знаний и понимания очевиден. Можно полностью сгенерировать дипломную работу, но её очень сложно потом защитить.
Сгенерированный текст частично определяется через систему "Антиплагиат", которая давно применяется в большинстве вузов для анализа рефератов, статей, научных квалификационных и выпускных работ, говорит Евгения Новикова. Однако полностью доверять системе нельзя, так как точность выявления сгенерированного текста неизвестна.
Заведующая кафедрой медиакоммуникационных технологий СПбГИКиТ Элина Бердникова среди мер контроля также выделяет анализ текста при вычитке научным руководителем.
"Обычно генеративные языковые модели выдают тексты, обладающие определёнными признаками: стандартизированный синтаксис, чрезмерно гладкий слог, отсутствие индивидуальных особенностей автора и недостаток критичности мысли. Опытные преподаватели способны выявить такие признаки. Кроме того, устные зачёты, экзамены и защита проектов — один из старейших достоверных контрольных методов. Тут уже ИИ в мозг не интегрируешь", — говорит эксперт.

Помощник для эксперта

Впрочем, к использованию нейросетей прибегают и преподаватели для проверки и анализа студенческих работ. Святослав Державин рассказывает, что некоторые используют специализированные ИИ–детекторы, другие — общие модели вроде ChatGPT, чтобы сравнить стиль текста студента с типичными паттернами генерации текста.
Научные руководители могут пользоваться такими инструментами для выявления ошибок повествования, возможно, каких–то логических несоответствий, подтверждает Михаил Комаров.
Евгений Котельников считает, что вполне действенным методом может быть дополнение заключения научного руководителя выводами результатов проверки ИИ. "Все мы люди и можем не заметить какие–то важные вещи, которые не пропустит языковая модель. То есть должен работать принцип не замены экспертной работы, а её адекватного дополнения и в результате повышения общего качества проверки и обратной связи", — говорит эксперт.
Как отмечает Михаил Коротеев, нельзя однозначно утверждать, что ИИ несёт вред и снижает мотивацию к самостоятельной работе. Скорее его распространение влечёт за собой смещение актуальных навыков, и системе образования ещё предстоит подстроиться под эти изменения.
"Наибольшие изменения ждут профессии, связанные с формальными и повторяющимися задачами: копирайтеров, программистов, дизайнеров, финансовых аналитиков, бухгалтеров. Наименее подвержены влиянию ИИ самые творческие профессии и рабочие специальности", — указывает эксперт.
Святослав Державин полагает, что риск снижения качества образования всё же существует. При поверхностном использовании ИИ студенты могут получать формально корректные, но шаблонные ответы. Это в свою очередь подрывает сам смысл обучения.
"Особенно это критично для направлений, где важно развивать и применять аналитические навыки, критическое мышление и самостоятельно работать с источниками. Наиболее уязвимыми являются гуманитарные специальности, где по большей части в учебной деятельности необходимо составлять текстовые документы.
Также существуют определённые риски в применении ИИ студентами юридических и экономических специальностей, где требуется глубокое понимание законодательства, прецедентов или аналитическое мышление с последующим умением делать выводы на основе данных", — резюмирует эксперт.
На нашем сайте используются cookie-файлы. Продолжая пользоваться данным сайтом, вы подтверждаете свое согласие на использование файлов cookie в соответствии с настоящим уведомлением и Политикой о конфиденциальности.