29.05.2023

Мы уже рассказывали об использовании нейросети ChatGPT в преподавании и делились мнением наших преподавателей о том, как чат-бот, генерирующий ответы на вопросы, может повлиять на гуманитарное образование. Тема продолжает развиваться, ведь все больше преподавателей в своей практике сталкиваются с текстами, которые ученики пишут с помощью чат-бота. В мае система поиска текстовых заимствований «Антиплагиат» добавила в свою платную версию новую функцию – определение текстов, которые могли быть сгенерированы с помощью чат-бота. А в середине мая о новой возможности рассказал руководитель компании «Антиплагиат» Юрий Чехович на вебинаре «ChatGPT: ящик Пандоры или каша из топора ».

Действительно ли новая функция системы сильно поможет преподавателям? Можно ли со 100%-ной точностью определить сгенерированный машиной текст? На какие странности в тексте стоит обратить внимание, чтобы самому, без помощи «Антиплагиата», сделать выводы об участии искусственного интеллекта в учебной работе. И что делать, если сталкиваешься с такими текстами в практике? Рассказываем о рекомендациях, прозвучавших на вебинаре, и дополняем их советами из нашего опыта:

Важно понять: тексты, сгенерированные чат-ботом, не считаются плагиатом, ведь искусственный интеллект ниоткуда их не позаимствовал, а сгенерировал, используя множество иных материалов, так что обнаружить их источники невозможно – с точки зрения системы «Антиплагиат» эти тексты высокой степени оригинальности.

Соответственно, нельзя на 100% доказать, что студент, сдавший подозрительную работу действительно прибегал к помощи искусственного интеллекта.

При этом у машинного текста (если он не был более-менее старательно обработан человеком) есть некоторые особенности, и «Антиплагиат» использует алгоритм, позволяющий эти особенности выявлять. Как именно? Кратко об этом рассказывается в написанной при участии сотрудников «Антиплагиата» статье « За кулисами интеллекта ChatGPT: рассказ о том, как определяют тексты, созданные ИИ». В сгенерированных нейросетью текстах связи между фрагментами строятся набору алгоритмов, которые другая нейросеть учится выявлять. То есть по сути мы наблюдаем этакую битву нейросетей, которые в режиме реального времени соревнуются друг с другом – одна все лучше и лучше маскирует машинные тексты под написанные человеком, другая «учится» их вычислять.

На практике это выражается в том, что после анализа текста системой обнаружения заимствований в отчете появляется красная строка «документ подозрительный». В подробном отчете будет выделен текст, который похож на машинный. Работает эта функция только при проверке больших текстов, то есть короткие письменные ответы на вопросы не проанализировать никак (напомним, что бесплатная версия ChatGPT отвечает на запросы текстами примерно до 500 слов и приходится постараться, задавая дополнительные вопросы, чтобы получить большой машинный текст, хотя бы внешне похожий на реферат или курсовую). Но проблема даже не в ограничениях по размеру текста, главный вопрос: что делать преподавателю с текстом, который показался системе подозрительным? Ведь доказать, что текст заимствован, невозможно.

На что обратить внимание, если текст «странный»?

Руководитель «Антиплагиата» прежде всего порекомендовал банальную вещь: внимательно изучить сомнительный текст. На самом деле, если знать проблемы, связанные с генерацией текстов из области гуманитарных наук, преподавателю сейчас не так уж сложно определить «подозрительные» тексты самому, без помощи «Антиплагиата».

Проблем у машинных текстов несколько и они описаны в рекомендациях по работе с GPT:

1. Сейчас нейросеть, столкнувшись с вопросами из области гуманитарного знания, не отделяет факты от вымысла. Задав системе вопрос о каком-то событии или явлении, можно получить ответ, которые внешне выглядят вполне убедительно: есть даты, фамилии, хроника событий, а если попросить библиографию, то даже появятся ссылки на конкретные книги. Но если хотя бы немного знать тему, проверить факты и поискать указанную литературу, вас может ждать сюрприз: чат-бот создал правильную «форму» рассказа, вложив в нее совершенно неправильное содержание. Даты могут быть ошибочными, события – несуществующими, упомянутые персонажи, даже вполне реальные, могут не иметь никакого отношения к указанным событиям и вообще жить в другие эпохи, а в приведенных описаниях книг – одному автору будет приписана книга другого автора, причем ссылка, если нейросеть ее добавит, приведет вовсе на иную работу. Иногда такие ответы могут выглядеть прямо-таки карикатурно, но хуже, если «фальшивые» факты переплетены с правильной информацией, ведь тогда их гораздо легче пропустить при беглом чтении.

Из-за этой характерной ошибки неросетей тем, кто их использует, пытаясь получить какую-то правдоподобную информацию (а не сочинить с помощью ИИ сюжет для фантастического рассказа), приходится постоянно проверять все данные. И такая кропотливая проверка порой даже сложнее, чем самостоятельная подготовка текста.

2. Есть проблемы, связанные с логикой изложения. Их несколько сложнее идентифицировать (ведь и люди порой пишут, а особенно компилируют из чужих текстов ответы, где мало логики, зато много повторов!), но и тут выделяются характерные для нейросети особенности: например, в машинных текста не просто повторяется то, что уже только что было сказано другими словами, но в следующем абзаце может даже утверждаться что-то противоположное (в компании антиплагиат эту черту «подозрительных текстов» назвали «Эффектом рыбки Дори», связав с персонажем мультфильма «В поисках Немо» - рыбки, которая быстро все забывала).

Другая типичная проблема машины роднит ее с не очень способными копирайтерами недалекого прошлого, создававшими тексты на заказ для сайтов: в сгенерированном тексте часто встречаются предложения, вроде бы связанные с темой, но никак не развивающие ее, не содержащие какой-то новой информации (к ним легко можно поставить вопрос «А к чему здесь это? Чем это дополняет ответ?»).

Еще в текстах, созданных с помощью чат-бота, много «обтекаемых» фраз, без конкретики (вроде «правительство принимало разные меры для решения данных проблем», «результаты реформы оказали как положительное, так и отрицательное влияние на разные группы населения, но в целом оказались очень важными»).

Все эти особенности сами по себе не доказывают, что ученик использовал ИИ, но все же указывают на возможный источник вдохновения.

Впрочем, эти «зацепки» характерны для текстов, студент не редактировал, доверившись машине. А если он подошел к работе тщательно, вычитал машинный текст, проверил факты и убрал наиболее заметные стилистические погрешности?

Руководитель «Антиплагиата» предлагает считать текст, созданный в «соработничестве» с чат-ботом, оригинальным: ведь человек вложил в работу над ним свои усилия.

Исходить можно из того, что задача преподавателя – не доказать искусственное происхождение текста, а убедиться: претендующий на авторство студент действительно разобрался в теме.

Здесь уже не так принципиально, кто помогал учащемуся – чат-бот или человек, написавший работу на заказ за деньги (или чат-бот, использованный этим не очень честным наемным поставщиком курсовых и дипломов, что тоже сейчас не редкость). Советы одни и те же:

- обсудить работу с автором, чтобы постараться понять, насколько он знаком с текстом, который называет своим.

- в некоторых случаях – предложить автору фрагменты его текста с пропусками слов и предложить заполнить их в режиме реального времени, чтобы понять, насколько он ориентируется в теме.

- еще надежнее планомерно работать над дипломом или диссертацией, вместе со студентом анализируя фрагменты текста, когда они пишутся. В таком случае шансов на самостоятельную работу учащегося гораздо больше, чем в ситуации, когда курсовая внезапно возникла в последний момент (и опять-таки, уже не важно, кто или что ее написало по заказу).

Опять-таки ничего нового: до появления чат-ботов те же советы помогали в ситуациях, когда диплом писал за студента другой человек.

Итак, сейчас написать текст, который получит положительную оценку, с помощью чат-бота, не всегда просто. Но возможно, скоро нейросеть научится справляться со своими ошибками и начнет генерировать тексты лучшего качества?

По мнению руководителя «Антиплагиата», нужно будет менять некоторые требования к квалификационным работам, потому что формальные признаки качества вроде объема текста, количества ссылок и размера библиографии будут все менее надежными. Придется разрабатывать и все чаще задействовать формы оценивания, позволяющие отделять личный вклад автора от работы искусственного интеллекта.

Впрочем, руководитель «Антиплагиата» предположил, что скорее всего, не стоит опасаться сервисов «Диплом за один клик», если речь о дипломах, которые защищаются в серьезных вузах. Инструменты, помогающие быстро создавать текст по заданной структуре, существуют, и, потратив время на конкретизацию запроса и редактирование текста, с их помощью можно получать сносные результаты. Но не стоит все же переоценивать риски и потенциальное влияние технологий. «Никакого чуда, никаких непредсказуемых вещей в генеративных сетях не происходит», - подчеркнул Юрий Чехович. - «Это алгоритмы, задача которых создавать текст, у них нет задачи создавать новое знание, у них нет задачи правильно решать математические или физические задачи, они хорошо создают текст в самых разных формах». Но ставит задачи и оценивает результаты все-таки человек.


ЧИТАЙТЕ ТАКЖЕ:

Пусть об этом думает нейросеть: как чат-бот ChatGPT может повлиять на образование?

Как нейросеть меняет сферу образования, можно ли применять новые технологии с пользой для студентов и какие риски при этом важно учитывать? Об этом рассуждают преподаватели ИДО ПСТГУ. Читать далее »


Нейросети, онтологические модели и рецепты сырников: второй день конференции «Цифровое образование. XXI век»

Вызовы нейросетей, построение онтологических моделей и курс о сырниках: репортаж о втором дне конференции «Цифровое образование. XXI век» 17 мая 2023 года Читать далее »


Последнее изменение: пятница, 26 мая 2023, 16:42