Кто автор ИИ или ИИ?

Автор: Сергей Байтеряков

Тут, на Author.Today, в тренде споры о том, можно ли по самому тексту понять, написано ли произведение нейросетью или хотя бы с её участием. Обсуждают разные способы «детекции»: по пунктуации, по специфическим речевым оборотам, по странным сочетаниям смыслов и фактов и так далее. Но за всем этим, как мне кажется, стоит более сложный вопрос: кто вообще автор текста в — человек, машина или их связка?

Я -- преподаватель, регулярно сталкиваюсь с этой задачей, проверяя студенческие работы. Смотришь на зачётное эссе и кажется писал не человек. Практическая задача: понять, насколько конкретный текст — результат человеческого письма. Ну и оценку поставить.

Эту задачу я решил и хочу поделиться опытом — чтобы было видно, насколько это нелинейная история. Решал, разумеется, тоже с привлечением ИИ.

Первым шагом я загрузил в модель свой курс в качестве контекста и попросил его проанализировать: выделить ключевые идеи, построить краткий список документов, на которые эти идеи опираются, и так далее. На бумаге звучит красиво, на практике быстро выяснилось, что без человеческого контроля задача не решается. Пришлось много раз смотреть глазами на результат: «А вот это учтено?», «А где здесь такой-то момент?» и снова перегенерировать ответ. В итоге через 5–7 таких итераций я получил более-менее удовлетворяющий меня конспект — заодно обзавёлся структурированным пересказом своих курсов, которые до этого органически росли и существовали в разбросанных материалах.

Когда я формулировал задание, сразу обозначил: одной из задач будет понять, насколько их эссе написано человеком или с опорой на искусственный интеллект. В ответ ИИ предложил разумный ход — составить чек‑лист признаков «скорее человек» и «скорее не человек», то есть список плюс‑минусов, по которым можно ориентироваться. Поскольку курс у меня практический, то если в эссе всплывают только общие места, но почти не появляется новое, практическое, что мы разбираем на курсе, то у меня есть основания думать, что курс они по сути пропустили.

Курс идёт в дистанционном формате, многие смотрят его в записи. Вопрос «были ли вы на занятии» сейчас не так важен; важнее другое: «вы вообще что‑то вынесли из этого курса и встроили ли в свою работу?». И вот здесь ИИ помогает: он умеет сверять текст эссе с набором идей курса и подсвечивать, какие из них студент использовал, а какие проигнорировал. Но, разумеется, такая проверка ни в коей мере не заменяет чтения эссе живым человеком: каждая работа всё равно мной читается, увы.

Технически процесс выглядит так. У меня около тридцати студентов, и по мере проверки я постоянно что‑то докручиваю в промптах: уточняю критерии, добавляю новые примеры, меняю формулировки обратной связи, чтобы ИИ попадал в мой голос и логику. В результате появился достаточно подробный шаблон: образцы того, как я обычно пишу фидбэк, с примерами типичных ошибок и пожеланий. Модель по этому образцу дополняет мои замечания под конкретные огрехи студента. За счёт этого у меня появляется возможность для каждого написать развёрнутую обратную связь на три–четыре абзаца — то, чего я в чисто «ручном» режиме не мог себе позволить ни по времени, ни по силам.

Сэкономило ли это мне время? Нет. Честный ответ: я трачу на проверку больше, чем раньше. Настройка модели, формулировка заданий, последующая корректировка и перепроверка — всё это добавляет времени к обычной проверке. Если бы задача была только «поставить зачёт/незачёт» и прикинуть, пользуется ли студент логикой и опирается ли на материалы курса, то без ИИ я управился бы быстрее.

Но есть существенный плюс. Студенты получают гораздо более глубокую и предметную обратную связь, чем раньше. Иногда модель подмечает мелкие несостыковки, которые я легко мог бы пропустить по невнимательности, и это тоже повышает качество проверки.

Гарантирует ли всё это, что мы точно «ловим» всех, кто использует ИИ вместо самостоятельного письма? Конечно, нет. Люди вполне способны писать хуже нейросети, и местами отличить «плохой человеческий текст» от «небрежно отредактированного машинного» просто невозможно. Но в чём я уверен — так в том, что качество моей работы как преподавателя выросло, а студенты получают больше пользы от обратной связи, даже если время проверки увеличилось.

В другом моём курсе у меня схожая задача, только связана она не с эссе, а с видеозаписями. Там пока нет удобного инструмента, который бы автоматически анализировал видео и выдавал осмысленную обратную связь, поэтому я поступаю наоборот: сначала надиктовываю свой фидбэк устно, а потом редактирую и структурирую текст при помощи ИИ. Результат оказывается тем же: более качественная, точная и адресная обратная связь ценой дополнительных временных затрат.

Можно ли из этого опыта извлечь урок для читателей Author.Today? Думаю, да. Если результат взаимодействия с нейросетью вам кажется отвратительным, не спешите ругаться на машину. Ответственность всё равно лежит на авторе. Относитесь к тому, что выдаёт ИИ, как к гипотезам, с которыми можно согласиться или не согласиться, развить или отбросить.

ЗЫ. я бы не написал этот пост -- поленился, если бы его нельзя было надиктовать, отредактировать... и потом глазками и ручками допилить.

+44
198

0 комментариев, по

1 065 9 264
Мероприятия

Список действующих конкурсов, марафонов и игр, организованных пользователями Author.Today.

Хотите добавить сюда ещё одну ссылку? Напишите об этом администрации.

Наверх Вниз