Существующие сервисы проверки текстов на уникальность пока не могут с высокой точностью определять следы применения нейросетей. В будущем эта проблема может быть решена за счет ИИ-верификаторов, ориентированных на каждую из популярных языковых моделей. Об этом корреспонденту ТАССрассказал директор Исследовательского центра в сфере искусственного интеллекта МГУ Григорий Боков.
«Для специалистов в этой области текстовый ответ нейросети выглядит как облако точек в многомерном пространстве. По их распределению мы можем понять, что контент сгенерирован ИИ. Такие методы проверки уже применяются, но они пока несовершенны и скорее показывают вероятность применения нейросети для написания текста. При этом есть определенные ситуации, при которых система может сделать ошибочный вывод <…>. Так что высокоточного верификатора для определения текстов, сгенерированных нейросетями, пока не существует», — отметил ученый.
В будущем эту проблему могут решить нейросети-контролеры, создаваемые для каждой из популярных больших языковых моделей, таких как ChatGPT и DeepSeek, считает он.
«Если поставить задачу обнаружения следов редактуры текста, выполненной нейросетью, то ее решение тоже возможно. А вот с верификацией его содержания пока способен справиться только человек. В лучшем случае нейросеть может при правильно сформулированных запросах указать на места в тексте, которые могут быть неточными», — добавил директор Центра ИИ МГУ.
Отвечая на вопрос ТАСС о том, стоит ли вводить ограничения использования нейросетей для студентов, он предупредил, что такой запрет скорее навредит им, чем принесет пользу.
«Это инструмент: его можно использовать и во вред, и во благо. Раз он уже широко распространен, то нужно совершенствовать методы преподавания и контроля успеваемости, а не запрещать его вовсе. Если студенты пишут рефераты с ChatGPT, пусть и код напишут. Мы такие подходы применяем. В этом случае студенты не перекладывают свои обязанности на чат-бот, а учатся в нем разбираться и решать с его помощью более сложные задачи», — заключил Григорий Боков.
«Для специалистов в этой области текстовый ответ нейросети выглядит как облако точек в многомерном пространстве. По их распределению мы можем понять, что контент сгенерирован ИИ. Такие методы проверки уже применяются, но они пока несовершенны и скорее показывают вероятность применения нейросети для написания текста. При этом есть определенные ситуации, при которых система может сделать ошибочный вывод <…>. Так что высокоточного верификатора для определения текстов, сгенерированных нейросетями, пока не существует», — отметил ученый.
В будущем эту проблему могут решить нейросети-контролеры, создаваемые для каждой из популярных больших языковых моделей, таких как ChatGPT и DeepSeek, считает он.
«Если поставить задачу обнаружения следов редактуры текста, выполненной нейросетью, то ее решение тоже возможно. А вот с верификацией его содержания пока способен справиться только человек. В лучшем случае нейросеть может при правильно сформулированных запросах указать на места в тексте, которые могут быть неточными», — добавил директор Центра ИИ МГУ.
Отвечая на вопрос ТАСС о том, стоит ли вводить ограничения использования нейросетей для студентов, он предупредил, что такой запрет скорее навредит им, чем принесет пользу.
«Это инструмент: его можно использовать и во вред, и во благо. Раз он уже широко распространен, то нужно совершенствовать методы преподавания и контроля успеваемости, а не запрещать его вовсе. Если студенты пишут рефераты с ChatGPT, пусть и код напишут. Мы такие подходы применяем. В этом случае студенты не перекладывают свои обязанности на чат-бот, а учатся в нем разбираться и решать с его помощью более сложные задачи», — заключил Григорий Боков.