😈 Почему детекторы ИИ не работают и не стоит о них переживать
Благодарю
Андрея Борисенко за отличную тему для обсуждения!
На конференциях часто спрашивают: «
Как обойти детекторы ИИ-текстов?»
И отвечаю я обычно так: «
Невозможно обойти то, что и так не работает.»
Но, есть нюанс... Давайте разбираться.
✦
НЕЙРО И/ИЛИ ЧЕЛОВЕКИ
Что отличает тексты, созданные искусственным интеллектом, от человеческих?
На первый взгляд кажется, что нейротексты имеют характерные особенности:
— Типовые словообороты
— Специфическую пунктуацию
— Узнаваемые речевые паттерны
Однако это справедливо лишь для проходных, наспех сгенерированных текстов, созданных без участия редактора. И ценность такого контента зачастую стремится к нулю. Про них даже и говорить не интересно.
❗️При создании же текста в связке «
человек-редактор + ИИ-копирайтер» конечный результат становится неотличимым от полностью человеческого текста.
В этом случае даже сам автор не сможет точно определить границу между исходным текстом нейросети и собственной редактурой (самоличной, или через промты). Получается полноценное соавторство, где ИИ выступает эффективным инструментом (но инструментом!) в руках человека.
✦ ТЕСТИРУЕМ
Для подтверждения этого тезиса я провёл простой эксперимент с двумя текстами из Дзена:
😏 Написан полностью мной
🤖 Созданный в соавторстве с ИИ
👇 Результаты проверки через популярные детекторы:
Текст №1 (человеческий):
— Writer: 100% человек
— IsGen: 100% человек
— RewriteGuru: 98% нейросеть
— Smodin: 100% человек
— Copyleaks: человек
Текст №2 (человек + ИИ):
— Writer: 100% человек
— IsGen: 100% человек
— RewriteGuru: 83% нейросеть
(это особенно смешно!)
— Smodin: 100% человек
— Copyleaks: человек
✦ ВЫВОД
Алгоритмы не способны достоверно определить и разграничить вклад человека и нейросети в создании текстов нормального уровня. Вместо беспокойства о детекторах лучше сосредоточиться на создании
качественного контента, используя все доступные инструменты, включая нейросети.
#нейросети