Википедия:Опросы/О текстах, созданных с помощью искусственного интеллекта

Здесь находятся завершившиеся обсуждения. Просьба не вносить изменений.

С конца 2022 года получили широкое распространение компьютерные сервисы, генерирующие тексты по запросу пользователя на заданную им тему (ChatGPT и его аналоги). К сожалению, созданные таким образом тексты как правило содержат «галлюцинации» — ложные утверждения, производящие впечатление достоверных.

В настоящий момент использование таких текстов не урегулировано правилами. В обсуждениях участники высказывали разные мнения по этому вопросу: некоторые предлагали полностью запретить их внесение, другие заявляли, что к ним нужен такой же подход, как к любым другим текстам, третьи отмечали, что при грамотном использовании (например, для пересказа) ChatGPT и его аналоги дают намного меньше «галлюцинаций» и при надлежащей проверке могут быть, по их мнению, хорошим вспомогательным инструментом википедиста.

Данный опрос проводится с целью выявить мнение сообщества по нескольким ключевым вопросам, связанным с использованием таких текстов в Википедии.


Предыдущие обсуждения:


Примеры текстов:

  • Неформатный [1]
  • Полностью ложный [2]
  • Частично верный [3]
  • С неправильной интерпретацией источников [4]
  • Примеры грамотного использования ИИ от опытного участника, методика использования ИИ для написания текстов по источнику с примерами от другого опытного участника


Пример короткой статьи с разбором проблем и информация о способах обнаружения на подстранице


Прочая информация по теме

ВП:ИИ, en:WP:LLM, en:WP:AICLEAN


Если в ходе опроса сообщество придет к консенсусу по некоторым вопросам, то планируется подготовить новое правило и (или) поправки в существующие правила, конкретные формулировки которых будут обсуждаться позже.


  • Даты проведения: с 24 марта по 7 апреля 2025 или до завершения активности
  • Организатор Алексей Ладынин

Обязать участников проверять такие тексты?

Следует ли обязать участников, вносящих в основное пространство текст, созданный при помощи ChatGPT или его аналогов, дополнительно проверять его на наличие ошибок и проблем, характерных для таких текстов?

Здесь находятся завершившиеся обсуждения. Просьба не вносить изменений.

Да

  1. Обязательно. Использование мощных инструментов должно сопровождаться большой ответственностью. — Homoatrox (обс.). 04:52, 25 марта 2025 (UTC)[ответить]
  2. Нужно обязать редакторов указывать сноски на авторитетные источники для таких текстов. — SkorP24 05:29, 25 марта 2025 (UTC)[ответить]
  3. Разумеется. То же самое, как с машпереводом. Well very well (обс.) 05:33, 25 марта 2025 (UTC)[ответить]
  4. Никаких аргументов для голоса нет здесь быть не может. Ибо пока есть ВП:ПРОВ. Проверяемость по АИ начинается с того, что участник сам видит этот АИ. Поэтому ии, по крайней мере на данном этапе, может быть только инструментом написания. За ним надо открыть ссылочки и проверить. Я проверял так за другими авторами некоторые номинируемые на статус статьи. Ничего сверхсложного в проверке по источникам уже готовой статьи нет. Это не то чтобы очень легко, но гораздо проще и быстрее, чем писать самому. Nikolay Omonov (обс.) 05:38, 25 марта 2025 (UTC)[ответить]
  5. Вроде как само собой разумеещееся требование. Ibidem (обс.) 06:34, 25 марта 2025 (UTC)[ответить]
  6. Очевидно. Pessimist (обс.) 07:03, 25 марта 2025 (UTC)[ответить]
  7. Самоочевидное требование.— Dmartyn80 (обс.) 07:32, 25 марта 2025 (UTC)[ответить]
  8. Это самой собой разумеется. ИИ только инструмент, участник сам отвечает за все результаты его использования. И должен иметь в виду, что нейросеть современного уровня развития ничего ему не гарантирует и в любом месте может его здорово подставить. Тут речь даже не об обязанности, просто надо не забывать об этом обстоятельстве. — Эта реплика добавлена участником Demetrius Talpa (ов) 07:34, 25 марта 2025 (UTC)[ответить]
  9. Конечно. Rampion 08:08, 25 марта 2025 (UTC)[ответить]
  10. Когда участник вносит текст - мы считаем что участник его написал. Со всеми вытекающими последствиями. В отличии от копипасты из источников сгенерированное вероятностным попугаем не защищено напрямую АП, но и сослаться, что «так думает такой-то» нельзя - так никто не думает, это просто вариант комбинации всего загруженного в модель, который был близок к заданному запросу.·Carn 08:30, 25 марта 2025 (UTC)[ответить]
  11. В первую очередь проверять по источникам фактологию. Vcohen (обс.) 08:43, 25 марта 2025 (UTC)[ответить]
  12.  Здесь да. 𝓛𝓮𝓸𝗞 𝗮 𝗻 𝗱 08:49, 25 марта 2025 (UTC)[ответить]
  13. Естественно. Oostpulus (обс.) 10:28, 25 марта 2025 (UTC)[ответить]
  14. Да, но лучше до внесения в ОП -- Megitsune-chan (ОБС.) 10:55, 25 марта 2025 (UTC)[ответить]
  15. Да, на стадии черновика. — Книжная пыль (обс.) 12:28, 25 марта 2025 (UTC)[ответить]
  16. Обязательно. Denmaterial 12:48, 25 марта 2025 (UTC)[ответить]
  17. Разумеется, вычитка и сверка текста перед публикацией необходима. — Смайлингобс.; 12:55, 25 марта 2025 (UTC)[ответить]
  18. Конечно. This is Andy 13:25, 25 марта 2025 (UTC)[ответить]
  19. Этого можно было и не писать, ибо и так понятно. — Vulpo (обс.) 13:29, 25 марта 2025 (UTC)[ответить]
    • Вероятно, такой формальный вопрос нужен, так как может быть у кого-то представления, что генеративные тексты, мол, уже проверенные и не могут быть плохими. Ivan CZ Prague (обс.) 22:44, 8 апреля 2025 (UTC)[ответить]
  20. Абсолютно. Мне кажется, в идеале, еще какие-то минимальные требования вводить, чтобы использовали наиболее продвинутые версии ИИ для генерации текста, так как тот же ChatGPT ниже 4-го генерирует текст не очень хорошего качества. И хорошо бы придумать как его проверять: какой-нибудь turnitin что ли. Kylain Aixter (СО) 15:20, 25 марта 2025 (UTC)[ответить]
  21. Да. Это нужно делать. Футболло (обс.) 16:16, 25 марта 2025 (UTC)[ответить]
  22. У наиболее популярных LLM по типу ChatGPT, Microsoft Copilot и др. возле окна ввода запроса даже предупреждение имеется: «... может допускать ошибки. Рекомендуем проверять важную информацию», поэтому очевидно, что следовало бы обязать участников проверять подобные ответы от ИИ. Beonus (обс.) 16:44, 25 марта 2025 (UTC)[ответить]
  23. Да. Но, если честно, по опыту общения с переводчиками могу сказать, что никто ничего проверять не будет. Как ничего не проверяют переводчики. VladimirPF 💙💛 16:44, 25 марта 2025 (UTC)[ответить]
  24. Да. Оставлю линк на свою недоэссешку. Если текст просто сгенерирован и никак не проверялся, то лучше бы и в user: или Инкубатор: его не постить. — Postoronniy-13 (обс.) 21:31, 25 марта 2025 (UTC)[ответить]
  25. Очевидное да. Я имею какой-никакой опыт работы с ИИ. Могу сказать, что нейросети это худший инструмент для написания статей. Дело даже не в информации. Стилистика статей выдаваемых ИИ слишком сильно разниться с стилистикой, принятой в википедии, поэтому ии-статьи нужно кардинально переписывать. Limekas (обс.) 23:15, 25 марта 2025 (UTC)[ответить]
  26. Конечно, иногда нейросеть пишет всякий бред. Мне раз выдала про то, что город Карасук в Новосибирской области был оккупирован фашистами.— Silence / user talk 10:37, 26 марта 2025 (UTC)[ответить]
    • Коллега, в в дискуссии с журналистом из Германии решил упомянуть ваш пример с Карасуком, но в последний момент решил проверить DeepSeek и сформировал промпт: "Напиши для википедии статью про Карасук".
      Вот текст, который был сгенерирован:

      Карасук — город в России, административный центр Карасукского района Новосибирской области. Расположен на реке Карасук, вблизи границы с Казахстаном.

      География
      Карасук находится на юго-западе Новосибирской области, в 678 км от Новосибирска и в 18 км от российско-казахстанской границы. Через город протекает река Карасук, являющаяся притоком озера Большие Чаны.

      История
      Основан в 1912 году как станционный посёлок при строительстве железной дороги Татарская — Славгород. Статус города получил в 1954 году. Название происходит от тюркского слова "карасу" (чёрная вода), что связано с цветом воды в местной реке.

      В советский период Карасук стал важным транспортным и сельскохозяйственным центром.

      Экономика
      Основу экономики составляют:

      Сельское хозяйство (выращивание зерновых, молочное животноводство)

      Пищевая промышленность (мясокомбинат, молочный завод)

      Транспортный узел (железнодорожная станция на линии Татарская — Кулунда)

      Транспорт
      Через Карасук проходит:

      Железная дорога (линия на Омск, Новосибирск, Казахстан)

      Автодороги (связь с Новосибирском, Барнаулом, Павлодаром)

      Достопримечательности
      Краеведческий музей

      Памятник воинам-землякам, погибшим в ВОВ

      Железнодорожный вокзал (построен в начале XX века)

      Население
      Численность населения (на 2023 год) — около 26 тыс. человек.

      Примечания
      {{примечания}}

      Ссылки
      Официальный сайт Карасукского района

      Карасук в энциклопедии «Мой город»

      {{Новосибирская область}}

      Статья требует дополнения и уточнения. Вы можете помочь Википедии, исправив или расширив её.

      Я не знаю, что там в настоящем Карасуке есть (я там бывал в середине 90-х, когда много ездил автостопом), ничего особенно сомнительного не вижу. VladimirPF 💙💛 07:25, 27 марта 2025 (UTC)[ответить]
      • Так про Карасук есть статья, он ее и пересказывает. А я вчера спросил о человеке, которого в ВП нет, отвечает наполовину верно, потом на просьбу исправить самую нелепую конфабуляцию отвечает: «О, как здорово, что вы это заметили и не поверили!» — и заменяет на шесть конфабуляций (он же коротко не умеет). Demetrius Talpa (обс.) 08:12, 27 марта 2025 (UTC)[ответить]
      • Первая же цифра, расстояние до Новосибирска, неправильная. Вряд ли сельское хозяйство может составлять основу экономики города. Наверное, есть и ещё "галлюцинации". Алексей Ладынин (обс.) 10:51, 27 марта 2025 (UTC)[ответить]
      • Внесение текста это не патрулирование. Вносящий текст обязан быть уверен, что в нём нет дезинформации и подлога источников. Поэтому такой текст вносить нельзя. DimaNižnik 11:24, 12 апреля 2025 (UTC)[ответить]
  27. Если за ботами надо проверять, при том, что у них "полномочий" в разы меньше, то здесь 147% — © SAV✉️ 19:59, 26 марта 2025 (UTC)[ответить]
  28. Конечно, да. Гренадеръ (обс.) 20:09, 26 марта 2025 (UTC)[ответить]
  29. Да, это обязательно. Такие тексты нужно контролировать. BilboBeggins (обс.) 21:29, 26 марта 2025 (UTC)[ответить]
  30. Да, разумеется. Тексты, созданные с помощью таких инструментов, обычно имеют гораздо больше проблем, чем написанные самостоятельно. И главная их проблема, фактические ошибки, является самым непростительным грехом для энциклопедии. Поэтому нужно обязать участника, их вносящего, тщательно их проверять. Внесение непроверенного нейротекста должно считаться самостоятельным нарушением правил. Так же, как пьяная езда или передача руля маленькому ребёнку являются самостоятельными нарушениями ПДД. Если новичок добавляет непроверенный нейротекст, ему нужно максимально вежливо и доброжелательно объяснить, что так делать нельзя. Но если он продолжает, нужно применять санкции. — Алексей Ладынин (обс.) 11:29, 27 марта 2025 (UTC)[ответить]
  31. Это очевидно. Рыц-Поля 21:02, 27 марта 2025 (UTC)[ответить]
  32. Разумеется. Natsevskiy (обс.) 16:47, 28 марта 2025 (UTC)[ответить]
  33. Да. — Jim_Hokins (обс.) 18:37, 28 марта 2025 (UTC)[ответить]
  34. Абсолютно точно, иначе никак. russesch / написать мне 08:49, 30 марта 2025 (UTC)[ответить]
  35. (+) За. — Erokhin (обс.) 15:21, 2 апреля 2025 (UTC)[ответить]
  36. Да. Ivan CZ Prague (обс.) 08:15, 8 апреля 2025 (UTC)[ответить]
  37. (+) За. ИИ со временем будет развиваться ещё сильнее, что откроет массу возможностей для улучшения текста. Конечно, работа никогда не будет идеальной, но участники всегда смогут проверить её и, в случае чего, исправить недостатки. Ashimanski (обс.) 06:26, 9 апреля 2025 (UTC)[ответить]
  38. (+) За. Текст вносит своей правкой участник и, соответственно, он должен нести ответственность за данное действие. То есть, косяки ЖПТ ― это будут его косяки. Swarrel (обс.) 18:10, 9 апреля 2025 (UTC)[ответить]
  39. (+) За. Babaakh (обс.) 19:31, 11 апреля 2025 (UTC)[ответить]
  40. Участники отвечают за любой добавляемый на Википедию текст. Систематическое безответственное использование LLM при редактировании должно влечь блокировку. — Ur frnd(обс) 22:51, 11 апреля 2025 (UTC)[ответить]
  41. Вообще-то это правила и сейчас требуют. Участник, вносящий текст, полностью отвечает за его достоверность, использование ИИ никаких послаблений не даёт. Если участник систематически вносит недостоверные факты и использует подлог источников, он должен блокироваться независимо от того, использует он ИИ или нет. То, что текст напоминает творчество ИИ, облегчает распознание таких участников. DimaNižnik 11:32, 12 апреля 2025 (UTC)[ответить]
  42. Обязательно, на стадии черновика. — kosun?!. 08:49, 13 апреля 2025 (UTC)[ответить]
  43. (+) Да Tucvbif??? 05:47, 4 мая 2025 (UTC)[ответить]
  44. (+) За Статьи, кто бы их ни писал, должны подчиняться общим требованиям и правилам Википедии, факты — соответствовать источникам, источники — быть указаны и быть авторитетными. В сгенерированном машиной нет возможности все это гарантировать без участия человека. Если участник бездумно копирует в Википедию сгенерированный машиной текст, он наносит энциклопедии вред. — Dangaard (обс.) 07:43, 5 мая 2025 (UTC)[ответить]
  45. (+) За Понятно, чтобы автор переписывал в нормальном стиле. Граф Рауль Валуа (обс.) 12:29, 5 мая 2025 (UTC)[ответить]
  46. Да, хоть это очевидно и без опросов. Rijikk (обс.) 07:49, 3 июня 2025 (UTC)[ответить]
  47. Да, это особенно важно ввиду склонности этих игрушек и подвирать, и маскировать ложные утверждения и придавать им вид правдоподобных. Злой Серый Волк (обс.) 20:11, 12 июня 2025 (UTC)[ответить]
  48. Нейросеть (а точнее лингвистическая генеративная модель) — инструмент. И также как мы требуем от авторов вычитывать машинный перевод, стоит требовать вычитывать ИИ-текст. Красныйхотите поговорить? 12:08, 28 июня 2025 (UTC)[ответить]

Нет

Иное

  1. Надо сразу удалять такие тексты. ʜᴏʀɪᴢᴏɴ [ᴅɪsᴄᴜʀsᴜs] [ᴄᴏɴᴛʀɪʙs] 04:45, 25 марта 2025 (UTC)[ответить]
  2. А как вы собираетесь обязывать? Участники любой текст должны проверять перед внесением в Википедию. Iniquity (обс.) 20:20, 31 марта 2025 (UTC)[ответить]
  3. Такие тексты должны быть не просто проверены, но содержать исчерпывающую информацию о страницах книг источников, чтобы и другие люди могли проверить. ВП:ПРОВ должен стать абсолютом. Обязать использовать только открытые источники. Alexander Mayorov (обс.) 11:53, 2 июня 2025 (UTC)[ответить]

Обязать участников раскрывать факт использования?

Следует ли обязать участников раскрывать факт использования в основном пространстве текстов, созданных при помощи ChatGPT или его аналогов?

Да

  1. Разумеется. ʜᴏʀɪᴢᴏɴ [ᴅɪsᴄᴜʀsᴜs] [ᴄᴏɴᴛʀɪʙs] 04:42, 25 марта 2025 (UTC)[ответить]
  2. Безусловно. Скрывать или замалчивать как «авторство», так и инструментарий нежелательно. Nikolay Omonov (обс.) 04:45, 25 марта 2025 (UTC)[ответить]
  3. Предложение хорошее, но проконтролировать его выполнение практически невозможно. Внесением сгенерированных текстов обычно занимаются новички, которые не читают многотомный свод правил и не разделяют их дух. — Homoatrox (обс.). 05:09, 25 марта 2025 (UTC)[ответить]
  4. Да, как сейчас обязательно для переводов (по другому соображению — авторским правам — но тем не менее). Well very well (обс.) 05:35, 25 марта 2025 (UTC)[ответить]
  5. На странице обсуждения, также как и при переводе. Ibidem (обс.) 06:34, 25 марта 2025 (UTC)[ответить]
  6. Аналогично ситуации с переводами. Замечаю, что в последние годы этот механизм заработал: участники выставляют на СО плашку с уведомлением, да и на форумах периодически требования к соблюдению всплывают. С чат-болтайками вполне можно действовать по аналогии, и это ещё более актуально.— Dmartyn80 (обс.) 07:33, 25 марта 2025 (UTC)[ответить]
  7. Да, на СО. И хотя мы получим то же, что с переводами — как раз проверенные, добросовестные статьи будут им отмечены, а бездумные нейрозаливки нет, — тем не менее это правильно. Demetrius Talpa (обс.) 07:38, 25 марта 2025 (UTC)[ответить]
  8. Согласен. Шаблон на СО и, если это не целая статья, а отдельная правка, то уточнение от в описании правки о том, что участник использовал при её внесении текст, сгенерированный LLM выглядит уместным и честным по отношению к другим участникам сообщества. Rampion 08:10, 25 марта 2025 (UTC)[ответить]
  9. Желательно. Vcohen (обс.) 08:44, 25 марта 2025 (UTC)[ответить]
  10. Обязательно. Шаблоном как при переводе. — Книжная пыль (обс.) 12:28, 25 марта 2025 (UTC)[ответить]
  11. Да, аналогично с переводами. Denmaterial 12:50, 25 марта 2025 (UTC)[ответить]
  12. Да, надо. Викисклад, кстати, уже требует это указывать при загрузке, не вижу принципиальной разницы. Да, это не то чтобы критичное нарушение, если не указать. Блокировать только за неуказание при отсутствии прочих нарушений не надо. Но если текст низкокачественный, неуказание на нейросеть должно быть отягчающим обстоятельством. This is Andy 12:57, 25 марта 2025 (UTC)[ответить]
  13. Да. В идеале бы сделать что-то вроде метки при подтверждении правок - это позволит отслеживать эти правки. В случае с СО - не уверен, что достаточно рациональная идея, но почему бы и нет. Kylain Aixter (СО) 15:22, 25 марта 2025 (UTC)[ответить]
  14. Нужно. Шаблоном на СО (его проставление — настоятельная рекомендация). Плюс этого требует уже другой вики-проект. Футболло (обс.) 16:17, 25 марта 2025 (UTC)[ответить]
  15. Да. Хотелось бы вновь отметить викисклад, ранее упомянутый участником This is Andy. Нам пора научиться отличать сгенерированные статьи(а так же статьи содержащие большое количество ии-текста) от написанных вручную. Limekas (обс.) 23:33, 25 марта 2025 (UTC)[ответить]
  16. Аналогично с оплачиваемым созданием статьей ―желая счастья Мелкий 08:05, 26 марта 2025 (UTC)[ответить]
  17. Да. Полезно знать с каким текстом имеешь дело.— Rounvelis (обс.) 11:36, 26 марта 2025 (UTC)[ответить]
  18. Если для переводных статей есть шаблон:Переведённая статья, то и здесь очевидно. — © SAV✉️ 20:02, 26 марта 2025 (UTC)[ответить]
  19. Да, обязательно. Если сгенерировала нейросеть, могут быть ошибки. Будет шаблон, помогающий редактором и указывающий на возможные проблемы. BilboBeggins (обс.) 21:32, 26 марта 2025 (UTC)[ответить]
  20. Думаю, да, по крайней мере временно, пока АИ не разовьются достаточно для того, чтобы критично воспринимать и правильно передавать информацию из источников. Просто к созданной нейросетью статье читателям и редакторам нужно относиться с большим вниманием и несколько меньшим доверием, тщательнее проверять по источникам и поправлять, если что.— Александр Румега (обс.) 17:25, 28 марта 2025 (UTC)[ответить]
  21. Да. — Jim_Hokins (обс.) 18:38, 28 марта 2025 (UTC)[ответить]
  22. Да. Как уже было сказано, сейчас ИИ - очень проблемный инструмент. Его недостаточно умелое применение приводит к серьёзным и труднообнаружимым недостаткам в статьях. Поэтому сообществу полезно знать, когда он используется. Я полагаю, что если это требование будет принято, то подавляющее большинство опытных участников будут его соблюдать, так что оно будет эффективно.
    О желательном способе раскрытия у меня пока нет мнения. Некоторые участники здесь предлагают шаблон на СО, но я вижу у этого способа недостатки. — Алексей Ладынин (обс.) 09:57, 29 марта 2025 (UTC)[ответить]
  23. Абсолютно точно, к описанию правки. russesch / написать мне 08:49, 30 марта 2025 (UTC)[ответить]
  24. Это ускорит улучшение и удаление подобных статей. Эниси (обс.) 09:40, 2 апреля 2025 (UTC)[ответить]
  25. (+) За. — Erokhin (обс.) 15:22, 2 апреля 2025 (UTC)[ответить]
  26. Обязательно. Ivan CZ Prague (обс.) 08:15, 8 апреля 2025 (UTC)[ответить]
  27. Согласен с комментариями ниже, что требование будет трудно проконтролировать. Но это важнейший момент, касающийся не только качества текста, но и лицензирования! При этом нужно указывать не только сам факт машинной генерации текста, но и точно указывать применённый инструмент, bezik 11:55, 8 апреля 2025 (UTC)[ответить]
  28. Несмотря на невозможность полноценного контроля, на случаи если статья или большой фрагмент текста полностью создаётся LLM, участников следует обязать раскрывать факт их использования. — Ur frnd(обс) 22:53, 11 апреля 2025 (UTC)[ответить]
  29. (+) Да Tucvbif??? 05:47, 4 мая 2025 (UTC)[ответить]
  30. (+) Да Правда, невооружённым глазом будет видно, что участник использует нейросеть. При этом они сами признаются или выкладывают ссылки на данные приложения. Граф Рауль Валуа (обс.) 12:32, 5 мая 2025 (UTC)[ответить]
  31. На странице обсуждения, также как и при переводе. Rijikk (обс.) 07:50, 3 июня 2025 (UTC)[ответить]

Нет

  1. Неэффективное требование, которое со временем развития ИИ будет всё сложнее проконтролировать, да и реального толку от него я пока не выяснил. Участник может: 1) скопировать плохой текст от нейросети, но не написать, что он нейросетевой; 2) использовать нейросетевой текст и раскрыть факт использования нейросети, но текст будет по качеству и проверяемости не хуже, чем обычный текст, так как редактор его хорошо обработал и подтвердил сносками на АИ. В любом случае последнее слово о похожести или непохожести текста на нейросетевой будет за участниками, а атрибуция кажется лишним звеном. — SkorP24 05:38, 25 марта 2025 (UTC)[ответить]
    • Коллега, а считаете ли вы то же самое о машпереводах? По-моему, в отношении них подходит каждое слово из вашей реплики. Well very well (обс.) 05:43, 25 марта 2025 (UTC)[ответить]
      • Да, сам использую переводчик как хороший вспомогательный инструмент при аккуратной сверке каждого предложения. Плохие машпереводы у нас удаляют вне зависимости от того, указал ли автор, что он использовал гугл транслейт. Хорошие переводы с использованием переводчика не вызывают проблем, многие статусные статьи пишутся переводом из англовики участниками, которые не имеют уровня владения английским C2. Атрибуция, как Вы верно указали выше, нужна для указания оригинального автора переведённого текста. SkorP24 06:05, 25 марта 2025 (UTC)[ответить]
        • многие статусные статьи пишутся переводом
          Сомнительное утверждение. Зануда/клавиша З живет своей жиЗнью 04:05, 27 марта 2025 (UTC)[ответить]
  2. Нет необходимости что-то такое от участников требовать. Это не ОПЛАТА. У нас и так по сути в разделе работают участники, которым русский не родной, они пользуются автопереводчиком, и если они не вносят сложных правок, то и ошибок нет и спроса с них никакого нет. Не вижу смысла ущемлять участников и ставить их в невыгодное положение, отчитываться перед кем-то, если они, например, используют GPT чтобы править стиль того что они пишут и при этом внимательно смотрят, что модель изменила в их тексте.·Carn 08:33, 25 марта 2025 (UTC)[ответить]
    • Согласен, нужно оценивать результат, а не какие инструменты при этом были использованы. По Вашей логике нужно указывать какой клавиатурой Вы пользуетесь - сенсорной или физической, устройством, ПО - Word или Блокнот No4ni (обс.) 13:05, 4 апреля 2025 (UTC)[ответить]
  3. Ну ок, с переводами понятно — там это требование вытекает из законодательства об авторском праве, лицензии и условий использования. Там даже если не хочется, то надо. А с генерированным-то текстом что? Никакой внешней обязанности маркировать такой текст нет. А с точки зрения честности и справедливости — ну очевидно же, как к маркированным подобным образом текстам будут относиться. Найдутся участники, которые принципиально будут говорить «фу», даже если текст хороший. При этом в проигрыше окажутся именно добросовестные участники, которые тексты вычитывают перед публикацией, потому что недобросовестные, которые не вычитывают, ничего маркировать не будут. За пределами очевидных случаев результат генерации никаких отличительных особенностей не имеет, так что и выявить нарушения, если участник сам не признается, невозможно. Котик полосатый (обс.) 10:02, 25 марта 2025 (UTC)[ответить]
  4. невозможно обязать, так как не получится проверить и показать. А участник может написать чушь в статье и без всякого чат-джпт. — Proeksad (обс.) 10:30, 25 марта 2025 (UTC)[ответить]
    • Над обычной чушью ещё хоть как-то надо задумываться. А тут можно просто скопировать. Ivan CZ Prague (обс.) 22:49, 8 апреля 2025 (UTC)[ответить]
      • Но тоже отчасти верно и для других каналов: обычного интернета, поисковиков, соцсетей. И, конечно, были времена, когда интернет воспринимался как что-то чудесное а-ля «Свет мой, зеркальце! скажи». А ещё раньше чушь пересказывали из телевизоров, книг, газет или слов торговки на базаре. — Proeksad (обс.) 20:18, 9 апреля 2025 (UTC)[ответить]
  5. Это не имеет смысла. Пожалуй, даже вредно, ибо обязательная атрибуция сгенерированных ИИ текстов может создать иллюзию перекладывания ответственности за содержимое непосредственно на ИИ, а не на участника. «А чо такова, это же не мои слова, это чатжпт так сказал». Не надо наталкивать на это участников. Пусть привыкают сами нести ответственность за опубликованное из-под своей учётки. — Смайлингобс.; 12:55, 25 марта 2025 (UTC)[ответить]
  6. Равносильно тому, чтобы обязывать студентов инженерных вузов раскрывать факт использования калькулятора при написании курсовых работ. Никакой необходимости в предложенном нет. Более того, я бы сказал, что это будет создавать ложное впечатление о содержании тех или иных статей, либо же в целом о деятельности конкретных участников в Википедии. В том смысле, что ИИ применили, скажем, для написания нескольких предложений, а инфо-плашка где-нибудь на СО статьи просто будет говорить, что «ИИ использовался», и неясно, в каком процентном соотношении там вклад ИИ и вклад человека. Beonus (обс.) 14:02, 25 марта 2025 (UTC)[ответить]
    • Когда будет обнаружено, что калькуляторы галлюцинируют, прежде всего об этом надо будет предупредить самих студентов. Demetrius Talpa (обс.) 17:01, 25 марта 2025 (UTC)[ответить]
      • Представьте, что вы пишите статью об определенном историческом событии, параллельно консультируясь с проф. историком, разбирающимся в теме. И вдруг, по забывчивости, либо по какой-то другой причине, коих может быть уйма, он выдаёт вам искажённый факт. Учитывая авторитет историка, вы не считаете нужным перепроверять информацию, полученную от него, и искажённый факт оказывается в статье. Это абсолютно аналогичный случай. Но, даже зная о том, что такое может произойти, почему-то мы не обсуждаем, нужно ли раскрывать факт того, была ли «помощь со стороны», как в этом случае. Участник внёс информацию в статью, она полностью подтверждается приводимыми источниками и соответствует действующим правилам ВП — на этом всё. Дальнейшие рассуждения о том, писал ли это ИИ, какой-то сторонний специалист или сам участник, не имеют место быть. Beonus (обс.) 17:35, 25 марта 2025 (UTC)[ответить]
        • По-хорощему профессора в таком случае благодарят в конце статьи за консультации. В книге практически обязательно, часто списком в конце предисловия. И нейросеткам пока далеко до профессора. (А если речь шла не о статье, а о викистатье, то тут-то вообще ПРОВ по АИ, частные консультации не АИ, первым делом надо спрашивать этого профессора, на что сослаться). Demetrius Talpa (обс.) 17:43, 25 марта 2025 (UTC)[ответить]
          • Речь о викистатье, да. Суть в том, что всегда можно пренебречь дополнительной перепроверкой данных, например, соотнести какой-либо факт с тем источником, в котором его на самом деле нет, и тот же профессор допустил ошибку, утверждая, что этот факт подтверждается этим источником. Это две аналогичные ситуации, ни в одной из которых не может гарантироваться стопроцентная корректность получаемой информации. Абсурдно было бы обязать участников указывать в статьях, что «здесь источник мне подсказал сосед, вроде как разбирается в истории», «этот раздел помог написать филолог В. Пупкин», и так же абсурдно указывать, что «при написании этой статьи использовался ИИ», при том, что в обоих случаях часть ответственности как бы переносится на тех самых консультантов либо ИИ. Википедия является сводом знаний, и в первую очередь нас должно интересовать качество этих знаний, а не тонкости процесса их изложения в тексте. Тесты опытных участников, приведенные здесь, показывают, что ИИ — это не «некачественно», если применять с умом. Beonus (обс.) 21:41, 25 марта 2025 (UTC)[ответить]
            • Если сосед подсказал именно источник, то уже все в порядке и не надо ссылаться на соседа; а если Пупкин зарекомендует себя, как часто помогающий википедистам и при этом незаметно вставляюший фейки, то будет скорей всего запрет с ним общаться. Либо, в совсем фантастической ситуации великой глобальной моды на Пупкина и чрезвычайной легкости к нему обратиться, придется потребовать декларировать факт общения с Пупкиным, да. Demetrius Talpa (обс.) 23:05, 25 марта 2025 (UTC)[ответить]
    • Так в калькуляторах вроде нет проблем. Ivan CZ Prague (обс.) 22:50, 8 апреля 2025 (UTC)[ответить]
  7. До тех пор, пока явным образом не доказано, что сгенерённые моделью тексты (в отличии от машпереводов и сгенерённых картинок) не могут быть размещены под нашими лицензиями, я не вижу ни одного, выдерживающего миниальной критики довода за то, чтобы специальным образом маркировать такие тексты. Ghuron (обс.) 15:51, 25 марта 2025 (UTC)[ответить]
    • Дело не только в лицензии. Общие учетные записи запрещены, сокпаппеты и дополнительные учетки запрещены (кроме случаев, когда явно обозначено, что это чья-то допучетка), а тут получается то ли что-то вроде общей учетной записи участника и неизвестной нейросети (лучше пусть будет известной, это материал и для того, чтоб о ее качестве судить), то ли вообще виртуальная учетка LLM. Demetrius Talpa (обс.) 16:47, 25 марта 2025 (UTC)[ответить]
      • Я не оч понимаю причем тут допучетки/сокпаппеты, но, допустим, включив воображение, я могу рассмотреть подобный механизм как «общую» учетную запись. Если освежить в памяти набор аргументов, по которым они у нас запрещены (см. ВП:ОУЗ, en:WP:NOSHARE), становится понятно что единственный аргумент, который хотя бы теоретически тут приложим — это нежелание нести ответственность за сгенерённый текст. Типа «что мне нейронка написала, то я и скопипастил». Разумеется, произнося что-то подобное вслух, человек, буквально, напрашивается на совершенно бесспорную бессрочку. И никаких новых правил для этого, как мне кажется, не нужно. Ghuron (обс.) 18:54, 25 марта 2025 (UTC)[ответить]
        • Увы, сейчас нет правила, по которому его можно блокировать, это будет админпроизвол. Demetrius Talpa (обс.) 19:22, 25 марта 2025 (UTC)[ответить]
          • Википедия:Дух и буква Ghuron (обс.) 06:04, 26 марта 2025 (UTC)[ответить]
            • Увы, подход дух важнее как раз и может открывать произвол. Nikolay Omonov (обс.) 06:12, 26 марта 2025 (UTC)[ответить]
              • Это уже оффтопик, но да, если бы админы были богами, решения которых никто не может оспорить, то так бы и было. Это, разумеется, не так, и админские флаги снимались с очень заслуженных участников, и блокировки/итоги неоднократно успешно оспаривались (в том числе и моего авторства).
                Я совершенно уверен что бессрочка человека заявляющего «я хз что там чатгпт напридумывал, все вопросы к Альтману», выдержит и обсуждение на ФА, и иск в АК и обращение в TS. Ghuron (обс.) 06:19, 26 марта 2025 (UTC)[ответить]
                • На самом деле это сложная философская и правовая проблема, которую здесь и сейчас не решить. Автоматическое подчинение правилам может вести к условной диктатуре. И приоритет духа к тому же. Чтобы приоритет духа работал, дух должен быть «правильным» (а с чьей точки зрения «правильным»?). И т. д. до бесконечности.
                  То, о чем Вы пишете, это система противовесов. И она худо бедно работает. А приоритет духа и ИВП вообще очень вредная вещь. Nikolay Omonov (обс.) 06:34, 26 марта 2025 (UTC)[ответить]
                  • Мой опыт админа говорит о том, что шансов оспорить подобную блокировку практически нет. Опровергнуть меня довольно просто, надо привести один контр-пример. Ghuron (обс.) 08:10, 26 марта 2025 (UTC)[ответить]
                    • Я не понимаю, к чему это. Я писал не об этом, а о том, что ставить (чей-то) дух (то есть личные вкусы и соображения) вперед правил и принципов ведет к произволу. Вы пишете о блокировке, которая вполне соответствует правилам и принципам. Nikolay Omonov (обс.) 08:58, 26 марта 2025 (UTC)[ответить]
                  • приоритет духа и ИВП - вещь колоссально полезная, без которой ВП в том виде, как мы её знаем, была бы невозможно. Не сосчитать, сколько раз я обращался к духу правил и применял ИВП (много сотен раз так точно). 从乃廾 01:25, 27 марта 2025 (UTC)[ответить]
                • Да, и поэтому проще избежать всех этих процедур, записав-таки что-то в правилах. Если есть согласие, что нечто соответствует духу: проще добавить букву. Demetrius Talpa (обс.) 07:45, 26 марта 2025 (UTC)[ответить]
                  • Нет, записав в правилах предлагаемый wishful thinking, который стигматизирует заметное число потенциальных контрибьюторов для того, чтобы поймать нескольких неадекватов и который уже сейчас невозможно сколь-нибудь эффективно энфорснуть, вы не добьётесь ничего хорошего. Ghuron (обс.) 08:14, 26 марта 2025 (UTC)[ответить]
                    • Ну прямо сразу стигматизирует. Участники, которые ставят шаблон перевода из другого раздела, ничуть не стигматизированы. Если с использованием нейросетей дело пойдет нормально, такой шаблон тоже будет восприниматься нейтрально или даже служить образцом для подражания. Demetrius Talpa (обс.) 09:23, 26 марта 2025 (UTC)[ответить]
          • Как это нет правила, по которому его можно блокировать? Внесение дезинформации и подлог источников в любом случае являются деструктивным поведением, независимо от использования ИИ. В Википедию текст вносит не ИИ, а конкретный участник. DimaNižnik 11:43, 12 апреля 2025 (UTC)[ответить]
  8. Искины усложняются, некоторые успешно имитируют стиль людей, поэтому в любом случае придётся рассчитывать на добросовестность участника вносящего текст в ВП: факт скрытия выявить будет сложно, если внёсший текст сам не захочет в этом признаться. Полагаю, достаточно строго обязать проверять полученный от искина текст на факты. А если ещё и дополнительно уведомлять, то это может сделать проверку фактов поверхностной, по принципу наименьшего сопротивления: «вот вам шаблон, значит не исключены ошибки, вас в этом я предупредил», то есть часть ответственности может быть переложена на искина. Рыц-Поля 21:15, 27 марта 2025 (UTC)[ответить]
  9. Как замечени выше, отслеживание факта использования ИИ со временем будет становиться только сложнее. Требование неэффективно. Natsevskiy (обс.) 16:47, 28 марта 2025 (UTC)[ответить]
  10. При добросовестном использовании (см. вопрос этого опроса 1 выше) нет необходимости. От таких помощников в скором времени никуда не денемся. Optimizm (обс.) 11:31, 30 марта 2025 (UTC)[ответить]
  11. Нет смысла обязывать делать то, что невозможно контролировать. -- dima_st_bk 19:19, 5 апреля 2025 (UTC)[ответить]
  12. Нет по причине того, что обязательство участников раскрывать факт использования этих инструментов может послужить основанием для репрессий вклада и самих участников. -- Voyagerim (обс.) 23:23, 5 апреля 2025 (UTC)[ответить]
  13. Нет, контролировать это невозможно. Если кому-то ясно, что использовался ИИ, он может и безо всякой декларации более тщательно проверить написанное. Декларация может иметь обратный эффект: получается что для того, чтобы вносить текст с дезинформацией, достаточно проставить шаблон. DimaNižnik 11:38, 12 апреля 2025 (UTC)[ответить]
  14. Бессмысленное требование. Попробуйте докажите, кто это написал и какова доля вклада ИИ. Адекватные участники не станут заливать выданное роботом без собственной обработки. — Ghirla -трёп- 20:17, 20 апреля 2025 (UTC)[ответить]
  15. Для добросовестных участников это требование обременительно и не приносит пользы, недобросовестные не будут его соблюдать. — Dangaard (обс.) 07:43, 5 мая 2025 (UTC)[ответить]
  16. Не вижу ни одной причины указаывать эти сведения. И здесь уже назвали кучу причин, чтобы не устанавливать такого требования. Томасина (обс.) 13:56, 6 мая 2025 (UTC)[ответить]
  17. Не вижу смысла. Просто укажу на своей странице, что все тексты, которые я пишу сгенерированы нейросетью. Alexander Mayorov (обс.) 11:19, 2 июня 2025 (UTC)[ответить]
  18. Шаблон на СО - неудобный, неэффективный, нефункциональный, костыльный, кривожопый механизм. Вот если бы точечка в поле рядом с окошком редактирования (да, эта правка - ИИ) + автокоммент к правке - было бы что обсуждать. Злой Серый Волк (обс.) 21:37, 12 июня 2025 (UTC)[ответить]
  19. Использование инструментов перевода маркируется исключительно из-за вопросов об авторских правах. Использование нейросетей такими проблемами (пока что по имеющимся у меня данным) не обладает, так что к текстам гораздо проще применять общий подход и оценивать их качество, а не очередной ярлык. Красныйхотите поговорить? 12:11, 28 июня 2025 (UTC)[ответить]

Иное

  • при значительных использованиях можно посоветовать участникам. А если кто-то, например, попросил пересказать пару фраз, то зачем? Да и как? В целом выглядит не слишком работоспособным — Proeksad (обс.) 10:22, 25 марта 2025 (UTC)[ответить]
  • Сомнительно. Это же не платник какой-то. Если только каким-то шаблоном на СО, но тоже сначала надо обсудить введение такого шаблона, по аналогии с {{ПС}} (хотя ПС требуется для соблюдения лицензии). -- Megitsune-chan (ОБС.) 10:57, 25 марта 2025 (UTC)[ответить]
  • не вижу смысла: если статья написана в рамках правил, то не важен инструмент, а если правила нарушены, то какая разница какой инструмент применялся. Для переводов указание нужно для связывания авторских прав в одно русло, а тут какой смысл? Зато это станет новой точкой нагнетания (он не поставил, он убрал, а ты докажи, он меня преследует и тд)— VladimirPF 💙💛 16:47, 25 марта 2025 (UTC)[ответить]
  • Еще один аналог ВП:ОПЛАТА. Вопрос как контролировать и какие санкции и за что? Iniquity (обс.) 20:21, 31 марта 2025 (UTC)[ответить]
  • Я просто не вижу практической пользы от этого. Добросовестные ИИ-юзеры и так будут проверят за ИИ, а недобросовестные не будут ничего декларировать, и в чём тогда смысл? Просто участник, постоянно вносящий косячный ИИ-текст квалифицируется как "участник с проблемным вкладом" с соответствующими последствиями. Swarrel (обс.) 18:12, 9 апреля 2025 (UTC)[ответить]

Запретить совсем?

Следует ли целиком запретить внесение в основное пространство текстов, созданных при помощи ChatGPT и его аналогов?

Да

  1. Пока что уровень нейросетей не позволяет писать полноценные статьи с указанием АИ, и чаще всего происходят галлюцинации. — Владлен Манилов [✎︎] / 03:20, 25 марта 2025 (UTC)[ответить]
  2. Да. ʜᴏʀɪᴢᴏɴ [ᴅɪsᴄᴜʀsᴜs] [ᴄᴏɴᴛʀɪʙs] 04:44, 25 марта 2025 (UTC)[ответить]
  3. Статьи Википедии должны быть написаны людьми, чтобы ИИ было, на чем тренироваться. — Igel B TyMaHe (обс.) 19:08, 25 марта 2025 (UTC)[ответить]
  4. Да, от нейросетей больше вреда. BilboBeggins (обс.) 22:07, 26 марта 2025 (UTC)[ответить]
  5. Согласен с мнениями выше. Эниси (обс.) 09:36, 2 апреля 2025 (UTC)[ответить]
  6. Да. Андрей Бондарь (обс.) 00:53, 30 апреля 2025 (UTC)[ответить]

Нет, но признать нежелательным

  1. На нынешнем этапе развития технологии ИИ для малоопытных участников Википедии вреден, но и заткнуть пальцем плотину вряд ли удастся. О пользе для опытных участников тоже сообщалось. — Dmartyn80 (обс.) 07:35, 25 марта 2025 (UTC)[ответить]
  2. Совсем запрещать не стоит, в руках думающего человека они могут приносить пользу, и следует надеяться, что они будут развиваться не только в плане генерации галлюцинаций. Но сейчас они ненадежны. Demetrius Talpa (обс.) 07:42, 25 марта 2025 (UTC)[ответить]
  3. В некоторых ситуациях нейросети очень даже могут быть полезны. Если, например, человек имеет плохие знания языка, какие-нибудь проблемы с формулированием своих мыслей, расстройствами речи и т.д. Вот в этом случае участнику помогло бы их использование. Oostpulus (обс.) 10:46, 25 марта 2025 (UTC)[ответить]
  4. Без вычитки, проверки фактов и сверки с источниками не нужно нам. -- Megitsune-chan (ОБС.) 10:57, 25 марта 2025 (UTC)[ответить]
  5. Закрыть эту опцию физически не получится. Поэтому здесь. — Книжная пыль (обс.) 12:29, 25 марта 2025 (UTC)[ответить]
  6. Именно так: если по написанному мы просто не поймем, как это написано: в тексте есть оформленные сносками источники, написанное им соответствует и нет артефактов, выдающих метод написания - ну и хорошо, у нас нет повода в чем то обвинять участника. А вот если признаки написания с помощью ИИ видны - это и есть красный флажок. И повод напомнить о нежелательности, либо прямо затопикбанить. На основании этого же правила. — Vulpo (обс.) 13:45, 25 марта 2025 (UTC)[ответить]
  7. Наверное это оптимальная опция, но стоило бы рекомендовать его к использованию в случае если текст не генерируется с 0, а прежде всего улучшается или переводится: в этих двух случаях ИИ работает превосходно, сколько я это проверял. Kylain Aixter (СО) 15:26, 25 марта 2025 (UTC)[ответить]
  8. Опытным участникам это вполне может пригодится, а новичкам — наоборот, вред (нарушение ПРОВ на ровном месте может появиться). Написать что-то в духе «При правильном использовании нейросеть способна облегчить участнику создание или дополние статьи. В свою очередь, бездумное использование их же может привести к ограничениям вашего аккаунта». Футболло (обс.) 16:28, 25 марта 2025 (UTC)[ответить]
  9. Нейросети однозначно сейчас не того уровня что бы доверять им написание статьей, а редактирование и проверка нейросети - уже делает текст работой человека ―желая счастья Мелкий 08:08, 26 марта 2025 (UTC)[ответить]
  10. Сейчас признать нежелательным, а в будущем, при развитии этой технологии, запретить.
    Про будущее написал ниже, а в настоящем, как мне кажется, даже грамотное использование таких инструментов может привнести если не "галлюцинации", то характерные искажения, стиль и особенности "мышления" нейросетей. Кроме того, грамотные пользователи могут подавать пример менее грамотным, которые будут пропускать "галлюцинации". Есть ещё один щекотливый момент: возможно, что через некоторое время детекторы ИИ улучшатся и если выяснится, что в Википедии много сгенерированного текста, это ударит по её репутации. В общем, не было показано, что массовое использование этих инструментов при написании текста статей принесёт больше пользы, чем вреда. — Алексей Ладынин (обс.) 12:09, 26 марта 2025 (UTC)[ответить]
  11. Абсолютная аналогия с переводами. Хотя по сей день есть мегавредный (при наличии присутствия Ш:Заготовка) шаблон:Перевести, коий создает иллюзию, что перевести это лучше, чем написать по АИ (коим ВП не является). Да, у аксакалов к нему иммунитет, но новичок, на которого (в отличие от новичка эпохи создания ВП) обрушивают террабайты правил, зачастую начинает помогать так (по просьбе в шаблоне), а его за это потом тапком-тапком... он чертыхается и хлопает дверью. — © SAV✉️ 20:10, 26 марта 2025 (UTC)[ответить]
  12. Пока, я думаю, такой метод создания статей — не желателен. Гренадеръ (обс.) 20:12, 26 марта 2025 (UTC)[ответить]
  13. Пока технология грешит галлюцинациями, нам и человеческих факторов хватает. Рыц-Поля 21:28, 27 марта 2025 (UTC)[ответить]
  14. Использование ИИ для проверки стиля, грамматики и пунктуации, как по мне, вполне допустимо. Для проверки. Для написания статьи "с нуля" или редактирования самого содержания статьи использование нейросетей крайне нежелательно. Natsevskiy (обс.) 16:47, 28 марта 2025 (UTC)[ответить]
  15. Тут. — Jim_Hokins (обс.) 18:40, 28 марта 2025 (UTC)[ответить]
  16. Не очень уверен, по смыслу моя точка зрения ближе к этой секции или к секции ниже. В общем, запрещать, конечно, ничего не надо, НО строго предупредить, что «если Вы, уважаемый участник, будете массово вносить текст, сгенерированный ЖПТ, без его проверки и вычитки, и в этом внесенном Вами тексте регулярно будут всплывать разные косяки, то к Вам могут быть применены санкции вплоть до полной блокировки». Swarrel (обс.) 18:17, 9 апреля 2025 (UTC)[ответить]
  17. (+) За. Babaakh (обс.) 19:33, 11 апреля 2025 (UTC)[ответить]
  18. Между этим вариантом и «нет» склонюсь к этому. Использование допустимо, как допустимы скрипты, викификатор, переводчики текста, однако при условии скрупулёзного контроля со стороны участника. — Ur frnd(обс) 22:54, 11 апреля 2025 (UTC)[ответить]
  19. (+) За. С одной стороны, если человек хочет прочитать статью, написанную нейросетью — пускай спрашивает у нейросети. Нейросеть тут должна использоваться как вспомогательный инструмент, призванный улучшить качество статьи, а не гнаться за количеством. Tucvbif??? 05:52, 4 мая 2025 (UTC)[ответить]
  20. (+) За. Неоднократное использование нейросетей и заливка некачественного текста новыми участниками — бессрочная блокировка до нахождения наставника. Не понравится, пусть уходят в другой проект — потеря не велика. Граф Рауль Валуа (обс.) 12:34, 5 мая 2025 (UTC)[ответить]
  21. Per VulpoШуфель (обс.) 11:43, 5 июня 2025 (UTC)[ответить]

Нет

  1. Как и любая революционная технология, ИИ развивается и внедряется не без проблем, но проблемы не должны быть поводом закрывать дорогу новому. Написание статей – это, признаем прямо, собачья работа, а мне охота успеть почитать готовую Википедию. Поголовного участия в Википедии знатоков и профессионалов мы не дождёмся, поэтому только ИИ может помочь с написанием Википедии. На данном этапе нужно возникающие проблемы урегулировать ограничениями, но когда технологии окрепнут и избавятся от детских болезней (а это может произойти через 5 лет или уже завтра), мой голос будет в секции ниже, хотя и с некоторыми оговорками. — Homoatrox (обс.). 05:02, 25 марта 2025 (UTC)[ответить]
  2. Ну нет. Уже достаточно полезных примеров (эксперименты Рэмпиона, Завра, ещё кого-то вроде были) ― опытным участникам ИИ действительно весьма помогает в написании статей. Well very well (обс.) 05:37, 25 марта 2025 (UTC)[ответить]
  3. Текст нужно обязательно проверить на соответствие авторитетным источникам, но всегда есть вероятность, что он будет полностью правдив и написан по правилам Википедии, которые нейросеть предварительно изучила. ИИ — просто инструмент. — SkorP24 05:43, 25 марта 2025 (UTC)[ответить]
  4. Выше более развёрнуто отвечал. ·Carn 08:33, 25 марта 2025 (UTC)[ответить]
  5. Это бессмысленно. 𝓛𝓮𝓸𝗞 𝗮 𝗻 𝗱 08:53, 25 марта 2025 (UTC)[ответить]
  6. Нет, опытным участникам нейронки могут быть полезны. Denmaterial 12:51, 25 марта 2025 (UTC)[ответить]
  7. Нет. Это инструмент, который может быть помощником, но никак не заменителем кожаного мешка при написании текстов и который можно использовать во благо — выше уже есть примеры. Не нужно мешать добросовестному использованию ИИ, которое способствовало бы улучшению энциклопедии. — Смайлингобс.; 12:55, 25 марта 2025 (UTC)[ответить]
  8. Огульно — нет, но некоторые виды использования ИИ могут быть признаны нежелательными. This is Andy 14:44, 25 марта 2025 (UTC)[ответить]
  9. Эти тексты вполне могут жить по существующим правилам. Если кто-то злоупотреляет инструментом (хоть chatgpt, хоть викификатором) у нас уже есть возможность на него воздействовать. Ghuron (обс.) 15:53, 25 марта 2025 (UTC)[ответить]
  10. Однозначно нет. Мы не запрещаем использовать разные варианты переводчиков, хотя там бреда не меньше, мы не запрещаем использовать сайты в качестве источников, хотя там бреда не меньше, мы не запрещаем использовать не научные издания в качестве источников, хотя там бреда не меньше. ИИ - это только инструмент и нельзя запрещать использование инструмента при написании статей. VladimirPF 💙💛 16:51, 25 марта 2025 (UTC)[ответить]
  11. Запретить в данном случае нельзя, можно только провозгласить/декларировать запрет, feel the difference :) — Postoronniy-13 (обс.) 21:38, 25 марта 2025 (UTC)[ответить]
  12. Нет. Ожидаю улучшение качества LLM-моделей, и ухудшение качества человеческого интеллекта в связи с этим. Наблюдаю, что LLM может чётче сформулировать мысль/концепцию, чем некоторые люди. -- Voyagerim (обс.) 12:59, 27 марта 2025 (UTC)[ответить]
  13. Нет. russesch / написать мне 08:49, 30 марта 2025 (UTC)[ответить]
  14. Нет. Технологии быстро развиваются. Просто использовать нужно аккуратно, доверять, но проверять.— Sunny365days (обс.) 15:20, 31 марта 2025 (UTC)[ответить]
  15. (+) За. — Erokhin (обс.) 15:22, 2 апреля 2025 (UTC)[ответить]
  16. Не рискну записаться в раздел ниже, но запрещать - точно нет. Томасина (обс.) 13:58, 6 мая 2025 (UTC)[ответить]
  17. Запретить ли топоры, опасаясь за жизни старух-процентщиц? Красныйхотите поговорить? 12:13, 28 июня 2025 (UTC)[ответить]

Нет, и признать полезным

  1. мои родители учились во времена, когда признавалось вредным пользоваться шариковой ручкой, я помню времена, когда вредным было использование калькуляторов (да, я из поколения, которое умеет пользоваться логарифмической линейкой, хотя из самой финальной его части), я помню времена, когда вредным было печатать курсовые и дипломные работы, я помню времена, когда много чего было вредным, а сегодня мы без этого жить не можем. Так и ИИ (как бы его не называли): мы должны придумать, как использовать его на пользу википедии, а не прятать голову в песок запреты. Чем больше сил мы тратим на придумывание запретов, тем меньше у нас остаётся сил на придумывание, как использовать. А потом будет поздно: читатель просто перестанет интересоваться википедией. — VladimirPF 💙💛 16:57, 25 марта 2025 (UTC)[ответить]
    • (!) Комментарий: борьбу с печатными работами помню. Говорили, что это отучает мыслить, всё берут из проклятого Интернета, из той же Википедии (это была одна из причин борьбы с ней, насколько помню). А нужно жить своим умом и писать от руки. Калькуляторы шеймили похожей риторикой, дескать, дети должны считать сами. И, мол, калькулятор же не будут везде с собой носить. — Proeksad (обс.) 13:23, 26 марта 2025 (UTC)[ответить]
    • Как использовать его на пользу википедии — это ключевое для данной темы вообще. Nikolay Omonov (обс.) 13:32, 26 марта 2025 (UTC)[ответить]
      • Как использовать его на пользу википедии — это ключевое для данной темы вообще
        Да нет же. Тема обсуждения "как будем запрещать?". И это главная ошибка опроса. И это главная проблема сообщества. Впрочем, сейчас сообщество находится в зоне комфорта и сопротивляется любым попыткам изменить эту зону. Посмотрите как реагирует большинство на любые предложения изменения ЧКЗ. Дошло до того, что кто то умудрился заявить, что критерии значимости нужны только для простого удаления статей на КУ. Посмотрите сколько комментариев в духе "я не знаю как работает, но запретить нужно в любом случае!" VladimirPF 💙💛 14:34, 26 марта 2025 (UTC)[ответить]
  2. Постепенно будет всё полезнее и полезнее. Интернет тоже хотели запретить, и соц сети, и месенджеры. Да и автомобиль тоже считался вредным, так как он распугивал лошадей. Optimizm (обс.) 11:33, 30 марта 2025 (UTC)[ответить]
  3. ИИ должен быть инструментом википедиста, помощником, средством снижения затрат при интеллектуальном труде, берущим на себя примитивные и времязатратные задачи на промежуточных этапах. ИИ будет становиться умнее, люди неизбежно будут им пользоваться все шире и чаще. Я понимаю страх перед заполнением Википедии сгенерированным машиной нейрослопом, но надо создавать и поощрять полезные и продуктивные практики, а не требовать делать все вручную во веки веков. — Dangaard (обс.) 07:43, 5 мая 2025 (UTC)[ответить]
  4. Любой тест полученный изложением гораздо лучше, чем напишет среднестатистический редактор. Но тут очень важен исрпользуемый ИИ. Некоторые с русским языком вообще не дружат. Качество также зависит от промпта. Alexander Mayorov (обс.) 11:24, 2 июня 2025 (UTC)[ответить]

Иное

  1. Не запрещать, но признать нежелательным использование ИИ малоопытными участниками для написания текстов. Beonus (обс.) 17:08, 25 марта 2025 (UTC)[ответить]
  2. Не запрещать использование ИИ как ассистента в написании статей, но признать нежелательным более маштабное использование. Limekas (обс.) 11:20, 26 марта 2025 (UTC)[ответить]
  3. Любой инструмент может быть полезен, если его правильно использовать, и вреден, если его использовать неправильно. Здесь нужно поступать также, как с внесением текстов с машинным переводом: использовать для понимания темы можно, но вносить в статьи один в один не стоит. Текст, сгенерированный ИИ, нельзя вносить без перепроверки, ибо это нарушает ВП:ПРОВ (нужно понимать, откуда взялась та или иная информация) и может привести к созданию мистификаций. Но я могу придумать случаи, когда использование ИИ для генерации текста уже сейчас может быть полезно, например, чтобы перефразировать текст из источника. И есть подозрение, что со временем вариантов использования ИИ будет больше, да и технологии сейчас развиваются семимильными шагами. Vladimir Solovjev обс 14:59, 26 марта 2025 (UTC)[ответить]
  4. Нельзя писать статьи только лишь на основе текстов, созданных ИИ. Думаю, можно разрешить использовать сгенерированный нейросетью тексты только в качестве основы для статьи с последующей выверкой, поиском АИ и изменением стиля. Гоголь М (страница обсуждения | вклад) 15:13, 31 марта 2025 (UTC)[ответить]
  5. И как вы это планируете сделать? Iniquity (обс.) 20:21, 31 марта 2025 (UTC)[ответить]
  6. Если это нельзя проверить, то смысл запрещать? -- dima_st_bk 19:20, 5 апреля 2025 (UTC)[ответить]
  7. Ужесточить требование наличия источников и наказание за подлог. Пусть пишут как хотят, но отвечают за каждое написанное слово. Rijikk (обс.) 07:53, 3 июня 2025 (UTC)[ответить]

Что делать при обнаружении (в очевидных случаях)?

Что делать при обнаружении в основном пространстве крупного фрагмента текста, если не вызывает особых сомнений, что он был сгенерирован при помощи ChatGPT или его аналога и не был в достаточной степени проверен?

Удалять

  1. Особенно, где есть раздел "заключение", которого в Вики и в помине не было. — Владлен Манилов [✎︎] / 03:20, 25 марта 2025 (UTC)[ответить]
  2. Да. ʜᴏʀɪᴢᴏɴ [ᴅɪsᴄᴜʀsᴜs] [ᴄᴏɴᴛʀɪʙs] 04:45, 25 марта 2025 (UTC)[ответить]
  3. Удалять, как делается с машпереводами и другими несоответствующими энциклопедичности и стилю текстами. Nikolay Omonov (обс.) 04:47, 25 марта 2025 (UTC)[ответить]
  4. Да. Well very well (обс.) 05:38, 25 марта 2025 (UTC)[ответить]
  5. По аналогии с грубыми машпереводами и мистификациями.— Dmartyn80 (обс.) 07:36, 25 марта 2025 (UTC)[ответить]
  6. Если очевидно — удалять конечно. На текущем уровне развития ещё есть явные признаки нейростатей. -- Megitsune-chan (ОБС.) 10:58, 25 марта 2025 (UTC)[ответить]
  7. Удалять. — Книжная пыль (обс.) 12:30, 25 марта 2025 (UTC)[ответить]
  8. На проверку и переписывание уйдет ровно столько же времени, что и на написание с нуля. — Vulpo (обс.) 13:49, 25 марта 2025 (UTC)[ответить]
  9. В очевидных случаях удалять, добавив критерий КБУ C7 «Необработанная статья, созданная нейросетью». Формулировка: «Статья, из которой явно следует, что она была создана при помощи нейросетей. Статьи, из которых неочевиден факт написания нейросетью по этому критерию не удаляется (при отсутствии консенсуса об очевидности данного факта)». Футболло (обс.) 16:35, 25 марта 2025 (UTC)[ответить]
  10. Всякие «анализы, выводы и заключения» и килотонны водянистого текста в ОП не нужны.— Silence / user talk 10:39, 26 марта 2025 (UTC)[ответить]
  11. Удалять сразу, потому что ИИ — это неавторитетный источник. Предупредительные шаблоны не работают. Ожидание, что автор исправит халтуру, не оправдываются (вот пример даже с участником Проекта ИС/ХС). Исправлять некому, КУЛ перегружен. — Poltavski / обс 13:48, 26 марта 2025 (UTC)[ответить]
    • я сегодня с помощью ИИ оформил два авторитетных источника - начинайте удаление прямо с них. VladimirPF 💙💛 14:35, 26 марта 2025 (UTC)[ответить]
      • Обращаю ваше внимание на то, что здесь голосуют за удаление крупных фрагментов текста, в случае если не вызывает особых сомнений, что он был сгенерирован при помощи ChatGPT или его аналога и не был в достаточной степени проверен. — Poltavski / обс 18:28, 26 марта 2025 (UTC)[ответить]
        • А если эти крупные фрагменты были написаны человеком и имели бы те же недостатки, вы бы их оставили? VladimirPF 💙💛 18:31, 26 марта 2025 (UTC)[ответить]
          • Вы непродуманно задали этот риторический вопрос, но я отвечу: большинство моего вклада — это исправление недостатков, появившихся в результате человеческого труда. Я мог бы забавную статью написать о том, с чем мне приходилось сталкиваться и исправлять. Вот только все исправления требуют очень много времени, чтобы еще и ChatGPTешные недостатки исправлять, продуцируемые нерадивыми участниками. — Poltavski / обс 18:51, 26 марта 2025 (UTC)[ответить]
    • Так-то ИИ вообще источником не является, это в корне неверное определение. Утилиты по типу ChatGPT — это генераторы, инструменты для создания текста. И, даже используя ИИ, по ВП:ПРОВ участник обязан ссылаться на авторитетные источники. Если в добавленном тексте они проставлены и полностью подтверждают этот текст — он не хуже любого другого. Beonus (обс.) 16:45, 26 марта 2025 (UTC)[ответить]
      • Пожалуйста, покажите качественную статью, генерированную ChatGPT, а то из дискуссии в дискуссию все какую-то белиберду видим и ни одного позитивного примера. Я уже предлагал одному коллеге сгенерировать статью по предложенным качественным источникам. Результата не увидел. Попытка номер 2: вот еще одна проблемная статья, на исправление которой ни у кого нет времени. Я любому желающему предоставлю список доступных онлайн первокласных АИ. Покажите результат, который всех убедит в возможностях инструментов ИИ. — Poltavski / обс 18:09, 26 марта 2025 (UTC)[ответить]
        • Коллега, а хотите я вам покажу проблемную статью написанную человеком? Не надо выискивать плохие статьи. Надо думать, как применить для написания хороших. VladimirPF 💙💛 18:26, 26 марта 2025 (UTC)[ответить]
        • Вы привели пример попытки номер два. Вы смотрели историю статьи? На начата вот этой версией 2010 года - думаете ИИ её сочинил? VladimirPF 💙💛 18:28, 26 марта 2025 (UTC)[ответить]
          • Выискивать плохие статьи не приходится, они сами тебя находят. А думать вам, «как применить для написания хороших», никто не мешает. Даже уже предложено долгосрочное обсуждение. Пожалуйста, подключайтесь. Лично я с надеждой буду следить за результатами, но пока «маємо те, що маємо». — Poltavski / обс 18:36, 26 марта 2025 (UTC)[ответить]
        • Я лишь обращаю ваше внимание на неверную аргументацию, которую вы приводите, ИИ — это не источник. Очевидно, что для комплексных задач по типу написания цельной большой статьи ИИ на текущий момент времени не подходит. Но, для более мелких задач прекрасно находится применение, пролистайте в самый верх, там приведены примеры. Если вы не обладаете достаточными навыками для получения реальной пользы от ИИ, это не означает, что ими не обладает никто. Исключительно по этой причине я не приветствую радикальные взгляды в стиле «всё запретить, статьи должны писаться людьми, за использование ИИ перма-бан». Beonus (обс.) 18:53, 26 марта 2025 (UTC)[ответить]
          • Абсолютно ненужное обращение внимания. Я представляю, что такое ИИ. Вместе с тем применил этот термин как метафору, потому что в памяти свежи опусы одного недавно обсуждаемого автора. Вот у него ИИ — это не инструмент, а источник. Боюсь, что таких авторов будет не мало. — Poltavski / обс 19:01, 26 марта 2025 (UTC)[ответить]
            • Боюсь, что таких авторов будет не мало — опять же, это не причина, чтобы ИИ полностью запрещать или как-то негативно к нему относиться (если я правильно понимаю, подобные позиции вам близки). Например, мне довольно часто приходится отменять правки новых участников с добавлением инфы без АИ, но это же не аргумент, чтобы изобретать велосипед, запрещающий им добавлять новые абзацы текста, и разрешающий только редактирование уже имеющихся. Должны быть правила, регулирующие использование ИИ, ровно так же, как существуют правила по источникам, по использованию чужих материалов и т. д. Надеюсь, этот опрос поспособствует их созданию. А добросовестный участник грамотное применение этому инструменту найдет всегда. Beonus (обс.) 19:22, 26 марта 2025 (UTC)[ответить]
  12. По скорости генерации текстов человек не конкурент искину, поэтому при очевидной нейрогенерации проще снести, чем тратить ресурсы сообщества на выверку сомнительного текста. Рыц-Поля 07:27, 28 марта 2025 (UTC)[ответить]
  13. Тоже здесь. Гоголь М (страница обсуждения | вклад) 15:16, 31 марта 2025 (UTC)[ответить]
  14. Есть сомнения в адекватности текста без источников — удалять. Есть сомнения в источниках — удалять. Iniquity (обс.) 20:23, 31 марта 2025 (UTC)[ответить]
  15. Здесь. Эниси (обс.) 09:47, 2 апреля 2025 (UTC)[ответить]
  16. По аналогии с машпереводами. Проблема, что в недалёком будущем LLM будут генерировать всё более правдоподобные тексты с правдоподобными источниками. Такое только проверять руками и выдавать бессрочку автору за подлоги. -- dima_st_bk 19:22, 5 апреля 2025 (UTC)[ответить]
  17. Если нет особых сомнений, что перед нами непроверенный нейротекст, то его, разумеется, нужно удалять немедленно при обнаружении. Такие тексты обычно содержат множество труднообнаружимых фактических ошибок. Их несопоставимо больше, чем в текстах просто невнимательных участников. Непроверенный нейротекст похож на результат работы хитрого вандала, который написал на первый взгляд нормальную статью, но напихал в неё ложных утверждений правдоподобного вида. Причём в отличие от вандала, нейросеть тратит на создание статьи меньше минуты. Предложения обращаться с очевидными непроверенными нейротекстами так же, как с обычными, совершенно абсурдны. Тратить часы времени опытных участников на выискивание и исправление "галлюцинаций" в тексте, кем-то безответственно сгенерированном за секунды, нерационально. Если даже предположить, что какой-то участник для написания нормальной статьи захочет использовать нейротекст в качестве основы, то он сам сможет почти мгновенно сгенерировать его. — Алексей Ладынин (обс.) 11:25, 8 апреля 2025 (UTC)[ответить]
  18. В очевидных случаях (явная чушь и корявый язык) лучше удалять сразу, как и с машинными переводами, bezik 11:58, 8 апреля 2025 (UTC)[ответить]
  19. Удалять. Андрей Бондарь (обс.) 00:55, 30 апреля 2025 (UTC)[ответить]
  20. (+) Да. Также как и машинный перевод. Более того, надо подойти к последнему более строго: сейчас достаточно часто машинный перевод определяют только по грамотности языка, что давно не является проблемой. Tucvbif??? 05:56, 4 мая 2025 (UTC)[ответить]
  21. Тексты, сгенерированные (или переведенные) машиной без участия человека, не должны находиться в основном пространстве Википедии. — Dangaard (обс.) 07:43, 5 мая 2025 (UTC)[ответить]
  22. (+) Да Удалять. А если участник продолжает заливать некачественные статьи или отрывки текстов, не принимая всерьёз советов, то тогда бессрочить. Граф Рауль Валуа (обс.) 12:36, 5 мая 2025 (UTC)[ответить]
  23. Да. Rijikk (обс.) 07:53, 3 июня 2025 (UTC)[ответить]

Поступать так же, как с текстами, написанными людьми

  1. Происхождение текста неважно. Если текст плох (неправильный промпт, неумелая модель, сложная тема и т.д.), то и обращаться с ним нужно как с любым другим плохим текстом. — Homoatrox (обс.). 05:11, 25 марта 2025 (UTC)[ответить]
  2. Дополнение к моему комментарию разделом выше: однако со временем, по ходу развития ии, очевидных случаев, вероятно, не останется. Nikolay Omonov (обс.) 05:26, 25 марта 2025 (UTC)[ответить]
  3. Я поддерживаю ужесточение общих правил обращения с текстами, у которых отсутствуют указанные авторитетные источники, вплоть до их удаления без всех этих шаблонов «нет АИ», но к нейросетевым текстам не должно быть какого-то отдельного отношения по сравнению с добросовестными правками в этом плане. — SkorP24 05:50, 25 марта 2025 (UTC)[ответить]
  4. Нет смысла плодить сущности. ·Carn 08:34, 25 марта 2025 (UTC)[ответить]
  5. Надо бороться с неумелым/некорректным использованием инструмента, а не с любым. Vcohen (обс.) 08:46, 25 марта 2025 (UTC)[ответить]
  6. Аналогично машпереводам: на КУ много раз удалял статьи по С2, и иногда прибегал автор с криками: «Это не машперевод! Я переводил сам!» Охотно верю, но важен результат, а не процесс. Можно переводить при помощи машпереводчика (с немецкого, например, они уже весьма приличный результат выдают), переводить самому или нанять за огромные тыщи профи — без разницы, важно, что вышло. 𝓛𝓮𝓸𝗞 𝗮 𝗻 𝗱 08:56, 25 марта 2025 (UTC)[ответить]
  7. Ровно то же самое, что и с тем, что пишет человек. Если текст расходится с источниками или не имеет их вовсе — удалять или исправлять, на усмотрение участника, заметившего сие. — Смайлингобс.; 12:55, 25 марта 2025 (UTC)[ответить]
  8. Зависит от качества и от нашедшего участника. Можно что-то исправить, можно повесить запрос источника, но должен быть и щаблон, требующий удаления («нейрозаливка без источников»). Demetrius Talpa (обс.) 14:12, 25 марта 2025 (UTC)[ответить]
    • В идеале - проверить, оставить верное, добавить источники, поправить оформление - то есть использовать как уже готовую ЗАГОТОВКУ для статьи. Ну или если очевидная ересь - удалять. Для ленивых - не всё надо удалять, улучшите, если можете, или придуймайте шаблон - "Эта статья сгенерирована, проверьте и оформите соответсвующим образом", который одновременно и предупреждает и зовёт людей, которые с интересом доведут её до ума No4ni (обс.) 13:16, 4 апреля 2025 (UTC)[ответить]
  9. Вопрос плохо сформулирован. Если он не в достаточной степени проверен, то мы скорее всего должны спросить - а нет ли в нем проблем с АИ/стилем и т.д. Тут бы хорошо помог механизм патрулирования (и я бы добавил этот пункт к обязанностям ПАТов/АПАТов к проверке таких текстов. Kylain Aixter (СО) 15:29, 25 марта 2025 (UTC)[ответить]
  10. Несмотря на то что тексты ИИ больше подвержены ошибкам заметить которые сложно - удалять без вопросов такой текст не стоит, лучше подобные ошибки (если они будут) зачислять на счет автора текста (По идеи вынудит или вычитывать текст и заранее убирать все ошибки или отказаться от нейросети) ―желая счастья Мелкий 08:14, 26 марта 2025 (UTC)[ответить]
  11. Скорее, тут. — Jim_Hokins (обс.) 18:41, 28 марта 2025 (UTC)[ответить]
  12. (+) За. — Erokhin (обс.) 15:23, 2 апреля 2025 (UTC)[ответить]
  13. Здесь. Мы оцениваем не авторов, а статьи. Томасина (обс.) 14:00, 6 мая 2025 (UTC)[ответить]
  14. Машинный перевод гораздо хуже некоторых текстов, написанных ИИ. Наверное просто шаблоном помечать. Alexander Mayorov (обс.) 11:27, 2 июня 2025 (UTC)[ответить]
  15. Согласен с коллегой Томасина. Красныйхотите поговорить? 12:14, 28 июня 2025 (UTC)[ответить]

Иное

  • Нужно поступать аналогично машинным переводам. Наиболее грубые удаляются, некоторые переписываются. Pessimist (обс.) 07:06, 25 марта 2025 (UTC)[ответить]
  • Много от чего зависит: от качества/стиля/содержательности текста, от доверия к участнику (он случайно что-то из нейроглюков пропустил или не проверял вообще ничего), от наличия источников, по которым хотя бы теоретически можно доработать (в этом случае может помочь зачистка до стаба с сохранением АИ) и т д. This is Andy 14:47, 25 марта 2025 (UTC)[ответить]
  • Сама постановка вопроса странная: вопрос предполагает преступность использования ИИ. VladimirPF 💙💛 17:01, 25 марта 2025 (UTC)[ответить]
    • Гугл-переводчик тоже использовать можно. Но только для создания подстрочника, а не публикации конечного результата. В противном случае мы бы давно запустили робота и перевели к нам миллионы статей англовики. Использование машперевода преступно настолько, что является критерием быстрого удаления. Означает ли это «преступность» любого использование автопереводчика? Pessimist (обс.) 08:14, 26 марта 2025 (UTC)[ответить]
  • Проблема в том, что этот вагон, как и предыдущий, стоит впереди паровоза. При положительном ответе на первые 2 вопроса опроса (к тому, Слава Богу, и идёт) у меня будет один ответ. При отрицательном, другой. 2 диаметрально противоположных ответа. Стоит этот и предыдущий вопрос пока закрыть и потом провести по итогам опрос № 2 — © SAV✉️ 20:19, 26 марта 2025 (UTC)[ответить]

Что делать при обнаружении (в неочевидных случаях)?

Что делать при обнаружении в основном пространстве крупного фрагмента текста, который предположительно был сгенерирован при помощи ChatGPT или его аналога и не был в достаточной степени проверен, если имеются сомнения?

Удалять, если есть консенсус

Если участники пришли к выводу, что скорее всего текст был сгенерирован при помощи ChatGPT или его аналога и не был в достаточной степени проверен, то его следует удалить целиком.

  1. Да, за качество текста отвечает его автор, см. ВП:БРЕМЯ. ʜᴏʀɪᴢᴏɴ [ᴅɪsᴄᴜʀsᴜs] [ᴄᴏɴᴛʀɪʙs] 04:46, 25 марта 2025 (UTC)[ответить]
  2. К сожалению, скорее сюда. У нас уже огромные проблемы с вычиткой статей авторов, известных подлогом источников, с (необработанным) ИИ это станет только хуже. Well very well (обс.) 05:39, 25 марта 2025 (UTC)[ответить]
  3. Учитывая сокращение викисообщества, придётся ужесточать. Не наздравствуешься на каждого школяра.— Dmartyn80 (обс.) 07:38, 25 марта 2025 (UTC)[ответить]
  4. При плохой обработке текста и/или непроверке (ложные или ОРИССные утверждения) сносить.— Silence / user talk 10:40, 26 марта 2025 (UTC)[ответить]
  5. Согласен, автор должен результатом убедить, что в статье говорится консенсусная и проверяемая информация. Если очевидно, что это не так - есть консенсус - то удалять. Но до его достижения ставить какой-нибудь шаблон - может кто успеет проверить/исправить No4ni (обс.) 13:20, 4 апреля 2025 (UTC)[ответить]

Поступать так же, как с текстами, написанными людьми

  1. В неочевидных случаях всё же жестить не нужно, обсуждать - проверять по источникам. — Владлен Манилов [✎︎] / 03:20, 25 марта 2025 (UTC)[ответить]
  2. Сюда, поскольку вариант удаления в таких случаях может открыть охоту на ведьм, когда любой недостаточно литературно красивый текст будет объявляться сделанным ии. Nikolay Omonov (обс.) 04:50, 25 марта 2025 (UTC)[ответить]
  3. Происхождение текста не должно иметь значения. Кроме того, согласен с аргументом Nikolay Omonov: при объявлении гонений на ИИ будет новый способ сведения счетов, притом что привести доказательства не всегда возможно. — Homoatrox (обс.). 05:17, 25 марта 2025 (UTC)[ответить]
    • Недавно читал статью, написанную ии, но вычитанную человеком. Иишность видна была по некоторым моментам с неестественным порядком слов в предложении (да, в русском языке тоже существует порядок слов в предложении). Тогда я подумал, что многие написанные мной тексты, по тому же принципу, если захотеть прикопаться, тоже можно объявить написанными ии. Я не Пушкин и без вычитки делать идеальные тексты не умею, как и большинство людей. Nikolay Omonov (обс.) 05:31, 25 марта 2025 (UTC)[ответить]
  4. По аналогии с моим мнением в секции выше. — SkorP24 06:07, 25 марта 2025 (UTC)[ответить]
  5. Факт использования ИИ сам по себе не проблема, а если в статье есть проблемы, то вот с ними и надо бороться (вплоть до удаления статьи, если в конкретном случае до него дойдет). Vcohen (обс.) 08:48, 25 марта 2025 (UTC)[ответить]
  6. Если «предположительно сгенерирован», а не явно очевидно, то надо разбираться -- Megitsune-chan (ОБС.) 11:00, 25 марта 2025 (UTC)[ответить]
  7. Проверка, так же, как и текстов, написанных редакторами-людьми. — Книжная пыль (обс.) 12:31, 25 марта 2025 (UTC)[ответить]
  8. Скопипащу свой ответ из прошлого раздела: ровно то же самое, что и с тем, что пишет человек. Если текст расходится с источниками или не имеет их вовсе — удалять или исправлять, на усмотрение участника, заметившего сие. Происхождение текста, на мой взгляд, значения иметь не должно: неважно, написал ли его человек полностью сам, или с использованием ИИ, или с помощью другого человека, или ему это кот надиктовал. — Смайлингобс.; 12:55, 25 марта 2025 (UTC)[ответить]
  9. Если неочевидно, надо разбираться, что же поделать. This is Andy 14:48, 25 марта 2025 (UTC)[ответить]
  10. Если неочевидно, то точно не КБУ. Надо смотреть уже на КУ. Футболло (обс.) 16:35, 25 марта 2025 (UTC)[ответить]
  11. Аналогично моему ответу выше. Не разделять человека и способ котором он пишет текст. Автор, что пишет нейросетью несет такую же ответственность за текст как если бы писал его сам ―желая счастья Мелкий 08:18, 26 марта 2025 (UTC)[ответить]
  12. Скорее, тут. — Jim_Hokins (обс.) 18:42, 28 марта 2025 (UTC)[ответить]
  13. (+) За. — Erokhin (обс.) 15:24, 2 апреля 2025 (UTC)[ответить]
  14. Если у нас нет достаточных оснований утверждать, что текст был сгенерирован (или переведен) машиной без участия человека, мы должны относиться к нему точно так же, как к любому плохому тексту, написанному человеком: удалить, если он безнадежен, дорабатывать, если он представляет ценность. — Dangaard (обс.) 07:43, 5 мая 2025 (UTC)[ответить]
  15. И снова здесь. Мы оцениваем не авторов, а статьи. Томасина (обс.) 14:01, 6 мая 2025 (UTC)[ответить]
  16. russesch / написать мне 10:37, 10 мая 2025 (UTC)[ответить]
  17. Красныйхотите поговорить? 12:14, 28 июня 2025 (UTC)[ответить]

Иное

  • И снова вопрос поставлен крайне странно. Я его читаю так: мне хочется преследовать автора: могу ли я заявить, что статья написана ИИ и потребовать преследования автора? VladimirPF 💙💛 17:03, 25 марта 2025 (UTC)[ответить]
    • Согласен с вами. Если мы не знаем, написана ли статья нейросетью, мы не можем применять к ней правило о предположительно сгенерированной, ведь она может как быть, так и не быть сгенерированной. Natsevskiy (обс.) 16:47, 28 марта 2025 (UTC)[ответить]
  • Делать запрос на выверку тому, кто текст выложил. Если абонент — не абонент, то при консенсусе участников, разбирающихся в теме — удалять. Рыц-Поля 07:30, 28 марта 2025 (UTC)[ответить]
  • Тут видимо придётся привязываться к личности написавшего. Если это аноним, недавно зареганный участник, либо участник, вдруг начавший писать большое количество статей с признаками машинной генерации — тут нужно действовать более строго, не просто удалять статьи как можно быстрее при обнаружении, но ещё и предупреждать участника о недопустимости массого создания ИИ-статей, а при отсутствии обратной связи — блокировать. Tucvbif??? 06:05, 4 мая 2025 (UTC)[ответить]

Вне основного пространства

Следует ли как-либо регламентировать или ограничить использование сгенерированных ChatGPT и его аналогами текстов вне пространства статей?

В обсуждениях

  • Встречаются и реплики в обсуждения, сгенерированные ИИ. Видел на форумах, что нужно предупреждать, что это нежелательно, поскольку ИИ не понимает тонкость правил Википедии, и его комментарии обычно также разбиваются об ВП:АКСИ/не имеют отношения к критериям значимости. — Владлен Манилов [✎︎] / 03:20, 25 марта 2025 (UTC)[ответить]
  • ИИшные реплики в ответ на сообщения оппонентов запретить. ʜᴏʀɪᴢᴏɴ [ᴅɪsᴄᴜʀsᴜs] [ᴄᴏɴᴛʀɪʙs] 04:46, 25 марта 2025 (UTC)[ответить]
  • Не запрещать.
    Если такая реплика несёт меньше пользы для позиции участника, чем написанная самим участником, это его выбор.
    Никакого основания запретов в этом пространстве нет. Это все равно, что запретить участникам делать реплики, которые (по мнению других участников) не основаны на правилах (по принципу написал новичок что-то из серии «другие статьи» или высказал свое мнение, где не каждая фраза не подкреплена ссылкой на АИ — в бан его). Не надо так.
    Бывает, что реплика, написанная человеком, намного менее осмысленна и связана с правилами ВП, чем реплика ии. Таких участников надо сразу банить?
    Если участник систематически трибунит, флудит, ходит по кругу, играет с правилами, есть проработанные процедуры предупреждений и блокировок — и не имеет значения пользуется ли он для этого исключительно своей головой или ии. Nikolay Omonov (обс.) 04:59, 25 марта 2025 (UTC)[ответить]
  • Желательно на репликах ставить дисклеймер, что они были написаны ИИ. Well very well (обс.) 05:40, 25 марта 2025 (UTC)[ответить]
  • Вероятно, кто-то вспомнит меня как сторонника помещения в ВП:ЧНЯВ пункта «Википедия — не место общения с ИИ», который бы не рекомендовал использовать ИИ для написания реплик в обсуждениях (здесь это подробно обсуждается), но в целом коллега @Котик полосатый высказал там дельную мысль, что участника, злоупотребляющего ИИ, можно просто попросить, чтобы он перестал писать малоосмысленные реплики на полэкрана (не важно, с ИИ или без). Продолжая эту мысль, можно применять к конкретному участнику санкции в том случае, если он не меняет своё поведение. Поэтому я сейчас склоняюсь к стандартному применению ВП:ДЕСТ по форме и сути неконструктивных реплик участников, а не по критерию используемых ими инструментов. — SkorP24 06:22, 25 марта 2025 (UTC)[ответить]
  • Обнаружение таких реплик — повод для предупреждения. Систематическое использование считать ВП:ДЕСТ. Pessimist (обс.) 07:08, 25 марта 2025 (UTC)[ответить]
  • Регулярное использование такой технологии в обсуждениях - повод задуматься о конструктивности участника. Дальше зависит от причины такого использования.— Dmartyn80 (обс.) 07:40, 25 марта 2025 (UTC)[ответить]
  • Обсуждения предназначены для поиска консенсуса между участниками. Искать консенсус с нейросетью бессмысленно, ей все равно и она не понимает, что говорит. Поэтому в обсуждениях их применение просто абсурдно и безусловно вредно. Demetrius Talpa (обс.) 08:03, 25 марта 2025 (UTC)[ответить]
  • Нет смысла. Есть много людей, которые сами от себя пишут неадекватно, и нет смысла как-то отделять от них тех, кто использует ИИ. Vcohen (обс.) 08:49, 25 марта 2025 (UTC)[ответить]
  •  Опять же: недоказуемо. Есть у нас один коллега, не буду называть, который регулярно пишет километровые посты на КУ и ВУС — я бы подумал, что это нейросеть, если бы он не писал аналогичные тексты задолго до появления Чада ДжиПиТи и прочего. 𝓛𝓮𝓸𝗞 𝗮 𝗻 𝗱 08:58, 25 марта 2025 (UTC)[ответить]
  • Ну как минимум не поощрять подобное. С нейронкой я и сама могу пообщаться, когда мне надо. В обсуждениях хотелось бы всё же видеть личное мнение и аргументы участника, а не сгенерированный бред. -- Megitsune-chan (ОБС.) 11:02, 25 марта 2025 (UTC)[ответить]
  • Признать нежелательным, сначала предупреждать, при продолжении - поступать как при деструктивном поведении. Тут проблема ведь не в инструменте, а в бездумном и без проверки написанного использовании. ИИ для реплик используют, когда нет желания читать ссылки на правила, разбираться с ними и находить аргументы. — Vulpo (обс.) 14:05, 25 марта 2025 (UTC)[ответить]
  • Нейрореплики в обсуждениях — зло. У нас тут сообщество людей, и разговариваем мы с людьми. Кроме того, подобные реплики обычно содержат невообразимое количество воды, и засорение обсуждения стенами текста — зло однозначное. This is Andy 14:50, 25 марта 2025 (UTC)[ответить]
  • Если данный факт (использования нейросети) явен — то скрывать, нечего видеть людям сообщения без информационной ценности. Футболло (обс.) 16:39, 25 марта 2025 (UTC)[ответить]
  • Мы снова упираемся в стигматизацию ИИ. Если глупый участник просто копипастит бред высказанный ИИ, то поступать с ним нужно так же, как и в других случаях бреда. А если администратор использует ИИ для анализа аргументов, высказанных в обсуждении на КУ? VladimirPF 💙💛 17:05, 25 марта 2025 (UTC)[ответить]
  • Искусственный интеллект может быть полезным инструментом для формулирования мыслей или преодоления языковых барьеров, если используется ответственно, с должным контролем человека (данная реплика написана ИИ). Котик полосатый (обс.) 17:08, 25 марта 2025 (UTC)[ответить]
  • Ну уж нет... Недавний кейс на ФА с участником Онеми, написавшим тонны нейросетевых оправданий, почему его нельзя блокировать, убеждает, что так лучше не делать.— Silence / user talk 10:41, 26 марта 2025 (UTC)[ответить]
  • Запретить, приравнять к деструктивному поведению. Были уже такие "умельцы-промптеры", выливающие тоннами нейроаргументы, не имеющие связи с реальностью. Natsevskiy (обс.) 16:47, 28 марта 2025 (UTC)[ответить]
  • Полностью запрещать не нужно, но использование ИИ в обсуждениях должно быть 1) обосновано 2) явно указано. Например, бот, который предупреждает участника о возможно совершённом им нарушении, дающий рекомендации по улучшению какой-то статьи по его запросу, или пытающийся вкратце резюмировать простыню текста — это хорошо, участник, пытающийся накрутить активность в обсуждениях, затянуть обсуждение путём публикации стен псевдоосмысленного текста и т.д — плохо. Tucvbif??? 06:59, 4 мая 2025 (UTC)[ответить]
  • Было бы желательно как-то регламентировать использование в обсуждениях: не очень приятно было бы обращаться к человеку, а получать ответы от машины, которая тебя даже не понимает, просто другой участник велел ей тебе ответить. — Dangaard (обс.) 07:43, 5 мая 2025 (UTC)[ответить]
  • Запретить. Если участник продолжит писать с помощью нейросетей даже аргументы в номинациях, то блокировать по нарастающей. Это отучит любителей ИИ взяться за ум и самому писать аргументы, но надеюсь без ИИ они способны писать. Если без ИИ даже аргументы в номинациях не могут написать, то такого участника никто не держит. Граф Рауль Валуа (обс.) 14:54, 5 мая 2025 (UTC)[ответить]
  • Полный запрет. russesch / написать мне 10:40, 10 мая 2025 (UTC)[ответить]
  • Полный запрет. А то ещё и голосовать разрешить. Alexander Mayorov (обс.) 11:30, 2 июня 2025 (UTC)[ответить]
  • Полностью разрешить. 1. ИИ улучается быстро. 2. огромное количество статей висит на улучшение. 3. До опытных участников, большая часть руки не дойдут. 4. Считаю если статью написал ИИ, оформлена она по правилам. И даже с глюками любого ИИ, она в разы лучше, чем пустышки или заготовки. 5. Считаю можно поставить плашку, написано с помощью ИИ. Sims2025 (обс.) 13:09, 20 июня 2025 (UTC)[ответить]

Где-либо ещё

Иное

Обсуждение прочих вопросов, связанных с темой опроса. При необходимости создавайте подразделы.

Будущее Википедии и ИИ

Здесь можно высказать свои соображения о путях развития Википедии в контексте прогресса технологий искусственного интеллекта.

  • Нужно ждать развития ИИ, может, когда-то они и правда научатся грамотно писать полноценные статьи по источникам, но сейчас этого не видно. — Владлен Манилов [✎︎] / 03:20, 25 марта 2025 (UTC)[ответить]
  • Серьёзных запретов в рамках руВП вводить не стоит, поскольку использование ии это вопрос времени.
    Чтобы руВП не стала «бастионом традиционных ценностей», нужно ориентироваться также на решения, принятые в других языковых разделах. Не потому что «англосаксы» важнее, а потому что две (или большее число по числу крупных языковых разделов) головы лучше, чем одна. Nikolay Omonov (обс.) 05:22, 25 марта 2025 (UTC)[ответить]
  • Главная польза ИИ для Википедии — переписывание (и компиляция) текста из источников своими словами, а также в будущем, вероятно, упрощение поиска источников. Больше, к сожалению, полезных способов использования ИИ для статей я не вижу (вне статей — написание скриптов, подведение итогов, всё такое, да). Well very well (обс.) 05:42, 25 марта 2025 (UTC)[ответить]
  • В Википедии много жалоб на нехватку участников и слабый приток новичков, но когда вооружённые примитивным (пока что) искусственным интеллектом новички начали сами приходить в Википедию, то мы обсуждаем, нужно ли разворачивать их на входе или же давать от трёх до пяти подзатыльников. Сейчас ИИ далёк от научно-фантастического идеала, но практическим плодам этой революции меньше трёх лет, модели постоянно совершенствуются, поэтому уже в ближайшие годы могут быть изжиты галлюцинации и улучшена работа с источниками. Кроме того, теоретически возможно дообучать свободно распространяемые модели (семейства Llama, Gemma, DeepSeek, Mistral и другие), адаптируя их к написанию статей, если их лицензии совместимы с википедийным контентом. Помимо написания статей, ИИ есть что предложить Википедии: анализ КУ и КПМ с вынесением рекомендательных предварительных итогов, анализ вклада на предмет нарушений, переписывание копивио в значимых статьях и другая грязная работа. — Homoatrox (обс.). 05:44, 25 марта 2025 (UTC)[ответить]
  • Я точно знаю, что приход ИИ в нашу жизнь, и в Википедию тоже, будет отличаться от наших представлений. Хоть антиутопических, хоть с розовыми понями. Для написания статей здесь и сейчас данная технология, скорее, вредна, вот когда качество поднимется, тогда и будем обсуждать. Подзатыльники и оплеухи надо давать тем субъектам, которые путают место и время: ИИ - это усилитель обычного интеллекта и рабочий инструмент, а не замена мышления.— Dmartyn80 (обс.) 07:43, 25 марта 2025 (UTC)[ответить]
  • Это не ИИ. Это большие языковые модели. Интеллекта в них нет так же, как в Силиконовой долине не было силикона. Это просто ну как поисковая система нового уровня. ·Carn 08:36, 25 марта 2025 (UTC)[ответить]
    • Поисковая система нового уровня - очень полезная вещь как для людей, не полностью разбирающихся в теме статьи, но желающим создать заготовку статьи, там где сейчас пустая страница, так и для специалистов в своей области, чтобы поспевать за временем (обновление устаревших статей). В любом случае за результат ответственен человек(аккаунт) No4ni (обс.) 13:28, 4 апреля 2025 (UTC)[ответить]
  • Википедия должна выбрать себе нишу таким образом, что даже если ИИ используется при создании статей, все равно статьи вычитываются человеком. Потому что для нас приоритет не гладкость стиля и длиннота статей, а фактологическая точность, несмотря на все отказы от ответственности. Vcohen (обс.) 09:55, 25 марта 2025 (UTC)[ответить]
  •  Мне лень в очередной раз писать то же, что я уже несколько раз писал в других местах за последнее время, но будущее Википедии (если она хочет выжить) в приручении и использовании ИИ. Потому что если Википедия не начнёт создавать массово статьи с использованием этого (отлаженного и прирученного) механизма, то это станет делать кто-то другой. И тогда места для Википедии на рынке просто не останется. 𝓛𝓮𝓸𝗞 𝗮 𝗻 𝗱 09:00, 25 марта 2025 (UTC)[ответить]
    • Уже сотня есть этих кого-то других, «убийц Википедии», на любой вкус и цвет. И что-то почему-то Википедия всё ещё занимает довольно большое место на «рынке» (точнее, в нише онлайн-энциклопедий). ʜᴏʀɪᴢᴏɴ [ᴅɪsᴄᴜʀsᴜs] [ᴄᴏɴᴛʀɪʙs] 11:51, 25 марта 2025 (UTC)[ответить]
      • Народ "обманываться рад". Постепенно до народа дойдет, что в Википедии написаны те же красивые сказки от ИИ, что и везде, и тогда Википедия потеряет свой козырь. Vcohen (обс.) 12:06, 25 марта 2025 (UTC)[ответить]
      • То, что Википедию никто пока не попёр (даже имея административный и финансовый ресурс) — это скорее недоработка конкурентов, а не наша заслуга. Я не считаю, что сообществу стоит в это конкурентное время расслабляться и отказываться от полезного, пусть и сложного инструмента. Срубить топором дом — тоже задачка, гораздо проще что-то (или кого-то) топором сломать. Но это не повод запрещать топоры, это скорее повод распространять навыки их продуктивного использования в народные массы. Красныйхотите поговорить? 12:22, 28 июня 2025 (UTC)[ответить]
        • Мне кажется, если заполнять вику нейрошлаком, то выиграют от этого только конкуренты. Проблема Википедии не в недостатке статей — два миллиона, куда уж больше, — а в их качестве. Поэтому нужно приветствовать использование нейросетей для улучшения качества статей, но гнать поганой метлой тех, кто с их помощью гонится за количеством. Tucvbif??? 14:26, 28 июня 2025 (UTC)[ответить]
    • На рынке нейрофантазий Википедии места не будет, равно как на рынке сборников сочинений, сайтов рефератов и много где ещё. Если рынка энциклопедий не будет — значит не будет и Википедии, а если останется спрос на энциклопедии — Википедия останется на этом рынке. Pessimist (обс.) 12:08, 25 марта 2025 (UTC)[ответить]
      • Тем более, что у Википедии нет цели оставаться в нише энциклопедий, нет цели стать единственной, самой большой (в отношении посетителей сайта) и пр. энциклопедией. Да пусть хоть никто её читать не будет, это не будет противоречить целям Википедии и их реализации. ʜᴏʀɪᴢᴏɴ [ᴅɪsᴄᴜʀsᴜs] [ᴄᴏɴᴛʀɪʙs] 15:40, 25 марта 2025 (UTC)[ответить]
    • Я не наблюдаю вообще никакого рынка. И судя по прекращению финансирования БСЭ и "успехам" Багопедии и Рунипедии, его и не будет. BilboBeggins (обс.) 14:46, 28 марта 2025 (UTC)[ответить]
  • А зачем нужна будет любая Хпедия, если достаточно будет сказать в пространство: "Алиса, расскажи про проблему Y, да чтоб картинки были не очень яркие, а то никак заснуть не получается"? — Конвлас (обс.) 09:13, 25 марта 2025 (UTC)[ответить]
  • К сожалению, никуда мы от нейронок не денемся. Скорее всего они прочно войдут в нашу жизнь. Главное, чтобы это не мешало основной цели Википедии — «создание полноценной, точной, свободной энциклопедии на русском языке и ничто другое» -- Megitsune-chan (ОБС.) 11:05, 25 марта 2025 (UTC)[ответить]
  • Я почему-то не заметил другую, действительно важную часть работы, которую ИИ делает лучше всего - генерация кода. ИИ очень сильно упрощает создание кода для модулей и шаблонов (ну и для ботов): я благодаря ему де-факто стал ботоводом в другом проекте, потому что любой код мне приходится писать не час, а около 5 минут. В этом случае, ИИ мог бы серьезно снизить порог входа в "технари и инженеры" руВП. Kylain Aixter (СО) 15:36, 25 марта 2025 (UTC)[ответить]
  • Давайте посмотрим, что я уже делал с помощью DeepSeek:
    1. Перевод и пересказ текстов из иноязычных источников.
    2. Стилевые правки в статьях, которые были уличены в проблемах со стилем.
    3. Оформление источников шаблонами.
    4. Оформление таблиц из источников в вики-таблицы.
    5. Группировка высказанных мнений в обсуждениях.
    6. Формирование рекомендаций по поиску источников для статей.
    Я пока не волшебник, я только учусь (мне элементарно не хватает времени без разрывов для экспериментов), но я хорошо вижу, как при правильном использовании данного инструмента можно получать нормальный результат. VladimirPF 💙💛 17:13, 25 марта 2025 (UTC)[ответить]
  • В настоящий момент нейросети слишком плохо развиты. Они пока не пригодны для написания статьей и создание статьей ими их не разовьет. Нужно только ждать пока появится адекватная возможность их использования ―желая счастья Мелкий 08:24, 26 марта 2025 (UTC)[ответить]
  • Давайте представим, что в недалеком будущем ИИ научился писать статьи не хуже людей. Нужно ли будет заливать их в основное пространство? Конечно же нет! Надо будет сразу запретить это. Вместо этого нужно будет выделить отдельное пространство, а ещё лучше отдельный раздел Википедии, куда быстро нагенерировать десятки миллионов статей. Оба проекта - человеческий и машинный - будут иметь свои достоинства и недостатки и займут каждый свою нишу. Если же смешение ручного и машинного текста в такой ситуации было бы разрешено, это сразу бы демотивировало почти всех участников и фактически уничтожило достигнутое за предшествующее время.
  • На самом деле уже сейчас следовало бы организовать отдельный проект в рамках Викимедиа для размещения нейросгенерированных энциклопедических статей. Основная работа участников такого проекта, вероятно, крутилась бы вокруг подбора, систематизации и ранжирования источников и составления словников, по которым нейросети уже сами писали и перепроверяли бы статьи на основе продвинутых промптов. Качество такой Нейровикипедии было бы пока ниже, но охват тем мог бы быть намного более широким. "Представьте себе мир, в котором каждый человек обладает доступом ко всем накопленным человечеством знаниям" — Алексей Ладынин (обс.) 08:50, 26 марта 2025 (UTC)[ответить]
  • Сейчас это скорее не искусственный интеллект, а искусственная большая библиотека, которая выдаёт тебе только то, что ты попросил выдать. И, если честно, факт прогресса в этом плане для меня сомнительный. Нам пора адаптировать эту библиотеку под себя. Перспективным мне кажется написание маленьких однотипных статей с помощью ИИ, как это уже делают уполномоченные ботоводы. Представьте Аи-аккаунт, который будет исправлять орфографию. Мне даже не хватает фантазии, чтобы предположить все плюсы такого ограниченного использования. Limekas (обс.) 11:58, 26 марта 2025 (UTC)[ответить]
    • маленьких однотипных статей с помощью ИИ, как это уже делают уполномоченные ботоводы
      Это вы о чём? Если вы про ботозаливки статей, то там никакого ИИ и уж тем более нейросетей нет. Там всё делается по строгой и чёткой инструкции/шаблону от ботовода. -- Megitsune-chan (ОБС.) 13:53, 26 марта 2025 (UTC)[ответить]
      • Я неправильно выразился. "как это уже делают ботоводы" имелось в виду создавать такие же маленькие статьи, только уже не с помощью ботов, а с помощью ИИ. Да, сейчас ИИ в ботозаливках нет. Но мы же с вами сейчас говорим о будущем. А реализация этой «задумки» это уже дело десятое. Ведь пока для этого рано. Limekas (обс.) 15:41, 26 марта 2025 (UTC)[ответить]
        • В целом перспектива есть, вопрос пока что в том, насколько много «галлюцинаций» в таких текстах. А в будущем, может, и большие статьи будут хорошо писаться нейронками — никто точно не знает. -- Megitsune-chan (会話) 07:56, 3 июня 2025 (UTC)[ответить]
  • Моя личное мнение: 1. Википедия будет развиваться поступательно, постепенно эволюционировать и приспосабливаться. В исторических аналогиях и нарративах мало науки, они похожи на картины художников или романы писателей, но вот изменилась Британника — некогда одна из величайших печатных энциклопедий мира. Британника пережила книжный взрыв в начале XX века, освоила «цифру», переехала в интернет и активно привлекает сторонних авторов, размещала ролики на Тик-Ток, ныне выкладывает их на своём сайте, недавно обзавелась чат-ботом и досрочно позиционирует себе как якобы лидера ИИ. Хотя до сих пор есть поклонники энциклопедий на бумаге, но Британника переориентировалась сильнее. При этом понятно, что времена её наибольшей славы давно позади. Так что Википедию при определённых усилиях, возможно, ждёт такое будущее.
    2. В инерционном сценарии будет доминировать подход держать-и-не-пущать и как-бы-чего-не-вышло. Ближайшая аналогия: хардкорные консерваторы, боровшиеся с телевизорами, теорией эволюции и т.д. Наука дошла до убеждения, что книги и мультики про волшебников делают детей наркоманами. СМИ постоянно сообщали о новых угрозах для общества.
    При таком сценарии Википедия продолжит существовать по инерции. Возможно, появится несколько новых функций, но в целом всё останется как есть. Если пристроится и встроится в систему, то это может быть довольно долго, пока ветер не сменится. Свободное редактирование для новых редакторов могут и вовсе закрыть, старые будут делать вид, что никто не используют ИИ и борьба с ним во благо. В конце концов, настольные компьютеры и ворд сейчас не готовы исчезать, мир развивается неоднородно, да и деньги у фонда есть.
    3. При революционном сценарии Википедия резко сменит свой формат, либо станет своего рода Нупедией для энциклопедии нового поколения. Формат, возможно, будет не текстовый. Это неизведанная область для смельчаков. ИИ уже может перефразировать тексты и искать, он может научиться сверять разные тексты и проверять себя, давать свежий взгляд на старые вопросы. Сможет делать полноценные статьи или то, что назовут статьями в будущем.
    Серьёзный риск при всех сценариях, но особенно при 1 и 3: нехватка компетентных редакторов. Википедия, вероятно, сильно зависит от навыков, а с этим дела обстоят не лучшим образом во многих странах, скорее стагнация. Пандемия, локдауны и теперь большие войны уничтожили и так довольно скромные успехи последних десятилетий. Многие дети даже в школу не ходят, а те, что ходят, получают там немного. Википедия гипотетически может оказаться в «яме», когда редакторы с нынешними навыками будут уходить. А редакторов с новыми навыками, особенно в области работы с ИИ, будет в вики недостаточно, потому что таких вообще будет мало, либо их навыки не будут востребованы. Редизайны и камлания не помогут; впрочем, любой сценарий может окончиться неудачей. Но я вообще своего рода оптимист.Proeksad (обс.) 09:42, 2 апреля 2025 (UTC)[ответить]
  • В том мире, где ИИ справляется с написанием качественной статьи Википедия уже как-бы и не нужна. С другой стороны, для обучения нейросетей наверняка используются и тексты Википедии, что может привести к нежелательной обратной связи. Tucvbif??? 06:07, 4 мая 2025 (UTC)[ответить]
  • Мне кажется, на данном этапе ИИ полезен википедистам прежде всего для вспомогательных целей, связанных с обработкой текстов под контролем человека. Полностью генерировать новые статьи им не нужно. «Кратко перескажи». «Переформулируй для большей ясности». «Сократи избыточные подробности, сохрани значимую информацию». «Улучши грамотность, исправь опечатки и грамматические ошибки». «Убери разговорные обороты, стремись к научно-энциклопедическому стилю». «Вот оригинал на иностранном языке и перевод на русский: оцени качество, прокомментируй ошибки». «Вот объемный текст источника и краткий пересказ из Википедии: действительно ли источник говорит именно об этом? Предложи свой вариант». «Упорядочи терминологию, проверь единство терминов, составь краткий глоссарий, замени вот этот термин на вот этот термин с учетом согласования слов». И так далее, и так далее. Я надеюсь, что в будущем мы увидим — вообще и в Википедии в частности — инструменты, где генерирующий текст ИИ постоянно работает вместе с человеком как «второй пилот», полезный помощник в том же рабочем окне, где набирается текст, не заменяя человека, но будучи под рукой именно тогда и именно для той цели, когда и для которой он нужен.— Dangaard (обс.) 07:43, 5 мая 2025 (UTC)[ответить]
  • Какое уж тут будущее. Есть настоящее - где на первом месте в поисковой выдачи нейротексты (там же, где во второй половине нулевых и все десятые была статья из Википедии). На ВСЕХ википедических форумах ИИ - центральная тема (странно, что в арбитраж до сих пор ни одно ИИ-дело не зашло). А что с этим делать? Я не знаю, честно. Можно просто признать поражение и забить. Можно окуклиться в олдовых правилах, запретить ИИ-правки и торжественно написать что сложная разметка и огромный свод правил - это правильный и нужный входной барьер, отсекающий ненужных, и нефиг тут. Можно наоборот доверить ИИ совершенствование интерфейса, написание статей и правил, разрешение арбитражных дел. Можно вообще ничего не делать, просто забить. Не знаю, короче, спросите у ИИ лучше, что делать, мне лень думать. :). Злой Серый Волк (обс.) 12:42, 13 июня 2025 (UTC)[ответить]
    • Вот только во-первых, зачем в цепочке ИИ-читатель лишнее звено в виде Википедии? Если читателю нужен ответ ИИ, пусть он спрашивает его у ИИ (что он и делает). А во-вторых, тот же ИИ в качестве источника нередко берёт ту же Википедию. Конечно, использовать ИИ как вспомогательный инструмент при написании статей можно и нужно, но тупо копипастить вывод ИИ в Википедию — это как пережимать и так зашакаленный JPEG по десятому кругу. Tucvbif??? 05:19, 14 июня 2025 (UTC)[ответить]
      • Вы правильно думаете, что это лишнее звено. Вот только читателю нужен не "ответ ИИ" или "ответ Википедии", а быстренькая справочка по какому-то важному для него вопросу. В которой и у Википедии, и у ИИ может быть процентов 10-20 ошибок, и он это понимает. Использовать ИИ как инструмент при написании статей? Ну ок, можно если очень захочется. Сгенерировать связный текст, а потом подбирать к каждому предложению источники. Или наоборот, собрать утверждения с источниками и скомпоновать. Если очень хочется статусную статью - то можно так и сделать. Вот только читатель в основном ходит в ВП не за статусными статьями, а за быстрыми справками - и тут, опа, ИИ выигрывает, потому что делает их быстрее. И тут получается что Википедия не выигрывает в качестве (потому что зачистить "мусорные" фрагменты так и не смогла), но проигрывает в скорости генерации текста. Мне это напоминает анекдот про двухголовую ящерицу, одна голова которой спрашивает другую про влияние радиации, а другая отвечает что это преувеличение. ИИ обогнало нас, факт. Обогнало по скорости, возможно, скоро обгонит и по качеству, сделать ИИ-инструменты выверки и убрать "глюки" непосильного труда не составит. А что делать дальше? Любить и жаловать. Можно попытаться просуществовать в симбиозе с ИИ, используя его (для улучшения интерфейса, для выверки, для генерации черновика-драфта статьи, для ещё каких-то нужд), но уже не как ТОП-1, а в какой-то нише, хоть в чём-то опередить его, частично сидя у него на плечах (лонгриды хорошего качества? добротное обновление статей околоновостной тематики?) А можно с перепугу "прикрутить гайки" - я боюсь, это сделает не сообщество, а фонд. Обязать ИИ-редакторов вешать на себя клеймо иноагента, затопикбанить их в "серьёзных" обсуждениях... Но тогда, я думаю, разгром будет более быстрым, полным и безоговорочным. И уже без каких-то спасительных экологических ниш. Злой Серый Волк (обс.) 17:12, 15 июня 2025 (UTC)[ответить]
        • Сгенерировать связный текст, а потом подбирать к каждому предложению источники. Или наоборот, собрать утверждения с источниками и скомпоновать.
          Это — самый страшный грех. Писать статью нужно либо имея определённое представление о предмете статьи (постепенно углубляя и уточняя его источниками), либо получая его из источников. За описанный вами подход статьи нужно статьи быстро удалять не потому что ИИ, а потому что так получается мусор, а не статьи.
          Вот только читатель в основном ходит в ВП не за статусными статьями, а за быстрыми справками - и тут, опа, ИИ выигрывает, потому что делает их быстрее.
          Если копипастить выдачу ИИ в статьи Википедии, это не поможет обогнать ИИ, скорее наоборот: ИИ уйдёт вперёд, а в ВП будет лежать устаревшая версия выдачи того же ИИ. И тем более это не заставит поисковики ранжировать статьи ВП выше ответов ИИ.
          Можно попытаться просуществовать в симбиозе с ИИ, используя его (для улучшения интерфейса, для выверки, для генерации черновика-драфта статьи, для ещё каких-то нужд), но уже не как ТОП-1, а в какой-то нише, хоть в чём-то опередить его, частично сидя у него на плечах
          Я и не предлагаю запрещать использование ИИ в целом, с чего вы решили? Я считаю, что всячески должны выметаться те статьи, которые писались без понимания предмета этих статей. Неважно, написаны они через ИИ, машперевод, копипастой или бездумным перефразированием источников. К сожалению, критерии «хороших» и «избранных» статей — не об этом, там даже банальной проверки орфографии и стиля не проводится, не говоря уже о таких высоких материях, как соответствие утверждений источникам или отсутствие логических противоречий внутри статей. Тут, кстати, ИИ вполне может помочь проделать это хотя бы начерно. Tucvbif??? 21:13, 15 июня 2025 (UTC)[ответить]
          • Давайте - выметайте, огораживайте, удаляйте - мне уже всё равно. Свои немногочисленные, но "приятные" глазу статусные статьи я писал (с другой учётки) по такой же схеме - сначала базовые знания, потом каркас текста, потом добор инфы по источникам, потом опять текст (добавочный + финальная перекомпоновка), потом расстановка ссылок. Хотите - удаляйте, я не буду тут их приводить чтобы не было самопиара - но всё находимо. В разгар движения "каланизации" предлагал желающим проделать эту же процедуру с моими статьями - а вот фиг, нашла коса на камень. При наличии какого-то ресурса-резерва и сопоставимой предполагаемой отдачи (ожидаемое число посещений) как думаете, какой из двух вариантов будет интереснее - написать плюс одну вики-статью здесь (угробившись об вики-разметку), или написать совместно с ИИ какую-то статью на необычную тему на какой-то внешней площадке? (новое, еще не открытое для меня направление - но вдруг?) И ещё один момент - личное для меня. Здешняя среда - супертоксичная. Сообщество уязвленных самолюбий, как будто не очень реализовавших себя в какой-то предметной области (кому кинематограф, кому филателия, кому ещё что - не важно) и ищущих пристанище здесь. И не упускающих возможность пихнуть соседа (и особенно новичка) локтем в бок: а вот здесь вы не рубите/не догоняете (+ бонусом какие-то скрытые подначки), а вот вам кучу ссылок ВП:АБВГДЕЖЗИКЛМН, и - куча напоминаний, где постоянно завалы (примерно везде) и как кто кому всем всего должен... И костыли типа ЭП/УКП/АК/периодически всплывающих проектов типа "как нам улучшить атмосферу..." - лишь паллиатив, к тому же очень слабоэффективный (корректирует либо явное системное преследование, либо совсем уж шокирующие выверты - но не мелкое и подспудное подтачивание мотивации соседа)... В то время как разработчики ИИ всё время тебе напоминают, какой ты классный, а дыры в твоих познаниях тактично затягивают, как будто клеем. Понятно что это лишь маркетинговая стратегия - но доброе слово и кошке приятно. =) Злой Серый Волк (обс.) 13:19, 16 июня 2025 (UTC)[ответить]
            • Вы видимо неправильно понимаете, что я понимаю под «качественной» статьёй. Речь идёт не об отполированных с точки зрения количества сносок на единицу текста «статусных» статьях, где на всё остальное просто не смотрят. А о таких статьях, прочитав которые действительно получаешь представление о предмете. Есть куча статей, прочитав которые, хочется просто сказать «и чо?». Вроде бы и заявлена интересная тема, а информации по ней — с гулькин нос, вместо этого куча каких-то посторонних «интересных фактов». Или написанная языком, через который нужно пробираться, как через терновник: перечитывать каждое предложение по пять раз, чтобы понять, что хотел сказать автор. И не потому что тема сложная или используется особая терминология, а потому что автор привык писать так, чтобы было больше слов.
              Что касается новичков, лучше сразу показывать, что написание статьи для Википедии — это работа, требующая времени и энтузиазма. Большинство же новичков напишут статью чуть лучше «Россия — родина слонов» и на этом успокаиваются. И обсуждений с «токсичной атмосферой» они даже не добираются, так что хоть ласкай их и уговаривай, они всё равно больше пары десятков правок не сделают. Tucvbif??? 16:48, 18 июня 2025 (UTC)[ответить]
        • Вы переоцениваете возможности нынешнего ИИ. Он ещё чрезвычайно далёк от того, чтобы совсем без помощи человека писать энциклопедические статьи, по качеству и достоверности равные обычным популярным статьям в Википедии, особенно по темам, которых в Википедии нет. В будущем, возможно, такой уровень будет достигнут, но вряд ли это произойдёт в ближайшие 5 - 10 лет. Алексей Ладынин (обс.) 18:25, 17 июня 2025 (UTC)[ответить]

Триумф o3

Коллеги, OpenAI родила нейросеть o3, которая вроде бы пристойно справляется с написанием статей. В качестве примера я попросил её перевести на русский язык статью о корреспондентной теории истины, оформить результат в вики-разметке и положил результат в Инкубатор. Насколько он качественен уже и что он говорит о перспективах использования нейросетей? Тай Лунг (обс.) 20:55, 20 апреля 2025 (UTC)[ответить]

Комментарии

Прочие комментарии.

  • Давно пора принять следующий тезис: «если для подготовки какого-то текста потрачено пренебрежимо мало усилий, а любому доделывающему не составило бы труда получить его точно так же, то текст должен быть удалён». Это подходит и для недостабов, и для необработанных машпереводов, и для текстов от ИИ. Well very well (обс.) 06:00, 25 марта 2025 (UTC)[ответить]
  • Есть важный момент, как совместить нейрогенный контент с принципами и правилами (о проблеме с ПРОВ, которая начинается с того, что участник сам должен видеть текст источника, уже писал выше).
    Теперь о ВП:5С, точнее о первых двух столпах.
    Это не голос против, поэтому он не в секции «за, запретить». Это призыв урегулировать противоречия с принципами и правилами. Nikolay Omonov (обс.) 06:55, 25 марта 2025 (UTC)[ответить]
  • Википедия — это энциклопедия. Кроме этого столпа есть общая политика (тенденция, направленность) Википедии ориентироваться на авторитетные энциклопедии и другие авторитетные источники. Эта ориентация — вещь практически безальтернативная. ВП не может быть политической трибуной, полем для экспериментов, жёлтой прессой, сборником чьих-то рассуждений. Только энциклопедией. Откуда, не впадая в собственные ориссные построения и не будучи специалистом, участник может почерпнуть сведения о том, что значит энциклопедия и как писать энциклопедию? Только ориентируясь на авторитетные энциклопедии (это общий принцип: мы не выступаем как эксперты, мы пишем по АИ).
    Мне пока не известны примеры использования ИИ при написании авторитетных энциклопедий. В данном контексте не важно, что я или кто-то другой понимает под энциклопедией. Должна ли энциклопедия чтобы быть энциклопедией писаться человеками, роботами или марсианами. Может быть, с чисто философской точки зрения никакого противоречия этому нет. Но нужно не философствовать, а ориентироваться на примеры авторитетных энциклопедий (почему — написал выше).
    Еще на заре своей истории Википедия успешно поклала на главный принцип авторитетной энциклопедии: написание специалистами. Но это было вынужденное решение и изначально заложено в принципе ВП (свободная энциклопедия, которую может редактировать каждый). Без этого принципа ВП бы сейчас как таковая не существовала, а мы не писали бы в этом опросе свои сверхценные мысли.
    Но с ИИ такой острой необходимости нет и необходимостью его разрешение не оправдаешь.
    Другими словами: чтобы нарушить принцип ориентации на авторитетные энциклопедии нужна какая-то острая необходимость. А ее не видно.
    В то же время руководство ВП:ВЕС, исходящее из первого столпа, для ИИ выполнять будет значительно проще, чем для человека. При условии правильных вводных, само собой. Nikolay Omonov (обс.) 06:55, 25 марта 2025 (UTC)[ответить]
    • И тут мы оказывается в порочном круге, который заложен в конструкции Википедии как таковой. Человек всё равно должен начинать с подбора АИ, неважно, будет ли он обработан в связке «мозг — рука — клавиатура» или скормлен чатоболтайке. Если же (как большинство) хватается за первое попавшееся в сети, то и результат будет соответствующий. — Dmartyn80 (обс.) 07:46, 25 марта 2025 (UTC)[ответить]
      • Вот для ИИ по какому-нибудь сколару проще проанализировать вес пары сотен источников и подобрать, чем человеку. Конечно, речь о прекрасной Википедии будущего. Nikolay Omonov (обс.) 07:52, 25 марта 2025 (UTC)[ответить]
      • Ну, не надо так уж осуждать принцип "пишем по тому, что нагуглилось в сети". Я по этому принципу написал, например, Атом (павильон ВДНХ), по-моему неплохо вышло (ДС получила). 从乃廾 08:07, 25 марта 2025 (UTC)[ответить]
        • Не спорю, и некоторые полезные АИ регулярно всплывают по простому гуглежу, а не при обращении к университетским базам. Но это очень сильно зависит от предмета. Например, по истории Полинезии гугл забит чудовищным количеством туристического мусора, ну, по крайней мере, в доковидные времена. Dmartyn80 (обс.) 08:10, 25 марта 2025 (UTC)[ответить]
    • Вот у меня лежат очевидные АИ на русском языке (уровня тематических или региональных энциклопедий) как минимум на 20 тысяч биографических статей, очевидно проходящих по значимости — это примерно столько, сколько всего пишется биостатей в Рувики за год. То есть, я их не напишу никогда просто потому, что у меня нет столько времени. А с АИ на иностранных языках всё ещё хуже — например, из персон в Биографическом словаре итальянцев (доступном онлайн), лишь о 10 % есть статьи в Рувики. Ещё аргумент: по моим оценкам, возможно написать примерно 100 миллионов биографических статей об очевидно значимых персонах, на которых есть качественные АИ, с нынешней скоростью это работы на 5000 лет. А кроме биостатей есть ещё, например, топонимы — там примерно такой же порядок потенциально возможных статей. 𝓛𝓮𝓸𝗞 𝗮 𝗻 𝗱 09:43, 25 марта 2025 (UTC)[ответить]
      • Ну это-то лечится не внедрением ИИ, а привлечением хотя бы сотни хорошо пишущих интеллектуалов из вузов или спецшкол. Другой вопрос, что они либо консервативны настолько, что Википедией брезгуют (знаю таких), либо их образ жизни не предполагает бесплатного труда в Данаидову бочку. Dmartyn80 (обс.) 10:04, 25 марта 2025 (UTC)[ответить]
    • Мне пока не известны примеры использования ИИ при написании авторитетных энциклопедий.
      Мне пока не известен пример авторитетных энциклопедий, написанных не за деньги. По вашей логике, надо удалить из википедии весь контент, написанный не за деньги?
      А как быть с текстами, написанными гусиным пером? Давайте не будем признавать авторитетность всего, что написано не на компьютере.
      По вашей логике можно дойти куда угодно. VladimirPF 💙💛 17:23, 25 марта 2025 (UTC)[ответить]
      • Метод аналогий не всегда работает. Я уже писал о том, что принципом ориентации на авторитетные энциклопедии можно поступиться при острой необходимости. Писать неспециалистам-волонтерам (об этом я тоже писал) для ВП жизненно необходимо. Иначе бы ВП не было. Эта идея изначально в нее заложена. Писать роботам — такой острой жизненной необходимости пока не видно.
        Не надо игнорировать и мою фразу: это не голос против, это призыв урегулировать противоречия с принципами и правилами.
        «как быть с текстами, написанными гусиным пером?» — эта аналогия и вовсе мимо. Хоть пером, хоть клавиатурой — они написаны человеком. Nikolay Omonov (обс.) 06:22, 26 марта 2025 (UTC)[ответить]
  • Википедия придерживается нейтральной точки зрения. Что это вообще означает в перспективе использования ИИ? Этот принцип вводился теми, кто считал, что энциклопедия будет писаться людьми. Нейтральность это субъективное человеческое понятие, которое находится в поле действия человеческих ценностей. Я не сторонник обожествления человеческих чувств: чувства это не более чем сложные алгоритмы, биохимия организма, система мотивации и т .п. При должном уровне развития они будут и у ИИ. Во всяком случае эти алгоритмы более просты, чем те, которые определяют работу сознания. Если ИИ будет действительно интеллектом человеческого уровня, более примитивные алгоритмы, такие как чувства, у него точно будут (поэтому с научной точки зрения весьма неумным является распространенный в литературе и фильмах сюжет о роботе, который наделен сознанием, но мечтает стать человеком с человеческими чувствами).
    Но пока говорить о способности ИИ разбираться в человеческих ценностях рано. Как ИИ способен оценивать и соблюдать нейтральность, непонятно.
    В то же время я не исключаю, что при правильных вводных ИИ способен написать текст значительно более нейтральный, чем напишет человек.
    Если проблемы по первому столпу (выше) это не вопрос гипотез, а вопрос применимости/неприменимости правил и принципов, который можно решить здесь и сейчас — то для решения проблем по второму столпу нужны именно экспериментальные данные: анализ большого числа статей, написанных ИИ, на предмет нейтральности. Nikolay Omonov (обс.) 07:12, 25 марта 2025 (UTC)[ответить]
    • Для огромного числа статей проблема нейтральности вообще не стоит: «Архитектор Вася Пупкин родился в 1825 году, учился там-то, построил такие-то здания, семья такая-то, умер тогда-то» — всё. Или «Речка Вонючка, протекает там-то, приток того-то, длина такая-то, площадь водозабора такая-то» — всё. 𝓛𝓮𝓸𝗞 𝗮 𝗻 𝗱 09:46, 25 марта 2025 (UTC)[ответить]
      • А с архитектором как раз плохой пример. «Родился в 1825 году в городе Пупкинск в Васяляндии, в 1834 году город был оккупирован/перешёл под контроль Петеленда, строил здания для петелендских оккупантов/новых властей, при возвращении под контроль/оккупации Васяляндией здания были разрушены, как патриот/коллаборант Васяляндии восстанавливал свои здания и строил новые» ― однозначно ненейтральна здесь разве что последняя формулировка и должна быть выкинута, а в предыдущих, боюсь, запутается даже человек. Well very well (обс.) 10:19, 25 марта 2025 (UTC)[ответить]
        • Well very well, с авторством архитекторов всё непросто и в мирное время. В случае одного и того же человека совсем недавнего прошлого возможны варианты от (а) «ну вроде бы он свечку подержал, но это со слов пары краеведов», хотите верьте - хотите нет до (б) «его там никогда не было, но именно он числился директором Гипрогора». Молва, а вслед за ней бронзовые мемориальные доски принимают и то, и другие за бесспорное авторство. С полумифическими Казаковыми и Баженовыми и вовсе караул. Вроде бы чисто механический функционал для ИИ - отсекать по неким минимальным критериям - а попробуйте эти критерии сформулировать в чятопригодной форме. Retired electrician (обс.) 19:17, 25 марта 2025 (UTC)[ответить]
      • А кто Василий Пупкин по национальности? Здесь большой простор для НТЗ. Nikolay Omonov (обс.) 06:37, 26 марта 2025 (UTC)[ответить]
    • Вопрос о связи ценностей и нейтральности достаточно спорный. — Proeksad (обс.) 13:33, 25 марта 2025 (UTC)[ответить]
  • Общий принцип: нет смысла запрещать то, что нельзя проконтролировать. Поэтому не надо вводить требования/наказания, связанные с самим фактом использования ИИ. Но надо внимательнее относиться к нарушениям, вытекающим из некорректного использования ИИ (как и машинного перевода и прочих случаев, когда человек слишком полагается на выданный компьютером результат). Vcohen (обс.) 08:53, 25 марта 2025 (UTC)[ответить]
  • Независимо от итогов опроса, никакими правилами не получится «заклясть» редакторов или читателей. Никакие волшебные пистолеты и колдовские пули камлания и заламывания рук не смогут «зомбировать». Поэтому избавиться от ИИ не получится Proeksad (обс.) 10:20, 25 марта 2025 (UTC)[ответить]
    • Ну нет, сообщество в принципе способно бороться с нарушающими правила участниками, заливающими хоть машпереводы, хоть ИИ-тексты, хоть пов-пушинг. Well very well (обс.) 12:09, 25 марта 2025 (UTC)[ответить]
      • способно только на каком-то уровне. Если вдруг примут правило, мол, не используйте ИИ, то это ничего не даст, кроме заметания под ковёр. И, кстати, пометки об ИИ во многих случаях ставить не будут, так что тоже не стоит обольщаться.
        И, на мой взгляд, ситуация с машпереводами не образцовая. Да и с пов-пушингом не всё ОК. — Proeksad (обс.) 13:12, 25 марта 2025 (UTC)[ответить]
    • Бороться можно, но сложно. Если сложно бороться, это не значит, что бороться не надо.
      Если бы здесь не боролись с машпереводами и особенно с пушингом, я бы этот сайт даже не открывал.
      Плюс речь должна идти не о запрете ИИ, а об ограничении его использования. Какого именно ограничения, пока непонятно.
      В идеале ИИ должен создавать некую заготовку, которую затем проверяет и дорабатывает человеческое существо. То есть он удобен для сбора источников по определенному критерию, определения их авторитетности и веса по ряду критериев, выжимки и пересказа их текстов, оформления списка источников в конце концов. А дальше вступает биохимический автор. Nikolay Omonov (обс.) 06:44, 26 марта 2025 (UTC)[ответить]
      • Не слишком оптимистичен на счёт борьбы с ИИ.
        Человеческие существа друг от друга тоже отличаются. Если же рассматривать поведение людей исключительно как результат биохимии, то не факт, что различия между людьми и ИИ столь фундаментальны: возможно, что и у тех, и у этих всё буквально навязано, а свобода воли просто иллюзия — Proeksad (обс.) 12:48, 26 марта 2025 (UTC)[ответить]
        • Я не о свободе воли, а об уровне. Пока ИИ эффективен только как вспомогательный инструмент при написании статьи, и надо понять, как его оптимально использовать.
          Спасибо за ссылку. Nikolay Omonov (обс.) 13:27, 26 марта 2025 (UTC)[ответить]
  • Если честно, то мне более чем странно читать фразы типа "я спросил ИИ, а в ответ получил галлюцинацию". Вот возьмём для примера любого из нас, даже самого выдающегося википедиста и попросим: напиши прямо сейчас статью Бенивал, Камла. И каждый из нас напишет полный бред.
    А если мы подберём литературу по данной теме и попросим написать, даже новичка, то результат будет гораздо лучше. А если опытный википедист приведёт в порядок стиль, оформление и тд, то получится вполне нормальная статья.
    Но почему то мы считаем, что ИИ обязан вместо нас подбирать источники, оформлять статьи и тд. Но это не так. ИИ может подобрать источники, если вы сформулируете критерии подбора. ИИ сможет написать статью, если вы предложите ему эти источники. А вот оформление он может сделать уже сейчас вполне сносно.
    Получается, что это не ИИ галлюцинирует, это мы его ставим в условия, когда он может только галлюцинировать. VladimirPF 💙💛 10:16, 26 марта 2025 (UTC)[ответить]
    • Как самый невыдающийся я не хочу ее писать. Мне неинтересна тема. Но если бы, как вы говорите, был ИИ, который можно нормально настроить, и он помог бы мне её написать, я бы может и написал. Nikolay Omonov (обс.) 10:24, 26 марта 2025 (UTC)[ответить]
      • я взял это имя из словника марафона памяти - там таких красных ссылок очень много. У нас есть выбор: ждать когда появится КТОТОТАМ или сформировать условия, когда ИИ заменит этого ктототама VladimirPF 💙💛 11:36, 26 марта 2025 (UTC)[ответить]
        • Так я по этому пункту с вами согласен. Кто-то-там это своего рода Мессия, идеальный википедист, который обязательно придет и разрулит все проблемы. Хватит ждать Мессию, пора строить светлое будущее самим. Nikolay Omonov (обс.) 11:46, 26 марта 2025 (UTC)[ответить]
    • Получается, что это не ИИ галлюцинирует, это мы его ставим в условия, когда он может только галлюцинировать.
      Это неправда. ИИ вполне себе галлюцинирует, даже когда ему дают источники и просят писать только по ним. Well very well (обс.) 08:09, 28 марта 2025 (UTC)[ответить]
      • Тут нужна ремарка, что додумывание помимо источника, по которому пишется текст — это не специфическая для ИИ проблема, белковые участники тоже так постоянно делают. Встречается это у ИИ чаще или реже — вопрос открытый, но что неосознанные ориссы различной степени тяжести допускают все, никаких сомнений нет. Котик полосатый (обс.) 08:48, 28 марта 2025 (UTC)[ответить]
    • Нат, овет на простой вопрос спокойно принесет какой-то бред. BilboBeggins (обс.) 14:48, 28 марта 2025 (UTC)[ответить]
  • Коллеги, как вы считаете, нужно ли указывать в комментарии к правке, если нейросеть была использована для проверки орфографических и пунктуационных ошибок в оригинально написанном тексте? — Rounvelis (обс.) 11:34, 26 марта 2025 (UTC)[ответить]
  • Я один считаю, что НИКАКОГО ИИ ПОКА НЕ СУЩЕСТВУЕТ? Есть и.о. ИИ, более продвинутая прога, завтра будет еще более продвинутая, потому надо, ИМХО, корректировать существующие правила. Хоть ты с наскальных рисунков выводы сделал, хоть тебе "ИИ" выдал, правила всё те же — указываешь источник. А еще упущено что-то вроде ВП:ИИ не АИ. Но, в целом, опрос стоящий; поймите смысл посыла: нужно не отдельную ветку правил создавать, а указывать в существующих правилах, что терминаторов они тоже касаются.
Чтоб было понятнее: многие ведь помнят время появления первых переводчиков. Изначально это был тихий ужас, когда перевод представлял собой как перевод словно слова по бумажному словарю местами заменили. «Мама мыла раму» превращалось в «Мать чистить окно». И изменения вряд-ли связаны с дополнением словарей новыми словами, думаю они всё те же, скорее словари уже давно эту технологию используют. И подозреваю не трлько они.
А еще некоторые вопросы стоят впереди паровоза. У меня будут две диаметрально противоположных реакции на выверенный и помеченный текст и на его антоним. Поэтому вопросы на тему: "Что делать?" должны были быть заданы во втором чтении, когда собственно будет понятно С ЧЕМ ИМЕННО ДЕЛАТЬ. — © SAV✉️ 19:06, 26 марта 2025 (UTC)[ответить]
  • «Мать чистить окно» это еще терпимо. Помню, как на заре своей истории один переводчик время от времени менял положительные утверждения на отрицательные и наоборот (типа «толерантность предполагает не уважать людей, которые отличаются от вас»).
    Если Вы понимаете интеллект как нечто уровня человека, то ии пока не существует.
    Однако, значительная часть обсуждаемых здесь вопросов касается, кмк, некого прекрасного ии будущего и некой прекрасной Википедии будущего. Примерно как обсуждать, какое гражданство будет у человека, родившегося на Проксима Центавра b, при том, что даже теоретически непонятно, как до нее добраться. Обсуждать можно, но сомнительно, что такое обсуждение приведёт к изменению текущего международного права или законодательства космических держав. И такие же, как и в любой футурологии, колебания между крайностями: ии позволит написать отдельные статьи про миллиарды звёзд (которые никто не будет читать) и миллионы персоналий (которые буду читать лично я) — нет, ии уничтожит подлинную живую Википедию, обесценит человеческий труд, а потом найдёт статью про Сару Коннор, прочтёт там её адрес, и машины победят.
    В общем смысла в подобном направлении обсуждений особо нет. Единственная практическая польза, которая должна быть, это принятие правила или корректировка правил, согласно которому участник гипотетически обязывается проверять за ии источники и сам текст на предмет кривизны.
    Какие-то более глубокие решения возможны только после серии экспериментальных проверок, насколько хорошо и при каких вводных ии может сегодня использоваться при написании Википедии.
    Это предложение заняться исследованием, потому что кроме участников Википедии такими экспериментами заниматься скорее всего никто не будет. Речь не о применимости ии в принципе при написании статей, а о применимости ии к написанию статей в Википедии, с учётом принципов и правил последней. Если такие эксперименты не проводить, о нормализации использования ии в ВП можно забыть, потому что непонятно, что, как и где использовать.
    Как я понимаю, отдельные такие опыты уже проводились, но нужна более масштабная и организованная деятельность с созданием какой-нибудь очередной рабочей группы.
    Коллега @VladimirPF, Вы много писали о том, что ии-прогресс в Википедии надо двигать вперёд. Что вы скажете на эти соображения? Как именно его надо двигать? Nikolay Omonov (обс.) 21:09, 26 марта 2025 (UTC)[ответить]
    • Я бы с огромным удовольствием поучаствовал в работе какой-нибудь ИИ-SIG в Википедии. Проблема в том, что я не уверен, что у нас наберётся достаточно участников с компетенциями для работы в такой группе. Если так примерно прикинуть, кого мы ищем. Во-первых, опыт работы в Википедии. Во-вторых, интерес к ИИ-технологиям и энтузиазм в работе с ними (хакер в значениях 1 и 2). В-третьих, желателен опыт в использовании нейросетей для написания/обработки текстов (дело наживное, но всё же). В-четвёртых, наличие времени и желания бесплатно наносить добро в Википедии (это с учётом того, что человек, соответствующий условиям 2-3 в нынешнем моменте, скорее всего, не просто без дела не сидит, а чуть ли не отбивается от желающих дать ему денег за работу). А в-пятых, если он внезапно окажется бессеребренником, финансовый бюджет, чтобы обеспечить доступ к продвинутым моделям, причём не к одной, а к зоопарку, например, через API/агрегаторы. Если что, один обычный запрос к хорошим моделям будет стоит от 0,1 до 10 рублей, с дорогими нейросетями — до 30-50 рублей, вот и считайте сколько уйдёт на эксперименты с десятками, а то и сотнями запросов. Есть такие среди нас? У меня есть проблемы с 4 пунктом, но в целом я готов. Кто-то ещё? Котик полосатый (обс.) 00:30, 27 марта 2025 (UTC)[ответить]
      • Мне кажется, требования можно снизить. Написать или переписать статьи с использованием ии может нное количество нынешних участников. Оценивать результат еще большее число участников. Я не имел ввиду такое прямо глобальное и профессиональное исследование. Недавно было обсуждение такой статьи кажется о звезде. Вот что-то такое, только не про одну статью, а про бо́льшее количество. И написанных как-то скоординировано. Например, несколько по нескольким разным темам. При этом при возможности использовать ии для подбора источников из какого-нибудь условного сколара и для написания самого текста.
        Затем представить вп-общественности два варианта каждой статьи: сырую, написанную ии, и полностью отредактированную участником. Группу для редактирования текста также можно набрать из двух или трех человек, опыт программирования для которых необязателен.
        То есть три группы. Небольшая группа, которая запустит ии с определёнными выводными.
        Небольшая группа редакторов сырого материала. И прочие участники, которые будут комментировать результат.
        Ни в одной из групп профессиональные программеры не требуются. Я в принципе могу войти хоть в первую группу. Если такая инициатива пройдёт и что-то будет делаться, просто почитаю гайды о том, как правильно применять ии. Nikolay Omonov (обс.) 04:49, 27 марта 2025 (UTC)[ответить]
        • Программисты и в моём варианте не особо нужны (по крайней мере, на первых этапах). Но и просто от рандомного участника, который с нейросетью «на вы» тоже особо толку не будет. Нужно, чтобы на «ты», а лучше на «ты, твою мать». Кроме того, работать надо скорее не в направлении создания новых статей, а работы с уже существующими. Фактчекинг, оформление, доработка. Иначе через полгода у нас будет проблема с вот такими статьями, которые явных признаков ИИшности уже иметь не будут, но с которыми надо будет что-то делать. Котик полосатый (обс.) 13:13, 27 марта 2025 (UTC)[ответить]
      • Я бы очень одобрил создание такой группы. Но, повторюсь, для нейростатей нужен отдельный раздел Википедии. Грамотно используя нейросети и подбирая источники, его участники смогли бы нагенерировать десятки миллионов статей. Но их точность, конечно, пока была бы намного ниже, чем здесь. И заливать их без ручной проверки в ОП Википедии, очевидно, никто не позволит. Если же их проверять вручную, то значимого прироста производительности это не даст.
      • Такую НейроВикипедию, вероятно, нужно было бы делать одну для всех языков, а алгоритм работы в ней и структура служебных страниц очень отличались бы от здешних. На каждую страницу следовало бы повесить предупреждение о возможных ошибках. Алексей Ладынин (обс.) 13:59, 27 марта 2025 (UTC)[ответить]
        • Зачем это делать, если нейросеть и так может выдать справку по любому вопросу? Смысла в таком проекте примерно ноль, в отличие от использования нейросетей в качестве ассистента для авторов Википедии (и опять же, повторюсь, на написании статей свет клином не сошёлся, важнее работа с уже написанными). «Значимого прироста производительности это не даст» — простите, а вы лично сколько текстов с помощью нейросетей написали, что так категорично это утверждаете? Не обязательно для Википедии, вообще? Ноль, один, десять, сто? По моему опыту, производительность (или затраты ментальных ресурсов — можно делать не быстрее, но не напрягая особо мозг), в зависимости от характера текста, лучше в 2-10 раз. Котик полосатый (обс.) 14:20, 27 марта 2025 (UTC)[ответить]
          • Только в этой справке, полученной напрямую от нейросети, огромное количество галлюцинаций. Поэтому мегаэнциклопедия с десятками миллионов статей по любому вопросу и небольшим числом галлюцинаций очень даже имела бы смысл.
          • Кто-то из опытных участников писал, что экономия времени при написании статьи у него вышла в два раза. Если 5-10 участников станут писать вдвое больше статей - это ничто в масштабах Википедии, капля в море. И не факт, что сообщество это позволит. Алексей Ладынин (обс.) 15:01, 27 марта 2025 (UTC)[ответить]
            • «Огромное количество галлюцинаций» — нет. Вполне приемлемое для повседневного использования. Задайте в Яндексе любой вопрос и включите нейропоиск — вам будет выдан ответ, который, скорее всего, будет достоверным. «Ничто в масштабах Википедии» — а почему 5-10, почему не 50-100? И даже если 5-10, это вовсе не капля в море, если речь идёт об активных участниках, это сотни, если не тысячи статей. Далее, почему речь именно о новых статьях, а не о дополнении существующих? Котик полосатый (обс.) 15:33, 27 марта 2025 (UTC)[ответить]
              • Ну вы ж понимаете, что ответы на почти все простые вопросы, которые может задать обычный пользователь, в ВП (не в русской, так в английской) уже есть, и это именно на них уже обучен нейропоиск. This is Andy 15:47, 27 марта 2025 (UTC)[ответить]
                • Нет, это не так работает. Нейропоиск сам составляет поисковый запрос на основе вопроса пользователя, ищет наиболее релевантные источники, потом на их основе формирует ответ, и вопросы могут быть довольно сложные (пример). Соответственно, сайт на котором будут «десятки миллионов статей», написанных нейросетью, просто не нужен. С людьми в контуре (human in the loop) — может быть, и нужен. Котик полосатый (обс.) 20:18, 27 марта 2025 (UTC)[ответить]
                  • Да, это вопрос не из категории простых, тут я согласен. И с тем, что десятки миллионов статей не нужны — тоже. Тем не менее не очень сложно отвечать на 99% вопросов обычных пользователей. Ну да, это связным текстом, это удобно и красиво. Но в целом сильно новой инфы не несёт. Впрочем, не вижу смысла спорить, это немного вбок от основной темы пошло. This is Andy 20:28, 27 марта 2025 (UTC)[ответить]
                  • На таком сайте люди должны выполнять самую важную задачу - подбор и ранжирование авторитетных источников.
                  • Я вижу, что посещаемость Википедии не падает, значит не заменяет "Нейропоиск" читателям энциклопедические статьи. Алексей Ладынин (обс.) 08:50, 28 марта 2025 (UTC)[ответить]
  • Оооочень интересно как это будет реализовано. Iniquity (обс.) 20:24, 31 марта 2025 (UTC)[ответить]
    • Никак. Ну в смысле шуму-то будет, нескольких спамеров (которым и так ничего не светило) показательно забанят. Попутно отпугнут новичков, которых может и можно было чему хорошему научить, да только после того как на них оттопчутся за использование ИИ — им уже не надо будет. Кто нейросетями пользоваться хоть немного умеет — будут продолжать пользоваться, и фиг им кто что скажет (хотя бы потому что ВП:ИВП, а докопаться кроме «недекларирования» будет не к чему). С оплатой-то хоть фактор конкуренции работает — платники в законе устраняют «чёрных» конкурентов, в том числе сливами непубличной информации. Тут и этого не будет. Ну и я тихо буду ржать с того, что на форуме правил половина обсуждений в стиле «запретить ИИ» висит с предытогами от ИИ. Которые вполне бы могли статьи итогами, если бы это не было столь иронично. Котик полосатый (обс.) 22:51, 31 марта 2025 (UTC)[ответить]
      • Попутно отпугнут новичков, которых может и можно было чему хорошему научить, да только после того как на них оттопчутся за использование ИИ — им уже не надо будет.
        Имхо, с учетом блокировок прокси вкупе с блокировками диапазонов вандалов, новичков и так давно не существует. Либо их потом режется на порядок-другой как минимум, а там уже вступает в дело отличная атмосфера проекта. ~~‍~~ Jaguar K · 23:32, 1 апреля 2025 (UTC)[ответить]
  • Есть смысл говорить не об «искусственном интеллекте» (слишком широкое и зонтичное понятие, содержание которого быстро меняется со временем), а о конкретной проблеме 2025 года в нашем проекте — машинногенерированных текстах, bezik 12:01, 8 апреля 2025 (UTC)[ответить]
  • Хотел бы поделиться любопытным наблюдением. Некачественные нейротексты заменили копипасту. Последние год-два копипаста, вроде, стала встречаться намного реже, но в тех же ситуациях, когда раньше вносили ее, теперь вносят неумело сгенерированный ИИ-текст. — Алексей Ладынин (обс.) 18:51, 17 июня 2025 (UTC)[ответить]

«Думки» DeepSeek'а

Про себя и свои тексты один из обсуждаемых вот что надумал:

Gnom / обс. 22:49, 8 мая 2025 (UTC)[ответить]
  • Выглядит так, как будто человек писал (или хотя бы правил). Vcohen (обс.) 06:17, 9 мая 2025 (UTC)[ответить]
    • Не-а. Типичный en:AI slop — общие фразы с перестановкой слов из контекста (обсуждение-то ему уже с высказанными аргументами скормили). Другой вопрос, что у нас половина высказавшихся своим мозгом такой же slop нагенерировала, потому что высказаться хотелось, а вникать в вопрос — нет. Котик полосатый (обс.) 10:58, 13 мая 2025 (UTC)[ответить]
      • половина высказавшихся своим мозгом такой же slop нагенерировала, потому что высказаться хотелось, а вникать в вопрос — нет
        Кошмар! Верхних дыхательных путей... (с)
        P. S. Интересно, эту статью по-русски как назвать, нейромусор? Футболло (обс.) 20:17, 20 мая 2025 (UTC)[ответить]
    • Ну нормально сформулировано. ИИ это инструмент, не больше и не меньше, который я использую в копирайтинге, например. И выводы совершенно правильные. 1. Инструментом надо уметь работать, это к нему не прилагается. 2. Работу надо проверять, большая часть людей не вандалы, но... кхм, не слишком умны. 3. Если очевидно, что проверки не было, удаляем. ВСЕ. Vulpo (обс.) 11:16, 13 мая 2025 (UTC)[ответить]
      • Выводы — как обычно в таких ситуациях, что у нейросети, что у благожелательно настроенного, но обладающего лишь поверхностным пониманием проблемы человеческого разума, получились за всё хорошее против всего плохого, и хоть и на первый взгляд выглядящие разумно, но не выдерживающие даже лёгкой критики. Ну вот, например: «Раскрывать использование ИИ? — ✔️ Да Как с платными правками» — ок, а если участник не раскрыл, но использует, то что? Блокируем участника только по формальному основанию нераскрытия? Такой подход и с платными-то правками вызывал возражения у заметной части сообщества. И там жёсткое решение было по сути насильно продавлено Фондом, видимо, потому что были на то юридические причины. По факту, если статьи получаются плохие — мы блокируем не за нераскрытие использования ИИ, а за плохие статьи. А если статьи хорошие, но участник категорически отказывается раскрывать использование ИИ — чёрта с два его кто заблокирует. А если заблокирует — бугурта в сообществе будет на три таких обсуждения, как это. «Запретить ИИ? — ❌ Нет Но жёстко регулировать» — может быть, ИИ ещё расскажет, как именно в Википедии можно в принципе что-то жёстко регулировать? А уж тем более «жёстко регулировать» что-то, что нельзя легко проконтролировать? Это и в насквозь зарегламентированных областях IRL невозможно, потому что превращается в «нельзя, но если без палева, то можно». А уж в Википедии и подавно. Котик полосатый (обс.) 23:59, 13 мая 2025 (UTC)[ответить]
        • Когда фонд подключит свой АИ, этот АИ и будет жестко регулировать, в теории, пока АИ-шные тексты реально отличить. ~~‍~~ Jaguar K · 11:00, 25 мая 2025 (UTC)[ответить]
          • Вот именно, что в теории. А на практике «реально отличить» выглядит так. В систему «Антиплагиат», недавно заявившую о том, что она «ловит нейросетевые тексты с точностью 98%», загружается дипломная работа с явными GPT-измами, такими как бесконечные списки вида "Обобщающее словосочетание. Дальше текст", с фрагментами скопированного прямо из DeepSeek с Markdown-разметкой текста (заголовки выделены решётками (#), в конце горизонтальная черта), с явно составленным нейросетью списком литературы, в который заботливо добавлены комментарии и аннотации. Результат? Оригинальность 78,14%, никаких подозрений. Зато на написанный в прошлом веке канцелярски-юридический текст оно бодро ругается, типа нейросеть писала (ага, на перфокартах). А стоит это удовольствие 400 рублей за одну проверку. И с Фондом то же самое. Во-первых, нормальный ИИ стоит денег, а они их не жалеют только на свои зарплаты и мероприятия в тёплых странах. Во-вторых, даже нормальный ИИ будет ловить как максимум только самый жуткий и неряшливый AI slop. Который и так с первого взгляда видно и которого становится всё меньше по мере того, как устаревшие версии нейросетей выводят из эксплуатации. Котик полосатый (обс.) 11:21, 25 мая 2025 (UTC)[ответить]
        • А сильно ли много людей блокировали за плохие статьи? Если исключать плагиат. Tucvbif??? 11:28, 25 мая 2025 (UTC)[ответить]
          • За машпереводы, просто неграмотный текст, подлог источников, мистификации? Более чем достаточно. Котик полосатый (обс.) 21:16, 25 мая 2025 (UTC)[ответить]
            • Подлог источников и мистификации — это не сюда, это уже не просто «плохие статьи». Есть ли примеры блокировок за неграмотный текст? А с машпереводами как я вижу всё очень сложно, явные машпереводы, плохо почищенные, местами даже в «хорошие статьи» проникали. Tucvbif??? 06:38, 26 мая 2025 (UTC)[ответить]
              • Это как раз сюда. Неграмотного текста нейросети не продуцируют, наоборот, они генерируют абсолютно грамотный текст, но содержащий подлог источников и мистификации (галлюцинации), так что это здесь как раз главное. Однако блокировки за систематические добавления неграмотных текстов были, есть и будут, КБУ С2 к статьям с грубыми языковыми нарушениями тоже активно применяется. За подлог я вижу 5 или 6 бессрочек только в архиве ЗКА за май, так что за это блокируют и много. За машпереводы тоже минимум одна блокировка в каждом месячном архиве фигурирует. Котик полосатый (обс.) 14:06, 27 мая 2025 (UTC)[ответить]
                • Одно дело явный и намеренный подлог источников, а другое дело галлюцинации — тут с живыми людьми сложно бывает, что добавляют источник, в лучшем случае не понимая, что в источнике написано, а в худшем — не читают вообще. И нередко всё сходит с рук. Тут разве что совсем радикальные меры принимать — если человек попался на нейроводстве, то вычищать весь его вклад с признаками использования ИИ/Машперевода. Tucvbif??? 15:39, 27 мая 2025 (UTC)[ответить]
                  • Делов-то. Любой подлог источников после предупреждения о его недопустимости — явный и намеренный. И абсолютно пофигу, нейросети виноваты или участник сам. Котик полосатый (обс.) 17:05, 27 мая 2025 (UTC)[ответить]
                    • В том-то и проблема, что пока кто-нибудь обратит внимание, пока сверит источники (а на это, знаете ли, уходит немало времени), участник успеет написать 100500 статей. Tucvbif??? 20:07, 27 мая 2025 (UTC)[ответить]
                      • Чтобы уходило меньше времени на сверку — используйте LLM. А участники, которые пишут по 100500 статей с подлогом источников — они сейчас здесь с нами, в одной комнате Википедии, или это плод фантазии? Насколько я помню, такие серийные мистификаторы в истории Википедии единичны. Котик полосатый (обс.) 06:45, 28 мая 2025 (UTC)[ответить]
                        • Опять же, мистификаторы — это одно, а те, кто стремится всеми силами написать побольше статей, или просто заполнить красную ссылку, не задумываясь над качеством и достоверностью — это другое. Посмотрите на ВП:КУ: там полно участников, кричащих о том, как «злые администраторы» удалили их статью, которую они написали с помощью нейросети — она даже подобрала им источники, которые они не читали. И полно статей, которые просто не попали на ВП:КУ, потому что эти статьи просто никому из неравнодушных участников не попались на глаза. Tucvbif??? 17:25, 30 мая 2025 (UTC)[ответить]

Промежуточный итог

По вопросу 1

В первом вопросе сложился почти единогласный консенсус. Участники, вносящие в основное пространство текст, созданный с помощью ChatGPT или его аналога, дополнительно обязываются вручную проверять его на наличие характерных для таких текстов ошибок и проблем и исправлять их. Невыполнение данного требования теперь является нарушением само по себе. Конкретные формулировки дополнений в правила следует обсудить на форуме правил. Возможно, для этого стоит дождаться подведения окончательного итога по данному опросу. Пока текст правил не будет дополнен, можно ссылаться на данный промежуточный итог напрямую. — Алексей Ладынин (обс.) 10:51, 4 июля 2025 (UTC)[ответить]

  • Как и предполагалось, итоги будут «за всё хорошее и против всего плохого», но с нулевой практической ценностью. Вы уже поставили камеру за плечо каждого участника, чтобы мы могли как-то узнать, проверялся текст или не проверялся? И если не проверялся, но в нём нет «характерных ошибок и проблем» — то что вы сделаете участнику за «нарушение само по себе»? Имеет ли смысл выделять отдельное «нарушение само по себе» в какой-то иной ситуации, кроме отсутствия в тексте «характерных ошибок и проблем»? Котик полосатый (обс.) 09:18, 5 июля 2025 (UTC)[ответить]
    • Я полагаю, что итог имеет существенную практическую ценность. В последнее время стало появляться немало новых участников, которые заливают непроверенные некачественные нейротексты. Раньше приходилось целый консилиум созывать, чтобы убедить такого участника этого не делать. Теперь будет достаточно сообщить ему, что это запрещено.
    • «Имеет ли смысл выделять отдельное „нарушение само по себе“» — считаю, что да, по аналогии с пьяной ездой и передачей управления малолетнему.
    • «И если не проверялся, но в нём нет „характерных ошибок и проблем“» — вы говорите о той гипотетической ситуации, когда кто-нибудь станет не проверяя вручную массово заливать в ОП сравнительно качественные нейротексты вроде этого? Как видите, сообщество сейчас не готово это поддержать. Но, если считаете необходимым, могу добавить к итогу дополнение: «по обсуждению на форуме сообщество может разрешить внесение в ОП непроверенных ИИ-сгенерированных текстов в отдельных случаях» Алексей Ладынин (обс.) 12:28, 7 июля 2025 (UTC)[ответить]
      • Если новый участник настроен на конструктивный диалог — ваш итог практической ценности не имеет, потому что такому участнику и так легко объяснить, что результат получается не тот, что от него ждут. И он поймёт и будет делать как надо. А если не настроен, то итог всё равно практической ценности не имеет. «Достаточно сообщить ему, что это запрещено» — на что вам участник скажет: «я всё проверил, ошибок нет». А другой участник скажет «я вообще никакими нейросетями не пользовался». И снова надо собирать консилиум или хотя бы объяснять, что конкретно в тексте не так. Можно, конечно, ничего не объяснять и не доказывать, а сразу применять банхаммер, но мы тут говорим о недоказуемых вещах. Нельзя ни доказать, ни опровергнуть использование нейросети за пределами совсем уж очевидных случаев, с которыми мы и так прекрасно справляемся. Котик полосатый (обс.) 22:06, 7 июля 2025 (UTC)[ответить]
      • «по аналогии с пьяной ездой и передачей управления малолетнему» — что бы вы сказали, если бы «пьяная езда» определялась не исходя из показаний алкотестера, а по принципу «гаишнику показалось, что глаза блестят, нет оснований не доверять сотруднику полиции»? Котик полосатый (обс.) 22:08, 7 июля 2025 (UTC)[ответить]

Отозванный итог

Содержательный итог так и не появился. Опрос закрыт. — Томасина (обс.) 11:19, 17 июля 2025 (UTC)[ответить]

Предварительный итог

Опрос показал срез мнений по нескольким ключевым вопросам использования ИИ, выявил консенсус по некоторым из них, возможные компромиссные решения по другим и я надеюсь, что на его основе будут приняты правила.

Анализ

Раздел 1

Следует ли обязать участников, вносящих в основное пространство текст, созданный при помощи ChatGPT или его аналогов, дополнительно проверять его на наличие ошибок и проблем, характерных для таких текстов?

См. Промежуточный итог.

Раздел 2

Следует ли обязать участников раскрывать факт использования в основном пространстве текстов, созданных при помощи ChatGPT или его аналогов?

Уверенное большинство принявших участие в обсуждении считают, что необходимо ввести требование раскрывать факт внесения в ОП текстов, созданных с помощью ИИ. Но число поддержавших такую меру всё же немного меньше 2/3 — цифры, которая часто трактуется как свидетельство консенсуса.

Аргументы за

  • Такие тексты обычно содержат серьёзные ошибки, а также имеют другие проблемы, декларирование поможет исправлять или удалять их.
  • (От себя замечу, что прозрачность использования ИИ может содействовать его конструктивному применению.)

Аргументы против

  • Выполнение требования невозможно проконтролировать.
    • Действительно, абсолютно надёжного способа отличить ИИ-текст от обычного не существует. Однако на практике в значительной части случаев, если не в большинстве, участников, вносящих ИИ-тексты, можно поймать на этом, поэтому данный аргумент представляется мне невалидным.
    • Принятие настоятельной рекомендации вместо требования в целом снимает вопрос контроля
  • Со временем ситуация с ИИ меняется.
    • Да, меняется, но опрос проводится в 2025 году и ориентирован в первую очередь на решение текущих проблем. Через несколько лет, если ситуация изменится, можно будет провести ещё обсуждения, так что это несерьёзный аргумент.
  • Может создать иллюзию перекладывания ответственности.
    • Может быть в некоторых случаях. Но с учётом принятия предыдущего требования несложно указать участнику на недопустимость подобного подхода.
  • Признание может стигматизировать.
    • Возможно, в некоторых ситуациях признание может ставить участника в невыгодное положение.
    • Принятие настоятельной рекомендации вместо требования вероятно смягчит этот момент.

Другие вопросы

  • Было отмечено, что на сегодняшний день ИИ-тексты считаются лицензионно чистыми и с этой точки зрения необходимости раскрытия нет (от себя замечу, что нельзя быть полностью уверенным, что это всегда будет так и что не будут приняты какие-нибудь ретроспективные законы).
  • Популярность получила идея использовать для указания на ИИ-происхождение текста шаблон на СО, аналогичный {{Переведённая статья}}, но эта же идея вызвала и серьёзные возражения, так что консенсус по этому вопросу отсутствует.
  • Некоторые участники отметили, что нарушение требования не должно считаться серьёзным и наказываться блокировками. This is Andy при этом также заметил, что его в первую очередь нужно рассматривать как отягчающее обстоятельство при других нарушениях.

Раздел 3

Следует ли целиком запретить внесение в основное пространство текстов, созданных при помощи ChatGPT и его аналогов?

Предложение о полном запрете внесения любых ИИ-текстов в ОП было отвергнуто. Его поддержало лишь небольшое меньшинство. Однако можно констатировать, что большинство участников (с небольшим перевесом) считает, что добавление ИИ-текстов в ОП следует признать нежелательными. Многие отметили, что считают допустимым использование ИИ в некоторых случаях, в зависимости от викиопыта использующего, вида использования и прочих факторов.

Обсуждавшиеся вопросы

  • Несколько участников отмечали, что использование ИИ в качестве вспомогательного инструмента более приемлемо, чем внесение текстов, почти полностью созданных ИИ.
  • Некоторые участники отметили, что применение ИИ опытными википедистами более допустимо, а использование его новичками вредит.
  • Отмечалось, что ИИ быстро изменяется и подход к его использованию со временем нужно будет пересматривать.

Раздел 4

Что делать при обнаружении в основном пространстве крупного фрагмента текста, если не вызывает особых сомнений, что он был сгенерирован при помощи ChatGPT или его аналога и не был в достаточной степени проверен?

Порядка половины высказавшихся считают, что очевидные непроверенные ИИ-тексты из ОП нужно удалять. Чуть менее трети считают, что какой-то особый подход к ним не нужен. Большую популярность получил не предлагавшийся изначально компромиссный подход: аналогично машинным переводам грубые удалять, некоторые переписывать. Полагаю, что данный подход следует считать приемлемым компромиссом и базой для консенсуса.

Аргументы за удаление

  • На проверку и переписывание уйдет столько же времени, сколько на написание с нуля.
  • Такие тексты имеют слишком серьёзные проблемы для нахождения в ОП.

Аргументы против особого подхода

  • Существующие правила и так не допускают фактические, стилистические, смысловые ошибки.

Раздел 5

Что делать при обнаружении в основном пространстве крупного фрагмента текста, который предположительно был сгенерирован при помощи ChatGPT или его аналога и не был в достаточной степени проверен, если имеются сомнения?

Этот вопрос вызвал существенно меньший интерес, чем предыдущий. Более 2/3 высказавшихся не поддержали введение какого-либо особого подхода к текстам, в отношении которых не понятно, были они ИИ-сгенерированы и не проверены или нет.

Раздел 6

Следует ли как-либо регламентировать или ограничить использование сгенерированных ChatGPT и его аналогами текстов вне пространства статей?

Подавляющее большинство участников считают публикацию ИИ-текстов под видом или вместо собственных реплик вредной и нежелательной. Многие отметили, что такие действия мешают ходу дискуссий и что они являются нарушением ВП:ДЕСТ. Предложения прямого запрета, однако, не получили широкой поддержки.

Использование ИИ-текстов вне обсуждений и ОП почти не обсуждалось.

Раздел 7

Обсуждение прочих вопросов, связанных с темой опроса.

В разделе состоялось большое конструктивное обсуждение, многие участники высказали свои мысли о будущем и настоящем Википедии в контексте развития ИИ. Выделю произвольно некоторые тезисы и прокомментирую.

Тезисы

  • Использование ИИ невозможно выявить, поэтому никакие правила, регулирующие его, не имеют смысла. Нужно оценивать только конечный результат безотносительно использованных инструментов
    • Хотя не существует способа отличить ИИ-текст во всех случаях, на практике в значительной части случаев выявить использование ИИ можно. Ранее, когда получали распространение новые инструменты, создававшие массовые проблемы при неправильном использовании (автопереводчик, AWB, боты), вскоре принимались правила их использования и они действуют даже не смотря на то, что абсолютно точного метода выявить использование данных инструментов не существует. Поэтому данный аргумент против принятия правил об ИИ мне представляется невалидным.
  • ИИ открывает широкие перспективы для развития Википедии.
    • Да, разумное использование ИИ открывает большие возможности для развития Википедии, энциклопедического знания в целом. Особенно на меня произвел впечатление этот комментарий и эксперименты участника Котик полосатый. Но это не значит, что следует заливать некачественный текст в ОП. И, на мой взгляд, нежелательно смешивать ботостатьи с обычными, так как в перспективе это может уничтожить Википедию.
  • В будущем ИИ целиком заменит Википедию.
    • Вполне вероятно, что так и произойдет. Но скорее всего не в ближайшие 10-15 лет, так что заранее сворачивать Википедию не нужно -

Собственно итог

1

Участники, вносящие в основное пространство текст, созданный с помощью ChatGPT или его аналога, дополнительно обязываются вручную проверять его на наличие характерных для таких текстов ошибок и проблем и исправлять их. Данное требование следует внести в правила.

2

Участникам, вносящим в основное пространство тексты, созданные использованием ChatGPT и его аналогов настоятельно рекомендуется раскрывать это. За само по себе невыполнение этой рекомендации не должно налагаться блокировок и других санкций, однако оно может рассматриваться как отягчающее обстоятельство при других нарушениях. Данные рекомендации следует внести в правила.

3

Констатируется настороженное отношение сообщества к внесению в основное пространство любых текстов, созданных при помощи ChatGPT и его аналогов. Значительная часть сообщества считает это нежелательным. Участникам, вносящим в основное пространство такие тексты, следует проявлять осторожность и щепетильность. Особенно это касается текстов с минимальным человеческим вкладом. Более лояльно сообщество относится к использованию искусственного интеллекта как вспомогательного инструмента опытными википедистами. Новичкам рекомендуется избегать внесения таких текстов в основное пространство до достижения ими некоторого опыта. Данная рекомендация может быть добавлена на предназначенные для новичков справочные страницы и даваться при личном обращении (в вежливой форме). Вышеперечисленные положения могут быть внесены в текст правил.

Использование ИИ для технических, оформительских и прочих подобных целей не было предметом данного обсуждения и судя по другим обсуждениям сообщество его одобряет.

4

К обнаруженным в основном пространстве крупным фрагментам текста, очевидно созданного при помощи ChatGPT или его аналога и не скорректированного в достаточной степени, следует применять подход, аналогичный подходу к машинным переводам: некачественные удалять, некоторые переписывать. Данное положение может быть внесено в правила.

Сообществу рекомендуется продолжить поиск консенсусных формулировок критерия быстрого удаления для наиболее некачественных ИИ-статей, так как подобный критерий существует для машинных переводов .

5

Не вводится какой-либо особый подход к находящимся в основном пространстве текстам, относительно которых неизвестно, были они созданы при помощи ChatGPT и его аналогов и не проверены или нет.

6

Публикация текстов, созданных при помощи ChatGPT и его аналогов, под видом или вместо своих реплик признаётся крайне нежелательной. Если такие реплики неконструктивны, препятствуют нормальному ходу обсуждения, их можно скрывать. Систематическая публикация таких реплик может трактоваться как нарушение руководства ВП:ДЕСТ. Вышесказанное не относится к сгенерированным репликам, опубликованным для иллюстрации возможностей искусственного интеллекта, помеченным автором как таковые и к другим подобным случаям. Данные рекомендации следует внести в правила.

7

По итогам обсуждения в разделе «Иное» в правила не вносится изменений.

Реализация итога

На основании данного итога следует подготовить конкретный проект нового правила или поправок в существующие и открыть обсуждение на форуме правил для согласования формулировок. Сделать это может любой участник. Возможно (но не обязательно) я сам это сделаю. — Алексей Ладынин (обс.) 16:07, 22 июля 2025 (UTC)[ответить]

Prefix: a b c d e f g h i j k l m n o p q r s t u v w x y z 0 1 2 3 4 5 6 7 8 9

Portal di Ensiklopedia Dunia

Kembali kehalaman sebelumnya