Редакторы Википедии приняли решение ограничить использование искусственного интеллекта на платформе в рамках недавнего обновления политики, запрещающего использование больших языковых моделей для написания или переписывания статей.
Новое руководство отражает растущую озабоченность в сообществе Википедии тем, что тексты, созданные искусственным интеллектом, могут противоречить стандартам платформы, особенно в части проверяемости и надежного источника.
Текст, созданный большими языковыми моделями, часто нарушает несколько основных политик контента Википедии, гласит обновление политики. По этой причине использование LLM для создания или переписывания содержания статьи запрещено, за исключением указанных ниже исключений.
Политика все еще позволяет ограниченное использование инструментов искусственного интеллекта, включая предложения базовых правок текста к собственному материалу редактора, при условии, что система не вводит новую информацию. Тем не менее, редакторам рекомендуется внимательно рассматривать эти предложения.
Хотя в новой политике не упоминаются наказания за использование контента, созданного искусственным интеллектом, согласно рекомендациям Википедии относительно раскрытия информации, повторное злоупотребление формирует шаблон разрушительного редактирования и может привести к блокировке или запрету. Википедия предоставляет редакторам возможность восстановить свои аккаунты после процесса обжалования.
Блоки могут быть отменены с согласия блокирующего администратора, переопределением другими администраторами в случае явно необоснованной блокировки или (в очень редких случаях) при обжаловании перед Арбитражным комитетом, сообщила Википедия.
По мнению профессора лингвистики Университета Вашингтона Эмили М. Бендер, некоторые применения языковых моделей в инструментах редактирования могут быть разумными, но провести четкую границу между редактированием и созданием текста может быть сложно.
Так, с помощью языковой модели можно создать очень хороший проверяльщик орфографии, например, заметила Бендер в интервью Decrypt. Я думаю, что разумно сказать, что использование проверяльщика орфографии для редактирования допустимо. И если вы переходите на следующий уровень, на проверяльщик грамматики, то это тоже может быть приемлемо.
Бендер отметила, что сложность возникает, когда системы выходят за рамки исправления грамматики и начинают изменять или создавать содержание, отметив, что у больших языковых моделей отсутствует тот уровень ответственности, который приносят человеческие участники в совместные знания.
Использование больших языковых моделей для создания синтетического текста - это фундаментальное свойство этих систем, что в них нет ответственности, нет связи с тем, во что кто-то верит или за что отвечает, сказала она. Когда мы говорим, мы говорим на основе того, во что мы верим и за что мы несем ответственность, а не на основе какой-то объективной истины. И этого нет для больших языковых моделей.
Бендер отметила, что широкое использование редактирования, созданного искусственным интеллектом, также может повлиять на репутацию сайта.
Если люди вместо этого используют сокращенные пути и создают что-то, похожее на редактирование или статью Википедии, и размещают это там, то это ухудшает общую ценность и репутацию сайта, сказала она.
Джозеф Ригл, доцент кафедры коммуникации Университета Норт-Истерн, исследующий культуру и управление Википедией, отметил, что реакция сообщества отражает долгосрочные озабоченности относительно точности и источников.
Википедия осторожно относится к созданной ИИ прозе, сказал Ригл в интервью Decrypt. Они серьезно относятся к точным характеристикам того, что надежные источники сообщают о теме. У ИИ есть серьезные ограничения на этом фронте, такие как выдуманные утверждения и поддельные источники.
Ригл сказал, что основные политики Википедии также формируют взгляды редакторов на инструменты ИИ, отметив, что многие большие языковые модели были обучены на контенте Википедии. В октябре Фонд Викимедиа заявил, что число посещений людьми Википедии снизилось примерно на 8% год к году, поскольку поисковые системы и чат-боты все чаще предоставляют ответы непосредственно на своих платформах, а не направляют пользователей на сайт.
В январе Фонд Викимедиа объявил о соглашениях с ИИ-компаниями, включая Microsoft, Google, Amazon и Meta, позволяющих им использовать материалы Википедии через свой продукт Enterprise, коммерческий сервис, предназначенный для масштабного повторного использования ее контента.
Хотя использование контента Википедии разрешено лицензиями Википедии, среди участников Википедии все еще существует антипатия к сервисам, которые аппроприируют контент сообществ и затем ставят нежелательные требования перед этими сообществами для работы с последующим избытком ИИ, сказал Ригл.
Несмотря на запрет на использование LLM, Википедия разрешает использование инструментов ИИ для перевода статей из других языковых изданий на английский язык, при условии, что редакторы проверяют оригинальный текст. Политика также предупреждает редакторов не полагаться только на стиль написания для определения созданного ИИ контента и вместо этого сосредоточиться на том, соответствует ли материал основным политикам Википедии и истории редактирования участника.
Некоторые редакторы могут иметь похожие стили написания на LLM, говорится в обновлении. Для обоснования санкций требуется больше доказательств, чем только стилистические или лингвистические признаки, и лучше всего рассмотреть соответствие текста основным политикам контента и недавним правкам редактора вопроса.



