МОСКВА, 7 авг — РИА Новости. Модель авторства текстов, которая четко определяет вклад в работу искусственного интеллекта, предложили ученые Самарского университета. Результаты опубликованы в журнале "Семиотические исследования".
Активное внедрение нейросетей в научную деятельность ставит вопрос о том, можно ли признавать системы искусственного интеллекта полноценными соавторами публикаций. Как рассказали социологи Самарского национального исследовательского университета имени академика С.П. Королева, в мировой практике уже встречаются случаи, когда искусственный интеллект (ИИ) указывают в числе авторов научных статей, а в некоторых ситуациях и как единственного создателя работы.
Специалисты вуза проанализировали сам процесс создания текстов с использованием ИИ, а также рассмотрели подобные практики в международных базах данных Web of Science и Scopus. В результате были обнаружены четыре статьи, где ChatGPT указан как автор, включая два случая, когда было указано его единоличное авторство. По их словам, в базе Scopus есть как минимум две публикации с ИИ-соавторством, причем в одном случае чат-бот был позднее исключен из списка авторов по требованию редакции журнала.
По словам ученых, полученные ими результаты показали, что традиционное понимание авторства в условиях генеративного ИИ требует пересмотра. Человек здесь выступает не только как творец, но и как куратор, редактор и интерпретатор.
"Мы пришли к выводу, что такие работы обладают гибридной природой. Этот подход открывает путь к новым моделям "распределенного" и "переплетенного" авторства, где ИИ становится участником творческого процесса, но конечная ответственность за содержание остается за "исследователем-человеком", — прокомментировала доцент кафедры социологии и культурологии Самарского университета Наталья Масленкова.
Особое внимание исследователи университета уделили этическим проблемам, связанным с использованием генеративного интеллекта для написания научных текстов. Известны риски академического "мошенничества", например, когда человек выдает содержание, полностью сгенерированное ИИ, за своё, не принимая на себя роль редактора и ответственного автора.
"Наши выводы могут лечь в основу этических и правовых норм, повышающих прозрачность использования ИИ и предотвращающих злоупотребления. Это особенно важно для образовательной, научной и медийной сфер, где возникает вопрос, кто несет ответственность за контент, созданный с участием ИИ", — рассказала Масленкова.
Как сообщили специалисты вуза, новизна выполненной ими работы заключается в том, что она не ограничивается лишь юридическим анализом, а использует комплексный подход, сочетающий философский, социокультурный и правовой анализ. Исследователи связывают современные практики работы с ИИ с теориями распределенного и сетевого авторства, что позволяет глубже понять трансформацию роли человека и машины в создании текстов.
"Одна из точек зрения приводит аргументы в пользу того, что ИИ — это "стохастический попугай", имитирующий человеческую речь на основе статистики. Его "субъектность" пока социальный конструкт, отражающий коллективный вклад разработчиков и пользователей", — прокомментировала Масленкова.
На данном этапе перед учеными стоит задача разработки рекомендаций по прозрачному и ответственному использованию генеративных моделей в образовании и научных публикациях, а также изучения того, как меняются представления об авторстве у разных социальных групп по мере распространения ИИ.




