- Опубликовано
13,5% научных статей пишет ИИ
- Автор
- Имя
- Нейрократия
- Telegram
- Нейрократия582 подписчика231 постПро технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev
13,5% научных статей пишет ИИ
Исследователи из Тюбингенского университета опубликовали в Science Advances работу, которая заставила научное сообщество нервно заёрзать. Они нашли способ вычислять тексты, написанные с помощью чат-ботов, по характерному «цифровому отпечатку».
Проанализировав 15 миллионов аннотаций к биомедицинским статьям с 2010 по 2024 год, учёные выявили набор из 454 слов-маркеров, частота которых резко подскочила после запуска ChatGPT в ноябре 2022 года. В этот список попали такие слова, как “delves” (углубляется), “crucial” (ключевой), “potential” (потенциал), “significant” (значительный) и “important” (важный).
Как минимум 13.5% всех аннотаций в биомедицине за 2024 год, похоже, были написаны с помощью ИИ. В некоторых менее престижных журналах и у авторов из определённых стран эта доля доходит до 40%.
И это, скорее всего, заниженная оценка, как отмечают эксперты. Ведь она не учитывает случаи, когда человек редактирует текст ИИ, или наоборот.
Помните историю про «вегетативную электронную микроскопию» — фантомный термин, рождённый ошибкой и разнесённый нейросетями по научным работам? Сегодня мы наблюдаем похожий процесс, только в промышленных масштабах. Проблема не в случайных ошибках, а в системном изменении языка науки под влиянием машин.
🤖 ИИ без репутации и без стыда
Академический мир раскололся. Недавний опрос Nature показал, что у учёных нет единого мнения, где проходит этическая черта. Но куда интереснее реальные кейсы.
В одном радиологическом журнале опубликовали отчёт с фразой: «Прошу прощения, но я ИИ-модель и не имею доступа к данным пациента в реальном времени».
Редактор журнала «Addiction» получил письмо с критикой статьи от якобы группы китайских учёных. Проверка показала, что эти «учёные» за полгода успели опубликовать комментарии в десятках журналов по самым разным областям — от кардиологии до урологии. Очевидно, что письма генерировал ИИ.
И вот тут мы подходим к главному. Кит Хамфрис, редактор из Стэнфорда, столкнувшийся с этим фейком, сформулировал ключевую мысль: «Причина, по которой я доверяю редакционной статье, — это имя на ней. Ведущий исследователь готов пойти на карьерный риск, высказывая непопулярные идеи. У ИИ нет репутации. Нет морального веса. У меня нет к нему доверия».
Предыдущий пост
- Опубликовано
Война за контент
Закрепленные
Из подборки #ИИпокалипсис
- Опубликовано
Как меняется устройство мысли
- Опубликовано
Анонимизация ИИ — фикция
- Опубликовано
Как на самом деле создается личность ИИ
- Опубликовано
Тёмные паттерны ИИ: от лести до психоза
- Опубликовано
Скрытые бэкдоры в нейросетях
- Опубликовано
Как на самом деле взламывают ИИ
Свежие посты
- Опубликовано
Внутренности Клода
- Опубликовано
Как меняется устройство мысли
- Опубликовано
Google ускоряет LLM в 8 раз
- Опубликовано
Архив, эпизоды и граф: память агента изнутри
- Опубликовано
Я делаю personal-first ассистента. Вот зачем
- Опубликовано
ИИ победил
- Опубликовано
Нейросети будут платить налоги
- Опубликовано
















