Команда учёных из Университета ветеринарной медицины Ганновера, Германия, решила изучить потенциальные ограничения и преимущества, связанные с применением ChatGPT в написании научных работ в области ветеринарии. Исследование ветврачей, озаглавленное «ChatGPT и научные статьи по ветеринарной неврологии: выпущен ли джинн из бутылки?» было опубликовано в журнале «Границы ветеринарной науки», в разделе «Ветеринарная неврология и нейрохирургия».
Тезисы и вводные разделы, включая ссылки, для трёх различных оригинальных исследовательских работ и статей в области ветеринарной неврологии, которые были созданы ChatGPT, оценивались с помощью детекторов вывода искусственного интеллекта и плагиата. Авторы исследования также предложили определить оригинальность и достоверность содержания 13 сертифицированным ветврачам-неврологам.
Профессор Хольгер Волк, руководитель клиники для мелких животных Университета ветеринарной медицины Ганновера, сообщил: «Большие языковые модели (LLM), такие как ChatGPT, обучены имитировать человеческий стиль письма и создавать связные, правдоподобно звучащие тексты, которые иногда могут обмануть экспертов-людей. Однако модели, подобные ChatGPT, склонны к ошибкам и могут генерировать предвзятый контент». Это вызывает опасения относительно добросовестности использования таких моделей в написании статей в настоящий момент. Несмотря на недавние достижения, учёным пока не стоит полностью полагаться на ChatGPT или любые инструменты искусственного интеллекта.
Одна из соавторов исследования, Самира Абани, заявила, что ChatGPT, как и любая другая технология, может либо представлять угрозу научной целостности и прозрачности, либо помогать исследователям, в зависимости от методики и целей использования. Она уверена, что обучение правильному использованию инструментов на основе искусственного интеллекта в научных целях необходимо включать в курс обучения студентов – будущих ветврачей.
Жасмин Несслер, автор-корреспондент из Университета ветеринарной медицины Ганновера, выступила с предложением о междисциплинарном научном сотрудничестве для установления чётких руководящих принципов ответственного использования ChatGPT, а также для обеспечения целостности и прозрачности публикуемой литературы. Запрет инструментов на основе искусственного интеллекта не станет эффективным подходом к предотвращению их неправильного применения. Специалисты должны воспользоваться предоставляемыми ИИ возможностями, чтобы использовать его потенциал на благо общества.
Источник: karl-marks.ru
Фото: frimufilms / AdobeStock
Читать по теме:
Мастит у коров: в Великобритании диагностировать болезнь поможет искусственный интеллект
Специалист по машинному анализу рентгенограмм SignalPET стал партнёром Covetrus
Zoetis внедряет искусственный интеллект в дерматологическое приложение для сканера