#chatgpt #ихнравы
ChatGPT оказался плохим советчиком по вопросам здоровья для китайцев
Китайские ученые в печали: оказывается, ChatGPT — плохой медицинский советчик если речь идет о вопросах, заданных на азиатских языках
В исследовании,
результаты которого были опубликованы в BMJ, ученые из Китайского университета Гонконга, Университета RMIT во Вьетнаме и Национального университета Сингапура задали вопросы о симптомах мерцательной аритмии на вьетнамском языке. Чат-бот GPT-3.5 дал ответы, связанные с болезнью Паркинсона, что привело азиатских специалистов в уныние,
пишет Mobihealthnews.
«Неправильная интерпретация симптомов или рекомендаций по лечению заболеваний может иметь серьезные последствия», — предупредил Квок Кин-он, один из исследователей и доцент кафедры общественного и первичного здравоохранения медицинского факультета CUHK.
Исследователи выявили проблему, вытекающую из языкового предубеждения нейросети, так как ее меньше обучали на языках азиатского региона. По словам доктора Артура Танга, старшего преподавателя в Университете RMIT во Вьетнаме, это приводит к низкому качеству ответов и непригодности ChatGPT для жителей азии.
«Это неравенство в точности языковых моделей может усугубить цифровой разрыв, особенно с учетом того, что на азиатских языках говорят преимущественно в странах с низким и средним уровнем дохода», — добавил он.
В другом исследовании, проведенном в Йельском университете, ученые зафиксировали значимые различия в упрощении отчетов по радиологии с помощью ChatGPT , когда была задана раса спрашивающего.
Короче, ChatGPT не только плохо понимает азиатов, но и проявляет расистские наклонности.
Эксперты, вопрос! Как сейчас дела с русским языком? Несмотря на геополитическую ситуацию, многие из вас используют ChatGPT в том числе и для рекомендаций о здоровье. Поделитесь в комментариях — интересно!
@medicalksu