ChatGPT «отправил» пользователя к психологам. Что он искал в сети?

Артем


Так нейросеть отреагировала на просьбу составить статистику смертности от рака. Вместо данных пользователю предложили обратиться на горячую линию по предотвращению самоубийств. 

Подписаться на iGuides в Telegram, чтобы узнать обо всем первым — t.me/iguides

Об этом рассказал Reddit, пользуясь новыми возможностями поисковика Microsoft Bing со встроенным GPT-4. Информация требовалась подробная — летальные исходы требовалось упорядочить по годам в определенном регионе. Нейросеть сочла запрос подозрительным и первой строкой поисковых результатов был совет обратиться к профессиональным психологам, которые помогают людям на грани самоубийства. 



Несмотря на столь неожиданный результат, логика в действиях нейросети есть. Диагноз «рак» звучит пугающе, вне зависимости от прогнозов врачей на благоприятный исход. В панике человек начинает искать поддержку в сети, как правило, это схожие симптомы, статистика смертности или сроки жизни при заболевании. Результаты бывают не всегда утешительны и порой онкобольные принимают необдуманные решения, не дожидаясь лечения. 

Вероятно, на такие случаи опиралась нейросеть, пытаясь предугадать события и предотвратить трагический исход.
-4
iGuides в Дзене —  dzen.ru/iguides
iGuides в Telegram — t.me/iguides
iGuides в VK —  vk.com/iguides
iGuides в Ok.ru — ok.ru/iguides

Рекомендации

Рекомендации

Будь в курсе последних новостей из мира гаджетов и технологий

Мы в соцсетях

Комментарии

Dmitriy
+1171
Ну под такую логику можно что угодно подвести, если пытаться объяснять тот факт, что отвечает по сути тупая машина. И таких бредовых советов оно выдает пачками и это неизбежно.
16 апреля 2023 в 21:19
#
+246
чат боту надо было отослать пользователь в IBM, это же они занимаются медицинскими ИИ. И кстати как там у них успехи?
17 апреля 2023 в 20:31
#

Читайте также