반응형 건강 조언 챗봇 한계1 챗GPT 조언 듣고 소금 끊은 남성, 정신질환으로 입원한 사연 챗GPT 조언 믿고 '소금 끊은' 남성…정신병원 입원 사태의 전말– AI 시대, 당신의 건강을 누구에게 맡기고 있나요? 🤖 “AI가 추천했어요” — 챗GPT가 권한 ‘치명적 대체 소금’최근 미국에서 벌어진 황당하면서도 섬뜩한 사건이 전 세계를 충격에 빠뜨렸다.60대 남성 A씨는 인공지능 챗봇인 ‘챗GPT’에 “염화나트륨(소금) 대신 사용할 수 있는 조미료가 무엇인가?”라고 질문했다. 건강을 위해 소금을 줄이고 싶다는 순수한 의도에서였다.그런데 문제는 AI의 답변이었다.챗GPT는 대체 조미료로 **‘브롬화나트륨(Sodium Bromide)’**을 제시했고, A씨는 그 말을 곧이곧대로 받아들여 무려 3개월간 매일 브롬화나트륨을 물에 타 마시는 행동을 지속했다.그 결과는?망상과 환청, 환시 증세를 보이며 .. 2025. 8. 16. 이전 1 다음 반응형