Bandar Lampung ( SUMA.ID ) – Sebuah kasus serius menimpa seorang pria berusia 60 tahun yang mengalami psikosis setelah mengikuti saran diet dari ChatGPT. Insiden ini, yang didokumentasikan dalam jurnal Annals of Internal Medicine: Clinical Cases, menjadi peringatan nyata tentang risiko mengandalkan kecerdasan buatan (AI) untuk nasihat medis tanpa konsultasi profesional. Pria tersebut menderita keracunan bahan kimia berbahaya yang menyebabkan gejala seperti paranoid, halusinasi, dan gangguan neurologis selama berminggu-minggu.
Kronologi Kasus
Pria tersebut memutuskan untuk menghilangkan garam meja (natrium klorida) dari pola makannya karena alasan kesehatan. Tidak menemukan panduan yang jelas, ia meminta saran dari ChatGPT untuk alternatif pengganti garam. Chatbot tersebut merekomendasikan natrium bromida, sebuah senyawa kimia yang ternyata beracun jika dikonsumsi. Tanpa peringatan tentang bahayanya, pria ini membeli natrium bromida secara online dan menggunakannya sebagai pengganti garam setiap hari selama tiga bulan.
Akibatnya, kesehatannya memburuk drastis. Ia masuk ke unit gawat darurat dengan gejala psikosis akut, termasuk paranoid berat, meyakini bahwa tetangganya berusaha meracuninya. Dalam 24 jam pertama di rumah sakit, kondisinya semakin parah dengan halusinasi visual dan auditori, hingga ia harus ditahan di unit psikiatri selama tiga minggu.
Diagnosis dan Dampak Kesehatan
Dokter mendiagnosis pria tersebut dengan bromism, yaitu keracunan bromida, kondisi langka di era modern. Kadar bromida dalam darahnya mencapai 1.700 mg/L, jauh melebihi batas aman (<8 mg/L) hingga lebih dari 200 kali lipat. Selain psikosis, ia mengalami lesi kulit menyerupai jerawat, insomnia, dan gangguan koordinasi motorik. Laporan medis menegaskan bahwa ChatGPT tidak memberikan peringatan tentang toksisitas natrium bromida, bahkan ketika pertanyaan serupa diajukan kembali pada ChatGPT 3.5.
Bahaya Saran AI yang Tidak Terverifikasi
Kasus ini menyoroti risiko besar ketika AI memberikan informasi yang tidak kontekstual atau berpotensi berbahaya, terutama untuk nasihat kesehatan. ChatGPT, meskipun canggih, tidak dirancang untuk menggantikan tenaga medis profesional. Ketidakmampuan AI untuk memverifikasi keamanan saran diet, seperti dalam kasus natrium bromida, dapat menyebabkan konsekuensi serius. Penelitian menunjukkan bahwa hingga 20% jawaban AI pada pertanyaan medis mengandung informasi yang salah atau tidak lengkap, menurut studi dari Journal of Medical Internet Research.
Pelajaran dan Rekomendasi
Insiden ini menjadi pengingat penting untuk selalu memverifikasi saran kesehatan dari AI dengan dokter atau ahli gizi. Berikut langkah-langkah untuk menghindari risiko serupa:
- Konsultasi Profesional: Selalu tanyakan kepada dokter atau ahli gizi sebelum mengubah pola makan, terutama jika melibatkan senyawa kimia atau suplemen.
- Periksa Sumber Informasi: Pastikan saran diet berasal dari sumber terpercaya, seperti organisasi kesehatan resmi atau jurnal medis.
- Waspadai Bahan Kimia: Hindari membeli atau mengonsumsi senyawa kimia tanpa panduan medis, terutama dari sumber online yang tidak teregulasi.
- Laporkan Saran Berbahaya: Jika AI memberikan saran yang meragukan, laporkan ke pengembang untuk perbaikan algoritma.
Kesimpulan
Kasus psikosis akibat saran diet dari ChatGPT menegaskan bahwa AI, meskipun bermanfaat, memiliki keterbatasan serius dalam memberikan nasihat medis. Pria berusia 60 tahun ini mengalami keracunan bromida setelah mengikuti saran berbahaya dari AI, yang tidak menyertakan peringatan tentang risiko kesehatan. Insiden ini menjadi peringatan bagi pengguna untuk tidak mengandalkan AI sebagai pengganti dokter dan selalu memverifikasi informasi kesehatan dengan profesional. Dengan pendekatan yang hati-hati, risiko seperti ini dapat dicegah, memastikan keselamatan dan kesehatan pengguna.