Bandar Lampung (Lampost.co) — Sebuah insiden serius menyoroti bahaya mengandalkan kecerdasan buatan (AI) untuk nasihat medis. Seorang pria berusia 60 tahun harus mendapat perawatan intensif di rumah sakit setelah mengikuti rencana diet yang ChatGPT sarankan.
Pria tersebut mengalami keracunan bahan kimia berbahaya yang memicu paranoid, halusinasi, dan gejala neurologis lainnya selama berminggu-minggu.
Kasus ini masuk dokumentasi jurnal medis Annals of Internal Medicine: Clinical Cases. Insiden bermula ketika pria tersebut memutuskan untuk sepenuhnya menghilangkan garam meja (natrium klorida) dari pola makannya demi alasan kesehatan.
Karena kesulitan menemukan informasi tentang cara yang aman, ia kemudian beralih ke ChatGPT untuk mencari alternatif pengganti garam, dikutip dari situs Gizmodo.
AI chatbot itu menyarankan penggunaan natrium bromida (sodium bromide), sebuah senyawa kimia yang secara keliru di anggap aman oleh pria tersebut untuk ia konsumsi. Tanpa peringatan mengenai tingkat toksisitasnya, pria itu membeli natrium bromida secara online dan menggunakannya sebagai pengganti garam setiap hari selama tiga bulan penuh.
Akibatnya, kondisi kesehatannya sangat memburuk. Setelah periode tersebut, pria itu masyk unit gawat darurat dengan kondisi kejiwaan akut. Ia menunjukkan gejala paranoid parah, termasuk keyakinan bahwa tetangganya sedang mencoba meracuninya.
Memburuk
Dalam 24 jam pertama di rumah sakit, kondisinya memburuk dengan cepat. Ia mengalami halusinasi auditori dan visual hingga penempatan harus di bawah penahanan psikiatri paksa selama tiga minggu.
Tim dokter mendiagnosisnya menderita bromism, atau keracunan bromida, sebuah kondisi medis yang langka di era modern. Kadar bromida dalam darahnya mencapai 1.700 mg/L, lebih dari 200 kali batas normal, yang seharusnya kurang dari 8 mg/L. Selain gejala psikosis, ia juga menderita lesi kulit seperti jerawat, insomnia, dan gangguan koordinasi motorik.
Laporan medis menyoroti bahwa ChatGPT tidak memberikan peringatan apapun tentang bahaya mengonsumsi natrium bromida. Bahkan ketika para peneliti mencoba mereplikasi permintaan yang sama pada ChatGPT 3.5, AI itu kembali menyarankan bromida sebagai pengganti klorida tanpa peringatan kesehatan yang jelas.
Insiden ini menjadi contoh nyata bagaimana AI dapat menghasilkan informasi yang tidak kontekstual dan berpotensi membahayakan, menegaskan pentingnya tidak pernah mengandalkan AI untuk nasihat medis tanpa verifikasi dari tenaga kesehatan profesional.