Teknologi

Waspada! ChatGPT Bisa Salah Diagnosis Penyakit Jantung dari Data Apple Watch, Ini Penjelasannya

Memiliki jam tangan pintar seperti Apple Watch yang merekam aktivitas tubuh memang memudahkan. Namun, kehati-hatian diperlukan jika berniat menggunakan chatbot AI untuk menerjemahkan data tersebut. Sebuah eksperimen terbaru menunjukkan bahwa meminta AI seperti ChatGPT menganalisis data kesehatan mentah berpotensi berujung fatal.

Pengalaman kurang menyenangkan ini dibuktikan oleh seorang kolumnis teknologi dari harian The Washington Post. Niat hati ingin mengetahui kondisi tubuhnya melalui analisis instan, ia justru dibuat panik karena “divonis” memiliki kelainan jantung serius oleh AI.

Eksperimen Fatal Analisis Data Kesehatan Apple Watch oleh AI

Eksperimen ini bermula ketika sang kolumnis mencoba mengekspor seluruh data kesehatannya dari Apple Watch. Data tersebut berbentuk file XML yang berisi ribuan baris angka. Ia kemudian memasukkan data mentah itu ke ChatGPT untuk dianalisis dengan perintah sederhana: mencari pola aneh atau masalah kesehatan dalam data tersebut.

Jawaban yang diberikan ChatGPT cukup mengejutkan. AI buatan OpenAI tersebut menyimpulkan bahwa pengguna memiliki masalah kardiovaskular. ChatGPT menyoroti adanya pola penurunan detak jantung yang ekstrem pada waktu-waktu tertentu, seolah-olah jantung pengguna berhenti atau melambat secara tidak wajar.

Kesalahan Fatal ChatGPT: Gagal Pahami Struktur Data XML

Beruntung, pengguna tersebut tidak langsung panik. Ia melakukan pengecekan ulang secara manual terhadap file XML miliknya. Hasilnya, diagnosis AI itu 100 persen salah. ChatGPT ternyata gagal memahami struktur bahasa pemrograman dalam file XML Apple.

Dalam data file XML Apple Health, angka “nol” atau celah kosong sering kali hanya berfungsi sebagai penanda atau pemisah antar-sesi pelacakan, bukan berarti jantung berhenti berdetak. ChatGPT gagal memahami konteks teknis ini dan menelan mentah-mentah angka nol tersebut sebagai data medis sungguhan. Kondisi jantung pengguna tersebut nyatanya sehat walafiat, seperti dikutip KompasTekno dari 9to5mac.

Bahaya “Halusinasi” AI dalam Konteks Medis

Insiden ini menyoroti kelemahan fatal dari model bahasa besar (Large Language Model, LLM). AI sering kali mengalami “halusinasi”, artinya mereka bisa memberikan jawaban yang terdengar sangat meyakinkan, logis, dan percaya diri, padahal isinya tidak akurat. Dalam konteks medis, kesalahan tafsir semacam ini sangat berbahaya.

Jika pengguna awam menelan mentah-mentah informasi tersebut, hal ini bisa memicu kecemasan berlebih (health anxiety) atau keputusan pengobatan yang salah. Meskipun fitur pemantau kesehatan di Apple Watch sangat canggih, data yang dihasilkannya membutuhkan bantuan dokter untuk bisa dibaca dengan benar. Mengandalkan interpretasi mentah dari chatbot yang suka “berhalusinasi” sama saja dengan mencari penyakit atau mencari kepanikan yang tidak perlu. Jika merasa ada yang aneh dengan grafik kesehatan di jam tangan pintar, bawalah data tersebut ke tenaga medis profesional, bukan ke chatbot.

Informasi lengkap mengenai isu ini disampaikan melalui eksperimen kolumnis The Washington Post yang dirilis pada saluran resmi media tersebut dan dikutip oleh KompasTekno.