Gawat! Rumah Sakit Gunakan AI untuk Diagnosis Penyakit Pasien
Data akurat untuk perawatan pasien di rumah sakit sangat penting untuk menentukan penyakit pasien. Satu kesalahan saja bisa berakibat kematian misalnya jika alergi pasien tidak dicantumkan dalam catatan.
Whisper ditemukan menghasilkan transkripsi yang mengandung halusinasi, menyebabkan catatan pasien tidak akurat dan berisiko.
Seperti dilansir dari Mirror, meskipun hanya 1 transkripsi yang terpengaruh, ini berarti ada sekitar 70.000 transkripsi yang tidak akurat dari 7 juta rekaman percakapan.
Rekaman audio dihapus setelah transkripsi karena alasan privasi, sehingga koreksi kesalahan hampir tidak mungkin dilakukan.
Kini muncul laporan Whisper kecerdasan buatan (AI) yang dikembangkan OpenAI untuk mencatat pasien yang kedapatan mengalami halusinasi yang menimbulkan risiko bagi pasien.
Whisper digunakan dalam aplikasi yang dikembangkan oleh Nabla yang merekam sebelum menghasilkan transkripsi percakapan antara dokter dan pasien.
Dalam laporan Associated Press, sebanyak 1 transkripsi yang dihasilkan mengandung halusinasi yang menyebabkan pencatatan pasien tidak akurat.
Angka 1 tampaknya kecil namun Nabla telah mencatat lebih dari 7 juta percakapan dan ini berarti 70.000 transkrip yang tidak akurat telah dihasilkan.
Yang lebih serius lagi, para peneliti menemukan bahwa Whisper juga menciptakan penyakit yang tidak ada.
Masalah ini menjadi lebih serius karena setelah transkrip dibuat, rekaman audionya dihapus karena alasan privasi.
Sehingga proses untuk mengedit kesalahan apa pun yang kini menjadi catatan permanen menjadi hampir mustahil.
Whisper sebelumnya sempat menimbulkan kontroversi bagi OpenAI karena diyakini dilatih dengan mendengarkan audio video YouTube tanpa izin dari Google atau pemilik video aslinya.
Senada dengan perkembangannya, Nabla mengatakan pihaknya sudah mendapat informasi mengenai masalah ini dan berupaya mengatasinya melalui pembaruan aplikasi.