Perisian transkripsi OpenAI berhalusinasi mengenai rekod pesakit hospital
Amanz
Oktober 28, 2024 14:12 MYT
Oktober 28, 2024 14:12 MYT
DATA dan rekod yang tepat adalah penting bagi merawat pesakit di hospital. Satu kesilapan boleh menyebabkan kematian misalnya jika alergi pesakit tidak dinyatakan dalam rekod.
Ringkasan AI
- Whisper didapati menghasilkan transkripsi yang mengandungi halusinasi, menyebabkan rekod pesakit yang tidak tepat dan berisiko.
- Walaupun hanya 1% transkripsi yang terjejas, ini bermakna sekitar 70,000 transkrip tidak tepat daripada 7 juta perbualan yang direkodkan.
- Rakaman audio dipadam selepas transkripsi atas sebab privasi, menjadikan pembetulan kesilapan hampir mustahil.
Kini muncul laporan kecerdasan buatan (AI) Whisper yang dibangunkan oleh OpenAI bagi mencatatkan rekod pesakit didapati berhalusinasi sehingga mendatangkan risiko ke atas pesakit.
Whisper digunakan dalam aplikasi yang dibangunkan oleh Nabla yang merekod sebelum menghasilkan transkripsi perbualan antara doktor dan pesakit.
Dalam laporan Associated Press, sebanyak 1% transkripsi yang dihasilkan mengandungi halusinasi menyebabkan rekod pesakit yang tidak tepat dihasilkan.
Angka 1% nampak kecil tetapi Nabla telah mereka lebih 7 juta perbualan dan ini bermakna 70,000 transkrip tidak tepat telah dihasilkan. Lebih serius penyelidik mendapati Whisper juga mencipta penyakit yang tidak wujud.
Isu menjadi semakin serius kerana selepas transkrip dihasilkan, rakaman audio telah dipadam atas sebab privasi. Maka proses untuk menyunting sebarang kesilapan yang kini menjadi rekod kekal menjadi hampir mustahil.
Whisper sebelum sudahpun menimbulkan kontroversi kepada OpenAI kerana dipercayai dilatih dengan mendengar audio video YouTube tanpa kebenaran Google atau pemilik video asal.
Dalam perkembangan yang sama Nabla berkata mereka sudahpun dimaklumkan mengenai isu ini dan sedang cuba menyelesaikannya menerusi kemas kini aplikasi. -Amanz