Media Asuransi, GLOBAL – Seiring dengan semakin banyaknya perusahaan asuransi yang beralih ke kecerdasan buatan untuk mengolah data, memproses klaim, dan menentukan siapa yang harus dilindungi, regulator tiap negara perlu mendorong mereka untuk tidak merugikan pelanggan atau nasabah
Asosiasi Komisaris Asuransi Nasional (NAIC) menjadikan AI sebagai salah satu prioritas strategisnya untuk 2024. Langkah tersebut menyusul dirilisnya buletin model kelompok tersebut pada Desember tentang penggunaan AI oleh perusahaan asuransi.
|Baca: Munich Re: Kecerdasan Buatan Punya Potensi Risiko Tak Terduga di Polis Asuransi Tradisional
“Regulator prihatin dengan keakuratan hasil yang dihasilkan oleh sistem AI dan analitik prediktif dan apakah mereka memperkenalkan diskriminasi yang tidak adil,” ujar Ketua Komite Inovasi, Keamanan Siber, dan Teknologi NAIC Birrane, dikutip dari laman Insurance Business, Selasa, 20 Februari 2024.
“Misalnya, sistem AI dapat menolak klaim medis secara tidak tepat atau mengidentifikasi risiko penipuan properti dan korban dengan cara yang bias rasial,” tambahnya.
Komisaris Asuransi Maryland Kathleen Birrane menjelaskan asuransi didasarkan pada penilaian risiko. Namun, menggunakan AI untuk membantu proses tersebut menghadirkan risiko tersendiri.
“Ketika Anda memiliki model yang sangat, sangat, sangat kompleks yang menemukan korelasi yang tampaknya dapat memprediksi risiko dan kerugian, apakah model tersebut juga dapat memprediksi hal lain dan, oleh karena itu, apakah Anda pada akhirnya merugikan seluruh kategori orang, terutama orang-orang yang termasuk dalam kategori yang dilindungi,” ucapnya.
“Karena ada korelasi yang tidak dijelajahi, tidak dapat dijelaskan, tidak diketahui, dan tidak disadari di balik layar,” tambah Birrane.
Berikan panduan
Buletin model NAIC memberikan panduan kepada perusahaan asuransi tentang apa yang dicari oleh regulator dalam hal kontrol internal untuk tata kelola dan manajemen risiko yang terkait dengan penggunaan sistem AI mereka sendiri atau mengandalkan AI pihak ketiga.
“Proposisi umumnya adalah Anda bertanggung jawab atas hasilnya. Kami ingin memastikan bahwa Anda waspada akan hal itu. Tujuannya adalah untuk mengurangi risiko bahwa penerapan [AI] akan menghasilkan hasil yang merugikan,” pungkasnya.
Editor: Angga Bratadharma
| Cek Berita dan Artikel yang lain di Google News