Dilema AI dan Regulasi Berbasis Risiko
Hardy R HermawanPeneliti SigmaPhi Indonesia, GRC Specialist, Mahasiswa Doktoral Perbanas Institut
TEKNOLOGI artificial intelligence (AI) terlihat kian mencengangkan. AI kini menjadi bagian integral dari berbagai aspek kehidupan manusia. Mulai dari penggunaan sederhana, seperti asisten virtual, hingga aplikasi kompleks seperti analisis big data.
AlphaGo, dikembangkan Google DeepMind sejak 2016, merupakan contoh kemajuan AI yang mencolok karena mampu bermain Go (catur Asia Timur) dengan ciamik dan mengalahkan juara dunia, Lee Sedol. Watson, dari IBM, menganalisis data medis dan memberikan rekomendasi diagnosis serta pengobatan. Chat GPT, dari Open AI, berkomunikasi dengan manusia secara alami dan mampu menyusun teks secara koherensejak 2022.
Dalam lima tahun ke depan, kemampuan AI pasti meningkat signifikan, tanpa terbayangkan. Apapun bisa dia kerjakan. AI memungkinkan otomatisasi lebih luas dan integrasi lebih dalam dengan teknologi lainnya.
Mau tidak mau, AI akan tetap ada dan memberi dilema. Stephen Hawking (2017) mengingatkan, AI harus dikembangkan dan digunakan secara bertanggung jawab. Sulit tapi itu yang harus dijalani. Perkembangan AI memang membawa risiko yang signifikan.
Salah satu dampak AI paling berat adalah kehilangan pekerjaan. McKinsey (2017) mencatat, otomatisasi berbasis AI dapat menggantikan 375 juta pekerjaan, secara global, pada 2030. Pergeseran ini berpotensi menciptakan ketidakstabilan ekonomi, terutama di negara berkembang yang bergantung pada tenaga kerja manual.
Erik Brynjolfsson (2019)menyatakan, AI cenderung memberikan keuntungan besar kepada perusahaan besar yang sudah dominan. AI juga dapat memicu monopoli dan dominasi digital oleh gergasi teknologi sehingga membatasi kompetisi dan meningkatkan biaya. Ketimpangan ini bisa memangkas konsumsi domestik yang merupakan motor utama pertumbuhan. Dinamika pasar yang sehat terganggu dan efisiensi menurun.
Ironisnya, AI juga bisa menurunkan inovasi. Michael Webb (2020) menunjukkan, Algoritma AI dirancang untuk mengoptimalkan solusi yang sudah ada, bukan menciptakan solusi baru, sehingga dapat mengurangi laju kemajuan teknologi jangka panjang.
Pengembangan AI juga membawa risiko keamanan yang serius. Integrasi AI dalam sistem kritikal dapat meningkatkan risiko serangan siber, sepertidi Estonia pada 2007. AI juga membuat kemampuan senjata dalam perang Russia-Ukraina dan konflik Palestina-Israel meningkat pesat sehingga jumlah korban jauh lebih banyak dan kian menyedihkan.
Di Indonesia, kasus kebocoran data nasabah bank pada 2020 dan serangan ransomware di PT Semen Indonesia, pada 2022, menunjukkan kerentanan keamanan siber. Selain itu, penyalahgunaan AI dalam penyebaran hoaks dan ujaran kebencian juga menjadi masalah.
Regulasi Komprehensif, Adaptif, Berbasis RisikoPemerintah Indonesia telah menyusun berbagai regulasi untuk mengelola pengembangan dan penggunaan AI. Strategi Nasional Kecerdasan Artifisial (Stranas KA) 2020-2045 berfokus pada sektor pendidikan, kesehatan, keamanan, dan reformasi birokrasi. Selain itu, ada UU Informasi dan Transaksi Elektronik (ITE) tahun 2008 dan UU Perlindungan Data Pribadi (PDP) tahun2022.
Ada pula Peraturan Bank Indonesia No 19/1/PBI/2017 tentang Penggunaan Teknologi Informasi dan Komunikasi dalam Penyelenggaraan Kegiatan Perbankan, PP No 82/2012 tentang Penyelenggaraan Sistem dan Transaksi Elektronik, serta Keputusan Menkominfo No 20/2016 tentang Pengamanan Informasi dan Elektronik. Namun, semua regulasi itu masih lemah. Menurut Oxford Insights (2021), kebijakan AI di Indonesia masih berada pada tahap awal, belum memiliki kerangka hukum yang spesifik.
Kelemahan utama dalam regulasiAI di Indonesia adalah tidak komprehensif. Tidak khusus mengatur etika dan akuntabilitas. Antisipasi risiko keamanan siber, risiko kehilangan pekerjaan, dan semakin dalamnya ketimpangan sosial akibat AI juga belum ditangani serius. Bahkan pelaksanaan UU PDP terkendala lemahnya pengawasan, membuka peluang penyalahgunaan data oleh teknologi berbasis AI.
Faktor infrastruktur digital yang belum memadai, minimnya sumber daya manusia, serta kurangnya pengawasan dan penegakan hukum membuat regulasi tadi kian tak efektif. Justru banyak keputusan berbasis AI berpotensi diskriminatif karena bias algoritma. Virginia Dignum (2019) menyatakan, kebijakan yang tidak memprioritaskan transparansi dan akuntabilitas dalam AI akan memperbesar risiko ketidaksetaraan sosial-ekonomi.
Indonesia memerlukan regulasi AI yang lebih komprehensif, memperhitungkan aspek keamanan siber dan dampak sosial-ekonomi dari pengembangan AI. Ingat, AI akan mengubah pola hidup, bekerja, dan berinteraksi. Regulasi harus bisa mengantisipasinya. Perlindungan data pribadi menjadi elemen kunci mengingat data adalah materiutama AI beroperasi.
Peningkatan investasi dalam keamanan siber tak bisa ditawar lagi. APBN, swasta, dan peran internasional harus mampu mengonsolidasikan dana untuk program keamanan siberini
Regulasi AI juga harus mampu mengikuti perkembangan AI itu sendiri. Harus ada fleksibilitas dan responsivitas yang bisa memberikan kepastian hukum sekaligus lentur mengakomodasi inovasi. Menurut Brynjolfsson dan McAfee (2017), kebijakan harus mampu menyeimbangkan dorongan inovasi teknologi dengan perlindungan masyarakat melalui pendekatan yang responsif dan inklusif.
Uni Eropa memberikan contoh sukses melalui General Data Protection Regulation (GDPR), sejak 2018. GDPR merancang AI Act yang berbasis risiko, memberikan ruang bagi inovasi sambil tetap menjamin keamanan publik. Aturan ini menyesuaikan tingkat pengawasan dengan dampak potensial risikodari teknologi tersebut.
Regulasi ini membagi aplikasi AI ke dalam tingkat risiko, mulai dari yang rendah hingga tertinggi, berdasarkan dampaknya terhadap keselamatan, hak asasi manusia, dan kehidupan masyarakat. Dengan memastikan akuntabilitas pengembang dan penyedia AI, serta adaptasi terhadap perkembangan teknologi, regulasi berbasis risiko bisa diterapkan Indonesia. Andrea Renda (2021) menyatakan, kerangka AI berbasis risiko adalah pendekatan paling relevan.
Jadi, tanggung jawab pengembang dan pengguna AI perlu diatur ketat. Risk Appetite Framework (RAF) disusun meliputi risk appetite (risiko ideal yang diterima), risk tolerance (maksimal toleransi risiko), dan risk capacity (kemampuan maksimal menanggung risiko). RAF ini yang menjadi criteria utama pengendalian risiko AI.
Masalahnya, penyusunan dan pelaksanaan regulasi AI di Indonesia dihadapkan banyak tantangan, termasuk keterbatasan sumber daya manusia, infrastruktur digital, dan biaya. Ekonomi Indonesia masih bergantung pada sektor tradisional serta kurangnya inovasi dan akses ke pembiayaan menjadi tantangan berikut.
Pemerintah, pelaku usaha, akademisi, dan pihak internasional harus bekerja sama mengatasinya. Menurut UNESCO (2021), kolaborasi lintas sektor adalah kunci keberhasilan regulasi teknologi yang berkelanjutan.
Tantangan lainnya datang dari aspek geopolitik. Persaingan Amerika Serikat dan Cina dalam pengembangan AI memengaruhi kebijakan AI di berbagai negara, termasuk Indonesia. Cina telah berinvestasi besar-besaran dalam pengembangan AI, sementara Amerika meningkatkan tekanan untuk membatasi penggunaan teknologi Cina.
Indonesia memang harus berhati-hati dalam memilih mitra strategis dalam teknologi AI ini.Tapi, yang terpenting, Indonesia memerlukan kerangka hukum yang mengatur AI secara rinci, adaptif, dan berbasis risiko. Lakukan kampanye dan pendidikan untuk menggunakan AI yang bertanggung jawab.
Penggunaan data harus akurat dan tidak diskriminatif. Geoffrey Hinton (2024) menyatakan, AI dikembangkan untuk kepentingan manusia. Bukan sebaliknya.