Ahli Beberkan Bahaya Terbesar Video Kecerdasan Buatan Sora

Ahli Beberkan Bahaya Terbesar Video Kecerdasan Buatan Sora

Terkini | sindonews | Minggu, 15 Desember 2024 - 22:05
share

Para ahli telah mengeluarkan peringatan terhadap generator videoAISora milik OpenAI yang menunjukkan potensi menimbulkan risiko keamanan besar-besaran.

Kecerdasan buatan adalah salah satu teknologi paling canggih dan bisa dibilang menakutkan yang muncul dalam beberapa tahun terakhir, yang berpotensi membahayakan pekerjaan dan gelar universitas karena kemampuannya yang luar biasa.

Sora adalah alat teks-ke-video yang dirancang oleh perusahaan AI OpenAI yang memungkinkan pengguna mengetikkan perintah teks dan menghasilkan video oleh teknologi tersebut.

Namun para ahli telah memperingatkan bahwa realismenya merupakan masalah keamanan karena berpotensi menciptakan deepfake (video yang dimanipulasi sehingga tampak seperti milik orang lain) berkualitas yang dapat dengan mudah menipu orang.

Alat pembuat video Sora mampu membuat video berdurasi hingga 60 detik, hanya berdasarkan perintah yang diberikan oleh pengguna. Perintah dapat berupa teks, atau teks yang dikombinasikan dengan gambar.

Sora dapat membuat video dengan banyak kesalahan, seperti kucing dengan tiga kaki depan, tetapi para ahli memperingatkan hal itu membawa kita lebih dekat ke dunia di mana sulit membedakan yang asli dari yang palsu.

Arvind Narayanan di Universitas Princeton memperingatkan , dalam jangka panjang, “kita perlu menemukan cara lain untuk beradaptasi sebagai masyarakat”.

Seperti yang dikemukakan pakar lain, maraknya konten buatan AI di dunia maya memberi beban tambahan kepada orang-orang untuk menentukan mana yang fakta dan fiksi.

Tony Elkins, seorang penulis di Poynter dan anggota pendiri News Product Alliance, berkata : “Sekarang kita harus bertanya apa yang nyata. Kita harus melakukannya untuk foto. Kita harus melakukannya untuk teks. Kita harus melakukannya untuk video. Dan itu menciptakan begitu banyak tanggung jawab pada konsumen yang sebelumnya tidak pernah ada.”

Di situs webnya, pencipta Sora, OpenAI, menyinggung masalah keselamatan terkait Sora.

Situs web perusahaan tersebut mengatakan : “Kami akan mengambil beberapa langkah keamanan penting sebelum menyediakan Sora dalam produk OpenAI. Kami bekerja sama dengan red teamer — pakar domain di bidang seperti misinformasi, konten yang mengandung kebencian, dan bias — yang akan menguji model tersebut secara berlawanan.”

Dikatakan pula bahwa pihaknya berencana untuk menggunakan beberapa fitur keamanan yang sama yang saat ini tersedia untuk generator gambarnya, bernama Dall-E , yang tersedia untuk memastikan bahwa perintah teks tidak melanggar aturan terhadap "kekerasan ekstrem, konten seksual, gambar yang mengandung kebencian, kemiripan dengan selebriti, atau IP milik orang lain".

Namun, beberapa pihak di industri telah menunjukkan bahwa AI dilatih pada data manusia, yang berarti kemungkinan besar memiliki bias yang sama dengan manusia.

“Ada bias dalam masyarakat dan bias tersebut akan tercermin dalam sistem ini,” kata Kristian Hammond, seorang profesor ilmu komputer di Universitas Northwestern .

Topik Menarik