Ia mencontohkan kasus DAN (Do Anything Now), sebuah versi modifikasi dari ChatGPT yang muncul pada 2023, di mana AI berhasil di-jailbreak untuk melanggar aturan keamanannya sendiri.
Baca Juga: Tips Cek Typo Otomatis di Google Docs dengan Fitur Pemeriksa Ejaan dan Tata Bahasa
Meskipun memuji langkah perusahaan teknologi besar yang telah memasang batasan ketat pada AI mereka, Schmidt memperingatkan bahwa sistem tersebut tetap rentan.
“Keputusan yang tepat. Semua melakukannya dengan baik, dan atas alasan yang tepat,” puji Schmidt.
Namun, ia menekankan selalu ada kemungkinan model AI tersebut direkayasa ulang (reverse-engineered) sehingga pembatas keamanannya bisa dilewati.
Lebih lanjut, Schmidt menyoroti absennya mekanisme pencegahan penyebaran AI berbahaya (non-proliferation regime) di tingkat global.
Menurutnya, ketiadaan regulasi ini membuka celah bagi kelompok teroris hingga negara-negara tertentu untuk menyalahgunakan teknologi canggih tersebut.
Peringatan ini senada dengan apa yang pernah disampaikan oleh Elon Musk pada 2023, yang menyebut risiko AI menyerupai skenario film Terminator.
“Risikonya bukan nol. Kemungkinan musnahnya umat manusia memang kecil, tapi tetap ada. Kita ingin peluang itu mendekati nol,” kata Musk saat itu.
(ra)















