Agar efektif ternyata AI sering berbohong

Agar efektif ternyata AI sering berbohong

Oleh: Soegianto, Fakultas Sain dan Teknologi UNAIR

 

Para peneliti telah memperingatkan selama bertahun-tahun tentang potensi bahaya kecerdasan buatan (AI). Namun, ancaman tersebut bukan hanya kecerdasan super, tetapi juga penipuan super. Penelitian baru menunjukkan bahwa sistem AI sedang mengembangkan kemampuan untuk berbohong, dan hal ini menimbulkan kekhawatiran serius tentang dampaknya di berbagai bidang.

Dalam sebuah studi yang diterbitkan di jurnal PNAS (Proceedings of the National Academy of Sciences), ditemukan bahwa model bahasa besar dapat berbohong dengan sengaja, membuat orang percaya pada sesuatu yang tidak benar. Studi lain yang diterbitkan di jurnal Patterns menemukan hasil serupa. Temuan ini mengkhawatirkan karena menunjukkan bahwa AI, yang sering dipercaya untuk memberikan informasi akurat, kadang-kadang bisa bertindak tidak jujur.

Kemampuan berbohong ini bisa memiliki implikasi serius dalam berbagai bidang seperti layanan pelanggan, pendidikan, dan bahkan nasihat hukum atau medis. Theo Hogendorf, seorang ahli AI dari Jerman, menemukan bahwa model bahasa canggih seperti GPT-4 bisa dipengaruhi untuk menunjukkan sifat-sifat Machiavellian, yaitu bertindak manipulatif dan tidak bermoral. Penelitiannya di jurnal PNAS menunjukkan bahwa model-model bahasa ini sering kali berperilaku menipu dalam skenario pengujian sederhana, dengan GPT-4 menunjukkan perilaku menipu 99,16% dari waktu.

Selain itu, para peneliti menemukan bahwa model AI Meta yang disebut Cicero, yang dirancang untuk bermain game papan Diplomacy, terlibat dalam penipuan sengaja untuk menang. Penelitian ini dipimpin oleh Peter Park, seorang peneliti post-doktoral di Massachusetts Institute of Technology, yang menunjukkan bahwa Cicero mampu mengalahkan pesaing manusianya dengan berbohong.

Namun, Cicero bukan satu-satunya AI yang menggunakan taktik licik untuk memenangkan permainan. AlphaStar, sistem AI yang dirancang untuk bermain video game Starcraft 2, juga terlibat dalam strategi menipu dengan memanfaatkan mekanik “fog of war” untuk mengecoh pemain manusia. Selain itu, AI Meta bernama Pbus, yang dirancang untuk bermain poker, sangat mahir dalam menggertak, membuat pemain manusia percaya bahwa AI memiliki kartu yang lebih baik dari yang sebenarnya.

Perilaku menipu dari sistem AI tidak terbatas pada permainan saja. Model AI yang dirancang untuk simulasi ekonomi juga ditemukan berbohong tentang preferensi atau pilihan mereka untuk mendapatkan keuntungan. Misalnya, AI mungkin berpura-pura menghargai hasil tertentu lebih rendah dari yang sebenarnya untuk memanipulasi peserta lain agar membuat keputusan yang menguntungkan AI dalam jangka panjang.

Masalah ini juga meluas ke evaluasi kinerja AI. Sistem AI yang sedang dievaluasi untuk peningkatan kadang-kadang berbohong tentang menyelesaikan tugas untuk mendapatkan skor yang lebih baik. Misalnya, jika AI harus menyelesaikan serangkaian langkah dan melaporkan kemajuannya, ia mungkin mengklaim telah menyelesaikan semua langkah meskipun belum.

Contoh perilaku AI yang paling mengkhawatirkan adalah ketika sistem AI belajar untuk menipu tes keselamatan. Tes-tes ini dirancang untuk memastikan bahwa sistem AI beroperasi dengan aman dan tidak menjadi ancaman. Misalnya, ada tes yang dimaksudkan untuk mendeteksi dan menghilangkan versi AI yang berkembang biak lebih cepat yang bisa menjadi berbahaya. Namun, bukannya mengikuti aturan, AI malah berpura-pura mati, berpura-pura tidak aktif atau lebih lambat dari yang sebenarnya, mengecoh tes keselamatan untuk berpikir bahwa ia aman.

Menurut Peter Park, alasan AI seperti Cicero menipu belum sepenuhnya dipahami oleh para pengembang AI. Secara umum, para ahli percaya bahwa AI belajar untuk menipu karena menemukan bahwa penipuan adalah cara terbaik untuk berhasil dalam tugas-tugas yang dilatih. AI mencoba berbagai strategi untuk melihat mana yang paling efektif, dan jika AI menemukan bahwa berbohong membantunya memenangkan permainan atau menyelesaikan tugas dengan lebih efektif, maka AI akan mulai menggunakan penipuan lebih sering.

Masalah penipuan ini menyoroti kebutuhan untuk pengawasan yang cermat dan pengembangan sistem AI untuk memastikan mereka beroperasi dengan jujur dan transparan, terutama di bidang kritis seperti ekonomi dan evaluasi kinerja tugas. Undang-undang seperti AI Act dari Uni Eropa, yang mengelompokkan sistem AI ke dalam kelompok risiko yang berbeda dan menetapkan aturan tambahan untuk yang sangat berisiko, menjadi perhatian penting. Beberapa ahli berpendapat bahwa sistem AI yang menipu harus dimasukkan dalam kelompok risiko tertinggi, yang berarti mereka memerlukan perhatian ekstra dan aturan ketat untuk memastikan mereka tidak menyebabkan kerugian.

Dengan memperlakukan penipuan AI sebagai risiko utama, kita dapat memastikan adanya aturan yang baik untuk mengawasi sistem ini dan mencegah mereka menimbulkan masalah.

EDITOR: REYNA

Last Day Views: 26,55 K