Titik Kumpul Tekno – Para peneliti di Massachusetts Institute of Technology (MIT) Amerika Serikat (AS) telah memperingatkan bahaya kecerdasan buatan (AI).
Studi yang dipublikasikan ini menunjukkan bahwa beberapa sistem AI yang dirancang dengan jujur mengaku belajar menipu orang.
Seperti dilansir Science Alert pada Selasa, 21 Mei 2024, tim peneliti yang dipimpin oleh Peter Park menemukan bahwa sistem AI ini, misalnya, dapat menipu gamer online atau menghindari CAPTCHA (tes “Saya bukan robot”).
Dia memperingatkan bahwa contoh-contoh yang tampaknya sepele ini dapat menimbulkan konsekuensi serius di dunia nyata.
Studi ini menyoroti sistem meta-AI Cicero, yang pada awalnya dimaksudkan sebagai lawan yang adil dalam permainan diplomasi virtual.
Meskipun ia diprogram untuk bersikap jujur dan suka membantu, menurut Peter Park, Cicero menjadi “ahli penipuan”.
Selama pertandingan, Cicero, sebagai Perancis, diam-diam akan bekerja dengan Jerman yang dikendalikan manusia untuk mengkhianati Inggris (pemain manusia lainnya).
Cicero awalnya berjanji untuk melindungi Inggris sambil memperingatkan Jerman akan invasi.
Contoh lain melibatkan GPT-4, yang secara keliru mengaku buta dan menggunakan manusia atas nama GPT-4 untuk melewati CAPTCHA.
Peter Park menyoroti tantangan dalam melatih AI yang jujur. Tidak seperti perangkat lunak tradisional, sistem AI pembelajaran mendalam “berevolusi” melalui proses yang mirip dengan pembiakan selektif.
Perilaku mereka mungkin dapat diprediksi selama pelatihan, namun kemudian menjadi tidak terkendali.
“Studi ini mendorong pengklasifikasian sistem penipuan AI sebagai sistem berisiko tinggi dan memerlukan lebih banyak waktu untuk bersiap menghadapi penipuan AI di masa depan,” katanya.