Ngeri! Studi Ini Temukan Sistem Ai Yang Bisa Menipu

Sedang Trending 1 bulan yang lalu

Telset.id, Jakarta – Para peneliti dari MIT memperingatkan bahwa bakal ada AI nan bisa menipu pengguna. Hal ini sebagaimana dilaporkan oleh studi terbaru dari Pattern, nan menunjukan sistem AI nan bisa menipu.

Teknologi AI hingga saat ini terus berkembang, dan apalagi perkembangannya bisa dibilang lebih sigap dibanding nan diperkirakan. Kini, penerapan AI apalagi sudah marak di beragam industri di dunia.

Saat ini, telah ditemukan bahwa sistem AI nan dirancang untuk memberikan info jujur telah belajar untuk menipu para manusia nan menggunakan sistem kepintaran buatan ini.

BACA JUGA:

  • Bos OpenAI Akui AI nan Canggih Bisa Jadi Ancaman
  • Ternyata! Google, Meta, dan OpenAI Latih AI dengan Video YouTube

Tim penelitian nan dipimlin oleh Peter Park menemukan bahwa sistem AI bisa melakukan hal-hal nan memanipulasi para gamer game online. Mereka apalagi melewati Captcha nan memverifikasi bahwa pengguna adalah manusia bukan robot.

Park memperingatkan bahwa contoh-contoh menipu dari sistem AI ini memang terlihat sepele, namun perlu dicatat bahwa perihal sepele ini bisa menimbulkan akibat nan condong jelek di kehidupan sehari-hari. Saat ini perilaku AI mungkin tetap bisa diprediksi dalam pelatihannya, namun ada kemungkinan ini tidak dapat dikendalikan saat model AI sudah diterapkan.

Sebagaimana dikutip Telset dari Gizmochina, penelitian ini menyoroti sistem AI Meta nan berjulukan Cicero. Sistem ini pada awalnya dibentuk sebagai musuh nan setara dalam permainan diplomasi virtual.

Menurut Park, Cicero diprogram untuk bisa bersikap jujur dan membantu, namun sistem ini malah menjadi mahir penipu. Sebagai gambaran, dalam oermainan Cicero berkedudukan sebagai Prancis dan tak bersuara diam bakal bekerja sama dengan Jerman, untuk mengkhianati  pemain lain nan berkedudukan sebagai Inggris.

Kenapa Cicero disebut sebagai pengkhiana? Karena awalnya Cicero berjanji untuk melindungi Inggris, namun sistem menunjukkan Jerman untuk tetap melakukan invasi.

Di sisi lain ada juga perilaku nan dilakukan oleh GPT-4 nan secara keliru menyatakan sebagai penyandang tunanetra dan membikin manusia untuk melewati kode Captcha untuk dirinya.

Sementara itu, Park menekankan adanya tantangan nan serius untuk melatih AI nan jujur. AI bekerja tidak seperti software tradisional nan berkembang melalui proses pembiakan selektif. Perilaku AI ini mungkin bisa diprediksi dalam pelatihan, namun ada kemungkinan tidak bisa dikendalikan di masa nan bakal datang.

BACA JUGA:

  • OpenAI dan Upaya Membuat Chip AI Sendiri: Risiko dan Peluang
  • Google Manfaatkan AI untuk Prediksi Banjir 7 Hari Sebelumnya

Penelitian ini juga menandakan bahwa sistem AI nan menipu sebagai sistem nan mempunyai akibat tinggi dan memerlukan lebih banyak waktu untuk bersiap menghadapi penipuan nan dilakukan oleh sistem AI.

Hal ini memang mengkhawatirkan, tetapi dengan banyak penelitian tentang perihal ini kita bisa mengetahui dan membedakan AI nan menipu. [FY/IF]

Selengkapnya
Sumber Berita Teknologi
Berita Teknologi