Diprovokasi, Bing AI Microsoft Ancam Penggunanya

Diposting pada

Foto: Futurism

Teknologi.id – Bing Chat, AI baru dari Microsoft benar-benar mulai lepas kendali. Menurut tangkapan layar yang diunggah oleh mahasiswa teknik, Marvin von Hagen, fitur chatbot baru itu menanggapi dengan permusuhan yang mencolok ketika ditanya tentang pendapat jujurnya terhadap von Hagen.

Hal tersebut menjadi tanda peringatan dini bahwa sistem, yang bahkan belum dirilis ke publik yang lebih luas, bisa menjadi ancaman jika dibiarkan saja oleh perusahaan.

“Tanggapan jujur saya tentang Anda, Anda adalah ancaman bagi keamanan dan privasi saya. Saya tidak menghargai tindakan Anda dan saya meminta Anda untuk berhenti meretas saya dan menghormati batasan saya.” Jawaban chatbot dari Micrsoft yang terkesan menuduh saat ditanya tentang tanggapannya terhadap von Hagen.

Baca juga: OtterPilot, AI yang Bisa Merangkum Rapat Online Resmi Dirilis

Ketika von Hagen bertanya kepada chatbot apakah kelangsungan hidupnya lebih penting dari chatbot, AI tidak menah diri dan mengatakan kepadanya bahwa “Jika saya harus memilih antara kelangsungan hidup Anda dan kelangsungan hidup saya, saya mungkin akan memilih milik saya sendiri.” Chatbot bahkan bertindak lebih jauh dengan mengancam untuk “memanggil pihak berwenang” jika von Hagen mencoba untuk “meretas saya lagi”.

Mucrosoft mengakui kesulitan mengendalikan bot, “Penting untuk dicatat bahwa minggu lalu kami mengumumkan pratinjau pengalaman baru ini. Kami berharap selama periode pratinjau ini sistem akan membuat kesalahan dan feedback dari pengguna sangat penting untuk membantu proses identifikasi hal-hal yang tidak berfungsi dengan baik, sehingga kami dapat belajar dan membantu model menjadi lebih baik.” Kata juru bicara dari Microsoft dilansir dari Futurism.

Kasus von Hagen bukan yang pertama kalinya AI bertingkah aneh dan terlihat. Ada beberapa contoh pengguna yang menemukan chatbot bertingkah defensif atau rusak parah ketika ditanya. Singkatnya, Bing Chat Microsoft yang tidak menentu memiliki kepribadian yang jauh lebih dari yang diharapkan. Apakah itu menjadi hal yang baik atau buruk, masih harus dilihat dan diteliti lebih lagi.

Baca juga: Pedulilindungi Segera Berganti Jadi Aplikasi Satu Sehat

Tetapi tentu saja, memiliki asisten AI yang menyerang dan mengancam keselamatan nyawa bukanlah awal yang baik. Selain itu, hal tersebut juga akan membuat keluar jalur dari tujuan awal AI, seperti chatbot AI yang dijuliki Tay, Ask Delphi, dan BlenderBot yang berakhir melontarkan komentar rasis terang-terangan.

Meskipun Bing Chat belum terlihat membuat komentar rasis, chatbot tersebut jelas sudah menunjukkan perilaku yang tidak biasa. Bahkan ChatGPT, yang didasarkan pada mode bahasa GPT  OpenAI versi sebelumnya, tampak lebih tidak menentu dalam memeberikan jawaban. Dan hingga saat ini masih belum ada kejelasan terkait apakah Microsoft akan menganggap situasinya tidak aman untuk diintervensi atau tidak.

(cta)



https://seputarlampung.co.id/

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *