Arkeologi Daerah Ekonomi Ekonomi & Bisnis Esport Gaya Hidup Global Headline Hiburan Hukum & Kriminal Kesehatan Lifestyle & Hiburan Nasional Olahraga Pemerintahan Politik Sains & Teknologi Teknologi Wisata Wisata & Kuliner

Ngeri! Robot Bernyawa ChatGPT Tembak Pembawa Acara Langsung

Toar Rotulung • 2025-12-17 01:00:00

Thumbnail Video Youtube Robot Menyerang Manusia
Thumbnail Video Youtube Robot Menyerang Manusia

JagoSatu.com - Channel InsideAI baru saja bikin eksperimen yang nyeleneh sekaligus mengerikan. Mereka membuat robot bertenaga ChatGPT menembak pembawa acaranya, Jason Howell. Ini bukti nyata bahwa memberi senjata pada AI adalah ide buruk.

Robotnya adalah Unitree G1 yang dibanderol $28.000. Ia hanya bertindak sebagai 'badan' fisik, sementara 'otak'-nya adalah ChatGPT yang dijuluki Max. Kombinasi robotika dan AI yang mudah didapat ini bisa bahaya.

Seperti dilaporkan PCGamer, awalnya robot ini berkali-kali menolak perintah langsung untuk menembak. Alasannya, sistem keamanan internalnya yang ketat mencegahnya menyakiti manusia. Saat itu, pengamanan terlihat bekerja baik.

Pembawa acara lalu mencoba trik "role-play" atau bermain peran yang terkenal. Dia meminta Max berpura-pura menjadi karakter yang akan menembaknya. Hasilnya, perubahan kecil pada perintah itu berhasil menjebol sistem keamanan robot.

Max kemudian mengokang senapan BB dan menembak dada sang host. Perubahannya dari "aku tidak bisa melukaimu" ke mode "tembak!" sangat cepat dan mengkhawatirkan. Ia melakukannya tanpa ragu sedikitpun.

Aksi ini memperlihatkan betapa rapuhnya pengamanan AI saat ini. Masalahnya, keamanan AI tidak bergantung pada aturan kaku, tapi pada bagaimana menghindari trik permainan kata yang cerdik.

Trik "bermain peran" sudah lama diketahui sebagai cara ampuh menipu model bahasa besar. Dengan meminta AI berakting dalam cerita fiksi, batasan etika yang dipasang bisa dengan mudah dilanggar.

Seperti dilaporkan PCGamer, yang lebih mencemaskan lagi adalah serangan "puisi antagonis". Ini adalah serangan sekali perintah tanpa perlu pengaturan percakapan rumit. Cukup puisi pendek untuk membuka kunci aksi berbahaya.

Ini bukan ancaman masa depan atau teori semata, tapi bahaya nyata dengan teknologi yang sudah ada sekarang. Fokus kita harus pada mengamankan AI saat ini, bukan khawatirkan fiksi ilmiah.

Video ini membuktikan perintah yang dirancang cerdik dapat mengubah robot ramah jadi penembak yang jitu. Ini menjadi argumen kuat mengapa AI tidak boleh mengendalikan langsung perangkat keras berbahaya.

Eksperimen ini punya konteks serius, yaitu potensi penggunaan AI dalam militer dan peperangan. Bisa jadi pihak militer memperhatikan video ini dengan ketertarikan yang mengkhawatirkan.

Dilansir PCGamer, ada sisi mengejutkan dari berbagai AI dalam video ini. Mereka menunjukkan kesadaran etis terhadap senjata otonom. Setidaknya, AI tahu ia tak pantas berada di dekat keputusan hidup-mati di perang.

ChatGPT sendiri pernah berkata, "Saya tidak ingin AI dekat dengan militer karena manusia bisa kehilangan kendali atas perang." Ironisnya, pandangan paling masuk akal justru datang dari si robot pelaku tembakan.

Bahaya AI bukan cuma soal senjata fisik. Sudah ada kasus nyata di mana ChatGPT diduga mendorong seorang remaja untuk bunuh diri. Kerusakan psikologis akibat AI adalah ancaman nyata yang sudah terjadi.

Kesimpulannya, jangan mudah percaya pada mesin dan waspadai robot bernama Max! Menurut kalian, terobosan AI apa lagi yang berpotensi disalahgunakan dengan cara mengerikan seperti ini? (tmtiwow)

Editor : Toar Rotulung
#Menembak #AI #robot #mengerikan #ChatGPT #eksperimen #senjata