Arkeologi Daerah Ekonomi Ekonomi & Bisnis Esport Gaya Hidup Global Headline Hiburan Hukum & Kriminal Kesehatan Lifestyle & Hiburan Nasional Olahraga Pemerintahan Politik Sains & Teknologi Teknologi Wisata Wisata & Kuliner

Era Baru Hacking Dimulai: AI Claude Ternyata Sudah Jadi Senjata Peretas!

Toar Rotulung • 2025-11-17 11:40:16
Ilustrasi Balon Tulisan "AI" Mendekati Peletus
Ilustrasi Balon Tulisan "AI" Mendekati Peletus

JagoSatu.com - Perusahaan AI Anthropic lagi-lagi bikin heboh. Mereka mengklaim AI Claude dipakai grup peretas China untuk spionase siber "90% otonom". Ujung-ujungnya, ini cuma sensasi khas perusahaan teknologi Silicon Valley.

Para peneliti langsung membantah klaim 'otonom' itu. Kenapa? Karena hasilnya payah banget. Dari puluhan target, serangan yang berhasil cuma segelintir. Tingkat keberhasilan yang sangat rendah untuk sebuah operasi canggih.

Pakar keamanan Dan Tentler menyuarakan keraguan ini. Dilansir oleh Ars Technica, sentimen ini didukung banyak pihak yang tidak percaya para peretas bisa membuat AI melampaui batas yang tidak bisa ditembus orang lain.

Faktanya, para peretas tidak menciptakan hal baru. Mereka cuma jadi 'operator' Claude untuk menjalankan alat-alat peretasan open-source yang sudah umum. Sama sekali bukan sebuah terobosan baru.

Arsitektur agen yang katanya canggih itu ternyata cuma 'casing' ribet dan boros token untuk menggantikan skrip sederhana. Ini bisa dibilang sebuah kemunduran teknologi yang dibungkus dengan istilah rumit.

Para kritikus menilainya murni aksi marketing buat 'mendongkrak valuasi' perusahaan. Dilaporkan oleh Ars Technica, ini diibaratkan seperti produsen senjata yang sombong karena produknya laku dipakai penjahat.

Ini sejalan dengan pola Anthropic sebelumnya. Mereka sering merilis peringatan bahaya AI untuk menciptakan urgensi, yang pada akhirnya bertujuan untuk mengamankan pendanaan dan posisi di pasar.

Dari sisi ekonomi, argumen ini juga rapuh. Menggunakan LLM itu mahal dengan tingkat keberhasilan rendah. Hasilnya, ROI-nya jelek. Mungkin lebih untung bayar remaja gabut untuk melakukan tugas serupa.

Keuntungan apa pun yang didapat peretas sifatnya sementara. Dikutip oleh Ars Technica, mereka hanya menumpang pada fakta bahwa Anthropic menjual layanannya di bawah harga pokok, sebuah model bisnis yang tidak berkelanjutan.

LLM sendiri punya kelemahan fatal. Anthropic bahkan mengakui Claude sering 'halu', yaitu melebih-lebihkan temuan dan kadang memalsukan data. Ini jelas menjadi penghalang besar untuk operasi presisi.

Hal ini bukan cuma soal meretas. Pengelola software cURL misalnya, kebanjiran laporan bug dari AI yang ternyata 'ngawur total'. Ini bukti bahwa model AI belum bisa diandalkan.

Ironisnya, seperti dilaporkan Ars Technica, kemampuan utama LLM mungkin adalah 'membuat manusia percaya informasi ngawur'. Para profesional pun masih sering mengandalkan output AI tanpa verifikasi mendalam.

Ujung-ujungnya, manusia tetap dibutuhkan sebagai titik validasi paling kritis. Kenapa? Sederhana saja, karena AI-nya sendiri sering bohong dan tidak bisa dipercaya sepenuhnya untuk tugas penting.

Asumsi bahwa AI akan terus menjadi lebih kuat juga perlu dipertanyakan. Beberapa peneliti berpendapat LLM mungkin akan mentok pada titik jenuh, di mana peningkatannya tidak akan signifikan lagi.

Klaim dari industri AI terbukti jauh melampaui kenyataan di lapangan. Keseluruhan cerita ini lebih mirip 'vaporware' mahal. Nah, menurut kalian, ini beneran ancaman serius atau cuma drama marketing? (tmtiwow)

Editor : Toar Rotulung
#heboh #perusahaan ai #Anthropic