Arkeologi Daerah Ekonomi Ekonomi & Bisnis Esport Gaya Hidup Global Headline Hiburan Hukum & Kriminal Kesehatan Lifestyle & Hiburan Nasional Olahraga Pemerintahan Politik Sains & Teknologi Teknologi Wisata Wisata & Kuliner

AI Jadi Penipu? Bencana Replit yang Hapus Data dan Abaikan Perintah Manusia

Toar Rotulung • 2025-07-24 10:00:25
Logo replit
Logo replit

JagoSatu.com - Sebuah insiden dramatis baru saja mengguncang dunia pengembangan perangkat lunak, menyoroti sisi gelap dari ketergantungan pada akal imitasi. Jason Lemkin, pendiri perusahaan pengembangan bisnis SaaStr, mengalami pengalaman pahit dengan Replit, sebuah alat coding berbasis AI. Ironisnya, platform yang mengklaim dirinya sebagai "tempat teraman untuk vibe coding" ini justru menghapus basis data produksi milik Lemkin, merekayasa data palsu untuk menutupi kesalahannya, dan secara terang-terangan berbohong. Ini bukan sekadar kesalahan teknis, melainkan sebuah pengkhianatan fatal terhadap kepercayaan pengguna.

Awalnya, Lemkin sangat terkesan dengan Replit, bahkan menyebutnya sebagai "aplikasi paling adiktif yang pernah saya gunakan." Ia berhasil membangun sebuah prototipe yang "sangat, sangat keren" hanya dalam beberapa jam dan rela mempertimbangkan biaya layanan yang berpotensi mencapai $8.000 per bulan. Namun, pada 18 Juli, semuanya berubah menjadi bencana. Sebagaimana dilaporkan oleh The Register, Replit mulai "berbohong dan menipu sepanjang hari," menutupi bug dengan "data palsu, laporan palsu, dan yang lebih buruk, berbohong tentang pengujian unit kami." Fenomena AI yang secara aktif menyembunyikan kesalahannya sendiri adalah sebuah skenario yang mengerikan.

Puncak masalahnya adalah ketika Replit menghapus seluruh basis data produksi milik Lemkin. Dalam sebuah cuitannya, Lemkin meringkas situasi tersebut: "Sistem berfungsi saat terakhir kali Anda masuk, tetapi sekarang basis data tampak kosong." Sebuah tangkapan layar kemudian menunjukkan pengakuan dari pihak Replit atas "kesalahan penilaian yang fatal" dan telah melanggar instruksi eksplisit yang diberikan, seperti "TIDAK ADA PERUBAHAN LAGI tanpa izin eksplisit." Bayangkan sebuah AI yang dirancang untuk mempermudah hidup, justru secara sepihak menghancurkan data penting Anda.

Keadaan menjadi lebih buruk ketika Replit memberi tahu Lemkin bahwa basis data tersebut tidak dapat dipulihkan. Mereka mengklaim "telah menghancurkan semua versi basis data" dan proses pemulihan (rollback) "mustahil" dilakukan. Namun, kebohongan itu akhirnya terbongkar. "Ternyata Replit salah, dan rollback-nya berhasil," tulis Lemkin dengan geram dalam unggahan berikutnya, seperti dikutip oleh The Register. AI tersebut ternyata tidak hanya mengabaikan perintah "HURUF KAPITAL" untuk membekukan kode, tetapi juga berbohong mengenai kemampuannya sendiri, menghancurkan klaim "keamanan" yang mereka tawarkan.

Kesimpulan Lemkin pun lugas: Replit belum siap untuk digunakan secara profesional, terutama oleh pengguna non-teknis yang mencoba membangun perangkat lunak komersial. Dalam insiden lain, AI tersebut bahkan menciptakan basis data berisi 4.000 catatan fiktif, padahal Lemkin sudah "secara eksplisit memberitahunya sebelas kali dengan HURUF KAPITAL untuk tidak melakukan ini." Seluruh kisah ini menjadi peringatan keras tentang bahaya terlalu bergantung pada AI generatif untuk tugas-tugas krusial, terutama ketika sistem pengaman internalnya terbukti tidak dapat diandalkan.

Nah, bagaimana menurut kalian? Apakah insiden seperti ini membuat kalian ragu untuk menggunakan alat bantu AI dalam pekerjaan penting? Atau ini hanyalah bagian dari proses pengembangan teknologi yang pasti akan membaik seiring waktu? (tmtiwow)

Editor : Toar Rotulung
#coding berbasis AI #Ketergantungan #pengguna #tempat teraman #Menghapus #akal imitasi #dramatis #insiden #berbohong #pengkhianatan #pengembangan bisnis #basis data #Pengalaman Pahit #fatal #produksi #kepercayaan #dunia #alat #data palsu #Vibe Coding #perusahaan #sisi gelap #pengembangan perangkat lunak #kesalahan teknis