JagoSatu.com - Google kena batunya setelah model AI Gemma bikin masalah PR besar. Kasus ini menunjukkan bagaimana "halusinasi" AI bisa berubah jadi mimpi buruk di pengadilan saat dituduh melakukan pencemaran nama baik.
Pemicunya, Senator Marsha Blackburn melayangkan surat protes keras ke CEO Sundar Pichai. AI tersebut menuduhnya melakukan pelecehan seksual, sebuah tuduhan palsu yang sangat serius dan menjadi tanggung jawab Google.
Dilaporkan oleh engadget, chatbot ini tak hanya mengarang cerita, tapi juga membuat daftar artikel berita palsu sebagai "bukti". Detail fiktif inilah yang membuat kebohongan AI ini jadi sangat berbahaya.
Parahnya lagi, AI ini salah menyebut tahun kejadian. Chatbot mengklaim itu terjadi tahun 1987, padahal sang senator baru berkampanye pada 1998. Kesalahan fatal ini membuktikan ceritanya ngarang bebas.
Menurut Blackburn, ini bukan sekadar 'halusinasi' biasa. Ia menyebutnya "pencemaran nama baik" yang dibuat dan disebarkan oleh AI milik Google. Jika platform menyebar kebohongan, maka platform harus bertanggung jawab.
Dilaporkan oleh Engadget, Gemma sebenarnya adalah model AI untuk developer, bukan untuk publik. Masalahnya, pengguna awam tidak peduli; mereka hanya melihat ini sebagai 'AI buatan Google' untuk mencari fakta.
Google memang sudah menarik Gemma dari AI Studio untuk mencegah kebingungan. Tapi ini cuma solusi sementara, karena modelnya masih bisa diakses dan disalahgunakan orang lewat API.
Google berkilah bahwa masalah halusinasi ini dialami seluruh industri AI, terutama pada model AI yang lebih kecil dan terbuka seperti Gemma. Jadi, ini bukan masalah yang hanya dihadapi Google.
Faktanya, halusinasi AI ini tidak pandang bulu. Mereka bisa mengarang cerita fitnah tentang siapa saja, dari politisi liberal, konservatif, hingga reviewer teknologi sekalipun.
Meski begitu, dikutip oleh engadget, Blackburn tetap menuduh platform AI Google punya "pola bias yang konsisten terhadap tokoh-tokoh konservatif," sebuah tuduhan yang menambah panas situasi.
Banyak developer setuju bahwa pengguna awam yang menyalahgunakan alat riset seperti ini justru merepotkan. Model AI terbuka seharusnya diperlakukan sebagai alat eksperimen, bukan pengganti Google Search.
Dikutip dari engadget, Google mengakui adanya "laporan dari non-developer yang mencoba menggunakan Gemma untuk bertanya soal fakta." Ini menunjukkan adanya kesenjangan besar antara tujuan pembuatan dan penggunaan di lapangan.
Google berjanji akan terus berusaha mengurangi halusinasi. Tapi ini adalah masalah mendasar yang butuh solusi baru, bukan sekadar data latihan yang lebih besar untuk diberikan pada AI.
Beberapa pihak juga khawatir pengguna iseng bisa membebani infrastruktur komputasi yang disediakan untuk developer. Menggunakan alat canggih tanpa tahu tujuannya bisa menimbulkan masalah baru.
Kasus ini membuktikan bahwa di era AI, garis antara 'kesalahan sistem' dan 'fitnah' jadi makin tipis. Nah, menurut kalian, siapa yang harusnya paling bertanggung jawab dalam kasus seperti ini? (tmtiwow)
Editor : Toar Rotulung