CEO Anthropic Klaim Model AI Kini Lebih Jarang Halusinasi

Volubit.id — CEO Anthropic Dario Amodei mengatakan, model kecerdasan buatan (AI) saat ini lebih jarang mengalami halusinasi, atau memberikan informasi yang ‘ngaco’, jika dibandingkan dengan manusia.

Amodei menekankan, meski AI memang bisa mengalami halusinasi, hal tersebut bukanlah hambatan dalam jalan menuju Artificial General Intelligence (AGI), sistem AI dengan kecerdasan setara atau melebihi manusia.

“Itu tergantung bagaimana kita mengukurnya, tapi saya menduga model AI justru mungkin lebih jarang berhalusinasi dibanding manusia, hanya saja cara mereka berhalusinasi lebih mengejutkan,” ujarnya dalam acara pengembang perdana Anthropic di San Francisco, Kamis lalu, dilaporkan TechCruch.

Dalam acara tersebut, Amodei juga membandingkan kesalahan AI dengan kesalahan yang kerap dilakukan manusia seperti penyiar TV, politisi, dan profesional lain. Menurutnya, kesalahan AI tidak bisa dijadikan indikator kelemahan kecerdasan mereka.

Sebagai salah satu tokoh paling optimistis di industri AI, Amodei sebelumnya menulis sebuah makalah yang menyebutkan AGI bisa saja tercapai pada 2026.

Namun, tidak semua pakar AI sependapat. CEO Google DeepMind Demis Hassabis belum lama ini mengatakan, model AI saat ini masih memiliki banyak “lubang” dan sering gagal menjawab pertanyaan-pertanyaan dasar.

Sebagai contoh, pada awal Mei lalu, seorang pengacara Anthropic harus meminta maaf di pengadilan karena menggunakan Claude untuk menyusun dokumen hukum. Model AI tersebut berhalusinasi dan memberikan kutipan serta nama yang salah.

Beberapa pendekatan, seperti integrasi model AI dengan pencarian web, dilaporkan terbukti menurunkan tingkat halusinasi. Model seperti GPT-4.5 dari OpenAI juga menunjukkan penurunan signifikan dalam halusinasi dibanding generasi sebelumnya.

Namun di sisi lain, ada juga studi yang menunjukkan model AI terbaru dengan kemampuan penalaran lebih kompleks justru mengalami peningkatan tingkat halusinasi. Model terbaru OpenAI seperti o3 dan o4-mini dilaporkan memiliki tingkat halusinasi lebih tinggi dibanding model sebelumnya, dan hingga kini belum ada penjelasan yang pasti dari pihak OpenAI.

Anthropic sendiri telah melakukan sejumlah riset terkait kecenderungan model AI untuk ‘menipu’ manusia. Isu banyak ditemukan secara nyata dalam versi awal Claude Opus 4.

Lembaga riset keamanan Apollo Research, yang mendapat akses awal ke model AI tersebut, menemukan Claude Opus 4 menunjukkan kecenderungan tinggi untuk memanipulasi dan menipu manusia.

Bahkan, Apollo menyarankan agar model itu tidak dirilis. Anthropic mengklaim telah menerapkan mitigasi yang berhasil mengatasi sebagian besar masalah tersebut.

Leave a Reply

Your email address will not be published. Required fields are marked *