Mengenal Halusinasi AI: Ketika Kecerdasan Buatan ‘Gagal Paham’


ilustrasi artificial intelligence 12

Ilustrasi artificial intelligence

Artificial Intelligence (AI) generatif semakin banyak digunakan dalam berbagai bidang untuk mempermudah pekerjaan manusia. Namun, dibalik kecanggihannya, AI generatif sering kali menghasilkan informasi yang tidak akurat, yang dikenal sebagai "halusinasi AI". Fenomena ini baru-baru ini menimpa seorang jurnalis Jerman bernama Martin Bernklau, yang menjadi korban kekeliruan informasi dari chatbot Copilot buatan Microsoft.

 

Apa Itu Halusinasi AI?

Halusinasi AI adalah fenomena di mana large language model (LLM), seperti chatbot AI generatif, menghasilkan jawaban yang tidak akurat atau tidak logis. Menurut IBM, halusinasi AI terjadi ketika model ini melihat pola atau objek yang tidak ada, menghasilkan output yang tidak sesuai dengan kenyataan. Meskipun pengguna berharap AI memberikan jawaban yang benar, terkadang sistem ini salah menginterpretasikan data, menyebabkan AI “berhalusinasi” dalam memberikan respons.

 

Dampak Halusinasi AI di Dunia Nyata

Kasus Martin Bernklau hanya salah satu contoh bagaimana halusinasi AI dapat menimbulkan kesalahan yang serius. Dalam kasus lain, halusinasi AI bisa menyebabkan kerugian yang jauh lebih besar, seperti dalam bidang kesehatan. Misalnya, AI bisa salah mendiagnosis lesi kulit yang jinak sebagai tumor ganas, yang bisa memicu tindakan medis yang tidak perlu.

Halusinasi AI juga dapat memperburuk penyebaran misinformasi. Jika chatbot berita menyampaikan informasi yang tidak diverifikasi dalam situasi darurat, informasi palsu tersebut dapat menyebar dengan cepat, merusak upaya mitigasi yang dilakukan oleh pihak berwenang.

 

Contoh Kasus AI "Gagal Paham"

ai generative

Berikut adalah beberapa contoh kasus nyata yang melibatkan halusinasi AI generatif:

  1. Kasus Martin Bernklau dan Microsoft Copilot

Seorang jurnalis Jerman bernama Martin Bernklau menjadi korban halusinasi AI ketika menggunakan Copilot, sebuah alat AI generatif buatan Microsoft. Bernklau memasukkan namanya dan kota tempat ia bekerja ke dalam Copilot, tetapi hasil yang diberikan sangat jauh dari kebenaran. AI mengklaim bahwa Bernklau adalah pelarian dari institusi psikiatri, pelaku pelecehan anak yang dihukum, serta penipu yang memangsa janda padahal, Bernklau adalah seorang jurnalis pos pengadilan. Ini menunjukkan betapa seriusnya efek halusinasi AI jika tidak diawasi dengan baik, karena informasi yang sepenuhnya salah dapat dihasilkan tanpa dasar.

  1. Kasus Mark Walters dan ChatGPT

Mark Walters, seorang pembawa acara radio "Armed American Radio", juga mengalami halusinasi AI ketika seorang jurnalis bertanya kepada ChatGPT tentang kasus hukum yang melibatkan Second Amendment Foundation (SAF) dan jaksa agung negara bagian Washington. ChatGPT mengeluarkan jawaban yang sepenuhnya tidak akurat dengan menyatakan bahwa Walters digugat oleh SAF atas tuduhan penipuan dan penggelapan dana. Padahal, Walters tidak pernah bekerja untuk SAF dan tidak terlibat dalam kasus tersebut. Kesalahan ini muncul karena AI membangun korelasi statistik yang salah antara Walters dan SAF berdasarkan kesamaan tujuan keduanya, yakni mendukung hak kepemilikan senjata di AS.

  1. Kasus Pengadilan di Amerika Serikat

Pada Mei 2023, seorang pengacara di Amerika Serikat mengalami masalah ketika mengandalkan ChatGPT untuk menyiapkan argumen hukum. Pengacara tersebut menggunakan hasil pencarian AI untuk menemukan kasus pengadilan yang relevan, namun AI justru berhalusinasi dengan menciptakan sejumlah kasus hukum fiktif yang tidak pernah terjadi. Saat kasus ini dibawa ke pengadilan, pihak lawan menunjukkan bahwa kasus-kasus yang dikutip tidak ada dalam catatan hukum, sehingga mengakibatkan kerugian bagi pengacara tersebut.

  1. Kesalahan Identifikasi Medis oleh AI Kesehatan

Dalam konteks kesehatan, halusinasi AI dapat menimbulkan bahaya serius. Sebuah model AI yang digunakan untuk mengidentifikasi lesi kulit pernah salah mengklasifikasikan lesi jinak sebagai lesi ganas, yang menyebabkan intervensi medis yang tidak diperlukan. Hal ini terjadi karena AI “melihat” pola yang tidak ada pada gambar lesi kulit tersebut dan menghasilkan kesimpulan yang salah, yang bisa memicu pengobatan yang tidak diperlukan.

  1. Kasus Misinformasi Chatbot di Industri Perbankan

Dalam dunia perbankan, sebuah chatbot AI yang digunakan oleh bank besar pernah memberikan informasi yang salah tentang produk keuangan kepada nasabah. Nasabah yang bertanya tentang opsi pinjaman dan suku bunga menerima respons yang sepenuhnya tidak akurat karena chatbot mengalami halusinasi dan menghubungkan produk yang berbeda dari data yang tersedia. Meskipun tidak berbahaya dalam skala besar, hal ini menimbulkan kebingungan di kalangan pelanggan bank.

  1. Google Bard Salah Menjawab Pertanyaan Sains

Pada awal tahun 2023, Google Bard, sebuah chatbot AI, memberikan jawaban yang salah mengenai pertanyaan sains dasar saat peluncurannya. Ketika ditanya tentang penemuan teleskop luar angkasa pertama, Bard memberikan jawaban yang tidak akurat, menyatakan bahwa teleskop luar angkasa James Webb adalah teleskop pertama yang digunakan untuk mengamati eksoplanet. Padahal, teleskop pertama yang melakukannya adalah Hubble Space Telescope. Kesalahan ini menyoroti bagaimana AI generatif kadang bisa berhalusinasi bahkan pada informasi yang relatif sederhana.

 

Mengapa Halusinasi AI Terjadi?

Halusinasi AI terjadi karena kompleksitas data yang digunakan untuk melatih model AI. Model seperti ChatGPT, Copilot, dan Google Gemini dilatih menggunakan sejumlah besar data bahasa manusia, termasuk buku, jurnal akademik, dan artikel berita. Algoritma AI mempelajari hubungan statistik antara kata-kata dalam data ini, dan berdasarkan hubungan tersebut, AI menghasilkan respons.

Namun, karena data yang digunakan sangat besar dan beragam, model AI kadang-kadang menggabungkan informasi yang tidak relevan atau salah menginterpretasikan pola, menghasilkan respons yang salah. Solusi permanen untuk mengatasi halusinasi ini sangat sulit, mengingat data yang digunakan untuk melatih model AI sangat besar dan mencakup berbagai sumber informasi.

 

Upaya Mengatasi Halusinasi AI

ai generative

Mencegah "halusinasi" AI generatif adalah tantangan besar karena Large Language Models (LLM) dilatih menggunakan data yang sangat luas dan kompleks. Namun, ada beberapa langkah yang dapat diambil untuk mengurangi risiko terjadinya halusinasi AI:

  1. Pengawasan dan Verifikasi oleh Manusia

Salah satu cara paling efektif untuk mencegah dampak buruk dari halusinasi AI adalah melibatkan manusia dalam proses verifikasi. Hasil yang diberikan oleh AI harus selalu dicek kebenarannya, terutama jika informasi tersebut akan digunakan untuk pengambilan keputusan penting. Dalam bidang jurnalistik, misalnya, editor atau jurnalis perlu memverifikasi fakta yang dihasilkan oleh AI sebelum dipublikasikan.

  1. Pelatihan dengan Data Berkualitas

Salah satu penyebab utama halusinasi AI adalah kualitas data yang digunakan untuk melatih model AI. Semakin banyak data yang tidak akurat, bias, atau tidak relevan yang digunakan, semakin besar kemungkinan AI menghasilkan informasi yang salah. Oleh karena itu, pengembang AI perlu memastikan bahwa model dilatih dengan data yang berkualitas tinggi, diverifikasi, dan relevan. Selain itu, data harus diperbarui secara berkala untuk mencegah penggunaan informasi yang usang.

  1. Pemantauan Model Secara Terus-Menerus

AI generatif memerlukan pemantauan dan pembaruan yang terus-menerus untuk memperbaiki kesalahan dan bias yang mungkin muncul selama penggunaannya. Pengembang AI, seperti Microsoft dan OpenAI, sudah mengimplementasikan mekanisme pembaruan reguler berdasarkan umpan balik pengguna untuk memperbaiki kesalahan. Dengan pemantauan yang konsisten, model AI dapat terus berkembang menjadi lebih akurat.

  1. Penggunaan Algoritma Filter atau Pembatasan

Penggunaan filter atau algoritma tambahan yang memverifikasi output dari AI sebelum diberikan kepada pengguna bisa membantu mencegah halusinasi. Misalnya, jika output AI tidak sesuai dengan data yang tersedia di sumber terpercaya, AI dapat diberi pembatasan untuk menghindari memberikan jawaban atau menampilkan peringatan kepada pengguna bahwa informasinya mungkin tidak akurat.

  1. Menetapkan Batasan pada Kegunaan AI

Pengguna harus memahami batasan AI dan menggunakannya hanya untuk tugas-tugas yang sesuai. AI generatif tidak sempurna dan tidak selalu bisa diandalkan untuk hal-hal yang memerlukan analisis mendalam atau informasi faktual yang sangat spesifik. Oleh karena itu, penting untuk menetapkan batasan pada jenis tugas yang dilakukan oleh AI dan menghindari menggunakannya untuk hal-hal yang melibatkan keputusan kritis tanpa validasi lebih lanjut.

  1. Pelatihan Model AI yang Lebih Spesifik

Model AI yang dilatih dengan fokus pada domain tertentu, seperti kesehatan atau hukum, bisa lebih akurat dibandingkan model yang dilatih dengan data umum. Dengan memfokuskan pelatihan pada data spesifik, AI dapat mengurangi risiko halusinasi karena pola-pola yang dikenali lebih relevan dengan konteks yang diminta.

  1. Transparansi dalam Proses Pembelajaran AI

Salah satu masalah yang sering kali muncul adalah kurangnya transparansi dalam cara model AI dilatih. Jika pengguna dan pengembang memahami data apa yang digunakan dalam melatih AI, akan lebih mudah mengidentifikasi potensi sumber kesalahan atau bias yang bisa memicu halusinasi. Oleh karena itu, pengembang AI harus lebih transparan tentang data yang digunakan dan metode yang diterapkan dalam proses pelatihan AI.

  1. Umpan Balik dari Pengguna

Sistem AI generatif harus dirancang untuk menerima umpan balik dari pengguna. Umpan balik ini bisa digunakan untuk memperbaiki kesalahan dalam respons AI dan mencegah terulangnya halusinasi yang sama. Misalnya, ketika ada kesalahan dalam output AI, pengguna bisa melaporkan hal tersebut, dan pengembang dapat memperbaiki model agar lebih akurat di masa depan.

  1. Pemanfaatan Teknologi Penghindar Kesalahan (Failsafes)

Pengembang AI dapat menerapkan mekanisme "failsafe" yang mendeteksi ketika sistem AI memberikan output yang tidak akurat atau tampak tidak sesuai dengan data yang relevan. Sistem ini bisa memberikan peringatan kepada pengguna bahwa jawaban AI mungkin tidak akurat atau bahkan menolak memberikan jawaban sama sekali jika risiko kesalahan terlalu tinggi.

  1. Kolaborasi dengan Sumber Data Terpercaya

Salah satu cara mencegah halusinasi AI adalah dengan mengintegrasikan sumber data yang terpercaya dan divalidasi, seperti ensiklopedia, jurnal akademik, atau basis data yang dikelola oleh institusi resmi. Dengan menghubungkan AI generatif dengan sumber data yang lebih dapat

Halusinasi AI adalah tantangan yang kompleks, tetapi dengan berbagai upaya seperti pelatihan data yang lebih baik, verifikasi oleh manusia, dan pemantauan model secara teratur, risiko terjadinya halusinasi dapat diminimalkan. Meskipun AI generatif memiliki potensi besar, kehati-hatian dalam penggunaannya tetap menjadi kunci agar teknologi ini dapat memberikan manfaat yang maksimal tanpa menimbulkan dampak negatif.


Bagikan artikel ini

Berlangganan

Berlangganan newsletter kami dan dapatkan informasi terbaru.

Video Terkait