JAKARTA – Jika Anda sering menggunakan chatbot bertenaga Artificial Intelligence (AI), baik dalam bentuk web ataupun aplikasi, Anda pasti menyadari bahwa teknologi ini sering memberikan respons panjang.
Hal ini memang diatur oleh sistem dari model AI yang digunakan. Semakin canggih model AI-nya, semakin detail juga respons yang diberikan. Faktanya, jika chatbot memberikan jawaban yang ringkas, hal ini bisa menjadi masalah.
Pengguna pun tidak seharusnya meminta jawaban ringkas dari chatbot. Menurut studi baru Giskard, perusahaan pengujian AI asal Paris, permintaan jawaban yang ringkas akan berdampak negatif pada kemampuan AI yang mereka gunakan.
Parahnya, hal ini akan menimbulkan halusinasi. Semakin sering chatbot berhalusinasi, semakin buruk juga respons yang akan diberikan. Artinya, kinerja teknologi ini mengalami penurunan.
"Data kami menunjukkan bahwa perubahan sederhana pada instruksi sistem secara dramatis memengaruhi kecenderungan model untuk berhalusinasi," terus para peneliti, dilansir dari TechCrunch.
Halusinasi merupakan masalah utama untuk model ini karena sulit untuk diatasi. Bahkan, model canggih buatan OpenAI dan Meta pun masih bisa berhalusinasi meski banyak orang yang telah menggunakan chatbot-nya.
BACA JUGA:
Ketika suatu model mengalami halusinasi, teknologi tersebut akan mengarang cerita. Berdasarkan penjelasan peneliti Giskard, permintaan mengenai jawaban yang ringkas dapat membingungkan sistem karena sering kali bertentangan dengan pertanyaannya.
Misalnya, saat pengguna meminta penjelasan tentang sejarah perang dunia kedua, mereka meminta jawaban yang ringkas. Dua hal ini sangat bertentangan karena sejarah biasanya membutuhkan penjelasan yang sangat panjang.
Ada beberapa model AI yang Giskard uji dengan perintah jawaban ringkas. Beberapa model tersebut adalah GPT-4o dari OpenAI, Claude 3.5 Sonnet dari Anthropic, Deepsek V3, Llama 4 dari Meta, hingga Grok 2. Seluruh model AI ini mengalami penurunan akurasi setelah diminta menjawab dengan ringkas.