ChatGPT Itu Omong Kosong? Halusinasi?

ChatGPT Itu Omong Kosong? Halusinasi?

Hasil jawaban dari ChatGPT atau  semacamnya yang termasuk kecerdasan buatan atau biasa disebut AI (Artificial Intelligence) ternyata tidak sepenuhnya benar!

Bahkan ada peneliti dari Singapura menyebutkan bahwa chatGPT itu "omong kosong". Yang mana respon atau jawaban dari perintah kita yang kita minta ke platform AI atau semacamnya tersebut, akan menampilkan hasil yang dinilai "halusinasi" yang mana sebenarnya jawaban tersebut tidak ada faktanya secara "nyata".

Artinya, platform-platform AI (kecerdasan buatan) tersebut menampilkan jawaban yang tidak "bersumber", tidak "nyata", tidak "asli".

Hal ini juga bisa disebut "konfabulasi" bersumber dari website KBBI, diartikan bahwa seperti menjawab dengan jawaban yang tidak benar namun tidak juga sepenuhnya salah atau bohong.

kon.fa.bu.la.si

Mengisi kekosongan ingatan dengan cerita tidak benar namun juga tidak sepenuhnya bohong, tujuannya untuk menyembuhkan penderita dengan gangguan ingatan akibat kerusakan otak

Menilai hal ini, kita sebagai subjek yang "menggunakan" teknologi ini tidaklah bisa sepenuhnya untuk dipercaya sebagai sumber referensi utama kita. Walaupun, terkadang tercantum jelas sumber dari jawaban platform AI tersebut, namun perlu juga kita untuk mengecek apakah referensi tersebut "benar adanya".

Karena sudah banyak orang yang merasakan bahwa hasil respon atau jawaban teknologi AI tersebut tidaklah ada secara nyata alias "halusinasi" atau lebih tepatnya disebut "konfabulasi".

Frankfurt mengatakan, salah satu ciri orang yang suka berbohong adalah mereka tidak peduli apakah yang mereka katakan itu benar atau tidak. ChatGPT atau semacamnya juga tidak peduli, dan teknologi tersebut (dalam pengertian teknis) adalah sebuah "mesin omong kosong".

Bukti dari "omong kosong" chatGPT atau semacamnya adalah kasus Pengacara di New York pada tahun 2023. Ada dua pengacara disanksi Akibat ditemukannya enam kutipan kasus fiktif yang dibuat oleh chatbot kecerdasan buatan, ChatGPT.

Yang mana dua pengacara tersebut, menggunakan ChatGPT dalam penelitiannya saat menulis ringkasan hukum. Singkatnya, bahwa ia telah menggunakan ChatGPT untuk membantu meneliti ringkasan dalam kasus cedera pribadi klien terhadap maskapai penerbangan Kolombia Avianca, dan tanpa sadar menyertakan kutipan palsu.

Akibatnya, ia disanksi karena dinilai oleh Hakim bahwa para pengacara tersebut "mendukung pendapat palsu".

Hal ini menjadikan bahwa chatGPT tidak lah peduli terhadap jawaban yang dikutipnya, hal inilah yang membuatnya disebut sebagai "omong kosong". Ia seperti seorang tukang omong kosong yang tidak peduli apakah yang mereka katakan itu benar. Berikut artikel tentang pemanfaatan teknologi AI yang lain.

Lebih baru Lebih lama

نموذج الاتصال