Pihak berkuasa Britain memberi amaran tentang langkah mengintegrasikan “chatbot” yang dipacu kecerdasan buatan ke dalam perniagaan, dengan mengatakan kajian menunjukkan bahawa mereka boleh ditipu untuk melakukan tugas yang berbahaya.
Dalam satu catatan blog yang akan diterbitkan hari ini, Pusat Keselamatan Siber Kebangsaan Britain (NCSC) berkata pakar masih belum dapat menangani masalah keselamatan yang mungkin berkaitan dengan algoritma yang boleh menjana interaksi bunyi manusia – yang digelar model bahasa besar, atau LLM.
Alat yang dikuasakan AI dikesan penggunaan awal sebagai “chatbots” yang dibayangkan oleh sesetengah pihak bukan sahaja menggantikan carian internet tetapi juga sebagai perkhidmatan pelanggan dan panggilan jualan.
NCSC berkata ia boleh membawa risiko, terutamanya jika model sedemikian dimasukkan ke dalam elemen proses perniagaan organisasi.
Ahli akademik dan penyelidik sebelum ini berulang kali mencari cara untuk menumbangkan chatbots dengan melaksanakan arahan tertentu atau menipu bagi memintas benteng pertahanan mereka.
Contohnya, chatbot berkuasa AI yang digunakan oleh bank mungkin tertipu untuk membuat transaksi tanpa kebenaran jika penggodam menstrukturkan pertanyaan mereka dengan tepat.
"Perkhidmatan pembinaan organisasi yang menggunakan LLM perlu berwaspada, dengan cara yang sama jika mereka menggunakan pustaka produk atau kod yang dalam versi beta," kata NCSC dalam satu catatan di blognya, merujuk kepada keluaran perisian percubaan.
"Mereka mungkin tidak membenarkan produk itu terlibat dalam membuat urus niaga bagi pihak pelanggan, dan diharapkan perniagaan tidak akan mempercayainya sepenuhnya.
“Perhatian yang sama harus diberikan kepada LLM."
Pihak berkuasa di seluruh dunia sedang bergelut dengan kebangkitan LLM, seperti OpenAI's ChatGPT, yang mana perniagaan sudah menggabungkan ke dalam pelbagai perkhidmatan, termasuk jualan dan penjagaan pelanggan.
Implikasi keselamatan AI juga masih menjadi tumpuan, dengan pihak berkuasa di AS dan Kanada mengatakan mereka melihat penggodam mula menggunakan teknologi itu.