SEORANG Profesor dari University Oxford, Britain, Nick Bostrom pernah membahaskan tentang potensi teknologi kecergasan buatan (AI) yang disifatkan sebagai ancaman kepada masyarakat, negara dan dunia.
Menerusi bukunya Superintelligence: Paths, Dangers, Strategies, Bostrom, beliau menyatakan penggunaan AI tanpa kawalan umpama kanak-kanak bermain bom yang boleh meledak pada bila-bila masa.
Menurutnya, ancaman terbesar ialah masalah jangka masa panjang selepas memperkenalkan sesuatu yang radikal dan pintar, namun gagal menyelaras dengan nilai serta niat manusia.
“Manusia mudah teruja dengan penemuan teknologi, namun pada skala masyarakat biasa, kebijaksanaan mereka untuk kendali AI masih tidak setara.
“Pada masa sama, potensi kemajuan dan pembangunan AI masih belum ada had, malah ia terbuka untuk lebih maju daripada kecerdasan akal walaupun pada awalnya ia adalah sesuatu yang dicipta oleh manusia itu sendiri,” katanya menerusi satu temu bual dengan media antarabangsa.
Jelasnya, kebimbangan AI pada masa hadapan boleh menjadi ancaman apabila ia dilasanakan dalam pelbagai sektor sama ada ekonomi, sosial mahu politik.
Hampir sedekad buku itu diterbitkan, apa yang dibimbangkan oleh Bostrom sedikit demi sedikit menjadi kenyataan.
Teknologi AI semakin berkembang dan bercambah kepada beberapa pecahan termasuk Chat GPT yang terhasil daripada keupayaan AI generatif.
Bagi yang masih belum faham tentang Chat GPT, ia merupakan sebahagian daripada teknologi AI yang dapat melakukan interaksi percakapan dengan pengguna melalui komputer bahkan telefon pintar.
Untuk gambaran lebih mudah, penggunaan chatbot yang semakin banyak diaplikasikan oleh agensi yang melibatkan perkhidmatan pelanggan secara dalam talian.
Dengan kewujudan Chat GPT ini, semua orang mampu menulis kod komputer, e-mel canggih, kertas kerja kursus, laporan atau rancangan perniagaan, puisi, jenaka dan mengarang muzik atau menghasilkan imej.
Sepertimana kebimbangan yang dicetuskan terhadap teknologi AI, kewujudan Chat GPT juga dilihat mempunyai implikasi yang negatif jika digunakan tanpa batasan.
Menurut Pensyarah Kanan, Fakulti Perniagaan dan Undang-undang, Universiti Taylor, Dr. Sia Chin Chin, Chat GPT boleh diumpamakan sebagai pedang bermata dua dan penggunaan sewenang-wenangnya berkemungkinan membawa kepada implikasi undang-undang iaitu Bias Algoritma dan Privasi Pengguna.
“Membangunkan teknologi dengan keupayaan untuk menjana kandungan baharu kepada pengguna seperti ChatGPT bergantung pada analisis besar maklumat peribadi. Ini mencetuskan pelbagai risiko privasi data bagi pengguna.
“Tidak hanya itu, kebergantungan kepada Chat GPT boleh menyumbang kepada salah fakta rujukan yang mana algoritma fungsi ini boleh dimanipulasi untuk memberikan jawapan yang menyasar daripada kenyataan sebenar,” katanya.
Oleh yang demikian, pihak-pihak berwajib perlu mengambil perhatian dengan mengawal penggunaan teknologi AI agar sesuatu yang seharusnya bermanfaat tidak menjadi barah yang menghancurkan sesebuah negara.