Ketika kecerdasan buatan terus membentuk kembali dunia di sekitar kita, memengaruhi masa depan AI. Pemerintah dan pemimpin bisnis mulai mengajukan pertanyaan ‘Apa selanjutnya?’. Karena untuk setiap manfaat, risiko baru muncul.
Beberapa topik yang sedang dibahas termasuk yang berikut.
AI dan terorisme
Banyak pemerintah menimbulkan kekhawatiran tentang teroris menggunakan kecerdasan buatan. Beberapa analis keamanan percaya Teroris dapat menggunakan AI untuk memilih target baru dan lebih memahami logistik perencanaan serangan. Orang lain menyarankan agar AI memudahkan organisasi teroris Dapatkan persenjataan kimia, biologis atau radiologis.
Sebagian besar ahli sepakat bahwa AI dapat disalahgunakan dengan cara ini di masa depan. Dan bahwa pencipta AI perlu memperkenalkan perlindungan untuk mencegah aktivitas semacam ini.
Perbatasan AI Overreach
Analis lain melihat lebih jauh ke depan ke generasi model berikutnya, digambarkan sebagai ‘perbatasan AI’. Lebih cepat, lebih kuat dan lebih mampu, AI Perbatasan akan lebih jauh Akselerasi transformasi kerja dan masyarakat.
Beberapa khawatir bahwa, yang tidak terkendali, Frontier AI akan memiliki kemampuan untuk mengakhiri kehidupan di Bumi – seperti yang dilakukan Skynet dalam serangkaian film Terminator. Frontier AI akan mendapatkan kemampuan ini hanya jika terhubung ke sistem vital, seperti jaringan listrik nasional, jaringan pertahanan, dan pasar keuangan, seperti di film cyborg fiksi.
AI sangat tidak mungkin ditempatkan dalam kendali penuh sistem kritis misi untuk masa mendatang – Jika pernah.
Serangan cyber-bertenaga AI
Mungkin risiko yang paling mendesak bagi kita semua adalah dari penggunaan AI oleh penjahat cyber. Model AI generatif seperti chatgpt dapat menulis kode komputer fungsional misalnya, memungkinkan peretas untuk membangun eksploitasi malware dan keamanan lebih cepat.
Alat AI generatif juga membantu penjahat untuk menulis lebih meyakinkan email phishing Dan Teks untuk situs web palsu. Di masa lalu, cukup mudah untuk melihat email phishing karena mereka dengan kata -kata buruk, salah eja, atau menggunakan nada suara yang salah. Menggunakan AI generatif, peretas dapat memperbaiki kesalahan ini secara otomatis, dan untuk membuat email baru yang terdengar resmi – dan karenanya lebih meyakinkan.
Apa yang dilakukan untuk melindungi konsumen?
Regulator pemerintah dan pendiri teknologi besar menyadari tantangan dan ancaman ini. Dan semuanya Bekerja untuk melindungi masyarakat umum.
Sudah, Model AI generatif yang paling dapat diakses secara publik termasuk pagar pembatas untuk mencegah penyalahgunaan. Misalnya, instruksi tertentu akan diabaikan atau ditolak. Perlindungan ini kemungkinan akan menjadi persyaratan hukum di seluruh dunia di masa mendatang.
Pemerintah juga ingin bekerja dengan teknologi besar Merumuskan peraturan baru yang mengatur dengan benar bagaimana AI membangun, mengelola, dan digunakan. Harapannya adalah bahwa dengan memperkenalkan kerangka kerja regulasi lebih awal, iterasi AI di masa depan akan lebih aman bagi kita semua.