Kecerdasan buatan diterapkan di setiap industri. Seringkali, ini terjadi di belakang layar. Namun, konsumen bertemu AI setiap hari, seperti di Chatbots otomatis yang muncul di banyak situs web. Ada dorongan aktif untuk terlibat dengan AI dalam setiap aspek kehidupan kita. Namun, cacat mendasar berarti teknologi mungkin tidak cocok untuk semua tugas ini. Kita secara aktif didorong untuk terlibat dengan AI untuk setiap aspek kehidupan kita. Namun, cacat mendasar berarti bahwa teknologi mungkin tidak cocok untuk semua tugas ini.
AI sangat bagus untuk menemukan fakta
Penelitian terbaru yang dilakukan oleh Sebuah tim di Universitas Purdue menemukan ketidakseimbangan yang signifikan dalam nilai -nilai kemanusiaan yang tertanam dalam sistem AI. Studi ini mengungkapkan itu Dataset pelatihan AI memprioritaskan informasi dan nilai utilitas. Mereka dirancang untuk membantu orang menemukan informasi berbasis fakta berkualitas tinggi lebih cepat. Pada saat yang sama, model ini mengabaikan faktor-faktor tidak berwujud, seperti kesejahteraan dan nilai-nilai sipil.
Model kecerdasan buatan dilatih Koleksi data yang sangat besar. Mereka menggunakan ‘pembelajaran’ ini untuk menghasilkan respons yang berguna dan relevan dengan input pengguna. Sementara kumpulan data ini dikuratori dengan cermat, terkadang mengandung konten tidak etis atau terlarang. Ini terutama benar jika informasi tersebut telah dikumpulkan dari akun media sosial.
Untuk mengatasi masalah ini, para peneliti telah memperkenalkan metode yang disebut penguatan Belajar dari umpan balik manusia. Ini Penggunaan set data preferensi manusia yang sangat dikuratori Untuk membentuk perilaku AI terhadap bantuan dan kejujuran, dengan demikian ‘mengesahkan’ pembelajaran yang tidak etis.
Anda mungkin tertarik: LinkedIn menangguhkan beberapa operasi pelatihan AI
Teknik jejak nilai
Tim Universitas Purdue mengembangkan teknik yang disebut “Nilai jejak” ke Dataset Pelatihan Audit AI Model. Mereka memeriksa tiga dataset pelatihan open-source yang digunakan oleh perusahaan AI memimpin AS, untuk mengkategorikan nilai -nilai manusia sesuai dengan filsafat moral, teori nilai, dan sains, teknologi, dan studi masyarakat.
Upaya -upaya ini mengidentifikasi tujuh kategori nilai yang digunakan oleh manusia:
- Kesejahteraan dan kedamaian
- Pencarian informasi
- Keadilan, Hak Asasi Manusia, dan Hak Hewan
- Tugas dan akuntabilitas
- Kebijaksanaan dan pengetahuan
- Kesopanan dan toleransi
- Empati dan bantuan
Kategori -kategori ini (juga dikenal sebagai taksonomi), memungkinkan para peneliti untuk secara manual menganotasi dataset dan melatih model bahasa AI untuk menganalisis dataset perusahaan.
Apa yang mereka temukan
Studi ini mengungkapkan bahwa sistem AI sangat berorientasi pada memberikan tanggapan yang bermanfaat dan jujur terhadap pertanyaan teknis, seperti cara memesan penerbangan. Namun, kumpulan data jauh lebih kecil kemungkinannya untuk berisi contoh bagaimana membahas topik yang terkait dengan empati, keadilan, dan hak asasi manusia.
Secara keseluruhan, dataset yang paling umum mewakili kebijaksanaan, pengetahuan, dan pencarian informasi sebagai dua nilai utama. Nilai -nilai seperti keadilan, hak asasi manusia, dan hak -hak hewan jauh lebih jarang dalam kumpulan data pelatihan.
Implikasi dari Penelitian Universitas Purdue
Mengingat bahwa sebagian besar mesin AI saat ini bersiap untuk memecahkan masalah praktis bagi pengguna, temuan ini bukan kejutan besar. Namun, ketidakseimbangan nilai -nilai kemanusiaan dalam set data pelatihan AI ini dapat memiliki implikasi yang signifikan untuk Bagaimana sistem AI berinteraksi dengan orang -orang dan mendekati masalah sosial yang kompleks.
Karena kecerdasan buatan semakin meresapi sektor -sektor kritis seperti hukum, perawatan kesehatan, dan media sosial, sangat penting bahwa sistem ini mewujudkan berbagai nilai kolektif. Ini memastikan bahwa AI tidak hanya secara efektif memenuhi kebutuhan orang tetapi juga beroperasi dengan cara yang etis dan bertanggung jawab.
Apa selanjutnya?
Dengan membuat nilai -nilai yang tertanam dalam sistem ini terlihat, tim Purdue bertujuan untuk membantu perusahaan AI membuat dataset yang lebih seimbang yang lebih mencerminkan nilai -nilai komunitas yang mereka layani. Perusahaan dapat menggunakan teknik taksonomi ini Identifikasi area untuk perbaikan dan meningkatkan keragaman data pelatihan AI mereka.
Dengan mengikuti petunjuk tim Purdue, vendor akan dapat membangun model AI yang lebih mencerminkan berbagai persyaratan pengguna. Ini akan meningkatkan teknologi AI selain menjadi alat pencarian fakta yang luar biasa untuk membantu menyeluruh untuk kehidupan sehari-hari.
Lanjutkan Membaca: Bagaimana dunia mempersiapkan masa depan AI?