Published in
Productivity
Writen by Anggie Wibisono
17 April 2021, 06:04 WIB

Menuju Model Pembelajaran Mendalam Yang Dapat Bernalar Tentang Kode Lebih Seperti Manusia

Apa pun bisnis yang dijalankan perusahaan, perangkat lunak memainkan peran yang semakin penting, mulai dari mengelola inventaris hingga berinteraksi dengan pelanggan. Pengembang perangkat lunak, sebagai hasilnya, memiliki permintaan yang lebih besar dari sebelumnya, dan itu mendorong dorongan untuk mengotomatiskan beberapa tugas yang lebih mudah yang menghabiskan waktu mereka.

Alat produktivitas seperti Eclipse dan Visual Studio menyarankan cuplikan kode yang dapat dimasukkan pengembang dengan mudah ke pekerjaan mereka saat mereka menulis. Fitur otomatis ini didukung oleh model bahasa canggih yang telah belajar membaca dan menulis kode komputer setelah menyerap ribuan contoh. Namun seperti model pembelajaran mendalam lainnya yang dilatih pada kumpulan data besar tanpa instruksi eksplisit, model bahasa yang dirancang untuk pemrosesan kode memiliki kerentanan yang memendam.

Kecuali jika Anda benar-benar berhati-hati, peretas dapat secara halus memanipulasi input ke model ini untuk membuatnya memprediksi apa pun, kata Shashank Srikant , mahasiswa pascasarjana di Departemen Teknik Elektro dan Ilmu Komputer MIT. Kami mencoba mempelajari dan mencegahnya.

Dalam makalah baru, Srikant dan MIT-IBM Watson AI Lab mengungkap metode otomatis untuk menemukan kelemahan dalam model pemrosesan kode, dan melatihnya kembali agar lebih tahan terhadap serangan. Ini adalah bagian dari upaya yang lebih luas oleh peneliti MIT Una-May OReilly dan peneliti yang berafiliasi dengan IBM Sijia Liu untuk memanfaatkan AI untuk membuat alat pemrograman otomatis lebih cerdas dan lebih aman. Tim akan mempresentasikan hasilnya bulan depan di Konferensi Internasional tentang Representasi Pembelajaran.

Mesin yang mampu memprogram dirinya sendiri pernah tampak seperti fiksi ilmiah. Tetapi peningkatan eksponensial dalam kekuatan komputasi, kemajuan dalam pemrosesan bahasa alami, dan banyaknya kode gratis di internet telah memungkinkan untuk mengotomatiskan setidaknya beberapa aspek desain perangkat lunak.

Dilatih di GitHub dan situs web berbagi program lainnya, model pemrosesan kode belajar menghasilkan program seperti halnya model bahasa lain yang belajar menulis berita atau puisi. Ini memungkinkan mereka untuk bertindak sebagai asisten cerdas, memprediksi apa yang akan dilakukan pengembang perangkat lunak selanjutnya, dan menawarkan bantuan. Mereka mungkin menyarankan program yang sesuai dengan tugas yang ada, atau membuat ringkasan program untuk mendokumentasikan cara kerja perangkat lunak. Model pemrosesan kode juga dapat dilatih untuk menemukan dan memperbaiki bug. Namun terlepas dari potensi mereka untuk meningkatkan produktivitas dan meningkatkan kualitas perangkat lunak, mereka menimbulkan risiko keamanan yang baru saja mulai ditemukan oleh para peneliti.

Artikel lain: Kecerdasan Buatan Dapat Memecahkan Bahasa Kanker Dan Alzheimer

Srikant dan rekan-rekannya telah menemukan bahwa model pemrosesan kode dapat ditipu hanya dengan mengganti nama variabel, memasukkan pernyataan cetak palsu, atau memperkenalkan operasi kosmetik lainnya ke dalam program yang coba diproses oleh model tersebut. Program yang diubah secara halus ini berfungsi normal, tetapi menipu model agar memprosesnya secara tidak benar, sehingga menghasilkan keputusan yang salah.

Kesalahan dapat memiliki konsekuensi serius untuk semua jenis model pemrosesan kode. Model pendeteksi malware mungkin tertipu sehingga salah mengira program jahat itu jinak. Model pelengkapan kode mungkin tertipu untuk menawarkan saran yang salah atau berbahaya. Dalam kedua kasus tersebut, virus dapat menyelinap oleh programmer yang tidak menaruh curiga. Masalah serupa mengganggu model computer vision: Edit beberapa piksel kunci dalam gambar input dan model dapat membingungkan babi untuk pesawat, dan kura-kura untuk senapan , seperti yang ditunjukkan oleh penelitian MIT lainnya.

Seperti model bahasa terbaik, model pemrosesan kode memiliki satu kelemahan penting: Mereka ahli dalam hubungan statistik antara kata dan frasa, tetapi hanya samar-samar memahami arti sebenarnya. Model bahasa GPT-3 OpenAI, misalnya, dapat menulis prosa yang berubah dari fasih ke tidak masuk akal, tetapi hanya pembaca manusia yang dapat membedakannya.

Model pemrosesan kode tidak berbeda. Jika mereka benar-benar mempelajari properti intrinsik program, maka akan sulit untuk membodohi mereka, kata Srikant. Tapi mereka tidak. Mereka saat ini relatif mudah untuk ditipu.

Dalam makalah tersebut, para peneliti mengusulkan kerangka kerja untuk secara otomatis mengubah program untuk mengekspos titik lemah dalam model yang memprosesnya. Ini memecahkan masalah pengoptimalan dua bagian; algoritme mengidentifikasi situs dalam program yang menambahkan atau mengganti teks menyebabkan model membuat kesalahan terbesar. Ini juga mengidentifikasi jenis pengeditan yang menimbulkan ancaman terbesar.

Apa yang diungkapkan kerangka kerja, kata para peneliti, adalah betapa rapuhnya beberapa model. Model ringkasan teks mereka gagal sepertiga dari waktu ketika satu pengeditan dilakukan pada sebuah program; itu gagal lebih dari separuh waktu saat lima pengeditan dilakukan, lapor mereka. Di sisi lain, mereka menunjukkan bahwa model tersebut mampu belajar dari kesalahannya , dan dalam prosesnya berpotensi memperoleh pemahaman yang lebih dalam tentang pemrograman.

Kerangka kerja kami untuk menyerang model, dan melatihnya kembali pada eksploitasi tertentu, berpotensi membantu model pemrosesan kode mendapatkan pemahaman yang lebih baik tentang maksud program, kata Liu, penulis senior studi. Itu adalah arah yang menarik yang menunggu untuk dijelajahi.

Di latar belakang, pertanyaan yang lebih besar tetap ada: apa sebenarnya yang dipelajari model pembelajaran dalam kotak hitam ini? Apakah mereka bernalar tentang kode seperti yang dilakukan manusia, dan jika tidak, bagaimana kita bisa membuatnya? kata OReilly. Itulah tantangan besar di depan kita.


Sumber: scienceblog.com-pixabay.com

Baca juga:

Memberi Tahu Para Sunbathers Apa Yang Tidak Ingin Mereka Dengar: Tanning itu Buruk

Alat Komputasi Baru Dapat Membantu Merancang Turbin Mesin Jet Futuristik

Kebiasaan Mendengkur Terkait Dengan Perubahan Otak Yang Signifikan Pada Anak-Anak

Penelitian Baru Mengungkapkan Mengapa Sebagian Dari Kita Selalu Lapar

Comment has been disabled

Discover Peoples

Supriyanto 0 Post • 1 Followers
Ach Dafid 0 Post • 0 Followers
Bery Manurung 0 Post • 1 Followers
Ludi 0 Post • 0 Followers
Ghost Writer 0 Post • 6 Followers
© Buatbuku.com - PT. Buat Buku Internasional - Allright Reserved