Keracunan Data Dapat Menginstal Pintu Belakang dalam Model Pembelajaran Mesin

Cara perubahan data tidak diperhatikan terlalu megah untuk menganggap keracunan data tidak berbahaya. Pembelajaran mesin melangkah ke cakrawala baru setiap hari. Sekarang kemampuan komputasi awan Posting Data Poisoning Can Install Backdoors in Machine Learning Models muncul pertama kali di .

Kantorpemuda Cara perubahan data tidak diperhatikan terlalu megah untuk menganggap keracunan data tidak berbahaya Pembelajaran mesin menapaki cakrawala baru setiap hari. Sekarang kemampuan komputasi awan seperti kinerja tinggi dan penyimpanan mudah dalam jangkauan, perusahaan ingin mempercepat bisnis mereka dan proses berbasis ML adalah 'mantra' baru mereka. Sekitar 47% organisasi di seluruh dunia telah menerapkan AI ke dalam operasi mereka, dan 30% lainnya bereksperimen dengan ide tersebut. Karena vendor selalu mengandalkan proses ML, pengguna yang tidak curiga menjadi mempercayai algoritme untuk membuat keputusan termasuk yang penting. Tetapi apa yang tidak disadari oleh pengguna adalah, bahwa algoritme ini dapat disuntikkan dengan data berbahaya, yang disebut keracunan data. Ini bukan kasus manipulasi data tabrak lari yang sederhana, perusahaan di seluruh dunia kehilangan miliaran hanya karena mereka menjadi korban keracunan data. Sebagai konsumen online, kami menemukan sistem rekomendasi, yang secara harfiah mengatur hidup kita. Baik itu di pusat perbelanjaan online, media sosial, atau platform hiburan, mereka mengikuti Anda dengan setia mengumpulkan data untuk dimasukkan kembali ke dalam algoritme agar siklus berulang. Dan, ini adalah bagian dari siklus pembelajaran mesin , yaitu, proses bagaimana mesin belajar dari data untuk membuat rekomendasi yang lebih baik dari sebelumnya. Pakar keamanan memperingatkan teknologi ini dapat disalahgunakan oleh musuh untuk mendapatkan hasil yang tidak diinginkan dan bahkan mengendalikan hidup Anda. Dalam kasus umum manipulasi media sosial, para manipulator membelokkan sistem rekomendasi menggunakan akun palsu dari 'troll farm' untuk menyebarkan informasi palsu. “Secara teori, jika musuh memiliki pengetahuan tentang bagaimana pengguna tertentu berinteraksi dengan suatu sistem, serangan dapat dibuat untuk menargetkan pengguna tersebut dengan rekomendasi seperti video YouTube, aplikasi jahat, atau akun penipu untuk diikuti,” Andrew Patel , seorang peneliti dari Artificial Intelligence Center of Excellence di bidang keamanan. Apa yang dimaksud dengan keracunan data ? Dalam istilah sederhana, ini merusak data pengguna dan pembelajaran mesin model dilatih. Ini dianggap sebagai masalah integritas karena ketika model dirusak, model tersebut tertinggal di belakang benchmark terhadap output yang ditetapkan. Selain itu, akses yang tidak sah dapat membuat model rentan terhadap aktivitas siber yang berbahaya. Misalnya, hanya dengan mengubah detail kecil dalam data untuk mesin rekomendasi, mereka dapat membuat seseorang mengunduh malware atau mengklik tautan yang terinfeksi. Ini dapat dicapai dengan mengorbankan integritas data dengan cara berikut: Kerahasiaan – Penyerang dapat memanipulasi data yang dianggap rahasia dengan memasukkan detail yang tidak perlu Ketersediaan – Penyerang menyamarkan data untuk mencegah klasifikasi data yang benarReplikasi – Penyerang merekayasa balik model untuk menduplikasi model baik untuk menyuntikkan kerentanan atau mengeksploitasi itu untuk mencari keuntungan finansial Cara perubahan data tidak diperhatikan terlalu megah untuk menganggap keracunan data tidak berbahaya hanya memiliki efek jangka pendek. Bagi pengguna akhir, tidak ada bedanya jika produk B dipajang di samping produk A yang sesuai dengan pilihannya. Tetapi ada kasus serius tertentu di mana algoritme rekomendasi Amazon telah dimanipulasi untuk merekomendasikan literatur anti-vaksinasi bersama publikasi medis dan dalam kasus lain, akhirnya mendorong kampanye troll 4-chan yang terkenal kejam melalui rekomendasi produk beracunnya. Memperbaiki model yang diracuni – opsi yang perlu dilupakan: Model ML dilatih untuk waktu yang lama dan dalam beberapa kasus selama bertahun-tahun. Ketika vendor mengetahui bahwa produk B dijual bersama produk A, ia harus menelusuri seluruh riwayat algoritme. Menemukan titik data yang terkait dengan produk lain, dan mekanisme yang diadopsi pengguna palsu untuk mendorong perilaku tersebut cukup melelahkan. Di satu sisi, model harus dilatih ulang dengan data baru atau membersihkan data lama. Dan, tidak ada jaminan bahwa algoritma tidak akan diracuni lagi terutama ketika sulit untuk membedakan manipulasi palsu dari manipulasi nyata. Platform media sosial dibanjiri dengan banyak akun data palsu setiap hari dan algoritma pembersihan atau pelatihan ulang hanya dapat dilakukan jika melibatkan kasus seperti menghasut ujaran kebencian atau pelecehan online. Dalam satu kasus tertentu GPT-3, OpenAI menghabiskan biaya sekitar $16 juta untuk melatih ulang model tersebut. Tampaknya tidak ada solusi yang layak dalam waktu dekat kecuali untuk mengembangkan kumpulan data Emas yang mampu mendeteksi regresi, seperti yang disarankan oleh peneliti Google Bursztein. Lagi Cerita Tren Bitcoin Menambahkan 13rb 'Wholecoiners' Minggu Lalu! Investor Cerdas Membeli Penurunan Teknik Visi Komputer Baru dapat Pulihkan Info 3D dari Gambar 2DIkhtisar Penguatan Dalam Sedang belajarMengapa AI Simbolik Sangat Penting untuk Operasi Bisnis ? Manusia Dalam Pembelajaran Mesin Loop Dapat Menyelamatkan Anda dari Perangkap Data JHipster Dapat Memberikan Keunggulan pada Full-Stack Java Anda Proyek 10 Saham NFT Teratas untuk Dibeli dan Tahan untuk Kebaikan Pos Keracunan Data Dapat Menginstal Pintu Belakang dalam Model Pembelajaran Mesin muncul pertama kali di .