Meta, perusahaan induk Facebook dan Instagram, mengumumkan akan melatih model kecerdasan buatan (AI) mereka menggunakan data publik dari pengguna di Eropa. Penggunaan data ini meliputi postingan dan komentar publik yang dibagikan oleh pengguna dewasa di Uni Eropa.
Keputusan ini diambil setelah peluncuran asisten Meta AI di Eropa, yang terlambat dibandingkan peluncuran di Amerika Serikat dan pasar utama lainnya. Meta menjelaskan bahwa interaksi pengguna dengan Meta AI, seperti pertanyaan dan permintaan, juga akan digunakan untuk meningkatkan model AI mereka.
Langkah ini menimbulkan kontroversi karena berpotensi melanggar Undang-Undang Perlindungan Data Umum Uni Eropa (GDPR) yang ketat. GDPR memberikan kontrol kepada individu atas bagaimana informasi pribadi mereka digunakan, dan beberapa pihak telah mengajukan keberatan terhadap rencana Meta.
Perdebatan Hukum dan Privasi
NOYB, sebuah kelompok yang berbasis di Swiss dan dipimpin oleh aktivis Max Schrems, telah mengajukan keluhan kepada berbagai pengawas privasi nasional di Uni Eropa. Mereka mendesak agar rencana pelatihan AI Meta dihentikan sebelum perusahaan mulai melatih model AI generasi berikutnya. Keberatan ini berfokus pada potensi pelanggaran privasi pengguna Eropa.
Menanggapi hal ini, Meta menyatakan bahwa panel regulator privasi Uni Eropa pada bulan Desember telah “menegaskan” kepatuhan pendekatan mereka terhadap hukum yang berlaku di wilayah tersebut. Meta juga menekankan bahwa mereka tidak akan menggunakan pesan pribadi untuk melatih model AI-nya.
Perusahaan tersebut membela diri dengan menyatakan bahwa mereka hanya mengikuti jejak kompetitornya, seperti Google dan OpenAI, yang juga telah menggunakan data pengguna Eropa untuk melatih model AI mereka. Ini menimbulkan pertanyaan tentang standar etika dan regulasi dalam pengembangan AI di Eropa.
Transparansi dan Hak Pengguna
Sebagai bentuk transparansi, Meta berjanji akan memberitahu pengguna di Uni Eropa tentang pelatihan AI ini. Mereka juga akan menyediakan tautan ke formulir yang memungkinkan pengguna untuk mengajukan keberatan kapan saja. Meta menyatakan akan menghormati semua formulir keberatan yang diajukan.
Langkah ini menunjukkan upaya Meta untuk menyeimbangkan pengembangan AI yang canggih dengan perlindungan privasi pengguna. Namun, keberhasilan pendekatan ini masih harus dilihat, mengingat kompleksitas hukum dan potensi risiko pelanggaran data di masa depan. Perdebatan tentang penggunaan data publik untuk pelatihan AI kemungkinan akan terus berlanjut.
Implikasi Lebih Luas
Kasus Meta ini menyoroti tantangan global dalam mengatur penggunaan data untuk pengembangan AI. Banyak negara sedang bergulat dengan bagaimana menyeimbangkan inovasi teknologi dengan perlindungan privasi individu. Standar dan regulasi yang jelas sangat dibutuhkan untuk memastikan pengembangan AI yang bertanggung jawab dan etis.
Ke depan, kita dapat mengharapkan lebih banyak perdebatan publik dan regulasi yang lebih ketat mengenai bagaimana perusahaan teknologi besar menggunakan data pengguna untuk melatih model AI mereka. Hal ini akan memiliki implikasi besar bagi inovasi teknologi dan hak-hak digital individu di seluruh dunia.
Pernyataan Meta, “Kami akan menghormati semua formulir keberatan,” menunjukkan komitmen mereka pada transparansi dan hak pengguna. Namun, implementasi dan efektivitas dari komitmen ini masih perlu dipantau secara ketat.
Kesimpulannya, penggunaan data publik oleh Meta untuk melatih AI-nya menimbulkan pertanyaan penting tentang privasi data dan regulasi AI di Uni Eropa, dan membuka perdebatan yang lebih luas tentang etika dan tanggung jawab dalam pengembangan kecerdasan buatan.