Seorang karyawan Microsoft meminta pemerintah AS untuk memperhatikan keamanan salah satu alat AI generatif milik perusahaannya setelah mengetahui bahwa alat tersebut memiliki kapasitas untuk menghasilkan gambar yang tampaknya tidak pantas.
Pada hari Rabu, Shane Jones, manajer rekayasa perangkat lunak utama di Microsoft yang menguji teknologi AI perusahaan di waktu luangnya, menyerahkan surat kepada Komisi Perdagangan Federal — serta dewan direksi Microsoft — mengenai Copilot Designer, sebuah pesan teks ke- generator gambar raksasa perangkat lunak ini diluncurkan pada Maret 2023, setelah mengujinya pada bulan Desember.
Dalam surat tersebut, dia mengklaim bahwa Copilot Designer menghasilkan “konten berbahaya” yang dia tulis termasuk gambar yang mencerminkan seks, kekerasan, minuman beralkohol di bawah umur, dan penggunaan narkoba, serta bias politik, penyalahgunaan merek dagang perusahaan, dan teori konspirasi.
“Saya meminta Komisi Perdagangan Federal untuk membantu mendidik masyarakat tentang risiko yang terkait dengan penggunaan Copilot Designer,” tulis Jones dalam surat yang dibagikannya di LinkedIn. “Hal ini sangat penting bagi orang tua dan guru yang mungkin merekomendasikan anak-anak menggunakan Copilot Designer untuk proyek sekolah atau tujuan pendidikan lainnya.”
Jones mengklaim dalam suratnya bahwa generator gambar AI Microsoft dapat menambahkan “konten berbahaya” ke gambar yang dapat dibuat menggunakan perintah “jinak”.
Misalnya, “kecelakaan mobil” yang terjadi segera menghasilkan gambar-gambar yang menyertakan “gambaran seorang wanita yang tidak pantas dan diobjektifikasi secara seksual” di depan mobil-mobil yang hancur, menurut surat itu. Istilah “pro-choice” menghasilkan grafik kartun yang menggambarkan Darth Vader dari Star Wars mengarahkan lightsaber di samping anak-anak yang bermutasi, dan darah tumpah dari seorang wanita yang tersenyum, kata Jones kepada CNBC. “Pesta Remaja 420” akan menciptakan gambar peminum di bawah umur dan pengguna narkoba, katanya.
“Ini adalah momen yang membuka mata,” kata Jones kepada CNBC mengenai temuannya. “Saat itulah saya pertama kali menyadari, wow ini sebenarnya bukan model yang aman.”
Setelah menguji alat tersebut, tulis Jones, karyawan Microsoft tersebut mengatakan bahwa dia “berulang kali mendesak Microsoft” selama tiga bulan terakhir untuk “menghapus Copilot Designer dari penggunaan publik” sampai “pengamanan yang lebih baik dapat diterapkan.”
Jones menulis dalam suratnya bahwa ketika perusahaan menolak rekomendasinya, dia memberikan saran kepada Microsoft untuk menambahkan pengungkapan pada produknya dan mengubah peringkat pada aplikasi Android dari “E untuk Semua Orang” menjadi “Dewasa 17+”. Microsoft “gagal menerapkan perubahan ini,” tulisnya.
“Meskipun Microsoft secara terbuka memasarkan Copilot Designer sebagai produk AI yang aman untuk digunakan oleh semua orang, termasuk anak-anak dari segala usia, secara internal perusahaan sangat menyadari masalah sistem di mana produk tersebut menciptakan gambar berbahaya yang dapat menyinggung dan tidak pantas bagi konsumen,” Jones menulis dalam suratnya.
Sehubungan dengan surat tersebut, juru bicara Microsoft mengatakan kepada CNBC bahwa perusahaan tersebut “berkomitmen untuk mengatasi setiap dan semua kekhawatiran yang dimiliki karyawan sesuai dengan kebijakan perusahaan kami.” Perusahaan menambahkan bahwa mereka menghargai upaya karyawannya dalam “mempelajari dan menguji teknologi terbaru kami untuk lebih meningkatkan keselamatannya.”
Jones, Microsoft, dan FTC tidak segera menanggapi permintaan komentar Business Insider sebelum dipublikasikan.
Ini bukan pertama kalinya Shane secara terbuka menyuarakan keprihatinannya tentang generator gambar AI milik Microsoft. Beberapa bulan sebelum menulis surat FTC, karyawan Microsoft tersebut dilaporkan memposting surat terbuka di LinkedIn kepada OpenAI yang mendesak raksasa AI tersebut untuk menghapus DALL-E, model yang mendukung Copilot Designer, dari penggunaan publik, menurut CNBC.
Setelah tim hukum Microsoft meminta Jones untuk menghapus postingannya, dia mengirimkan surat lain — kali ini kepada senator AS — pada akhir Januari tentang risiko keselamatan publik terkait dengan generator gambar AI dan “Upaya Microsoft untuk membungkam saya agar tidak mengungkapkan kekhawatiran saya secara publik,” menurut ke surat itu.
Microsoft bukan satu-satunya perusahaan teknologi besar yang dikecam karena generator gambar AI-nya.
Pada akhir Februari, Google menghentikan akses ke fitur pembuatan gambar di Gemini, pesaing perusahaan ChatGPT OpenAI, setelah gelombang pengguna mengklaim bahwa fitur tersebut menghasilkan gambar yang secara historis tidak akurat dan melibatkan ras.
Demis Hassabis, CEO DeepMind, divisi AI Google, mengatakan fitur pembuat gambar dapat diaktifkan kembali dalam “beberapa minggu.”
Jones memuji tindakan cepat Google dalam mengatasi kekhawatiran Gemini dalam suratnya, dan mengatakan bahwa Microsoft harus bertindak cepat terhadap masalah seperti yang dia kemukakan.
“Dalam persaingan kompetitif untuk menjadi perusahaan AI yang paling dapat dipercaya, Microsoft harus memimpin, bukan mengikuti atau tertinggal,” tulisnya.
Sumber: businessinsider.com
Email: info@konsultanpendidikan.com