Askara Indrayana

Hai, sahabat Brainy!

Meta baru saja merilis alat pembuat gambar AI yang canggih. Tapi, tahukah kamu? Ternyata alat ini punya masalah besar!

Saat diminta membuat gambar "pasangan pria kulit putih dan perempuan Asia," alat ini malah terus-terusan memberikan gambar dua orang Asia. Bahkan, ketika diminta membuat gambar "pasangan wanita Asia dan pria kulit putih," hasilnya tetap sama: dua orang Asia!

Wah, ada apa ya?

Ternyata, kecerdasan buatan Meta ini punya bias. Ia menganggap semua "orang Asia" adalah orang Asia Timur dengan kulit cerah. Padahal, Asia adalah benua yang besar, dan orang-orangnya sangat beragam.

Selain itu, alat ini juga cenderung menampilkan pria Asia yang lebih tua dengan wanita Asia yang muda. Aneh, kan?

Bias ini sangat berbahaya karena dapat mengabadikan stereotip negatif tentang orang Asia. Di media, orang Asia sering digambarkan sebagai orang yang pendiam dan patuh. Hal ini membuat orang Asia sulit untuk mendapatkan peran yang lebih beragam dalam film dan acara TV.

Sayangnya, kecerdasan buatan Meta hanya memperparah masalah ini. Ia mengabadikan gagasan bahwa semua orang Asia itu sama, padahal kenyataannya sangat berbeda.

Jadi, sahabat Brainy, kita harus waspada terhadap alat-alat kecerdasan buatan seperti ini. Mereka dirancang oleh manusia, dan manusia punya bias. Bias ini bisa tertanam dalam alat AI, dan itu dapat berdampak negatif pada dunia kita.

Kecerdasan Buatan Meta Tak Bisa Bayangkan Orang Asia dan Kaukasia Berpasangan

Login untuk menambahkan komentar
Klik tombol Google dibawah ini untuk masuk sebagai user

Tambahkan Komentar

Kamu mungkin juga suka