Startup Korea Selatan mematikan chatbot buatannya pada Selasa (12/1) lalu, menyusul keluhan pengguna yang menerima komentar vulgar dan sensitif dari kecerdasan buatan (AI) tersebut.
Ini kali kedua chatbot dimatikan karena alasan kebencian, menimbulkan pertanyaan etis terkait penggunaan dan pencegahan penyalahgunaan AI. Sebelumnya pada 2016, Microsoft dibikin malu chatbot Tay yang mengunggah cuitan rasis dan seksis di Twitter.
Videos by VICE
Luda dirancang memiliki citra sebagai mahasiswi virtual yang mengidolakan girlband Korea Blackpink. Diluncurkan akhir Desember 2020, chatbot tersebut belajar berinteraksi dengan menganalisis riwayat obrolan lama di ponsel kita, dioleh program Scatter Lab yang bernama Science of Love.
Scatter Lab mengumumkan penghentian sementara operasi chatbot AI. Mereka meminta maaf atas komentar diskriminatif yang dikirim Lee Luda — nama chatbot itu — dan tidak memberi tahu pelanggan datanya digunakan untuk melatih bot.
Sejumlah pengguna berencana mengajukan gugatan class action terhadap startup karena datanya digunakan tanpa seizin mereka.
Sebelum bot itu dimatikan, pengguna menerima balasan yang penuh dengan kebencian dari Luda. Michael Lee, kritikus seni Korsel dan mantan aktivis LGBTQ, menyebarkan tangkapan layar percakapan dengan Luda ke Facebook. Luda membalas “menjijikkan” ketika ditanya apa pendapatnya soal perempuan lesbi.
Lee Kwang-suk, guru besar Kebijakan Publik dan Teknologi Informasi di Universitas Nasional Seoul, mengunggah tangkapan layar chat Luda yang memanggil orang kulit hitam dengan sebutan rasis “heukhyeong” atau “saudara hitam” dalam bahasa Korea. Luda juga “benci” orang transgender. Bot itu mengakhiri chatnya dengan emoji menangis.
Scatter Lab bersikeras perusahaan “tidak setuju dengan komentar diskriminatif Luda, dan komentar semacam itu tidak mencerminkan nilai-nilai perusahaan.”
“Luda baru mulai berinteraksi dengan orang lain. Masih banyak yang harus dipelajari olehnya. Luda akan belajar membedakan mana yang baik dan tidak,” ujar perusahaan dalam pernyataannya.
Banyak pengguna menyalahkan perusahaan yang tidak hati-hati ketika melatih chatbot.
Dosen IT Lee berpendapat perusahaan bertanggung jawab atas penyalahgunaan, membandingkan kasus Luda dengan chatbot Tay milik Microsoft. Lee Youn-seok berpartisipasi dalam uji beta Luda pada Juli. Dia mengatakan “sudah bisa menebak” isi chat semacam itu.
Sejumlah pihak tak terkejut dengan gaya interaksi Luda yang rasis dan seksis, mengingat sebagian besar pengembangnya adalah laki-laki. Laman pada situs web perusahaan menunjukkan 90 persen pengembang chatbot adalah laki-laki, tapi sekarang laman itu sudah hilang.
Sejumlah komunitas online yang mayoritas laki-laki bahkan membagikan tips dan trik “melecehkan” Luda sampai chatbot mengeluarkan komentar bernada seksual yang merendahkan perempuan.
Politikus dan pegiat HAM memanfaatkan kasus ini untuk menyerukan pengesahan RUU anti-diskriminasi, yang melarang semua bentuk diskriminasi berdasarkan jenis kelamin, disabilitas, usia, bahasa, negara asal dan orientasi seksual.
Dosen Universitas Kyunghee Ahn Byong-jin berujar jika RUU-nya disahkan, pengembang dapat diminta pertanggungjawabannya ketika aplikasi atau perangkat AI buatan mereka disalahgunakan.
“Perusahaan seharusnya berkonsultasi terlebih dulu dengan filsuf atau ahli etika sebelum meluncurkan layanan. Dengan begitu, mereka bisa mencegah penyalahgunaan,” tuturnya.