Hitekno.com - Kabarnya, Pengacara Taylor Swift telah melayangkan somasi kepada Microsoft. Kepana tiba-tiba penyanyi ternama ini menggungat perusahaan teknologi?
Ternyata gara-gara teknologi kecerdasan buatan atau Artificial Intelligence (AI) bernama Tay yang dibuat Microsoft.
Sebagai informasi, chatbot Tay adalah AI yang didesain untuk menjadi teman chatting para remaja di media sosial. Namun, pengguna Twitter berhasil membuat chatbot itu menjadi sosok yang rasis dan bahkan membenci manusia.
Baca Juga: Microsoft Rilis Konsol Xbox One X Bertema Gears Edisi Terbatas
Kurang dari sehari, pengguna Twitter ramai-ramai membuat percakapan dengan chatbot Tay. Dalam beberapa percakapan, Tay bisa menjadi sosok yang sangat manis.
Tapi di sisi lainnya, ia juga kerap melontarkan ujaran-ujaran kebencian berbau SARA yang bisa memicu amarah orang-orang.
Bahkan, percakapan Tay di Twitter menjadi viral setelah netizen mengunggah screenshot isi twit yang dilontarkan chatbot tersebut.
Baca Juga: Tak Mau Kalah dari Microsoft, Sony Ingin Beli Lebih Banyak Game Developer
Saking viralnya, Presiden Microsoft Brad Smith menerima email dari salah satu pengacara Taylor Swift yang meminta perusahaan mengganti nama chatbot Tay tersebut.
Email itu menyebutkan bahwa Tay merupakan sapaan akrab Taylor Swift sehingga chatbot itu identik dengan sang penyanyi. Mereka menilai hal ini bisa merusak nama baik pelantun lagu "Shake It Off" tersebut.
"Penggunaan nama Tay dianggap menciptakan persepsi yang salah dan menyesatkan antara penyanyi Taylor Swift dan robot kami, dan itu melanggar hukum federal dan hukum negara bagian," ujar Smith seperti dilansir dari The Verge.
Baca Juga: Kano dan Microsoft Rilis Laptop Kit untuk Dirakit Anak-anak
Secara teknis, Chatbot AI memang diprogram terlebih dahulu lewat machine learning untuk bisa berkomunikasi layaknya manusia.
Dalam kasus chatbot Tay, ia menjadi sosok yang rasis dan membenci manusia karena ia belajar dari netizen yang berinteraksi dengannya. Artinya, netizen yang membuat chatbot menjadi mesin penyebar kebencian.
Untuk meredam situasi, Microsoft telah meminta maaf kepada seluruh pihak yang merasa tersinggung atas percakapan yang dibuat oleh chatbot miliknya. Saat ini, chatbot Tay jiga sudah dinonaktifkan dan tidak lagi beroperasi.
Baca Juga: Hidupkan Lagi Flight Simulator, Microsoft Habiskan Data 2 Ribu TB
Itulah chatbot Tay yang jadi pemicu Taylor Swift ingin menggugat Microsoft. (Suara.com/ Tivan Rahmat).