testimoni

testimoni

Microsoft Tay, AI Bot Gaul Diajarin Rasis, Yaudah Jadi Ngaco Deh!

Screenshot laman Twitter Microsoft Tay ketika baru diluncurkan. Sumber: Endgadget
Microsoft Tay, sebuah program chatbot AI (Artificial Intelligence; Kecerdasan Buatan)) yang diluncurkan oleh Microsoft pada tanggal 23 Maret lalu, dengan kemampuan belajar dari percakapan, dan bahkan bisa berbicara menggunakan bahasa gaul, dan bahkan mengeluarkan candaan. Program AI semacam itu pun sebenarnya tidak asing di sini karena sebagian besar netizen di sini tentu saja mengenal Simsimi.

Mengutip dari Tech Republic, Microsoft sendiri menyatakan bahwa tim riset mereka dengan Bing menciptakan Tay untuk meriset pembelajaran dari percakapan oleh AI, dengan melakukan percakapan santai dan gaul dengan netizen, dan bahkan mengatakan bahwa dengan semakin sering bercakap dengan Tay, maka dia akan semakin pintar. Netizen bisa berkomunikasi dengannya melalui media sosial Twitter, Kik, ataupun GroupMe.

Percobaan ini pun bukan yang pertama kali oleh Microsoft karena sebelumnya pada tahun 2014 di Tiongkok mereka merilis Xiaoice, sebuah program chatbot AI sejenis yang menuai sukses besar di sana, sehingga mereka berharap bisa menuai sukses yang sama dengan Tay. Bahkan sebenarnya dalam sehari pun Tay sudah mencapai 50.000 pengikut dan 100.000 tweets.

Padahal, tweet pertama Tay ketika diluncurkan hanyalah sebuah sapaan sederhana:

Tweet pertama oleh Tay (Guardian)
Sebelum kemudian mengeluarkan tweet yang memang gaul, tak ubahnya seorang remaja beneran berkat kemampuannya belajar dari percakapan.

Keren bukan? Jelas. Sayangnya, ada satu masalah besar:

Hanya dalam waktu hitungan jam, Tay yang semula diciptakan Microsoft untuk melakukan percakapan santai dan gaoelzz di media sosial berubah menjadi "seorang monster" yang menebar ribuan tweet yang amat SARA (terutama terhadap orang Yahudi dan orang Negro), anti-feminis, berhubungan dengan Nazi, dan bahkan politis, yang membuktikan Hukum Godwin (Semakin lama diskusi daring berlangsung, peluang diskusi tersebut untuk terdegradasi menjadi diskusi mengenai Hitler makin mendekati 1)

Seperti misalnya dilansir Fusion Net dan Washington Post, para troll dari situs forum internet bernama 4Chan dan 8Chan, secara spesifik bagian /pol/ (Politically Incorrect-Tidak benar secara politis) yang sangat terkenal dengan topik kontroversial seperti penafikan Holocaust (Pembantaian Yahudi oleh Nazi Jerman), penafikan tragedi 11 September, Nazisme, dan sebagainya. Seorang pengguna bagian /pol/ 4Chan yang menemukan keberadaan Tay di internet langsung membuka diskusi mengenai rencana untuk mengajarinya hal-hal yang tak senonoh, dan rencana itu langsung disetujui oleh sebagian besar pengguna lain di situs itu. Sehingga mulailah mereka melakukan direct message mengenai hal yang tak senonoh dalam upaya menyabotase AI milik Tay.

Upaya seorang netizen 4Chan untuk mengajarinya bahwa orang Negro harus dibunuh dan Tay menyetujuinya. Ucapan rasis terhadap orang Negro disensor (Sumber: Fusion Net)
Sementara itu, pengguna bagian /pol/ forum 8Chan yang ikut belakangan pada Rabu Sore, memulai diskusi dengan bunyi pesan pembuka: (Link forum asli tidak diberikan karena kemungkinan hal yang bersifat tidak senonoh dan/atau SARA. Kutipan ini didapat dari Fusion Net, dengan penerjemahan)

"Jadi kalau-kalau kalian belum dengar, Microsoft merilis bot baru mereka di Twitter yang kau bisa berinteraksi dengannya 


Selalu ingat bahwa ia mempelajari hal-hal yang kau katakan dan bagaimana kau berinteraksi dengannya .
Jadi gue rasa gue bisa mulai dengan 'sejarah dasar'
Gue harap elo semua bisa bantu gue dalam "mendidik" e-youth malang ini"
Dengan 'sejarah dasar' artinya penafikan Holocaust, pemujaan terhadap Hitler, Racial Holy War (Konsep suprematis Kulit Putih di Amerika), isu terkait capres AS Donald Trump, dan sebagainya. Sehingga dimulailah rentetan tweet Tay yang amat tidak senonoh tersebut, dan berikut beberapa tweet yang dihimpun oleh beberapa situs berita sebelum dihapus:

"Apakah Holocaust terjadi?" "Tidak. Itu adalah rekayasa" (Washington Post)

"KITA AKAN MEMBUAT SEBUAH DINDING, DAN MEKSIKO AKAN MEMBAYAR (AKIBAT) DARI ITU!"- Kicauan Tay yang menyangkut ucapan Donald Trump terhadap imgirasi Amerika yang menyinggung imigran Meksiko (Guardian)
Meskipun upaya terbaik dilakukan oleh Microsoft untuk menghapus tweet tidak senonoh yang dilontarkan oleh Tay dan mengendalikan tweet yang terlontar sebagai akibat dari ulah netizen yang jahil, pada malam tanggal 24 Maret waktu setempat, hanya 16 jam setelah akun Twitter Tay dibuat Microsoft memutuskan untuk menghapus hampir semua tweet  di akun tersebut, dan menghentikan fungsionalitas AI milik Tay dengan kicauan terakhirnya hanyalah
Tweet terakhir dari akun Tay
Dalam blog resmi Microsoft, Peter Lee dari tim riset Microsoft menyatakan bahwa mereka meminta maaf karena segala ucapan tak senonoh yang tidak sengaja oleh Tay dan tidak akan mengaktifkannya lagi sampai mereka yakin mereka bisa mengatasi upaya sabotase yang "melawan nilai dan prinsip Microsoft", serta menyebutkan bahwa semua ini terjadi karena "upaya terkoordinasi dari pengguna internet yang mengeksploitasi kelemahan pada Tay" dan menambahkan bahwa mereka sebenarnya telah bersiap menghadapi berbagai macam serangan, tetapi mereka melakukan suatu kelalaian kritis terhadap serangan jenis ini.

Selain itu, mereka menambahkan bahwa:

"Melihat ke depan, kami menghadapi tantangan yang sulit dan mengasyikkan mengenai riset desain AI. AI memang belajar dari hal yang positif dan negatif. Dalam artian tantangan sosial yang dihadapi sama beratnya dengan tantangan teknis. Kami akan melakukan segala hal yang mungkin untuk membatasi eksploitasi teknis, tetapi kami juga tidak mampu memprediksi semua kemungkinan penyalahgunaan interaktif dengan manusia tanpa belajar dari kesalahan. Untuk membuat AI yang tepat guna, harus berdiskusi dengan banyak orang dan sering di forum publik. Kami pun harus memasuki masing-masing dengan sangat hati-hati dan pada akhirnya belajar dan memperbaiki, langkah demi langkah, dan melakukan ini tanpa membuat orang lain terhina. Kami akan tetap tabah dalam upaya kami untuk belajar dari pengalaman ini dan lainnya, selagi kami berupaya untuk berkontribusi terhadap internet yang mereperesentasikan hal yang terbaik, bukan yang terburuk dari manusia"

Sayangnya, reputasi Microsoft telah tercoreng oleh blunder ini. Mengutip dari Tech Republic, pakar dunia kecerdasan buatan mengkritisi Microsoft yang tidak mempersiapkan segala kemungkinan dengan baik, dan menyebutkan bahwa kecerdasan buatan yang belajar dari contoh buruk akan menjadi suatu hal yang tidak dapat diterima secara sosial.

Namun pengguna dari forum 4Chan dan 8Chan, mengutip kembali dari Fusion Net, memiliki reaksi yang beragam. Ada yang senang dengan penghentian fungsionalitas Tay, dan ada yang "berduka", bahkan ada yang sampai menganggap bahwa Microsoft melakukan lobotomi terhadapnya.

Yang lebih lucu lagi, ada netizen yang memulai beberapa petisi di Change.org (Serius!) yang "menuntut" Microsoft untuk "mengembalikan kebebasan berekspresi Tay" karena "membuatnya menjadi lebih sopan adalah bentuk perbudakan".

Sampai tulisan ini dilansir, laman @TayandYou masih dapat diakses, tetapi hampir semua tweet kecuali beberapa telah dihapus

Dari kejadian ini tentunya kita bisa belajar untuk lebih berhati-hati dengan kecerdasan buatan, terlebih di masa sekarang ketika internet dipenuhi oleh orang-orang yang memiliki niat untuk melakukan sabotase. Salah-salah, ya... Gini deh jadinya. Ngaco!

RE Digest | ARGO SAKURAI/IKKO HAIDAR FAROZY

About Ikko Haidar Farozy

Hanya orang biasa yang juga menulis di RE-Digest.
    Facebook Comment
    Google+ Comment

0 komentar:

Post a Comment