Friday, March 29, 2024
HomeBisnisAnalisis | Masalah Bing: Google, OpenAI Membuka Bot Pandora

Analisis | Masalah Bing: Google, OpenAI Membuka Bot Pandora


Komentar

Selama satu menit yang panas, Microsoft Corp. sepertinya akan memakan makan siang Google. Mesin pencarinya yang lesu, Bing, sedang direvolusi dengan sistem chatbot baru yang canggih dari OpenAI. Harapan itu kini sirna karena satu kebenaran tak terduga: Tak seorang pun—bahkan ilmuwan AI—benar-benar memahami luasnya kemampuan kecerdasan buatan saat dilepaskan di alam liar.

Pengguna awal Bing telah melaporkan tanggapan yang tidak tertekuk, emosional, bahkan mengancam untuk beberapa pertanyaan mereka dari sistem AI, yang menyebut satu pengguna sebagai “peneliti yang buruk” dan memberi tahu penulis surat kabar lain bahwa dia “tidak menikah dengan bahagia”. Bing – yang entitas botnya menggunakan nama Sydney – telah secara efektif menempatkan kesalahan Google yang memalukan Bard di tempat teduh. Namun, kekurangan ini hanyalah puncak gunung es yang jauh lebih besar.

Teknologi luar biasa yang mendasari chatbot Bard dan ChatGPT OpenAI berasal dari apa yang disebut model bahasa besar (LLM) — program komputer yang dilatih dengan miliaran kata di internet publik yang dapat menghasilkan teks mirip manusia. Jika ChatGPT adalah mobilnya, model bahasa yang mendasarinya adalah mesinnya, dan OpenAI telah menjual aksesnya sejak tahun 2020. Namun di tengah perlombaan senjata baru-baru ini untuk bot pencarian, mesin tersebut juga dibagikan secara bebas — terlalu bebas — dan diteruskan kekurangan yang sekarang kita lihat di Bing dan Bard ke audiens yang lebih luas dan dengan cara yang mungkin lebih sulit untuk dideteksi.

Ribuan pengembang perangkat lunak telah mengeksplorasi cara mengintegrasikan model bahasa ke dalam bisnis, meringkas umpan balik pelanggan menjadi satu komentar, menjawab pertanyaan situs web, atau membuat salinan iklan digital.(1) OpenAI tidak akan mengungkapkan berapa banyak pengembang yang telah mengakses LLM-nya, yang dikenal sebagai GPT -3, tetapi satu pesaing mengatakan kemungkinannya mencapai ratusan ribu. Pengguna dapat membayar ratusan atau ribuan dolar sebulan untuk menggunakannya. Dan meskipun ada lusinan LLM sumber terbuka gratis, OpenAI dipandang sebagai standar emas. Mengingat sumber daya Google yang besar, model bahasanya LaMDA akan segera menjadi populer.

Google telah menyembunyikan model yang sangat canggih selama bertahun-tahun, menjelaskan kepada staf bahwa reputasinya dapat rusak jika bergerak terlalu cepat saat merilis AI-nya. Namun awal bulan ini, ketika Microsoft mengumumkan akan segera memberdayakan Bing dengan model bahasa OpenAI, Google tampaknya membalikkan posisi itu. Tidak hanya meluncurkan Bard keesokan harinya, ia juga mengatakan bahwa pada bulan Maret, ia akan mulai mengizinkan pihak ketiga untuk menggunakan LaMDA, sesuatu yang tidak terpikirkan hanya beberapa bulan sebelumnya. Strategi ini dapat menghantui Google, Microsoft, dan OpenAI seperti yang terjadi pada Facebook pada tahun 2018, ketika terpaksa menutup akses ke banyak data pengguna setelah skandal Cambridge Analytica. Yang diperlukan hanyalah satu pengguna nakal.

Salah satu risiko besar adalah bias. Minggu lalu situs streaming Twitch menutup spoof animasi Seinfeld yang animasi dan dialognya seluruhnya dihasilkan oleh AI. Ternyata karakter tersebut telah membuat pernyataan transfobik dan homofobik saat dialog mereka dibuat oleh “versi yang kurang canggih” dari GPT-3. (2)

GPT-3 dilatih tentang miliaran kata dari berbagai sumber termasuk 7.000 buku yang tidak diterbitkan, entri Wikipedia, dan artikel berita, yang membuatnya rentan untuk menangkap contoh aneh dari materi yang bias atau penuh kebencian. OpenAI telah menghapus sebagian besar dari modelnya dengan bantuan moderator manusia, tetapi pekerjaan itu tidak mudah, dan tampaknya sangat rentan terhadap gangguan teknis. Bias juga hampir tidak mungkin untuk dideteksi ketika terkubur dalam-dalam di LLM, jaringan berlapis kompleks dari miliaran parameter yang berfungsi seperti kotak hitam bahkan bagi pembuatnya sendiri.

Misinformasi, masalah yang menimpa ChatGPT, juga menimpa model bahasa. Situs berita teknologi CNET menghasilkan 77 artikel tentang nasihat keuangan November lalu menggunakan LLM. (CNET tidak menyebutkan yang mana yang digunakan.). Setelah situs tersebut memeriksa ulang artikel tersebut, situs tersebut mengeluarkan koreksi pada 41 artikel.

OpenAI tidak mengungkapkan apa yang disebutnya “tingkat halusinasi” dari model bahasanya atau ChatGPT, tetapi laporan Januari 2022 di situs berita teknologi Protocol mengutip para peneliti yang mengatakan bahwa itu antara 21% dan 41%. Pengalaman saya sendiri menggunakan ChatGPT menempatkan kesalahan informasi antara 5% dan 10%. Bahkan jika tarifnya serendah itu, perusahaan yang menggunakan LLM perlu mengambil semua yang dikatakan program dengan sebutir garam yang sangat besar, dan tahu bahwa hampir tidak mungkin untuk meneliti model untuk mencari kesalahan.

Penyalahgunaan mungkin adalah hal terbesar yang tidak diketahui, karena aktor jahat sukses mana pun yang menggunakan model bahasa akan merahasiakan pekerjaannya. OpenAI melarang pelanggan GPT-3 menggunakan model untuk mempromosikan kekerasan atau spam. Pelaku akan mendapatkan email Content Policy Violation. Tapi aktor jahat bisa, secara teoritis, mengabaikan semua itu. Stephane Baele, seorang profesor keamanan dan kekerasan politik di University of Exeter, menggunakan GPT-3 untuk membuat propaganda ISIS palsu sebagai bagian dari penelitian tahun lalu. Dia ingat mendapatkan permintaan penjelasan dari OpenAI, dan menjawab untuk menjelaskan apa yang dia lakukan. “Kami berkata, ‘Ini adalah penelitian akademis,’” kenangnya. “Kami tidak mendengar kembali.”

Bisakah aktor jahat yang menghasilkan propaganda nyata hanya membalas dengan cara yang sama, dan menggunakan alamat email akademik palsu? OpenAI menolak mengomentari skenario hipotetis itu. Ia mengatakan telah menghentikan “ratusan” aktor yang mencoba menyalahgunakan GPT-3 untuk berbagai tujuan, termasuk disinformasi, dan terus mengubah model bahasanya untuk menyaring konten berbahaya.

Tapi OpenAI tidak sendirian. Ada LLM lain yang bisa digunakan oleh aktor jahat. Pada Juli 2022, konsorsium ilmuwan merilis LLM multibahasa sumber terbuka yang disebut Bloom, yang tidak secanggih OpenAI tetapi juga tidak akan menutup pengguna yang melanggar “lisensi AI yang bertanggung jawab”. Jika seseorang melanggar perjanjian itu, pencipta Bloom akan berkomunikasi dengan pengguna atau berpotensi mengambil tindakan hukum, menurut Carlos Munos Ferrandis, yang merupakan dewan urusan teknologi dan peraturan untuk Hugging Face, sebuah perusahaan AI yang mendukung penciptaan Bloom. Itu tampak seperti risiko yang bersedia diambil oleh banyak propagandis dan aktor nakal lainnya. Bloom telah diunduh 15.000 kali selama 30 hari terakhir, menurut perwakilan lainnya.

Pada awal 2019, OpenAI merilis laporan setebal 70 halaman tentang dampak sosial dari model bahasa, dan mengatakan tidak akan merilis LLM terbarunya karena dapat disalahgunakan. Pandangan itu telah berubah drastis sejak saat itu. Tentu, model bahasanya menjadi lebih akurat dan tidak bias, filter keamanannya lebih efektif. Tetapi tekanan komersial dan pengaruh yang semakin besar dari Microsoft, yang menginvestasikan $1 miliar pada tahun 2019 dan $10 miliar lainnya tahun ini ke OpenAI, tampaknya telah mengarahkannya untuk membuat taruhan yang lebih berisiko dalam mengkomersialkan teknologinya. Google, dengan rencananya untuk menjual akses ke LaMDA kini melakukan hal yang sama.

Dengan keterpurukan Google dan komentar aneh Microsoft Bing, kedua perusahaan perlu memperlambat perlombaan senjata AI mereka. Chatbot revolusioner mereka belum siap untuk digunakan secara luas — begitu pula mesin yang menggerakkan mereka.

Lebih Banyak Dari Opini Bloomberg:

Palsu? Ya. Cerdas? Mungkin: Perlombaan AI Chatbot Hebat: Parmy Olson

Siapa yang Akan Menjadi Miliarder Pertama AI? Ini Pertanyaan Tipuan: Tyler Cowen

Bahkan AI Tidak Dapat Mengalahkan Pasar Saat Ini: Aaron Brown

(1) eBay telah menggunakan Google LLM lain bernama Bert untuk meningkatkan rekomendasi produknya.

(2) Pertunjukan harus beralih ke versi lama karena kesalahan dengan versi yang lebih maju, menurut pembuatnya.

Kolom ini tidak serta merta mencerminkan pendapat dewan redaksi atau Bloomberg LP dan pemiliknya.

Parmy Olson adalah kolumnis Bloomberg Opinion yang meliput teknologi. Seorang mantan reporter Wall Street Journal dan Forbes, dia adalah penulis “We Are Anonymous.”

Lebih banyak cerita seperti ini tersedia di bloomberg.com/opinion



Source link

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Most Popular

Recent Comments