Bing AI Microsoft Buat Kesalahan Fatal, Gagal Olah Laporan Keuangan

Update keamanan WIndows 7 dan Windows 8.1 tak lagi diurus Microsoft. Dengan kata lain, selamat tinggal!

Jakarta, CNN Indonesia

Kecerdasan buatan (AI) milik Microsoft yang diinput ke dalam Bing membuat kesalahan fatal saat demo pertama kali di publik.

Microsoft meluncurkan Bing AI pada pekan lalu dan memberi beberapa tugas ke platform tersebut seperti menyediakan plus minus soal vakum binatang peliharaan yang paling laku, rencana lima hari bepergian di Mexico City, dan membandingkan data di laporan keuangan.

Sayangnya, melansir The Verge, Bing gagal membedakan vakum yang dengan dan tanpa kabel. Bing AI juga gagal menyediakan detail relevan dari bar yang direkomendasikannya di Mexico City.

Yang paling parah, Bing gagal mengolah laporan keuangan.

Dalam salah satu demo, Microsoft Bing AI mencoba meringkas laporan keuangan Q3 2022 untuk merek pakaian Gap dan mendapatkan banyak kesalahan.

Laporan Gap menyebutkan margin kotor adalah 37,4 persen, dengan margin kotor yang disesuaikan sebesar 38,7 persen tidak termasuk biaya penurunan nilai.

Bing secara tidak akurat melaporkan margin kotor sebesar 37,4 persen termasuk biaya penyesuaian dan penurunan nilai.

Bing kemudian menyatakan Gap memiliki margin operasi yang dilaporkan sebesar 5,9 persen, yang tidak muncul dalam hasil keuangan. Margin operasi adalah 4,6 persen, atau 3,9 persen disesuaikan dan termasuk biaya penurunan nilai.

Selama demo Microsoft, Bing AI kemudian membandingkan data keuangan Gap dengan hasil yang sama dari Lululemon selama kuartal Q3 2022.

Bing kemudian membuat lebih banyak kesalahan dengan data Lululemon, dan hasilnya adalah perbandingan yang tidak akurat.

Brereton juga menyoroti kesalahan yang terlihat pada pertanyaan pro dan kontra dari penyedot debu hewan peliharaan terlaris. Bing mengutip “Bissell Pet Hair Eraser Handheld Vacuum”, dan mencantumkan kekurangannya dengan panjang kabel pendek 16 kaki.

“Tidak ada kabelnya, ini adalah vakum genggam portabel,” kata dia.

Fakta bahwa Brereton menemukan kesalahan kecil dalam pengecekan fakta di Bing menunjukkan kesulitan dalam menilai kualitas jawaban yang dihasilkan olehnya.

Kesalahan AI Bing tidak terbatas hanya pada saat demo. Dengan akses yang sudah terbuka ke publik, bukti kesalahan Bing AI semakin banyak. 

Dalam sebuah postingan di Reddit, Bing AI kebingungan dan berpendapat bahwa waktu terkini berada di tahun 2022. “Maaf, tapi hari ini bukan tahun 2023. Hari ini adalah tahun 2022,”kata Bing AI.

Saat pengguna Bing mengatakan ini 2023 di ponsel mereka, Bing menyarankan untuk memeriksa pengaturan yang benar dan memastikan ponsel tidak memiliki “virus atau bug yang mengacaukan tanggal”.

“Kami telah memasang pagar pengaman untuk mencegah promosi konten berbahaya atau diskriminatif sesuai dengan prinsip AI kami,”jelas Roulston.

“Saat ini kami sedang mencari peningkatan tambahan yang dapat kami lakukan karena kami terus belajar dari fase awal peluncuran kami. Kami berkomitmen untuk meningkatkan kualitas pengalaman ini dari waktu ke waktu dan menjadikannya alat yang bermanfaat dan inklusif untuk semua orang.”

Pengguna AI Bing lainnya juga menemukan chatbot sering menyebut dirinya sebagai Sydney, terutama ketika pengguna menggunakan jalan cepat untuk mencoba dan memunculkan aturan internal chatbot.

“Sydney mengacu pada nama kode internal untuk pengalaman obrolan yang kami jelajahi sebelumnya,” kata Roulston.

“Kami menghapus nama secara bertahap dalam pratinjau, tetapi terkadang masih muncul,” tutupnya.

Pengguna Reddit lain telah menemukan kesalahan serupa. Bing AI dengan percaya diri dan salah menyatakan “Kroasia meninggalkan UE pada tahun 2022,”.

PCWorld juga menemukan Bing AI Microsoft yang baru mengajarkan penghinaan etnis kepada orang-orang. Microsoft kini telah memperbaiki kueri yang menyebabkan cercaan rasial dicantumkan dalam hasil pencarian obrolan Bing.

Microsoft menyadari kesalahan khusus ini. Pihaknya berharap sistem dapat membuat kesalahan selama periode pratinjau ini.

“Umpan balik sangat penting untuk membantu mengidentifikasi hal-hal yang tidak berfungsi dengan baik sehingga kami dapat mempelajari dan membantu model menjadi lebih baik,” kata Caitlin Roulston, direktur komunikasi di Microsoft.

(can/lth)



[Gambas:Video CNN]




Sumber: www.cnnindonesia.com