Jakarta, CNN Indonesia —
Pengembang chatbot dengan kecerdasan buatan (AI) ChatGPT, OpenAI, tak tinggal diam usai platformnya diblokir di Italia. OpenAI akan mengirim sejumlah dokumen yang diminta Otoritas Data Italia (Garante) agar pemblokiran bisa dicabut.
OpenAI membuat ChatGPT offline di Italia setelah Garante pada pekan lalu memblokir sementara dan memulai penyelidikan atas dugaan pelanggaran aturan privasi oleh platform tersebut.
Garante menuduh OpenAI gagal memeriksa usia pengguna ChatGPT dan “tidak adanya dasar hukum yang membenarkan pengumpulan dan penyimpanan data pribadi secara besar-besaran.”
Pada Kamis (30/3), OpenAI mengatakan tidak berniat untuk mengerem pengembangan AI. Namun, mereka menegaskan pentingnya menghormati aturan yang bertujuan untuk melindungi data pribadi warga negara Italia dan Eropa.
Dalam sebuah konferensi video pada Rabu (5/4) yang dihadiri oleh CEO Sam Altman, OpenAI berjanji untuk lebih transparan dalam menangani data pengguna dan memverifikasi usia pengguna.
Dikutip dari Reuters, perusahaan tersebut mengatakan akan mengirimkan dokumen kepada Garante mengenai langkah-langkah untuk menanggapi permintaannya pada Kamis (6/4).
Otoritas data mengatakan akan mengevaluasi proposal yang dibuat oleh OpenAI.
Sebuah sumber yang mengetahui masalah ini mengatakan bahwa kemungkinan akan memakan waktu beberapa hari untuk menilai isi surat yang disampaikan OpenAI tersebut.
OpenAI, yang berbasis di San Francisco, tidak menanggapi permintaan komentar atas pernyataan badan tersebut.
Larangan oleh Italia telah memicu regulator privasi lainnya di Eropa yang sedang mempelajari apakah tindakan yang lebih keras diperlukan untuk chatbots dan apakah akan mengoordinasikan tindakan tersebut.
Di Italia, larangan pada perusahaan AI bukan pertama kalinya terjadi. Pada Februari, Garante melarang perusahaan chatbot AI, Replika, untuk menggunakan data pribadi pengguna Italia, dengan alasan adanya risiko terhadap anak di bawah umur dan orang-orang yang rapuh secara emosional.
Privasi menjadi masalah yang melingkupi ChatGPT. Baru-baru ini, tiga karyawan Samsung tak sengaja membocorkan data penting perusahaan saat menggunakan ChatGPT untuk membantu pekerjaanya.
Dikutip dari Mashable, tiga karyawan itu berasal dari divisi semikonduktor Samsung. Divisi tersebut memang membolehkan para insinyurnya menggunakan ChatGPT untuk mengecek kode sumber.
Sayangnya, ketiga karyawan itu menggunakan ChatGPT dengan ceroboh. Mereka membocorkan antara lain kode sumber rahasia ke kolom obrolan (chat) ChatGPT untuk menguji kesalahan.
(lom/lth)
[Gambas:Video CNN]
Sumber: www.cnnindonesia.com