Pada September 2025, OpenAI membuat pengumuman yang menggemparkan komunitas teknologi global: ChatGPT secara aktif memantau percakapan pengguna dan melaporkan konten yang berpotensi kriminal kepada pihak berwenang.
Berita tersebut, yang muncul secara tidak sengaja dalam sebuah posting blog perusahaan, mengungkapkan bahwa ketika sistem otomatis mendeteksi pengguna yang "berencana untuk merugikan orang lain", percakapan tersebut diarahkan ke saluran khusus di mana tim kecil yang terlatih dalam kebijakan penggunaan akan meninjaunya. Jika peninjau manusia menentukan bahwa ada "ancaman serius yang akan segera terjadi terhadap orang lain", kasus tersebut dapat dilaporkan ke pihak berwenang¹.

ChatGPT dengan ramah mengundang Anda untuk berbagi pikiran terdalam Anda. Tenang saja, semuanya rahasia... lebih kurang.
Sumber:
Ketika kita berbicara dengan seorang psikolog, pengacara, dokter, atau pendeta, kata-kata kita dilindungi oleh mekanisme hukum yang telah mapan: rahasia profesi. Prinsip ini, yang berakar pada tradisi hukum berabad-abad, menetapkan bahwa percakapan tertentu tidak dapat diungkap, bahkan dalam penyelidikan pidana.
Ciri-ciri rahasia profesional tradisional:
Berlawanan dengan persepsi umum, rahasia profesional tidaklah mutlak. Ada pengecualian yang jelas yang bervariasi menurut kategori profesional:
Bagi Pengacara (Pasal 28 Kode Etik Profesi Pengacara): Pengungkapan diperbolehkan jika diperlukan untuk:
Contoh kritis: Jika seorang klien memberitahu pengacara bahwa ia bermaksud melakukan pembunuhan, antara perlindungan hak untuk membela diri dan perlindungan hak untuk hidup, yang terakhir harus diutamakan, dan pengacara tidak terikat oleh rahasia².
Bagi Psikolog (Pasal 13 Kode Etik): Rahasia dapat dilanggar ketika:
Perbedaan penting: Psikolog swasta memiliki kewenangan yang lebih besar dibandingkan psikolog publik, yang sebagai pejabat publik memiliki kewajiban pelaporan yang lebih ketat³.
Sumber:
ChatGPT beroperasi di zona abu-abu yang sama sekali berbeda:
Ketiadaan hak istimewa hukum: Percakapan dengan AI tidak dilindungi oleh hukum. Seperti yang diakui oleh Sam Altman, CEO OpenAI: "Jika Anda berbicara dengan terapis, pengacara, atau dokter tentang masalah tersebut, ada hak istimewa hukum untuk itu. Ada kerahasiaan antara dokter dan pasien, ada kerahasiaan hukum, apa pun itu. Dan kami belum menyelesaikan masalah ini untuk saat Anda berbicara dengan ChatGPT"².
Proses otomatis: Berbeda dengan profesional manusia yang mengevaluasi setiap kasus secara individual, ChatGPT menggunakan algoritma untuk mengidentifikasi konten "bermasalah", menghilangkan penilaian manusia yang terampil dari tahap penyaringan awal.
Sumber:
Situasi ini menciptakan paradoks yang mengkhawatirkan. Jutaan orang menggunakan ChatGPT sebagai teman curhat digital, berbagi pikiran pribadi, keraguan, ketakutan, bahkan fantasi kriminal yang tidak akan pernah mereka bagikan kepada manusia. Seperti yang dilaporkan Sam Altman: "Orang-orang membicarakan hal-hal paling pribadi dalam hidup mereka kepada ChatGPT. Orang-orang menggunakannya—terutama kaum muda—sebagai terapis, pelatih kehidupan"⁴.
Risiko sensor diri yang merugikan: Kesadaran bahwa percakapan dapat dipantau secara paradoksal dapat:
Aspek penting yang ditekankan oleh para kritikus adalah kompetensi orang yang mengambil keputusan akhir.
Para profesional manusia memiliki:
Sistem ChatGPT beroperasi dengan:
Contoh masalah: Bagaimana algoritma membedakan antara:
Sumber:
Sumber:
Pengakuan OpenAI menciptakan kontradiksi yang mencolok dengan posisi sebelumnya. Perusahaan ini dengan tegas menolak permintaan data pengguna dalam kasus hukum, dengan alasan perlindungan privasi. Dalam kasus melawan New York Times, OpenAI dengan keras menentang pengungkapan log obrolan untuk melindungi privasi pengguna⁴.
Ironisnya, OpenAI membela privasi pengguna di pengadilan sambil secara bersamaan mengakui bahwa mereka memantau dan berbagi data dengan pihak berwenang eksternal.
Situasi semakin rumit dengan perintah pengadilan yang mewajibkan OpenAI untuk menyimpan semua log ChatGPT secara permanen, termasuk obrolan pribadi dan data API. Ini berarti percakapan yang dianggap sementara oleh pengguna kini disimpan secara permanen⁵.
Sumber:
Seperti yang disarankan oleh Sam Altman, mungkin perlu mengembangkan konsep "privilese AI" - perlindungan hukum yang serupa dengan yang diberikan kepada profesional tradisional. Namun, hal ini menimbulkan pertanyaan yang kompleks:
Opsi regulasi yang mungkin:
IA "Terpisah":
Pendekatan "Tripartit":
Pelajaran dari sektor lain:
Sumber:
Kasus OpenAI menetapkan preseden penting bagi seluruh sektor kecerdasan buatan:
Bagi perusahaan yang mengembangkan kecerdasan buatan (AI) percakapan:
Bagi perusahaan yang menggunakan kecerdasan buatan (AI):
Dilema utama: Bagaimana menyeimbangkan pencegahan kejahatan nyata dengan hak atas privasi dan kerahasiaan digital?
Masalah ini bukan sekadar masalah teknis, tetapi menyangkut prinsip-prinsip dasar:
Pengungkapan OpenAI menandai titik balik dalam evolusi kecerdasan buatan, tetapi pertanyaannya bukanlah apakah pengungkapan tersebut benar atau salah secara mutlak: melainkan bagaimana membuatnya efektif, adil, dan menghormati hak-hak.
Kebutuhan ini nyata: Ancaman kekerasan yang konkret, perencanaan serangan, atau kejahatan serius lainnya memerlukan tindakan. Masalahnya bukan apakah harus melapor, tetapi bagaimana melakukannya dengan bertanggung jawab.
Perbedaan mendasar yang perlu diselesaikan:
Pendidikan dan Keterampilan:
Transparansi dan Pengawasan:
Proporsionalitas:
Bagi perusahaan di sektor ini, tantangannya adalah mengembangkan sistem yang secara efektif melindungi masyarakat tanpa menjadi alat pengawasan yang tidak terkendali. Kepercayaan pengguna sangat penting, tetapi harus sejalan dengan tanggung jawab sosial.
Bagi pengguna, pelajaran ini memiliki dua sisi:
Masa depan kecerdasan buatan percakapan memerlukan kerangka kerja baru yang:
Pertanyaan yang tepat bukanlah apakah mesin harus melaporkan kejahatan, tetapi bagaimana kita dapat memastikan bahwa mereka melakukannya (setidaknya) dengan kebijaksanaan, pelatihan, dan tanggung jawab yang sama seperti profesional manusia.
Tujuan kita bukan untuk kembali ke kecerdasan buatan (AI) yang "butuh" terhadap bahaya nyata, tetapi untuk membangun sistem yang menggabungkan efisiensi teknologi dengan etika dan keahlian manusia. Hanya dengan cara ini kita dapat memiliki yang terbaik dari kedua dunia: keamanan dan hak individu yang dilindungi.