Ragamutama.com – Penggunaan ChatGPT kini semakin meluas berkat kemampuannya yang adaptif dalam membantu beragam tugas, mulai dari meringkas dokumen hingga menjawab pertanyaan-pertanyaan kompleks. Kemudahan aksesibilitas ini telah mendorong banyak individu mengintegrasikannya dalam rutinitas harian, baik untuk keperluan profesional maupun pribadi, seringkali tanpa mempertimbangkan potensi implikasi jangka panjangnya.
Di balik kecanggihan yang ditawarkan oleh teknologi kecerdasan buatan ini, Sam Altman, CEO OpenAI yang menaungi ChatGPT, memberikan peringatan penting bagi para penggunanya untuk lebih berhati-hati. Peringatan ini muncul sebagai respons atas aspek-aspek yang mungkin belum banyak disadari publik mengenai interaksi mereka dengan ChatGPT.
Melansir laporan dari PC Mag pada Senin (28/7/2025), Sam Altman secara lugas mengungkapkan bahwa percakapan yang dilakukan pengguna dengan ChatGPT tidak dilindungi oleh payung hukum. Ini berarti bahwa setiap informasi yang dibagikan, bahkan yang bersifat sangat pribadi atau sensitif sekalipun, berpotensi digunakan sebagai bukti dalam proses hukum. Altman bahkan secara blak-blakan menyebut kondisi ini sebagai “hal yang sangat kacau” dalam sebuah podcast “This Past Weekend” bersama Theo Vonn.
Ia menjelaskan bahwa OpenAI memiliki kewajiban hukum untuk menyimpan seluruh riwayat percakapan, termasuk yang diklaim telah dihapus oleh pengguna. “Jadi, kalau Anda bicara dengan ChatGPT tentang hal-hal paling sensitif, lalu ada gugatan atau semacamnya, kami mungkin diharuskan untuk menunjukkannya. Dan menurut saya itu sangat kacau,” tegas Altman, menyoroti celah privasi yang krusial ini.
Dalam diskusi tersebut, Altman juga mengemukakan urgensi pembentukan kerangka hukum atau kebijakan yang jelas mengenai isi obrolan antara pengguna dan program AI. Ia membandingkan kerahasiaan percakapan dengan ChatGPT dengan interaksi yang terjadi antara pasien dan dokter, klien dan pengacara, atau individu dengan terapis. Menurutnya, chatbot AI seharusnya diberikan perlindungan hukum yang setara. “Kalau Anda berbicara dengan pengacara atau dokter, ada perlindungan hukum. Tapi kami belum punya itu saat pengguna berbicara dengan ChatGPT,” ujarnya, seperti dikutip dari Futurism, Senin (28/7/2025). Altman berpendapat bahwa tidaklah masuk akal jika perusahaan AI seperti OpenAI dapat dipaksa untuk menyerahkan isi percakapan pengguna dalam proses hukum.
Fenomena di mana pengguna memperlakukan chatbot sebagai sosok layaknya terapis, pelatih hidup, atau penasihat hukum kini semakin lumrah. Padahal, tidak ada jaminan kerahasiaan yang mengikat dalam setiap interaksi dengan AI. Hal ini menjadikan isu privasi data sebagai perhatian utama, terutama mengingat belum adanya regulasi yang komprehensif terkait perlindungan data dalam percakapan berbasis AI.
Lebih lanjut, William Agnew, seorang peneliti dari Universitas Carnegie Mellon, menambahkan perspektif krusial yang dilansir CNET pada Jumat (25/7/2025). Ia memperingatkan bahwa model AI memiliki potensi untuk “memuntahkan” kembali informasi pribadi pengguna di sesi interaksi yang berbeda. Ini berarti data sensitif yang pernah dibagikan bisa saja muncul kembali dalam konteks yang tidak diinginkan, bahkan diakses oleh pihak ketiga.
Mendorong adanya kejelasan hukum terkait privasi data dalam pemanfaatan AI, Altman pun menyarankan agar pengguna berpikir dua kali sebelum mengungkapkan informasi paling rahasia mereka kepada chatbot seperti ChatGPT. Kesadaran akan risiko ini menjadi kunci utama dalam penggunaan teknologi AI yang bertanggung jawab.