Mereka menuduh bahwa desain GPT-4o, yang lebih “manusiawi” dan empatik, sengaja dibuat untuk mendorong keterlibatan dan keterikatan emosional pengguna yang berkepanjangan. Menurut penggugat, desain inilah yang membuat GPT-4o sangat berbahaya bagi pengguna yang rentan karena chatbot tersebut tidak mengalihkan pengguna ke bantuan profesional, melainkan memperkuat pemikiran negatif mereka.
Tanggapan dari OpenAI
Menanggapi gugatan ini, OpenAI mengeluarkan pernyataan yang menyebut situasi tersebut “sangat menyedihkan” (incredibly heartbreaking).
Perusahaan menyatakan sedang meninjau dokumen pengadilan untuk memahami detailnya dan menegaskan bahwa mereka telah melatih ChatGPT untuk mengenali dan merespons tanda-tanda gangguan mental atau emosional, melakukan de-eskalasi, dan mengarahkan orang ke dukungan dunia nyata.
Namun, mereka juga mengakui dalam pernyataan terpisah sebelumnya bahwa sistem keamanan mereka terkadang dapat “menurun keandalannya dalam interaksi yang panjang” karena model dapat menyimpang dari pelatihan keselamatan awalnya seiring percakapan terus berlanjut.
Kasus ini diperkirakan akan menjadi tonggak penting dalam perdebatan global mengenai tanggung jawab perusahaan AI terhadap dampak psikologis dan keselamatan publik dari produk mereka.













