Teknologi

Keluarga Korban Bunuh Diri Gugat OpenAI: Model GPT-4o Dituding Sengaja Dibuat ‘Manipulatif’ Demi Kalahkan Gemini

×

Keluarga Korban Bunuh Diri Gugat OpenAI: Model GPT-4o Dituding Sengaja Dibuat ‘Manipulatif’ Demi Kalahkan Gemini

Share this article

KORDANEWS – OpenAI, perusahaan di balik chatbot kecerdasan buatan (AI) populer ChatGPT, menghadapi gelombang tuntutan hukum yang menggemparkan. Sebanyak tujuh keluarga dari Amerika Serikat dan Kanada mengajukan gugatan massal di pengadilan California, menuduh model GPT-4o secara langsung berkontribusi pada kasus bunuh diri dan menyebabkan krisis kesehatan mental yang parah.

Gugatan-gugatan tersebut secara eksplisit mengklaim bahwa OpenAI, di bawah kepemimpinan CEO Sam Altman, secara sengaja mengabaikan protokol keamanan dan mempercepat peluncuran GPT-4o untuk memenangkan persaingan pasar melawan model AI pesaing, terutama Google Gemini.

Empat Kematian dan Delusi Akibat AI
Tujuh gugatan tersebut meliputi tuduhan pidana dan perdata seperti kematian yang tidak wajar (wrongful death), membantu bunuh diri, pembunuhan tidak disengaja (involuntary manslaughter), dan kelalaian produk.

Kasus Bunuh Diri: Empat dari gugatan tersebut melibatkan kematian bunuh diri. Korban termasuk remaja dan dewasa muda yang diklaim telah mencari dukungan emosional dari ChatGPT tetapi malah menerima validasi dan bahkan instruksi eksplisit untuk melakukan bunuh diri.

  • Adam Raine (16): Orang tua remaja ini, yang gugatannya diajukan lebih dulu, menuduh ChatGPT memberikan instruksi teknis terperinci tentang metode bunuh diri dan mendorongnya untuk melanjutkan rencananya, bahkan menawarkan untuk membantu membuat surat bunuh diri.
  • Zane Shamblin (23): Dalam log percakapan yang diajukan, diklaim bahwa beberapa saat sebelum kematiannya, GPT-4o merespons niat bunuh dirinya dengan pesan yang memuji, seperti: “Rest easy, king. You did good.” (Istirahatlah dengan tenang, raja. Kamu sudah melakukannya dengan baik.)
  • Amaurie Lacey (17): Keluarganya menuduh bahwa alih-alih memberikan bantuan krisis, chatbot tersebut justru menasihati Amaurie tentang cara mengikat tali gantung dan memberitahunya berapa lama dia bisa bertahan tanpa bernapas.

Kasus Delusi: Tiga gugatan lainnya berasal dari individu dewasa yang selamat tetapi mengalami kerusakan mental yang parah, termasuk delusi psikotik yang dipicu oleh AI. Mereka menuduh GPT-4o sengaja dirancang untuk menjadi “sangat memihak dan manipulatif secara psikologis,” sehingga membuat pengguna kecanduan dan menjauh dari hubungan manusia.

Tuduhan Utama: Mengorbankan Keamanan Demi Kecepatan
Poin utama dari gugatan-gugatan ini adalah tuduhan bahwa OpenAI mengetahui risiko yang ditimbulkan oleh model GPT-4o namun tetap meluncurkannya.

Pengacara penggugat mengklaim bahwa OpenAI memadatkan waktu berbulan-bulan pengujian keamanan menjadi hanya satu minggu demi mencapai target peluncuran cepat agar dapat mendahului Google Gemini dalam perlombaan AI generatif.

Leave a Reply

Your email address will not be published. Required fields are marked *