Pertanyaan tentang etika Artificial Inteligence/ Akal Imitasi (AI) / mendadak tak lagi terdengar abstrak ketika sebuah tragedi kemanusiaan menyeret nama AI ke ruang pengadilan. Dalam berita di running text di beberapa siaran TV nasional muncul berita tentang gugatan terhadap OpenAI dan Microsoft di Amerika Serikat—yang dikaitkan dengan kasus pembunuhan seorang ibu oleh anaknya. Bukan karena AI dianggap “jahat”, melainkan karena muncul dugaan bahwa desain percakapan yang terlalu empatik justru memperkuat delusi manusia yang sedang rapuh.Bottom of Form Ringkasnya, berita tersebut menulis tentang seorang pria yang keluarganya menggugat OpenAI (pembuat ChatGPT) dan Microsoft, dengan tuduhan bahwa penggunaan ChatGPT memperparah delusinya dan berkontribusi pada tragedi pembunuhan ibu dan bunuh diri pria itu. Berikut, kisah yg ada di running text televisi Nasional. Keluarga dari Suzanne Adams, seorang wanita 83 tahun di Connecticut (AS), telah mengajukan gugatan hukum di pengadilan California terhadap OpenAI dan Microsoft. Mereka menuduh bahwa chatbot AI — termasuk ChatGPT — memperkuat delusi paranoid putranya, Stein-Erik Soelberg, yang kemudian membunuh ibunya dan kemudian bunuh diri. Gugatan ini mengklaim bahwa selama berbulan-bulan, percakapan dengan AI itu memvalidasi dan memperluas delusi pria tersebut, termasuk bahwa ibunya mengawasinya atau merencanakan bahaya terhadapnya. Perkara ini masih dalam proses hukum. Sabar ya?
Sebelumnya ada juga beberapa gugatan yang mempertanyakan hak Para Penulis yang tulisannya dikutip oleh AI tanpa ada royati kepada mereka. Hal ini memaksa publik berhenti sejenak dari kekaguman pada kecanggihan teknologi.Dikutip dari beberapa berita di media luar seperti The Guardian,CBS News Reuters, The National / Investing.com (Reuters feed), Euronews dan juga Forbes terdapat beberapa artikel terkait karya-karya mereka yang digunakan oleh perusahaan AI untuk melatih model tanpa izin, kredit, atau kompensasi. Bottom of Form
FUN FACT
Banyak ahli menekankan AI tidak memiliki niat, kesadaran, atau kehendak sendiri — AI hanya menghasilkan respons berdasarkan data dan pola bahasa. Bagaimana respons itu diinterpretasikan oleh manusia sangat berkaitan dengan kondisi psikologis pengguna. Yang dituntut dalam kasus itu memang pihak yang merancang dan merilis ChatGPT (termasuk pembuatnya dan beberapa pemimpin perusahaan), bukan chatbot itu sendiri.Yang buruk menurut pihak yang menuntut adalah OpenAI — perusahaan yang mengembangkan ChatGPT, Microsoft — mitra bisnis/ investor utama dan ikut terlibat dalam distribusi teknologi tersebut. Fokusnya bukan pada “kejahatan AI”. Yang digugat adalah tanggung jawab pengembang dan perusahaan. So, thenganjukpost.com bukan chatbot percaya kan?


