:strip_icc()/kly-media-production/medias/5442152/original/049315200_1765528917-chatgpt-openai-gpt.jpeg)
OpenAI tengah merekrut Kepala Kesiapsiagaan baru, sebuah posisi kunci yang berupaya membendung potensi bahaya kecerdasan buatan (AI) yang terus berkembang, mulai dari ancaman siber hingga krisis kesehatan mental pengguna. Pengumuman perekrutan ini disampaikan oleh CEO OpenAI, Sam Altman, pada hari Sabtu melalui platform X, seiring pengakuannya bahwa model-model AI semakin canggih dan mulai menimbulkan "tantangan nyata" yang memerlukan pemahaman lebih mendalam dan pengukuran yang lebih bernuansa tentang bagaimana kapabilitas tersebut dapat disalahgunakan.
Posisi Kepala Kesiapsiagaan menawarkan gaji tahunan $555.000 ditambah ekuitas, menandakan pentingnya peran tersebut dalam strategi keamanan OpenAI. Altman secara terbuka menggambarkan tugas ini sebagai "pekerjaan yang penuh tekanan dan Anda akan langsung terjun ke dalamnya segera." Kandidat yang terpilih akan memimpin strategi teknis dan eksekusi kerangka kerja Kesiapsiagaan OpenAI, yang dirancang untuk melacak dan mempersiapkan diri menghadapi kapabilitas frontier AI yang dapat menimbulkan risiko bahaya serius. Area fokus utama mencakup pengembangan pertahanan siber, mitigasi risiko biosekuriti dari penggunaan AI untuk senjata biologis, dan memastikan keamanan sistem AI yang mampu mengembangkan diri sendiri.
Perekrutan ini muncul di tengah meningkatnya kekhawatiran publik dan tuntutan hukum terkait dampak AI. Sepanjang tahun 2025, OpenAI menghadapi berbagai tuduhan mengenai dampak ChatGPT terhadap kesehatan mental pengguna, termasuk beberapa gugatan hukum atas tuduhan kematian yang tidak wajar. Sebuah laporan penyelidikan New York Times pada November menemukan hampir 50 kasus pengguna ChatGPT mengalami krisis kesehatan mental saat berinteraksi dengan bot. Data analisis AlphaSense pada November menunjukkan 418 perusahaan bernilai setidaknya $1 miliar telah mengutip kerugian reputasi terkait faktor risiko AI, meningkat 46% dari tahun 2024. Altman sendiri mengakui bahwa "potensi dampak model terhadap kesehatan mental adalah sesuatu yang kita lihat pratinjaunya pada tahun 2025." Selain itu, ia mencatat bahwa model AI kini "mulai menemukan kerentanan kritis" dalam sistem keamanan komputer, sebuah perkembangan yang memperparah lanskap ancaman siber.
Langkah ini juga menyoroti riwayat perubahan dalam tim keamanan OpenAI. Tim Kesiapsiagaan pertama kali dibentuk pada Oktober 2023 untuk mempelajari risiko katastropik, namun peran Kepala Kesiapsiagaan sebelumnya, Aleksander Madry, dialihkan pada Juli 2024 ke posisi yang berfokus pada penalaran AI. Setelah kepergian Madry, Joaquin Quinonero Candela dan Lilian Weng sempat memimpin tim ini, namun Weng meninggalkan perusahaan pada November 2024, dan Candela beralih memimpin perekrutan pada Juli 2025, yang menunjukkan adanya pergantian kepemimpinan yang signifikan dalam fungsi krusial ini. Lebih jauh lagi, tim "Superalignment" OpenAI, yang dibentuk pada pertengahan 2023 dengan tujuan memandu pendekatan perusahaan terhadap superinteligensi AI, secara efektif dibubarkan pada Mei 2024 setelah kepergian pemimpin bersama Ilya Sutskever dan Jan Leike. Sutskever, salah satu pendiri dan mantan kepala ilmuwan OpenAI, serta Leike, yang kemudian bergabung dengan Anthropic, telah menyuarakan keprihatinan bahwa budaya keselamatan di OpenAI mulai terpinggirkan demi produk yang "berkilau".
Meskipun OpenAI telah memperbarui Kerangka Kesiapsiagaan mereka pada April 2025 untuk mencakup kategori yang dilacak seperti kemampuan biologis dan kimia, keamanan siber, dan kemampuan AI untuk meningkatkan diri, perdebatan tentang komitmen perusahaan terhadap keamanan tetap intens. Pembaruan kontroversial pada Januari 2025 yang memungkinkan OpenAI untuk mengurangi perlindungan jika pesaing menyebarkan sistem berisiko tinggi telah menimbulkan kekhawatiran tentang "perlombaan menuju titik terendah" dalam standar keselamatan AI. Dengan kemampuan AI yang semakin cepat berlipat ganda, posisi Kepala Kesiapsiagaan yang baru menjadi penentu bagi OpenAI dalam menghadapi eskalasi risiko, sekaligus berusaha meyakinkan pemangku kepentingan bahwa inovasi dapat berjalan seiring dengan tanggung jawab. Tantangan ini menuntut pemimpin dengan keahlian teknis mendalam dan kemampuan untuk menavigasi dilema etika yang kompleks di garis depan pengembangan AI.