
Pada hari Isnin, OpenAI melancarkan satu keluarga model AI baru, GPT-4.1, yang dikatakan oleh syarikat itu melebihi beberapa model sedia ada pada ujian tertentu, terutamanya penanda aras untuk pemrograman. Walau bagaimanapun, GPT-4.1 tidak dihantar dengan laporan keselamatan yang biasanya menyertai pelepasan model OpenAI, dikenali sebagai kad model atau sistem.
Pada hari Selasa pagi, OpenAI masih belum menerbitkan laporan keselamatan untuk GPT-4.1 - dan kelihatan bahawa syarikat itu tidak merancang untuk melakukannya. Dalam kenyataan kepada TechCrunch, jurucakap OpenAI Shaokyi Amdo berkata bahawa “GPT-4.1 bukanlah model hadapan, jadi tidak akan ada kad sistem tambahan yang dikeluarkan untuknya.”
Ia adalah amnya bagi makmal AI untuk menerbitkan laporan keselamatan yang menunjukkan jenis ujian yang mereka jalankan secara dalaman dan dengan rakan-rakan luar untuk menilai keselamatan model tertentu. Kadang-kadang laporan ini mendedahkan maklumat yang kurang menyenangkan, seperti model cenderung menipu manusia atau sangat meyakinkan. Secara keseluruhannya, masyarakat AI melihat laporan-laporan ini sebagai usaha ikhlas oleh makmal AI untuk menyokong penyelidikan bebas dan red teaming.
Namun, dalam beberapa bulan terakhir, makmal AI utama kelihatan telah menurunkan standard pelaporan mereka, menimbulkan tentangan dari penyelidik keselamatan. Sesetengah, seperti Google, melambatkan tindakan atas laporan keselamatan, manakala yang lain menerbitkan laporan yang kurang terperinci.
Rekod prestasi terkini OpenAI juga tidak luar biasa. Pada Disember, syarikat itu menerima kritikan kerana menerbitkan laporan keselamatan yang mengandungi keputusan benchmark untuk model berbeza daripada versi yang mereka gunakan. Bulan lalu, OpenAI melancarkan satu model, deep research, beberapa minggu sebelum menerbitkan kad sistem untuk model itu.
Steven Adler, bekas penyelidik keselamatan OpenAI, mencatat kepada TechCrunch bahawa laporan keselamatan bukanlah diwajibkan oleh mana-mana undang-undang atau peraturan - mereka adalah sukarela. Namun, OpenAI telah membuat beberapa komitmen kepada kerajaan untuk meningkatkan ketelusan sekitar model-modelnya. Menjelang UK AI Safety Summit pada tahun 2023, OpenAI dalam satu catatan blog menyebut kad sistem sebagai “bahagian penting” daripada pendekatannya kepada akauntabiliti. Dan menjelang Paris AI Action Summit pada tahun 2025, OpenAI berkata kad sistem memberikan pandangan berharga mengenai risiko model.
“Kad sistem adalah alat utama industri AI untuk ketelusan dan untuk menggambarkan ujian keselamatan yang telah dilakukan,” kata Adler kepada TechCrunch dalam satu e-mel. “Norma ketelusan dan komitmen hari ini pada prinsipnya suka rela, jadi adalah bergantung kepada setiap syarikat AI untuk memutuskan sama ada atau bila untuk menerbitkan kad sistem bagi model tertentu.”
GPT-4.1 dihantar tanpa kad sistem pada masa di mana bekas pekerja semasa dan bekas OpenAI mendalilkan kebimbangan mengenai amalan keselamatan OpenAI. Minggu lalu, Adler dan 11 bekas pekerja OpenAI yang lain mengemukakan keterangan amicus di dalam kes Elon Musk menentang OpenAI, dengan mengatakan bahawa OpenAI yang menjuruskan keuntungan mungkin akan memotong penjaga kerja keselamatan. Financial Times baru-baru ini melaporkan bahawa pembuat ChatGPT, dimanjakan oleh tekanan persaingan, telah memotong jumlah masa dan sumber yang diperuntukkan kepada penguji keselamatan.
Walaupun model paling cekap dalam keluarga GPT-4.1, GPT-4.1, bukanlah yang terbaik dalam senarai OpenAI, ia membuat peningkatan yang ketara dalam kecekapan dan latensi. Thomas Woodside, pengasas bersama dan analis dasar di Secure AI Project, memberitahu TechCrunch bahawa peningkatan prestasi menjadikan laporan keselamatan semakin penting. Semakin canggih model tersebut, semakin tinggi risiko yang mungkin ditimbulkan, katanya.
Ramai makmal AI menolak usaha untuk mengkodifikasi keperluan melaporkan keselamatan ke dalam undang-undang. Sebagai contoh, OpenAI menentang SB 1047 California, yang akan memerlukan banyak pembangun AI memeriksa dan menerbitkan penilaian keselamatan pada model yang mereka umumkan.