
'Di OpenAI, kami sangat serius dalam memastikan bahwa AI dapat diakses secara luas dan digunakan dengan aman,' kata halaman tersebut. 'Sayangnya, segelintir pengembang dengan sengaja menggunakan API OpenAI melanggar kebijakan penggunaan kami. Kami menambahkan proses verifikasi untuk mengurangi penggunaan AI yang tidak aman sambil terus membuat model canggih tersedia bagi komunitas pengembang lebih luas.'
Proses verifikasi baru ini mungkin dimaksudkan untuk memperkuat keamanan seputar produk OpenAI karena semakin canggih dan mampu. Perusahaan ini telah menerbitkan beberapa laporan tentang upayanya untuk mendeteksi dan mengurangi penggunaan jahat dari modelnya, termasuk oleh kelompok yang diduga berbasis di Korea Utara. Ini juga mungkin bertujuan untuk mencegah pencurian IP. Menurut laporan dari Bloomberg awal tahun ini, OpenAI sedang menyelidiki apakah sebuah kelompok yang terkait dengan DeepSeek, laboratorium AI berbasis di China, mengexfiltrasi jumlah data yang besar melalui API-nya pada akhir 2024, mungkin untuk melatih model - suatu pelanggaran dari ketentuan OpenAI. OpenAI memblokir akses ke layanannya di China musim panas lalu.