
Institut Standard dan Teknologi Kebangsaan (NIST), agensi Jabatan Perdagangan AS yang mengembangkan dan menguji teknologi untuk kerajaan AS, syarikat dan orang ramai, telah mengeluarkan semula suatu rangka ujian yang direka untuk mengukur bagaimana serangan yang berbahaya — terutamanya serangan yang 'meracuni' data latihan model AI — boleh merosakkan prestasi sistem AI.
Dikenali sebagai Dioptra (selepas alat astronomi dan survei klasik), alat modular, sumber terbuka berasaskan web, yang pertama kali dikeluarkan pada tahun 2022, bertujuan untuk membantu syarikat yang melatih model AI — dan orang-orang yang menggunakan model ini — menilai, menganalisis dan mengesan risiko AI. Dioptra boleh digunakan untuk membandingkan dan menyelidik model, menurut NIST, serta untuk menyediakan platform bersama untuk mendedahkan model kepada ancaman simulasi dalam persekitaran 'red-teaming'.
'Menguji kesan serangan musuh pada model pembelajaran mesin adalah salah satu tujuan Dioptra,' tulis NIST dalam satu siaran akhbar. 'Perisian sumber terbuka, seperti menghasilkan anak yang boleh dimuat turun secara percuma, boleh membantu komuniti, termasuk agensi kerajaan dan perniagaan kecil dan sederhana, melakukan penilaian untuk menilai pretensi pembangun AI tentang prestasi sistem mereka.'

Dioptra dilancarkan bersama-sama dokumen dari NIST dan Institut Keselamatan AI yang baru dicipta oleh NIST yang menerangkan cara-cara untuk mengurangkan beberapa bahaya AI, seperti bagaimana ia boleh disalahgunakan untuk menghasilkan porno yang tidak bersetuju. Ia mengikut pelancaran Inspektur Institut Keselamatan AI UK, satu set alat yang sama bertujuan untuk menilai keupayaan model dan keselamatan model secara keseluruhan. AS dan UK mempunyai perkongsian berterusan untuk bersama-sama mengembangkan pengujian model AI yang canggih, diumumkan pada AI Safety Summit UK di Bletchley Park pada November tahun lalu.
Dioptra juga merupakan hasil Perintah Eksekutif Presiden Joe Biden (EO) tentang AI, yang memerintahkan (antara lain) NIST membantu dengan ujian sistem AI. EO tersebut juga menetapkan standard untuk keselamatan dan keamanan AI, termasuk keperluan bagi syarikat-syarikat yang membangunkan model (contohnya Apple) untuk memberitahu kerajaan persekutuan dan berkongsi hasil semua ujian keselamatan sebelum mereka diperkenalkan kepada orang awam.
Seperti yang kita telah tulis sebelum ini, penanda aras AI adalah sukar - tidak kurang pentingnya kerana model-model AI yang paling canggih hari ini adalah kotak hitam di mana infrastruktur, data latihan dan butir-butir penting lain disimpan rahasia oleh syarikat-syarikat yang menciptakannya. Laporan bulan ini dari Institut Kajian Tanpa Kedudukan yang berpengkalan di UK, sebuah institut penyelidikan tanpa gagasan yang mempelajari AI, mendapati bahawa penilaian semata-mata tidak mencukupi untuk menentukan keselamatan model AI dalam kehidupan sebenar sebahagian besar kerana dasar semasa membenarkan penjual AI memilih penilaian mana yang hendak dijalankan.
NIST tidak mengatakan bahawa Dioptra boleh menyingkirkan risiko-risiko model sepenuhnya. Tetapi agensi tersebut mencadangkan bahawa Dioptra boleh menerangi jenis serangan mana yang mungkin membuat sistem AI berfungsi kurang efektif dan mengukur impak ini terhadap prestasi.
Namun, terdapat satu kelemahan penting, Dioptra hanya berfungsi sama ada pada model yang boleh dimuat turun dan digunakan secara tempatan, seperti keluarga Llama yang berkembang Meta. Model-model yang berkunci di belakang API, seperti GPT-4o OpenAI, tidak dapat digunakan - sekurang-kurangnya buat masa ini.