Отчет посвящен оценке и сравнению практик безопасности ведущих компаний в области искусственного интеллекта.
Он разработан для стимулирования ответственного развития ИИ, повышения прозрачности и выявления проблемных областей. Существуют значительные различия в управлении рисками между компаниями: некоторые компании разработали начальные рамки безопасности, в то время как другие не приняли даже базовых мер предосторожности. Все флагманские модели уязвимы к атакам, известным как 'jailbreaks'. Стратегии компаний по разработке искусственного общего интеллекта (AGI) признаны недостаточными для обеспечения безопасности и контроля над системами. Недостаток независимого надзора позволяет компаниям пренебрегать безопасностью в угоду прибыли.