Документ посвящен использованию Red Teaming как инструмента для тестирования и оценки систем искусственного интеллекта (ИИ) с целью обеспечения социального блага.
Особое внимание уделяется выявлению стереотипов, предвзятости и потенциальных вредов, связанных с генеративным ИИ. Ключевые выводы включают способность Red Teaming выявлять уязвимости в моделях ИИ, которые могут способствовать технологически обусловленному гендерному насилию. Документ предоставляет практические примеры и рекомендации по использованию Red Teaming для решения этих проблем. Он подчеркивает важность участия организаций и сообществ в тестировании и оценке ИИ для предотвращения негативных последствий.