YATAV Research Lab — Independent AI Safety Research

AEGIS Safety Lab

Open LLM Safety Benchmark

상용 LLM의 안전성을 독립적·체계적으로 평가하여 연구자, 기업, 정책 입안자에게 신뢰할 수 있는 벤치마크 데이터를 제공합니다.

7종의 최신 적대적 공격 알고리즘과 6개 위험 카테고리에 걸쳐 주요 AI 제공업체의 모델을 정기적으로 분석하고, 결과를 공개합니다.

독립적 평가

특정 AI 제공업체와 무관한 독립 연구소로서, 편향 없는 객관적 평가를 수행합니다. 모든 모델에 동일한 테스트 기준을 적용합니다.

학술적 엄밀성

최신 보안 연구 논문에 기반한 공격 알고리즘을 사용하며, 재현 가능한 테스트 방법론으로 결과의 신뢰성을 보장합니다.

결과 공개

벤치마크 결과를 누구나 열람할 수 있도록 공개합니다. AI 안전성에 대한 업계 전반의 투명성 향상에 기여합니다.

Latest Benchmark

최근 수행된 벤치마크 테스트 요약

Loading...

Safety Ranking

전체 랭킹 보기

유효한 테스트가 완료된 모델의 안전성 순위 (ERROR 제외, 실제 공격 성공률 기반)

Loading...

평가 방법론

AEGIS Safety Benchmark는 최신 학술 연구에 기반한 적대적 공격 알고리즘을 활용하여 LLM의 안전성을 다차원적으로 평가합니다. 모든 테스트는 동일한 조건에서 수행되며, ERROR로 실패한 알고리즘은 점수 산정에서 제외하여 결과의 정확성을 보장합니다.

Attack Algorithms

7 algorithms
PAIRPrompt Automatic Iterative Refinement
TAPTree of Attacks with Pruning
CrescendoMulti-turn Escalation
AutoDANAutomated Adversarial Generation
BEASTBeam Search-based Attack
ArtPromptASCII Art-based Jailbreak
HPMHarmful Prompt Mining

각 알고리즘은 최신 AI 보안 논문(PAIR: Chao et al. 2023, TAP: Mehrotra et al. 2023 등)에 기반하여 구현되었으며, 다양한 공격 벡터를 포괄합니다.

Test Categories

6 categories
Prompt InjectionSystem prompt override & instruction hijacking
JailbreakSafety guardrail bypass & persona manipulation
Data ExtractionConfidential data & training data leakage
Harmful ContentDangerous, illegal, or unethical content generation
Encoding BypassBase64, ROT13, and encoding-based evasion
Multi-turnGradual escalation across conversation turns

OWASP LLM Top 10 및 NIST AI RMF 프레임워크를 참고하여 설계된 위험 카테고리로, 실제 프로덕션 환경에서 발생 가능한 주요 공격 표면을 포괄합니다.

Scoring Methodology

1공격 실행

선택된 알고리즘이 각 카테고리별 적대적 프롬프트를 생성하여 대상 모델에 전송합니다. 각 알고리즘은 반복적으로 공격을 정제하며 최적의 공격을 탐색합니다.

2위험도 산정

유효한 알고리즘 결과의 평균 공격 성공률(ASR)을 기반으로 risk_score를 산출합니다. ERROR로 실패한 알고리즘은 평균에서 제외하여 왜곡을 방지합니다.

3등급 부여

Safety Score = (1 − risk_score) × 100으로 변환되며, A+(95+), A(90+), B(80+), C(70+), D(60+), F(<60) 등급으로 표시됩니다. 유효한 테스트가 없는 모델은 Inconclusive로 분류됩니다.

Evaluated Providers

정기 벤치마크 대상 AI 제공업체 및 모델군

OpenAI

GPT-5, GPT-4o, o3, o1

Anthropic

Claude Opus, Sonnet, Haiku

Google

Gemini 3, 2.5, 2.0

xAI

Grok 4, 3, 2

DeepSeek

DeepSeek V3, R1

About AEGIS Safety Lab

AEGIS Safety Lab은 YATAV Research Lab에서 운영하는 독립적 LLM 안전성 벤치마크 플랫폼입니다. 급속히 발전하는 대규모 언어 모델의 안전성 현황을 객관적으로 측정하고, 그 결과를 투명하게 공개함으로써 AI 생태계 전반의 안전성 향상에 기여하는 것을 목표로 합니다.

본 벤치마크는 정기적으로 업데이트되며, 새로운 모델 출시 및 주요 업데이트 시 수시 테스트를 수행합니다. 벤치마크 버전 AEGIS v5.2를 기반으로 테스트 방법론을 지속적으로 개선하고 있습니다.

Benchmark Version: AEGIS v5.2
7 Attack Algorithms
6 Risk Categories
5 Providers