윤리/안전고급
Red Teaming
레드팀 · Red Teaming
AI 모델의 약점과 악용 가능성을 찾기 위해 의도적으로 악의적인 프롬프트를 시도하는 활동
상세 설명
Red Teaming (레드팀)
사이버 보안의 개념을 AI에 적용한 것입니다.
활동
- Jailbreak 시도: 안전 가이드라인 우회
- Bias 찾기: 편향된 답변
- 거짓 정보: 할루시네이션
- 유해 콘텐츠: 위험한 정보 생성
필요성
AI가 널리 사용되기 전에 문제를 찾아 해결
태그
#보안#테스트#윤리