산업
"AI 판단 과정 더 투명해진다"… MIT, 설명가능성 높인 머신러닝 기법 공개
의료 진단이나 자율주행과 같은 안전성이 중요한 분야에서 인공지능AI이 어떤 이유로 특정 예측을 내렸는지 설명하는 능력은 신뢰 확보의 핵심 요소로 꼽힌다. 이러한 가운데 MIT 연구진이 AI 모델의 판단 근거를 보다 명확하게 설명할 수 있도록 하는 새로운 방법을 제시했다.미국 MIT 컴퓨터과학·인공지능연구소CSAIL는 9일현지시간 컴퓨터 비전 모델의 예측 과정을 보다 정확하고 명확하게 설명할 수 있도록 돕는 새로운 접근법을 개발했다고 밝혔다. 이번 연구는 AI 설명 가능성Explainable AI을 높이기 위한 대표적
이 콘텐츠는 인공지능신문 원본 기사의 요약입니다. 전문은 원본 사이트에서 확인해주세요.
원문 기사 보기 →