본문 바로가기

Adversarial attack2

[논문 리뷰] Adversarial Counterfactual Visual Explanations (CVPR 2023) 이번 포스팅에서는 CVPR 2023년에 나온 Adversarial Counterfactual Visual Explanations라는 논문을 리뷰하고자 한다. 논문은 여기에서 볼 수 있으며, 저자들이 추가적으로 발표 영상을 유튜브에 올려두었으니 참고하면 좋을 것 같다 🤩 TL;DR How may we use adversarial attacks to generate semantic changes for any model, regardless of its robustification? Preliminary 해당 논문을 이해하기 위해서는 제목에 들어가 있는 두 키워드를 이해할 필요가 있다. 첫 번째는 Counterfactual Explanation이고 두 번째는 Adversarial attack이다. 이와 관련.. 2024. 1. 27.
[XAI] Counterfactual Explanations Counterfactual Explanations이란? Counterfactual Explanations에 대한 설명은 유튜브 링크에서 잘 설명해주고 있다. 해당 포스트의 설명도 이 영상에서 많이 참고하여 작성되었다😎 Explainable AI (XAI)의 목적은 Black box인 AI 모델이 어떤 방식으로 동작을 했는지 설명하는 것이다. 그중 Counterfactual Explanation은 "만약 OO이 달라졌으면 결과가 어떻게 달라졌을까?"라는 가정을 통해서 AI 모델을 설명하게 된다. 예시를 하나 들어보자, 여러 feature (몸무게, 나이, 성별 등등)로 구성된 뇌졸중 데이터를 머신러닝 모델에 학습을 했다. 어떤 한 데이터에 대해서 머신러닝 모델은 90% 확률로 뇌졸중이라고 판단을 내렸다. .. 2024. 1. 22.