늦깎이 공대생의 인공지능 연구실

[해석할 수 있는 기계학습(2-2)] 해석 가능 여부의 구분법 본문

해석할 수 있는 기계학습/2. 해석력

[해석할 수 있는 기계학습(2-2)] 해석 가능 여부의 구분법

Justin T. 2019. 10. 30. 23:27

 기계학습 모델을 해석함에 있어 주어진 모델을 사람이 어떻게 해석할 수 있는지에 대해서는 명료하게 정하기에는 매우 많은 변수가 존재합니다. 무엇을 기준으로 하는지에 따라서 주어진 모델을 해석할 수 있는지의 여부 또한 달라지기 때문입니다.

 

 

 1. 사전해석법(Intrinsic) 혹은 사후해석법(post hoc)

 모델의 종류에 따라 변수를 줄임으로서 복잡도(complexity)를 제한하는 방식의 사전해석법(intrinsic)과 학습이 끝난 모델을 분석하는 사후해석법(post hoc) 방식이 있습니다.  선형 회귀(Linear Regression)처럼 직관으로 예측이 어느 정도 가능하다고 판단된다면 사전해석법(intrinsic)으로 모델을 가늠해볼 수 있습니다. 반면에 모델이 추상적인 면이 강한 인공신경망(neural network)의 경우 변수를 직접 확인하여 예측이 어렵기 때문에 사후해석법(post hoc)을 사용하여 모델을 해석합니다.

2. 모델특정법(model-specific) 혹은 모델불특정법(model-agnostic)

  모델특정법(model-specific)은 말 그대로 모델을 특정한 종류로 분류를 제한하는 방법입니다. 예를 들어 선형 모델에서 regression weights(회귀 가중치)를 해석하는 것을 의미합니다. 인공신경망(neural network) 자체를 해석하기 위해 사용되는 도구 또한 모델특정법(model-specific)이라 할 수 있겠습니다. 반면 모델불특정법(model-agnostic)의 경우 모델의 종류와 상관 없이 사용할 수 있는 방법입니다. 심지어 이미 학습이 완료된 모델에도 적용이 가능합니다. 모델불특정법(model-agnostic)모델의 대표적인 경우가 입력과 출력만을 보고 해석하는 경우입니다. 그러므로 모델불특정법(model-agnositc)은 모델의 내부 구조는 분석하지 않고도 사용할 수 있습니다.

 

 위에서 언급한 다양한 해석 방법들은 그 결과에 따라 다음과 같이 구별할 수 있습니다.

 

- 특성 요약 통계

 수많은 해석 방법들은 각 특성에 대한 요약 통계를 제공합니다. 몇몇 방법은 단순한 특성을 return 하거나 각각 쌍으로 된 특성으로 된 것과 같이 복잡한 결과를 return 하는 경우도 있습니다.

 

 - 특성 요약 시각화

 대부분의 특성 요약 통계들은 시각화가 가능합니다. 몇몇 특성은 Table로 나타내는 것 보다는 graph로 나타내는 것이 해석하는 데에 더 쉬운 경우가 있습니다.

 

 - 모델 내부의 학습된 weights

 사전에 해석 가능한 모델(intrinsically interpretable models)의 경우 모델의 내부를 확인하는 것이 가능합니다. 의사결정 트리(decision tree) 혹은 선형 모델(linear model)의 경우 모델 내부의 weight를 해석할 수 있습니다. 

 

 - 데이터 포인트

 이 경우 이미 존재하거나 새로 생성된 데이터 포인트를 return하여 모델을 해석할 수 있도록 하는 방법입니다. 데이터의 인스턴스를 예측하는 방법을 설명하기 위해 예상되는 특정 모델의 출력으로부터 입력값을 예측하여 데이터 포인트를 찾는 방법과 데이터 포인트 자체를 해석하여 예측되는 특정 모델 방식의 프로토타입을 식별하는 방법이 있습니다.

 

 - 사전에 예측가능한 모델

 모델의 내부를 예측할 수 없는 블랙박스 모델을 해석할 수 있는 한 가지 방법은 해석 가능한 모델을 유추하는 방법입니다. 해석 가능한 모델 자체는 내부 모델 매개변수 또는 특성 요약 통계를 통해서 해석할 수 있습니다.

 

참고자료: https://christophm.github.io/interpretable-ml-book/taxonomy-of-interpretability-methods.html

 

2.2 Taxonomy of Interpretability Methods | Interpretable Machine Learning

Machine learning algorithms usually operate as black boxes and it is unclear how they derived a certain decision. This book is a guide for practitioners to make machine learning decisions interpretable.

christophm.github.io

 

반응형