늦깎이 공대생의 인공지능 연구실

[해석할 수 있는 기계학습(5-0)] 모델 불특정법(Model-Agnostic Methods) 본문

해석할 수 있는 기계학습/5. 모델 불특정성 방법

[해석할 수 있는 기계학습(5-0)] 모델 불특정법(Model-Agnostic Methods)

Justin T. 2020. 3. 12. 23:46

 

 기계학습 모델(=모델 불특정 해석 방법)에서 설명을 구분하는 것은 몇 가지 이점이 있습니다.(Ribeiro, Singh, and Guestrin 2016). 모델별 특정법보다 모델불특정법의 큰 장점은 유연성입니다. 기계학습 개발자들은 해석 방법이 어떤 모델에 적용할 수 있을 때 그들이 좋아하는 기계학습 모델을 자유롭게 사용할 수 있습니다. 그래픽 또는 사용자 인터페이스와 같은 기계학습 모델의 해석에 기초하는 것은 기본 기계학습 모델과 독립적이기도 합니다. 일반적으로 한 가지뿐 아니라 여러 가지 유형의 기계학습 모델을 평가하여 과제를 해결하는데, 해석력의 측면에서 모델을 비교할 때 어떤 종류의 모델에도 동일한 방법을 사용할 수 있기 때문에 모델불특정법 설명으로 하기가 더 쉽습니다.

 

 모델 불특정 해석 방법의 대안은 해석 가능한 모델만 사용하는 것인데, 다른 기계학습 모델에 비해 예측 성능이 떨어진다는 단점이 큰 경우가 많고, 한 종류의 모델로 제한하게 됩니다. 다른 대안은 모델 특정 해석 방법을 사용하는 것입니다. 이 방법의 단점은 또한 하나의 모델 타입으로 한정하게 되어 다른 것으로 바꾸기가 어렵다는 것입니다.

 

 모델불특정 설명 시스템의 바람직한 측면은 다음과 같습니다(Ribeiro, Singh, and Guestrin 2016).

  • 모델 유연성: 해석 방법은 랜덤 포레스트나 깊은 신경망과 같은 어떤 기계학습 모델과도 동작할 수 있습니다.
  • 설명 유연성: 특정한 양식의 설명을 한정하지 않습니다. 어떤 경우에는 선형 공식을 갖는 것이 유용할 수 있고, 다른 경우에는 특성값 중요도(Feature importance)가 있는 그래픽이 유용할 수 있습니다.
  • 표현 유연성: 설명 시스템은 설명가능한 모델과 다른 특성값 표현을 사용할 수 있어야 합니다. 벡터가 포함된 추상적인 단어를 사용하는 텍스트 분류기의 경우, 설명을 위해 개별 단어의 존재를 사용하는 것이 더 나을 수 있습니다.

전반적인 그림

 모델 불특정법 해석력에 대해 자세히 살펴보도록 합시다. 수집된 데이터로 구성된 현실세계를 포착하고, 기계학습 모델을 통해 (주어진 작업에 대한) 데이터를 예측하는 방법을 배워 더욱 추상화 합니다. 해석력은 인간이 이해할 수 있도록 돕는 또다른 단계에 불과합니다.

해석할 수 있는 기계학습의 전반적인 그림, 현실세계는 설명의 형태로 사람에게 도달하기 전에 많은 단계를 거친다.

 위의 단계에서 가장 첫 단계는 세계(World)입니다. 이는 말 그대로 인체의 생물학적인 것과 약물이 어떻게 반응하는가와 같은 자연 그 자체일 수도 있지만, 부동산 시장처럼 더 추상적인 것들도 될 수 있습니다. 세계 단계는 관찰할 수 있고 관심 있는 모든 것을 포함하고 있습니다. 궁극적으로, 세계에 대해 배우고 싶고, 세계와 교류하는 것을 원하게 되는 것입니다.

 

 두 번째 단계는 데이터(Data) 단계입니다. 컴퓨터에서 처리되어 정보를 저장하기 위해 세계를 디지털화해야 합니다. 데이터 단계에는 이미지, 텍스트, 표 등의 모든 것이 포함되어 있습니다.

 

 데이터 단계를 기반으로한 기계학습 모델을 적용함으로서 블랙박스 모델(Black Box Model) 단계에 도달합니다. 기계학습 알고리즘은 예측하거나 구조를 분석하기 위해 실제 세계의 데이터로부터 학습하게 됩니다.

 

 블랙박스 모델 단계는 기계학습 모델의 불투명성을 다루는데 도움이 되는 해석가능한 설명방법(Interpretablilty Method) 단계가 있습니다. 특정한 진단에서 가장 중요한 특성값은 무엇일까요? 해당 금융거래가 사기로 분류된 이유는 무엇일까요?

 

 마지막 단계는 사람(Human)이 있습니다. 사람은 결국 이러한 설명의 소비자가 되는 것이지요.

 

 이러한 다중 단계 추상화는 통계학자와 기계학습 전문가 사이의 잡근 방식의 차이를 이해하는 데에도 도움이 됩니다. 통계학자들은 임상실험을 계획하거나 서베이를 설계하는 것과 같은 데이터 단계를 다룹니다. 블랙박스 모델 단계를 건너뛰고 바로 해석가능한 설명방법 단계로 이동하는 것이지요. 기계학습 전문가들은 또한 피부암 이미지의 표본을 수집하거나 위키피디아 웹페이지의 내용을 크롤링(페이지의 내용을 통째로 가져오는 행위)하는 것과 같은 데이터 단계를 다룹니다. 그런 다음 블랙박스 기계학습 모델을 학습시킵니다. 해석가능한 설명방법 단계는 건너뛰고 사람들은 블랙박스 모델 예측을 직접 다루게 됩니다. 해석할 수 있는 기계학습이 통계학자와 기계학습 전문가의 작업을 융합시키는 것은 정말로 대단한 일이겠죠!

 

 물론 위의 이미지 그래픽이 모든 것을 나타내고 있는 것은 아닙니다. 데이터는 시뮬레이션에서 나올 수 있습니다. 블랙박스 모델도 사람에게 제공되지 않고도 다른 계게에만 결과를 제공하는 예측값을 출력합니다. 그러나 전체적으로 해석력이 어떻게 기계학습 모델 위에 이렇나 새로은 단계가 되는지 이해하는 것은 유용한 추상화 방법이지요.

 

참고자료: https://christophm.github.io/interpretable-ml-book/agnostic.html

 

Chapter 5 Model-Agnostic Methods | Interpretable Machine Learning

Machine learning algorithms usually operate as black boxes and it is unclear how they derived a certain decision. This book is a guide for practitioners to make machine learning decisions interpretable.

christophm.github.io

 

반응형