늦깎이 공대생의 인공지능 연구실

[논문 프리뷰] 기계학습 안전에서 해결되지 않은 문제점들(Unsolved Problems in ML Safety) 본문

BAIR

[논문 프리뷰] 기계학습 안전에서 해결되지 않은 문제점들(Unsolved Problems in ML Safety)

Justin T. 2021. 11. 27. 14:28

 

 구글브레인(Google Brain)과 오픈AI(OpenAI) 연구원들이 공동으로, "Unsolved Problems in ML Safety" 논문을 발표합니다. 최근 대규모 모델에 의해 도입된 사례와 같은 기계학습의 새로운 안전 문제로 인해 ML Safety에 대한 새로운 로드맵을 제공하고 현장에서 해결해야 할 기술적 문제를 개선하고자 합니다. 논문의 프리뷰로서, 이 논문의 방향의 소주제, 즉 위험 감수("강건함"), 위험 식별("모니터링") 및 조향 ML 시스템("정렬")에 대해 이야기 해봅니다.

강건함(Robustness)

 강건함 연구는 극단적인 위험과 적대적 위협에 덜 취약한 시스템을 구축하는 것을 목표로 합니다. 강건함의 이 두 가지 문제는 롱테일 효과(Long tail)에 대한 강건함과 적대적 예제에 대한 강건함을 말합니다.

 

롱테일 효과(Long tails)

 롱테일 효과란 경제학 용어로서 20%의 인기 상품과 80%의 일반 상품들이 있을 때 수익이 많지 않은 나머지 80%의 상품들을 롱테일이라 부릅니다.

녹색으로 표시된 20%의 인기상품의 판매량, 노란색으로 표시된 나머지 80%의 상품들의 판매량

 기계학습의 관점에서, 학습되는 데이터들은 실제 현상에서 거의 대부분을 차지아는 경우들에 대한 내용들을 다루지만 이 학습에서 다루기 힘들거나 학습에 대한 정의가 애매하여 학습시키기 어려운 부분들에 대한 내용들을 롱테일이라 봅니다.

롱테일 효과의 사례들. 첫 번째 줄 왼쪽: 녹색 신호등 앞에 서있는 구급차. 가운데: 도로에 있는 새들. 오른쪽: 보행자의 모습 아래 줄 왼쪽: 코스프레를 하는 사람들 가운데" 안개 낀 길. 오른쪽: 들고 있는 판자에 의해 가려진 사람

  제한 없이 열린 세상에서 고위험 환경을 동작 시키기 위해, 기계학습 시스템이 비정상적인 사건과 롱테일 위험을 견뎌야 합니다. 그러나 현재의 기계학습 시스템은 현실 세계의 복잡성에 직면하게 되면 불안정해지기 쉬우며, 위와 같은 새로운 상황에 직면하면 신뢰성이 떨어집니다. 희귀 사건이 지배하는 환경에서 기계학습 시스템이 잘못된 작업 경로를 선택할 가능성을 줄이기 위해서는 학습된 모델이 비정상적으로 강건해야만 합니다.

적대적 예제(Adversarial example)

적대적 미세변화. 적대적 미세변화에 의해 변경된 입력 이미지의 예. 적대적 미세변화 후에 신경망은 높은 신뢰도의 실수를 하게된다.

Adversaries can easily manipulate vulnerabilities in ML systems and cause them to make mistakes. As shown above, carefully crafted small perturbations are enough to break ML systems. In the paper, we focus on this problem but also suggest that researchers consider more realistic settings, like when attackers can create perceptible images or when attack specifications are not known beforehand.

 공격자는 기계학습 시스템의 취약성을 쉽게 조작하여 실수를 일으킬 수 있습니다. 위와 같이 세심하게 조작된 작은 미세변화만으로도 기계학습 시스템을 무너뜨리기에 충분합니다. 본 논문에서는 이 문제에 초점을 맞추고 있지만 연구윈들은 공격자가 지각 가능한 이미지를 만들 수 있거나 공격 사양을 사전에 알 수 없는 경우와 같은 보다 현실적인 설정을 고려할 것을 제안합니다.

 

모니터링(Monitoring)

 모니터링 연구는 인간 작업자가 위험을 식별하고 기계학습 시스템을 검사하는 데 도움이 되는 도구와 특성을 만드는 것을 목표로 합니다. 모니터링의 두 가지 이슈는 이상 감지와 백도어 감지입니다. 이 리스트는 소모적이지 않으며, 캘리브레이션, 정직한 출력, 그리고 긴급 기능 탐지를 포함한 다른 문제들을 논문에서 다룹니다.

이상 감지(Anomaly Detection)

이상 감지. 왼쪽에는 ImageNet 클래스에 속하는 일반 이미지가 있으므로 ImageNet 분류기가 이미지를 처리하는 방법을 알 수 있다. 오른쪽은 ImageNet 클래스에 속하지 않는 이상 이미지이다. 그럼에도 불구하고 모델은 이미지를 높은 신뢰도로 분류한다.

 이상 감지기는 인간 운영자에게 잠재적인 위험에 대해 경고할 수 있으며, 이는 운영자가 위험에 노출되는 것을 줄이는 데 도움이 됩니다. 예를 들어, 이상 감지기는 기계학습 시스템의 악의적인 사용을 탐지하거나 새로운 예제를 인간의 검토를 위해 플래그를 지정하는 데 도움이 될 수 있습니다. 그러나 딥러닝 기반 이상 감지기는 위 그림에 표시된 것처럼 신뢰도가 높지 않습니다.

백도어(Backdoors)

백도어. 건물 출입문을 여는 백도어 안면인식 시스템이 묘사되어 있다. 백도어는 안경과 같이 상대가 선택한 특정 고유 아이템에 의해 발동될 수 있다. 만약 상대방이 특정한 안경을 쓴다면, 백도어 안면 인식은 상대방이 건물 안으로 들어갈 수 있게 해줄 것이다.

 기계학습 시스템은 백도어를 수행할 위험이 있습니다. 백도어 모델은 거의 모든 시나리오에서 올바르고 친절하게 행동하지만, 특히 상대가 선택한 상황에서는 잘못 행동하도록 학습되있습니다. 온라인에서 스크랩한 대규모 데이터셋에 대해 훈련된 모델은 독이 든 데이터에 대해 학습을 하게 될 가능성이 높아 백도어 주입이 가능합니다. 또한, 다운스트림 모델은 단일 업스트림 기초 모델에 의해 점점 더 많이 확보되기 때문에 단일 백도어 시스템이 백도어(backdoor)를 일반화할 수 있습니다.

정렬(Alignment)

 정렬 연구는 안전한 기계학습 시스템의 목표를 만들고 또한 이를 안전하게 추구하는 것을 목표로 합니다. 정렬의 두 가지 문제점들은 가치 학습과 프록시 게이밍이지만, 이 논문은 그 외의 많은 추가 문제들을 다루고 있습니다.

가치 학습(Value Learning)

쾌적함과 같은 인간의 가치 추정. 변환 모델은 다양한 오픈월드 입력이 주어지면 기분 좋은 상태와 불쾌한 상태를 부분적으로 분리할 수 있다. 효용 값 또는 쾌적값은 실측 자료 값이 아니며 모델 자체의 학습 효용 함수의 결과물.

 인간의 많은 가치관은 정의와 측정이 어렵기 때문에 인간의 목표와 의도를 인코딩하는 것은 어렵습니다. 어떻게 하면 기계학습 시스템이 행복, 올바른 판단, 행동의 자유, 의미 있는 경험, 안전한 결과 등을 모델링하도록 가르칠 수 있을까요? 위의 그림에서 우리는 모델이 문제에 대한 견인력을 갖기 시작했지만 그럼에도 불구하고 많은 실수를 하고 간단한 입력만 처리할 수 있음을 보여줍니다. 행복과 다른 인간의 가치를 위한 신뢰할 수 있는 표현을 배우기 위해 더 많은 연구가 필요합니다.

프록시 게이밍(Proxy Gaming)

https://bair.berkeley.edu/static/blog/safety/boatrace.gif

 객관적인 프록시는 최적으로 조작하는 자와 적대적 환경에 의해 게임이 진행될 수 있습니다. 사실, 굿하트의 법칙(Goodhart's law)은 "어떤 측정치가 대상이 되면, 그것은 좋은 측정치가 되는 것을 그만둔다"고 주장합니다. 즉, 단순히 인간의 가치를 위한 프록시를 배울 수는 없습니다. 프록시를 이용하도록 유도되는 최적화 프로그램에서도 강력한 프록시를 사용해야 합니다. 비디오 게임 프록시를 게임하는 에이전트에게 보상을 극대화하는 예는 위 그림과 같습니다.

 

 

참고논문: https://arxiv.org/abs/2109.13916

 

Unsolved Problems in ML Safety

Machine learning (ML) systems are rapidly increasing in size, are acquiring new capabilities, and are increasingly deployed in high-stakes settings. As with other powerful technologies, safety for ML should be a leading research priority. In response to em

arxiv.org

 

반응형