목록BAIR (19)
늦깎이 공대생의 인공지능 연구실
지도학습 RL의 단점 강화학습(RL)은 자율주행 차량 제어, 디지털 비서, 리소스 할당과 같은 AI의 많은 관심분야들이 문제를 해결하기 위한 강력한 패러다임 입니다. 저자들은 지난 5년 동안 외부 보상 기능이 제공될 때 RL 에이전트가 바둑, 스타크래프트 및 뛰어난 손재주 로봇 조작과 같은 매우 복잡한 작업을 마스터할 수 있음을 보였습니니다. 대규모 RL 에이전트는 놀라운 결과를 얻을 수 있지만 오늘날 최고의 RL 에이전트 조차도 성공할 수 있는 분야의 범위가 좁습니다. 오늘날 대부분의 RL 알고리즘은 훈련된 단말 작업만 해결할 수 있으며, 크로스 작업 또는 크로스 도메인 일반화 능력을 보이지 않습니다. 오늘날의 RL 시스템을 적용하고자 하는 분야 한정으로 인한 부작용은 오늘날의 RL 에이전트도 데이터 ..
2016년, 구글, 스탠포드, UC버클리 및 OpenAI의 연구원들이 공개한 논문 "AI 안전에 관한 구체적은 문제들(Concrete Problems in AI Safety)에 대해 다루어보고자 합니다. 2021년 12월 현재 피인용수 1300건을 기록한 이 논문은 5년이 지난 지금까지도 여전히 AI 안전에 관한 가장 중요한 논문 중 하나입니다. 심지어 연구원들이 인공지능을 개발하면서 직면하는 몇 가지 문제들에 대한 훌륭한 입문서로 활용되고 있습니다. 이 논문에서 저자들은 AI 시스템에서 의도하지 않았던 해로운 행동을 초래하는 사고 문제를 탐구하고, 이러한 잠재적인 문제로부터 보호하기 위한 다양한 전략과 진행 중인 연구들에 대해 논의합니다. 특히 저자들은 사무실을 청소하도록 훈련된 로봇의 예를 통해 치명..
구글브레인(Google Brain)과 오픈AI(OpenAI) 연구원들이 공동으로, "Unsolved Problems in ML Safety" 논문을 발표합니다. 최근 대규모 모델에 의해 도입된 사례와 같은 기계학습의 새로운 안전 문제로 인해 ML Safety에 대한 새로운 로드맵을 제공하고 현장에서 해결해야 할 기술적 문제를 개선하고자 합니다. 논문의 프리뷰로서, 이 논문의 방향의 소주제, 즉 위험 감수("강건함"), 위험 식별("모니터링") 및 조향 ML 시스템("정렬")에 대해 이야기 해봅니다. 강건함(Robustness) 강건함 연구는 극단적인 위험과 적대적 위협에 덜 취약한 시스템을 구축하는 것을 목표로 합니다. 강건함의 이 두 가지 문제는 롱테일 효과(Long tail)에 대한 강건함과 적대적 ..