목록BAIR (25)
늦깎이 공대생의 인공지능 연구실

본 논문에서, 저자들은 이동 조작자가 탐색과 파악의 조합을 필요로 하는 기술을 자율적으로 배울 수 있는 방법을 연구하였습니다. 현실세계에서 로봇 기술을 배우는 것은 대규모 데이터 수집 및 감독 없이는 여전히 어렵습니다. 이러한 어려움은 로봇을 조작이나 탐색으로만 제한하고 훈련 과정에서 시연, 작업 재설정/랜덤화 및 데이터 레이블링을 제공하기 위해 사람의 노력을 사용함으로써 종종 해결되었습니다. 이 작업에서, 저자들은 로봇이 땅에서 떨어진 물체를 모아 바구니에 넣어 서로 다른 방에서 청소하는 방법을 자율적으로 배울 수 있는 방법을 구체적으로 연구합니다. 이 논문의 목표는 로봇이 인간의 개입을 최소화하거나 지도, 물체 위치 또는 주변 환경의 전체 모습과 같은 모든 정보에 대한 접근 없이 현실적인 설정 하에서..

최근 기계학습의 발전은 종종 해석력을 희생하면서 점점 더 복잡한 예측 모델로 발전하였습니다. 우리는 종종 해석력이 필요하며, 특히 임상 의사 결정과 같은 고위험 적용에서 해석 가능한 모델은 오류 식별, 도메인 지식 활용 및 신속한 예측과 같은 모든 종류의 해석을 도와줍니다. 이번 포스팅에서는 트리 합계의 형태를 취하는 해석할 수 있는 모델을 적합화하는 새로운 방법인 FIGS에 대해 다루고자 합니다. 실제 실험과 이론적 결과에 따르면 FIGS는 데이터의 광범위한 구조에 효과적으로 적응하여 해석력을 희생하지 않고 여러 설정에서 최첨단 성능을 달성할 수 있습니다. FIGS의 동작 원리 직관적으로, FIGS는 의사결정 트리를 성장시키기 위한 전형적인 탐욕 알고리즘인 CART를 확장하여 트리 합계를 동시에 성장시..

실제 시스템을 제어함에 있어 기계학습과 강화학습을 활용하기 위해서는 우수한 성능 달성 뿐만 아니라 안전하고 신뢰할 수 있는 방식으로 시스템과 상호 작용하는 알고리즘을 설계해야 합니다. 안전 필수 제어와 관련된 이전의 연구는 다리 달린 로봇이 넘어지거나 자율 주행 차량이 장애물에 충돌하지 않도록 물리적 시스템의 안전을 유지하는 데 중점을 두고 있었습니다. 그러나 학습 기반 제어의 경우, 또 다른 안전 문제가 내재되어 있습니다. 기계학습 모델은 훈련 데이터에 대한 정확한 예측 결과가 나오도록 최적화되어 있기 때문에 분포 외 입력에 대해 평가할 때 잘못된 예측을 하기 쉽습니다. 따라서 에이전트가 훈련 데이터와는 매우 다른 상태(State)나 행동(Action)을 취하는 경우, 학습 가능 제어는 학습된 구성 요..

실제 애플리케이션을 위한 AI 시스템을 어떻게 구축하고 평가할 수 있을까요? 대부분의 AI 연구에서 AI 방법의 평가는 훈련-검증-테스트 과정을 수반합니다. 실제 데이터 분포는 검증 및 테스트 데이터에 의해 모델링된다고 가정하기 때문에 일반적으로 모델이 작성된 데이터셋에서 테스트 성능이 좋을 때 실험은 중지됩니다. 그러나 실제 애플리케이션은 일반적으로 단일 훈련-검증-테스트 프로세스보다 더 복잡합니다. 가장 큰 차이점은 끊임없이 변화하는 데이터입니다. 예를 들어, 야생동물 데이터셋은 동물의 침입, 다른 곳에 있던 동물들의 재진입, 재정착 및 계절별 동물 이동으로 인해 클래스 구성이 항상 변경됩니다. 기존 데이터셋에 대해 훈련, 검증 및 테스트된 모델은 새로 수집된 데이터에 새로운 종(種)이 포함된 경우 ..

심층 강화 학습(DRL)은 게임 플레이에 중점을 둔 연구 분야에서 실제 애플리케이션을 사용하는 기술로의 전환이 시도되고 있습니다. 대표적인 예로는 원자로를 제어하거나 유튜브 비디오 압축을 개선하는 딥마인드의 작업이 있으며, 자율주행 자동차의 행동 계획을 위해 MuZero에서 영감을 받은 방법을 사용하려는 Tesla가 있습니다. 그러나 RL의 실제 적용에 대한 흥미로운 잠재력은 또한 상당한 주의를 기울여야 합니다. 예를 들어, RL 정책은 악용에 취약한 것으로 잘 알려져 있으며, 안전하고 강력한 정책 개발을 위한 방법에 대한 활발한 연구분야들이 있습니다. 실제 세계에서 강력한 RL 시스템의 출현과 동시에, 시민들과 연구원들은 공정하고, 곧고, 안전한 기계 학습 시스템에 대한 증가한 욕구를 표현하고 있습니다..

위성 사진은 현재 러시아의 우크라이나 침공 상황에서 중요한 정보원입니다. 군사 전략가, 언론인, 그리고 연구원들은 위성 사진을 분석하여 결정을 내리고, 국제 협약의 위반을 밝히고, 대중에게 전쟁의 냉엄한 현실을 알리기 위해 이 이미지를 사용합니다. 우크라이나가 많은 양의 구름이 나라를 덮고 있는 것을 경험한데다가, 밤 시간 동안 종종 공격이 발생하면서, 대다수의 위성 사진이 지상을 보는 이러한 요소들에 의해 방해가 됩니다. 합성 개구경 레이더(SAR) 이미지는 두꺼운 구름을 관통하지만 해석하려면 특수 교육이 필요합니다. 이 지루한 작업을 자동화하면 실시간 통찰력을 얻을 수 있지만, 일반적인 RGB 이미지에서 개발된 현재의 컴퓨터 비전 방법은 SAR의 현상학을 제대로 설명하지 못합니다. 이로 인해 이 중요..

지도학습 RL의 단점 강화학습(RL)은 자율주행 차량 제어, 디지털 비서, 리소스 할당과 같은 AI의 많은 관심분야들이 문제를 해결하기 위한 강력한 패러다임 입니다. 저자들은 지난 5년 동안 외부 보상 기능이 제공될 때 RL 에이전트가 바둑, 스타크래프트 및 뛰어난 손재주 로봇 조작과 같은 매우 복잡한 작업을 마스터할 수 있음을 보였습니니다. 대규모 RL 에이전트는 놀라운 결과를 얻을 수 있지만 오늘날 최고의 RL 에이전트 조차도 성공할 수 있는 분야의 범위가 좁습니다. 오늘날 대부분의 RL 알고리즘은 훈련된 단말 작업만 해결할 수 있으며, 크로스 작업 또는 크로스 도메인 일반화 능력을 보이지 않습니다. 오늘날의 RL 시스템을 적용하고자 하는 분야 한정으로 인한 부작용은 오늘날의 RL 에이전트도 데이터 ..

2016년, 구글, 스탠포드, UC버클리 및 OpenAI의 연구원들이 공개한 논문 "AI 안전에 관한 구체적은 문제들(Concrete Problems in AI Safety)에 대해 다루어보고자 합니다. 2021년 12월 현재 피인용수 1300건을 기록한 이 논문은 5년이 지난 지금까지도 여전히 AI 안전에 관한 가장 중요한 논문 중 하나입니다. 심지어 연구원들이 인공지능을 개발하면서 직면하는 몇 가지 문제들에 대한 훌륭한 입문서로 활용되고 있습니다. 이 논문에서 저자들은 AI 시스템에서 의도하지 않았던 해로운 행동을 초래하는 사고 문제를 탐구하고, 이러한 잠재적인 문제로부터 보호하기 위한 다양한 전략과 진행 중인 연구들에 대해 논의합니다. 특히 저자들은 사무실을 청소하도록 훈련된 로봇의 예를 통해 치명..