목록분류 전체보기 (83)
늦깎이 공대생의 인공지능 연구실

딥러닝 기반 인공지능 기술이 비약적으로 발전하면서 이제는 사람보다 더 빠르게 특정 물체를 감지해 낼 수 있는 물체 감지 기술들이 등장하고 있습니다. 비록 2023년 현재 챗GPT의 등장을 계기로 인공지능과 직접 대화를 할 수 있는 기술이 등장하면서 다른 인공지능 기술들이 관심에서 멀어진 감이 있지만 Vision 분야에서도 ViT(Vision-Transform)이 등장하는 등 많은 발전된 모습들을 확인할 수 있습니다. 이전의 포스팅에서 언급 드린바와 같이, 딥러닝 기반 인공지능의 성능을 끌어올리기 위해서는 양질의 데이터가 필요로 하며, 학습하고자 하는 물체의 종류(Class) 및 각 종류별 갯수의 균형을 맞춤으로서 우리가 원하는 최고 성능의 모델을 얻을 수 있습니다. 그러나, 우리가 찾아내고자 하는 물체가..

컴퓨터공학을 전공한 저로서 IT분야의 빠른 발전 때문에 개발자로 살아가기 위해서는 끊임없는 공부가 필요함을 잘 알고 있지만, AI는 이러한 발전 속도를 더욱 가속화 시키고 있는 것처럼 보입니다. 과연 나는 이러한 빠른 속도를 잘 따라갈 수 있을까 싶은 생각이 많이 들지만, 적어도 아무것도 안하는 것 보다는 오늘 하루라도 논문 한 장 더 읽어볼까 하는 생각을 하곤 합니다. 그러던 도중, AI의 4대 거장 중 한 사람인 앤드류 응(Andrwe Ng) 교수님이 무료로 공개한 서적이 있어 여러분들께 소개드리고자 합니다. 책을 한 페이지 읽을수록 앤드류 응 선생의 조언 한마디의 대단함을 느끼게 될 것입니다. 커리어를 성장시키는 3단계 1. 학습(Learning) 첫 단계는 기초적인 기술 능력을 익히는 단계입니다...

강화학습을 사용하여 로봇을 조종하는 것은 저에게 있어 가장 큰 로망 중 하나이기도 합니다. 이번에 소개드리고자 하는 논문은 스페인 마드리드 공과대학교(Universidad Politécnica de Madrid)에서 2019년에 공개된 저널 논문에 대해 간단히 소개드리고자 합니다. 강화학습에 관심있는 분들에게 이 논문에서 소개드리고자 하는 내용들이 강화학습을 현실세계에 적용하는 방법을 이해하는데 큰 도움이 될 것입니다. Abstract 최근 배달 및 탐색 등 멀티콥터 드론을 활용하는 분야가 기하급수적으로 늘어나고 있습니다. 특히, Deep Q-Learning이 연속적인 행동(Action)이 요구되는 게임에서 성공적으로 적용됨으로서 움직임 제어를 위한 딥러닝 기술 또한 단계적으로 발전해 나아가고 있습니다...

시간차 학습(Temporal difference learning)이란 무엇인가? 시간차 학습(Temporal difference learning)은 미래에 예상되는 전체 보상을 예측하기 위한 목적으로 사용되며 강화 학습에서 매우 일반적으로 사용되는 비지도 학습 기법입니다. 물론 다른 수치를 예측하는 데도 사용하기도 합니다. 시간차 학습은 기본적으로 주어진 입력값의 미래 값에 종속된 수치를 어떻게 예측할 수 있는지 배우는 방법라 할 수 있습니다. 또한 연속된 중간 보상에서 행동 패턴의 장기적 유용성을 계산하는 데 사용되는 방법이라 할 수 있겠습니다. 기본적으로, 시간차 학습(TD Learning)은 연속 상태에서 변수의 미래 가치를 예측하는 데 중점을 둡니다. 시간차 학습은 보상 예측 문제를 해결하는 ..

최근 기계학습의 발전은 종종 해석력을 희생하면서 점점 더 복잡한 예측 모델로 발전하였습니다. 우리는 종종 해석력이 필요하며, 특히 임상 의사 결정과 같은 고위험 적용에서 해석 가능한 모델은 오류 식별, 도메인 지식 활용 및 신속한 예측과 같은 모든 종류의 해석을 도와줍니다. 이번 포스팅에서는 트리 합계의 형태를 취하는 해석할 수 있는 모델을 적합화하는 새로운 방법인 FIGS에 대해 다루고자 합니다. 실제 실험과 이론적 결과에 따르면 FIGS는 데이터의 광범위한 구조에 효과적으로 적응하여 해석력을 희생하지 않고 여러 설정에서 최첨단 성능을 달성할 수 있습니다. FIGS의 동작 원리 직관적으로, FIGS는 의사결정 트리를 성장시키기 위한 전형적인 탐욕 알고리즘인 CART를 확장하여 트리 합계를 동시에 성장시..

실제 시스템을 제어함에 있어 기계학습과 강화학습을 활용하기 위해서는 우수한 성능 달성 뿐만 아니라 안전하고 신뢰할 수 있는 방식으로 시스템과 상호 작용하는 알고리즘을 설계해야 합니다. 안전 필수 제어와 관련된 이전의 연구는 다리 달린 로봇이 넘어지거나 자율 주행 차량이 장애물에 충돌하지 않도록 물리적 시스템의 안전을 유지하는 데 중점을 두고 있었습니다. 그러나 학습 기반 제어의 경우, 또 다른 안전 문제가 내재되어 있습니다. 기계학습 모델은 훈련 데이터에 대한 정확한 예측 결과가 나오도록 최적화되어 있기 때문에 분포 외 입력에 대해 평가할 때 잘못된 예측을 하기 쉽습니다. 따라서 에이전트가 훈련 데이터와는 매우 다른 상태(State)나 행동(Action)을 취하는 경우, 학습 가능 제어는 학습된 구성 요..

지금까지 다음과 같은 대표적인 알고리즘을 포함하여 현존하는 다양한 알고리즘과 카테고리의 배경을 사용할 것입니다. 앞서 살펴본 것처럼, 우리는 세 가지 방법으로 모델을 사용할 수 있습니다. 이어서 각 사례에 대한 몇 가지 예를 살펴보겠습니다. 환경 시뮬레이션(Simulating the environment) 한 가지 방법은 실제 데이터를 모델에서 생성된 경험(Experience)과 혼합한 다음 Q-러닝, 정책 기울기 등과 같은 기존의 모델이 없는 알고리즘을 적용하는 것입니다. 이 경우 모델은 더 크고 강화된 학습 데이셋을 제공합니다. Dyna-Q는 학습된 모델과 함께 Q-러닝을 사용하는 예입니다. Dyna는 실제 전이(Transition)에 대한 기존 Q-러닝 업데이트를 수행하고 모델을 사용하여 실제 상태..

2022년 들어 텍스트로부터 이미지를 생성하는 기술들이 소개되고 있습니다. AI가 그려내는 그림들은 흡사 인간 화가의 위상을 위협할 정도로 발전하였습니다. 이는 DALL-E 2부터 시작되어 Midjourney와 StableDiffusion 등 이미지를 그려내는 알고리즘들의 등장으로부터 알 수 있습니다. 앞에서 소개해드린 Midjourney, DALL-E 2, Stable Diffusion 중 어떤 것이 가장 좋은 text-to-image 생성 모델일까요? DALL-E의 2세대인 DALL-E 2는 바로 전에 나왔던 DALL-E보다 더 작지만, 틀림 없이 더 나은 성능을 보이고 있습니다. DALL-E 2는 거의 모든 이미지들을 생성하는데, unCLIF 방식을 사용하여 사람들이 표현하기 조차 어려웠던 이미지를..