우수신진연구자 세션

우수신진연구자 세션
신영식 (한국기계연구원 인공지능기계연구실 선임연구원)

2013.02 인하대학교 전기공학 학사
2015.02 KAIST 로봇공학학제 석사
2020.02 KAIST 건설 및 환경공학 (로봇공학학제) 박사
2019.12~현재 한국기계연구원

발표주제: 상호 보완적인 센서 융합을 통한 향상된 단안 카메라 슬램

동시적 위치 추정과 지도작성 기술 (simultaneously localization and mapping)은 로봇의 자율 주행을 위한 인지 기술로서 다양한 센서들을 통한 접근법들이 연구되어지고 있다. 특히, 단안 카메라나 LiDAR와 같이 상이한 특성을 지니는 센서들이 슬램을 수행하기 위한 주류 센서로 활용되고 있다. 하지만, 단안 카메라 기반의 방법론들은 실제 환경의 스케일을 정확히 알 수가 없으며 3차원 환경정보를 얻기 위한 초기화 과정이 요구되며, LiDAR 기반의 방법론은 기하적 특성이 명확한 환경에서만 그 성능이 보장된다. 본 발표에서는 장면에 대한 시각적 관측을 제공하는 이미징 센서와 기하적 정보를 제공하는 LiDAR를 결합하여 각 센서가 가지는 제한사항을 극복하는 향상된 단안 카메라 슬램을 제안하며, 이를 열화상 카메라로 확장하여 일광 조건에 강건한 비주얼 슬램 방법론에 대해 소개한다.


안종현 (국방과학연구소 선임연구원)

2013.02 연세대학교 전기전자공학 학사
2020.02 연세대학교 전기전자공학 박사
2020.03~현재  국방과학연구소

발표주제: 저가형 레이저 스캐너를 사용한 동적 물체 검출 및 추적 방법

최근 ADAS 시스템을 위해 센서 제조업체에서는 저가형 3차원 레이저 스캐너를 개발하고 있다. 하지만 16 개 이상의 레이어가 있는 고가형 3차원 스캐너와는 달리, 저가형 레이저 스캐너의 계측 형태는 단일 레이어의 2차원 스캐너의 출력과 비슷하다. 따라서 기존에 고가형 레이저 스캐너에 집중되어 있던 알고리즘이 아니라 저가형 3차원 레이저 스캐너를 사용한 새로운 이동 차량 검출 및 차량 경계 방법이 필요하다. 따라서 본 발표에서는 고가형 3차원 레이저 스캐너와 저가형 3차원 레이저의 차이점에 대해 간략히 설명하고, 저가형 3차원 레이저 스캐너를 이용한 이동 차량 검출 방법 및 차량의 외형 박스를 추적하는 방법에 대해 소개한다.


이유철 (한국전자통신연구원 지능로봇연구실 선임연구원)

2004.02 연세대학교 기계공학, 전기전자공학 학사
2006.02 포항공과대학교 기계공학 석사
2020.02 한국과학기술원 로봇공학 박사
2006.02~현재 한국전자통신연구원

발표주제: 로봇 자율주행 기술을 위한 단계적 전역 위치인식 기법

로봇 위치인식 기술은 원하는 목적지에 도달하기 위한 자율주행 기술의 핵심기술 중에 하나로써 로봇 자신의 위치를 정확히 추정하는 기술이다. 본 발표에서는 위치인식에 사용되는 다양한 센서정보(전파, 거리 등)와 공간지도를 단계적으로 융합할 수 있는 전역 위치인식 프레임워크를 제안하고, 실제 로봇에 탑재되어 물류배송, 병원/쇼핑센터 안내, 건물 감시정찰 등에 적용된 예를 통해 응용 가능성을 소개한다.


정광필 (서울과학기술대학교 기계자동차공학과 조교수)

2010.02 KAIST 기계공학 학사
2016.02 서울대학교 기계항공공학 박사
2017.03~현재 서울과학기술대학교 기계자동차공학과 조교수

발표주제: Extreme Motions in Milli-Scale Robotic Systems

밀리 스케일 로봇 시스템은 작은 크기의 장점을 활용하여 인간의 접근이 어려운 재난 현장을 탐색하거나 군과 같이 스텔스 기능이 요구되는 곳에서 감시 및 정찰의 용도로 활용이 가능한다. 그러나 인공 구조물과 비교하여 상대적으로 작기 때문에 이동을 하거나 간단한 작업을 하는데 있어 어려움이 존재한다. 본 발표에서는 밀리 스케일 모바일 로봇 시스템의 이동성과 작업성을 향상시킴으로써 실제 활용도를 높이기 위한 연구를 소개한다.


한지형 (서울과학기술대학교 컴퓨터공학과 조교수)

2008.02 KAIST 전기및전자공학 학사
2015.02 KAIST 전기및전자공학 박사
2015.02~2017.08 한국전자통신연구원(ETRI) 선임연구원
2017.08~현재 서울과학기술대학교 컴퓨터공학과 조교수

발표주제: 로봇 지능 구현을 위한 1인칭 시점 동영상 상황 정보 표현 기술 개발

효과적인 인간-로봇 상호작용을 위해서는 현재 상황을 인식하는 로봇 지능 구현이 필수적이다. 로봇 비전을 통해 로봇이 인식하는 상황은 기본적으로 1인칭 시점 동영상과 같으며, 상호작용 중인 인간에게 로봇이 인해한 상황 정보를 전달하는 것은 자연어를 통해 표현하는 것이 가장 효과적이다. 따라서 본 발표에서는 1인칭 시점 동영상을 global, action, interaction 세 가지 관점에서 이해하여 자연어 설명문을 생성하는 기술에 대해 소개한다.