KR101784183B1 - ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 - Google Patents

ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 Download PDF

Info

Publication number
KR101784183B1
KR101784183B1 KR1020150086230A KR20150086230A KR101784183B1 KR 101784183 B1 KR101784183 B1 KR 101784183B1 KR 1020150086230 A KR1020150086230 A KR 1020150086230A KR 20150086230 A KR20150086230 A KR 20150086230A KR 101784183 B1 KR101784183 B1 KR 101784183B1
Authority
KR
South Korea
Prior art keywords
image
mobile robot
information
edge
stereo
Prior art date
Application number
KR1020150086230A
Other languages
English (en)
Other versions
KR20150144730A (ko
Inventor
신경철
박성주
이재영
Original Assignee
주식회사 유진로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유진로봇 filed Critical 주식회사 유진로봇
Publication of KR20150144730A publication Critical patent/KR20150144730A/ko
Application granted granted Critical
Publication of KR101784183B1 publication Critical patent/KR101784183B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Abstract

본 발명에 의한 ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법이 개시된다. 본 발명에 따른 이동 로봇의 위치를 인식하기 위한 장치는 이동 로봇이 동작함에 따라 수직 방향과 수평 방향을 포함하는 관심 영역에 대한 한쌍의 스테레오 영상을 획득하는 두 개의 카메라; 및 획득한 상기 스테레오 영상을 스무딩 처리하여 그 스무딩 처리한 결과로 스무딩 영상을 구하고 그 구한 스무딩 영상과 원래의 스테레오 영상을 비교하여 에지를 추출하고 추출된 상기 에지를 기반으로 현재의 위치를 추정하는 위치 인식부를 포함한다.

Description

ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 {APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF}
본 발명은 이동 로봇의 위치 인식 방법에 관한 것으로서, 특히, ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법에 관한 것이다.
최근 로봇 기술의 발전에 따라 스스로 경로를 설정하고 이동하는 이동 로봇이 활용되고 있다. 이동 로봇이 공간에서 효과적으로 위치를 판단하며 이동하기 위해서는 이동하고 있는 공간에 대한 지도를 생성하면서 공간 상의 자신의 위치를 인식하는 것이 요구된다.
이동 로봇은 자이로스코프와 구동 모터에 구비된 엔코더를 이용하여 추측 항법(dead reckoning)으로 주행하며, 상부에 설치된 카메라를 이용하여 영상을 분석하여 지도를 생성하고 이때 자이로스코프와 엔코더로부터의 주행 정보에 의한 오차가 발생하는 경우 카메라로부터 획득된 영상 정보를 활용하여 누적되는 오차를 보정한다.
그러나 지금까지 개발된 위치 인식 기반의 이동 로봇은 단안 카메라나 레이저 스캐너를 이용하여 2D 평면상의 움직임을 가정하여 개발되었다. 이러한 단안 카메라를 이용하는 경우 특징점까지의 거리를 알 수 없게 되므로 추측항법의 오차가 커지면 이에 따라 위치 인식 결과에 오차가 매우 많이 포함된다는 문제점이 있다.
또한 레이저 스캐너를 이동 로봇에 적용하기에는 고가이기 때문에 최근에는 스테레오 카메라를 이용하여 공간을 인지하고 자신의 위치를 갱신하는 SLAM(Simultaneous Localization and Mapping) 기술을 이용한 연구가 많이 이루어지고 있다.
이러한 SLAM 기술 기반의 이동 로봇은 코너 특징점을 영상으로부터 추출하고 이들의 3차원 좌표를 복원하여 지도를 작성하고 위치를 인식하는 과정을 거치게 된다.
그러나 복도와 같이 코너 특징점이 매우 적거나 카메라 모션이 매우 빨라서 코너 특징점을 추출하기 어려운 경우에는 위치 인식의 실패율이 높아지는 문제점이 있다.
따라서 이러한 종래 기술의 문제점을 해결하기 위한 것으로, 본 발명의 목적은 원래 영상으로부터 적분 영상을 구하고 그 구한 적분 영상을 박스 스무딩 처리하여 그 박스 스무딩 처리한 결과로 박스 스무딩 영상을 구한 후 박스 스무딩 영상으로부터 원래 영상을 빼서 최종적으로 에지 이미지를 추출하도록 하는 ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법을 제공하는데 있다.
본 발명의 다른 목적은 스테레오 영상을 기반으로 하는 비주얼 오도메트리를 통해 산출된 오도메트리 정보와 관성 정보를 기반으로 하는 내부 오도메트리를 통해 산출된 오도메트리 정보 중 선택된 하나의 오도메트리 정보를 기반으로 위치를 추정하도록 하는 ADOG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법을 제공하는데 있다.
본 발명의 또 다른 목적은 스테레오 영상으로부터 기 설정된 개수의 수평 라인을 추출하여 그 추출된 수평 라인을 따라 dense 스테레오 정합을 수행하여 그 수행한 결과로 장애물까지의 거리 정보를 획득하도록 하는 ADOG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법을 제공하는데 있다.
그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적들을 달성하기 위하여, 본 발명의 한 관점에 따른 이동 로봇의 위치를 인식하기 위한 장치는 이동 로봇에서 획득한 적어도 한쌍의 스테레오 영상을 입력받는 영상 입력부; 및 상기 입력받은 상기 스테레오 영상을 스무딩 처리하고, 상기 스무딩 처리한 결과로 스무딩 영상을 구하며, 상기 구한 스무딩 영상과 원래의 상기 스테레오 영상을 비교하여 에지를 추출하고, 상기 추출한 에지를 기반으로 상기 이동 로봇의 현재의 위치를 추정하는 위치 인식부를 포함한다.
바람직하게, 상기 이동 로봇의 위치를 인식하기 위한 장치는 상기 스테레오 영상을 획득하는 두개의 카메라를 더 포함할 수 있다.
바람직하게, 상기 위치 인식부는, 상기 스테레오 영상으로부터 적분 영상을 구하고, 상기 구한 적분 영상을 박스 스무딩 처리하여 그 박스 스무딩 처리한 결과로 박스 스무딩 영상을 산출하며, 상기 산출한 박스 스무딩 영상과 원래의 상기 스테레오 영상을 비교하여 그 비교한 결과로 에지를 추출하는 것을 특징으로 할 수 있다.
바람직하게, 상기 위치 인식부는, 상기 스테레오 영상으로부터 적분 영상을 구하는 적분 영상 획득부; 상기 구한 적분 영상을 박스 스무딩 처리하여 그 박스 스무딩 처리한 결과로 박스 스무딩 영상을 산출하는 박스 스무딩 영상 산출부; 및 상기 산출한 박스 스무딩 영상과 원래의 상기 스테레오 영상을 비교하여 그 비교한 결과로 에지를 추출하는 에지 추출부를 포함할 수 있다.
바람직하게, 상기 적분 영상 획득부는, 상기 스테레오 영상 orgImage으로부터 상기 적분 영상 IntegImage을 수학식
Figure 112016094129411-pat00001
에 의해 구하고, 여기서, x, y는 상기 적분 영상의 좌표, x', y'은 상기 스테레오 영상의 좌표를 나타내는 것을 특징으로 할 수 있다.
바람직하게, 상기 에지 추출부는, 상기 스테레오 영상 Isource 와 상기 박스 스무딩 영상 Ibox_blur으로부터 상기 에지 Iedge를 수학식 (Iedge = Ibox_blur - Isource)에 의해 산출하는 것을 특징으로 할 수 있다.
바람직하게, 상기 위치 인식부는, 상기 스테레오 영상에서 추출한 상기 에지를 이용하여 상기 스테레오 영상 간의 스테레오 매칭을 수행하여 깊이 값을 산출하고, 상기 산출한 깊이 값을 이용하여 상기 이동 로봇의 위치를 추정하는 것을 특징으로 할 수 있다.
바람직하게, 상기 위치 인식부는 상기 에지를 기반으로 산출된 오도메트리 정보를 이용하여 상태 정보를 예측하고, 예측된 상기 상태 정보와 기 저장된 키 프레임을 이용하여 현재의 위치를 추정하는 것을 특징으로 한다.
바람직하게, 상기 위치 인식부는 상기 에지를 기반으로 산출된 제1 오도메트리 정보와 관성 정보를 기반으로 산출된 제2 오도메트리 정보 중 하나를 이용하여 상태 정보를 예측하고, 예측된 상기 상태 정보와 기 저장된 키 프레임을 이용하여 현재의 위치를 추정하는 것을 특징으로 한다.
바람직하게, 상기 위치 인식부는 입력 받은 상기 스테레오 영상을 기 설정된 크기로 축소하여 축소된 상기 스테레오 영상을 브리프 바이너리 서술자를 이용하여 인코딩하여 그 인코딩한 결과로 이진 데이터를 생성하고, 생성된 상기 이진 데이터와 기 저장된 키 프레임 내 이동 로봇의 절대 위치를 나타내는 데이터와 비교하여 그 비교한 결과로 상기 절대 위치로 상기 이동 로봇의 현재의 위치를 인식하는 것을 특징으로 한다.
바람직하게, 상기 위치 인식부는 상기 제1 오도메트리 정보가 기 설정된 조건을 만족하면 상기 제1 오도메트리 정보를 선택하고, 상기 제1 오도메트리 정보가 기 설정된 조건을 만족하지 못하면 상기 제2 오도메트리 정보를 선택하는 것을 특징으로 한다.
바람직하게, 상기 위치 인식부는 예측된 상기 상태 정보를 기반으로 기 저장된 키 프레임 집합 중 기 설정된 개수의 이웃하는 키 프레임을 검색하고, 검색된 상기 기 설정된 개수의 이웃하는 키 프레임을 이용하여 상기 이동 로봇의 현재의 위치를 추정하는 것을 특징으로 한다.
또한, 본 발명에 따른 이동 로봇의 위치를 인식하기 위한 장치는 입력 받은 상기 스테레오 영상 내에서 기 설정된 개수의 수평 라인을 추출하고 추출된 상기 수평 라인을 따라 스테레오 정합을 수행하여 그 수행한 결과로 장애물까지의 거리 정보를 획득하는 장애물 감지부를 더 포함할 수 있다.
또한, 본 발명에 따른 이동 로봇의 위치를 인식하기 위한 장치는 상기 위치 인식부로부터 추정된 상기 이동 로봇의 현재의 위치 정보를 기반으로 자세 그래프를 재구성하고 그 재구성된 자세 그래프를 기반으로 기 저장된 상기 키 프레임의 집합을 업데이트하는 지도 작성부를 더 포함할 수 있다.
본 발명의 다른 한 관점에 따른 또한, 본 발명에 따른 이동 로봇의 위치를 인식하기 위한 방법은 이동 로봇에서 획득한 적어도 한쌍의 스테레오 영상을 입력받는 단계; 및 위치 인식부가 상기 입력받은 상기 스테레오 영상을 스무딩 처리하고, 상기 스무딩 처리한 결과로 스무딩 영상을 구하며, 상기 구한 스무딩 영상과 원래의 상기 스테레오 영상을 비교하여 에지를 추출하고, 상기 추출한 에지를 기반으로 상기 이동 로봇의 현재의 위치를 추정하는 단계를 포함할 수 있다.
바람직하게, 상기 추정하는 단계는, 상기 스테레오 영상으로부터 적분 영상을 구하는 단계; 상기 구한 적분 영상을 박스 스무딩 처리하여 그 박스 스무딩 처리한 결과로 박스 스무딩 영상을 산출하는 단계; 및 상기 산출한 박스 스무딩 영상과 원래의 상기 스테레오 영상을 비교하여 그 비교한 결과로 에지를 추출하는 단계를 포함할 수 있다.
바람직하게, 상기 추정하는 단계는, 상기 에지를 기반으로 산출된 오도메트리 정보를 이용하여 상태 정보를 예측하고, 예측된 상기 상태 정보와 기 저장된 키 프레임을 이용하여 현재의 위치를 추정하는 것을 특징으로 할 수 있다.
바람직하게, 상기 적분 영상을 구하는 단계는, 상기 스테레오 영상 orgImage으로부터 상기 적분 영상 IntegImage을 수학식
Figure 112016094129411-pat00002
에 의해 구하고, 여기서, x, y는 상기 적분 영상의 좌표, x', y'은 상기 스테레오 영상의 좌표를 나타내는 것을 특징으로 할 수 있다.
바람직하게, 상기 에지를 추출하는 단계는, 상기 스테레오 영상 Isource 와 상기 박스 스무딩 영상 Ibox_blur으로부터 상기 에지 Iedge를 수학식 (Iedge = Ibox_blur - Isource)에 의해 산출하는 것을 특징으로 할 수 있다.
바람직하게, 상기 추정하는 단계는 상기 에지를 기반으로 산출된 오도메트리 정보를 이용하여 상태 정보를 예측하고, 예측된 상기 상태 정보와 기 저장된 키 프레임을 이용하여 현재의 위치를 추정하는 것을 특징으로 한다.
바람직하게, 상기 추정하는 단계는 상기 에지를 기반으로 산출된 제1 오도메트리 정보와 관성 정보를 기반으로 산출된 제2 오도메트리 정보 중 하나를 이용하여 상태 정보를 예측하고, 예측된 상기 상태 정보와 기 저장된 키 프레임을 이용하여 현재의 위치를 추정하는 것을 특징으로 한다.
바람직하게, 상기 추정하는 단계는 입력 받은 상기 스테레오 영상을 기 설정된 크기로 축소하여 축소된 상기 스테레오 영상을 브리프 바이너리 서술자를 이용하여 인코딩하여 그 인코딩한 결과로 이진 데이터를 생성하고, 생성된 상기 이진 데이터와 기 저장된 키 프레임 내 이동 로봇의 절대 위치를 나타내는 데이터와 비교하여 그 비교한 결과로 상기 절대 위치로 상기 이동 로봇의 현재의 위치를 인식하는 것을 특징으로 한다.
바람직하게, 상기 추정하는 단계는 상기 제1 오도메트리 정보가 기 설정된 조건을 만족하면 상기 제1 오도메트리 정보를 선택하고, 상기 제1 오도메트리 정보가 기 설정된 조건을 만족하지 못하면 상기 제2 오도메트리 정보를 선택하는 것을 특징으로 한다.
바람직하게, 상기 추정하는 단계는 예측된 상기 상태 정보를 기반으로 기 저장된 키 프레임 집합 중 기 설정된 개수의 이웃하는 키 프레임을 검색하고, 검색된 상기 기 설정된 개수의 이웃하는 키 프레임을 이용하여 상기 이동 로봇의 현재의 위치를 추정하는 것을 특징으로 한다.
또한 본 발명에 따른 이동 로봇의 위치를 인식하기 위한 방법은 장애물 감지부가 입력 받은 상기 스테레오 영상 내에서 기 설정된 개수의 수평 라인을 추출하고 추출된 상기 수평 라인을 따라 스테레오 정합을 수행하여 그 수행한 결과로 장애물까지의 거리 정보를 획득하는 단계를 더 포함할 수 있다.
또한 본 발명에 따른 이동 로봇의 위치를 인식하기 위한 방법은 지도 작성부가 상기 위치 인식부로부터 추정된 상기 이동 로봇의 현재의 위치 정보를 기반으로 자세 그래프를 재구성하고 그 재구성된 자세 그래프를 기반으로 기 저장된 상기 키 프레임의 집합을 업데이트하는 단계를 더 포함할 수 있다.
이를 통해, 본 발명은 원래 영상으로부터 적분 영상을 구하고 그 구한 적분 영상을 박스 스무딩 처리하여 그 박스 스무딩 처리한 결과로 박스 스무딩 영상을 구한 후 박스 스무딩 영상으로부터 원래 영상을 빼서 최종적으로 에지 이미지를 추출하도록 함으로써, 코너 특징점들을 추출하기에 용이하지 않은 환경에서 에지 특징점을 추출할 수 있는 효과가 있다.
또한, 본 발명은 처리 과정이 단순하여 빠른 속도로 에지 이미지를 추출할 수 있는 효과가 있다.
또한, 본 발명은 본 발명에 따른 스테레오 영상을 기반으로 하는 비주얼 오도메트리를 통해 산출된 오도메트리 정보와 관성 정보를 기반으로 하는 내부 오도메트리를 통해 산출된 오도메트리 정보 중 선택된 하나의 오도메트리 정보를 기반으로 위치를 추정하도록 함으로써, 이동 로봇들이 기울어지거나 미끄러지는 것에 의한 위치 오차를 줄일 수 있는 효과가 있다.
또한, 본 발명은 이동 로봇들이 기울어지거나 미끄러지는 것에 의한 위치 오차에 취약했던 문제를 해결하기 때문에 안정적인 위치 인식이 가능할 수 있는 효과가 있다.
또한, 본 발명은 스테레오 영상으로부터 기 설정된 개수의 수평 라인을 추출하여 그 추출된 수평 라인을 따라 dense 스테레오 정합을 수행하여 그 수행한 결과로 장애물까지의 거리 정보를 획득하도록 함으로써, 고가의 거리 측정을 위한 전용 센서를 부착하지 않더라도 장애물에 대한 거리 정보를 획득할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 이동 로봇의 위치를 인식하기 위한 장치를 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 광각 카메라의 관심 영역을 보여주는 도면이다.
도 3은 본 발명의 일 실시예에 따른 공간 인식 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 특징점을 추출하는 방법을 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따라 추출된 에지 이미지를 보여주는 도면이다.
도 6은 본 발명의 일 실시예에 따른 3차원 점의 불확실성을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 에지에 대한 3차원 정보를 보여주는 도면이다.
도 8은 본 발명의 일 실시예에 따른 장애물 감지 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 이동 로봇의 위치를 인식하기 위한 방법을 나타내는 도면이다.
이하에서는, 본 발명의 실시예에 따른 ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법을 첨부한 도면을 참조하여 설명한다. 본 발명에 따른 동작 및 작용을 이해하는 데 필요한 부분을 중심으로 상세히 설명한다.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 동일한 명칭의 구성 요소에 대하여 도면에 따라 다른 참조부호를 부여할 수도 있으며, 서로 다른 도면임에도 불구하고 동일한 참조부호를 부여할 수도 있다. 그러나, 이와 같은 경우라 하더라도 해당 구성 요소가 실시예에 따라 서로 다른 기능을 갖는다는 것을 의미하거나, 서로 다른 실시예에서 동일한 기능을 갖는다는 것을 의미하는 것은 아니며, 각각의 구성 요소의 기능은 해당 실시예에서의 각각의 구성 요소에 대한 설명에 기초하여 판단하여야 할 것이다.
특히, 본 발명에서는 원래 영상으로부터 적분 영상을 구하고 그 구한 적분 영상을 박스 스무딩 처리하여 그 박스 스무딩 처리한 결과로 박스 스무딩 영상을 구한 후 박스 스무딩 영상으로부터 원래 영상을 빼서 최종적으로 에지 이미지를 추출하도록 하는 새로운 방안을 제안한다. 본 발명에서는 이렇게 박스 스무딩 처리하여 에지를 추출하는 방법을 ADoG(Approximated Difference of Gaussian)라고 명명한다.
또한 본 발명에서는 스테레오 영상을 기반으로 하는 비주얼 오도메트리(visual odometry)를 통해 산출된 오도메트리 정보와 관성 정보를 기반으로 하는 내부 오도메트리(internal odometry)를 통해 산출된 오도메트리 정보 중 선택된 하나의 오도메트리 정보를 기반으로 위치를 추정하며, 스테레오 영상으로부터 기 설정된 개수의 수평 라인을 추출하여 그 추출된 수평 라인을 따라 dense 스테레오 정합을 수행하여 그 수행한 결과로 장애물까지의 거리 정보를 획득한다.
본 실시예에서 오도메트리 정보는 예를 들어, 이동 로봇에 장착된 휠이나, 레그 조인트(legged joint)에 있는 회전 인코더(rotary encoders)로부터 획득되는 정보이다. 오도메트리 정보를 이용하여, 이동 로봇의 주행 거리, 바퀴의 회전 수와 같은 상태 정보를 계산할 수 있다. 또한, 상태 정보를 통해 현재 이동 로봇이 위치하는 공간을 파악할 수 있으므로, 이를 통해 영상 처리에 있어서 키 프레임을 결정하는 데에 사용할 수 있다.
도 1은 본 발명의 일 실시예에 따른 이동 로봇의 위치를 인식하기 위한 장치를 나타내는 도면이다.
본 발명의 일 실시예에 따른 이동 로봇의 위치를 인식하기 위한 장치는 영상 입력부(130a)와 위치 인식부(130)를 포함할 수 있다. 여기서 본 발명의 일 실시예에 따른 이동 로봇의 위치를 인식하기 위한 장치는 필요에 따라 카메라(110), IMU(Inertial Measurement Unit)(120), 장애물 감지부(140), 지도 작성부(150), DB(Database)(160) 중 적어도 어느 하나 이상을 더 포함할 수도 있다.
영상 입력부(130a)는 이동 로봇에서 획득한 적어도 한쌍의 스테레오 영상을 입력받을 수 있다. 이때 상기 스테레오 영상은 이동 로봇에 구비된 두개의 카메라를 이용하여 획득된 영상이 될 수 있다.
카메라(110)는 적어도 한쌍의 스테레오 영상 즉, 좌측 영상과 우측 영상을 획득하기 위해 2개가 구비될 수 있다. 여기서 2개의 카메라라 함은 2개의 서로 다른 렌즈를 이용하여 2개의 시각에서 영상을 획득하는 것을 의미하는 것으로, 하나의 영상 획득 장치에 2개의 렌즈를 구비하여 2개의 영상을 획득하는 경우를 포함함은 물론이다. 이때, 카메라(110)는 기 설정된 관심 영역을 갖도록 장착될 수 있다. 여기서 관심 영역이란 이동 로봇에 구비된 카메라(110)를 이용하여 촬영하고자 하는 영역이 될 수 있다.
또한 여기서 카메라(110)는 바람직하게는 광각 카메라가 될 수 있다. 광각 카메라는 일반 카메라 렌즈와 비교하였을 때 보다 넓은 화각을 가지는 광각 렌즈를 이용하여 촬영하는 카메라이다. 이동 로봇에서는 보다 넓은 주변 영상을 획득하기 위하여 광각 카메라를 이용하는 것이 바람직하다. 예를 들면 광각 카메라는 어안 렌즈를 이용한 카메라가 될 수 있다. 그리고 여기서 광각 카메라는 예를 들면 60도 내지 270도의 화각을 가지는 광각 렌즈를 이용할 수 있다. 본 발명에의 광각 카메라는 위에서 일예로 든 화각의 범위에 한정되지 아니하고 다양한 범위의 화각을 가지는 렌즈를 이용한 카메라가 될 수 있다.
도 2는 본 발명의 일 실시예에 따른 광각 카메라의 관심 영역을 보여주는 도면이다.
도 2에 도시한 바와 같이, 본 발명에 따른 두 개의 카메라(110)는 기존의 이동 로봇에 장착된 카메라처럼 실내의 천정이나 전방만을 바라보지 않고, 광각 렌즈를 이용하여 이동 로봇(10)에서 천정과 전방 모두를 바라보도록 장착하여 천정과 전방을 모두 관심 영역(ROI)으로 가질 수 있다.
예컨대, 카메라는 광각 렌즈를 이용하여 수평 방향과 수직 방향의 영역을 모두 촬영할 수 있다.
본 발명은 이렇게 장착된 카메라(110)를 이용하여 천정과 전방을 모두 관심 영역으로 갖게 됨으로써, 특징점 확보가 용이해질 뿐 아니라 특징점을 찾기가 어려운 지점에서도 위치 인식이 가능하고, 전방에 대한 장애물 인식도 가능하게 된다.
IMU(120)는 이동 로봇의 관성 정보 예컨대, 위치, 자세 등의 정보를 측정할 수 있다.
위치 인식부(130)는 카메라(110)로부터 스테레오 영상을 입력 받아 입력 받은 스테레오 영상을 기반으로 일정 거리를 이동할 때마다 주어진 공간을 인식할 수 있다.
도 3은 본 발명의 일 실시예에 따른 공간 인식 과정을 설명하기 위한 도면이다.
도 3에 도시한 바와 같이, 위치 인식부(130)는 일정 거리를 이동할 때마다 또는 새로운 키 프레임을 생성할 때마다 주어진 공간을 인식하여 데이터베이스화할 수 있다.
위치 인식부(130)는 입력 받은 스테레오 영상을 기 설정된 크기로 축소하여 블러링(blurring)할 수 있다. 여기서, 기 설정된 크기는 1/8 크기인 것이 바람직하다. 도 3을 참조하면 위치 인식부(130)는 입력 받은 스테레오 영상 (a)를 축소하고 블러링한 영상 (b)를 생성할 수 있다.
위치 인식부(130)는 블러링된 스테레오 영상을 브리프(BRIEF, Binary Robust Independent Elementary Features) 바이너리 서술자(BRIEF binary descriptor)를 이용하여 인코딩하여 그 인코딩한 결과로 이진 데이터를 생성할 수 있다. 여기서 브리프 바이너리 서술자는 "{BRIEF}: Computing a Local Binary Descriptor Very Fast, M. Calonder, V. Lepetit, M. Ozuysal, T. Trzcinski, C. Strecha, and P. Fua IEEE Transactions on Pattern Analysis and Machine Intelligence 2012"에서 소개하고 있는 방식을 이용하여 인코딩할 수 있다. 여기서, 이진 데이터는 예를 들면 32바이트(Byte) 크기로 생성될 수 있다. 도 3의 (c)는 이와 같은 브리프 바이너리 서술자를 나타내는 참고도이다.
위치 인식부(130)는 이렇게 생성된 이진 데이터와 기 저장된 키 프레임 내 이동 로봇의 절대 위치를 나타내는 데이터와 비교하여 그 비교한 결과로 기 설정된 범위 이내에 있는 경우 그 절대 위치로 현재의 위치를 인식할 수 있다.
이렇게 본 발명에서 공간 인식을 위해 브리프 바이너리 서술자를 이용하는 이유는 기존에 사용하던 SIFT, SURF와 같은 서술자에 비해 연산 속도가 매우 빠르기 때문이다.
위치 인식부(130)는 카메라(110)로부터 스테레오 영상을 입력 받아 입력 받은 스테레오 영상을 기반으로 하는 비주얼 오도메트리를 통해 제1 오도메트리 정보를 획득하고, IMU(120)으로부터 관성 정보를 입력 받아 입력 받은 관성 정보를 기반으로 하는 내부 오도메트리를 통해 제2 오도메트리 정보를 획득할 수 있다.
이때, 위치 인식부(130)는 스테레오 영상으로부터 특징점을 추출하여 추출된 특징점을 추적하고 그 추적하는 특징점을 이용하여 오도메트리 정보를 획득할 수 있다.
일반적으로 전처리 과정에서 추출되는 특징점은 코너이다. 그러나 예컨대, 복도나 넓은 사무실 등의 텍스쳐가 없는 영역에서는 충분한 양의 특징점을 구하는 것이 불가능하다.
위치 인식부(130)는 이를 해결하기 위해 에지에 대한 스테레오 매칭을 수행한다. 즉, 위치 인식부(130)는 스테레오 영상으로부터 에지를 추출하고, 추출된 에지에 대해 sparse 스테레오 매칭(sparse stereo matching)을 수행할 수 있다. 여기서 sparse 스테레오 매칭은 dense 스테레오 매칭과 대별되는 개념으로 스테레오 영상 간에 매칭을 수행함에 있어서 정확한 매칭 결과를 산출하기 보다는 대강의 매칭을 빠르게 수행하는 매칭 방법으로, 매칭 간격을 조절하거나 매칭을 위하여 탐색하는 범위를 조정하는 등의 기존의 다양한 방법을 이용할 수 있다.
특히, 본 발명에서는 코너 특징점들을 추출하기에 용이하지 않은 환경에서도 특징점을 추출하기 위해 ADoG(Approximated Difference of Gaussian)를 이용하여 에지 이미지를 추출하고자 한다.
여기서 위치 인식부(130)는 상기 입력받은 상기 스테레오 영상을 스무딩 처리하고, 상기 스무딩 처리한 결과로 스무딩 영상을 구하며, 상기 구한 스무딩 영상과 원래의 상기 스테레오 영상을 비교하여 에지를 추출하고, 상기 추출한 에지를 기반으로 상기 이동 로봇의 현재의 위치를 추정할 수 있다.
여기서 위치 인식부(130)는, 상기 스테레오 영상으로부터 적분 영상을 구하고, 상기 구한 적분 영상을 박스 스무딩 처리하여 그 박스 스무딩 처리한 결과로 박스 스무딩 영상을 산출하며, 상기 산출한 박스 스무딩 영상과 원래의 상기 스테레오 영상을 비교하여 그 비교한 결과로 에지를 추출할 수 있다.
이를 위하여 위치 인식부(130)는, 도 1과 같이 상기 스테레오 영상으로부터 적분 영상을 구하는 적분 영상 획득부(131); 상기 구한 적분 영상을 박스 스무딩 처리하여 그 박스 스무딩 처리한 결과로 박스 스무딩 영상을 산출하는 박스 스무딩 영상 산출부(132); 및 상기 산출한 박스 스무딩 영상과 원래의 상기 스테레오 영상을 비교하여 그 비교한 결과로 에지를 추출하는 에지 추출부(133)를 포함할 수 있다. 그리고 위치 추정부(134)를 더 포함할 수 있다. 여기서 위치 추정부(134)는 이하에서 상술하는 바 위치 인식부(130)가 추출한 에지를 이용하여 이동 로봇의 위치를 추정하는 동작을 동일하게 수행할 수 있다.
도 4는 본 발명의 일 실시예에 따른 특징점을 추출하는 방법을 나타내는 도면이다.
도 4에 도시한 바와 같이, 본 발명에 따른 위치 인식부(130)의 적분 영상 획득부(131)는 스테레오 영상 orgImage으로부터 적분 영상 IntegImage을 구할 수 있는데(S410), 다음의 [수학식 1]과 같다.
[수학식 1]
Figure 112015058779916-pat00003
여기서, x, y는 상기 적분 영상의 좌표, x', y'은 상기 스테레오 영상의 좌표를 나타낸다. 다음으로, 위치 인식부(130)의 스무딩 영상 산출부(132)는 구한 적분 영상을 박스 블러(box blur) 또는 박스 스무딩(box smoothing) 처리하여 그 박스 스무딩 처리한 결과로 박스 스무딩 영상을 산출할 수 있다(S420).
이때, 박스 스무딩은 가우시안 스무딩(Gaussian smoothing)과 마찬가지로 노이즈 제거, 윤곽 정보 추출을 목적으로 하는 전처리(pre-processing) 과정이라고 할 수 있다.
본 발명에서는 박스 스무딩 처리를 일 예로 설명하고 있지만 반드시 이에 한정되지 않고 다양한 스무딩 처리 기법 예컨대, 가우시안 스무딩 등을 적용할 수 있다.
다음으로, 위치 인식부(130)의 에지 추출부(133)는 박스 스무딩 영상 Ibox_blur으로부터 원래 영상 즉, 스테레오 영상 Isource을 빼서 에지 이미지 Iedge를 추출할 수 있는데(S430), 다음의 [수학식 2]와 같다.
[수학식 2]
Iedge = Ibox_blur - Isource
이러한 적분, 스무딩, 빼기 과정을 통해 최종적인 에지 이미지가 추출될 수 있다.
도 5는 본 발명의 일 실시예에 따라 추출된 에지 이미지를 보여주는 도면이다.
도 5에 도시한 바와 같이, 도 5 (a)와 같은 스테레오 영상으로부터 도 5 (b)와 같은 에지 이미지를 추출하되, 박스 스무딩을 이용하여 빠른 속도로 에지 이미지를 추출할 수 있음을 알 수 있다.
도 6은 본 발명의 일 실시예에 따른 3차원 점의 불확실성을 설명하기 위한 도면이다.
도 6에 도시한 바와 같이, 위치 인식부(130)는 수행한 결과로 구한 깊이 값에 따라 불확실성(uncertainty) σ를 설정하고 DB에 저장할 수 있다. 광각 카메라의 경우 초점 길이(focal length)가 매우 짧아 해상도가 낮아져서 구한 깊이 값의 신뢰도가 떨어지기 때문에 이후에 업데이트를 수행한다.
두 개의 카메라를 이용하여 구한 3차원점의 불확실성은 다음의 [수학식 3]과 같다.
[수학식 3]
Figure 112015058779916-pat00004
여기서,
Figure 112016094129411-pat00005
는 불확실성 공분산 타원체(uncertainty covariance ellipsoid)를 나타내고, b는 카메라 사이의 거리를 나타내며, x, y, z는 좌영상 카메라의 좌표계, x', y', z'는 우영상 카메라의 좌표계를 나타내고, (c, r)와 (c', r')는 좌영상과 우영상에서 서로 매칭하는 픽셀의 좌표를 나타내고, f와 f'는 각각 좌영상 카메라와 우영상 카메라의 초점 거리를 나타내며, σr, σc는 특징점을 추출할 때의 상기 불확실성을 좌표계의 각 축으로 표현한 것이며, r0, c0는 카메라의 광축을 카메라 좌표계로 표현한 것이다. 그리고, d는 특징점이 좌측과 우측에 투영되었을 때 그 차이값으로 일반적으로는 시차(disparity)라고 한다. σd는 측정된 깊이값의 불확실성을 나타낸다.
이동 로봇이 일정 거리를 이동하였다고 판단되는 시점에서 키 프레임에 저장된 각 픽셀들을 현재의 영상에 투영시켜 가장 비슷한 픽셀을 찾아 깊이 값을 업데이트한다. 이러한 업데이트는 일반적인 베이시안 룰을 적용하여 수행할 수 있다.
이때, 이동 로봇이 동작하는 중에는 다양한 변수 특히, 움직이는 장애물이나 가려짐에 의해 잘못된 정보들이 들어오게 되고 이를 기반으로 구한 깊이 값 중에는 이상점(outlier)이 존재한다.
이러한 문제를 해결하기 위해, 구한 깊이 값이 1Σ 이내이면 변수 no_success를 1 증가시키고, 구한 깊이 값이 1Σ보다 크면, 변수 no_failure를 1 증가시킨 후 신뢰도 no_success/(no_success+no_failure)가 특정 수치 이상 큰 경우에만 위치 인식에 사용한다.
이렇게 깊이 값을 업데이트하는데 사용되는 베이시안 룰은 다음의 [수학식 4]와 같다.
[수학식 4]
Figure 112015058779916-pat00006
Figure 112015058779916-pat00007
μ는 깊이값에 대한 평균값, μz1는 이전에 구한 깊이값에 대한 평균값, μz2는 현재 측정된 깊이값에 대한 평균값, σ는 μ의 불확실성, σz1는 μz1의 불확실성, σz2는 μz2의 불확실성을 나타낸다. 여기서는 깊이 값 z에 대한 업데이트 과정을 설명하고 있지만, x와 y 값은 z에 따라 변화하기 때문에 x, y, z가 모두 업데이트 되어 위치 파악이 가능하고 이렇게 업데이트된 x, y, z를 이용하여 역으로 해당 카메라의 위치 파악도 가능하게 된다.
도 7은 본 발명의 일 실시예에 따른 에지에 대한 3차원 정보를 보여주는 도면이다. 도 7의 (a)는 좌영상 카메라에 투영된 깊이 값을 나타내는 영상이고, (b)는 우영상 카메라에 투영된 깊이 값을 나타내는 영상이고, (c)는 업데이트 과정을 거쳐 획득된 깊이 값을 나타내는 영상이고, (d)는 매칭점 및 깊이 값에 대한 투영을 나타내는 영상이다.
도 7에 도시한 바와 같이, 앞에서 설명한 깊이 값에 대한 업데이트를 반복적으로 수행하게 되면 각 에지에 대한 3차원 정보를 지속적으로 구할 수 있음을 볼 수 있다.
또한, IMU의 정보는 카메라로 환경을 인지하기 어려운 상황에서 매우 중요하다. 그러나 저가형 IMU들은 모두 바이어스(bias)가 심하게 변하거나 추정하기가 매우 어렵다. 이를 해결하기 위한 방법은 로봇을 잠시 멈추고 평균을 취하여 바이어스를 구하는 것인데 이 경우에는 사용자 입자에서 이동 로봇이 지능적으로 보이지 않을 뿐만 아니라 작업 속도도 떨어지게 되는 단점이 있다.
위치 인식부(130)는 이를 해결하기 위해 이동 중에도 바이어스를 업데이트한다.
θg는 자이로 센서를 통해 구한 각속도이고, θc는 광각 스테레오 비전을 통해 구한 각속도라고 가정한다. 이동 로봇의 주행 중에는 바이어스 등에 의해서 둘 사이에 오차가 발생하게 된다. 이 오차 θe는 다음의 [수학식 5]와 같이 정의할 수 있다.
[수학식 5]
θe = θg - θc
이때, θe는 바이어스가 될 수 있고, 빠른 회전이나 외란이 발생하는 경우에는 다음의 [수학식 6]과 같이 베이시안 룰을 적용하여 바이어스를 업데이트한다.
[수학식 6]
If, |θ|<thresholdmoving, μn= θe, σ2=1deg/sec×0.1deg/sec
μn는 바이어스의 오차, σ는 μn의 불확실성을 나타낸다. 이동 로봇이 이동 중 멈출 수 있는 시점에는 다음의 [수학식 7]과 같이 업데이트한다.
[수학식 7]
If, |θ|<thresholdstop, μn= θe, σ2=0.1deg/sec×0.1deg/sec
이러한 업데이트 과정을 통해 바이어스는 실시간으로 보정되기 때문에 순간적으로 카메라를 사용할 수 없는 시점이 되더라도 항상 최적의 바이어스를 이용하여 IMU를 이용한 오도메트리 정보가 일정 수준 이상의 정확도를 유지할 수 있게 된다.
위치 인식부(130)는 제1 오도메트리 정보와 제2 오도메트리 정보 중 하나의 오도메트리 정보를 선택하여 선택된 오도메트리 정보를 기반으로 현재의 상태 정보 예컨대, 자세, 위치 등을 예측할 수 있다.
위치 인식부(130)는 예측된 상태 정보를 기반으로 기 저장된 키 프레임 집합 중 기 설정된 개수의 이웃하는 키 프레임을 이용하여 현재의 위치를 추정할 수 있다. 여기서, 키 프레임은 주기적으로 측정된 이동 로봇의 상태 정보를 포함할 수 있다.
여기서 위치 인식부(130)는, 상기 스테레오 영상에서 추출한 상기 에지를 이용하여 상기 스테레오 영상 간의 스테레오 매칭을 수행하여 상기 스테레오 영상 에 포함된 픽셀에서의 시차 값 또는 깊이 값을 산출하고, 상기 산출한 시차 값 또는 깊이 값을 이용하여 상기 이동 로봇의 현재의 위치를 추정할 수 있다. 즉 각 스테레오 영상에서 추출한 에지에 해당하는 픽셀에서 상기 스테레오 영상 간의 스테레오 매칭을 수행하여 시차 값 또는 깊이 값을 산출하고, 상기 시차 값 또는 깊이 값과 카메라의 광축 정보, 초점거리 정보, 스테레오 카메라 사이의 거리 정보를 이용하여 상기 이동 로봇의 현재의 위치를 추정할 수 있다. 즉 스테레오 영상의 특정 픽셀에서의 시차 값 또는 깊이 값과 스테레오 영상을 획득한 카메라의 스펙 정보(광축, 초점거리, 카메라 간 거리)를 알면 해당 픽셀에서의 3차원 좌표를 복원할 수 있고, 스테레오 영상에 포함된 픽셀들에서의 3차원 좌표를 통하여 상대적으로 이동 로봇의 위치를 파악할 수 있는 것이다.
예를 들면 광축 u0와 v0를 알고 초점거리 f와 카메라 사이의 거리 b를 알며 스테레오 매칭을 통해서 시차 값(disparity) d를 알 때 복원된 3차원 좌표 (x, y, z) 는
Figure 112016094129411-pat00008
와 같다. u, v는 스테레오 영상 내 픽셀의 좌표를 나타낸다.
또한 여기서 스테레오 영상의 깊이 값을 이용하여 스테레오 영상을 취득한 물체의 위치를 파악하는 방법은 기존의 다양한 기법들을 이용할 수 있다.
장애물 감지부(140)는 카메라(110)로부터 스테레오 영상을 입력 받아 입력 받은 스테레오 영상 내에서 기 설정된 개수의 수평 라인을 추출할 수 있다. 여기서, 기 설정된 개수는 적어도 2개 이상을 사용하되, 특히 3개인 것이 바람직하다.
장애물 감지부(140)는 추출된 수평 라인을 따라 dense 스테레오 정합(dense stereo matching)을 수행하여 그 수행한 결과로 장애물까지의 거리 정보를 획득할 수 있다. 여기서 dense 스테레오 매칭은 sparse 스테레오 매칭과 대별되는 개념으로, 스테레오 영상 간에 매칭을 수행함에 있어서 정확한 매칭 결과를 산출하기 위한 매칭 방법이다. 이를 위하여 매칭 간격을 조절하거나 매칭을 위하여 탐색하는 범위를 조정하는 등의 기존의 다양한 방법을 이용할 수 있다.
도 8은 본 발명의 일 실시예에 따른 장애물 감지 과정을 설명하기 위한 도면이다.
도 8에 도시한 바와 같이, 장애물 감지부(140)는 입력 받은 도 8의 (a)와 (b)와 같은 좌, 우 스테레오 영상을 기반으로 고밀도 스테레오 매칭을 수행하여 그 수행한 결과로 깊이 값을 산출할 수 있다. 여기서 도 8 (c) 영상은 이렇게 산출된 깊이 값을 그레이스케일로 표현하고 있다. 그리고 도 8 (c)은 장애물 감지에 이용되는 라인 영역(L)을 나타내고 있다.
이때, 전체 영역에 대한 깊이 값 산출은 소형 프로세서를 탑재한 이동 로봇에서는 불가능하기 때문에 본 발명에서는 일부 영역에 대해서만 깊이 값을 추출하고자 한다.
지도 작성부(150)는 위치 인식부(130)로부터 추정된 현재의 위치 정보를 제공 받아 제공 받은 위치 정보를 기반으로 자세 그래프(pose graph)를 재구성하고 그 재구성된 자세 그래프를 기반으로 기 저장된 키 프레임 집합을 업데이트할 수 있다.
DB(160)는 이동 로봇의 움직임에 따라 생성된 키 프레임 집합을 저장할 수 있다.
본 발명의 또 다른 실시예에 따른 이동 로봇의 위치를 인식하기 위한 방법은 이동 로봇에서 획득한 적어도 한쌍의 스테레오 영상을 입력받는 단계; 및 위치 인식부가 상기 입력받은 상기 스테레오 영상을 스무딩 처리하고, 상기 스무딩 처리한 결과로 스무딩 영상을 구하며, 상기 구한 스무딩 영상과 원래의 상기 스테레오 영상을 비교하여 에지를 추출하고, 상기 추출한 에지를 기반으로 상기 이동 로봇의 현재의 위치를 추정하는 단계를 포함할 수 있다. 상기 이동 로봇의 위치를 인식하기 위한 방법은 상술한 이동 로봇의 위치를 인식하기 위한 장치가 동작하는 방식과 동일한 방식으로 동작할 수 있다. 이에 중복되는 부분은 생략하고 간략히 서술한다.
여기서 상기 추정하는 단계는, 상기 스테레오 영상으로부터 적분 영상을 구하는 단계; 상기 구한 적분 영상을 박스 스무딩 처리하여 그 박스 스무딩 처리한 결과로 박스 스무딩 영상을 산출하는 단계; 및 상기 산출한 박스 스무딩 영상과 원래의 상기 스테레오 영상을 비교하여 그 비교한 결과로 에지를 추출하는 단계를 포함할 수 있다.
여기서 상기 추정하는 단계는, 상기 에지를 기반으로 산출된 오도메트리 정보를 이용하여 상태 정보를 예측하고, 예측된 상기 상태 정보와 기 저장된 키 프레임을 이용하여 현재의 위치를 추정할 수 있다.
여기서 상기 적분 영상을 구하는 단계는, 상기 스테레오 영상 orgImage으로부터 상기 적분 영상 IntegImage을 수학식
Figure 112015058779916-pat00009
에 의해 구할 수 있다.
여기서 상기 에지를 추출하는 단계는, 상기 스테레오 영상 Isource 와 상기 박스 스무딩 영상 Ibox_blur으로부터 상기 에지 Iedge를 수학식 (Iedge = Ibox_blur - Isource)에 의해 산출할 수 있다.
도 9는 본 발명의 일 실시예에 따른 이동 로봇의 위치를 인식하기 위한 방법을 나타내는 도면이다.
도 9에 도시한 바와 같이, 본 발명에 따른 이동 로봇의 위치를 인식하기 위한 장치(이하 위치인식 장치라 한다)는 카메라로부터 스테레오 영상을 입력 받으면(S910), 입력 받은 스테레오 영상으로부터 특징점을 추출하고 추출된 특징점을 프레임 단위로 지속적으로 추적할 수 있다(S920).
이때, 위치인식 장치는 입력 받은 스테레오 영상으로부터 코너(corner)가 아닌 ADoG를 이용한 에지를 추출하여 추출된 에지를 프레임 단위로 지속적으로 추적한다.
다음으로, 위치인식 장치는 스테레오 영상 내 이동 객체를 제거할 수 있다(S930).
예컨대, 위치인식 장치는 현재의 프레임과 마지막 n번째 프레임을 비교하여 그 비교한 결과로 이동 객체라도 판단될 수 있는 일치하지 않는 특징을 제거하게 된다.
다음으로, 위치인식 장치는 추적하는 특징점을 기반으로 비주얼 오도메트리를 수행하여 그 수행한 결과로 제1 오도메트리 정보를 획득하고(S940), 관성 정보를 기반으로 하는 내부 오도메트리를 통해 제2 오도메트리 정보를 획득할 수 있다(S942).
다음으로, 위치인식 장치는 획득한 제1 오도메트리 정보와 제2 오도메트리 정보 중 하나의 오도메트리 정보를 선택하고(S950), 선택된 오도메트리 정보와 자세 정보를 이용하여 상태 정보를 예측할 수 있다(S960).
이때, 위치인식 장치는 제1 오도메트리 정보가 기 설정된 조건을 만족하면 제1 오도메트리 정보를 선택하고, 만족하지 못하면 제2 오도메트리 정보를 선택하게 된다.
여기서 기 설정된 조건을 만족하는지를 판단하는 것은 오도메트리 정보 예컨대, 위치 정보의 변화율이 기 설정된 임계치 이내인지를 판단하는 것을 의미할 수 있다.
다음으로, 위치인식 장치는 예측된 상태 정보를 기반으로 기 저장된 키 프레임 집합 중 기 설정된 개수의 이웃하는 키 프레임을 검색하고(S970), 검색된 기 설정된 개수의 이웃하는 키 프레임을 이용하여 현재의 위치를 추정할 수 있다(S980).
이때, 이웃하는 키 프레임의 개수가 많을수록 위치를 정확하게 추정할 수 있다.
본 실시예에 따른 위치 인식 장치는 자율 주행하는 청소로봇, 서비스 로봇에 적용될 수 있다. 예를 들어, 청소로봇은 실내 환경, 또는 실외 환경에서 자율 주행하는데, 주행 중 벽면, 난간, 책상, 가구 등 다양한 장애물과 마주치게 되고, 자율 주행 청소로봇은 청소 구역에서의 자신의 위치와, 파악된 장애물의 위치를 이용하여 주행 경로를 결정하여 주행한다. 본 실시예에 따라 자율 주행 청소 로봇은 외부 영상 획득을 위하여, 스테레오 카메라 특히 광각 스테레오 카메라를 영상 획득부로 포함하며, 이를 통해 획득된 외부 환경에 대한 정보, 특히 에지와 관련된 특징점을 이용하여 자신의 위치를 추정하고, 주행 경로를 결정하며 주행하도록 구현될 수 있다.
특히, SLAM(Simultaneous Localization And Map-Building)을 기반으로 자율 주행하는 청소로봇의 경우, 구축된 격자 맵에서 자신의 위치를 추정하고, 장애물의 위치를 추정하며, 추정된 위치 관계를 이용하여 장애물과의 충돌을 피하기 위한 주행경로를 결정하거나, 또는 최적 경로를 결정하는데 본 실시예가 이용될 수 있다.
상술한 본 발명의 실시예에 따른 위치 인식을 위한 방법은, 컴퓨터에서 판독가능한 소프트웨어의 형태로 구현될 수 있으며, 이러한 소프트웨어는 자율 주행 청소 로봇 내에 탑재된 프로세서에서 실행될 수 있다.
한편, 이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.
이상에서 설명한 실시예들은 그 일 예로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
130a: 영상 입력부
110: 카메라
120: IMU
130: 위치 인식부
140: 장애물 감지부
150: 지도 작성부
160: DB

Claims (20)

  1. 이동 로봇에서 획득한 적어도 한쌍의 스테레오 영상을 입력받는 영상 입력부; 및
    입력받은 상기 스테레오 영상에서 에지를 추출하고, 추출한 상기 에지를 기반으로 상기 이동 로봇의 현재의 위치를 추정하는 위치 인식부
    를 포함하되, 상기 위치 인식부는
    상기 스테레오 영상으로부터 적분 영상을 구하고, 상기 적분 영상을 박스 스무딩 처리하여 그 박스 스무딩 처리한 결과를 기초로 박스 스무딩 영상을 산출하며, 상기 박스 스무딩 영상과 원래의 스테레오 영상을 비교하여 그 비교한 결과로 상기 에지를 추출하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 장치.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 스테레오 영상을 획득하는 두개의 카메라
    를 더 포함하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 장치.
  4. 삭제
  5. 제 1 항에 있어서,
    수학식
    Figure 112017022369127-pat00010
    을 이용하여 상기 스테레오 영상 orgImage로부터 상기 적분 영상 IntegImage를 구하는 적분 영상 획득부
    를 더 포함하며,
    상기 수학식에서 x와 y는 상기 적분 영상의 좌표를 나타내고, x'과 y'은 상기 스테레오 영상의 좌표를 나타내는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 장치.
  6. 제 1 항에 있어서,
    상기 스테레오 영상 Isource와 상기 박스 스무딩 영상 Ibox_blur로부터 상기 에지 Iedge를 수학식 (Iedge = Ibox_blur - Isource)에 의해 산출하는 에지 추출부
    를 더 포함하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 장치.
  7. 제 1 항에 있어서,
    상기 위치 인식부는,
    상기 스테레오 영상에서 추출한 상기 에지를 이용하여 스테레오 영상들 간의 스테레오 매칭을 수행하여 깊이값을 산출하고, 상기 깊이값을 이용하여 상기 이동 로봇의 위치를 추정하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 장치.
  8. 제 1 항에 있어서,
    상기 위치 인식부는,
    상기 에지를 기반으로 산출된 오도메트리 정보를 이용하여 상태 정보를 예측하고, 예측된 상기 상태 정보와 미리 저장된 키 프레임을 이용하여 현재의 위치를 추정하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 장치.
  9. 제 1 항에 있어서,
    상기 위치 인식부는,
    상기 에지를 기반으로 산출된 제1 오도메트리 정보와 관성 정보를 기반으로 산출된 제2 오도메트리 정보 중 적어도 하나를 이용하여 상태 정보를 예측하고, 예측된 상기 상태 정보와 미리 저장된 키 프레임을 이용하여 현재의 위치를 추정하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 장치.
  10. 제 1 항에 있어서,
    상기 위치 인식부는,
    입력받은 상기 스테레오 영상을 미리 설정된 크기로 축소하며, 축소된 상기 스테레오 영상을 브리프 바이너리 서술자를 이용하여 인코딩하여 그 인코딩한 결과로 이진 데이터를 생성하고,
    생성된 상기 이진 데이터와 미리 저장된 키 프레임 내 상기 이동 로봇의 절대 위치를 나타내는 데이터를 비교하여 그 비교한 결과로 상기 절대 위치로 상기 이동 로봇의 현재의 위치를 인식하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 장치.
  11. 제 1 항에 있어서,
    상기 위치 인식부는,
    상기 에지를 기반으로 산출된 제1 오도메트리 정보가 미리 설정된 조건을 만족하면 상기 제1 오도메트리 정보를 선택하고,
    상기 제1 오도메트리 정보가 미리 설정된 조건을 만족하지 못하면 관성 정보를 기반으로 산출된 제2 오도메트리 정보를 선택하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 장치.
  12. 제 9 항에 있어서,
    상기 위치 인식부는,
    예측된 상기 상태 정보를 기반으로 미리 저장된 키 프레임 집합 중 미리 설정된 개수의 이웃하는 키 프레임을 검색하고,
    검색된 상기 이웃하는 키 프레임을 이용하여 상기 이동 로봇의 현재의 위치를 추정하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 장치.
  13. 제 1 항에 있어서,
    입력받은 상기 스테레오 영상 내에서 미리 설정된 개수의 수평 라인을 추출하고, 추출된 상기 수평 라인을 따라 스테레오 정합을 수행하여 그 수행한 결과를 기초로 장애물까지의 거리 정보를 획득하는 장애물 감지부
    를 더 포함하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 장치.
  14. 제 1 항에 있어서,
    상기 위치 인식부로부터 추정된 상기 이동 로봇의 현재의 위치 정보를 기반으로 자세 그래프를 재구성하고, 그 재구성된 자세 그래프를 기반으로 미리 저장된 키 프레임의 집합을 업데이트하는 지도 작성부
    를 더 포함하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 장치.
  15. 이동 로봇에서 획득한 적어도 한쌍의 스테레오 영상을 입력받는 단계; 및
    입력받은 상기 스테레오 영상에서 에지를 추출하고, 추출된 상기 에지를 기반으로 상기 이동 로봇의 현재의 위치를 추정하는 단계
    를 포함하되, 상기 추정하는 단계는
    상기 스테레오 영상으로부터 적분 영상을 구하고, 상기 적분 영상을 박스 스무딩 처리하여 그 박스 스무딩 처리한 결과를 기초로 박스 스무딩 영상을 산출하며, 상기 박스 스무딩 영상과 원래의 스테레오 영상을 비교하여 그 비교한 결과로 상기 에지를 추출하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 방법.
  16. 삭제
  17. 제 15 항에 있어서,
    상기 추정하는 단계는,
    상기 에지를 기반으로 산출된 오도메트리 정보를 이용하여 상태 정보를 예측하고, 예측된 상기 상태 정보와 미리 저장된 키 프레임을 이용하여 현재의 위치를 추정하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 방법.
  18. 제 15 항에 있어서,
    상기 추정하는 단계는,
    상기 에지를 기반으로 산출된 제1 오도메트리 정보와 관성 정보를 기반으로 산출된 제2 오도메트리 정보 중 적어도 하나를 이용하여 상태 정보를 예측하고, 예측된 상기 상태 정보와 미리 저장된 키 프레임을 이용하여 현재의 위치를 추정하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 방법.
  19. 제 15 항에 있어서,
    상기 추정하는 단계는,
    입력받은 상기 스테레오 영상을 미리 설정된 크기로 축소하며, 축소된 상기 스테레오 영상을 브리프 바이너리 서술자를 이용하여 인코딩하여 그 인코딩한 결과로 이진 데이터를 생성하고,
    생성된 상기 이진 데이터와 미리 저장된 키 프레임 내 이동 로봇의 절대 위치를 나타내는 데이터와 비교하여 그 비교한 결과로 상기 절대 위치로 상기 이동 로봇의 현재의 위치를 인식하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 방법.
  20. 제 15 항에 있어서,
    상기 추정하는 단계는,
    상기 에지를 기반으로 산출된 제1 오도메트리 정보가 미리 설정된 조건을 만족하면 상기 제1 오도메트리 정보를 선택하고,
    상기 제1 오도메트리 정보가 미리 설정된 조건을 만족하지 못하면 관성 정보를 기반으로 산출된 제2 오도메트리 정보를 선택하는 것을 특징으로 하는 이동 로봇의 위치를 인식하기 위한 방법.
KR1020150086230A 2014-06-17 2015-06-17 ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 KR101784183B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020140073708 2014-06-17
KR20140073708 2014-06-17
PCT/KR2015/006154 WO2015194865A1 (ko) 2014-06-17 2015-06-17 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20150144730A KR20150144730A (ko) 2015-12-28
KR101784183B1 true KR101784183B1 (ko) 2017-10-11

Family

ID=61628068

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020150086218A KR101776620B1 (ko) 2014-06-17 2015-06-17 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR1020150086230A KR101784183B1 (ko) 2014-06-17 2015-06-17 ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020150086218A KR101776620B1 (ko) 2014-06-17 2015-06-17 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법

Country Status (4)

Country Link
US (1) US10307910B2 (ko)
EP (1) EP3159122A4 (ko)
KR (2) KR101776620B1 (ko)
WO (1) WO2015194865A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11579298B2 (en) 2017-09-20 2023-02-14 Yujin Robot Co., Ltd. Hybrid sensor and compact Lidar sensor
US11874399B2 (en) 2018-05-16 2024-01-16 Yujin Robot Co., Ltd. 3D scanning LIDAR sensor

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101844744B1 (ko) * 2016-01-20 2018-04-05 주식회사 유진로봇 이동로봇을 원격으로 제어하는 원격 제어 장치 및 시스템과 그의 수행방법
WO2017208424A1 (ja) * 2016-06-02 2017-12-07 三菱電機株式会社 姿勢推定装置、姿勢推定方法及び観測システム
US10962647B2 (en) 2016-11-30 2021-03-30 Yujin Robot Co., Ltd. Lidar apparatus based on time of flight and moving object
CN107553497B (zh) * 2017-10-20 2023-12-22 苏州瑞得恩光能科技有限公司 太阳能面板清扫机器人的边缘定位装置及其定位方法
JP7140580B2 (ja) * 2018-07-13 2022-09-21 マクセル株式会社 ステレオ撮像装置
US10782137B2 (en) * 2019-01-28 2020-09-22 Qfeeltech (Beijing) Co., Ltd. Methods, apparatus, and systems for localization and mapping
CN110269550B (zh) * 2019-06-13 2021-06-08 深圳市银星智能科技股份有限公司 一种门位置识别方法以及移动机器人
CN113043282B (zh) * 2019-12-12 2022-03-29 牧今科技 用于物体检测或机器人交互规划的方法和系统
EP4102175A4 (en) * 2020-02-07 2023-07-26 Panasonic Intellectual Property Management Co., Ltd. POSITION MEASUREMENT DEVICE
CN112274077B (zh) * 2020-10-30 2021-08-10 东南数字经济发展研究院 一种扫地机器人用基于路径规划的清扫方法
CN112665575B (zh) * 2020-11-27 2023-12-29 重庆大学 一种基于移动机器人的slam回环检测方法
CN114029944A (zh) * 2021-10-08 2022-02-11 智动时代(北京)科技有限公司 一种三维空间粒晶向位定位算法
KR20230100307A (ko) * 2021-12-28 2023-07-05 네이버랩스 주식회사 로봇의 회전각도 검출방법,이를 이용하는 로봇 및 건물
CN114851197B (zh) * 2022-05-16 2023-08-04 华北电力大学(保定) 一种排管电缆机器人及其控制方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834577B1 (ko) * 2006-12-07 2008-06-02 한국전자통신연구원 스테레오 비전 처리를 통해 목표물 검색 및 추종 방법, 및이를 적용한 가정용 지능형 서비스 로봇 장치
KR101083394B1 (ko) 2009-10-30 2011-11-14 주식회사 유진로봇 이동 로봇의 위치 인식을 위한 지도 생성 및 갱신 방법

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100478452B1 (ko) 2002-06-12 2005-03-23 삼성전자주식회사 이동 로봇의 위치 및 방향 인식 장치 및 방법
US7110602B2 (en) * 2002-08-21 2006-09-19 Raytheon Company System and method for detection of image edges using a polar algorithm process
US7760956B2 (en) * 2005-05-12 2010-07-20 Hewlett-Packard Development Company, L.P. System and method for producing a page using frames of a video stream
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
KR100848642B1 (ko) * 2007-02-22 2008-07-28 고려대학교 산학협력단 영상 프레임을 암호화하는 방법과 복원하는 방법
KR101581197B1 (ko) 2009-01-06 2015-12-30 삼성전자주식회사 로봇 및 그 제어방법
KR101513639B1 (ko) * 2009-04-30 2015-04-20 엘지전자 주식회사 이동 로봇, 로봇 청소기 및 이동 로봇의 각도 검출 방법
KR101618030B1 (ko) 2009-07-28 2016-05-09 주식회사 유진로봇 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
KR101167627B1 (ko) * 2010-02-25 2012-07-23 연세대학교 산학협력단 이동 로봇의 위치 및 지도의 이중 보정 장치 및 방법
KR20120070291A (ko) 2010-12-21 2012-06-29 삼성전자주식회사 보행 로봇 및 그의 동시 위치 인식 및 지도 작성 방법
KR20130004674A (ko) 2011-07-04 2013-01-14 주식회사 스마트센스테크놀러지 다 수개 지시물체의 위치인식장치
EP2824425B1 (en) * 2012-03-06 2017-05-17 Nissan Motor Co., Ltd Moving-object position/attitude estimation apparatus and method for estimating position/attitude of moving object
JP5963353B2 (ja) * 2012-08-09 2016-08-03 株式会社トプコン 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム
EP2818948B1 (en) * 2013-06-27 2016-11-16 ABB Schweiz AG Method and data presenting device for assisting a remote user to provide instructions
CN104067145B (zh) * 2014-05-26 2016-10-05 中国科学院自动化研究所 剪枝机器人系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834577B1 (ko) * 2006-12-07 2008-06-02 한국전자통신연구원 스테레오 비전 처리를 통해 목표물 검색 및 추종 방법, 및이를 적용한 가정용 지능형 서비스 로봇 장치
KR101083394B1 (ko) 2009-10-30 2011-11-14 주식회사 유진로봇 이동 로봇의 위치 인식을 위한 지도 생성 및 갱신 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11579298B2 (en) 2017-09-20 2023-02-14 Yujin Robot Co., Ltd. Hybrid sensor and compact Lidar sensor
US11874399B2 (en) 2018-05-16 2024-01-16 Yujin Robot Co., Ltd. 3D scanning LIDAR sensor

Also Published As

Publication number Publication date
KR101776620B1 (ko) 2017-09-11
US10307910B2 (en) 2019-06-04
KR20150144726A (ko) 2015-12-28
KR20150144730A (ko) 2015-12-28
EP3159122A4 (en) 2018-05-30
WO2015194865A1 (ko) 2015-12-23
EP3159122A1 (en) 2017-04-26
US20170151674A1 (en) 2017-06-01

Similar Documents

Publication Publication Date Title
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN109084746B (zh) 用于具有辅助传感器的自主平台引导系统的单目模式
CN112785702B (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
JP6514624B2 (ja) 障害物検知装置
Saeedi et al. Vision-based 3-D trajectory tracking for unknown environments
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
KR101961001B1 (ko) 단일-카메라 거리 추정
KR101072876B1 (ko) 이동 로봇에서 자신의 위치를 추정하기 위한 방법 및 장치
JP5023186B2 (ja) 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム
CN108481327B (zh) 一种增强视觉的定位装置、定位方法及机器人
WO2014114923A1 (en) A method of detecting structural parts of a scene
KR20200075727A (ko) 깊이 맵 산출 방법 및 장치
JP2016152027A (ja) 画像処理装置、画像処理方法およびプログラム
CN115406447B (zh) 拒止环境下基于视觉惯性的四旋翼无人机自主定位方法
KR20200102108A (ko) 차량의 객체 검출 장치 및 방법
JP7354528B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム
KR102555269B1 (ko) 전방향 영상센서 및 관성측정센서의 자세추정 융합 방법 및 시스템
KR101866660B1 (ko) 동적인 환경에서 배경모델에 기반한 rgb-d 시각 주행 거리 측정 방법 및 장치
Engler et al. Recursive 3D scene estimation with multiple camera pairs
CN114694018A (zh) 一种对象信息检测方法、装置和存储介质
CN117095130A (zh) 一种三维建模方法及其系统

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant