KR100966875B1 - Localization method for robot by omni-directional image - Google Patents

Localization method for robot by omni-directional image Download PDF

Info

Publication number
KR100966875B1
KR100966875B1 KR1020060093653A KR20060093653A KR100966875B1 KR 100966875 B1 KR100966875 B1 KR 100966875B1 KR 1020060093653 A KR1020060093653 A KR 1020060093653A KR 20060093653 A KR20060093653 A KR 20060093653A KR 100966875 B1 KR100966875 B1 KR 100966875B1
Authority
KR
South Korea
Prior art keywords
robot
horizontal plane
correlation coefficient
plane line
nodes
Prior art date
Application number
KR1020060093653A
Other languages
Korean (ko)
Other versions
KR20080028185A (en
Inventor
윤석준
노경식
한우섭
민승기
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020060093653A priority Critical patent/KR100966875B1/en
Priority to US11/830,883 priority patent/US8498488B2/en
Priority to CN2007101418999A priority patent/CN101152718B/en
Priority to JP2007231617A priority patent/JP4500838B2/en
Publication of KR20080028185A publication Critical patent/KR20080028185A/en
Application granted granted Critical
Publication of KR100966875B1 publication Critical patent/KR100966875B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 전방위 영상을 이용한 로봇의 위치결정방법에 관한 것으로, 특히 본 발명은 전방위 카메라를 이용하여 카메라 주변의 360도 영상을 획득하고, 획득된 360도 영상의 수평면선에 대한 1차원 원형 영상과 미리 저장된 지도상의 각 노드의 수평면선사이의 상관계수를 고속 푸리에 변환(Fast Fourier Transform ; FFT) 기법을 이용함으로써 빠른 속도로 상관계수를 계산할 수 있어 로봇의 현재위치가 어느 노드에 부근인지를 보다 빨리 인식할 수 있다. 또한, 본 발명은 현재 로봇의 위치에서 얻은 수평면선을 노드 수평면선을 기준으로 변형시켜 상관 관계를 계산 해 줌으로써 노드 인식 정확도를 향산 시킨다. 또한, 본 발명은 기 계산된 상관관계를 기반으로 하여 입자 필터링을 통해 로봇의 전역 위치를 보다 신속하고 정확히 인식할 수 있다.The present invention relates to a positioning method of a robot using an omnidirectional image, and in particular, the present invention obtains a 360-degree image around the camera by using an omnidirectional camera, By using the Fast Fourier Transform (FFT) technique, the correlation coefficient between the horizontal plane lines of each node on the map can be calculated at a high speed so that the node knows which node is nearer. can do. In addition, the present invention improves the node recognition accuracy by transforming the horizontal plane line obtained at the current position of the robot based on the node horizontal plane line to calculate the correlation. In addition, the present invention can recognize the global position of the robot more quickly and accurately through particle filtering based on the calculated correlation.

이를 위해 본 발명은 로봇의 전방위 영상을 획득하는 단계와, 획득된 전방위 영상의 임의의 수평면선을 추출하는 단계와, 추출된 로봇의 수평면선과 미리 저장된 복수노드의 수평면선사이의 상관계수를 고속 푸리에 변환에 기반하여 산출하는 단계와, 산출된 상관계수를 기반으로 한 입자 필터링의 확률적 접근에 의해 로봇의 위치를 인식하는 단계를 포함하는 것을 특징으로 한다.To this end, the present invention obtains an omnidirectional image of a robot, extracts an arbitrary horizontal plane line of the acquired omnidirectional image, and performs fast Fourier transform of a correlation coefficient between the extracted horizontal plane line of the robot and the previously stored horizontal plane line of the plurality of nodes. And calculating the position of the robot by a probabilistic approach of particle filtering based on the calculated correlation coefficient.

Description

전방위 영상을 이용한 로봇의 위치 결정방법{LOCALIZATION METHOD FOR ROBOT BY OMNI-DIRECTIONAL IMAGE}Positioning method of robot using omnidirectional image {LOCALIZATION METHOD FOR ROBOT BY OMNI-DIRECTIONAL IMAGE}

도 1은 본 발명에 사용되는 전방위 카메라를 탑재한 이동 로봇의 구성도이다.1 is a configuration diagram of a mobile robot equipped with an omnidirectional camera used in the present invention.

도 2는 도 1의 전방위 카메라의 간략한 구성도이다.FIG. 2 is a schematic configuration diagram of the omnidirectional camera of FIG. 1.

도 3은 본 발명의 실시예에 따른 로봇의 위치결정시스템의 제어블록도이다.3 is a control block diagram of a positioning system of a robot according to an embodiment of the present invention.

도 4는 도 1의 전방위 카메라를 이용하여 획득한 전방위 영상이다.4 is an omnidirectional image obtained by using the omnidirectional camera of FIG. 1.

도 5는 도 4의 전방위 영상의 수평면선을 나타낸 도이다.5 is a diagram illustrating a horizontal plane line of the omnidirectional image of FIG. 4.

도 6은 본 발명의 실시예에 따른 로봇의 위치결정시스템의 개념도이다.6 is a conceptual diagram of a positioning system of a robot according to an embodiment of the present invention.

도 7은 본 발명의 실시예에 따른 로봇의 위치결정방법에 대한 제어흐름도이다.7 is a control flowchart of the positioning method of the robot according to an embodiment of the present invention.

도 8은 로봇의 수평면선과 기준노드의 수평면선의 모서리 추출을 설명하기 위한 도이다.8 is a view for explaining the edge extraction of the horizontal plane of the robot and the horizontal plane of the reference node.

도 9는 로봇의 수평면선과 기준노드의 수평면선의 모서리 매칭을 설명하기 위한 도이다.9 is a view for explaining the corner matching of the horizontal plane line of the robot and the horizontal plane line of the reference node.

도 10은 로봇의 수평면선 변형을 설명하기 위한 도이다.10 is a view for explaining the horizontal line deformation of the robot.

도 11은 로봇이 위치 가능한 전 영역에 대하여 일정 입자를 랜덤하게 뿌리는 것을 설명하기 위한 도이다.FIG. 11 is a diagram for explaining that the robot randomly sprays a certain particle over the entire area where the robot can be located. FIG.

도 12는 본 발명에 사용된 입자 필터링 기법에 의해 도 11에서 뿌려진 입자가 한 곳에 모인 것을 설명하기 위한 도이다.FIG. 12 is a view for explaining that particles scattered in FIG. 11 are gathered in one place by the particle filtering technique used in the present invention.

*도면의 주요 기능에 대한 부호의 설명*[Description of the Reference Numerals]

10 : 로봇 11 : 전방위 카메라10: robot 11: omnidirectional camera

20 : 영상처리부 30 : 고속푸리에변환부20: image processing unit 30: high speed Fourier transform unit

40 : 저장부 50 : 제어부40: storage unit 50: control unit

60 : 전방위카메라부60: omnidirectional camera

본 발명은 로봇의 위치 결정방법에 관한 것으로, 더욱 상세하게는 전방위 영상을 얻기 위한 전방위 카메라를 이용한 로봇의 위치 결정방법에 관한 것이다.The present invention relates to a method for positioning a robot, and more particularly, to a method for positioning a robot using an omnidirectional camera for obtaining an omnidirectional image.

일반적으로, 전방위 카메라는 전방향의 영상을 얻기 위한 것으로, 카메라 주변의 360도의 영상을 얻을 수 있다.In general, the omnidirectional camera is for obtaining an omnidirectional image, and can obtain an image of 360 degrees around the camera.

최근에는 이러한 전방위 카메라를 이동 로봇에 장착하여 로봇의 현재위치를 인식하는데 사용하고 있다.Recently, such a omnidirectional camera is mounted on a mobile robot and used to recognize the current position of the robot.

이러한 전방위 카메라를 로봇에 설치하여 로봇의 위치인식에 사용하는 방법은 일본 공개특허공보 특개평 10-160463호(공개일 1998년 6월 19일)에 기재된 것과 같이, 이동 공간 내의 임의의 위치에 여러 개의 노드를 정하고, 전방위카메라를 탑 재한 이동 로봇을 각 노드로 이동시켜 각 노드에서의 전방위 영상을 저장한다. 그 후 이동 로봇을 임의의 위치로 이동시켜 임의의 위치에 대한 전방위 영상을 획득한 후 획득한 전방위 영상과 이미 저장된 각 노드의 전방위 영상사이의 유사도를 측정하여 현재의 위치를 노드 기점으로 추정하여 인식한다.A method of installing such an omnidirectional camera in a robot and using it for position recognition of the robot is described in several publications at arbitrary positions in a moving space, as described in Japanese Patent Application Laid-Open No. 10-160463 (published June 19, 1998). The number of nodes is determined, and the mobile robot equipped with the omnidirectional camera is moved to each node to store the omnidirectional image from each node. After that, the mobile robot is moved to an arbitrary position to obtain an omnidirectional image of an arbitrary position, and then the similarity is measured between the acquired omnidirectional image and the previously stored omnidirectional image of each node. do.

그러나, 이러한 종래방법에서는 로봇의 현재 전방위 영상과 이미 저장된 각 노드의 전방위 영상간의 유사도를 측정하기 위하여 SAD(Sum of Absolute Differences ; SAD) 상관값(Correlation)을 사용하는데, 이 SAD(Sum of Absolute Differences ; SAD) 상관값(Correlation)을 이용한 방식은 이동 로봇의 각각의 회전각에 대하여 획득한 전방위 영상과 각 노드의 전방위 영상간의 영상차이를 일일이 비교하는 방식이므로 노드 수가 많아질수록 그 계산량이 기하급수적으로 증가하게 되기 때문에 사실상 실시간 위치인식이 불가능할 뿐만 아니라, 계산량 증가로 인한 오차 누적으로 인해 로봇이 어느 노드 부근인지를 정확히 알기 어려운 문제점이 있다.However, this conventional method uses SAD (Sum of Absolute Differences; Correlation) to measure the similarity between the current omnidirectional image of the robot and the previously stored omnidirectional image of each node. ; SAD) Correlation is a method that compares the image difference between the omnidirectional image obtained for each rotation angle of the mobile robot and the omnidirectional image of each node. In fact, not only real-time position recognition is impossible, but also due to error accumulation due to an increase in computation amount, it is difficult to know exactly which node the robot is near.

또한, 종래방법은 로봇의 위치를 인식함에 있어서, 로봇의 정확한 위치를 인식하는 것이 아니라, 로봇이 어느 노드 근처인지만을 추정할 수밖에 없어 로봇의 정확한 위치를 알 수 없는 문제점이 있다.In addition, in the conventional method of recognizing the position of the robot, it is not only to recognize the exact position of the robot, but only to estimate which node the robot is located, there is a problem that the exact position of the robot is not known.

본 발명은 전술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 로봇의 전방위 영상과 지도상의 기준노드의 영상간의 상관계수 추출을 보다 간편하면서도 고속 처리 가능하게 하여 기준노드를 기점으로 로봇의 위치를 보다 쉽고 빨리 인식 할 수 있는 로봇의 위치 결정방법을 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to extract the correlation coefficient between the omnidirectional image of the robot and the image of the reference node on the map more easily and at a high speed, thereby positioning the robot based on the reference node. It is to provide a robot positioning method that can be recognized more easily and quickly.

또한, 본 발명의 다른 목적은 로봇의 전방위 영상과 지도상의 기준노드의 영상간의 상관계수를 기반으로 한 입자 필터링의 확률적 접근에 의해 위치 오차 및 노이즈에 둔감하게 하여 로봇의 위치를 보다 정확하게 인식할 수 있고 로봇의 위치가 갑자기 변하는 상황에서도 대응이 가능하게 할 수 있는 로봇의 위치 결정방법을 제공하는 것이다.In addition, another object of the present invention is to be insensitive to position error and noise by probabilistic approach of particle filtering based on the correlation coefficient between the omnidirectional image of the robot and the image of the reference node on the map to more accurately recognize the position of the robot. It is possible to provide a robot positioning method capable of responding to a situation in which the position of the robot suddenly changes.

전술한 목적을 달성하기 위한 본 발명에 따른 전방위 영상을 이용한 로봇 위치 결정방법은 로봇의 전방위 영상을 획득하는 단계와, 상기 획득된 전방위 영상의 임의의 수평면선을 추출하는 단계와, 상기 추출된 로봇의 수평면선과 미리 저장된 복수노드의 수평면선사이의 상관계수를 고속 푸리에 변환에 기반하여 산출하는 단계와, 상기 산출된 상관계수가 미리 설정된 값 이상인 노드를 선택하는 단계와, 상기 선택된 노드를 기점으로 상기 로봇의 위치를 인식하는 단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, a robot positioning method using an omnidirectional image according to the present invention includes obtaining an omnidirectional image of a robot, extracting an arbitrary horizontal plane line of the obtained omnidirectional image, and extracting the robot. Calculating a correlation coefficient between a horizontal plane line and a horizontal plane line of a plurality of nodes based on a fast Fourier transform; selecting a node having the calculated correlation coefficient greater than or equal to a preset value; and starting from the selected node Recognizing the location of the characterized in that it comprises.

또한, 본 발명의 다른 전방위 영상을 이용한 로봇의 위치결정방법은 로봇의 전방위 영상을 획득하는 단계와, 상기 획득된 전방위 영상의 임의의 수평면선을 추출하는 단계와, 상기 추출된 로봇의 수평면선과 미리 저장된 복수노드의 수평면선사이의 상관계수를 고속 푸리에 변환에 기반하여 산출하는 단계와, 상기 산출된 상관계수를 기반으로 한 입자 필터링의 확률적 접근에 의해 상기 로봇의 위치를 인식하는 단계를 포함하는 것을 특징으로 한다.In addition, the positioning method of the robot using another omnidirectional image of the present invention comprises the steps of acquiring the omnidirectional image of the robot, extracting any horizontal plane line of the obtained omnidirectional image, and the horizontal plane line of the extracted robot Calculating a correlation coefficient between horizontal plane lines of a plurality of nodes stored on the basis of a fast Fourier transform; and recognizing the position of the robot by a probabilistic approach of particle filtering based on the calculated correlation coefficient. It features.

이하에서는 본 발명의 바람직한 실시예를 본 도면을 참조하여 상세하게 설명하도록 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

도 1 및 도 2에 도시된 바와 같이, 본 발명에 사용되는 전방위 카메라를 탑재한 이동 로봇(10)은 전방위 카메라와 이 전방위 카메라가 장착된 로봇본체(12)로 이루어지고, 전방위 카메라는 전방위 렌즈(11a)와 CCD 소자(11b)로 구성된다.1 and 2, the mobile robot 10 equipped with a omnidirectional camera used in the present invention comprises an omnidirectional camera and a robot body 12 equipped with the omnidirectional camera, and the omnidirectional camera is an omnidirectional lens. It consists of 11a and CCD element 11b.

도 2와 같이, 전방위 카메라 전면부에는 곡면 거울이 장착되며, 이 곡면의 거울에 의해 굴절된 카메라 주변의 360도 영상이 획득된다. 화살방향과 같이, 공간상의 점 Xmir가, 곡면 거울 면의 점 xmir에서 반사되어 CCD 소자(11b)에 결상되고, 최종적으로 영상 면의 점 ximg로 나타나게 된다. 이렇게 전방위 카메라를 중심으로 주변의 360□에 대한 영상을 얻을 수 있게 된다.As shown in FIG. 2, a curved mirror is mounted on the omnidirectional camera, and a 360 degree image around the camera refracted by the curved mirror is obtained. As in the direction of the arrow, the point X mir in space is reflected from the point x mir on the curved mirror surface to form an image on the CCD element 11b, and finally appears as a point x img on the image surface. In this way, it is possible to obtain an image of 360 ° around the omnidirectional camera.

본 발명은 상기한 전방위 카메라로부터 획득한 전방위 영상과 영상지도상의 수평면선들을 대상으로 후술하는 고속 푸리에 변환(Fast Fourier Transform ; FFT)방식에 의해 고속 계산되는 상관계수(Correlation Coefficient) 추출법과 이 상관계수 추출법에 의해 추출된 상관계수를 이용한 입자 필터링 기법에 의해서 로봇(10)의 정확한 위치를 추정하여 인식하게 된다. 이때, 수평면선은 전방위 영상 중 표면과 평행한 면의 영상으로 항상 같은 방향을 가르킨다.According to the present invention, a correlation coefficient extraction method and a fast correlation coefficient extraction method, which are described by a fast Fourier transform (FFT) method described later, are used for the omnidirectional image obtained from the omnidirectional camera and the horizontal plane lines on the image map. The exact position of the robot 10 is estimated by the particle filtering technique using the correlation coefficient extracted by the extraction method. In this case, the horizontal plane line is an image of a plane parallel to the surface of the omnidirectional image and always points in the same direction.

이를 위해 본 발명의 로봇(10) 위치 결정시스템은 도 3에 도시된 바와 같이, 상기한 전방위 카메라를 탑재한 로봇(10)은 전반적인 제어를 수행하는 제어부(50)를 구비한다. 이 제어부(50)에는 전방위카메라부(60)와, 영상처리부(20)와, 고속 푸리에 변환부(30)(Fast Fourier Transform module ; FFT 모듈) 및 저장부(40)가 전기적으로 연결된다.To this end, the robot 10 positioning system of the present invention, as shown in Figure 3, the robot 10 equipped with the omni-directional camera has a control unit 50 for performing the overall control. The controller 50 is electrically connected to the omnidirectional camera unit 60, the image processor 20, the fast Fourier transform module (FFT module), and the storage unit 40.

영상처리부(20)는 전방위 카메라에 의해 획득한 카메라 주변의 전방위 영상에 대한 영상 전처리를 수행하기 위한 것으로, 도 4의 전방위 영상의 무의미한 부분을 잘라내고 나머지 도너스 형태의 원형에 히스토그램 평활화를 수행하는 방식으로 영상을 전처리하여 전방위 영상을 밝기에 상관없도록 조명에 둔감하게 한다.The image processing unit 20 is to perform image preprocessing for the omnidirectional image around the camera obtained by the omnidirectional camera, and cuts out the meaningless portion of the omnidirectional image of FIG. 4 and performs histogram smoothing on the remaining donus-shaped circles. This preprocesses the image so that the omnidirectional image is insensitive to lighting regardless of brightness.

제어부(50)는 영상처리부(20)에 의해 전처리 된 영상에서 도 5에서 영상 내에 원주로 표시된 것과 같이, 영상 내의 수평면에 대응하는 수평면선을 추출한다. The controller 50 extracts a horizontal plane line corresponding to a horizontal plane in the image, as indicated by the circumference in the image in FIG. 5, from the image preprocessed by the image processor 20.

이때, 고속 푸리에 변환의 특성상 수평면선의 해상도(RGB)는 2의 제곱승이 바람직하며, 수평면선은 전방위 영상의 원점을 기준으로 미리 설정된 위치로 미리 설정된다.At this time, the resolution RGB of the horizontal plane line is preferably a power of 2, and the horizontal plane line is preset to a preset position based on the origin of the omnidirectional image.

고속 푸리에 변환부(30)는 푸리에 변환(Fourier transform)은 주파수 영역과 시간 영역 사이에 수치적 연속열의 표현들을 변환하는데 사용하는 수학적 연산으로, 일련의 시간 샘플을 취해 그 주파수 요소들을 측정하여 시간 샘플 연속열에 얼마나 많은 에너지가 나타나는지 다양한 주파수로 계산하는 것이다. 이러한 푸리에 변환을 고속화한 것이 고속 푸리에 변환이다. 푸리에 변환은 어느 길이의 해상도 연속 열도 계산할 수 있지만 고속 푸리에 변환의 이점을 최대한 활용하기 위해서는 앞서 설명한 바와 같이 그 수평면선의 해상도는 2의 제곱승이 될 필요가 있다.The fast Fourier transform 30 is a mathematical operation used to transform a representation of a numerical sequence between a frequency domain and a time domain. The fast Fourier transform unit 30 takes a series of time samples and measures the frequency components. How much energy appears in a sequence is calculated at various frequencies. The fast Fourier transform is a fast Fourier transform. The Fourier transform can compute a continuous sequence of resolutions of any length, but in order to take full advantage of the fast Fourier transform, the horizontal line resolution needs to be a power of two as described above.

저장부(40)는 영상지도상의 여러 개의 기준노드에 대하여 각 수평면선을 미리 추출하여 저장하고 있다.The storage unit 40 extracts and stores each horizontal plane line in advance for a plurality of reference nodes on the image map.

제어부(50)는 고속 푸리에 변환부(30)를 이용하여 로봇(10)의 수평면선과 영상지도상의 각 기준노드의 수평면선간의 상관계수를 산출시 노이즈에 둔감하면서도 고속 처리 가능하다. 이는 고속 푸리에 변환을 이용하는 경우, 각 상관계수와 함께 회전각이 한꺼번에 자동 계산되기 때문에 종래와 같이 각각의 회전각마다 두 영상간의 상관값을 일일이 계산할 필요가 없어져 고속 계산이 가능하게 된다. 이로 인해 로봇(10)의 실시간 위치 구현이 가능하게 된다.The control unit 50 is insensitive to noise and can perform high speed processing when calculating the correlation coefficient between the horizontal plane line of the robot 10 and the horizontal plane line of each reference node on the image map by using the fast Fourier transform unit 30. When the fast Fourier transform is used, since the rotation angle is automatically calculated together with each correlation coefficient, it is not necessary to calculate the correlation value between two images for each rotation angle as in the related art, thereby enabling high speed calculation. This enables real-time position implementation of the robot 10.

제어부(50)는 다음의 식 [1]에 의해서 로봇(10)의 현재의 전방위 영상의 수평면선과 저장부(40)에 미리 저장된 각각의 기준노드의 수평면선사이의 상관계수를 산출한다.The controller 50 calculates a correlation coefficient between the horizontal plane line of the current omnidirectional image of the robot 10 and the horizontal plane line of each reference node previously stored in the storage unit 40 by the following equation [1].

Figure 112009052653284-pat00016
식 [1]
Figure 112009052653284-pat00016
Formula [1]

(여기서, ρ(τ)는 상관계수이고, τ는 회전각이고, Cxy는 크로스 상관값(Cross Correlation)이고, Cxx 및 Cyy는 상관값(Correlation)이다)(Where ρ (τ) is the correlation coefficient, τ is the rotation angle, Cxy is the Cross Correlation, and Cxx and Cyy are the Correlation)

상기 식 [1]에서 상관계수의 절대값이 1에 가까울수록 두 전방위 영상의 수평면선이 유사하다는 것을 나타낸다. 또한 Cxy는 크로스 상관값은 고속 푸리에 변환을 이용하여 구한다.In Equation [1], the closer the absolute value of the correlation coefficient is to 1, the more similar the horizontal plane lines of the two omnidirectional images are. In addition, Cxy is obtained by using a fast Fourier transform.

상기 제어부(50)는 상기한 식 [1]을 이용하여 로봇(10)의 현재 수평면선과 저장부(40)에 미리 저장된 각 기준노드의 수평면선간의 상관계수를 산출하고, 산출된 상관계수를 이용하여 로봇(10)이 각 기준노드 중 어느 노드 부근에 있는지를 정확히 알 수 있게 된다. 일예로, 로봇(10)은 상관계수 중 가장 큰 상관계수를 갖는 기준노드 부근에 있다는 식으로 로봇(10)의 위치를 인식하게 된다.The control unit 50 calculates a correlation coefficient between the current horizontal plane line of the robot 10 and the horizontal plane line of each reference node previously stored in the storage unit 40 using the equation [1], and uses the calculated correlation coefficient. Therefore, it is possible to know exactly which node of each reference node the robot 10 is. For example, the robot 10 recognizes the position of the robot 10 by being in the vicinity of a reference node having the largest correlation coefficient among the correlation coefficients.

하지만, 상기한 방식만으로는 위치 오차와 노이즈 등의 에러요인에 의해 로봇(10)의 위치가 정확하지 않을 수 있기 때문에 보다 정확한 위치인식을 위해서는 위치 오차와 노이즈 등의 에러요인을 배제하기 위한 과정을 수행하는 것이 바람직하다.However, since the position of the robot 10 may not be accurate due to the error factors such as the position error and the noise only by the above method, a process for excluding the error factors such as the position error and the noise is performed for more accurate position recognition. It is desirable to.

이를 위해 상기 제어부(50)는 식 [1]에 의해 산출된 상관계수 들 중 상관관계가 높아 상관계수가 큰 M개의 노드를 선택하고, 선택된 M개의 노드에 대하여 각 노드의 수평면선에 대하여 현재 수평면선을 변형하여 노이즈에 둔감한 상관계수를 구하고, 구한 각 노드와의 상관계수를 이용한 입자필터링에 의해 로봇(10)의 현재 위치를 인식한다.To this end, the controller 50 selects M nodes having a high correlation coefficient among the correlation coefficients calculated by Equation [1], and the current horizontal plane with respect to the horizontal plane line of each node for the selected M nodes. The line is deformed to obtain a correlation coefficient insensitive to noise, and the current position of the robot 10 is recognized by particle filtering using the correlation coefficient with the obtained nodes.

좀더 자세히 살펴보면, 본 발명은 도 6에 도시된 바와 같이, 상기한 전방위 카메라로부터 획득한 로봇(10)의 전방위 영상에서 수평면선을 추출하고, 추출된 로봇(10)의 수평면선과, 영상지도상의 각 기준노드들에 대하여 미리 저장된 수평면선들을 대상으로 후술하는 고속 푸리에 변환(Fast Fourier Transform ; FFT)방식에 의해 고속 계산되는 상관계수(Correlation Coefficient)를 산출하고, 산출된 상관계수를 기반으로 하고, 로봇(10)의 구동명령과 로봇(10)의 현위치에 따른 입자 필터링 기법에 의해 로봇(10)의 정확한 현위치를 추정하여 인식하게 된다. 이때, 수평면선은 길이방향으로 여러 해상도(RGB)값을 가진다.In more detail, as shown in FIG. 6, the present invention extracts a horizontal plane line from an omnidirectional image of the robot 10 obtained from the omnidirectional camera, and extracts a horizontal plane line of the extracted robot 10 and an angle on an image map. Based on the calculated correlation coefficients, a fast Fourier Transform (FFT) method, which will be described later, is used to calculate the correlation coefficients based on the calculated correlation coefficients. The exact current position of the robot 10 is estimated by the particle filtering technique according to the driving command of the robot 10 and the current position of the robot 10. At this time, the horizontal plane line has various resolution (RGB) values in the longitudinal direction.

도 7은 본 발명의 실시예에 따른 로봇(10)의 위치 결정방법에 대한 제어흐름도이다. 도 7을 살펴보면, 먼저, 단계 S100에서 제어부(50)는 전방위 카메라를 이 용하여 로봇(10)의 전방위 영상을 획득하고, 단계 S110에서, 획득된 전방위 영상을 전처리한다.7 is a control flowchart of the positioning method of the robot 10 according to an embodiment of the present invention. Referring to FIG. 7, first, in step S100, the controller 50 acquires an omnidirectional image of the robot 10 using an omnidirectional camera, and in step S110, preprocesses the obtained omnidirectional image.

전방위 영상을 전처리한 후 단계 S120에서 전방위 영상에서 수평면선을 추출하고, 단계 S130에서, 고속 푸리에 변환방식에 기반하여 상술한 식 [1]을 이용하여 추출된 수평면선과 각 기준노드의 수평면선사이의 상관계수(제1상관계수)를 산출한다.After preprocessing the omnidirectional image, in step S120, the horizontal plane line is extracted from the omnidirectional image, and in step S130, the correlation between the horizontal plane line extracted using the above-described equation [1] based on the fast Fourier transform method and the horizontal plane line of each reference node The coefficient (first correlation coefficient) is calculated.

제1상관계수를 산출한 후 단계 S140에서 산출된 제1상관계수 중 상관계수값이 미리 설정된 값보다 높은 M개의 노드를 선택하고, 단계 S150에서, M개의 후보노드에 대하여 공간상의 같은 물체는 수평면상의 같은 곳에 위치하도록 현재 수평면을 변형시킨다. 이는 위치 오차 및 노이즈에 둔감하게 하기 위함으로 먼저, 도 8과 같이, 로봇(10)의 수평면선(Current Line)(200)과 각 후보노드의 수평면선(Landmark Line)(100)에 대하여 원으로 그린 것과 같이 두 수평면상의 모서리를 추출한다. 이때 모서리는 수평면선상의 각 해상도가 미리 설정된 값 이상 변화하는 끝점을 말한다. 도 9와 같이, 추출된 로봇(10)의 수평면선(200)과 선택된 후보노드의 수평면선(100)의 모서리를 매칭한다. 그런 후 도 10과 같이, 매칭된 모서리를 기준으로 현재의 수평면선을 변형하여 공간상의 같은 물체가 수평면상에 같은 곳에 위치하도록 변형된 현재의 수평면선(Wrapped Current Line)(300)과 같이 로봇(10)의 현재 수평면선을 변형시킨다.After calculating the first correlation coefficient, among the first correlation coefficients calculated in step S140, M nodes having a correlation coefficient value higher than a preset value are selected. In step S150, the same object in space with respect to M candidate nodes is a horizontal plane. Transform the current horizontal plane so that it is in the same place on the top of the jacket. This is insensitive to position error and noise. First, as shown in FIG. 8, a circle is made with respect to the horizontal line 200 of the robot 10 and the horizontal line 100 of each candidate node. Extract the edges on the two horizontal planes as shown. In this case, the corner refers to an end point at which each resolution on the horizontal line changes by more than a preset value. As shown in FIG. 9, the edges of the horizontal plane line 200 of the extracted robot 10 and the horizontal plane line 100 of the selected candidate node are matched. Then, as shown in FIG. 10, the robot (such as the current wrapped line (Wrapped Current Line) 300 is deformed so that the same object in space is located in the same place on the horizontal plane by modifying the current horizontal line based on the matched edge). 10) Deform the current horizontal line.

로봇(10)의 현재 수평면선을 변형시킨 후 단계 S160에서 변형된 로봇(10)의 현재 수평면선과 M개의 후보노드의 수평면선사이의 상관계수(제2상관계수)를 다시 산출하고, 단계 S170에서, 변형된 로봇(10)의 현재 수평면선과 M개의 후보노드의 수평면선사이의 상관계수(제2상관계수)가 높은 노드 N개(M>N)를 선택한다. 이 과정을 통하여 이동물체로 인하여 발생되는 위치 오차 및 각종 노이즈에 의한 위치 오차가 제거되어 로봇(10)이 M개보다 좁혀진 N개의 노드 부근에 있다는 것을 보다 정확하고 신뢰성이 있게 알 수 있게 된다.After transforming the current horizontal plane line of the robot 10, in step S160, a correlation coefficient (second correlation coefficient) between the current horizontal plane line of the modified robot 10 and the horizontal plane lines of the M candidate nodes is calculated again, and in step S170, N nodes (M> N) having a high correlation coefficient (second correlation coefficient) between the current horizontal plane line of the modified robot 10 and the horizontal plane lines of the M candidate nodes are selected. Through this process, the position error caused by the moving object and the position error due to various noises are eliminated, so that the robot 10 can be known more accurately and reliably near the N nodes that are narrower than M.

상기한 방식만으로는 로봇(10)이 어느 노드부근에 있는지 만을 알 수 있을 뿐 지도상의 어느 위치에 정확히 있는지를 알 수 없기 때문에 입자 필터링의 확률적 접근에 의해 로봇(10)의 현재위치를 정확히 알 수 있도록 하기 위하여 단계 180에서 선택된 N개의 노드를 중심으로 상관계수(제2상관계수)를 이용하여 입자 생성하여 로봇(10)이 위치 가능한 지도상의 전역에 랜덤하게 뿌리고, 단계 S190에서 각 입자의 확률값을 계산하여 로봇(10)의 현재의 위치를 추정하게 된다. 즉, 추정된 로봇(10)의 전 위치(Xt-1)와 로봇(10)의 구동 명령(Ut)에 의해 예상되는 로봇(10)의 위치 가능한 지도상의 전역에 입자를 골고루 뿌린다. 입자의 분포는 도 11에 도시된 바와 같이, 가우시안 분포를 가지며, 입자의 가우시안 분포의 표준 편차는 Xt-1의 오차, 이동 오차 등에 의해서 정해진다. 그리고 사용자가 로봇(10)을 다른 위치로 강제 이동시키는 것과 같이 로봇(10)의 위치가 갑자기 변하는 키드냅(Kidnap) 문제에 대응하기 위해서 입자를 전 영역에 대하여 랜덤으로 퍼트린다. Since only the above method can know only which node is located near which node, it cannot know exactly where it is on the map. Therefore, the present position of the robot 10 can be accurately known by probabilistic approach of particle filtering. In order to ensure that the particles are generated using the correlation coefficient (second correlation coefficient) centered on the N nodes selected in step 180, the robot 10 is randomly scattered on the map where the robot 10 can be located, and in step S190, probability values of the particles are determined. By calculating, the current position of the robot 10 is estimated. That is, the particles are evenly scattered all over the positionable map of the robot 10 expected by the estimated position Xt-1 of the robot 10 and the driving command Ut of the robot 10. The particle distribution has a Gaussian distribution, as shown in FIG. 11, and the standard deviation of the Gaussian distribution of the particles is determined by an error of Xt-1, a movement error, and the like. The particles are randomly spread over the entire area in order to cope with the Kidnap problem in which the position of the robot 10 changes suddenly, such as the user forcibly moving the robot 10 to another position.

각 입자에 로봇(10)이 위치할 확률은 각 노드와의 상관계수를 기반으로 하여 계산된다. 이 확률값을 기준으로 로봇(10)의 현재위치(Xt) 입자를 재샘플링을 한다. 이렇게 하여 도 12에 도시된 바와 같이, 로봇(10)의 현재위치를 추정할 수 있 게 된다. 즉, 노드의 상관계수가 높을수록 그 곳에 위치할 확률이 크기 때문에 각 입자에 대하여 가중치를 고려하여 부여하고, 가중치가 고려된 값을 기반으로 뿌려진 입자를 무작위 추출한다. 이러한 과정을 반복하되, 두 번째로 입자를 뿌릴 때는 기존 위치에 대부분이 뿌려지게 되고, 나머지 전역에 대하여 약간의 입자가 뿌려지게 된다. 이와 같은 과정을 반복하게 되면, 결국 도 12와 같이, 입자가 한 곳에 모이게 되며, 모여진 입자 중 어느 입자를 추출하게 되더라도 거의 동일한 위치를 나타나게 되기 때문에 결국 로봇(10)의 현재위치를 알 수 있게 된다.The probability that the robot 10 is located at each particle is calculated based on the correlation coefficient with each node. Based on this probability value, the current location Xt particles of the robot 10 are resampled. In this way, as shown in Figure 12, it is possible to estimate the current position of the robot (10). That is, since the higher the correlation coefficient of the node, the greater the probability of being located there, the weight is given to each particle and randomly extracted particles scattered based on the weighted value. This process is repeated, but the second time the particles are sprayed, most of them are scattered at the existing location, and some particles are scattered over the rest of the area. If this process is repeated, eventually, as shown in FIG. 12, the particles are gathered in one place, and even if any particles are collected from the collected particles, they are almost the same position, and thus the current position of the robot 10 can be known. .

이상에서 상세히 설명한 바와 같이, 본 발명은 전방위 카메라를 이용하여 카메라 주변의 360도 영상을 획득하고, 획득된 360도 영상의 수평면선에 대한 1차원 원형 영상과 미리 저장된 지도상의 각 노드의 수평면선사이의 상관계수를 고속 푸리에 변환(Fast Fourier Transform ; FFT) 기법을 이용함으로써 빠른 속도로 상관계수를 계산할 수 있어 로봇의 현재위치가 어느 노드에 부근인지를 보다 빨리 인식할 수 있는 효과가 있다.As described in detail above, the present invention obtains a 360 degree image around the camera by using an omnidirectional camera, and between the one-dimensional circular image of the horizontal plane line of the obtained 360 degree image and the horizontal plane line of each node on the pre-stored map. By using the Fast Fourier Transform (FFT) technique, the correlation coefficient can be calculated at a high speed, so that it is possible to recognize which node the robot is in close proximity to.

또한, 본 발명은 고속 푸리에 변환(Fast Fourier Transform ; FFT) 기법을 이용하여 고속 계산된 상관계수를 기반으로 하여 입자 필터링을 통해 로봇의 전역 위치를 보다 신속하고 정확히 인식할 수 있는 효과가 있고 로봇의 위치가 갑자기 변하는 키드냅(Kidnap) 문제도 해결이 가능할 뿐만 아니라, 하다. 로봇이 어느 노드 부근인지에 대한 신뢰성을 향상시킬 수 있는 효과가 있다.In addition, the present invention has the effect of quickly and accurately recognizing the global position of the robot through particle filtering based on a fast calculated correlation coefficient using the Fast Fourier Transform (FFT) technique. The Kidnap problem, which changes its position suddenly, can be solved as well. There is an effect that can improve the reliability of which node the robot is near.

또한, 고속 푸리에 변환(Fast Fourier Transform ; FFT) 기법을 이용하여 고 속 계산된 상관계수 중 상관관계가 높은 노드들에 대하여 이 노드의 수평면선에 대하여 로봇의 수평면선을 변형하여 노이즈에 둔감하고 보다 정확한 상관계수를 계산할 수 있다.In addition, the high-correlation nodes computed using the Fast Fourier Transform (FFT) technique are transformed into the robot's horizontal plane with respect to the horizontal plane of the node and are insensitive to noise. Accurate correlation coefficients can be calculated.

또한, 본 발명은 상기한 로봇 위치결정을 위해 사용되는 전방위 카메라는 낮은 단가로 인하여 로봇 위치 결정시스템을 저가로 구현 가능하여 기존의 고가 레이져 레인지 센서에 비하여 월등한 가격 경쟁력을 가지는 효과가 있다.In addition, the present invention, the omnidirectional camera used for the robot positioning can implement a robot positioning system at a low price due to the low unit cost has an excellent price competitiveness compared to the existing expensive laser range sensor.

또한, 본 발명은 실내에서 이동하는 로봇에 실시간 무표식 전역 위치 추정이 가능하고, 상관계수 오차에 둔감한 특성을 갖는다.In addition, the present invention is capable of real-time unmarked global position estimation for the robot moving in the room, and has a characteristic insensitive to the correlation coefficient error.

또한, 본 발명은 로봇의 위치인식을 위한 고속 계산이 가능하며, 제작되는 지도의 크기를 줄일 수 있는 효과가 있다.In addition, the present invention is capable of high-speed calculation for the position recognition of the robot, it is possible to reduce the size of the map produced.

Claims (16)

로봇의 전방위 영상을 획득하는 단계와,Acquiring an omnidirectional image of the robot; 상기 획득된 전방위 영상의 임의의 수평면선을 추출하는 단계와,Extracting an arbitrary horizontal plane line of the obtained omnidirectional image; 상기 추출된 로봇의 수평면선과 미리 저장된 복수노드의 수평면선사이의 상관계수를 고속 푸리에 변환에 기반하여 산출하는 단계와,Calculating a correlation coefficient between the horizontal plane line of the extracted robot and the horizontal plane line of a plurality of nodes based on a fast Fourier transform; 상기 산출된 상관계수가 미리 설정된 값 이상인 노드를 선택하는 단계와,Selecting a node whose calculated correlation coefficient is equal to or greater than a preset value; 상기 선택된 노드를 기점으로 상기 로봇의 위치를 인식하는 단계를 포함하는 것을 특징으로 하는 전방위 영상을 이용한 로봇의 위치결정방법.And recognizing the position of the robot based on the selected node. 제1항에 있어서, 상기 임의의 수평면선은 상기 전방위 영상의 원점으로 미리 설정된 위치만큼 이격된 원주인 것을 특징으로 하는 전방위 영상을 이용한 로봇의 위치결정방법.The robot positioning method according to claim 1, wherein the arbitrary horizontal plane line is a circumference spaced apart by a preset position as an origin of the omnidirectional image. 제1항에 있어서, 상기 로봇의 수평면선과 상기 미리 저장된 복수노드의 수평면선사이의 상관계수는 다음 식 [1]에 의해 산출되는 것을 특징으로 하는 전방위 영상을 이용한 로봇의 위치결정방법.The method of claim 1, wherein the correlation coefficient between the horizontal plane line of the robot and the horizontal plane line of the plurality of nodes previously stored is calculated by the following equation [1].
Figure 112009052653284-pat00017
식 [1]
Figure 112009052653284-pat00017
Formula [1]
(여기서, ρ(τ)는 상관계수이고, τ는 회전각이고, Cxy는 크로스 상관값(Cross Correlation)이고, Cxx 및 Cyy는 상관값(Correlation)이다)(Where ρ (τ) is the correlation coefficient, τ is the rotation angle, Cxy is the Cross Correlation, and Cxx and Cyy are the Correlation)
제1항에 있어서, 상기 산출된 상관계수가 미리 설정된 값 이상인 노드를 선택하는 단계는,The method of claim 1, wherein selecting a node having the calculated correlation coefficient greater than or equal to a preset value comprises: 상기 산출된 상관계수가 미리 설정된 값 이상인 M개의 노드를 선택하는 것을 특징으로 하는 전방위 영상을 이용한 로봇의 위치결정방법.And positioning M nodes having the calculated correlation coefficient equal to or greater than a predetermined value. 삭제delete 삭제delete 로봇의 전방위 영상을 획득하는 단계와,Acquiring an omnidirectional image of the robot; 상기 획득된 전방위 영상의 임의의 수평면선을 추출하는 단계와,Extracting an arbitrary horizontal plane line of the obtained omnidirectional image; 상기 추출된 로봇의 수평면선과 미리 저장된 복수노드의 수평면선사이의 상관계수를 고속 푸리에 변환에 기반하여 산출하는 단계와,Calculating a correlation coefficient between the horizontal plane line of the extracted robot and the horizontal plane line of a plurality of nodes based on a fast Fourier transform; 상기 산출된 상관계수를 기반으로 한 입자 필터링의 확률적 접근에 의해 상기 로봇의 위치를 인식하는 단계를 포함하는 것을 특징으로 하는 전방위 영상을 이용한 로봇의 위치결정방법.Recognizing the position of the robot by the probabilistic approach of particle filtering based on the calculated correlation coefficient. 제7항에 있어서, 상기 산출된 상관계수를 기반으로 한 입자 필터링의 확률적 접근에 의해 상기 로봇의 위치를 인식하는 단계는,The method of claim 7, wherein the step of recognizing the position of the robot by the probabilistic approach of particle filtering based on the calculated correlation coefficient, 상기 산출된 상관계수에 의해 결정되는 노드를 중심으로 상기 로봇이 위치 가능한 지도상의 전역에 입자를 랜덤하게 뿌리고, 상기 뿌려진 입자에 로봇이 위치할 확률값에 의해 입자를 추출하며, 상기 추출된 입자에 기초하여 상기 로봇의 현재위치를 인식하는 것을 특징으로 하는 전방위 영상을 이용한 로봇의 위치결정방법.Based on the node determined by the calculated correlation coefficient, the particles are randomly scattered over the map on which the robot can be located, and the particles are extracted by the probability value of the robot being located on the scattered particles, based on the extracted particles. Positioning method of the robot using the omni-directional image, characterized in that for recognizing the current position of the robot. 제8항에 있어서, 상기 로봇이 위치 가능한 지도상의 전역에 입자를 랜덤하게 뿌리는 단계는,The method of claim 8, wherein the step of randomly sprinkling particles throughout the map on which the robot is located, 상기 로봇의 전위치 및 구동명령에 의해 예상된 로봇의 위치 가능한 지도상의 전역에 입자를 골고루 뿌리는 것을 특징으로 하는 전방위 영상을 이용한 로봇의 위치결정방법.Positioning method of the robot using the omni-directional image, characterized in that evenly spraying the particles evenly over the possible map of the robot predicted by the full position and the driving command of the robot. 제8항에 있어서, 상기 로봇이 상기 뿌려진 입자에 위치할 확률값은 상기 산출된 상관계수가 높을수록 커지는 것을 특징으로 하는 전방위 영상을 이용한 로봇의 위치결정방법.The method of claim 8, wherein the probability that the robot is located in the scattered particles increases as the calculated correlation coefficient increases. 제7항에 있어서, 상기 산출된 상관계수를 기반으로 한 입자 필터링의 확률적 접근에 의해 상기 로봇의 위치를 인식하는 단계는,The method of claim 7, wherein the step of recognizing the position of the robot by the probabilistic approach of particle filtering based on the calculated correlation coefficient, 상기 산출된 상관계수에 의해 결정되는 노드를 중심으로 상기 로봇이 위치 가능한 지도상의 전역에 입자를 랜덤하게 뿌리고, 상기 뿌려진 입자에 로봇이 위치할 확률값에 기초하여 가중치를 부여하며, 상기 가중치가 부여된 값을 기반으로 뿌려진 입자를 무작위 추출하며, 상기 무작위 추출된 입자에 기초하여 상기 로봇의 현재위치를 인식하는 것을 특징으로 하는 전방위 영상을 이용한 로봇의 위치결정방법.The particles are scattered randomly over the map on which the robot can be located around the node determined by the calculated correlation coefficient, weighted based on a probability value that the robot is located on the scattered particles, and the weighted And randomly extracting particles scattered on the basis of a value, and recognizing a current position of the robot based on the randomly extracted particles. 제7항에 있어서, 상기 로봇의 수평면선과 상기 미리 저장된 복수노드의 수평면선사이의 상관계수는 다음 식 [1]에 의해 산출되는 것을 특징으로 하는 전방위 영상을 이용한 로봇의 위치결정방법.8. The method of claim 7, wherein the correlation coefficient between the horizontal plane line of the robot and the horizontal plane line of the plurality of nodes stored in advance is calculated by the following equation [1].
Figure 112009052653284-pat00018
식 [1]
Figure 112009052653284-pat00018
Formula [1]
(여기서, ρ(τ)는 상관계수이고, τ는 회전각이고, Cxy는 크로스 상관값(Cross Correlation)이고, Cxx 및 Cyy는 상관값(Correlation)이다)(Where ρ (τ) is the correlation coefficient, τ is the rotation angle, Cxy is the Cross Correlation, and Cxx and Cyy are the Correlation)
삭제delete 삭제delete 제4항에 있어서, 상기 선택된 노드를 기점으로 상기 로봇의 위치를 인식하는 단계는,The method of claim 4, wherein the recognizing a position of the robot based on the selected node comprises: 상기 선택된 M개의 노드의 수평면선에 대하여 공간상의 물체가 수평면상의 같은 곳에 위치하도록 상기 로봇의 현재 수평면선을 변형시키고, 상기 변형된 로봇의 현재 수평면선과 M개의 노드의 수평면선사이의 상관계수를 산출하며, 상기 산출된 상관계수 중 미리 설정된 값 이상인 노드를 N개(M>N) 선택하고, 상기 선택된 N개의 노드를 기점으로 상기 로봇의 위치를 인식하는 것을 특징으로 하는 전방위 영상을 이용한 로봇의 위치결정방법.Transforming the current horizontal plane line of the robot with respect to the horizontal plane lines of the selected M nodes such that the objects in space are located on the same plane on the horizontal plane, and calculating a correlation coefficient between the current plane plane of the modified robot and the horizontal plane lines of the M nodes Positioning of the robot using the omni-directional image, characterized in that for selecting N nodes (M> N) of the calculated correlation coefficient more than a predetermined value (M> N), and recognize the position of the robot from the selected N nodes Way. 제15항에 있어서, 상기 선택된 M개의 노드의 수평면선에 대하여 공간상의 같은 물체가 수평면상의 같은 곳에 위치하도록 상기 로봇의 현재 수평면선을 변형시키는 단계는,16. The method of claim 15, wherein the step of modifying the current horizontal plane line of the robot such that the same object in space is located in the same place on the horizontal plane with respect to the horizontal plane line of the selected M nodes, 상기 로봇의 현재 수평면선과 상기 M개의 노드의 수평면선의 모서리를 추출하고, 상기 추출된 로봇의 수평면선과 선택된 노드의 수평면선의 모서리를 매칭하며, 상기 매칭된 모서리를 기준으로 현재의 수평면선을 변형하여 공간상의 같은 물체가 수평면상에 같은 곳에 위치하도록 상기 로봇의 현재 수평면선을 변형시키는 것을 특징으로 하는 전방위 영상을 이용한 로봇의 위치결정방법.Extracts the edges of the current horizontal plane line of the robot and the horizontal plane line of the M nodes, matches the edges of the extracted horizontal plane line of the robot with the horizontal plane line of the selected node, and deforms the current horizontal plane line based on the matched edges. A method of positioning a robot using an omnidirectional image, wherein the current horizontal plane line of the robot is deformed so that the same object on the horizontal plane is located at the same place on the horizontal plane.
KR1020060093653A 2006-09-26 2006-09-26 Localization method for robot by omni-directional image KR100966875B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020060093653A KR100966875B1 (en) 2006-09-26 2006-09-26 Localization method for robot by omni-directional image
US11/830,883 US8498488B2 (en) 2006-09-26 2007-07-31 Method and apparatus to determine robot location using omni-directional image
CN2007101418999A CN101152718B (en) 2006-09-26 2007-08-16 Method and apparatus to determine robot location using omni-directional image
JP2007231617A JP4500838B2 (en) 2006-09-26 2007-09-06 Robot position determination method and apparatus using omnidirectional video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060093653A KR100966875B1 (en) 2006-09-26 2006-09-26 Localization method for robot by omni-directional image

Publications (2)

Publication Number Publication Date
KR20080028185A KR20080028185A (en) 2008-03-31
KR100966875B1 true KR100966875B1 (en) 2010-06-29

Family

ID=39225023

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060093653A KR100966875B1 (en) 2006-09-26 2006-09-26 Localization method for robot by omni-directional image

Country Status (4)

Country Link
US (1) US8498488B2 (en)
JP (1) JP4500838B2 (en)
KR (1) KR100966875B1 (en)
CN (1) CN101152718B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101811157B1 (en) * 2013-12-19 2018-01-25 인텔 코포레이션 Bowl-shaped imaging system
WO2018074903A1 (en) * 2016-10-20 2018-04-26 엘지전자 주식회사 Control method of mobile robot
US10442355B2 (en) 2014-09-17 2019-10-15 Intel Corporation Object visualization in bowl-shaped imaging systems

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8209121B1 (en) * 2007-10-10 2012-06-26 Google Inc. Registration of location data to street maps using hidden markov models, and application thereof
KR100926783B1 (en) * 2008-02-15 2009-11-13 한국과학기술연구원 Method for self-localization of a robot based on object recognition and environment information around the recognized object
CN101509781B (en) * 2009-03-20 2011-09-14 同济大学 Walking robot positioning system based on monocular cam
US8740538B2 (en) 2009-04-10 2014-06-03 Symbotic, LLC Storage and retrieval system
US8249302B2 (en) * 2009-06-30 2012-08-21 Mitsubishi Electric Research Laboratories, Inc. Method for determining a location from images acquired of an environment with an omni-directional camera
US8311285B2 (en) * 2009-06-30 2012-11-13 Mitsubishi Electric Research Laboratories, Inc. Method and system for localizing in urban environments from omni-direction skyline images
EP2495632B1 (en) * 2009-10-30 2018-09-12 Yujin Robot Co., Ltd. Map generating and updating method for mobile robot position recognition
KR101739996B1 (en) * 2010-11-03 2017-05-25 삼성전자주식회사 Moving robot and simultaneous localization and map-buliding method thereof
US8694152B2 (en) 2010-12-15 2014-04-08 Symbotic, LLC Maintenance access zones for storage and retrieval systems
US9008884B2 (en) 2010-12-15 2015-04-14 Symbotic Llc Bot position sensing
US10822168B2 (en) 2010-12-15 2020-11-03 Symbotic Llc Warehousing scalable storage structure
US9475649B2 (en) 2010-12-15 2016-10-25 Symbolic, LLC Pickface builder for storage and retrieval systems
US8908923B2 (en) 2011-05-13 2014-12-09 International Business Machines Corporation Interior location identification
TWI622540B (en) 2011-09-09 2018-05-01 辛波提克有限責任公司 Automated storage and retrieval system
KR101901586B1 (en) * 2011-12-23 2018-10-01 삼성전자주식회사 Apparatus for estimating the robot pose and method thereof
KR101997563B1 (en) * 2012-09-04 2019-07-08 삼성전자주식회사 Localization method for mobile object
CN103903219A (en) * 2012-12-26 2014-07-02 联想(北京)有限公司 Information processing method and system
KR102087595B1 (en) * 2013-02-28 2020-03-12 삼성전자주식회사 Endoscope system and control method thereof
KR102188622B1 (en) 2013-03-15 2020-12-08 심보틱 엘엘씨 Automated storage and retrieval system with integral secured personnel access zones and remote rover shutdown
TWI594933B (en) 2013-03-15 2017-08-11 辛波提克有限責任公司 Automated storage and retrieval system
TWI642028B (en) 2013-03-15 2018-11-21 辛波提克有限責任公司 Transportation system and automated storage and retrieval system with integral secured personnel access zones and remote rover shutdown
CN103273496B (en) * 2013-05-08 2015-07-15 长沙长泰机器人有限公司 Workpiece positioning method in robot transportation system by means of intelligent camera
JP6523296B2 (en) 2013-09-13 2019-05-29 シムボティック エルエルシー Automatic storage and retrieval system
KR101483549B1 (en) * 2013-12-03 2015-01-16 전자부품연구원 Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same
US10373335B1 (en) * 2014-07-10 2019-08-06 Hrl Laboratories, Llc System and method for location recognition and learning utilizing convolutional neural networks for robotic exploration
US11320828B1 (en) 2018-03-08 2022-05-03 AI Incorporated Robotic cleaner
US11254002B1 (en) 2018-03-19 2022-02-22 AI Incorporated Autonomous robotic device
US11454981B1 (en) 2018-04-20 2022-09-27 AI Incorporated Versatile mobile robotic device
US11340079B1 (en) 2018-05-21 2022-05-24 AI Incorporated Simultaneous collaboration, localization, and mapping
US11548159B1 (en) 2018-05-31 2023-01-10 AI Incorporated Modular robot
US11199853B1 (en) 2018-07-11 2021-12-14 AI Incorporated Versatile mobile platform
CN111203877B (en) * 2020-01-13 2021-12-28 广州大学 Climbing building waste sorting robot system, control method, device and medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0566831A (en) * 1991-04-30 1993-03-19 Shinko Electric Co Ltd Running control method in moving robot system
KR20060046842A (en) * 2004-11-12 2006-05-18 학교법인 포항공과대학교 Method for calculating efficiently edge information for position recognition of synchro drive robots
KR20060081673A (en) * 2006-05-25 2006-07-13 한국정보통신대학교 산학협력단 Security robot system for wide area based of sensor/network and method thereof
JP2006195969A (en) * 2004-12-14 2006-07-27 Honda Motor Co Ltd Apparatus for generating movement path for autonomous mobile robot

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2853283B2 (en) * 1989-09-18 1999-02-03 三菱電機株式会社 Omnidirectional observation device
US5920337A (en) * 1994-12-27 1999-07-06 Siemens Corporate Research, Inc. Omnidirectional visual image detector and processor
JP3641335B2 (en) 1996-12-03 2005-04-20 シャープ株式会社 Position detection method using omnidirectional vision sensor
JP2004132933A (en) * 2002-10-15 2004-04-30 Japan Science & Technology Agency Position/attitude estimation method of active sensor, its device and position/attitude estimation program of active sensor
US7135992B2 (en) * 2002-12-17 2006-11-14 Evolution Robotics, Inc. Systems and methods for using multiple hypotheses in a visual simultaneous localization and mapping system
JP3879848B2 (en) * 2003-03-14 2007-02-14 松下電工株式会社 Autonomous mobile device
JP4352214B2 (en) 2003-04-23 2009-10-28 清水建設株式会社 3D position and orientation image estimation method
US8896660B2 (en) * 2003-05-30 2014-11-25 Alcatel Lucent Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments
KR100552691B1 (en) * 2003-09-16 2006-02-20 삼성전자주식회사 Method and apparatus for localization in mobile robot
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
JP2006220521A (en) * 2005-02-10 2006-08-24 Hitachi Ltd Self-position measuring device and program for performing self-position measurement method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0566831A (en) * 1991-04-30 1993-03-19 Shinko Electric Co Ltd Running control method in moving robot system
KR20060046842A (en) * 2004-11-12 2006-05-18 학교법인 포항공과대학교 Method for calculating efficiently edge information for position recognition of synchro drive robots
JP2006195969A (en) * 2004-12-14 2006-07-27 Honda Motor Co Ltd Apparatus for generating movement path for autonomous mobile robot
KR20060081673A (en) * 2006-05-25 2006-07-13 한국정보통신대학교 산학협력단 Security robot system for wide area based of sensor/network and method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101811157B1 (en) * 2013-12-19 2018-01-25 인텔 코포레이션 Bowl-shaped imaging system
US10210597B2 (en) 2013-12-19 2019-02-19 Intel Corporation Bowl-shaped imaging system
US10442355B2 (en) 2014-09-17 2019-10-15 Intel Corporation Object visualization in bowl-shaped imaging systems
WO2018074903A1 (en) * 2016-10-20 2018-04-26 엘지전자 주식회사 Control method of mobile robot

Also Published As

Publication number Publication date
JP4500838B2 (en) 2010-07-14
US8498488B2 (en) 2013-07-30
CN101152718B (en) 2011-09-28
US20080075357A1 (en) 2008-03-27
JP2008083045A (en) 2008-04-10
KR20080028185A (en) 2008-03-31
CN101152718A (en) 2008-04-02

Similar Documents

Publication Publication Date Title
KR100966875B1 (en) Localization method for robot by omni-directional image
US8588512B2 (en) Localization method for a moving robot
CN109001757B (en) Parking space intelligent detection method based on 2D laser radar
Kang et al. Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model
WO2009142841A2 (en) Rectangular table detection using hybrid rgb and depth camera sensors
KR101176693B1 (en) Method and System for Detecting Lane by Using Distance Sensor
JP4561346B2 (en) Vehicle motion estimation device and moving object detection device
Núñez et al. Natural landmark extraction for mobile robot navigation based on an adaptive curvature estimation
JP2011113313A (en) Attitude estimation device
KR101645322B1 (en) System and method for detecting lane using lane variation vector and cardinal spline
JP2006090957A (en) Surrounding object detecting device for moving body, and surrounding object detection method for moving body
JP2015059808A (en) Object monitoring device and object monitoring system
JP2010039617A (en) Object tracking device and program
KR20120094102A (en) Similarity degree calculation device, similarity degree calculation method, and program
KR101594113B1 (en) Apparatus and Method for tracking image patch in consideration of scale
US5142659A (en) Estimation of local surface geometry from relative range images for object recognition
CN111474560A (en) Obstacle positioning method, device and equipment
JP2003317106A (en) Travel path recognition device
JP7290104B2 (en) SELF-LOCATION ESTIMATING DEVICE, METHOD AND PROGRAM
Gupta et al. Facial range image matching using the complexwavelet structural similarity metric
KR101997563B1 (en) Localization method for mobile object
EP4006829A1 (en) Information processing device, data generation method, and non-transitory computer-readable medium having program stored thereon
CN112712476A (en) Denoising method and denoising device for TOF (time of flight) ranging and TOF camera
Ding et al. Obstacles Detection Algorithm in Forest based on Multi-sensor Data Fusion.
JP3907905B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130522

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140522

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150522

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160518

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170522

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180518

Year of fee payment: 9