KR100871115B1 - Moving robot and operating method for same - Google Patents
Moving robot and operating method for same Download PDFInfo
- Publication number
- KR100871115B1 KR100871115B1 KR1020070047457A KR20070047457A KR100871115B1 KR 100871115 B1 KR100871115 B1 KR 100871115B1 KR 1020070047457 A KR1020070047457 A KR 1020070047457A KR 20070047457 A KR20070047457 A KR 20070047457A KR 100871115 B1 KR100871115 B1 KR 100871115B1
- Authority
- KR
- South Korea
- Prior art keywords
- feature point
- mobile robot
- feature points
- data
- feature
- Prior art date
Links
- 238000011017 operating method Methods 0.000 title claims 3
- 238000000034 method Methods 0.000 claims abstract description 23
- 238000004140 cleaning Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 6
- 239000000428 dust Substances 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 239000000126 substance Substances 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
본 발명은 이동로봇 및 그 동작방법에 관한 것으로서, 이동중 촬영되는 영상데이터로부터 불필요한 특징점을 제거하고 촬영된 영상데이터를 근거로 하여 이동로봇의 위치를 판단함으로서 이동로봇의 이동에 대응하여 위치판단이 용이한 효과가 있다. The present invention relates to a mobile robot and a method of operating the same, by removing unnecessary feature points from the image data photographed during the movement and determining the position of the mobile robot based on the image data photographed. There is one effect.
이동로봇, 위치, 카메라, 영상, 특징점 Mobile Robot, Location, Camera, Image, Feature Point
Description
도 1 은 본 발명의 일실시예에 따른 이동로봇이 도시된 도, 1 is a view showing a mobile robot according to an embodiment of the present invention,
도 2 는 본 발명의 일실시예에 따른 이동로봇의 구성이 도시된 블록도, 2 is a block diagram showing the configuration of a mobile robot according to an embodiment of the present invention;
도 3 은 본 발명의 일실시예에 따른 특징점 추출의 예가 도시된 도, 3 is a diagram showing an example of feature point extraction according to an embodiment of the present invention;
도 4 는 본 발명의 일실시예에 따른 이동로봇의 특징점 이동거리가 도시된 도, 4 is a view showing a moving distance of the feature point of the mobile robot according to an embodiment of the present invention,
도 5 는 본 발명의 일실시예에 따른 이동로봇의 특징점의 이동거리 및 이동비율이 도시된 도, 5 is a view showing a moving distance and a moving rate of the feature point of the mobile robot according to an embodiment of the present invention,
도 6 은 본 발명의 일실시예에 따른 이동로봇의 위치산출에 따른 동작방법이 도시된 도, 6 is a view showing an operation method according to the position calculation of the mobile robot according to an embodiment of the present invention,
도 7 은 본 발명의 일실시예에 따른 이동로봇의 특징점 이동거리를 기준으로 하는 불필요 특징점 판단방법이 도시된 도, 그리고7 is a diagram illustrating a method for determining unnecessary feature points based on a feature point moving distance of a mobile robot according to an embodiment of the present invention; and
도 8 은 본 발명의 일실시예에 따른 이동로봇의 특징점 높이를 기준으로 불필요 특징점 판단방법이 도시된 도이다. 8 is a diagram illustrating a method for determining unnecessary feature points based on the height of feature points of a mobile robot according to one embodiment of the present invention.
<도면의 주요 부분에 관한 부호의 설명><Explanation of symbols on main parts of the drawings>
100: 이동로봇 10: 카메라100: mobile robot 10: camera
11: 렌즈 12 : 이미지센서11: lens 12: image sensor
20: 영상제어부 30: 제어부20: image control unit 30: control unit
40: 표시부 50: 입력부 40: display unit 50: input unit
60: 데이터부 70: 주행부60: data portion 70: running portion
80: 청소부 90: 배터리80: cleaning unit 90: battery
본 발명은 상향의 영상을 입력받아 촬영하고, 이를 바탕으로 이동위치를 판단하는 이동로봇 및 그 동작방법에 관한 것이다. The present invention relates to a mobile robot and a method of operating the same, receiving a picture of an upward image, and determining a moving position based on the image.
최근, 산업용으로 사용되던 로봇이 가정용으로 개발되어, 일반 가정에서도 로봇의 사용이 가능하게 되었으며, 이러한 가정용 로봇의 분야는 점차 확대되고 있는 추세다. Recently, robots used for industrial use have been developed for home use, and robots can be used in general homes, and the field of such home robots is gradually expanding.
이러한 가정용 로봇의 대표적인 예는 청소로봇이다. 가정에서 사용되는 이동로봇인 청소로봇은 이동형 로봇으로서, 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 일정영역을 청소하는 기기이다. A typical example of such a home robot is a cleaning robot. The cleaning robot, which is a mobile robot used in the home, is a mobile robot, and is a device that cleans a certain area by inhaling dust or foreign matter while driving around a certain area by itself.
이동로봇은 일정영역을 주행하면서 먼지 및 이물질을 흡입하는데, 충전 가능한 배터리가 구비되어, 이동이 자유롭고 배터리의 동작전원을 이용하여 스스로 이동하는 것이 가능하며, 주행중 장애물 등을 피하기 위한 다수의 센서가 구비되어 스스로 장애물을 피해 주행할 수 있다.The mobile robot sucks dust and foreign substances while driving a certain area, and is equipped with a rechargeable battery, which is free to move and can move by itself using a battery's operating power, and a plurality of sensors are provided to avoid obstacles while driving. So you can drive around obstacles yourself.
이러한 이동로봇은 이동중 위치 확인이 어렵고, 미끄러짐 등에 의해 오차가 발생될 수 있어, 소정의 청소명령 수행 중 또는 충전대로 복귀하는 중에 이동로봇의 현재 위치 판단에 오차가 발생하는 문제가 있다. Such a mobile robot has a problem in that it is difficult to check a position during movement and an error may occur due to slippage, and the like, and an error may occur in determining a current position of the mobile robot while performing a predetermined cleaning instruction or returning to a charging station.
본 발명의 목적은 이동로봇 이동 중 입력되는 영상 데이터에 대하여 불필요한 특징점을 추출하여 제거함으로써, 영상인식에 따른 부하를 감소시키고 위치판단의 정확도가 향상되는 이동로봇 및 그 동작방법을 제공하는데 있다. An object of the present invention is to provide a mobile robot and its operation method by reducing the load according to the image recognition and improve the accuracy of position determination by extracting and removing unnecessary feature points for the image data input during the movement of the mobile robot.
본 발명에 따른 이동로봇은 천장영역의 영상을 촬영하는 카메라, 상기 카메라로부터 입력되는 영상신호를 변환하고 촬영된 데이터로부터 특징점을 추출하는 영상제어부, 상기 영상제어부로부터 소정 시간 간격으로 입력되는 제1 데이터 및 제2 데이터를 비교하여 다수의 특징점을 매칭하고, 특징점의 이동에 대응하여 산출되는 특징점의 높이 및 특징점의 이동비율 중 적어도 어느 하나에 따라 불필요한 특징점을 판단하여 제거하고, 상기 불필요한 특징점을 제외한 특징점의 이동에 대응하여 현재위치를 산출하는 제어부를 포함한다. The mobile robot according to the present invention includes a camera capturing an image of a ceiling area, an image controller converting an image signal input from the camera and extracting feature points from the photographed data, and first data input at predetermined time intervals from the image controller. And comparing the second data to match a plurality of feature points, determining and removing unnecessary feature points according to at least one of a height of the feature point and a moving ratio of the feature points calculated according to the movement of the feature points, and removing the unnecessary feature points. It includes a control unit for calculating the current position in response to the movement of.
또한, 본 발명에 따른 이동로봇의 동작방법은 카메라를 통해 천장영역을 포함하는 영상을 촬영하여 특징점을 추출하는 단계, 소정 시간 간격으로 촬영된 제1 및 제2 데이터의 특징점을 매칭하는 단계, 매칭된 특징점의 이동거리를 산출하고, 특징점의 이동거리에 대응하여 산출되는 특징점의 높이 및 특징점의 이동비율 중 적어도 어느 하나에 따라 불필요한 특징점을 제거하는 단계 및 불필요한 특징점을 제외한, 나머지 특징점의 이동에 대응하여 이동로봇의 위치를 산출하는 단계를 포함한다. In addition, the operation method of the mobile robot according to the present invention is to extract the feature point by taking an image including the ceiling area through the camera, matching the feature point of the first and second data photographed at a predetermined time interval, matching Calculating the moving distance of the feature points, removing unnecessary feature points according to at least one of the height of the feature point and the moving ratio of the feature points calculated according to the moving distance of the feature points, and responding to the movement of the remaining feature points except the unnecessary feature points. Calculating a position of the mobile robot.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 설명하면 다음과 같다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 이동로봇이 도시된 사시도이다. 1 is a perspective view showing a mobile robot according to an embodiment of the present invention.
본 발명에 따른 이동로봇(100)은 구비되는 버튼 조작에 따라 청소 또는 주행모드가 설정되고, 그에 대응하여 소정 영역을 이동하면서 주변의 먼지 및 이물질를 흡입하며 청소를 수행한다. 이러한 이동로봇(100)은 배터리가 장착되어 배터리로부터 동작전원을 공급받으며, 배터리의 전류가 부족한 경우 충전대로 복귀하여 배터리를 충전하고 충전완료시 설정된 청소를 재수행한다. In the
이동로봇(100)은 도 1에 도시된 바와 같이, 상부에는 데이터 입력이 가능한 다수의 버튼을 포함하는 입력부(50)와, 현재 동작 상태 및 설정된 모드에 대한 정보가 표시되는 표시부(40)를 포함한다. 이동로봇(100)은 다수의 센서를 포함하여, 이동 중 장애물을 회피하며 주행하도록 구성된다. 이러한 이동로봇(100)은 배면에 소정 영역을 이동하기 위한 이동수단으로서 다수의 바퀴가 구비되는 주행부를 포함하며, 이동 중 주변과 바닥면의 먼지 및 이물질을 흡입하는 청소부를 포함한다. 이러한 이동로봇(100)은 내부에 구비되는 모터의 동작에 따라 바퀴가 회전함에 따라 소정 영역을 이동하며, 이동중 주변의 먼지를 흡입하여 청소를 수행한다. As shown in FIG. 1, the
또한, 이동로봇(100)은 상부의 영상, 즉 예를 들어 천장면의 영상을 촬영하는 카메라(10)가 상부에 구비되어, 이동 또는 정지 중 이동로봇(100)의 상면에서 천장면의 영상을 촬영한다. 따라서, 이동로봇(100)은 카메라(10)를 통해 소정의 시간 간격으로 촬영되는 영상 데이터를 비교하여 이동로봇(100)의 이동거리를 산출하고, 그에 따른 이동로봇(100)의 위치를 산출한다. In addition, the
도 2는 본 발명의 일실시예에 따른 이동로봇의 구성이 도시된 블록도이다. 2 is a block diagram showing the configuration of a mobile robot according to an embodiment of the present invention.
도 2에 도시된 바와 같이, 상부, 즉 천장면을 포함하는 상부의 영상을 촬영하는 카메라(10)는 카메라(10)는 주변의 빛을 집광하는 렌즈(11)와, 렌즈(11)를 통해 입사된 빛을 전기신호로 변환하여 영상을 촬영하는 이미지센서(12)를 포함한다. 이때, 렌즈(11)에 의해 집광된 빛은 이미지센서(12)로 입력되고, 이미지센서(12)는 입력되는 빛을 전기적 신호로 변환한다. As shown in FIG. 2, the
이러한 이동로봇(100)은 이미지센서(12)에 의한 영상 데이터를 소정 형식에 따라 변환하는 영상제어부(20), 장애물을 감지하는 다수의 센서, 이동로봇(100)의 동작제어 및 동작설정에 따른 데이터가 저장되는 데이터부(60), 구비되는 다수의 바퀴를 회전시켜 이동로봇이 이동되도록 하는 주행부(70), 바닥 및 주변의 먼지를 흡입하여 청소를 수행하는 청소부(80), 동작전원을 공급하는 배터리(90), 입력되는 데이터에 대응하여 이동로봇(100)을 제어하는 제어부(30)를 포함한다. The
여기서, 카메라(10)는 소정의 위치에서도 천장의 모든 영역이 촬영될 수 있는 화각이 넓은 렌즈가 사용되는 것이 바람직하다. 예를 들어 화각이 160도 이상인 어안렌즈를 포함한다. 이때, 영상제어부(20)는 카메라(10)에 의해 촬영된 영상데이터를 변환하고, 어안렌즈 사용에 따른 왜곡 현상을 보정한다. 특히, 영상데이터의 외곽 부분의 왜곡된 부분을 제거한다. 또한, 영상제어부(20)는 영상데이터로부터 특징점을 추출한다. Here, the
또한, 제어부(30)는 추출된 특징점에 대하여 동일한 특징점을 구분하여 매칭한다. 만일, 매칭되는 특징점이 존재하지 않는 경우나 또는 매칭되는 특징점이 소정수 이하인 경우에는 특징점을 이용한 거리 산출이 어려운 것으로 판단하여, 재촬 영되도록 제어한다. 이때, 이동로봇(100)의 이동 중 카메라(10)의 촬영 간격을 가변제어하여 재촬영되도록 한다. 이동로봇(100)의 이동거리에 따른 카메라의 촬영간격은, 이동로봇이 1m 이하로 이동되는 범위 내에서 촬영간격을 설정하는 것으로 하며, 바람직하게는 30cm 내지 70cm 이동하는 정도로 촬영간격을 설정하는 것으로 한다. In addition, the
도 3은 본 발명의 실시예에 따른 추출된 특징점이 도시된 도이다. 3 is a diagram illustrating extracted feature points according to an embodiment of the present invention.
먼저, 도 3의 (a)는 카메라(10)에 의해 천장면을 포함하는 상부의 이미지가 촬영된 도면이다. 이때, 렌즈(11)가 어안렌즈이므로 주변부에는 왜곡이 발생한다. First, FIG. 3A is a view showing an image of the upper part including the ceiling surface by the
영상제어부(20)는 도 3의 (b)(c)에 도시된 바와 같이, 소정의 알고리즘을 이용하여 특징점을 추출한다. 이동로봇(100)의 영상처리환경이 임베디드(Embedded) 환경이고, 어안렌즈를 이용하는 점을 고려하여 수잔알고리즘(Susan corner detector)을 이용하여 특징점을 추출한 것을 예로 한다. 여기서, 영상제어부(20)는 임의의 표식으로부터 특징점을 추출할 수 있으며, 또한 천장면을 포함하는 상부 영역에 존재하는 자연표식을 이용하여 특징점을 추출할 수 있다. 즉 형광등 또는 천장면에 구비된 것을 표식으로 이용하는 것이 가능하다. As illustrated in (b) and (c) of FIG. 3, the
제어부(30)는 영상제어부(20)에 의해 추출된 영상데이터의 다수의 특징점에 대해서, 소정 시간간격으로 촬영된 영상데이터를 비교하여 특징점을 상호 매칭하고, 매칭된 특징점 간의 이동거리를 산출한다. The
이때, 제어부(30)는 특징점의 이동거리를 바탕으로 특징점의 높이를 연산하여, 소정 기준높이 이하의 높이를 갖는 특징점은 불필요한 특징점 인것으로 판단한 다. 또한, 제어부(30)는 촬영된 영상데이터의 중심점으로부터 특징점까지의 거리에 대응하여 특징점의 이동거리에 대한 이동량, 이동비율을 비교함으로써, 불필요한 특징점을 판단한다.At this time, the
도 4는 본 발명의 일실시예에 따른 이동로봇의 특징점 이동거리가 도시된 도이다.Figure 4 is a diagram showing the moving distance of the feature point of the mobile robot according to an embodiment of the present invention.
도 4에 도시된 바와 같이, 제1마크(C1)와 제2마크(N1)를 비교할 때, 이동로봇(100)이 이동하면서 카메라(10)를 통해, 제1시간(k)과 제2시간(k+1)에 천장면을 포함하는 상면을 각각 촬영한다. 이때, 제1시간(k)과 제2시간(k+1)에 촬영되는 영상데이터에서의 제1마크(C1)와 제2마크(N1)는 제1특징점(M1)과 제2특징점(M2)으로 나타나게 된다. As shown in FIG. 4, when comparing the first mark C1 and the second mark N1, the
이때, 제1시간(k)에서의 제1마크(C1)와 제2마크(N1)는 도 4의 (a)와 같이, 제1특징점(M1(k)), 제 2특징점(M2(k))으로 나타난다. 한편, 제2시간(k+1)에서의 제1마크(C1)와 제2마크(N1)는 도 4의 (b)와 같이, 제1특징점(M1(k+1)), 제2특징점(M2(k+1))으로 나타난다. At this time, the first mark C1 and the second mark N1 at the first time k are the first feature points M1 (k) and the second feature points M2 (k, as shown in FIG. Appears as)). Meanwhile, the first mark C1 and the second mark N1 at the second time k + 1 have the first feature point M1 (k + 1) and the second feature point as shown in FIG. Appears as (M2 (k + 1)).
제어부(30)는 제1 마크(C1)과 제2마크(N1)에 대한 영상데이터의 특징점인, 제1 시간(k)의 제1특징점(M1(k)), 제2특징점(M2(k))과, 제2 시간(k+1)의 제1특징점(M1(k+1)), 제2특징점(M2(k+1))을 각각 매칭하고, 비교하여 특징점 간의 이동거리를 산출한다. 즉 도 4의 (c)와 같이 제1시간(k) 및 제2시간(k+1)에 촬영된 영상데이터의 특징점을 상호 비교하여, 제1 특징점(M1)의 이동거리(PL1), 제2특징점(M2)의 이동거리(PL2)를 연산한다. The
이때, 이동로봇(100)의 이동에 따른 제1마크(C1) 및 제2마크(N1)와 이동로 봇(100) 간의 이동거리(L1)는 일정하고 이동로봇(100)의 실제 이동거리와 동일하다. 그러나, 촬영된 영상데이터의 특징점의 이동거리인 PL1과 PL2는 서로 상이하다. 이는, 이동로봇(100)과 제1마크(C1)와 제2마크(N1)와의 이동거리가 상이하고, 어안렌즈에 의한 왜곡이 발생했기 때문이다. 마크의 거리가 멀수록 마크에 대한 특징점의 이동거리는 작은데 반하여 마크가 이동로봇에 가까이 있을수록, 즉, 천장면 보다 낮은 벽면에 위치할 수록 특징점의 이동거리 차가 커지게 된다. At this time, the moving distance (L1) between the first mark (C1) and the second mark (N1) and the
그에 따라, 제어부(30)는 제2마크(N1)와 같이 이동로봇(100)의 이동에 따른 특징점의 이동비율이 소정비율 이상인 경우, 불필요한 특징점인 것으로 판단하여 제거한다.Accordingly, when the moving ratio of the feature point according to the movement of the
또한, 제어부(30)는 상기와 같은 이유로 제1마크(C1)와 제2마크(N1) 중 제1 마크(C1)는 천장면에 위치한 것이므로, 이동로봇(100)으로부터 천장면까지의 거리를 이용하여 제2마크(N1)의 높이를 연산한다. 제어부(30)는 연산되는 높이가 기준높이 이하인 경우에는 불필요 특징점으로 판단하여 제거한다. In addition, since the first mark C1 of the first mark C1 and the second mark N1 is located on the ceiling, the
이때, 제1특징점(M1)과 제2특징점(M2)을 비교하면, 각각의 이동거리에 대하여, 제1특징점(M1)의 이동거리 PL1과 제2특징점(M2)의 이동거리 PL2는 [제1 및 제2 마크, 이동로봇의 실제 이동거리/높이]에 비례한다. 이때, 실제 이동거리는 동일하고, 제1특징점(M1)에 대한 높이는 천장높이 이므로, 제2특징점(M2), 즉 제2마크(N1)에 대한 높이 산출이 가능해진다. 여기서, 촬영된 영상데이터의 중심부분에 위치하는 특징점은 천장면에 위치하는 것으로 판단하는 것이 바람직하며, 중심부분에 위치한 특징점을 기준으로 특징점의 높이를 산출한다. At this time, when comparing the first feature point M1 and the second feature point M2, for each movement distance, the movement distance PL1 of the first feature point M1 and the movement distance PL2 of the second feature point M2 are [ 1 and the second mark, the actual moving distance / height of the mobile robot. In this case, since the actual moving distance is the same and the height of the first feature point M1 is the ceiling height, the height of the second feature point M2, that is, the second mark N1, can be calculated. Here, it is preferable to determine that the feature point located in the center portion of the captured image data is located on the ceiling surface, and the height of the feature point is calculated based on the feature point located in the center portion.
도 5는 본 발명의 일실시예에 따른 이동로봇의 특징점의 이동거리 및 이동비율이 도시된 도이다.5 is a diagram illustrating a moving distance and a moving ratio of a feature point of a mobile robot according to an embodiment of the present invention.
도 5의 (a) 및 (b)는 촬영된 영상데이터의 일부분만을 부분 도시한 것으로서, 이때, (a) 및 (b)는 소정 시간 간격으로 촬영된 영상데이터이다. 5 (a) and 5 (b) show only a part of the captured image data, wherein (a) and (b) are image data captured at predetermined time intervals.
도 5의 (c)는 촬영된 영상데이터의 중심점으로부터 특징점에 이르기까지의 거리에 비례하여 특징점의 이동거리를 그래프로 표시한 것이다. FIG. 5C is a graph showing the moving distance of the feature point in proportion to the distance from the center point of the photographed image data to the feature point.
영상데이터의 중심점으로부터 특징점까지의 거리가 멀어질수록 특징점의 이동거리가 크게 증가된다. 영상데이터의 이미지 외곽으로 갈수록 왜곡이 심해지고 외곽의 특징점의 경우 벽면에 위치한 것일 경우 이동로봇(100)과의 거리로 인하여 특징점의 이동거리가 증가된다. As the distance from the center point of the image data to the feature point increases, the moving distance of the feature point increases. Distortion becomes more severe toward the outside of the image of the image data, and the distance of the feature point is increased due to the distance from the
따라서, 제어부(30)는 특징점이 기준높이 이하에 위치한 것으로 판단되는 경우, 또는 특징점의 이동거리의 비율이 기준비율 이상인 경우 불필요한 특징점인 것으로 판단하여 이를 제거한다. 제어부(30)는 불필요한 특징점 제거 후, 영상데이터 비교를 통해 실제 이동로봇(100)의 위치 및 이동량을 판단한다. 여기서, 이미지 중심으로부터 떨어진 거리에 대하여 소정 지점 이후에 특징점의 이동거리가 급격하게 증가되므로, 이동거리에 대한 변화율을 산출하여 기준비율로 설정하는 것이 바람직하다. Accordingly, the
다시 말해, 이동로봇(100)이 실제 이동하는 거리는 30cm를 기준으로 하는 경우, [표 1]과 같이 실제 천장면 또는 벽면에 위치한 마크의 높이가 273cm, 207cm, 73cm일 때, 촬영된 영상데이터에서의 특징점의 이동거리가 19pixels, 26pixels, 106pixels로 나타난다. 그에 대한 비율은 1.62, 1.15, 0.28fh로 나타난다. 이때, 273cm 높이의 마크 및 특징점이 천장면에 표시되는 정상적인 포인트이므로, 기준비율을 1.62 이하, 1.15 초과 범위 내에서 설정한다. 이때, 기준높이는 273 이하, 207 초과 범위 내에서 설정하는 것이 바람직하다. In other words, if the moving distance of the
따라서, 제어부(30)는 기준값을 특징점의 최소이동거리 + (최소이동거리 x α )로 설정하는 것이 바람직하다. 이때, 알파는 0.3인 것을 예로 하나 렌즈의 화각에 따라 가변될 수 있다. 즉, 기준비율은 16 + ( 16 * 0.3 ) = 20.8로 설정되는 것이 바람직하다. Therefore, it is preferable that the
도 6은 본 발명의 일실시예에 따른 이동로봇의 위치산출에 따른 동작방법이 도시된 도이다. 6 is a view showing an operation method according to the position calculation of the mobile robot according to an embodiment of the present invention.
이동로봇(100)은 카메라(10)를 구동하여 천장면을 포함하는 상부의 영상을 촬영한다(S310). 이때, 카메라(10)를 통해 촬영되는 영상데이터는 렌즈(11)에 의해 집관된 빛이 이미지센서(12)로 입사되어 전기적 신호로 변화됨으로써, 영상제어부(20)에 의해 변환되어 생성된다. 영상제어부(20)는 화각이 넓은 렌즈(11)로 인한 주변부의 왜곡을 보정하고(S320), 특징점을 추출한다(S330) 이때 특징점 추출방법은 수잔알고리즘(Susan corner detector)를 이용하는 것을 예로 한다.The
제어부(30)는 소정간격으로 촬영된 영상데이터를 비교하여 제1시간의 영상데이터의 특징점과, 제2시간의 영상데이터의 특징점을 비교하여 동일한 특징점에 대하여 매칭한다(S340). 제어부(30)는 매칭되는 특징점의 시간차에 따른 이동거리를 연산하고(S350), 영상데이터의 중심점으로부터 특징점까지의 거리에 대한 특징점의 이동거리를 바탕으로 이동비율을 산출하여, 기준비율과 비교한다(S360).The
이때, 특징점의 이동비율이 기준비율보다 큰 경우에는 불필요한 특징점인 것으로 판단하여, 해당 특징점이 제거되도록 한다(S370). 여기서, 불필요한 특징점인 경우에는 해당 특징점을 기준으로 불필요 특징점에 대한 기준값을 변경 설정할 수 있다(S380). In this case, when the moving ratio of the feature point is larger than the reference ratio, it is determined that the feature point is unnecessary and the feature point is removed (S370). Here, in the case of unnecessary feature points, a reference value for unnecessary feature points may be changed and set based on the feature points (S380).
상기와 같이 영상데이터 및 특징점의 비교를 반복하여 불필요한 특징점이 제거되면, 남은 특징점 간의 이동거리를 바탕으로 이동로봇(100)의 실제 이동거리 및 위치를 산출한다. 이때, 이동로봇(100)의 바퀴회전에 따른 이동거리의 경우, 미끄러짐에 의해 오차가 발생할 수 있으므로, 특징점의 이동거리를 기준으로 하여 이동로봇(100)의 이동거리 및 위치를 산출한다. When unnecessary feature points are removed by repeating the comparison of the image data and the feature points as described above, the actual moving distance and position of the
도 7은 본 발명의 일실시예에 따른 이동로봇의 특징점 이동거리를 기준으로 하는 불필요 특징점 판단방법이 도시된 도이다. 7 is a diagram illustrating a method for determining unnecessary feature points based on a moving distance of feature points of a mobile robot according to one embodiment of the present invention.
상기와 같이 천장면의 영상을 촬영하여 특징점을 추출하고(S410), 제1시간의 영상데이터의 특징점과, 제2시간의 영상데이터의 특징점을 비교하여, 매칭한다(S420). 이때, 상호 매칭되는 특징점이 존재하지 않는 경우 또는 매칭되는 특징점이 소정 수 이하인 경우(S430), 에러를 발생시켜 재촬영되도록 한다(S480). 이때, 이동로봇(100)의 이동거리가 1M 이하인 경우에 대하여 이미지가 촬영되도록 한다. 바람직하게는 30cm 내지 70cm 이동하는 정도로 촬영간격을 설정한다. As described above, the image of the ceiling surface is photographed to extract a feature point (S410), and the feature point of the image data of the first time is compared with the feature point of the image data of the second time (S420). In this case, when there is no feature point that matches each other or when the matching feature point is less than or equal to a predetermined number (S430), an error is generated to be photographed again (S480). At this time, the image is taken so that the moving distance of the
한편, 매칭되는 특정점이 존재하는 경우에는 특징점 간의 이동거리를 연산하고(S440), 특징점의 이동거리를 기준이동거리와 비교한다(S450). 만일, 특징점의 이동거리가 기준이동거리를 초과한 경우에는 불필요 특징점인 것으로 판단하여 특징점을 제거한다(S460). 반면, 특징점의 이동거리가 기준이동거리 이하인 경우에는 이동로봇(100)의 위치판단에 필요한 특징점으로 판단한다(S470). On the other hand, when there is a matching specific point, the moving distance between the feature points is calculated (S440), and the moving distance of the feature points is compared with the reference moving distance (S450). If the moving distance of the feature point exceeds the reference moving distance, it is determined that the feature point is unnecessary and the feature point is removed (S460). On the other hand, if the moving distance of the feature point is less than the reference moving distance it is determined as a feature point necessary for the position determination of the mobile robot (100) (S470).
상기와 같이 불필요 특징점이 제거되면 전술한 도 6과 같이 이동로봇(100)의 위치를 산출한다. When the unnecessary feature point is removed as described above, the position of the
도 8은 본 발명의 일실시예에 따른 이동로봇의 특징점 높이를 기준으로 불필요 특징점 판단방법이 도시된 도이다. 8 is a diagram illustrating a method for determining unnecessary feature points based on the feature point height of a mobile robot according to an embodiment of the present invention.
전술한 도 7과 같이 천장면의 영상을 촬영하여 특징점을 추출하고(S510), 제1시간의 영상데이터의 특징점과, 제2시간의 영상데이터의 특징점을 비교하여 매칭한다(S520). 이때, 상호 매칭되는 특징점이 존재하지 않는 경우 또는 매칭되는 특징점이 소정 수 이하인 경우(S530), 에러를 발생시켜 재촬영되도록 한다(S580). 이때, 이동로봇(100)의 이동거리가 1M 이하인 경우에 대하여 이미지가 촬영되도록 한다. 바람직하게는 30cm 내지 70cm 이동하는 정도로 촬영간격을 설정한다. As shown in FIG. 7, the image of the ceiling surface is photographed to extract a feature point (S510), and the feature point of the image data of the first time is compared with the feature point of the image data of the second time (S520). In this case, when there is no feature point to be matched with each other or when the number of feature points to be matched is equal to or less than a predetermined number (S530), an error is generated to be photographed again (S580). At this time, the image is taken so that the moving distance of the
한편, 매칭되는 특정점이 존재하는 경우에는 특징점 간의 이동거리를 연산하고, 천장면에 위치한 특징점과의 비교를 통해 특징점의 높이를 산출한다(S540). 이때, 촬영된 영상데이터의 중심에 부분에 위치하는 특징점은 천장면에 위치하는 것으로 판단한다. 또한, 특징점의 높이를 기준높이와 비교한다(S550). 이때, 특징점의 높이가 기준높이 미만인 경우에는 불필요 특징점인 것으로 판단하여 특징점을 제거한다(S560). 반면, 특징점의 높이가 기준높이 이상인 경우에는 이동로봇(100)의 위치판단에 필요한 특징점으로 판단한다(S570). 즉 천장면에 위치한 특징점인 것으로 판단한다. On the other hand, if there is a matching specific point, the moving distance between the feature points is calculated, and the height of the feature point is calculated through comparison with the feature points located on the ceiling surface (S540). At this time, it is determined that the feature point located at the center of the captured image data is located at the ceiling surface. In addition, the height of the feature point is compared with the reference height (S550). In this case, when the height of the feature point is less than the reference height, it is determined that the feature point is unnecessary and the feature point is removed (S560). On the other hand, if the height of the feature point is more than the reference height is determined as the feature point necessary for the position determination of the mobile robot (100) (S570). In other words, it is determined to be a feature point located on the ceiling surface.
상기와 같이 불필요 특징점이 제거되면 전술한 도 6과 같이 이동로봇(100)의 위치를 산출한다. When the unnecessary feature point is removed as described above, the position of the
본 발명에 의한 이동로봇 및 그 동작방법은 상기와 같이 불필요한 특징점을 제거한 이후에 이동로봇의 위치를 산출하므로, 불필요한 데이터의 연산이 감소되어 이동로봇의 영상처리에 따른 부하가 감소되고 그에 따른 처리속도가 향상되어 빠른 위치산출이 가능해진다. Since the mobile robot and its operation method calculate the position of the mobile robot after removing the unnecessary feature points as described above, the operation of unnecessary data is reduced and the load according to the image processing of the mobile robot is reduced and the processing speed accordingly. Is improved to enable fast position calculation.
이상과 같이 본 발명에 의한 이동로봇 및 그 동작방법을 예시된 도면을 참조로 설명하였으나, 본 명세서에 개시된 실시예와 도면에 의해 본 발명은 한정되지 않고, 기술사상이 보호되는 범위 이내에서 응용될 수 있다. Although the mobile robot and its operation method according to the present invention have been described with reference to the illustrated drawings as described above, the present invention is not limited by the embodiments and drawings disclosed herein, and may be applied within the scope of the technical idea. Can be.
상기와 같이 구성되는 본 발명에 따른 이동로봇 및 그 동작방법은 촬영된 영상데이터에서 특징점을 추출하고, 불필요한 특징점을 제거한 이후 이동로봇의 위치를 산출하므로, 위치산출의 정확도 및 위치산출 속도가 향상되어 이동로봇의 위치판단이 용이한 효과가 있다. The mobile robot and its operation method according to the present invention configured as described above extract the feature points from the photographed image data and calculate the position of the mobile robot after removing the unnecessary feature points, thereby improving the accuracy and position calculation speed of the position calculation. It is easy to determine the position of the mobile robot.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070047457A KR100871115B1 (en) | 2007-05-16 | 2007-05-16 | Moving robot and operating method for same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070047457A KR100871115B1 (en) | 2007-05-16 | 2007-05-16 | Moving robot and operating method for same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080101131A KR20080101131A (en) | 2008-11-21 |
KR100871115B1 true KR100871115B1 (en) | 2008-11-28 |
Family
ID=40287435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070047457A KR100871115B1 (en) | 2007-05-16 | 2007-05-16 | Moving robot and operating method for same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100871115B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110090108A (en) * | 2010-02-02 | 2011-08-10 | 엘지전자 주식회사 | Robot cleaner and controlling method thereof |
KR101346510B1 (en) * | 2010-04-19 | 2014-01-02 | 인하대학교 산학협력단 | Visual odometry system and method using ground feature |
US9402151B2 (en) | 2011-08-27 | 2016-07-26 | Korea University Research And Business Foundation | Method for recognizing position of mobile robot by using features of arbitrary shapes on ceiling |
KR102252888B1 (en) * | 2020-01-03 | 2021-05-17 | 포테닛 주식회사 | An apparatus and method for detecting position of transfer robot in space |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101524020B1 (en) * | 2009-03-06 | 2015-05-29 | 엘지전자 주식회사 | Method for gradually building map by mobile robot and correcting position of mobile robot |
KR101035058B1 (en) * | 2009-09-25 | 2011-05-19 | 전자부품연구원 | Moving Robot and Method Of Recognizing A Ceiling Region For Localization Thereof |
KR101140558B1 (en) * | 2011-10-17 | 2012-05-02 | 국방과학연구소 | Autonomous mobile robot and control method for the same |
US9170581B2 (en) | 2013-09-30 | 2015-10-27 | Crown Equipment Limited | Industrial vehicles with overhead light based localization |
US9174830B1 (en) | 2014-09-29 | 2015-11-03 | Crown Equipment Limited | Industrial vehicles with point fix based localization |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11259659A (en) | 1998-03-11 | 1999-09-24 | Hokkaido Prefecture | Environment map producing method by mobile robot |
KR20020081035A (en) * | 2001-04-18 | 2002-10-26 | 삼성광주전자 주식회사 | Robot cleaner and system and method of controling thereof |
KR20040086940A (en) * | 2003-04-03 | 2004-10-13 | 엘지전자 주식회사 | Mobile robot in using image sensor and his mobile distance mesurement method |
-
2007
- 2007-05-16 KR KR1020070047457A patent/KR100871115B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11259659A (en) | 1998-03-11 | 1999-09-24 | Hokkaido Prefecture | Environment map producing method by mobile robot |
KR20020081035A (en) * | 2001-04-18 | 2002-10-26 | 삼성광주전자 주식회사 | Robot cleaner and system and method of controling thereof |
KR20040086940A (en) * | 2003-04-03 | 2004-10-13 | 엘지전자 주식회사 | Mobile robot in using image sensor and his mobile distance mesurement method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110090108A (en) * | 2010-02-02 | 2011-08-10 | 엘지전자 주식회사 | Robot cleaner and controlling method thereof |
KR101641244B1 (en) * | 2010-02-02 | 2016-07-20 | 엘지전자 주식회사 | Robot cleaner and controlling method thereof |
KR101346510B1 (en) * | 2010-04-19 | 2014-01-02 | 인하대학교 산학협력단 | Visual odometry system and method using ground feature |
US9402151B2 (en) | 2011-08-27 | 2016-07-26 | Korea University Research And Business Foundation | Method for recognizing position of mobile robot by using features of arbitrary shapes on ceiling |
KR102252888B1 (en) * | 2020-01-03 | 2021-05-17 | 포테닛 주식회사 | An apparatus and method for detecting position of transfer robot in space |
Also Published As
Publication number | Publication date |
---|---|
KR20080101131A (en) | 2008-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100871115B1 (en) | Moving robot and operating method for same | |
KR102235271B1 (en) | Moving Robot and controlling method | |
US10695906B2 (en) | Moving robot and controlling method | |
TWI687784B (en) | Moving robot and control method thereof | |
EP3590665B1 (en) | Mobile robot and control method therefor | |
EP3048502B1 (en) | Robot cleaner and method for controlling robot cleaner | |
KR101366860B1 (en) | Mobile robot and controlling method of the same | |
KR102024092B1 (en) | Moving Robot and controlling method | |
KR102032285B1 (en) | Moving Robot and controlling method | |
TWI726031B (en) | Electric sweeper | |
KR100871114B1 (en) | Moving robot and operating method for same | |
KR101976462B1 (en) | A robot cleaner a control method thereof | |
SE525628C2 (en) | External charging device for charging a cleaning robot | |
KR101513639B1 (en) | Mobile robot robot cleaner and method for detecting angles of the mobile robot | |
KR102147208B1 (en) | Moving Robot and controlling method | |
KR20120116278A (en) | Robot cleaner and method for controlling the same | |
JP4763353B2 (en) | Mobile robot motion tracking apparatus and motion tracking method thereof | |
KR20130000278A (en) | Robot cleaner and controlling method of the same | |
KR20190103511A (en) | Moving Robot and controlling method | |
KR101303161B1 (en) | Mobile robot and controlling method of the same | |
KR20090098513A (en) | Moving robot and operating method for same | |
US20220280007A1 (en) | Mobile robot and method of controlling the same | |
KR102330607B1 (en) | Artificial intelligence Moving Robot and controlling method | |
JP2007265343A (en) | Follow-up device of mobile object and electric wheelchair having the same | |
WO2018193653A1 (en) | Mobile device, object detection method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121026 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20131024 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20141024 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20151023 Year of fee payment: 8 |
|
LAPS | Lapse due to unpaid annual fee |