KR100871115B1 - Moving robot and operating method for same - Google Patents

Moving robot and operating method for same Download PDF

Info

Publication number
KR100871115B1
KR100871115B1 KR1020070047457A KR20070047457A KR100871115B1 KR 100871115 B1 KR100871115 B1 KR 100871115B1 KR 1020070047457 A KR1020070047457 A KR 1020070047457A KR 20070047457 A KR20070047457 A KR 20070047457A KR 100871115 B1 KR100871115 B1 KR 100871115B1
Authority
KR
South Korea
Prior art keywords
feature point
mobile robot
feature points
data
feature
Prior art date
Application number
KR1020070047457A
Other languages
Korean (ko)
Other versions
KR20080101131A (en
Inventor
류호선
백성욱
정문석
최호철
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020070047457A priority Critical patent/KR100871115B1/en
Publication of KR20080101131A publication Critical patent/KR20080101131A/en
Application granted granted Critical
Publication of KR100871115B1 publication Critical patent/KR100871115B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 이동로봇 및 그 동작방법에 관한 것으로서, 이동중 촬영되는 영상데이터로부터 불필요한 특징점을 제거하고 촬영된 영상데이터를 근거로 하여 이동로봇의 위치를 판단함으로서 이동로봇의 이동에 대응하여 위치판단이 용이한 효과가 있다. The present invention relates to a mobile robot and a method of operating the same, by removing unnecessary feature points from the image data photographed during the movement and determining the position of the mobile robot based on the image data photographed. There is one effect.

이동로봇, 위치, 카메라, 영상, 특징점 Mobile Robot, Location, Camera, Image, Feature Point

Description

이동로봇 및 그 동작방법 {Moving robot and operating method for same}Mobile robot and operating method for same

도 1 은 본 발명의 일실시예에 따른 이동로봇이 도시된 도, 1 is a view showing a mobile robot according to an embodiment of the present invention,

도 2 는 본 발명의 일실시예에 따른 이동로봇의 구성이 도시된 블록도, 2 is a block diagram showing the configuration of a mobile robot according to an embodiment of the present invention;

도 3 은 본 발명의 일실시예에 따른 특징점 추출의 예가 도시된 도, 3 is a diagram showing an example of feature point extraction according to an embodiment of the present invention;

도 4 는 본 발명의 일실시예에 따른 이동로봇의 특징점 이동거리가 도시된 도, 4 is a view showing a moving distance of the feature point of the mobile robot according to an embodiment of the present invention,

도 5 는 본 발명의 일실시예에 따른 이동로봇의 특징점의 이동거리 및 이동비율이 도시된 도, 5 is a view showing a moving distance and a moving rate of the feature point of the mobile robot according to an embodiment of the present invention,

도 6 은 본 발명의 일실시예에 따른 이동로봇의 위치산출에 따른 동작방법이 도시된 도, 6 is a view showing an operation method according to the position calculation of the mobile robot according to an embodiment of the present invention,

도 7 은 본 발명의 일실시예에 따른 이동로봇의 특징점 이동거리를 기준으로 하는 불필요 특징점 판단방법이 도시된 도, 그리고7 is a diagram illustrating a method for determining unnecessary feature points based on a feature point moving distance of a mobile robot according to an embodiment of the present invention; and

도 8 은 본 발명의 일실시예에 따른 이동로봇의 특징점 높이를 기준으로 불필요 특징점 판단방법이 도시된 도이다. 8 is a diagram illustrating a method for determining unnecessary feature points based on the height of feature points of a mobile robot according to one embodiment of the present invention.

<도면의 주요 부분에 관한 부호의 설명><Explanation of symbols on main parts of the drawings>

100: 이동로봇 10: 카메라100: mobile robot 10: camera

11: 렌즈 12 : 이미지센서11: lens 12: image sensor

20: 영상제어부 30: 제어부20: image control unit 30: control unit

40: 표시부 50: 입력부 40: display unit 50: input unit

60: 데이터부 70: 주행부60: data portion 70: running portion

80: 청소부 90: 배터리80: cleaning unit 90: battery

본 발명은 상향의 영상을 입력받아 촬영하고, 이를 바탕으로 이동위치를 판단하는 이동로봇 및 그 동작방법에 관한 것이다. The present invention relates to a mobile robot and a method of operating the same, receiving a picture of an upward image, and determining a moving position based on the image.

최근, 산업용으로 사용되던 로봇이 가정용으로 개발되어, 일반 가정에서도 로봇의 사용이 가능하게 되었으며, 이러한 가정용 로봇의 분야는 점차 확대되고 있는 추세다. Recently, robots used for industrial use have been developed for home use, and robots can be used in general homes, and the field of such home robots is gradually expanding.

이러한 가정용 로봇의 대표적인 예는 청소로봇이다. 가정에서 사용되는 이동로봇인 청소로봇은 이동형 로봇으로서, 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 일정영역을 청소하는 기기이다. A typical example of such a home robot is a cleaning robot. The cleaning robot, which is a mobile robot used in the home, is a mobile robot, and is a device that cleans a certain area by inhaling dust or foreign matter while driving around a certain area by itself.

이동로봇은 일정영역을 주행하면서 먼지 및 이물질을 흡입하는데, 충전 가능한 배터리가 구비되어, 이동이 자유롭고 배터리의 동작전원을 이용하여 스스로 이동하는 것이 가능하며, 주행중 장애물 등을 피하기 위한 다수의 센서가 구비되어 스스로 장애물을 피해 주행할 수 있다.The mobile robot sucks dust and foreign substances while driving a certain area, and is equipped with a rechargeable battery, which is free to move and can move by itself using a battery's operating power, and a plurality of sensors are provided to avoid obstacles while driving. So you can drive around obstacles yourself.

이러한 이동로봇은 이동중 위치 확인이 어렵고, 미끄러짐 등에 의해 오차가 발생될 수 있어, 소정의 청소명령 수행 중 또는 충전대로 복귀하는 중에 이동로봇의 현재 위치 판단에 오차가 발생하는 문제가 있다. Such a mobile robot has a problem in that it is difficult to check a position during movement and an error may occur due to slippage, and the like, and an error may occur in determining a current position of the mobile robot while performing a predetermined cleaning instruction or returning to a charging station.

본 발명의 목적은 이동로봇 이동 중 입력되는 영상 데이터에 대하여 불필요한 특징점을 추출하여 제거함으로써, 영상인식에 따른 부하를 감소시키고 위치판단의 정확도가 향상되는 이동로봇 및 그 동작방법을 제공하는데 있다. An object of the present invention is to provide a mobile robot and its operation method by reducing the load according to the image recognition and improve the accuracy of position determination by extracting and removing unnecessary feature points for the image data input during the movement of the mobile robot.

본 발명에 따른 이동로봇은 천장영역의 영상을 촬영하는 카메라, 상기 카메라로부터 입력되는 영상신호를 변환하고 촬영된 데이터로부터 특징점을 추출하는 영상제어부, 상기 영상제어부로부터 소정 시간 간격으로 입력되는 제1 데이터 및 제2 데이터를 비교하여 다수의 특징점을 매칭하고, 특징점의 이동에 대응하여 산출되는 특징점의 높이 및 특징점의 이동비율 중 적어도 어느 하나에 따라 불필요한 특징점을 판단하여 제거하고, 상기 불필요한 특징점을 제외한 특징점의 이동에 대응하여 현재위치를 산출하는 제어부를 포함한다. The mobile robot according to the present invention includes a camera capturing an image of a ceiling area, an image controller converting an image signal input from the camera and extracting feature points from the photographed data, and first data input at predetermined time intervals from the image controller. And comparing the second data to match a plurality of feature points, determining and removing unnecessary feature points according to at least one of a height of the feature point and a moving ratio of the feature points calculated according to the movement of the feature points, and removing the unnecessary feature points. It includes a control unit for calculating the current position in response to the movement of.

또한, 본 발명에 따른 이동로봇의 동작방법은 카메라를 통해 천장영역을 포함하는 영상을 촬영하여 특징점을 추출하는 단계, 소정 시간 간격으로 촬영된 제1 및 제2 데이터의 특징점을 매칭하는 단계, 매칭된 특징점의 이동거리를 산출하고, 특징점의 이동거리에 대응하여 산출되는 특징점의 높이 및 특징점의 이동비율 중 적어도 어느 하나에 따라 불필요한 특징점을 제거하는 단계 및 불필요한 특징점을 제외한, 나머지 특징점의 이동에 대응하여 이동로봇의 위치를 산출하는 단계를 포함한다. In addition, the operation method of the mobile robot according to the present invention is to extract the feature point by taking an image including the ceiling area through the camera, matching the feature point of the first and second data photographed at a predetermined time interval, matching Calculating the moving distance of the feature points, removing unnecessary feature points according to at least one of the height of the feature point and the moving ratio of the feature points calculated according to the moving distance of the feature points, and responding to the movement of the remaining feature points except the unnecessary feature points. Calculating a position of the mobile robot.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 설명하면 다음과 같다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 이동로봇이 도시된 사시도이다. 1 is a perspective view showing a mobile robot according to an embodiment of the present invention.

본 발명에 따른 이동로봇(100)은 구비되는 버튼 조작에 따라 청소 또는 주행모드가 설정되고, 그에 대응하여 소정 영역을 이동하면서 주변의 먼지 및 이물질를 흡입하며 청소를 수행한다. 이러한 이동로봇(100)은 배터리가 장착되어 배터리로부터 동작전원을 공급받으며, 배터리의 전류가 부족한 경우 충전대로 복귀하여 배터리를 충전하고 충전완료시 설정된 청소를 재수행한다. In the mobile robot 100 according to the present invention, a cleaning or driving mode is set according to a button operation provided, and while cleaning a predetermined area while inhaling dust and foreign substances while moving a predetermined area. The mobile robot 100 is equipped with a battery is supplied with operating power from the battery, when the current of the battery is insufficient to return to the charging station to charge the battery and re-perform the set cleaning when the charging is completed.

이동로봇(100)은 도 1에 도시된 바와 같이, 상부에는 데이터 입력이 가능한 다수의 버튼을 포함하는 입력부(50)와, 현재 동작 상태 및 설정된 모드에 대한 정보가 표시되는 표시부(40)를 포함한다. 이동로봇(100)은 다수의 센서를 포함하여, 이동 중 장애물을 회피하며 주행하도록 구성된다. 이러한 이동로봇(100)은 배면에 소정 영역을 이동하기 위한 이동수단으로서 다수의 바퀴가 구비되는 주행부를 포함하며, 이동 중 주변과 바닥면의 먼지 및 이물질을 흡입하는 청소부를 포함한다. 이러한 이동로봇(100)은 내부에 구비되는 모터의 동작에 따라 바퀴가 회전함에 따라 소정 영역을 이동하며, 이동중 주변의 먼지를 흡입하여 청소를 수행한다. As shown in FIG. 1, the mobile robot 100 includes an input unit 50 including a plurality of buttons for inputting data, and a display unit 40 for displaying information on a current operation state and a set mode. do. The mobile robot 100 includes a plurality of sensors, and is configured to travel while avoiding obstacles during movement. The mobile robot 100 includes a traveling part provided with a plurality of wheels as a moving means for moving a predetermined area on the rear surface, and includes a cleaning part that sucks dust and foreign substances from the surrounding and bottom surfaces during the movement. The mobile robot 100 moves a predetermined region as the wheel rotates according to the operation of the motor provided therein, and performs cleaning by sucking dust around during movement.

또한, 이동로봇(100)은 상부의 영상, 즉 예를 들어 천장면의 영상을 촬영하는 카메라(10)가 상부에 구비되어, 이동 또는 정지 중 이동로봇(100)의 상면에서 천장면의 영상을 촬영한다. 따라서, 이동로봇(100)은 카메라(10)를 통해 소정의 시간 간격으로 촬영되는 영상 데이터를 비교하여 이동로봇(100)의 이동거리를 산출하고, 그에 따른 이동로봇(100)의 위치를 산출한다. In addition, the mobile robot 100 is provided with a camera 10 for capturing an image of the upper surface, that is, for example, the ceiling surface, the upper surface of the mobile robot 100 during the movement or stop, the image of the ceiling surface Shoot. Therefore, the mobile robot 100 calculates the moving distance of the mobile robot 100 by comparing the image data photographed at predetermined time intervals through the camera 10, and calculates the position of the mobile robot 100 accordingly. .

도 2는 본 발명의 일실시예에 따른 이동로봇의 구성이 도시된 블록도이다. 2 is a block diagram showing the configuration of a mobile robot according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 상부, 즉 천장면을 포함하는 상부의 영상을 촬영하는 카메라(10)는 카메라(10)는 주변의 빛을 집광하는 렌즈(11)와, 렌즈(11)를 통해 입사된 빛을 전기신호로 변환하여 영상을 촬영하는 이미지센서(12)를 포함한다. 이때, 렌즈(11)에 의해 집광된 빛은 이미지센서(12)로 입력되고, 이미지센서(12)는 입력되는 빛을 전기적 신호로 변환한다. As shown in FIG. 2, the camera 10 capturing an image of an upper portion, that is, an upper surface including a ceiling surface, includes a lens 11 for condensing ambient light and a lens 11 through the lens 11. It includes an image sensor 12 for converting the incident light into an electrical signal to take an image. At this time, the light collected by the lens 11 is input to the image sensor 12, the image sensor 12 converts the input light into an electrical signal.

이러한 이동로봇(100)은 이미지센서(12)에 의한 영상 데이터를 소정 형식에 따라 변환하는 영상제어부(20), 장애물을 감지하는 다수의 센서, 이동로봇(100)의 동작제어 및 동작설정에 따른 데이터가 저장되는 데이터부(60), 구비되는 다수의 바퀴를 회전시켜 이동로봇이 이동되도록 하는 주행부(70), 바닥 및 주변의 먼지를 흡입하여 청소를 수행하는 청소부(80), 동작전원을 공급하는 배터리(90), 입력되는 데이터에 대응하여 이동로봇(100)을 제어하는 제어부(30)를 포함한다. The mobile robot 100 according to the image control unit 20 for converting the image data by the image sensor 12 according to a predetermined format, a plurality of sensors for detecting the obstacle, the operation control and operation setting of the mobile robot 100 Data unit 60 in which data is stored, a traveling unit 70 for rotating the plurality of wheels provided to move the mobile robot, a cleaning unit 80 for sucking and cleaning dust on the floor and surroundings, and operating power The battery 90 to supply, and a control unit 30 for controlling the mobile robot 100 in response to the input data.

여기서, 카메라(10)는 소정의 위치에서도 천장의 모든 영역이 촬영될 수 있는 화각이 넓은 렌즈가 사용되는 것이 바람직하다. 예를 들어 화각이 160도 이상인 어안렌즈를 포함한다. 이때, 영상제어부(20)는 카메라(10)에 의해 촬영된 영상데이터를 변환하고, 어안렌즈 사용에 따른 왜곡 현상을 보정한다. 특히, 영상데이터의 외곽 부분의 왜곡된 부분을 제거한다. 또한, 영상제어부(20)는 영상데이터로부터 특징점을 추출한다. Here, the camera 10 may be a lens having a wide angle of view capable of photographing all areas of the ceiling even at a predetermined position. For example, it includes a fisheye lens having an angle of view of 160 degrees or more. At this time, the image controller 20 converts the image data photographed by the camera 10 and corrects the distortion caused by the use of the fisheye lens. In particular, the distorted portion of the outer portion of the image data is removed. In addition, the image controller 20 extracts feature points from the image data.

또한, 제어부(30)는 추출된 특징점에 대하여 동일한 특징점을 구분하여 매칭한다. 만일, 매칭되는 특징점이 존재하지 않는 경우나 또는 매칭되는 특징점이 소정수 이하인 경우에는 특징점을 이용한 거리 산출이 어려운 것으로 판단하여, 재촬 영되도록 제어한다. 이때, 이동로봇(100)의 이동 중 카메라(10)의 촬영 간격을 가변제어하여 재촬영되도록 한다. 이동로봇(100)의 이동거리에 따른 카메라의 촬영간격은, 이동로봇이 1m 이하로 이동되는 범위 내에서 촬영간격을 설정하는 것으로 하며, 바람직하게는 30cm 내지 70cm 이동하는 정도로 촬영간격을 설정하는 것으로 한다. In addition, the controller 30 classifies and matches the extracted feature points with the same feature points. If the matching feature points do not exist or if the matching feature points are less than or equal to a predetermined number, it is determined that distance calculation using the feature points is difficult, and control is performed to retake the image. At this time, by controlling the shooting interval of the camera 10 during the movement of the mobile robot 100 to be retaken. The shooting interval of the camera according to the moving distance of the mobile robot 100 is to set the shooting interval within the range that the mobile robot is moved to 1m or less, preferably to set the shooting interval to move 30cm to 70cm do.

도 3은 본 발명의 실시예에 따른 추출된 특징점이 도시된 도이다. 3 is a diagram illustrating extracted feature points according to an embodiment of the present invention.

먼저, 도 3의 (a)는 카메라(10)에 의해 천장면을 포함하는 상부의 이미지가 촬영된 도면이다. 이때, 렌즈(11)가 어안렌즈이므로 주변부에는 왜곡이 발생한다. First, FIG. 3A is a view showing an image of the upper part including the ceiling surface by the camera 10. At this time, since the lens 11 is a fisheye lens, distortion occurs in the peripheral portion.

영상제어부(20)는 도 3의 (b)(c)에 도시된 바와 같이, 소정의 알고리즘을 이용하여 특징점을 추출한다. 이동로봇(100)의 영상처리환경이 임베디드(Embedded) 환경이고, 어안렌즈를 이용하는 점을 고려하여 수잔알고리즘(Susan corner detector)을 이용하여 특징점을 추출한 것을 예로 한다. 여기서, 영상제어부(20)는 임의의 표식으로부터 특징점을 추출할 수 있으며, 또한 천장면을 포함하는 상부 영역에 존재하는 자연표식을 이용하여 특징점을 추출할 수 있다. 즉 형광등 또는 천장면에 구비된 것을 표식으로 이용하는 것이 가능하다. As illustrated in (b) and (c) of FIG. 3, the image controller 20 extracts feature points using a predetermined algorithm. The image processing environment of the mobile robot 100 is an embedded environment, and the feature point is extracted using a Susan corner detector in consideration of using a fisheye lens. Here, the image controller 20 may extract the feature point from an arbitrary mark, and may extract the feature point using a natural mark existing in the upper region including the ceiling surface. That is, it is possible to use what is provided in the fluorescent lamp or the ceiling surface as a mark.

제어부(30)는 영상제어부(20)에 의해 추출된 영상데이터의 다수의 특징점에 대해서, 소정 시간간격으로 촬영된 영상데이터를 비교하여 특징점을 상호 매칭하고, 매칭된 특징점 간의 이동거리를 산출한다. The controller 30 compares the image data photographed at a predetermined time interval with respect to a plurality of feature points of the image data extracted by the image controller 20, and matches the feature points, and calculates a moving distance between the matched feature points.

이때, 제어부(30)는 특징점의 이동거리를 바탕으로 특징점의 높이를 연산하여, 소정 기준높이 이하의 높이를 갖는 특징점은 불필요한 특징점 인것으로 판단한 다. 또한, 제어부(30)는 촬영된 영상데이터의 중심점으로부터 특징점까지의 거리에 대응하여 특징점의 이동거리에 대한 이동량, 이동비율을 비교함으로써, 불필요한 특징점을 판단한다.At this time, the controller 30 calculates the height of the feature point based on the moving distance of the feature point, and determines that the feature point having a height less than or equal to the predetermined reference height is an unnecessary feature point. In addition, the controller 30 determines unnecessary feature points by comparing the movement amount and the movement ratio with respect to the movement distance of the feature points corresponding to the distances from the center point of the photographed image data to the feature points.

도 4는 본 발명의 일실시예에 따른 이동로봇의 특징점 이동거리가 도시된 도이다.Figure 4 is a diagram showing the moving distance of the feature point of the mobile robot according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 제1마크(C1)와 제2마크(N1)를 비교할 때, 이동로봇(100)이 이동하면서 카메라(10)를 통해, 제1시간(k)과 제2시간(k+1)에 천장면을 포함하는 상면을 각각 촬영한다. 이때, 제1시간(k)과 제2시간(k+1)에 촬영되는 영상데이터에서의 제1마크(C1)와 제2마크(N1)는 제1특징점(M1)과 제2특징점(M2)으로 나타나게 된다. As shown in FIG. 4, when comparing the first mark C1 and the second mark N1, the mobile robot 100 moves, through the camera 10, the first time k and the second time. Each of the upper surfaces including the ceiling surface is photographed at (k + 1). At this time, the first mark C1 and the second mark N1 in the image data photographed at the first time k and the second time k + 1 are the first feature point M1 and the second feature point M2. Will be displayed as).

이때, 제1시간(k)에서의 제1마크(C1)와 제2마크(N1)는 도 4의 (a)와 같이, 제1특징점(M1(k)), 제 2특징점(M2(k))으로 나타난다. 한편, 제2시간(k+1)에서의 제1마크(C1)와 제2마크(N1)는 도 4의 (b)와 같이, 제1특징점(M1(k+1)), 제2특징점(M2(k+1))으로 나타난다. At this time, the first mark C1 and the second mark N1 at the first time k are the first feature points M1 (k) and the second feature points M2 (k, as shown in FIG. Appears as)). Meanwhile, the first mark C1 and the second mark N1 at the second time k + 1 have the first feature point M1 (k + 1) and the second feature point as shown in FIG. Appears as (M2 (k + 1)).

제어부(30)는 제1 마크(C1)과 제2마크(N1)에 대한 영상데이터의 특징점인, 제1 시간(k)의 제1특징점(M1(k)), 제2특징점(M2(k))과, 제2 시간(k+1)의 제1특징점(M1(k+1)), 제2특징점(M2(k+1))을 각각 매칭하고, 비교하여 특징점 간의 이동거리를 산출한다. 즉 도 4의 (c)와 같이 제1시간(k) 및 제2시간(k+1)에 촬영된 영상데이터의 특징점을 상호 비교하여, 제1 특징점(M1)의 이동거리(PL1), 제2특징점(M2)의 이동거리(PL2)를 연산한다. The control unit 30 has a first feature point M1 (k) and a second feature point M2 (k) of the first time k, which are the feature points of the image data for the first mark C1 and the second mark N1. ) And the first feature point M1 (k + 1) and the second feature point M2 (k + 1) of the second time k + 1, respectively, are matched and compared to calculate the moving distance between the feature points. . That is, as shown in (c) of FIG. 4, the feature points of the image data photographed at the first time k and the second time k + 1 are compared with each other, and the moving distance PL1 and the first feature point M1 are first compared. The moving distance PL2 of the two feature points M2 is calculated.

이때, 이동로봇(100)의 이동에 따른 제1마크(C1) 및 제2마크(N1)와 이동로 봇(100) 간의 이동거리(L1)는 일정하고 이동로봇(100)의 실제 이동거리와 동일하다. 그러나, 촬영된 영상데이터의 특징점의 이동거리인 PL1과 PL2는 서로 상이하다. 이는, 이동로봇(100)과 제1마크(C1)와 제2마크(N1)와의 이동거리가 상이하고, 어안렌즈에 의한 왜곡이 발생했기 때문이다. 마크의 거리가 멀수록 마크에 대한 특징점의 이동거리는 작은데 반하여 마크가 이동로봇에 가까이 있을수록, 즉, 천장면 보다 낮은 벽면에 위치할 수록 특징점의 이동거리 차가 커지게 된다. At this time, the moving distance (L1) between the first mark (C1) and the second mark (N1) and the mobile robot 100 according to the movement of the mobile robot 100 is constant and the actual moving distance of the mobile robot 100 same. However, PL1 and PL2, which are moving distances of the feature points of the captured image data, are different from each other. This is because the moving distance between the mobile robot 100, the first mark C1, and the second mark N1 is different, and distortion by the fisheye lens occurs. The farther the mark is, the smaller the moving distance of the feature point relative to the mark, while the closer the mark is to the mobile robot, that is, the lower the ceiling, the greater the moving distance of the feature point.

그에 따라, 제어부(30)는 제2마크(N1)와 같이 이동로봇(100)의 이동에 따른 특징점의 이동비율이 소정비율 이상인 경우, 불필요한 특징점인 것으로 판단하여 제거한다.Accordingly, when the moving ratio of the feature point according to the movement of the mobile robot 100 is greater than or equal to the predetermined ratio as in the second mark N1, the controller 30 determines that it is an unnecessary feature point and removes it.

또한, 제어부(30)는 상기와 같은 이유로 제1마크(C1)와 제2마크(N1) 중 제1 마크(C1)는 천장면에 위치한 것이므로, 이동로봇(100)으로부터 천장면까지의 거리를 이용하여 제2마크(N1)의 높이를 연산한다. 제어부(30)는 연산되는 높이가 기준높이 이하인 경우에는 불필요 특징점으로 판단하여 제거한다. In addition, since the first mark C1 of the first mark C1 and the second mark N1 is located on the ceiling, the controller 30 adjusts the distance from the mobile robot 100 to the ceiling. The height of the second mark N1 is calculated. If the calculated height is less than or equal to the reference height, the controller 30 determines that it is an unnecessary feature point and removes it.

이때, 제1특징점(M1)과 제2특징점(M2)을 비교하면, 각각의 이동거리에 대하여, 제1특징점(M1)의 이동거리 PL1과 제2특징점(M2)의 이동거리 PL2는 [제1 및 제2 마크, 이동로봇의 실제 이동거리/높이]에 비례한다. 이때, 실제 이동거리는 동일하고, 제1특징점(M1)에 대한 높이는 천장높이 이므로, 제2특징점(M2), 즉 제2마크(N1)에 대한 높이 산출이 가능해진다. 여기서, 촬영된 영상데이터의 중심부분에 위치하는 특징점은 천장면에 위치하는 것으로 판단하는 것이 바람직하며, 중심부분에 위치한 특징점을 기준으로 특징점의 높이를 산출한다. At this time, when comparing the first feature point M1 and the second feature point M2, for each movement distance, the movement distance PL1 of the first feature point M1 and the movement distance PL2 of the second feature point M2 are [ 1 and the second mark, the actual moving distance / height of the mobile robot. In this case, since the actual moving distance is the same and the height of the first feature point M1 is the ceiling height, the height of the second feature point M2, that is, the second mark N1, can be calculated. Here, it is preferable to determine that the feature point located in the center portion of the captured image data is located on the ceiling surface, and the height of the feature point is calculated based on the feature point located in the center portion.

도 5는 본 발명의 일실시예에 따른 이동로봇의 특징점의 이동거리 및 이동비율이 도시된 도이다.5 is a diagram illustrating a moving distance and a moving ratio of a feature point of a mobile robot according to an embodiment of the present invention.

도 5의 (a) 및 (b)는 촬영된 영상데이터의 일부분만을 부분 도시한 것으로서, 이때, (a) 및 (b)는 소정 시간 간격으로 촬영된 영상데이터이다. 5 (a) and 5 (b) show only a part of the captured image data, wherein (a) and (b) are image data captured at predetermined time intervals.

도 5의 (c)는 촬영된 영상데이터의 중심점으로부터 특징점에 이르기까지의 거리에 비례하여 특징점의 이동거리를 그래프로 표시한 것이다. FIG. 5C is a graph showing the moving distance of the feature point in proportion to the distance from the center point of the photographed image data to the feature point.

영상데이터의 중심점으로부터 특징점까지의 거리가 멀어질수록 특징점의 이동거리가 크게 증가된다. 영상데이터의 이미지 외곽으로 갈수록 왜곡이 심해지고 외곽의 특징점의 경우 벽면에 위치한 것일 경우 이동로봇(100)과의 거리로 인하여 특징점의 이동거리가 증가된다. As the distance from the center point of the image data to the feature point increases, the moving distance of the feature point increases. Distortion becomes more severe toward the outside of the image of the image data, and the distance of the feature point is increased due to the distance from the mobile robot 100 when the feature point is located on the wall.

따라서, 제어부(30)는 특징점이 기준높이 이하에 위치한 것으로 판단되는 경우, 또는 특징점의 이동거리의 비율이 기준비율 이상인 경우 불필요한 특징점인 것으로 판단하여 이를 제거한다. 제어부(30)는 불필요한 특징점 제거 후, 영상데이터 비교를 통해 실제 이동로봇(100)의 위치 및 이동량을 판단한다. 여기서, 이미지 중심으로부터 떨어진 거리에 대하여 소정 지점 이후에 특징점의 이동거리가 급격하게 증가되므로, 이동거리에 대한 변화율을 산출하여 기준비율로 설정하는 것이 바람직하다. Accordingly, the controller 30 determines that the feature point is located below the reference height, or removes the feature point if it is determined to be an unnecessary feature point when the moving distance of the feature point is greater than or equal to the reference ratio. After removing unnecessary feature points, the controller 30 determines the position and the movement amount of the actual mobile robot 100 by comparing the image data. Here, since the moving distance of the feature point is rapidly increased with respect to the distance away from the center of the image, it is preferable to calculate the change rate with respect to the moving distance and set it as the reference ratio.

다시 말해, 이동로봇(100)이 실제 이동하는 거리는 30cm를 기준으로 하는 경우, [표 1]과 같이 실제 천장면 또는 벽면에 위치한 마크의 높이가 273cm, 207cm, 73cm일 때, 촬영된 영상데이터에서의 특징점의 이동거리가 19pixels, 26pixels, 106pixels로 나타난다. 그에 대한 비율은 1.62, 1.15, 0.28fh로 나타난다. 이때, 273cm 높이의 마크 및 특징점이 천장면에 표시되는 정상적인 포인트이므로, 기준비율을 1.62 이하, 1.15 초과 범위 내에서 설정한다. 이때, 기준높이는 273 이하, 207 초과 범위 내에서 설정하는 것이 바람직하다. In other words, if the moving distance of the mobile robot 100 is based on 30cm, when the height of the mark located on the actual ceiling or wall surface is 273cm, 207cm, 73cm as shown in [Table 1], The moving distances of the feature points are 19 pixels, 26 pixels, and 106 pixels. The ratio is 1.62, 1.15, 0.28fh. At this time, since the mark and the feature point of 273cm height is a normal point displayed on the ceiling surface, the reference ratio is set within 1.62 or less and over 1.15. At this time, the reference height is preferably set within the range of 273 or less and more than 207.

높이Height 이미지상의 Pixels 차이Pixels difference in the image Cm / PixelCm / Pixel 273273 CmCm 19 19 PixelsPixels 1.62 1.62 CmCm 207Cm207cm 26 Pixels26 Pixels 1.15 Cm1.15 Cm 73Cm73cm 106 Pixels106 Pixels 0.28 Cm0.28 Cm

따라서, 제어부(30)는 기준값을 특징점의 최소이동거리 + (최소이동거리 x α )로 설정하는 것이 바람직하다. 이때, 알파는 0.3인 것을 예로 하나 렌즈의 화각에 따라 가변될 수 있다. 즉, 기준비율은 16 + ( 16 * 0.3 ) = 20.8로 설정되는 것이 바람직하다. Therefore, it is preferable that the controller 30 sets the reference value to the minimum moving distance + (minimum moving distance x α) of the feature points. In this case, the alpha is 0.3, for example, but may vary according to the angle of view of the lens. That is, the reference ratio is preferably set to 16 + (16 * 0.3) = 20.8.

도 6은 본 발명의 일실시예에 따른 이동로봇의 위치산출에 따른 동작방법이 도시된 도이다. 6 is a view showing an operation method according to the position calculation of the mobile robot according to an embodiment of the present invention.

이동로봇(100)은 카메라(10)를 구동하여 천장면을 포함하는 상부의 영상을 촬영한다(S310). 이때, 카메라(10)를 통해 촬영되는 영상데이터는 렌즈(11)에 의해 집관된 빛이 이미지센서(12)로 입사되어 전기적 신호로 변화됨으로써, 영상제어부(20)에 의해 변환되어 생성된다. 영상제어부(20)는 화각이 넓은 렌즈(11)로 인한 주변부의 왜곡을 보정하고(S320), 특징점을 추출한다(S330) 이때 특징점 추출방법은 수잔알고리즘(Susan corner detector)를 이용하는 것을 예로 한다.The mobile robot 100 drives the camera 10 to capture an image of an upper portion including the ceiling surface (S310). In this case, the image data photographed by the camera 10 is generated by being converted by the image controller 20 by the light collected by the lens 11 is incident to the image sensor 12 and converted into an electrical signal. The image controller 20 corrects the distortion of the peripheral portion due to the wide angle of view of the lens 11 (S320) and extracts the feature points (S330). The feature point extraction method uses a Susan corner detector as an example.

제어부(30)는 소정간격으로 촬영된 영상데이터를 비교하여 제1시간의 영상데이터의 특징점과, 제2시간의 영상데이터의 특징점을 비교하여 동일한 특징점에 대하여 매칭한다(S340). 제어부(30)는 매칭되는 특징점의 시간차에 따른 이동거리를 연산하고(S350), 영상데이터의 중심점으로부터 특징점까지의 거리에 대한 특징점의 이동거리를 바탕으로 이동비율을 산출하여, 기준비율과 비교한다(S360).The controller 30 compares the image data photographed at predetermined intervals, compares the feature points of the image data of the first time with the feature points of the image data of the second time, and matches the same feature points (S340). The controller 30 calculates a moving distance according to the time difference between the matching feature points (S350), calculates a moving ratio based on the moving distance of the feature point with respect to the distance from the center point of the image data to the feature point, and compares it with the reference ratio. (S360).

이때, 특징점의 이동비율이 기준비율보다 큰 경우에는 불필요한 특징점인 것으로 판단하여, 해당 특징점이 제거되도록 한다(S370). 여기서, 불필요한 특징점인 경우에는 해당 특징점을 기준으로 불필요 특징점에 대한 기준값을 변경 설정할 수 있다(S380). In this case, when the moving ratio of the feature point is larger than the reference ratio, it is determined that the feature point is unnecessary and the feature point is removed (S370). Here, in the case of unnecessary feature points, a reference value for unnecessary feature points may be changed and set based on the feature points (S380).

상기와 같이 영상데이터 및 특징점의 비교를 반복하여 불필요한 특징점이 제거되면, 남은 특징점 간의 이동거리를 바탕으로 이동로봇(100)의 실제 이동거리 및 위치를 산출한다. 이때, 이동로봇(100)의 바퀴회전에 따른 이동거리의 경우, 미끄러짐에 의해 오차가 발생할 수 있으므로, 특징점의 이동거리를 기준으로 하여 이동로봇(100)의 이동거리 및 위치를 산출한다. When unnecessary feature points are removed by repeating the comparison of the image data and the feature points as described above, the actual moving distance and position of the mobile robot 100 is calculated based on the moving distance between the remaining feature points. At this time, in the case of the moving distance according to the wheel rotation of the mobile robot 100, an error may occur due to the sliding, and calculates the moving distance and position of the mobile robot 100 based on the moving distance of the feature point.

도 7은 본 발명의 일실시예에 따른 이동로봇의 특징점 이동거리를 기준으로 하는 불필요 특징점 판단방법이 도시된 도이다. 7 is a diagram illustrating a method for determining unnecessary feature points based on a moving distance of feature points of a mobile robot according to one embodiment of the present invention.

상기와 같이 천장면의 영상을 촬영하여 특징점을 추출하고(S410), 제1시간의 영상데이터의 특징점과, 제2시간의 영상데이터의 특징점을 비교하여, 매칭한다(S420). 이때, 상호 매칭되는 특징점이 존재하지 않는 경우 또는 매칭되는 특징점이 소정 수 이하인 경우(S430), 에러를 발생시켜 재촬영되도록 한다(S480). 이때, 이동로봇(100)의 이동거리가 1M 이하인 경우에 대하여 이미지가 촬영되도록 한다. 바람직하게는 30cm 내지 70cm 이동하는 정도로 촬영간격을 설정한다. As described above, the image of the ceiling surface is photographed to extract a feature point (S410), and the feature point of the image data of the first time is compared with the feature point of the image data of the second time (S420). In this case, when there is no feature point that matches each other or when the matching feature point is less than or equal to a predetermined number (S430), an error is generated to be photographed again (S480). At this time, the image is taken so that the moving distance of the mobile robot 100 is less than 1M. Preferably, the shooting interval is set to move 30cm to 70cm.

한편, 매칭되는 특정점이 존재하는 경우에는 특징점 간의 이동거리를 연산하고(S440), 특징점의 이동거리를 기준이동거리와 비교한다(S450). 만일, 특징점의 이동거리가 기준이동거리를 초과한 경우에는 불필요 특징점인 것으로 판단하여 특징점을 제거한다(S460). 반면, 특징점의 이동거리가 기준이동거리 이하인 경우에는 이동로봇(100)의 위치판단에 필요한 특징점으로 판단한다(S470). On the other hand, when there is a matching specific point, the moving distance between the feature points is calculated (S440), and the moving distance of the feature points is compared with the reference moving distance (S450). If the moving distance of the feature point exceeds the reference moving distance, it is determined that the feature point is unnecessary and the feature point is removed (S460). On the other hand, if the moving distance of the feature point is less than the reference moving distance it is determined as a feature point necessary for the position determination of the mobile robot (100) (S470).

상기와 같이 불필요 특징점이 제거되면 전술한 도 6과 같이 이동로봇(100)의 위치를 산출한다. When the unnecessary feature point is removed as described above, the position of the mobile robot 100 is calculated as shown in FIG. 6.

도 8은 본 발명의 일실시예에 따른 이동로봇의 특징점 높이를 기준으로 불필요 특징점 판단방법이 도시된 도이다. 8 is a diagram illustrating a method for determining unnecessary feature points based on the feature point height of a mobile robot according to an embodiment of the present invention.

전술한 도 7과 같이 천장면의 영상을 촬영하여 특징점을 추출하고(S510), 제1시간의 영상데이터의 특징점과, 제2시간의 영상데이터의 특징점을 비교하여 매칭한다(S520). 이때, 상호 매칭되는 특징점이 존재하지 않는 경우 또는 매칭되는 특징점이 소정 수 이하인 경우(S530), 에러를 발생시켜 재촬영되도록 한다(S580). 이때, 이동로봇(100)의 이동거리가 1M 이하인 경우에 대하여 이미지가 촬영되도록 한다. 바람직하게는 30cm 내지 70cm 이동하는 정도로 촬영간격을 설정한다. As shown in FIG. 7, the image of the ceiling surface is photographed to extract a feature point (S510), and the feature point of the image data of the first time is compared with the feature point of the image data of the second time (S520). In this case, when there is no feature point to be matched with each other or when the number of feature points to be matched is equal to or less than a predetermined number (S530), an error is generated to be photographed again (S580). At this time, the image is taken so that the moving distance of the mobile robot 100 is less than 1M. Preferably, the shooting interval is set to move 30cm to 70cm.

한편, 매칭되는 특정점이 존재하는 경우에는 특징점 간의 이동거리를 연산하고, 천장면에 위치한 특징점과의 비교를 통해 특징점의 높이를 산출한다(S540). 이때, 촬영된 영상데이터의 중심에 부분에 위치하는 특징점은 천장면에 위치하는 것으로 판단한다. 또한, 특징점의 높이를 기준높이와 비교한다(S550). 이때, 특징점의 높이가 기준높이 미만인 경우에는 불필요 특징점인 것으로 판단하여 특징점을 제거한다(S560). 반면, 특징점의 높이가 기준높이 이상인 경우에는 이동로봇(100)의 위치판단에 필요한 특징점으로 판단한다(S570). 즉 천장면에 위치한 특징점인 것으로 판단한다. On the other hand, if there is a matching specific point, the moving distance between the feature points is calculated, and the height of the feature point is calculated through comparison with the feature points located on the ceiling surface (S540). At this time, it is determined that the feature point located at the center of the captured image data is located at the ceiling surface. In addition, the height of the feature point is compared with the reference height (S550). In this case, when the height of the feature point is less than the reference height, it is determined that the feature point is unnecessary and the feature point is removed (S560). On the other hand, if the height of the feature point is more than the reference height is determined as the feature point necessary for the position determination of the mobile robot (100) (S570). In other words, it is determined to be a feature point located on the ceiling surface.

상기와 같이 불필요 특징점이 제거되면 전술한 도 6과 같이 이동로봇(100)의 위치를 산출한다. When the unnecessary feature point is removed as described above, the position of the mobile robot 100 is calculated as shown in FIG. 6.

본 발명에 의한 이동로봇 및 그 동작방법은 상기와 같이 불필요한 특징점을 제거한 이후에 이동로봇의 위치를 산출하므로, 불필요한 데이터의 연산이 감소되어 이동로봇의 영상처리에 따른 부하가 감소되고 그에 따른 처리속도가 향상되어 빠른 위치산출이 가능해진다. Since the mobile robot and its operation method calculate the position of the mobile robot after removing the unnecessary feature points as described above, the operation of unnecessary data is reduced and the load according to the image processing of the mobile robot is reduced and the processing speed accordingly. Is improved to enable fast position calculation.

이상과 같이 본 발명에 의한 이동로봇 및 그 동작방법을 예시된 도면을 참조로 설명하였으나, 본 명세서에 개시된 실시예와 도면에 의해 본 발명은 한정되지 않고, 기술사상이 보호되는 범위 이내에서 응용될 수 있다. Although the mobile robot and its operation method according to the present invention have been described with reference to the illustrated drawings as described above, the present invention is not limited by the embodiments and drawings disclosed herein, and may be applied within the scope of the technical idea. Can be.

상기와 같이 구성되는 본 발명에 따른 이동로봇 및 그 동작방법은 촬영된 영상데이터에서 특징점을 추출하고, 불필요한 특징점을 제거한 이후 이동로봇의 위치를 산출하므로, 위치산출의 정확도 및 위치산출 속도가 향상되어 이동로봇의 위치판단이 용이한 효과가 있다. The mobile robot and its operation method according to the present invention configured as described above extract the feature points from the photographed image data and calculate the position of the mobile robot after removing the unnecessary feature points, thereby improving the accuracy and position calculation speed of the position calculation. It is easy to determine the position of the mobile robot.

Claims (10)

천장영역의 영상을 촬영하는 카메라;A camera for taking an image of the ceiling area; 상기 카메라로부터 입력되는 영상신호를 변환하고 촬영된 데이터로부터 특징점을 추출하는 영상제어부;An image controller converting an image signal input from the camera and extracting feature points from the photographed data; 상기 영상제어부로부터 소정 시간 간격으로 입력되는 제1 데이터 및 제2 데이터를 비교하여 다수의 특징점을 매칭하고, 특징점의 이동에 대응하여 산출되는 특징점의 높이 및 특징점의 이동비율 중 적어도 어느 하나에 따라 불필요한 특징점을 판단하여 제거하고, 상기 불필요한 특징점을 제외한 특징점의 이동에 대응하여 현재위치를 산출하는 제어부;를 포함하는 것을 특징으로 하는 이동로봇. Matching a plurality of feature points by comparing the first data and the second data input from the image controller at predetermined time intervals, and unnecessary according to at least one of the height of the feature point and the moving ratio of the feature point calculated according to the movement of the feature point. And a controller for determining and removing a feature point and calculating a current position in response to movement of the feature point except for the unnecessary feature point. 제 1 항에 있어서, The method of claim 1, 상기 카메라는 160도 이상의 화각을 형성하는 렌즈부;The camera comprises a lens unit forming an angle of view of 160 degrees or more; 이동로봇의 상부에 구비되어 천장영역을 포함하는 이동로봇의 상부의 영상을 촬영하는 이미지 센서;를 포함하는 것을 특징으로 하는 이동로봇.And an image sensor provided at an upper portion of the mobile robot and configured to capture an image of an upper portion of the mobile robot including a ceiling area. 제 1 항에 있어서, The method of claim 1, 상기 제어부는 상기 제1및 제 2 데이터의 중심부분에 위치한 특징점의 이동거리와 천장높이에 근거하여, 중심부분으로 일정거리 이상 떨어진 특징점의 이동거리에 따른 높이를 산출하고, 산출된 높이가 기준높이 이하인 특징점을 불필요한 특징점으로 판단하여 제거하는 것을 특징으로 하는 이동로봇. The controller calculates a height according to a moving distance of a feature point separated by a predetermined distance or more from the center portion based on the movement distance and the ceiling height of the feature point located in the central portion of the first and second data, and the calculated height is a reference height. A mobile robot, characterized in that the following feature points are determined as unnecessary feature points and removed. 제 1 항에 있어서, The method of claim 1, 상기 제어부는 상기 제1데이터 및 제2 데이터에 포함되는 다수의 특징점 중 중심으로부터 특징점까지의 거리에 대응하여 특징점의 이동거리에 따른 이동비율이 일정비율 이상인 특징점은 불필요한 특징점으로 판단하여 제거하는 것을 특징으로 하는 이동로봇. The control unit may determine that the feature point having a moving ratio greater than or equal to a certain ratio according to the moving distance of the feature point is removed as an unnecessary feature point corresponding to the distance from the center to the feature point among the plurality of feature points included in the first data and the second data. Mobile robot. 제 1 항에 있어서, The method of claim 1, 상기 제어부는 제1 및 제2 데이터 간에 매칭되는 특징점이 존재하지 않는 경우 또는 매칭되는 특징점이 소정 수 이하인 경우 데이터 오류인 것으로 판단하고, 다음 촬영되는 데이터를 상호 비교하는 것을 특징으로 하는 이동로봇. The control unit determines that there is no matching feature point between the first and second data or when the matching feature point is less than or equal to a predetermined number, it is determined that the data is an error, and the next photographed data is compared with each other. 카메라를 통해 천장영역을 포함하는 영상을 촬영하여 특징점을 추출하는 단계;Extracting a feature point by capturing an image including a ceiling area through a camera; 소정 시간 간격으로 촬영된 제1 및 제2 데이터의 특징점을 매칭하는 단계;Matching feature points of the first and second data photographed at predetermined time intervals; 매칭된 특징점의 이동거리를 산출하고, 특징점의 이동거리에 대응하여 산출되는 특징점의 높이 및 특징점의 이동비율 중 적어도 어느 하나에 따라 불필요한 특징점을 제거하는 단계; 및Calculating a moving distance of the matched feature point and removing unnecessary feature points according to at least one of a height of the feature point and a moving ratio of the feature point calculated according to the movement distance of the feature point; And 불필요한 특징점을 제외한, 나머지 특징점의 이동에 대응하여 이동로봇의 위치를 산출하는 단계;를 포함하는 것을 특징으로 하는 이동로봇의 동작방법. Calculating a position of the mobile robot in response to the movement of the remaining feature points, except for unnecessary feature points. 제 6 항에 있어서, The method of claim 6, 상기 불필요한 특징점을 제거하는 단계는 제1 및 제2 데이터의 중심부분에 위치된 특징점의 이동거리 및 천장높이에 근거하여, 중심부분으로부터 소정거리 떨어진 특징점의 이동거리에 따른 높이를 산출하고, 산출된 높이가 기준높이 이하인 경우 불필요한 특징점으로 판단하는 것을 특징으로 하는 이동로봇의 동작방법. The removing of the unnecessary feature points may be performed based on a moving distance of the feature points located in the center portion of the first and second data and a ceiling height, and calculating a height according to the movement distance of the feature point away from the center portion by a predetermined distance. If the height is less than the reference height operating method of the mobile robot, characterized in that it is determined as an unnecessary feature point. 제 6 항에 있어서, The method of claim 6, 상기 불필요한 특징점을 제거하는 단계는 제1 및 제2 데이터에 포함되는 다수의 특징점 중 중심으로부터 특징점까지의 거리에 대응하여, 특징점의 이동거리에 따른 이동비율이 일정비율 이상인 경우 불필요한 특징점으로 판단하는 것을 특징으로 하는 이동로봇의 동작방법.The removing of the unnecessary feature points corresponds to the distance from the center to the feature point among the plurality of feature points included in the first and second data, and determines that the feature points are unnecessary when the moving ratio of the feature points is greater than or equal to a certain ratio. Mobile robot operating method characterized in that. 제 6 항에 있어서, The method of claim 6, 상기 제1 및 제2 데이터의 특징점이 매칭되지 않는 경우 또는 매칭되는 특징점이 소정 수 이하인 경우 오류가 발생한 것으로 판단하고, 다음 촬영되는 데이터를 바탕으로 위치를 산출하는 단계를 더 포함하는 것을 특징으로 하는 이동로봇의 동작방법. Determining that an error has occurred when the feature points of the first and second data do not match or the matching feature points are less than or equal to a predetermined number, and calculating a position based on the next photographed data. Mobile robot operation method. 제 9 항에 있어서, The method of claim 9, 오류가 발생한 경우, 촬영간격을 변경하는 단계를 더 포함하는 이동로봇의 동작방법. If an error occurs, the method of operation of the mobile robot further comprises the step of changing the shooting interval.
KR1020070047457A 2007-05-16 2007-05-16 Moving robot and operating method for same KR100871115B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070047457A KR100871115B1 (en) 2007-05-16 2007-05-16 Moving robot and operating method for same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070047457A KR100871115B1 (en) 2007-05-16 2007-05-16 Moving robot and operating method for same

Publications (2)

Publication Number Publication Date
KR20080101131A KR20080101131A (en) 2008-11-21
KR100871115B1 true KR100871115B1 (en) 2008-11-28

Family

ID=40287435

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070047457A KR100871115B1 (en) 2007-05-16 2007-05-16 Moving robot and operating method for same

Country Status (1)

Country Link
KR (1) KR100871115B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110090108A (en) * 2010-02-02 2011-08-10 엘지전자 주식회사 Robot cleaner and controlling method thereof
KR101346510B1 (en) * 2010-04-19 2014-01-02 인하대학교 산학협력단 Visual odometry system and method using ground feature
US9402151B2 (en) 2011-08-27 2016-07-26 Korea University Research And Business Foundation Method for recognizing position of mobile robot by using features of arbitrary shapes on ceiling
KR102252888B1 (en) * 2020-01-03 2021-05-17 포테닛 주식회사 An apparatus and method for detecting position of transfer robot in space

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101524020B1 (en) * 2009-03-06 2015-05-29 엘지전자 주식회사 Method for gradually building map by mobile robot and correcting position of mobile robot
KR101035058B1 (en) * 2009-09-25 2011-05-19 전자부품연구원 Moving Robot and Method Of Recognizing A Ceiling Region For Localization Thereof
KR101140558B1 (en) * 2011-10-17 2012-05-02 국방과학연구소 Autonomous mobile robot and control method for the same
US9170581B2 (en) 2013-09-30 2015-10-27 Crown Equipment Limited Industrial vehicles with overhead light based localization
US9174830B1 (en) 2014-09-29 2015-11-03 Crown Equipment Limited Industrial vehicles with point fix based localization

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259659A (en) 1998-03-11 1999-09-24 Hokkaido Prefecture Environment map producing method by mobile robot
KR20020081035A (en) * 2001-04-18 2002-10-26 삼성광주전자 주식회사 Robot cleaner and system and method of controling thereof
KR20040086940A (en) * 2003-04-03 2004-10-13 엘지전자 주식회사 Mobile robot in using image sensor and his mobile distance mesurement method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259659A (en) 1998-03-11 1999-09-24 Hokkaido Prefecture Environment map producing method by mobile robot
KR20020081035A (en) * 2001-04-18 2002-10-26 삼성광주전자 주식회사 Robot cleaner and system and method of controling thereof
KR20040086940A (en) * 2003-04-03 2004-10-13 엘지전자 주식회사 Mobile robot in using image sensor and his mobile distance mesurement method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110090108A (en) * 2010-02-02 2011-08-10 엘지전자 주식회사 Robot cleaner and controlling method thereof
KR101641244B1 (en) * 2010-02-02 2016-07-20 엘지전자 주식회사 Robot cleaner and controlling method thereof
KR101346510B1 (en) * 2010-04-19 2014-01-02 인하대학교 산학협력단 Visual odometry system and method using ground feature
US9402151B2 (en) 2011-08-27 2016-07-26 Korea University Research And Business Foundation Method for recognizing position of mobile robot by using features of arbitrary shapes on ceiling
KR102252888B1 (en) * 2020-01-03 2021-05-17 포테닛 주식회사 An apparatus and method for detecting position of transfer robot in space

Also Published As

Publication number Publication date
KR20080101131A (en) 2008-11-21

Similar Documents

Publication Publication Date Title
KR100871115B1 (en) Moving robot and operating method for same
KR102235271B1 (en) Moving Robot and controlling method
US10695906B2 (en) Moving robot and controlling method
TWI687784B (en) Moving robot and control method thereof
EP3590665B1 (en) Mobile robot and control method therefor
EP3048502B1 (en) Robot cleaner and method for controlling robot cleaner
KR101366860B1 (en) Mobile robot and controlling method of the same
KR102024092B1 (en) Moving Robot and controlling method
KR102032285B1 (en) Moving Robot and controlling method
TWI726031B (en) Electric sweeper
KR100871114B1 (en) Moving robot and operating method for same
KR101976462B1 (en) A robot cleaner a control method thereof
SE525628C2 (en) External charging device for charging a cleaning robot
KR101513639B1 (en) Mobile robot robot cleaner and method for detecting angles of the mobile robot
KR102147208B1 (en) Moving Robot and controlling method
KR20120116278A (en) Robot cleaner and method for controlling the same
JP4763353B2 (en) Mobile robot motion tracking apparatus and motion tracking method thereof
KR20130000278A (en) Robot cleaner and controlling method of the same
KR20190103511A (en) Moving Robot and controlling method
KR101303161B1 (en) Mobile robot and controlling method of the same
KR20090098513A (en) Moving robot and operating method for same
US20220280007A1 (en) Mobile robot and method of controlling the same
KR102330607B1 (en) Artificial intelligence Moving Robot and controlling method
JP2007265343A (en) Follow-up device of mobile object and electric wheelchair having the same
WO2018193653A1 (en) Mobile device, object detection method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121026

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20131024

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20141024

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151023

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee