KR20120033414A - Robot for operating recognition of self-position and operation method thereof - Google Patents

Robot for operating recognition of self-position and operation method thereof Download PDF

Info

Publication number
KR20120033414A
KR20120033414A KR1020100094914A KR20100094914A KR20120033414A KR 20120033414 A KR20120033414 A KR 20120033414A KR 1020100094914 A KR1020100094914 A KR 1020100094914A KR 20100094914 A KR20100094914 A KR 20100094914A KR 20120033414 A KR20120033414 A KR 20120033414A
Authority
KR
South Korea
Prior art keywords
image
robot
ceiling
camera
magnetic position
Prior art date
Application number
KR1020100094914A
Other languages
Korean (ko)
Inventor
김승훈
박창우
전세웅
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020100094914A priority Critical patent/KR20120033414A/en
Publication of KR20120033414A publication Critical patent/KR20120033414A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion

Abstract

PURPOSE: A robot with a self-location recognizing function and an operating method thereof are provided to accurately perform various operations established on a robot based accurate self-location recognition by performing the self-location recognition of the robot without errors. CONSTITUTION: A robot(100) with a self-location recognizing function comprises a storage unit(150), a camera(130), and a control unit(160). The storage unit stores a topological map and front and ceiling reference images registered for each spot of the topological map. The camera takes ceiling images and front images at the time of the self-location recognition. The control unit compares the ceiling based images with the ceiling images to detect at least one ceiling based image matched the ceiling image.

Description

자기 위치 인식을 수행하는 로봇 및 그의 운용 방법{Robot For operating recognition of self-position And Operation Method thereof}Robot for operating recognition of self-position And Operation Method

본 발명은 로봇에 관한 것으로, 더욱 상세하게는 자기 위치 인식을 보다 정확히 수행할 수 있는 로봇 및 그의 운용 방법에 관한 것이다.The present invention relates to a robot, and more particularly, to a robot and a method of operating the robot that can perform magnetic position recognition more accurately.

로봇(Robot)은 시스템이 제공하는 명령어나 특정 조작에 따라 이동하면서 특정 작업을 수행할 수 있는 기계 장치로서, 인간을 대신하여 여러 작업에 이용되고 있다. 이러한 로봇을 생산 및 개발하는 로봇 산업은 급속도로 발전해 왔으며, 최근에는 산업용 또는 특수 작업용 로봇에 대한 연구를 비롯해서 가정용, 교육용 로봇과 같이 인간의 작업을 돕고 인간의 생활에 즐거움을 주는 목적으로 만들어지는 로봇에 대한 연구로 확대되고 있는 실정이다. 우리나라는 로봇이 보급되기 시작한 것이 1960년대 말부터인데, 그 대부분은 공장에서 생산 작업의 자동화, 무인화 등을 목적으로 한 매니풀레이터(manipulator)나 반송 로봇 등의 산업용 로봇(industrial robot)이었다. 그러나 최근 들어서는 가정용 로봇이 다양하게 생산 및 판매되고 있다. 예를 들어, 최근 로봇 생산 업자들은 청소를 돕는 청소 로봇, 아이들에게 특정 교육을 가르치는 교육용 로봇, 기타 가정 내 특정 상황을 감시하기 위한 감시 로봇 등 다양한 형태의 로봇들을 제작 및 판매하고 있다.A robot is a mechanical device that can perform a specific task while moving according to a command or a specific manipulation provided by a system, and is used in various tasks on behalf of a human. The robot industry that produces and develops these robots has developed rapidly, and recently, researches on robots for industrial or special tasks, as well as robots that are made for the purpose of helping human tasks and enjoyment of human life such as home and educational robots The situation is being expanded to study. In Korea, robots began to spread from the late 1960s, and most of them were industrial robots such as manipulators or conveying robots for the purpose of automating and unmanned production work in factories. Recently, however, various domestic robots have been produced and sold. For example, robot manufacturers have recently been manufacturing and selling various types of robots, such as cleaning robots to help clean up, educational robots to teach children specific education, and surveillance robots to monitor certain situations in the home.

상술한 로봇들 중 일정 거리를 이동해야 하는 청소용 로봇이나 교육용 로봇 등은 이동한 거리나 이동할 거리에 대한 분석을 위하여 현재 자신의 위치가 어디에 있는지 정확히 알아야 할 필요가 있다. 이를 위하여 종래에는 로봇의 최초 위치를 사용자가 직접 수동으로 입력하는 방식이 제안되었으나, 로봇의 운행 도중에도 자신의 위치 인식이 필요한 상황이 발생하게 되어 다양한 문제점을 안고 있었다. 이후 상술한 문제를 보완하기 위한 방법으로 다양한 센서 예를 들면 초음파 센서나 레이저 센서를 이용하여 자신의 위치 인식을 수행하는 방안이 제안된바 있으나, 가정에 비치된 다양한 사물들의 잦은 이동에 따라 거리 측정에 오차가 발생하여 결과적으로 자기 위치를 정확히 인지하지 못하는 문제점이 있었다.Among the above-mentioned robots, a cleaning robot or an educational robot, which needs to move a certain distance, needs to know exactly where its current position is in order to analyze the distance moved or the distance moved. To this end, a method of manually inputting a robot's initial position manually has been proposed in the related art, but a situation in which a user's position recognition is required even while the robot is running has various problems. Afterwards, as a method for compensating the above problem, a method of performing a location recognition by using various sensors, for example, an ultrasonic sensor or a laser sensor, has been proposed. However, the distance measurement is performed according to frequent movement of various objects in the home. There was an error in the result, there was a problem that does not accurately recognize the magnetic position.

따라서 본 발명의 목적은 상술한 문제를 해결하기 위한 것으로, 천장과 전방의 특정 지점에 대한 영상을 수집하고, 수집된 영상을 기준 영상과 비교 분석하여 로봇의 자기 위치를 보다 정확히 수행할 수 있도록 지원하는 자기 위치 인식을 수행하는 로봇 및 그의 운용 방법을 제공함에 있다.Accordingly, an object of the present invention is to solve the above-described problem, and collects images of a specific point of the ceiling and the front, and compares the collected image with the reference image to support the accurate positioning of the robot The present invention provides a robot for performing magnetic position recognition and a method of operating the same.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 자기 위치 인식을 수행하는 로봇은 저장부, 카메라 및 제어부의 구성을 포함한다. 여기서 상기 저장부는 일정 공간에 대한 위상 지도와 상기 위상 지도의 각 지점들에 등록된 전방 기준 영상들 및 천장 기준 영상들이 저장된다. 그리고 상기 카메라는 상기 전방 기준 영상들 및 상기 천장 기준 영상들을 촬영을 지원하며 자기 위치 인식이 필요한 시점에 천장 영상과 전방 영상을 촬영한다. 상기 제어부는 상기 천장 영상을 상기 천장 기준 영상들과 비교하여 상기 천장 영상과 매칭되는 적어도 하나의 천장 기준 영상을 검출하고, 상기 전방 영상을 상기 전방 기준 영상들과 비교하여 상기 전방 영상과 매칭되는 적어도 하나의 전방 기준 영상을 검출하여 상기 위상 지도를 기반으로 현재 자기 위치를 인식하도록 제어할 수 있다.The robot for performing the magnetic position recognition of the present invention for achieving the above object includes a configuration of a storage unit, a camera and a control unit. The storage unit stores a phase map for a predetermined space, front reference images and ceiling reference images registered at respective points of the phase map. The camera supports capturing the front reference images and the ceiling reference images, and captures the ceiling image and the front image at a point in time when magnetic position recognition is required. The control unit detects at least one ceiling reference image matching the ceiling image by comparing the ceiling image with the ceiling reference images, and compares the front image with the front reference images, and at least matches the front image. One front reference image may be detected and controlled to recognize a current magnetic position based on the phase map.

여기서 특히 상기 카메라는 상기 천장 영상을 전용으로 촬영하기 위한 천장 영상 전용 카메라 및 상기 전방 영상을 전용으로 촬영하기 위한 전방 영상 전용 카메라를 포함할 수 있다.In particular, the camera may include a ceiling image dedicated camera for capturing the ceiling image and a front image dedicated camera for capturing the front image.

한편 상기 로봇은 상기 제어부 제어에 따라 상기 로봇을 일정 방향으로 이동시키는 로봇 구동부, 상기 로봇 구동부 상에 배치되어 상기 카메라와 상기 저장부 및 제어부가 배치되는 로봇 바디부를 더 포함할 수 있다.The robot may further include a robot driver configured to move the robot in a predetermined direction according to the control of the controller, and a robot body part disposed on the robot driver so that the camera, the storage unit, and the controller are disposed.

이 경우 상기 카메라는 상기 로봇 바디부 상에서 일정 각도만큼 회전이 가능하도록 배치되고, 수직 각도에서 천장 영상을 촬영하며 수평 각도에서 전방 영상을 촬영할 수 있다.In this case, the camera is disposed to be rotatable by a predetermined angle on the robot body, and may capture a ceiling image at a vertical angle and a front image at a horizontal angle.

한편 상기 제어부는 상기 천장 영상 및 상기 천장 기준 영상들에 대한 경계선 검출 기반의 영상처리를 수행하고, 상기 전방 영상 및 상기 전방 기준 영상들에 대한 특징점 추출 기반의 영상 처리를 수행하도록 제어할 수 있다.The controller may perform image processing based on boundary detection of the ceiling image and the ceiling reference images, and perform image processing based on feature extraction on the front image and the front reference images.

본 발명은 또한 로봇의 자기 위치 인식을 요구하는 이벤트가 발생하는 과정, 상기 로봇에 배치되는 카메라를 운용하여 천장 영상과 전방 영상을 수집하는 수집 과정, 상기 수집된 천장 영상과 전방 영상을 사전에 저장되며 위상 지도 상의 특정 위치에 각각 등록된 천장 기준 영상들 및 전방 기준 영상들과 비교하는 과정, 상기 비교 결과를 기반으로 상기 위상 지도 상의 특정 지점에 해당하는 지점을 상기 로봇의 현재 자기 위치로 결정하는 결정 과정을 포함하는 자기 위치 인식을 수행하는 로봇의 운용 방법을 개시한다.The present invention also provides a process for generating an event requiring recognition of the robot's magnetic position, a collection process for collecting a ceiling image and a front image by using a camera disposed in the robot, and storing the collected ceiling image and the front image in advance. And comparing the front reference images and the ceiling reference images registered at the specific positions on the phase map, respectively, and determining a point corresponding to the specific point on the phase map as the current magnetic position of the robot based on the comparison result. Disclosed is a method of operating a robot that performs magnetic position recognition including a determination process.

여기서 상기 수집 과정은 상기 로봇이 단수개의 카메라를 가지는 경우, 상기 카메라를 수직 각도로 배치하여 상기 천장 영상을 수집한 후 상기 카메라를 수평 각도로 배치하여 상기 전방 영상을 수집하거나, 상기 전방 영상 수집 후 상기 천장 영상을 수집하는 과정을 포함하고 상기 로봇이 복수개의 카메라를 가지는 경우, 천장 영상 촬영 전용으로 할당된 카메라를 운용하여 천장 영상을 수집함과 아울러 전방 영상 촬영 전용으로 할당된 카메라를 운용하여 전방 영상을 수집하는 과정을 포함할 수 있다. In the collecting process, when the robot has a single camera, the camera is disposed at a vertical angle to collect the ceiling image, and the camera is disposed at a horizontal angle to collect the front image, or after the front image collection. And collecting the ceiling image, and when the robot has a plurality of cameras, collects the ceiling image by operating a camera allocated exclusively for capturing the ceiling image, and operates a camera allocated exclusively for capturing the front image. It may include the process of collecting the image.

그리고 상기 결정 과정은 상기 비교 과정에서 가장 유사도가 높은 천장 기준 영상 및 전방 기준 영상이 검출된 경우 해당 천장 기준 영상 및 전방 기준 영상이 등록된 위상 지도 상의 지점을 로봇의 현재 자기 위치로 결정하는 과정 또는 상기 비교 과정에서 일정 유사도 이상의 적어도 하나의 천장 기준 영상 및 일정 유사도 이상의 적어도 하나의 전방 기준 영상이 검출된 경우, 해당 천장 기준 영상과 전방 기준 영상의 조합이 상기 위상 지도 상에 등록된 천장 기준 영상 및 전방 기준 영상과 가장 부합된 지점을 상기 로봇의 현재 자기 위치로 결정하는 과정을 포함할 수 있다.The determining may include determining a point on the phase map where the ceiling reference image and the front reference image are registered as the current magnetic position of the robot when the ceiling reference image and the front reference image having the highest similarity are detected in the comparison process. In the comparison process, when at least one ceiling reference image having a certain degree of similarity or more and at least one forward reference image having a certain degree of similarity is detected, a combination of the ceiling reference image and the front reference image is registered on the phase map. The method may include determining a point that most matches the forward reference image as the current magnetic position of the robot.

본 발명에 따른 자기 위치 인식을 수행하는 로봇 및 그의 운용 방법에 따르면, 본 발명은 로봇의 자기 위치를 보다 정확하게 수행할 수 있도록 명확한 기준점들을 제공함으로써, 로봇의 자기 위치 인식을 오류 없이 수행할 수 있도록 지원할 수 있다. 이에 따라 본 발명은 정확한 자기 위치 인식을 기반으로 로봇에 설정된 다양한 작업을 오류 없이 수행할 수 있도록 지원한다.According to the robot for performing the magnetic position recognition according to the present invention and its operation method, the present invention provides a clear reference points to perform the magnetic position of the robot more accurately, so that the magnetic position recognition of the robot can be performed without error Can support Accordingly, the present invention supports to perform various tasks set in the robot without error based on accurate magnetic position recognition.

도 1은 본 발명의 실시 예에 따른 로봇의 개략적인 구성을 나타낸 블록도,
도 2는 도 1의 제어부 구성을 보다 상세히 나타낸 도면,
도 3은 본 발명의 실시 예에 따른 로봇의 자기 위치 인식을 위한 영상 처리 과정을 설명하기 위한 도면,
도 4는 본 발명의 다른 실시 예에 따른 로봇의 자기 위치 인식을 위한 영상 처리 과정을 설명하기 위한 도면,
도 5는 본 발명의 실시 예에 따른 자기 위치 인식을 수행하는 로봇의 운용 방법을 설명하기 위한 도면.
1 is a block diagram showing a schematic configuration of a robot according to an embodiment of the present invention;
2 is a view showing in more detail the configuration of the control unit of FIG.
3 is a view for explaining an image processing process for recognizing a magnetic position of a robot according to an embodiment of the present invention;
4 is a diagram illustrating an image processing process for recognizing a magnetic position of a robot according to another exemplary embodiment of the present disclosure;
5 is a view for explaining a method of operating a robot performing magnetic position recognition according to an embodiment of the present invention.

이하, 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기의 설명에서는 본 발명의 실시 예에 따른 동작을 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, only parts necessary for understanding the operation according to the embodiment of the present invention will be described, and the description of other parts will be omitted so as not to disturb the gist of the present invention.

이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.The terms or words used in the specification and claims described below should not be construed as being limited to the ordinary or dictionary meanings, and the inventors are appropriate to the concept of terms in order to explain their invention in the best way. It should be interpreted as meanings and concepts in accordance with the technical spirit of the present invention based on the principle that it can be defined. Therefore, the embodiments described in the present specification and the configuration shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all of the technical idea of the present invention, and various equivalents may be substituted for them at the time of the present application. It should be understood that there may be water and variations.

도 1은 본 발명의 실시 예에 따른 로봇의 구성을 개략적으로 나타낸 블록도이다. 상기 도 1에서 설명하는 로봇은 다양한 형태의 산업용 로봇 및 기타 가정용 로봇에 적용될 수 있을 것이다.1 is a block diagram schematically showing the configuration of a robot according to an embodiment of the present invention. The robot described in FIG. 1 may be applied to various types of industrial robots and other home robots.

상기 도 1을 참조하면, 본 발명의 실시 예에 따른 자기 위치 인식을 수행하는 로봇(100)은 로봇 바디부(110), 로봇 구동부(120), 카메라(130), 표시부(140), 저장부(150) 및 제어부(160)의 구성을 포함할 수 있다. 여기서 상기 로봇(100)의 구성은 자기 위치 인식을 수행하는데 필요한 구성만을 도시 및 설명하고 있으나 본 발명이 이에 한정되는 것은 아니다. 즉 상기 로봇(100)은 로봇이 생산되는 목적에 해당하는 작업 수행을 위한 구성들을 더 포함할 수 있을 것이다. 예를 들면, 상기 로봇(100)은 청소용 로봇인 경우 청소용 모듈을 더 포함할 수 있다. 그리고 상기 로봇(100)이 교육용 로봇인 경우 교육용 아이템을 출력하기 위한 스피커 및 표시부 등을 더 포함할 수 있을 것이다. 그리고 상기 자기 위치 인식을 수행하는 로봇(100)은 표시부(140)의 구성을 포함하는 것으로 설명하지만, 로봇 설계자의 의도 등에 따라 상기 표시부(140)의 구성은 생략될 수 있을 것이다.Referring to FIG. 1, the robot 100 performing magnetic position recognition according to an embodiment of the present invention includes a robot body 110, a robot driver 120, a camera 130, a display 140, and a storage unit. And a configuration of the controller 150 and the controller 150. Here, the configuration of the robot 100 is shown and described only the configuration necessary to perform the magnetic position recognition, but the present invention is not limited thereto. That is, the robot 100 may further include components for performing tasks corresponding to the purpose for which the robot is produced. For example, the robot 100 may further include a cleaning module when the robot is a cleaning robot. When the robot 100 is an educational robot, the robot 100 may further include a speaker and a display unit for outputting an educational item. Although the robot 100 performing the magnetic position recognition includes the configuration of the display unit 140, the configuration of the display unit 140 may be omitted according to the intention of the robot designer.

한편 상술한 구성들을 포함하는 자기 위치 인식을 수행하는 로봇(100)은 카메라(130)를 이용하여 천장 영상과 전방 영상을 수집한 후, 수집 영상들을 저장부(150)에 기 저장된 기준 영상들 즉 천장 기준 영상들 및 전방 기준 영상들과 비교할 수 있다. 그리고 상기 로봇(100)은 저장부(150)에 저장된 위상 지도(151)를 기반으로 상기 수집 영상들과 기준 영상들과의 비교 결과에 따른 현재 자기 위치 인식을 수행하도록 지원할 수 있다. 이하 상기 로봇(100)의 각 구성들에 대하여 보다 상세히 설명하기로 한다.Meanwhile, the robot 100 that performs the magnetic position recognition including the above-described components collects the ceiling image and the front image by using the camera 130, and then stores the collected images in the storage unit 150. The ceiling reference images and the front reference images may be compared. The robot 100 may support to perform current magnetic position recognition based on a comparison result between the collected images and the reference images based on the phase map 151 stored in the storage 150. Hereinafter, each component of the robot 100 will be described in more detail.

상기 로봇 바디부(110)는 로봇(100)의 외형에 해당하는 구성으로서 상술한 로봇 구동부(120), 상기 카메라(130), 상기 표시부(140), 상기 저장부(150) 및 상기 제어부(160) 등이 내외부에 배치되는 구성이다. 이러한 로봇 바디부(110)는 로봇(100)의 생산 목적에 따라 다양한 형태로 제작될 수 있다. 예를 들어 상기 로봇(100)이 청소용 로봇인 경우 상기 로봇 바디부(110)는 일정 바닥면을 청소할 수 있도록 원반 형태로 제작되거나, 원통형으로 제작될 수 있을 것이다. 또한 상기 로봇(100)이 교육용 로봇인 경우 일정형태의 통형으로 제작되데 일면에는 상기 표시부(140)와 오디오 컨텐츠를 출력할 수 있는 스피커 등을 포함하는 오디오 처리부 등이 배치되어 사용자가 상기 표시부(140)와 오디오 처리부를 통하여 다양한 교육 정보를 습득할 수 있는 형태로 제작될 수 있다. 그리고 상기 로봇(100)이 산업용 로봇인 경우 상기 로봇 바디부(110)는 해당 산업 분야에 맞는 형태로 제작될 수 있다. 이와 같이 상기 로봇 바디부(110)는 로봇(100)의 생산 목적에 따라 다양한 형태로 제작이 가능하다. The robot body 110 is a configuration corresponding to the appearance of the robot 100, and the robot driver 120, the camera 130, the display unit 140, the storage unit 150, and the controller 160 described above. ) And the like are arranged inside and outside. The robot body 110 may be manufactured in various forms according to the production purpose of the robot 100. For example, when the robot 100 is a cleaning robot, the robot body 110 may be manufactured in a disk shape or a cylindrical shape to clean a predetermined bottom surface. In addition, when the robot 100 is an educational robot, the robot 100 is manufactured in a cylindrical shape, and an audio processor including a speaker capable of outputting audio content and the display unit 140 is disposed on one surface of the robot 100. ) And the audio processing unit to produce a variety of educational information. When the robot 100 is an industrial robot, the robot body 110 may be manufactured in a form suitable for the corresponding industrial field. As described above, the robot body 110 may be manufactured in various forms according to the production purpose of the robot 100.

특히 상기 로봇 바디부(110)는 상기 카메라(130)가 천장의 영상을 촬영할 수 있을 뿐만 아니라, 전방 영상을 촬영할 수 있는 배치 구조를 가지며 제작될 수 있다. 이때 상기 카메라(130)가 단수개인 경우 상기 로봇 바디부(110)는 상기 카메라(130)가 천장의 영상을 촬영한 후 전방 피사체에 대한 영상을 촬영할 수 있도록 회전 가능한 통로를 제공할 수 있다. 이를 보다 상세히 설명하면, 상기 로봇 바디부(110)는 일정 위치에 상기 배치된 카메라(130)가 수평 각도에서 수직 각도까지 회전 이동이 가능한 통로를 제공할 수 있다. 그러면 상기 카메라(130)는 상기 제어부(160) 제어에 따라 상기 회전 가능한 통로를 따라서 특정 각도에서 수직 각도가 되는 시점까지 회전한 후 천장 영상을 촬영할 수 있다. 또한 상기 카메라(130)는 제어부(160) 제어에 따라 수직 각도 상태에서 상기 회전 가능한 통로를 따라 이동하여 수평 각도로 배치되고, 이후 제어부(160) 제어에 따라 전방 영상을 촬영할 수 있다. 한편 상기 카메라(130)가 복수개이며 상기 제어부(160)가 복수개의 카메라를 각각 천장 영상 촬영 전용과 전방 영상 촬영 전용으로 운용하는 경우, 상기 로봇 바디부(110)는 별도의 카메라(130) 회전 경로의 제공 없이 복수개의 카메라(130)를 고정시키는 홈이나 홀 등을 제공할 수 있다. 즉 상기 로봇 바디부(110)는 천장 영상을 전용으로 촬영할 수 있도록 카메라가 배치되는 홈이나 홀과, 전방 영상을 전용으로 촬영할 수 있도록 카메라가 배치되는 홈이나 홀을 포함할 수 있다. 한편 상기 로봇 바디부(110)는 상기 표시부(140)가 배치되는 위치에 표시부(140)의 가장자리를 감싸도록 배치되는 외곽 프레임을 제공하여 표시부(140)가 고정될 수 있도록 지원할 수 있다.In particular, the robot body 110 may be manufactured having an arrangement structure capable of capturing an image of the ceiling, as well as photographing the front image, of the camera 130. In this case, when the camera 130 is singular, the robot body 110 may provide a rotatable passage so that the camera 130 may photograph an image of a front subject and then photograph an image of a ceiling. In more detail, the robot body 110 may provide a passage through which the camera 130 disposed at a predetermined position may be rotated from a horizontal angle to a vertical angle. Then, the camera 130 may take a ceiling image after rotating to a vertical angle from a specific angle along the rotatable passage under the control of the controller 160. In addition, the camera 130 may be disposed at a horizontal angle by moving along the rotatable passage in a vertical angle state under the control of the controller 160, and then photographing the front image under the control of the controller 160. On the other hand, when there are a plurality of cameras 130 and the control unit 160 operates the plurality of cameras for ceiling image capturing and forward image capturing, respectively, the robot body unit 110 has a separate camera 130 rotation path. It is possible to provide a groove or a hole for fixing the plurality of cameras 130 without providing. That is, the robot body 110 may include a groove or a hole in which the camera is disposed to exclusively capture the ceiling image, and a groove or a hole in which the camera is disposed to exclusively capture the front image. The robot body 110 may support the display unit 140 to be fixed by providing an outer frame disposed to surround the edge of the display unit 140 at the position where the display unit 140 is disposed.

상기 로봇 구동부(120)는 상기 로봇 바디부(110) 일측에 마련되어 상기 로봇 바디부(110)가 일정 방향으로 이동이 가능하도록 지원하는 구성이다. 이를 위하여 상기 로봇 구동부(120)는 다양한 형태로 구성될 수 있다. 예를 들면 상기 로봇 구동부(120)는 일정 개수의 바퀴와, 상기 바퀴를 회전시키는 축, 상기 축에 동력을 제공하는 동력부의 구성을 포함할 수 있다. 그러면 상기 로봇 구동부(120)는 상기 제어부(160) 제어에 따라 상기 동력부를 구동하여 동력을 생성하고, 생성된 동력을 상기 축에 전달한다. 결과적으로 상기 축에 전달된 동력은 상기 바퀴를 회전시킴으로써 상기 로봇 구동부(120)를 일정 방향으로 이동시킬 수 있다. 이때 상기 로봇 구동부(120)는 상기 바퀴들에 전달되는 동력의 크기를 제어함으로써 상기 로봇 바디부(110)가 일정 방향으로 회전이 가능하도록 지원할 수 도 있다. 한편 상술한 설명에서는 상기 로봇 구동부(120)가 다수개의 바퀴를 가지는 형태로 설명하였지만 본 발명이 이에 한정되는 것은 아니다. 즉 상기 로봇 구동부(120)는 동력부와 동력 전달부 및 전달된 동력에 따라 일정한 움직임을 가지는 구조물을 포함하는 다양한 형태로 구성될 수 있으며, 필요에 따라 상기 바퀴들을 감싸는 궤도가 더 마련될 수 도 있다.The robot driver 120 is provided at one side of the robot body 110 to support the robot body 110 in a predetermined direction. For this purpose, the robot driver 120 may be configured in various forms. For example, the robot driver 120 may include a predetermined number of wheels, a shaft for rotating the wheels, and a power unit for providing power to the shaft. Then, the robot driver 120 drives the power unit under the control of the controller 160 to generate power, and transmits the generated power to the shaft. As a result, the power transmitted to the shaft may move the robot driver 120 in a predetermined direction by rotating the wheel. In this case, the robot driver 120 may support the robot body 110 to be rotated in a predetermined direction by controlling the magnitude of power transmitted to the wheels. Meanwhile, in the above description, the robot driver 120 has been described as having a plurality of wheels, but the present invention is not limited thereto. That is, the robot driver 120 may be configured in various forms including a power unit, a power transmission unit, and a structure having a certain movement according to the transmitted power, and a track surrounding the wheels may be further provided as necessary. have.

상기 카메라(130)는 상기 로봇 바디부(110) 일측에 배치되어 제어부(160) 제어에 따라 일정한 영상을 촬영하고, 촬영된 영상을 제어부(160)에 전달할 수 있다. 특히 본 발명의 카메라(130)는 제어부(160) 제어에 따라 천장 영상과 전방 영상을 촬영하고, 촬영된 천장 영상과 전방 영상을 제어부(160)에 전달할 수 있다. 이를 위하여 상기 카메라(130)는 단수개인 경우 상기 로봇 바디부(110) 일측에 마련된 후 회전 운동을 통하여 천장 영상과 전방 영상을 촬영할 수 있도록 지원할 수 있다. 즉 상기 카메라(130)는 상기 제어부(160) 제어에 따라 수직 각도로 배치되는 위치까지 이동이 가능하며, 다시 수평 각도로 배치되는 위치까지 이동이 가능하도록 구성될 수 있다. 상기 로봇(100)은 상기 카메라(130)의 회전 운동을 지원하기 위하여 카메라(130)의 회전 운동을 지원하는 힌지부와 힌지부에 동력을 제공하여 상기 카메라(130)의 각도를 조정하도록 지원하는 동력 공급부를 더 포함할 수 있다. 한편 상기 카메라(130)는 전술한 바와 같이 복수개가 마련될 수 있으며, 이 경우 특정 카메라는 천장 영상을 전용으로 촬영할 수 있도록 상기 로봇 바디부(110)의 일정 위치에서 천장을 바라보는 방향으로 배치될 수 있으며, 다른 카메라는 전방 영상을 전용으로 촬영할 수 있도록 상기 로봇 바디부(110)의 일정 위치에서 전방을 바라보는 방향으로 배치될 수 있다. 이러한 카메라(130)는 CCD 카메라 또는 CMOS 카메라 등 다양한 형태의 카메라로 제작될 수 있을 것이다. 상기 제어부(160)는 상기 로봇 구동부(120)를 회전 운동시킴과 아울러 전방 영상을 촬영하도록 배치되는 카메라(130)를 이용하여 360도 회전하면서 전방 영상을 촬영하여 전방에 대한 파노라마 영상을 수집하도록 제어할 수 도 있다.The camera 130 may be disposed at one side of the robot body 110 to capture a predetermined image under the control of the controller 160, and transmit the captured image to the controller 160. In particular, the camera 130 of the present invention may photograph the ceiling image and the front image under the control of the controller 160, and transfer the photographed ceiling image and the front image to the controller 160. To this end, the camera 130 may be provided on one side of the robot body 110 in the singular, and may support to capture the ceiling image and the front image through the rotational movement. That is, the camera 130 may move to a position disposed at a vertical angle under the control of the controller 160, and may be configured to move to a position disposed at a horizontal angle. The robot 100 provides power to the hinge part and the hinge part supporting the rotational motion of the camera 130 to support the rotational motion of the camera 130 to assist in adjusting the angle of the camera 130. It may further include a power supply. Meanwhile, the camera 130 may be provided in plural as described above, and in this case, the specific camera may be disposed in a direction of looking at the ceiling from a predetermined position of the robot body 110 so as to photograph the ceiling image exclusively. The other camera may be disposed in a direction of looking forward at a predetermined position of the robot body 110 so as to photograph the front image exclusively. The camera 130 may be manufactured by various types of cameras, such as a CCD camera or a CMOS camera. The controller 160 controls the robot driver 120 to collect a panoramic image of the front by rotating the 360 degree by using the camera 130 disposed to photograph the front image while rotating the robot driver 120. You may.

상기 표시부(140)는 상기 로봇(100)의 구동 과정에 필요한 다양한 화면 예를 들면 초기화 화면, 대기 화면, 스케줄 설정 화면, 로봇(100)이 수행할 수 있는 작업 기능 화면, 로봇(100) 상태를 지시하는 특정 정보를 나타낸 화면 등을 제공할 수 있다. 특히 상기 표시부(140)는 상기 저장부(150)에 저장된 위상 지도(151)에 대응하는 화면과, 상기 위상 지도(151) 상에 자기 위치 인식을 통해 획득된 정보를 출력할 수 있다. 이때 상기 위상 지도(151)는 상기 로봇(100)이 수행할 작업 공간의 축소판에 대응할 수 있다. 따라서 사용자는 상기 표시부(140)에 출력된 위상 지도(151) 및 로봇(100)의 자기 위치 인식 정보를 통하여 로봇(100)이 정상적으로 작업을 수행하고 있는지 또는 로봇(100)의 작업 설정이 정상적으로 수행되었는지 등을 확인할 수 있다. 이러한 표시부(140)는 LCD, OLED 등의 평판 표시 소자로 구성될 수 있다. 그리고 상기 표시부(140) 상층에는 터치 패널이 배치될 수 있으며, 이 경우 상기 표시부(140)는 터치스크린 기능을 지원할 수 있다. 그러면 상기 제어부(160)는 상기 표시부(140)를 통하여 다양한 키맵이 출력되도록 제어하여 사용자가 표시부(140)에 출력된 키맵을 기반으로 특정 입력 신호를 생성할 수 있도록 지원할 수 있다.The display unit 140 displays various screens required for the driving process of the robot 100, for example, an initialization screen, a standby screen, a schedule setting screen, a work function screen that the robot 100 can perform, and a state of the robot 100. It is possible to provide a screen or the like showing specific information to be indicated. In particular, the display unit 140 may output a screen corresponding to the phase map 151 stored in the storage unit 150 and information obtained through magnetic position recognition on the phase map 151. In this case, the phase map 151 may correspond to a thumbnail of a work space to be performed by the robot 100. Therefore, the user is able to perform the normal operation of the robot 100 or the operation setting of the robot 100 through the phase map 151 and the magnetic position recognition information of the robot 100 output to the display unit 140. Can be checked. The display unit 140 may be configured as a flat panel display device such as an LCD and an OLED. In addition, a touch panel may be disposed above the display unit 140. In this case, the display unit 140 may support a touch screen function. Then, the controller 160 may control various keymaps to be output through the display unit 140 to support a user to generate a specific input signal based on the keymap output to the display unit 140.

추가로 상기 표시부(140)는 본 발명의 실시예에 따른 로봇(100)의 자기 위치 인식 과정에서 발생하는 화면들을 출력할 수 있다. 예를 들어 상기 표시부(140)는 제어부(160) 제어에 따라 카메라(130)가 수집한 천장 영상과 전방 영상을 출력할 수 있다. 또한 상기 표시부(140)는 수집된 천장 영상과 전방 영상을 영상 처리한 화면을 출력할 수 있으며, 영상 처리된 화면을 기반으로 인식된 자기 위치 정보를 출력할 수 있다. 그리고 상기 표시부(140)는 자기 위치 인식이 정상적으로 이루어졌을 경우, 그에 대응하는 정보를 출력할 수 있으며, 또한 자기 위치 인식이 정상적으로 이루어지지 않은 경우 에러 발생에 대응하는 메시지를 제어부(160) 제어에 따라 출력할 수 있다. 상술한 자기 위치 인식 과정에서 발생하는 화면들의 출력은 설계자의 의도나 로봇 판매 정책 등에 따라 테스트 과정에서만 출력되도록 제어되거나 사용자가 확인할 수 있도록 지원될 수 있다.In addition, the display unit 140 may output screens generated during the magnetic position recognition process of the robot 100 according to an exemplary embodiment of the present invention. For example, the display unit 140 may output the ceiling image and the front image collected by the camera 130 under the control of the controller 160. In addition, the display unit 140 may output a screen obtained by image-processing the collected ceiling image and the front image, and may output the recognized magnetic location information based on the image processed screen. The display unit 140 may output information corresponding to the case where the magnetic position recognition is normally performed, and under the control of the controller 160, a message corresponding to an error occurrence when the position recognition is not normally performed. You can print The output of the screens generated in the above-described magnetic position recognition process may be controlled to be output only during the test process according to the intention of the designer or the robot sales policy, or may be supported for the user to confirm.

상기 저장부(150)는 본 발명의 실시 예에 따른 로봇(100)의 자기 위치 인식 기능 지원을 위한 응용 프로그램을 비롯하여, 상기 로봇(100)이 지원하는 작업 기능 수행을 위한 다양한 응용 프로그램을 저장할 수 있다. 그리고 상기 저장부(150)는 상기 로봇(100) 구동에 필요한 응용 프로그램 예를 들면 운영체제, 상기 운영체제를 기반으로 로봇 구동부(120)의 구동을 제어하기 위한 코드들을 저장할 수 있다. 이러한 상기 저장부(150)는 크게 프로그램 영역과 데이터 영역을 포함할 수 있다.The storage unit 150 may store various application programs for performing a work function supported by the robot 100, including an application program for supporting a magnetic location recognition function of the robot 100 according to an embodiment of the present invention. have. The storage unit 150 may store application programs for driving the robot 100, for example, an operating system, and codes for controlling the driving of the robot driving unit 120 based on the operating system. The storage unit 150 may largely include a program area and a data area.

상기 프로그램 영역은 로봇(100)을 부팅시키는 운영체제(OS, Operating System), 로봇(100)의 작업 기능 지원을 위한 응용 프로그램 예를 들면 상기 로봇(100)에 기 저장된 특정 오디오 컨텐츠나 알람 메시지 등을 재생하기 위한 소리 재생 기능, 이미지 또는 동영상 재생 기능, 청소 기능, 학습 기능 등을 지원하기 위해 필요한 응용 프로그램 등을 저장한다. 특히 상기 프로그램 영역은 자기 위치 인식 응용 프로그램을 저장한다.The program area may include an operating system (OS) for booting the robot 100, an application program for supporting a work function of the robot 100, for example, specific audio content or alarm messages previously stored in the robot 100. Stores the applications needed to support sound playback, image or video playback, cleaning, and learning for playback. In particular, the program area stores a magnetic location aware application.

상기 자기 위치 인식 응용 프로그램은 자기 위치 인식이 필요한 시기를 검출하는 루틴, 자기 위치 인식에 대한 필요 이벤트가 발생하면 카메라(130)를 구동시하기 위한 카메라(130) 구동 응용 프로그램, 상기 카메라(130)를 이용하여 천장 영상을 수집하기 위한 루틴, 상기 카메라(130)를 이용하여 전방 영상을 수집하기 위한 루틴, 수집된 천장 영상과 전방 영상을 영상 처리하는 루틴, 영상 처리된 영상들과 데이터 영역에 저장된 기준 영상과 비교하는 루틴, 상기 비교 결과에 따라 상기 로봇(100)의 자기 위치에 대한 정보를 산출하는 루틴을 포함할 수 있다. 추가로 상기 자기 위치 인식 응용 프로그램은 상기 산출된 자기 위치 정보를 위상 지도(151) 상에 출력하도록 제어하는 루틴을 더 포함할 수 있다. 여기서 상기 자기 위치 인식 응용 프로그램은 처리 방식에 따라 영상 처리를 위한 루틴을 포함하지 않을 수 도 있다. 즉 수집된 천장 영상과 전방 영상을 기 저장된 천장 기준 영상들 및 전방 기준 영상들과 별도의 영상 처리 없이 직접적으로 비교하는 방식으로 운용되는 경우, 상기 자기 위치 인식 응용 프로그램은 상술한 영상 처리 루틴을 포함하지 않을 수 있다.The magnetic location recognition application is a routine for detecting when magnetic location recognition is required, a camera 130 driving application for driving the camera 130 when a necessary event for magnetic location recognition occurs, and the camera 130 A routine for collecting a ceiling image by using a signal, a routine for collecting a front image by using the camera 130, a routine for processing the collected ceiling image and a front image, and stored in the image-processed images and the data area. A routine for comparing with a reference image and a routine for calculating information about a magnetic position of the robot 100 according to the comparison result may be included. In addition, the magnetic location recognition application may further include a routine for controlling to output the calculated magnetic location information on the phase map 151. Here, the magnetic location recognition application program may not include a routine for image processing according to a processing method. That is, when the collected ceiling image and the front image are operated in a manner of directly comparing the previously stored ceiling reference images and the front reference images without additional image processing, the magnetic location recognition application program includes the image processing routine described above. You can't.

상기 데이터 영역은 상기 로봇(100) 구동에 필요한 다양한 데이터 및 로봇(100) 구동 과정에서 습득된 다양한 데이터가 저장되는 영역이다. 특히 상기 데이터 영역은 로봇(100)의 자기 위치 인식을 위한 다양한 데이터를 저장할 수 있다. 예를 들면 상기 데이터 영역은 카메라(130)가 수집한 천장 영상 및 전방 영상 등과 비교할 수 있는 기준 영상들을 저장할 수 있다. 여기서 상기 천장 영상 및 전방 영상이 비교를 위하여 영상 처리되는 경우, 이에 따라 상기 기준 영상들도 영상 처리된 상태일 수 있다. 즉 상기 천장 영상 및 전방 영상이 영상 처리 과정에서 필터링되어 일정한 경계선만을 지시하는 영상으로 치환되거나 일정한 특징점들이 추출된 형태의 영상으로 치환되는 방식이 적용되는 경우 상기 기준 영상들 또한 해당 방식에 대응하는 영상 처리가 적용된 영상이 될 수 있다. 여기서 상기 기준 영상들은 상술한 바와 같이 수집된 천장 영상과 전방 영상의 비교 기준이 되는 영상으로서, 최초 위상 지도(151)를 구성하는 과정에서 위상 지도(151)의 각 위치에 따른 천장 영상들 및 전방 영상들을 미리 촬영하여 천장 기준 영상들과 전방 기준 영상들로서 저장한 영상들이 될 수 있다. 이에 따라 로봇(100)은 특정 위치에 배치되는 경우 천장 영상을 촬영함과 아울러 해당 위치에서 전방 영상을 촬영하여 기 저장된 천장 기준 영상들 및 전방 기준 영상들과 비교하여 위상 지도(151) 상에 어디에 위치하는지를 확인할 수 있다. The data area is an area in which various data necessary for driving the robot 100 and various data acquired in the process of driving the robot 100 are stored. In particular, the data area may store various data for recognizing the magnetic position of the robot 100. For example, the data area may store reference images that can be compared with the ceiling image and the front image collected by the camera 130. In this case, when the ceiling image and the front image are image processed for comparison, the reference images may be image processed accordingly. That is, when the ceiling image and the front image are filtered in the image processing process and replaced with an image indicating only a predetermined boundary line or an image in which certain feature points are extracted, the reference images also correspond to the corresponding method. The image may be processed. Here, the reference images are images used as comparison criteria of the collected ceiling image and the front image as described above, and the ceiling images and the front of each of the phase maps 151 in the process of constructing the initial phase map 151. Images taken in advance may be images stored as ceiling reference images and front reference images. Accordingly, when the robot 100 is disposed at a specific location, the robot 100 photographs the ceiling image and also captures the front image at the corresponding position, where the robot 100 compares with the previously stored ceiling reference images and the front reference images. You can check if it is located.

상기 제어부(160)는 상기 로봇(100)의 구동에 필요한 전원 분배와 본 발명의 실시 예에 따른 자기 위치 인식 기능 및 자기 위치 인식을 기반으로 한 특정 작업 기능이 수행되도록 기 설정된 스케줄 정보에 따라 로봇(100)을 운용하는 구성이다. 이 과정에서 상기 제어부(160)는 위상 지도 작성 모드와 작업 기능 모드를 지원할 수 있다. 상기 위상 지도 작성 모드는 최초 사용자가 로봇(100)을 구매한 후 상기 로봇(100)을 특정 환경에 배치시킨 후, 환경에 대한 공간 인지를 로봇(100)에 인식시키기 위하여 위상 지도(151)를 작성하는 모드이다. 이 위상 지도 작성 모드가 설정되면 상기 제어부(160)는 360도 회전을 수행하면서 전방 영상들을 촬영하고, 촬영된 전방 영상들을 기반으로 위상 지도(151)를 작성할 수 있다. 또한 상기 제어부(160)는 상기 로봇 구동부(120)를 운용하여 로봇(100)을 구동시키면서 일정 위치에서의 천장 영상을 수집하도록 제어하고, 해당 천장 영상을 해당 위상 지도(151) 상에서의 천장 기준 영상으로 등록할 수 있다. 이러한 과정을 수행하면서 상기 제어부(160)는 일정 공간 전체에 대한 천장 기준 영상들과 전방 기준 영상들을 수집함과 아울러 해당 기준 영상들이 획득된 위치를 위상 지도(151)에 등록할 수 있다. 한편 상기 위상 지도(151)는 공간 인지에 대한 정보를 획득하기 위하여 상기 로봇(100)이 이동하는 거리에 대한 정보를 기반으로 획득될 수 있다. 예를 들어 상기 제어부(160)는 상기 로봇(100)이 일정 위치에서 일정 방향으로 일정 거리만큼 이동하는 경우 최초 자리한 위치를 기준으로 장애물을 만나기 이전까지 해당 방향과 거리 만큼에 대응하는 거리 정보를 획득할 수 있다. 그리고 상기 제어부(160)는 로봇(100)을 장애물과 연이어지는 일정 방향으로 이동시키면서 전체 공간의 외곽에 대한 정보를 획득할 수 있다. 또한 상기 제어부(160)는 전체 공간의 외곽 정보가 획득되면 해당 공간 내를 일정한 룰 또는 랜덤한 룰에 따라 로봇(100)을 이동시키면서 공간 내에 분포한 장애물에 대한 정보를 획득할 수 있다. 상기 제어부(160)는 상술한 정보 획득을 위한 과정을 일정 횟수만큼 반복한 후, 이를 기반으로 전체 공간에 대한 위상 지도(151)를 작성할 수 있다. 이 과정에서 상기 제어부(160)는 전술한 바와 같은 위상 지도(151)의 각 위치에서의 천장 영상과 전방 영상을 획득하고 이를 기준 영상들로 저장하도록 제어할 수 있다. 또는 사용자가 전체 공간에 대한 정보를 수동으로 입력할 수 있으며, 이 경우 상기 제어부(160)는 수동으로 입력된 전체 공간에 대한 정보를 기반으로 위상 지도(151)를 작성할 수 있다. The controller 160 is configured to perform the robot according to the power distribution required for driving the robot 100 and the predetermined schedule information to perform a specific position function based on the magnetic position recognition function and the magnetic position recognition according to an embodiment of the present invention. It is a configuration to operate (100). In this process, the controller 160 may support a phase mapping mode and a work function mode. In the phase mapping mode, after the first user purchases the robot 100, the robot 100 is placed in a specific environment, and then the phase map 151 is recognized in order to recognize the spatial recognition of the environment. Mode to create. When the phase mapping mode is set, the controller 160 may photograph the front images while performing a 360 degree rotation, and create the phase map 151 based on the captured front images. In addition, the control unit 160 controls the robot driving unit 120 to collect the ceiling image at a predetermined position while driving the robot 100, and the ceiling reference image on the phase map 151. You can register with During this process, the controller 160 may collect the ceiling reference images and the front reference images of the entire predetermined space and register the position where the corresponding reference images are obtained in the phase map 151. Meanwhile, the phase map 151 may be obtained based on information about the distance that the robot 100 moves in order to obtain information about spatial recognition. For example, when the robot 100 moves by a predetermined distance from a predetermined position in a predetermined direction, the controller 160 obtains distance information corresponding to the corresponding direction and distance before meeting the obstacle based on the first position. can do. In addition, the controller 160 may acquire information about the outer space of the entire space while moving the robot 100 in a predetermined direction connected to the obstacle. In addition, when the outer information of the entire space is obtained, the controller 160 may acquire information about obstacles distributed in the space while moving the robot 100 according to a predetermined rule or a random rule within the space. The controller 160 may repeat the above-described process for acquiring the information a predetermined number of times, and then create a phase map 151 for the entire space based on the same. In this process, the controller 160 may control to acquire the ceiling image and the front image at each position of the phase map 151 as described above and store them as reference images. Alternatively, the user may manually input information about the entire space, and in this case, the controller 160 may create the phase map 151 based on the manually input information about the entire space.

한편 상기 제어부(160)는 작업 기능 모드로 동작하는 경우에는 작성된 위상 지도(151)를 기반으로 일정한 작업 예를 들면 청소 등의 작업을 수행하도록 지원할 수 있다. 이 과정에서 상기 제어부(160)는 자기 위치 인식이 필요한 경우 천장 영상 수집, 전방 영상 수집, 기준 영상들과의 비교 및 이를 기반으로 하는 자기 위치 정보 산출을 수행하도록 제어할 수 있다. 이러한 제어부(160)의 세부 구성에 대하여 도 2를 참조하여 보다 상세히 설명하기로 한다.When the controller 160 operates in the work function mode, the controller 160 may support to perform a predetermined task, for example, a cleaning operation, based on the prepared phase map 151. In this process, the controller 160 may control to perform ceiling image collection, front image collection, comparison with reference images, and calculation of magnetic location information based on the same when magnetic location recognition is required. Detailed configuration of the control unit 160 will be described in detail with reference to FIG. 2.

한편 상기 로봇(100)은 상기 로봇(100) 구동에 필요한 외부 입력 신호 생성을 위하여 입력부를 더 마련할 수 있다. 상기 입력부는 숫자키, 문자키, 특수키, 전원 공급키 등을 포함할 수 있다. 여기서 상기 표시부(140)가 터치스크린으로 제공되는 경우 상기 입력부는 생략될 수 있을 것이다.The robot 100 may further include an input unit for generating an external input signal required for driving the robot 100. The input unit may include a numeric key, a character key, a special key, a power supply key, and the like. In this case, when the display unit 140 is provided as a touch screen, the input unit may be omitted.

도 2는 본 발명의 실시 예에 따른 제어부(160)의 구성을 보다 상세히 나타낸 블록도이다.2 is a block diagram illustrating in detail the configuration of the controller 160 according to an exemplary embodiment of the present invention.

상기 도 2를 참조하면, 본 발명의 제어부(160)는 전방 영상 수집/비교부(161), 천장 영상 수집/비교부(163), 자기 위치 인식부(165) 및 기능 수행부(167)의 구성을 포함할 수 있다.Referring to FIG. 2, the controller 160 of the present invention collects and compares the front image collecting / comparing unit 161, the ceiling image collecting / comparing unit 163, the magnetic location recognition unit 165, and the function performing unit 167. It can include a configuration.

상기 전방 영상 수집/비교부(161)는 상기 로봇(100)의 자기 위치 인식이 필요한 이벤트가 발생할 경우, 상기 카메라(130)를 제어하여 전방 영상을 수집하도록 제어한다. 그리고 상기 전방 영상 수집/비교부(161)는 수집된 전방 영상에 대한 영상 처리를 수행하고, 저장부(150)에 저장된 전방 기준 영상을 읽어올 수 있다. 그리고 상기 전방 영상 수집/비교부(161)는 영상 처리된 전방 영상과 가장 유사한 전방 기준 영상을 검출할 수 있다. 이를 위하여 상기 전방 영상 수집/비교부(161)는 상기 카메라(130)의 각도를 수평각도로 배치되도록 제어할 수 있으며, 복수개의 카메라가 마련된 경우 전방 영상 수집 전용 카메라를 운용하여 전방 영상을 수집하도록 제어할 수 있다. 한편 상기 전방 영상 수집/비교부(161)는 전방 기준 영상과의 비교 과정에서 연산량을 줄이기 위하여 수집된 전방 영상에 대한 필터링을 수행하는 영상 처리를 수행하도록 제어할 수 있다. 그리고 상기 전방 영상 수집/비교부(161)는 비교 과정에서 검출된 전방 기준 영상의 유사도가 기 설정된 값 이하인 경우 에러 메시지를 상기 표시부(140)에 출력하도록 제어할 수 도 있다. 상기 영상 처리된 전방 영상과 가장 유사한 전방 기준 영상을 검출하면, 상기 전방 영상 수집/비교부(161)는 검출된 전방 기준 영상을 자기 위치 인식부(165)에 전달할 수 있다. 한편 상기 전방 영상 수집/비교부(161)가 수집한 전방 영상은 피사체와의 거리에 따라 화각이 달라지기 때문에 실질적으로 촬영되는 영상은 해당 피사체와 로봇(100)과의 거리에 따라 달라질 수 있다. 이에 따라 전방 영상이 촬영되면, 촬영된 전방 영상에 대한 특징점을 추출하는 한편, 스케일은 다르더라도 추출된 특징점과 유사한 특징점을 가지는 전방 기준 영상을 검출하도록 지원할 수 도 있다.The front image collection / comparison unit 161 controls to collect the front image by controlling the camera 130 when an event requiring recognition of the magnetic position of the robot 100 occurs. The front image collection / comparison unit 161 may perform image processing on the collected front image, and read the front reference image stored in the storage unit 150. The front image collection / comparison unit 161 may detect a front reference image that is most similar to the image processed front image. To this end, the front image collection / comparison unit 161 may control the angle of the camera 130 to be arranged at a horizontal angle. When a plurality of cameras is provided, the front image collection / comparison unit 161 controls to collect front images by operating a front image collection dedicated camera. can do. Meanwhile, the front image collection / comparison unit 161 may control to perform image processing to perform filtering on the collected front image in order to reduce the amount of computation during the comparison with the front reference image. The front image collection / comparison unit 161 may control to output an error message to the display unit 140 when the similarity of the front reference image detected in the comparison process is equal to or less than a preset value. When the front reference image most similar to the image processed front image is detected, the front image collection / comparison unit 161 may transfer the detected front reference image to the magnetic position recognition unit 165. Meanwhile, since the angle of view of the front image collected by the front image collection / comparing unit 161 varies according to the distance to the subject, the image actually captured may vary according to the distance between the subject and the robot 100. Accordingly, when the front image is captured, the feature point of the captured front image can be extracted, and the scale can be supported to detect the front reference image having similar feature points as the extracted feature point.

상기 천장 영상 수집/비교부(163)는 상기 전방 영상 수집/비교부(161)와 유사하게 자기 위치 인식 이벤트가 발생하면 카메라(130)를 제어하여 현재 위치에서의 천장 영상을 수집하도록 제어한다. 그리고 상기 천장 영상 수집/비교부(163)는 수집된 천장 영상을 저장부(150)에 저장된 천장 기준 영상들과 비교하여 가장 유사도가 높은 천장 기준 영상들을 검출하도록 제어할 수 있다. 이때 상기 천장 영상 수집/비교부(163)는 천장 영상과 천장 기준 영상들과의 비교 과정에서의 연산량을 줄이기 위하여 전술한 바와 같이 데이터 값을 감소시키는 이미지 필터링을 수행하도록 지원할 수 있다. 상기 천장 영상 수집/비교부(163)는 유사도가 가장 높은 천장 기준 영상이 검출되면, 해당 천장 기준 영상에 대한 정보를 자기 위치 인식부(165)에 전달하도록 제어할 수 있다. 여기서 카메라(130)가 단수개인 경우 상기 천장 영상 수집/비교부(163)는 설계자의 의도 등에 의하여 상기 전방 영상 수집/비교부(161)와의 협의에 따라 카메라(130)에 대한 운용권한을 가지게 된다. 즉 상기 천장 영상 수집/비교부(163)는 사전 설정에 따라 상기 전방 영상 수집/비교부(161)보다 먼저 천장 영상을 촬영하거나, 상기 전방 영상 수집/비교부(161)보다 나중에 천장 영상을 촬영하도록 제어할 수 있다. 카메라(130)가 복수개이며 천장 전용 카메라가 배치된 경우 상기 천장 영상 수집/비교부(163)는 상기 전방 영상 수집/비교부(161)와 관계없이 독립적으로 천장 기준 영상 검출 과정을 수행하도록 제어할 수 있다. The ceiling image collection / comparison unit 163 controls the camera 130 to collect the ceiling image at the current location when a magnetic location recognition event occurs, similar to the front image collection / comparison unit 161. The ceiling image collection / comparison unit 163 may control to detect the ceiling reference images having the highest similarity by comparing the collected ceiling images with the ceiling reference images stored in the storage unit 150. In this case, the ceiling image collection / comparison unit 163 may support to perform image filtering to reduce data values as described above in order to reduce the amount of computation in the comparison process between the ceiling image and the ceiling reference images. When the ceiling reference image having the highest similarity is detected, the ceiling image collection / comparison unit 163 may control to transmit information about the ceiling reference image to the magnetic location recognition unit 165. In this case, when the camera 130 is singular, the ceiling image collection / comparison unit 163 has an operation right with respect to the camera 130 according to an agreement with the front image collection / comparison unit 161 according to a designer's intention. . That is, the ceiling image collection / comparison unit 163 captures a ceiling image before the front image collection / comparison unit 161 or a ceiling image later than the front image collection / comparison unit 161 according to a preset. Can be controlled. When there are a plurality of cameras 130 and a ceiling-only camera is disposed, the ceiling image collection / comparison unit 163 may control to perform the ceiling reference image detection process independently of the front image collection / comparator 161. Can be.

상기 자기 위치 인식부(165)는 상기 전방 영상 수집/비교부(161) 및 천장 영상 수집/비교부(163)로부터 전달된 전방 기준 영상 및 천장 기준 영상을 참조하여 현재의 위치를 확인한다. 이를 위하여 상기 자기 위치 인식부(165)는 저장부(150)에 저장된 위상 지도(151)를 로드하고, 해당 위상 지도(151)를 참조하여 전달된 전방 기준 영상 및 천장 기준 영상에 매칭되는 지점에 대한 정보를 산출할 수 있다. 상기 자기 위치 인식부(165)는 현재 로봇(100)이 위치한 지점에 대한 정보가 산출되면, 해당 산출 정보를 기능 수행부(167)에 전달할 수 있다. 여기서 상기 자기 위치 인식부(165)는 천장 영상 수집/비교부(163) 및 전방 영상 수집/비교부(161)로부터 각각 복수개의 전방 기준 영상 및 천장 기준 영상이 전달되면, 두 기준 영상들의 유사도 합이 가장 높은 영상들을 검출하고, 그에 대응하는 위상 지도(151) 상의 지점을 현재 자기 위치로 산출할 수 있을 것이다. 예를 들면, 위상 지도(151)의 특정 "A"지점에서 촬영된 전방 영상이 두개의 전방 기준 영상과 유사도가 비슷한 경우, 상기 자기 위치 인식부(165)는 전달된 전방 영상과 유사도가 높은 전방 기준 영상이 등록된 지점을 참조하여 상기 "A" 지점에 대하여 올바르게 인식할 수 있다. 반대의 경우 상기 자기 위치 인식부(165)는 유사한 전방 기준 영상들이 복수개가 검출된 경우, 해당 지점의 천장 영상과 유사도가 높은 천장 기준 영상이 등록된 지점을 참조하여 현재 로봇(100)의 자기 위치를 인식하도록 지원할 수 있을 것이다.The magnetic position recognition unit 165 checks the current position by referring to the front reference image and the ceiling reference image transmitted from the front image collection / comparing unit 161 and the ceiling image collection / comparing unit 163. To this end, the magnetic location recognition unit 165 loads the phase map 151 stored in the storage unit 150, and stores the phase map 151 at a point matching the forward reference image and the ceiling reference image transmitted with reference to the phase map 151. Information can be calculated. When the information on the current location of the robot 100 is calculated, the magnetic position recognition unit 165 may transfer the calculated information to the function performing unit 167. Here, when the plurality of forward reference images and the ceiling reference images are respectively transmitted from the ceiling image collection / comparison unit 163 and the front image collection / comparison unit 161, the magnetic position recognition unit 165 sums the similarities of the two reference images. The highest images may be detected and the point on the phase map 151 corresponding thereto may be calculated as the current magnetic position. For example, when the front image photographed at a specific "A" point of the phase map 151 has a similarity with the two front reference images, the magnetic position recognition unit 165 may have a high similarity with the forward image. The point “A” may be correctly recognized with reference to the point where the reference image is registered. On the contrary, if a plurality of similar front reference images are detected, the magnetic position recognition unit 165 refers to the current position of the robot 100 by referring to the point where the ceiling reference image having a high similarity with the ceiling image of the corresponding point is registered. May be able to support this.

상기 기능 수행부(167)는 상기 자기 위치 인식부(165)로부터 로봇(100)의 현재 위치에 대한 정보가 전달되면, 해당 위치 정보를 기준으로 로봇(100)의 위치에 대한 초기화 작업을 수행할 수 있다. 즉 상기 기능 수행부(167)는 상기 로봇(100)의 현재 위치를 위상 지도(151)에 등록하고, 기 설정된 스케줄 정보에 따라 특정 작업을 수행할 수 있도록 위치 이동 등에 대한 설정을 수립할 수 있다. 그리고 상기 기능 수행부(167)는 수립된 설정에 따라 로봇(100)을 이동시키면서 설정된 작업을 수행할 수 있다. 예를 들면 상기 기능 수행부(167)는 현재 로봇(100)이 위치한 지점부터 일정 방향으로 로봇(100)이 이동할 수 있도록 로봇 구동부(120)를 구동함과 아울러 청소 모듈을 운용하여 일정 영역의 청소를 수행하도록 지원할 수 있다. 즉 상기 기능 수행부(167)는 상기 로봇(100)의 생산 목적에 따라 배치된 작업 모듈을 운용하여 설정된 기능을 수행하도록 지원한다.When the information on the current position of the robot 100 is transmitted from the magnetic position recognition unit 165, the function performing unit 167 may perform an initialization operation on the position of the robot 100 based on the corresponding position information. Can be. That is, the function performing unit 167 may register the current position of the robot 100 in the phase map 151 and establish a setting for position movement and the like so as to perform a specific task according to preset schedule information. . The function performing unit 167 may perform a set operation while moving the robot 100 according to the established setting. For example, the function performing unit 167 drives the robot driving unit 120 to move the robot 100 in a predetermined direction from the point where the robot 100 is currently located, and operates a cleaning module to clean a certain area. It can support to perform. That is, the function performing unit 167 supports to perform a set function by operating a work module arranged according to the production purpose of the robot 100.

상술한 바와 같이 본 발명의 실시 예에 따른 자기 위치 인식을 수행하는 로봇(100)은 천장 영상과 전방 영상, 위상 지도(151)와 기준 영상들을 기반으로 로봇(100)의 자기 위치를 산출함으로써 보다 확실한 로봇(100)의 자기 위치 산출을 지원할 수 있다. As described above, the robot 100 performing magnetic position recognition according to an embodiment of the present invention calculates the magnetic position of the robot 100 based on the ceiling image, the front image, the phase map 151, and the reference images. It is possible to support the calculation of the magnetic position of the reliable robot 100.

도 3은 본 발명의 실시 예에 따른 로봇(100)의 자기 위치 인식을 위하여 카메라(130)가 수집한 영상에 대한 처리를 설명하기 위한 도면이다. 3 is a view for explaining the processing of the image collected by the camera 130 to recognize the magnetic position of the robot 100 according to an embodiment of the present invention.

상기 도 3을 참조하면, 로봇(100)은 일정한 위치 예를 들면 방의 일정 모서리 영역에 위치한 후, 자기 위치 인식을 위한 이벤트를 발생시킬 수 있다. 상기 자기 위치 인식을 위한 이벤트 발생은 기 설정된 스케줄에 따라 주기적으로 수행할 수 도 있으며, 로봇(100)이 이동 중에 장애물 등에 접촉되는 경우 또는 데드 락에 걸린 경우 등 다양한 상황에서 자기 위치 인식을 위한 이벤트가 발생할 수 있다. 한편 상술한 바와 같은 자기 위치 인식을 위한 이벤트가 발생하면 로봇(100)은 제어부(160) 제어에 따라 카메라(130)를 운용하여 천장 영상과 전방 영상을 촬영할 수 있다. 도시된 도면을 참조하면 로봇(100)은 천장의 모서리 영역을 촬영한 천장 영상을 수집한다. 상기 로봇(100)은 촬영된 천장 영상을 제어부(160)에 전달할 수 있다.Referring to FIG. 3, the robot 100 may be located at a predetermined location, for example, at a corner of a room, and then generate an event for recognizing a magnetic location. The occurrence of the event for recognizing the magnetic position may be periodically performed according to a preset schedule, and the event for recognizing the magnetic position in various situations, such as when the robot 100 is in contact with an obstacle or the like during deadlock or when a deadlock is caught. May occur. On the other hand, when the above-described event for magnetic position recognition occurs, the robot 100 may capture the ceiling image and the front image by operating the camera 130 under the control of the controller 160. Referring to the figure shown, the robot 100 collects the ceiling image photographing the corner region of the ceiling. The robot 100 may transmit the captured ceiling image to the controller 160.

상기 로봇(100)의 제어부(160)는 카메라(130)가 천장 영상을 촬영하여 전달하면, 전달된 천장 영상을 도시된 바와 같이 영상 처리하도록 제어할 수 있다. 즉 상기 제어부(160)는 촬영된 천장 영상을 필터링하여 보다 단순한 영상으로 변환할 수 있다. 이때 도시된 도면에서는 천장 모서리 영역에 배치된 원형 구조물을 제거한 영상으로 설명하지만 본 발명이 이에 한정되는 것은 아니다. 즉 상기 제어부(160)는 보다 빠르고 간단한 연산을 위하여 상기 원형 구조물에 대한 영상을 전체 영상에서 제거하고 천장과 벽이 이어지는 모서리 영역에 대한 영상만을 잔류시킬 수 있다. 허나 이러한 처리는 영상 처리 알고리즘의 설정 조건에 따라 달라지는 것으로, 상기 제어부(160) 제어에 따라 영상 처리 과정에서 상기 원형 구조물에 대한 경계선 검출이 수행될 수 도 있을 것이다. 그리고 상기 "L"자 형태의 천장 모서리 영상에 대한 경계선 영상 처리가 완료되면 저장부(150)에 기 저장된 천장 기준 영상들을 검사하여 상기 영상 처리된 천장 영상과 가장 유사한 천장 기준 영상 또는 일정 유사도를 가지는 천장 기준 영상들을 검출하도록 제어할 수 있다. When the camera 130 photographs and transmits the ceiling image, the controller 160 of the robot 100 may control to process the transferred ceiling image as illustrated. That is, the controller 160 may filter the captured ceiling image and convert the captured ceiling image into a simpler image. In this case, the drawing is described as an image in which the circular structure disposed in the ceiling corner region is removed, but the present invention is not limited thereto. That is, the controller 160 may remove the image of the circular structure from the entire image and leave only the image of the corner region where the ceiling and the wall are connected for faster and simpler operation. However, the processing depends on the setting conditions of the image processing algorithm, and the boundary line detection of the circular structure may be performed in the image processing process under the control of the controller 160. When the boundary image processing for the L-shaped ceiling edge image is completed, the ceiling reference images pre-stored in the storage unit 150 are examined to have a ceiling reference image or a predetermined similarity most similar to the image processed ceiling image. Control to detect ceiling reference images.

한편 상기 로봇(100)의 제어부(160)는 카메라(130)를 제어하여 도시된 도면에서 가장 우측에 배치된 화면에서와 같이 전방 영상을 수집할 수 있다. 이후 상기 제어부(160)는 상기 전방 영상의 좌측에 배치된 화면에서와 같이 촬영된 전방 영상에서 특징점을 추출하도록 제어할 수 있다. 이때 상기 제어부(160)는 해당 영상에서 경계선과 경계선이 만나는 지점들 및 해당 지점들을 잇는 경계선들을 기반으로 하는 특징점 추출을 수행할 수 있다. 특징점 추출이 완료되면 상기 제어부(160)는 저장부(150)에 기 저장된 전방 기준 영상들의 특징점들과 현재 추출된 특징점들과 비교하여 가장 유사한 특징점을 가지는 전방 기준 영상 또는 일정 유사도 이상을 가지는 전방 기준 영상들을 추출하도록 제어할 수 있다. 천장 기준 영상과 전방 기준 영상이 추출되면 전술한 바와 같이 해당 기준 영상들이 등록된 위상 지도(151)를 기반으로 로봇(100)의 현재 위치에 대한 정보를 추출할 수 있다. 그리고 복수개의 기준 영상들이 검출된 경우, 상기 제어부(160)는 해당 영상들의 조합 중 위상 지도(151)에 등록된 현재 자기 위치에 가장 부합하는 천장 기준 영상과 전방 기준 영상을 검출하고, 이를 기반으로 현재 자기 위치를 결정하도록 지원할 수 있다.Meanwhile, the controller 160 of the robot 100 may control the camera 130 to collect the front image as shown in the screen disposed at the rightmost side in the drawing. Thereafter, the controller 160 may control to extract a feature point from the captured front image as in the screen disposed on the left side of the front image. In this case, the controller 160 may perform feature point extraction based on points where the boundary line meets the boundary line in the image and boundary lines connecting the points. When the feature point extraction is completed, the controller 160 compares the feature points of the forward reference images previously stored in the storage 150 with the feature points currently extracted, or the forward reference image having the most similar feature point or more than a predetermined similarity. Control to extract images. When the ceiling reference image and the front reference image are extracted, as described above, information on the current position of the robot 100 may be extracted based on the phase map 151 in which the corresponding reference images are registered. When a plurality of reference images are detected, the controller 160 detects the ceiling reference image and the front reference image that most match the current magnetic position registered in the phase map 151 among the combinations of the corresponding images, and based on this, You can help determine your current location.

도 4는 본 발명의 다른 실시 예에 따른 로봇(100)의 자기 위치 인식을 위해 촬영된 영상 및 영상 처리를 설명하기 위한 도면이다.4 is a diagram illustrating an image captured and image processing for recognizing a magnetic position of the robot 100 according to another exemplary embodiment.

상기 도 4를 참조하면, 로봇(100)은 도 3에서와는 다르게 단차가 이중으로 진 모서리 형태를 가지는 천장 영상을 획득할 수 있다. 이러한 천장 영상은 실제 로봇(100)이 자기 위치 인식이 필요한 시점에서의 위치에 따라 달라지는 것이다. 따라서 상기 로봇(100)이 방의 가장자리 중간 지점 등에서 천장을 촬영하게 될 경우 상기 로봇(100)은 "l"자 형태의 모서리를 가지는 천장 영상을 얻게 될 것이다. 한편 상기 로봇(100)의 제어부(160)는 천장 영상이 획득되면 도시된 바와 같이 영상을 단순화하는 필터링 등의 과정을 수행하고, 해당 영상 처리된 영상과 가장 유사한 천장 기준 영상을 검출하도록 제어할 수 있다.Referring to FIG. 4, the robot 100 may acquire a ceiling image having a corner shape having a double step, unlike in FIG. 3. The ceiling image varies depending on the position at which the actual robot 100 needs to recognize the magnetic position. Therefore, when the robot 100 photographs the ceiling at the middle point of the edge of the room, the robot 100 will obtain a ceiling image having an “l” shaped corner. Meanwhile, when the ceiling image is acquired, the controller 160 of the robot 100 may perform a process such as filtering to simplify the image as shown and detect the ceiling reference image most similar to the image processed image. have.

한편 상기 로봇(100)은 카메라(130)를 이용하여 천장 영상을 획득하는 동안 또는 천장 영상을 획득한 이후 전방 영상을 획득하기 위해 카메라(130)를 제어할 수 있다. 상기 로봇(100)이 상기 이중으로 단차진 모서리 형태의 천장 영상을 획득한 위치에서 촬영한 전방 영상은 도시된 도면에서 가장 우측에 나타낸 바와 같은 전방 영상이 될 수 있다. 전방 영상이 획득되면 상기 로봇(100)의 제어부(160)는 도 3에서도 설명한 바와 같이 전방 영상에 대한 특징점 추출을 수행하도록 제어할 수 있다. 특징점 추출이 완료되면 상기 로봇(100)의 제어부(160)는 저장부(150)에 기 저장된 전방 기준 영상들의 특징점과 가장 유사한 특징점들을 가지는 전방 기준 영상을 검출하고, 앞서 검출된 천장 기준 영상과 함께 위상 지도(151)를 참조하여 현재 자기 위치를 인식하도록 제어할 수 있다.Meanwhile, the robot 100 may control the camera 130 to acquire the front image while acquiring the ceiling image using the camera 130 or after acquiring the ceiling image. The front image photographed at the position where the robot 100 acquires the double stepped edge-shaped ceiling image may be the front image as shown on the right side in the drawing. When the front image is obtained, the controller 160 of the robot 100 may control to perform feature point extraction on the front image as described with reference to FIG. 3. When the feature point extraction is completed, the controller 160 of the robot 100 detects the front reference image having the feature points most similar to those of the front reference images previously stored in the storage 150, and together with the previously detected ceiling reference image. The phase map 151 may be controlled to recognize the current magnetic position.

이상에서 설명한 바와 같이 본 발명의 실시 예에 따른 자기 위치 인식을 수행하는 로봇은 전방 영상뿐만 아니라 전방 영상을 촬영하는 지점에서의 천장 영상까지 함께 참조하여 상기 로봇(100)의 현재 자기 위치를 인식하도록 지원함으로써, 전방 영상이 다소 유사한 특징점들을 가지는 상황이거나 천장 영상이 다소 유사한 경계선 영역들을 가지는 상황이라 하더라도 보다 정확한 자기 위치 인식을 수행할 수 있다.As described above, the robot performing magnetic position recognition according to an embodiment of the present invention refers to not only the front image but also the ceiling image at the point where the front image is taken to recognize the current magnetic position of the robot 100. By supporting the above, even if the front image has somewhat similar feature points or the ceiling image has somewhat similar boundary areas, more accurate magnetic position recognition can be performed.

도 5는 본 발명의 실시 예에 따른 로봇(100)의 자기 위치 인식을 위한 구동 방법을 설명하기 위한 순서도이다. 설명에 앞서, 이하 설명에서 상기 로봇(100)은 자기 위치 인식을 수행하기 위한 사전 작업으로서 특정 공간에 대한 기준 영상들에 대한 수집이 선행되는 것으로 가정하여 설명하기로 한다. 즉 상기 로봇(100)은 일정 공간에 대한 위상 지도(151)를 가지고 있으며, 각 위상 지도(151)의 특정 위치상에서 전방 기준 영상과 천장 기준 영상들을 수집하여 등록한 데이터베이스를 저장부(150)에 저장할 수 있다. 이때 상기 위상 지도(151)에 등록되는 전방 기준 영상과 천장 기준 영상들은 사전 영상 처리된 것일 수 있다. 예를 들면 상기 전방 기준 영상 및 천장 기준 영상들 중 적어도 하나는 특정 영상에서 특징점들만 추출된 데이터이거나, 경계선 추출 처리된 영상 데이터 등이 될 수 있다. 이러한 영상 처리는 이후 자기 위치 인식을 위해 촬영하는 전방 영상과 천장 영상들과 기준 영상들과의 비교 연산량을 줄이기 위한 것이다. 따라서 전방 기준 영상 및 천장 기준 영상들에 대한 영상 처리가 수행되지 않는 상태로 위상 지도(151)에 등록된 경우 상기 전방 영상과 천장 영상에 대한 영상 처리도 수행되지 않을 수 있다. 반대로 상기 전방 영상 및 천장 영상들에 대한 영상 처리가 수행되는 경우 위상 지도(151) 등록 시점에 상기 전방 기준 영상과 천장 기준 영상들에 대한 사전 영상 처리는 선행되어져야 할 것이다. 5 is a flowchart illustrating a driving method for magnetic position recognition of the robot 100 according to an embodiment of the present invention. In the following description, the robot 100 will be described in the following description on the assumption that collection of reference images for a specific space is performed as a preliminary operation for performing magnetic position recognition. That is, the robot 100 has a phase map 151 for a predetermined space, and stores a database in which the front reference image and the ceiling reference image are collected and registered on a specific position of each phase map 151 in the storage 150. Can be. In this case, the front reference image and the ceiling reference image registered in the phase map 151 may be pre-image processed. For example, at least one of the front reference image and the ceiling reference image may be data extracted only feature points from a specific image or image data processed by boundary extraction. The image processing is intended to reduce the amount of computation between the front image, the ceiling image, and the reference images photographed for magnetic position recognition. Therefore, when the image processing is not performed on the front reference image and the ceiling reference image, the image processing on the front image and the ceiling image may not be performed. On the contrary, when image processing is performed on the front image and the ceiling images, pre-image processing on the front reference image and the ceiling reference images should be preceded at the time of registering the phase map 151.

이하 본 발명의 로봇 운용 방법 설명을 위하여 상기 도 5를 참조하면, 본 발명의 로봇(100) 운용 방법은 먼저 로봇(100)의 제어부(160)가 501 단계에서 로봇 구동 여부에 대한 확인을 수행한다. 다시 말하여, 상기 로봇(100)의 제어부(160)는 501 단계에서 로봇 구동을 위한 입력 신호 또는 전원 공급 신호 발생이 있는지 여부에 따라 공급된 전원을 기반으로 로봇(100)의 각 구성들을 초기화하도록 제어할 수 있다. 상기 로봇 운용 방법은 별도의 로봇 구동을 위한 입력 신호 발생이 없는 경우 513 단계 이전으로 분기하여 이하 과정을 수행한다. 한편 501 단계에서 로봇 구동을 위한 신호 또는 이벤트가 발생하면 상기 제어부(160)는 해당 신호에 따라 저장부(150)에 저장된 운영체제를 로드하여 로봇 구동을 위한 프로그램 초기화 과정을 수행하고, 해당 프로그램과 연관된 로봇(100)의 각 구성들의 초기화 과정을 수행하도록 제어할 수 있다.Hereinafter, referring to FIG. 5 to describe the robot operating method of the present invention, in the method of operating the robot 100 of the present invention, the controller 160 of the robot 100 first checks whether the robot is driven in step 501. . In other words, the controller 160 of the robot 100 initializes the components of the robot 100 based on the supplied power according to whether there is an input signal or a power supply signal for driving the robot in step 501. Can be controlled. If there is no input signal for driving the robot, the robot operation method branches to step 513 and performs the following process. Meanwhile, when a signal or event for driving the robot occurs in step 501, the controller 160 loads an operating system stored in the storage 150 according to the corresponding signal to perform a program initialization process for driving the robot, and is associated with the corresponding program. The robot 100 may be controlled to perform an initialization process of each component of the robot 100.

이후 상기 제어부(160)는 503 단계로 분기하여 자기 위치 인식이 필요한지 여부를 확인할 수 있다. 여기서 상기 로봇 운용 방법을 로봇 구동 이후 자기 위치 인식이 필요한지 여부를 확인하는 과정으로 설명하지만 로봇이 구동되고 있더라도 설정된 스케줄 정보나 특정 상황 발생 등에 따라 상기 503 단계가 수행될 수 있음을 이해하여야 할 것이다. 한편 상기 503 단계에서 별도의 자기 위치 인식이 필요하지 않은 경우 상기 제어부(160)는 505 단계로 분기하여 사전 설정된 작업을 수행하도록 제어할 수 있다. 즉 상기 제어부(160)는 상기 로봇(100)이 생산된 목적에 따라 사전 설정 작업을 수행하기 위한 신호 제어, 명령어 생성 및 명령어 전달, 전달된 명령어에 따른 동작 수행 등을 제어할 수 있다.Thereafter, the controller 160 branches to step 503 to check whether magnetic location recognition is necessary. Here, the robot operation method will be described as a process of checking whether the position recognition is necessary after the robot is driven. However, it will be understood that step 503 may be performed even if the robot is being driven according to the set schedule information or a specific situation. In the case where the separate magnetic position recognition is not necessary in step 503, the controller 160 branches to step 505 to control to perform a preset task. That is, the controller 160 may control signal control, command generation and command transmission, and operation execution according to the transmitted command for performing the preset operation according to the purpose for which the robot 100 is produced.

한편 상기 503 단계에서 로봇(100)의 자기 위치 인식이 필요한 경우 즉 자기 위치 인식을 위한 이벤트가 발생한 경우 상기 로봇(100)의 제어부(160)는 507 단계로 분기하여 천장 영상 수집 및 분석을 수행함과 아울러 전방 영상 수집 및 분석을 수행하도록 제어할 수 있다. 여기서 상기 천장 영상 수집 및 분석 과정과 상기 전방 영상 수집 및 분석 과정은 카메라(130)의 개수 및 제어부(160)의 역량 등에 따라 동시에 수행되거나 일정 순서에 따라 순차적으로 수행될 수 있다. 즉 복수개의 카메라(130)가 마련된 천장 영상 및 전방 영상을 상기 제어부(160)가 각각 독립적으로 분석할 수 있는 경우, 상기 로봇(100)은 상기 제어부(160) 제어에 따라 상기 과정을 동시 수행할 수 있다. 그러나 카메라(130)가 단수개이거나 제어부(160)의 역량이 동시 처리를 지원하지 못하는 경우 상기 천장 영상 처리 과정과 전방 영상 처리 과정은 제어부(160)의 제어에 따라 특정 과정이 먼저 처리된 후 다른 과정이 나중에 처리될 수 있다. 한편 상기 천장 영상 수집 및 분석 과정은 천장의 경계선 즉 벽과 모서리가 만나는 경계선들의 검출을 위한 과정이 될 수 있다. 일반적으로 천장의 전반적인 무늬가 동일하여 상호 구분이 갈 수 있는 영역이 천장과 벽이 만나는 가장자리나 모서리 영역에 해당하기 때문에 경계선 검출을 위주로 위치 인식을 수행하는 것이 보다 효율적일 수 있다. 그러나 본 발명이 이에 한정되는 것은 아니며, 본 발명의 천장 영상 수집 및 분석 과정은 천장의 무늬나 기타 구조물 배치 등에 따라 다양한 특징점 추출 및 경계선 검출 등을 적용할 수 도 있다. 그리고 상기 전방 영상 수집 및 분석 과정에서의 영상 처리는 영상에서 사물의 외곽선들과 외곽선들의 교차점 또는 굴곡점 등의 특징점 추출이 될 수 있다. 상술한 영상 처리 과정을 거친 천정 영상 또는 전방 영상을 기 저장된 천장 기준 영상들 또는 전방 기준 영상들과 비교되어 가장 유사한 천장 기준 영상 및 전방 기준 영상 또는 일정 유사도 이상을 가지는 천장 기준 영상들 및 전방 기준 영상들이 검출될 수 있다.On the other hand, if it is necessary to recognize the magnetic position of the robot 100 in step 503, that is, when an event for magnetic position recognition occurs, the controller 160 of the robot 100 branches to step 507 to perform the ceiling image collection and analysis. In addition, it can be controlled to perform forward image collection and analysis. Here, the ceiling image collection and analysis process and the front image collection and analysis process may be performed simultaneously or sequentially according to a predetermined order according to the number of cameras 130 and the capability of the controller 160. That is, when the controller 160 can independently analyze the ceiling image and the front image in which the plurality of cameras 130 are provided, the robot 100 may simultaneously perform the process under the control of the controller 160. Can be. However, when the camera 130 has a single number or the capacity of the controller 160 does not support simultaneous processing, the ceiling image processing and the front image processing may be performed after a specific process is first processed under the control of the controller 160. The process can be processed later. On the other hand, the ceiling image collection and analysis process may be a process for detecting the boundary line of the ceiling, that is, the boundary line where the wall and the corner meet. In general, since the overall pattern of the ceiling is the same, the areas that can be distinguished from each other correspond to edges or corners where the ceiling and the wall meet, and thus, it may be more efficient to perform location recognition mainly on the boundary detection. However, the present invention is not limited thereto, and the ceiling image collection and analysis process of the present invention may apply various feature point extraction and boundary detection according to the ceiling pattern or other structure arrangement. Image processing in the front image collection and analysis process may be the extraction of feature points such as intersections or bend points between the outlines of the objects and the outlines in the image. The ceiling image or the front image, which has undergone the above-described image processing, is compared with the ceiling reference images or the front reference images that are previously stored, and the ceiling reference image and the front reference image having the most similar ceiling reference image or a predetermined similarity or more. Can be detected.

영상 처리 과정 결과에 따라 적어도 하나의 천장 기준 영상 및 전방 기준 영상이 검출되면, 상기 로봇(100)의 제어부(160)는 509 단계로 분기하여 검출된 천장 기준 영상과 전방 기준 영상을 이용하여 위상 지도(151) 상에서의 로봇(100)의 위치를 산출할 수 있다. 이를 위하여 상기 위상 지도(151)는 상기 천장 기준 영상들과 전방 기준 영상들이 각 위치에 따라 등록된 형태로 구성될 수 있을 것이다. 여기서 검출된 기준 영상들이 복수개인 경우 즉 복수개의 천장 기준 영상들 및 복수개의 전방 기준 영상들이 검출된 경우 상기 로봇(100)의 위치 산출 과정은 앞서 설명한 바와 같이 상호 조합된 영상들 중에 위상 지도(151) 상에 등록된 천장 기준 영상 및 전방 기준 영상에 가장 부합되는 지점을 산출하여 로봇(100)의 현재 자기 위치로 결정하도록 운용될 수 있다.When at least one ceiling reference image and the front reference image are detected according to the result of the image processing, the controller 160 of the robot 100 branches to step 509 to map the phase using the detected ceiling reference image and the front reference image. The position of the robot 100 on 151 can be calculated. To this end, the phase map 151 may be configured such that the ceiling reference images and the front reference images are registered according to each position. In the case where there are a plurality of detected reference images, that is, a plurality of ceiling reference images and a plurality of front reference images are detected, the position calculation process of the robot 100 may include the phase map 151 among the combined images as described above. ) May be operated to determine the current magnetic position of the robot 100 by calculating a point that most matches the ceiling reference image and the front reference image registered on the.

다음으로 상기 제어부(160)는 511 단계로 분기하여 이전에 산출된 로봇(100)의 자기 위치를 기반으로 사전 설정된 작업을 수행하도록 제어할 수 있다. 이 과정은 상기 로봇(100)이 생산된 목적에 따른 작업 기능을 수행하는 과정으로서 로봇(100)의 특성과 목적 등에 따라 다를 수 있다. 즉 전술한 바와 같이 상기 로봇(100)의 제어부(160)는 청소 기능을 수행하거나, 학습 기능을 수행하는 등의 기능을 지원할 수 있다. 여기서 본 발명의 로봇(100)을 가정용을 기준으로 주로 설명하였지만 본 발명이 이에 한정되는 것은 아니다. 즉 일정 공간에 대한 위상 지도(151)구축이 가능하다면 산업 환경에도 본 발명이 적용될 수 있을 것이다.Next, the controller 160 branches to step 511 to control to perform a preset operation based on the previously calculated magnetic position of the robot 100. This process is a process of performing a work function according to the purpose for which the robot 100 is produced, and may vary depending on the characteristics and purpose of the robot 100. That is, as described above, the controller 160 of the robot 100 may support a function such as performing a cleaning function or performing a learning function. Here, the robot 100 of the present invention has been mainly described based on the home, but the present invention is not limited thereto. That is, the present invention may be applied to an industrial environment if it is possible to construct a phase map 151 for a predetermined space.

다음으로 상기 제어부(160)는 513 단계에서 로봇(100) 구동의 종료 여부를 확인하고, 로봇(100) 구동 종료를 위한 입력 신호가 발생하거나 스케줄 이벤트가 발생하는 경우 로봇(100) 구동을 종료하도록 제어할 수 있다. 한편 상기 제어부(160)는 로봇(100) 구동을 위한 스케줄 이벤트 발생이 없거나 또는 종료를 위한 별다른 입력 신호 발생이 없는 경우 505 단계로 분기하여 설정된 작업을 수행하도록 제어할 수 있다.Next, the controller 160 determines whether the driving of the robot 100 ends in step 513, and terminates the driving of the robot 100 when an input signal for ending driving of the robot 100 occurs or a schedule event occurs. Can be controlled. On the other hand, if there is no occurrence of a schedule event for driving the robot 100 or no input signal for termination, the controller 160 branches to step 505 to control to perform a set task.

이상에서 설명한 바와 같이 본 발명의 실시 예에 따른 자기 위치 인식을 위한 로봇 운용 방법은 로봇(100)이 자기 위치 인식이 필요한 지점에서 천장 영상과 전방 영상을 각각 수집하고, 사전 저장된 기준 영상들과의 비교 분석을 기반으로 자기 위치를 인식하도록 지원함으로써, 자기 위치 인식에 대한 오류를 줄일 수 있으며, 보다 빠른 자기 위치 인식을 수행할 수 있도록 지원할 수 있다.As described above, in the robot operating method for magnetic position recognition according to an embodiment of the present invention, the robot 100 collects a ceiling image and a front image at a point where magnetic position recognition is necessary, and compares them with pre-stored reference images. By supporting the recognition of the magnetic position based on the comparative analysis, it is possible to reduce an error in the magnetic position recognition and to perform a faster magnetic position recognition.

한편 상술한 설명에서 영상 처리와 관련하여 전방 영상의 경우 가정환경에서 다양한 구조물들이 배치되기 때문에 특징점을 추출하는 영상 처리를 이용하는 것으로 설명하고, 천장의 경우 특별한 구조물이 거의 배치되지 않기 때문에 경계선 추출 기반의 영상 처리를 이용하는 것으로 설명하지만 본 발명이 이에 한정되는 것은 아니다. 즉 설계자의 의도 및 상기 로봇(100)의 하드웨어 지원 역량에 따라 상기 영상 처리 방식은 달라질 수 있다.Meanwhile, in the above description, in the case of the front image, various structures are arranged in a home environment, and thus, image processing for extracting feature points is described. Although described using image processing, the present invention is not limited thereto. That is, the image processing scheme may vary according to the intention of the designer and the hardware support capability of the robot 100.

이상 본 발명을 몇 가지 바람직한 실시 예를 사용하여 설명하였으나, 이들 실시 예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. While the present invention has been described with reference to several preferred embodiments, these embodiments are illustrative and not restrictive. It will be understood by those of ordinary skill in the art that various changes and modifications may be made without departing from the spirit of the invention and the scope of the appended claims.

100 : 로봇 110 : 로봇 바디부
120 : 로봇 구동부 130 : 카메라
140 : 표시부 150 : 저장부
151 : 위상 지도 160 : 제어부
161 : 전방 영상 수집/비교부 163 : 천장 영상 수집/비교부
165 : 자기 위치 인식부 167 : 기능 수행부
100: robot 110: robot body portion
120: robot drive unit 130: camera
140: display unit 150: storage unit
151: phase map 160: control unit
161: collecting / comparing the front image 163: collecting / comparing the ceiling image
165: magnetic position recognition unit 167: function performing unit

Claims (8)

일정 공간에 대한 위상 지도와 상기 위상 지도의 각 지점들에 등록된 전방 기준 영상들 및 천장 기준 영상들이 저장되는 저장부;
상기 전방 기준 영상들 및 상기 천장 기준 영상들을 촬영을 지원하며 자기 위치 인식이 필요한 시점에 천장 영상과 전방 영상을 촬영하는 카메라;
상기 천장 영상을 상기 천장 기준 영상들과 비교하여 상기 천장 영상과 매칭되는 적어도 하나의 천장 기준 영상을 검출하고, 상기 전방 영상을 상기 전방 기준 영상들과 비교하여 상기 전방 영상과 매칭되는 적어도 하나의 전방 기준 영상을 검출하여 상기 위상 지도를 기반으로 현재 자기 위치를 인식하도록 제어하는 제어부;
를 포함하는 것을 특징으로 하는 자기 위치 인식을 수행하는 로봇.
A storage unit which stores a phase map for a predetermined space, forward reference images and ceiling reference images registered at respective points of the phase map;
A camera that supports capturing the front reference images and the ceiling reference images and captures the ceiling image and the front image at a time point where a magnetic position recognition is required;
Compare the ceiling image with the ceiling reference images to detect at least one ceiling reference image that matches the ceiling image, and compare the front image with the front reference images and at least one front that matches the front image. A controller configured to detect a reference image and recognize a current magnetic position based on the phase map;
A robot performing magnetic position recognition, characterized in that it comprises a.
제1항에 있어서,
상기 카메라는
상기 천장 영상을 전용으로 촬영하기 위한 천장 영상 전용 카메라; 및
상기 전방 영상을 전용으로 촬영하기 위한 전방 영상 전용 카메라;
를 포함하는 것을 특징으로 하는 자기 위치 인식을 수행하는 로봇.
The method of claim 1,
The camera
A ceiling image dedicated camera for capturing the ceiling image exclusively; And
A front image dedicated camera for capturing the front image exclusively;
A robot performing magnetic position recognition, characterized in that it comprises a.
제1항에 있어서,
상기 제어부 제어에 따라 상기 로봇을 일정 방향으로 이동시키는 로봇 구동부;
상기 로봇 구동부 상에 배치되어 상기 카메라와 상기 저장부 및 제어부가 배치되는 로봇 바디부;
를 더 포함하는 것을 특징으로 하는 자기 위치 인식을 수행하는 로봇.
The method of claim 1,
A robot driver for moving the robot in a predetermined direction according to the control of the controller;
A robot body part disposed on the robot driving part, in which the camera, the storage part, and the control part are disposed;
A robot that performs magnetic position recognition further comprising.
제3항에 있어서,
상기 카메라는
상기 로봇 바디부 상에서 일정 각도만큼 회전이 가능하도록 배치되고, 수직 각도로 배치된 상태에서 천장 영상을 촬영하며, 수평 각도로 배치된 상태에서 전방 영상을 촬영하는 것을 특징으로 하는 자기 위치 인식을 수행하는 로봇.
The method of claim 3,
The camera
The magnetic body is characterized in that it is arranged to be rotated by a predetermined angle on the robot body portion, photographing the ceiling image in a state arranged at a vertical angle, and photographing the front image in a state arranged at a horizontal angle. robot.
제1항에 있어서,
상기 제어부는
상기 천장 영상 및 상기 천장 기준 영상들에 대한 경계선 검출 기반의 영상처리를 수행하고, 상기 전방 영상 및 상기 전방 기준 영상들에 대한 특징점 추출 기반의 영상 처리를 수행하도록 제어하는 것을 특징으로 하는 자기 위치 인식을 수행하는 로봇.
The method of claim 1,
The control unit
Magnetic location recognition, characterized in that to perform image processing based on boundary detection on the ceiling image and the ceiling reference images, and to perform image processing based on feature point extraction on the front image and the front reference images. Robot to do it.
로봇의 자기 위치 인식을 요구하는 이벤트가 발생하는 과정;
상기 로봇에 배치되는 카메라를 운용하여 천장 영상과 전방 영상을 수집하는 수집 과정;
상기 수집된 천장 영상과 전방 영상을 사전에 저장되며 위상 지도 상의 특정 위치에 각각 등록된 천장 기준 영상들 및 전방 기준 영상들과 비교하는 과정;
상기 비교 결과를 기반으로 상기 위상 지도 상의 특정 지점에 해당하는 지점을 상기 로봇의 현재 자기 위치로 결정하는 결정 과정;
을 포함하는 것을 특징으로 하는 자기 위치 인식을 수행하는 로봇의 운용 방법.
Generating an event for requesting recognition of the magnetic position of the robot;
A collection process of collecting a ceiling image and a front image by operating a camera disposed on the robot;
Comparing the collected ceiling image and the front image with the ceiling reference images and the front reference images stored in advance and registered at specific positions on a phase map, respectively;
Determining a point corresponding to a specific point on the phase map as the current magnetic position of the robot based on the comparison result;
Operation method of the robot for performing the magnetic position recognition, comprising a.
제6항에 있어서,
상기 수집 과정은
상기 로봇이 단수개의 카메라를 가지는 경우, 상기 카메라를 수직 각도로 배치하여 상기 천장 영상을 수집한 후 상기 카메라를 수평 각도로 배치하여 상기 전방 영상을 수집하거나, 상기 전방 영상 수집 후 상기 천장 영상을 수집하는 과정;
상기 로봇이 복수개의 카메라를 가지는 경우, 천장 영상 촬영 전용으로 할당된 카메라를 운용하여 천장 영상을 수집함과 아울러 전방 영상 촬영 전용으로 할당된 카메라를 운용하여 전방 영상을 수집하는 과정;
중 어느 하나의 과정을 포함하는 것을 특징으로 하는 자기 위치 인식을 수행하는 로봇의 운용 방법.
The method of claim 6,
The collection process
When the robot has a single camera, the camera is arranged at a vertical angle to collect the ceiling image, and then the camera is arranged at a horizontal angle to collect the front image, or after the front image collection, the ceiling image is collected. Process of doing;
When the robot has a plurality of cameras, collecting a ceiling image by operating a camera allocated for ceiling image capturing and collecting a front image by operating a camera allocated for front image capturing;
Method of operation of the robot to perform the magnetic position recognition, characterized in that it comprises any one of the processes.
제6항에 있어서,
상기 결정 과정은
상기 비교 과정에서 가장 유사도가 높은 천장 기준 영상 및 전방 기준 영상이 검출된 경우 해당 천장 기준 영상 및 전방 기준 영상이 등록된 위상 지도 상의 지점을 로봇의 현재 자기 위치로 결정하는 과정; 또는
상기 비교 과정에서 일정 유사도 이상의 적어도 하나의 천장 기준 영상 및 일정 유사도 이상의 적어도 하나의 전방 기준 영상이 검출된 경우, 해당 천장 기준 영상과 전방 기준 영상의 조합이 상기 위상 지도 상에 등록된 천장 기준 영상 및 전방 기준 영상과 가장 부합된 지점을 상기 로봇의 현재 자기 위치로 결정하는 과정;
을 포함하는 것을 특징으로 하는 자기 위치 인식을 수행하는 로봇의 운용 방법.
The method of claim 6,
The decision process
Determining a point on the phase map where the ceiling reference image and the front reference image are registered as the current magnetic position of the robot when the ceiling reference image and the front reference image having the highest similarity are detected in the comparison process; or
In the comparison process, when at least one ceiling reference image having a certain degree of similarity or more and at least one forward reference image having a certain degree of similarity is detected, a combination of the ceiling reference image and the front reference image is registered on the phase map. Determining a point that best matches the forward reference image as the current magnetic position of the robot;
Operation method of the robot for performing the magnetic position recognition, comprising a.
KR1020100094914A 2010-09-30 2010-09-30 Robot for operating recognition of self-position and operation method thereof KR20120033414A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100094914A KR20120033414A (en) 2010-09-30 2010-09-30 Robot for operating recognition of self-position and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100094914A KR20120033414A (en) 2010-09-30 2010-09-30 Robot for operating recognition of self-position and operation method thereof

Publications (1)

Publication Number Publication Date
KR20120033414A true KR20120033414A (en) 2012-04-09

Family

ID=46136175

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100094914A KR20120033414A (en) 2010-09-30 2010-09-30 Robot for operating recognition of self-position and operation method thereof

Country Status (1)

Country Link
KR (1) KR20120033414A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101380123B1 (en) * 2012-04-27 2014-04-01 전자부품연구원 Location recognizing apparatus for smart robot
KR101379211B1 (en) * 2012-09-28 2014-04-10 전자부품연구원 Apparatus and method for detecting position of moving unit
KR101438377B1 (en) * 2012-08-24 2014-09-05 전자부품연구원 Apparatus and method for detecting position of moving unit
WO2017213373A1 (en) * 2016-06-08 2017-12-14 삼성전자 주식회사 Electronic device, external server, and method for controlling same
KR101961171B1 (en) * 2017-10-13 2019-03-22 한국과학기술연구원 Self position detecting system of indoor moving robot and method for detecting self position using the same
WO2020218644A1 (en) * 2019-04-25 2020-10-29 엘지전자 주식회사 Method and robot for redefining location of robot by using artificial intelligence
WO2020241938A1 (en) * 2019-05-31 2020-12-03 (주)바램시스템 Monitoring device of mobile smart home monitoring robot

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101380123B1 (en) * 2012-04-27 2014-04-01 전자부품연구원 Location recognizing apparatus for smart robot
KR101438377B1 (en) * 2012-08-24 2014-09-05 전자부품연구원 Apparatus and method for detecting position of moving unit
KR101379211B1 (en) * 2012-09-28 2014-04-10 전자부품연구원 Apparatus and method for detecting position of moving unit
WO2017213373A1 (en) * 2016-06-08 2017-12-14 삼성전자 주식회사 Electronic device, external server, and method for controlling same
US10948925B2 (en) 2016-06-08 2021-03-16 Samsung Electronics Co., Ltd. Electronic device, external server, and method for controlling same
KR101961171B1 (en) * 2017-10-13 2019-03-22 한국과학기술연구원 Self position detecting system of indoor moving robot and method for detecting self position using the same
WO2020218644A1 (en) * 2019-04-25 2020-10-29 엘지전자 주식회사 Method and robot for redefining location of robot by using artificial intelligence
US11347226B2 (en) 2019-04-25 2022-05-31 Lg Electronics Inc. Method of redefining position of robot using artificial intelligence and robot of implementing thereof
WO2020241938A1 (en) * 2019-05-31 2020-12-03 (주)바램시스템 Monitoring device of mobile smart home monitoring robot

Similar Documents

Publication Publication Date Title
CN106780608B (en) Pose information estimation method and device and movable equipment
US11803185B2 (en) Systems and methods for initializing a robot to autonomously travel a trained route
US10096129B2 (en) Three-dimensional mapping of an environment
EP3008694B1 (en) Interactive and automatic 3-d object scanning method for the purpose of database creation
KR102235271B1 (en) Moving Robot and controlling method
KR20120033414A (en) Robot for operating recognition of self-position and operation method thereof
US20190332115A1 (en) Method of controlling mobile robot
JP4464912B2 (en) Robot control apparatus and autonomous mobile robot
EP2495632B1 (en) Map generating and updating method for mobile robot position recognition
US11547261B2 (en) Moving robot and control method thereof
KR20190007284A (en) Moving Robot and controlling method
JP2008506953A (en) Method and apparatus for machine vision
JP2005078375A (en) Direction recognition device, direction recognition method, direction recognition system, and robot device
JP7147753B2 (en) Information processing device, information processing method, and program
US20200311970A1 (en) Mobile robot control method
US10437251B2 (en) Method for specifying position, terminal device, autonomous device, and program
US10593065B2 (en) Method and device for camera pose estimation
JP2004133567A (en) Mobile object and its position detector
JP2014106597A (en) Autonomous moving body, object information acquisition device, and object information acquisition method
JP2007200364A (en) Stereo calibration apparatus and stereo image monitoring apparatus using the same
US11763492B1 (en) Apparatus and methods to calibrate a stereo camera pair
CN116406461B (en) Generating measurements of physical structure and environment by automatic analysis of sensor data
Livatino et al. Autonomous robot navigation with automatic learning of visual landmarks
TWI788253B (en) Adaptive mobile manipulation apparatus and method
Ferrão José Manuel

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application