KR20180037516A - Moving robot and control method thereof - Google Patents

Moving robot and control method thereof Download PDF

Info

Publication number
KR20180037516A
KR20180037516A KR1020160127781A KR20160127781A KR20180037516A KR 20180037516 A KR20180037516 A KR 20180037516A KR 1020160127781 A KR1020160127781 A KR 1020160127781A KR 20160127781 A KR20160127781 A KR 20160127781A KR 20180037516 A KR20180037516 A KR 20180037516A
Authority
KR
South Korea
Prior art keywords
marker
virtual wall
recognized
mobile robot
image
Prior art date
Application number
KR1020160127781A
Other languages
Korean (ko)
Inventor
노동기
김연수
심인보
백승민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160127781A priority Critical patent/KR20180037516A/en
Publication of KR20180037516A publication Critical patent/KR20180037516A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Abstract

The present invention relates to a moving robot, and a controlling method thereof. The moving robot according to one embodiment of the present invention comprises: a moving unit for moving a main body; an image acquiring unit acquiring an image around the main body; a storage unit for storing the image acquired by the image acquiring unit; and a control unit setting a virtual wall based on position data of a recognized marker when the marker in which a specific pattern is formed in the image acquired by the image acquiring unit is recognized. Therefore, the present invention can set the virtual wall without any additional configuration.

Description

이동 로봇 및 그 제어방법{Moving robot and control method thereof}[0001] Moving robot and control method [0002]

본 발명은 이동 로봇 및 그 제어방법에 관한 것으로서, 더욱 상세하게는 마커(Marker)를 인식하여 가상벽(Virtual Wall)을 설정할 수 있는 이동 로봇 및 그 제어 방법에 관한 것이다. The present invention relates to a mobile robot and a control method thereof, and more particularly, to a mobile robot capable of recognizing a marker and setting a virtual wall and a control method thereof.

로봇은 산업용으로 개발되어 공장 자동화의 일부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다. 이러한 로봇 중에서 자력으로 주행이 가능한 것을 이동 로봇이라고 한다. Robots have been developed for industrial use and have been part of factory automation. In recent years, medical robots, aerospace robots, and the like have been developed, and household robots that can be used in ordinary homes are being developed. Among these robots, mobile robots capable of traveling by magnetic force are called mobile robots.

가정에서 사용되는 이동 로봇의 대표적인 예는 로봇 청소기로, 로봇 청소기는 일정 영역을 스스로 주행하면서, 주변의 먼지 또는 이물질을 흡입함으로써, 해당 영역을 청소하는 기기이다. A typical example of a mobile robot used in the home is a robot cleaner. The robot cleaner is a device for cleaning a corresponding area by suctioning dust or foreign matter around the robot while running a certain area by itself.

이동 로봇은, 스스로 이동이 가능하여 이동이 자유롭고, 주행중 장애물 등을 피하기 위한 다수의 센서가 구비되어 장애물을 피해 주행할 수 있다.The mobile robot is capable of moving by itself, is free to move, and is equipped with a plurality of sensors for avoiding obstacles during running, and can travel without obstacles.

일반적으로 이동 로봇의 장애물 감지를 위해 적외선 센서 또는 초음파 센서가 이용된다. 적외선 센서는 장애물에 반사되어 돌아오는 반사광의 광량 또는 수신되는 시간을 통해 장애물의 존재와 거리를 판단하고, 초음파 센서는 소정 주기를 가지는 초음파를 발산하여 장애물에 의해 반사되는 초음파가 있을 경우 초음파 발산 시간과 장애물에 반사되어 되돌아오는 순간의 시간차를 이용하여 장애물과의 거리를 판단한다.In general, an infrared sensor or an ultrasonic sensor is used to detect an obstacle of a mobile robot. The infrared sensor senses the presence and distance of the obstacle through the amount of reflected light or the time of reflected light reflected by the obstacle, and when the ultrasonic sensor emits an ultrasonic wave having a predetermined period and there is an ultrasonic wave reflected by the obstacle, And the distance between the obstacle and the obstacle is determined using the time difference between the moment when the obstacle is reflected and the time when the obstacle is reflected.

한편, 장애물 인식 및 회피는 이동 로봇의 주행 성능뿐만 아니라 청소 성능에 큰 영향을 미치므로, 장애물 인식 능력의 신뢰성 확보가 요구된다.On the other hand, obstacle recognition and avoidance have a great influence on the cleaning performance as well as the running performance of the mobile robot, and therefore it is required to secure the reliability of the obstacle recognition capability.

또한, 이동 로봇의 특정 지역으로의 진입 방지, 특정 지역에서의 이탈 방지하고, 센서가 감지하지 못하는 장애물의 회피 등 다양한 목적을 위하여 가상벽을 설정하여 이용하는 방법에 대한 연구가 증가하고 있다.In addition, there is an increasing research on methods for setting virtual walls for various purposes such as prevention of entry of a mobile robot into a specific area, prevention of departure from a specific area, and avoidance of obstacles that the sensor can not detect.

종래 기술 1(공개특허공보 10-2014-0087486호)은, 감지되지 않은 장애물에 효과적으로 대처하기 위하여, 로봇 관리자로부터 사전에 로봇 맵 상에서 추가적으로 발생한 장애물에 대한 가상벽 정보를 제공받아 이용하는 기술을 개시한다. 하지만, 종래 기술 1은 관리자가 사전에 가상벽 정보를 입력해야하는 불편함이 있다.Prior Art 1 discloses a technology for providing virtual wall information on an obstacle that is additionally generated on a robot map in advance from a robot manager in order to effectively cope with an obstacle that has not been detected (JP-A-10-2014-0087486) . However, the conventional art 1 has an inconvenience that the administrator must input virtual wall information in advance.

종래 기술 2(공개특허공보 10-2006-0129960호)는, 이동 영역 내의 이동 로봇의 위치 및 자세를 산출하기 위하여 발광 소자를 구비하는 마커를 이용하는 기술을 개시한다. 종래 기술 2는 마커의 식별 데이터로 마커 내의 복수의 발광 소자의 발광 간격 혹은 발광 순서를 이용한다. 따라서, 종래 기술 2는 마커들이 각각 발광 소자를 구비해야 하기 때문에 비용이 증가하고, 발광 소자들의 발광 간격, 순서 등을 정확히 제어해야 하며 오인식의 위험이 커질 수 있다는 문제점이 있다.Prior Art 2 (Laid-Open Patent Publication No. 10-2006-0129960) discloses a technique using a marker having a light emitting element to calculate the position and posture of a mobile robot in a moving area. Conventional art 2 uses the light emission interval or light emission order of a plurality of light emitting elements in the marker as identification data of the marker. Therefore, the conventional art 2 has a problem in that the cost increases because the markers must each include the light emitting element, the light emission interval, the order and the like of the light emitting elements must be accurately controlled, and the risk of false recognition may increase.

종래 기술 3(공개특허공보 10-2012-0054669호)은, 비컨(beacon)을 이용하고 있는데, 비컨 방출기와 비컨 방출에 응답하는 비컨 센서 등을 구비해야 하는 문제점이 있다.Prior Art 3 (Laid-Open Patent Publication No. 10-2012-0054669) uses a beacon, which has a problem in that a beacon emitter and a beacon sensor responding to beacon emission must be provided.

1. 공개특허공보 10-2014-0087486호 (공개일자 2014. 7. 9.)1. Published Japanese Patent Application No. 10-2014-0087486 (Published on July 9, 2014) 2. 공개특허공보 10-2006-0129960호 (공개일자 2006. 12. 18.)2. Open Patent Publication No. 10-2006-0129960 (published on December 18, 2006) 3. 공개특허공보 10-2012-0054669호 (공개일자 2012. 5. 30.)3. Published Patent Application No. 10-2012-0054669 (Published on May 30, 2012)

본 발명의 목적은, 별도의 구성 추가 없이도 가상벽을 설정하고 설정된 가상벽에 기초하여 주행할 수 있는 이동 로봇 및 그 제어방법을 제공함에 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a mobile robot and a control method thereof that can set a virtual wall and travel based on a set virtual wall without any additional configuration.

본 발명의 목적은, 저비용의 마커를 이용하여 가상벽을 설정할 수 있다.An object of the present invention is to set a virtual wall using a low-cost marker.

본 발명의 목적은, 설정된 가상벽에 기초하여 주행함으로써, 이동 로봇 자체의 안정성 및 사용자의 편의성을 제고하고, 운전 효율, 청소 효율을 향상시킬 수 있는 이동 로봇 및 그 제어방법을 제공함에 있다.An object of the present invention is to provide a mobile robot and a control method thereof that can improve the stability of the mobile robot itself and the user's convenience by running based on the set virtual wall, and improve the operation efficiency and cleaning efficiency.

상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇은, 본체를 이동시키는 주행부, 본체 주변의 영상을 획득하는 영상획득부, 영상획득부가 획득하는 영상을 저장하는 저장부, 및, 영상획득부가 획득한 영상에서 특정 패턴이 형성된 마커(Marker)가 인식되는 경우, 인식된 마커의 위치 데이터에 기초하여 가상벽(Virtual Wall)을 설정하는 제어부를 포함함으로써, 별도의 구성 추가 없이도 가상벽을 설정할 수 있다.According to one aspect of the present invention, there is provided a mobile robot including a traveling unit for moving a main body, an image acquisition unit for acquiring images around the main body, a storage unit for storing images acquired by the image acquisition unit, And a controller configured to set a virtual wall based on the position data of the recognized marker when a marker having a specific pattern is recognized in the image acquired by the image acquisition unit, You can set the wall.

또한, 상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇의 제어방법은, 이동 중 영상을 획득하는 단계, 획득한 영상에서 특정 패턴이 형성된 마커(Marker)를 인식하는 단계, 및, 인식된 마커의 위치 데이터에 기초하여 가상벽(Virtual Wall)을 설정하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of controlling a mobile robot including the steps of: acquiring a moving image; recognizing a marker having a specific pattern formed on the acquired image; , And setting a virtual wall based on the positional data of the recognized marker.

본 발명의 실시 예들 중 적어도 하나에 의하면, 별도의 구성 추가 없이도 가상벽을 설정하고 설정된 가상벽에 기초하여 주행할 수 있는 이동 로봇 및 그 제어방법을 제공할 수 있다.According to at least one of the embodiments of the present invention, it is possible to provide a mobile robot and its control method that can set a virtual wall and travel based on a set virtual wall without any additional configuration.

또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 저비용의 마커를 이용하여 가상벽을 설정할 수 있다.Further, according to at least one of the embodiments of the present invention, a virtual wall can be set using a low-cost marker.

또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 설정된 가상벽에 기초하여 주행함으로써, 이동 로봇 자체의 안정성 및 사용자의 편의성을 제고하고, 운전 효율, 청소 효율을 향상시킬 수 있다.Further, according to at least one of the embodiments of the present invention, traveling based on the set virtual wall improves the stability of the mobile robot itself and the user's convenience, and improves the operation efficiency and the cleaning efficiency.

한편, 그 외의 다양한 효과는 후술될 본 발명의 실시 예에 따른 상세한 설명에서 직접적 또는 암시적으로 개시될 것이다.Meanwhile, various other effects will be directly or implicitly disclosed in the detailed description according to the embodiment of the present invention to be described later.

도 1은 본 발명의 일 실시 예에 따른 이동 로봇 및 이동 로봇을 충전시키는 충전대를 도시한 사시도이다.
도 2는 도 1에 도시된 이동 로봇의 상면부를 도시한 도이다.
도 3은 도 1에 도시된 이동 로봇의 정면부를 도시한 도이다.
도 4는 도 1에 도시된 이동 로봇의 저면부를 도시한 도이다.
도 5는 본 발명의 일 실시 예에 따른 이동 로봇의 주요 구성들 간의 제어관계를 도시한 블록도이다.
도 6은 본 발명의 일 실시 예에 따른 이동 로봇의 영역 구분 및 그에 따른 맵 생성의 예가 도시된 도이다.
도 7과 도 8은 본 발명의 실시 예에 따른 마커에 관한 설명에 참조되는 도면이다.
도 9와 도 10은 본 발명의 실시 예에 따른 이동 로봇의 마커 인식에 관한 설명에 참조되는 도면이다.
도 11과 도 12는 본 발명의 실시 예에 따른 마커에 관한 설명에 참조되는 도면이다.
도 13은 본 발명의 일 실시 예에 따른 이동 로봇의 제어 방법을 도시한 순서도이다.
1 is a perspective view illustrating a mobile robot and a charging stand for charging the mobile robot according to an embodiment of the present invention.
FIG. 2 is a top view of the mobile robot shown in FIG. 1. FIG.
FIG. 3 is a front view of the mobile robot shown in FIG. 1. FIG.
Fig. 4 is a view showing a bottom portion of the mobile robot shown in Fig. 1. Fig.
FIG. 5 is a block diagram illustrating a control relationship between main components of a mobile robot according to an embodiment of the present invention. Referring to FIG.
FIG. 6 is a diagram illustrating an example of region classification and map generation according to an embodiment of the present invention.
FIGS. 7 and 8 are views referred to the description of the marker according to the embodiment of the present invention.
FIG. 9 and FIG. 10 are diagrams referred to in explaining the marker recognition of the mobile robot according to the embodiment of the present invention.
11 and 12 are views referred to the description of the marker according to the embodiment of the present invention.
13 is a flowchart illustrating a method of controlling a mobile robot according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. 그러나 본 발명이 이러한 실시 예에 한정되는 것은 아니며 다양한 형태로 변형될 수 있음은 물론이다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, it is needless to say that the present invention is not limited to these embodiments and can be modified into various forms.

도면에서는 본 발명을 명확하고 간략하게 설명하기 위하여 설명과 관계없는 부분의 도시를 생략하였으며, 명세서 전체를 통하여 동일 또는 극히 유사한 부분에 대해서는 동일한 도면 참조부호를 사용한다. In the drawings, the same reference numerals are used for the same or similar parts throughout the specification.

한편, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffix "module" and " part "for components used in the following description are given merely for convenience of description and do not give special significance or role in themselves. Accordingly, the terms "module" and "part" may be used interchangeably.

본 발명의 일 실시 예에 따른 이동 로봇(100)은 바퀴 등을 이용하여 스스로 이동이 가능한 로봇을 의미하고, 가정 도우미 로봇 및 로봇 청소기 등이 될 수 있다. 이하에서는, 도면들을 참조하여, 이동 로봇 중 청소 기능을 가지는 로봇 청소기를 예로 들어 설명하나, 본 발명은 이에 한정되지 않는다.The mobile robot 100 according to an embodiment of the present invention refers to a robot that can move by itself using wheels or the like, and may be a home helper robot and a robot cleaner. Hereinafter, a robot cleaner having a cleaning function of a mobile robot will be described with reference to the drawings, but the present invention is not limited thereto.

이하에서는 도면을 참조하여 본 발명의 실시 예에 대해서 구체적으로 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시 예에 따른 이동 로봇 및 이동 로봇을 충전시키는 충전대를 도시한 사시도이고, 도 2는 도 1에 도시된 이동 로봇의 상면부를 도시한 도이며, 도 3은 도 1에 도시된 이동 로봇의 정면부를 도시한 도이고, 도 4는 도 1에 도시된 이동 로봇의 저면부를 도시한 도이다. FIG. 1 is a perspective view illustrating a mobile robot and a charging station for charging the mobile robot according to an embodiment of the present invention. FIG. 2 is a top view of the mobile robot shown in FIG. 1, FIG. 4 is a view illustrating a bottom portion of the mobile robot shown in FIG. 1; FIG.

도 5는 본 발명의 일 실시 예에 따른 이동 로봇의 주요 구성들 간의 제어관계를 도시한 블록도이다.FIG. 5 is a block diagram illustrating a control relationship between main components of a mobile robot according to an embodiment of the present invention. Referring to FIG.

도 1 내지 도 5를 참조하면, 이동 로봇(100)은 본체(110)와, 본체(110) 주변의 영상을 획득하는 영상획득부(120)를 포함한다. 이하, 본체(110)의 각부분을 정의함에 있어서, 주행구역 내의 천장을 향하는 부분을 상면부(도 2 참조)로 정의하고, 주행구역 내의 바닥을 향하는 부분을 저면부(도 4 참조)로 정의하며, 상면부와 저면부 사이에서 본체(110)의 둘레를 이루는 부분 중 주행방향을 향하는 부분을 정면부(도 3 참조)라고 정의한다. 1 to 5, the mobile robot 100 includes a main body 110 and an image acquisition unit 120 for acquiring images around the main body 110. Hereinafter, in defining each part of the main body 110, a portion facing the ceiling in the running zone is defined as a top surface portion (see FIG. 2), and a portion facing the bottom in the running zone is defined as a bottom surface portion And a portion facing the running direction among the portions forming the circumference of the main body 110 between the upper surface portion and the bottom surface portion is defined as a front surface portion (see FIG. 3).

이동 로봇(100)은 본체(110)를 이동시키는 주행부(160)를 포함한다. 주행부(160)는 본체(110)를 이동시키는 적어도 하나의 구동 바퀴(136)를 포함한다. 주행부(160)는 구동 바퀴(136)에 연결되어 구동 바퀴를 회전시키는 구동 모터(미도시)를 포함한다. 구동 바퀴(136)는 본체(110)의 좌, 우 측에 각각 구비될 수 있으며, 이하, 각각 좌륜(136(L))과 우륜(136(R))이라고 한다.The mobile robot 100 includes a traveling unit 160 for moving the main body 110. The driving unit 160 includes at least one driving wheel 136 for moving the main body 110. The driving unit 160 includes a driving motor (not shown) connected to the driving wheels 136 to rotate the driving wheels. The driving wheels 136 may be provided on the left and right sides of the main body 110 and will be referred to as the left wheel 136 (L) and the right wheel 136 (R), respectively.

좌륜(136(L))과 우륜(136(R))은 하나의 구동 모터에 의해 구동될 수도 있으나, 필요에 따라 좌륜(136(L))을 구동시키는 좌륜 구동 모터와 우륜(136(R))을 구동시키는 우륜 구동 모터가 각각 구비될 수도 있다. 좌륜(136(L))과 우륜(136(R))의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체(110)의 주행방향을 전환할 수 있다.The left wheel 136 (L) and the right wheel 136 (R) may be driven by a single drive motor, but may be driven by a left wheel drive motor and a right wheel 136 (R) And a right wheel drive motor for driving the right wheel drive motor. The running direction of the main body 110 can be switched to the left or right side by making a difference in rotational speed between the left wheel 136 (L) and the right wheel 136 (R).

본체(110)의 저면부에는 공기의 흡입이 이루어지는 흡입구(110h)가 형성될 수 있으며, 본체(110) 내에는 흡입구(110h)를 통해 공기가 흡입될 수 있도록 흡입력을 제공하는 흡입장치(미도시)와, 흡입구(110h)를 통해 공기와 함께 흡입된 먼지를 집진하는 먼지통(미도시)이 구비될 수 있다.A suction port 110h for sucking in air may be formed on the bottom surface of the main body 110. A suction device for supplying suction force for sucking air through the suction port 110h is provided in the main body 110 And a dust container (not shown) for dust collecting with the air through the suction port 110h.

본체(110)는 이동 로봇(100)을 구성하는 각종 부품들이 수용되는 공간을 형성하는 케이스(111)를 포함할 수 있다. 케이스(111)에는 상기 먼지통의 삽입과 탈거를 위한 개구부가 형성될 수 있고, 개구부를 여닫는 먼지통 커버(112)가 케이스(111)에 대해 회전 가능하게 구비될 수 있다.The main body 110 may include a case 111 forming a space in which various components constituting the mobile robot 100 are accommodated. An opening for inserting and removing the dust container may be formed in the case 111, and a dust container cover 112 for opening and closing the opening may be rotatably provided with respect to the case 111.

흡입구(110h)를 통해 노출되는 솔들을 갖는 롤형의 메인 브러시(134)와, 본체(110)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 보조 브러시(135)가 구비될 수 있다. 이들 브러시(134, 135)들의 회전에 의해 주행구역 내 바닥으로부터 먼지들이 분리되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구(110h)를 통해 흡입되어 먼지통에 모인다.An auxiliary brush 135 having a brush having a plurality of blades extending radially and located on the front side of the bottom surface of the main body 110, May be provided. By the rotation of the brushes 134 and 135, the dusts are separated from the floor in the traveling zone, and the dusts separated from the floor are sucked through the suction port 110h and collected in the dustbin.

배터리(138)는 구동 모터뿐만 아니라, 이동 로봇(100)의 작동 전반에 필요한 전원을 공급한다. 배터리(138)가 방전될 시, 이동 로봇(100)은 충전을 위해 충전대(200)로 복귀하는 주행을 실시할 수 있으며, 이러한 복귀 주행 중, 이동 로봇(100)은 스스로 충전대(200)의 위치를 탐지할 수 있다.The battery 138 supplies not only the drive motor but also the power necessary for the overall operation of the mobile robot 100. When the battery 138 is discharged, the mobile robot 100 can return to the charging station 200 for charging. During the returning operation, the mobile robot 100 can automatically set the position of the charging station 200 Can be detected.

충전대(200)는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되어야하는 것은 아니다.The charging stand 200 may include a signal transmitting unit (not shown) for transmitting a predetermined return signal. The return signal may be an ultrasound signal or an infrared signal, but is not necessarily limited thereto.

이동 로봇(100)은 복귀 신호를 수신하는 신호 감지부(미도시)를 포함할 수 있다. 충전대(200)는 신호 송출부를 통해 적외선 신호를 송출하고, 신호 감지부는 적외선 신호를 감지하는 적외선 센서를 포함할 수 있다. 이동 로봇(100)은 충전대(200)로부터 송출된 적외선 신호에 따라 충전대(200)의 위치로 이동하여 충전대(200)와 도킹(docking)한다. 이러한 도킹에 의해 이동 로봇(100)의 충전 단자(133)와 충전대(200)의 충전 단자(210) 간에 충전에 이루어진다.The mobile robot 100 may include a signal sensing unit (not shown) for receiving a return signal. The charging base 200 may transmit an infrared signal through a signal transmitting unit, and the signal sensing unit may include an infrared sensor that senses an infrared signal. The mobile robot 100 moves to the position of the charging base 200 according to the infrared signal transmitted from the charging base 200 and docks with the charging base 200. [ And charging is performed between the charging terminal 133 of the mobile robot 100 and the charging terminal 210 of the charging stand 200 by such docking.

영상획득부(120)는 주행구역을 촬영하는 것으로, 디지털 카메라를 포함할 수 있다. 디지털 카메라는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를들어, pixel)를 포함하여 구성된 이미지센서(예를들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.The image acquisition unit 120 photographs a driving area, and may include a digital camera. A digital camera includes an image sensor (e.g., a CMOS image sensor) configured with at least one optical lens, and a plurality of photodiodes (e.g., pixels) that are formed by light passing through the optical lens, And a digital signal processor (DSP) that forms an image based on signals output from the photodiodes. The digital signal processor is capable of generating moving images composed of still frames as well as still images.

바람직하게, 영상획득부(120)는 본체(110)의 상면부에 구비되어, 주행구역 내의 천장에 대한 영상을 획득하나, 영상획득부(120)의 위치와 촬영범위가 반드시 이에 한정되어야 하는 것은 아니다. 예를 들어, 영상획득부(120)는 본체(110) 전방의 영상을 획득하도록 구비될 수도 있다.Preferably, the image acquiring unit 120 is provided on the upper surface of the main body 110 to acquire images of the ceiling in the driving area. However, the position and the photographing range of the image acquiring unit 120 must be limited thereto no. For example, the image acquisition unit 120 may be provided to acquire an image in front of the main body 110.

본 실시예의 경우, 이동 로봇의 일부 부위(ex, 상면부)에 카메라가 설치되어 주행 중에 영상을 획득할 수 있다. 또한, 카메라에 의해 촬상된 영상은 해당 공간에 존재하는 마커를 인식하는데 사용할 수 있다.In this embodiment, a camera is installed in a part (ex, top part) of the mobile robot to acquire an image while driving. In addition, an image captured by the camera can be used to recognize a marker existing in the space.

또한, 이동 로봇(100)은 전방의 장애물을 감지하는 장애물 감지센서(131)를 더 포함할 수 있다. 이동 로봇(100)은 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서(132)와, 바닥의 영상을 획득하는 하부 카메라 센서(139)를 더 포함할 수 있다. In addition, the mobile robot 100 may further include an obstacle detection sensor 131 for detecting an obstacle ahead. The mobile robot 100 may further include a cliff detection sensor 132 for detecting the presence or absence of a cliff on the floor in the driving area and a lower camera sensor 139 for obtaining a bottom image.

또한, 이동 로봇(100)은 온/오프(On/Off) 또는 각종 명령을 입력할 수 있는 조작부(137)를 포함한다. 조작부(137)를 통해 이동 로봇(100)의 작동 전반에 필요한 각종 제어명령을 입력받을 수 있다. 또한, 이동 로봇(100)은 출력부(미도시)를 포함하여, 예약 정보, 배터리 상태, 동작모드, 동작상태, 에러상태 등을 표시할 수 있다. In addition, the mobile robot 100 includes an operation unit 137 which can be turned on / off or input various commands. Various control commands necessary for the overall operation of the mobile robot 100 can be inputted through the operation unit 137. [ In addition, the mobile robot 100 can display reservation information, a battery state, an operation mode, an operation state, an error state, and the like, including an output unit (not shown).

도 5를 참조하면, 이동 로봇(100)은 현재 위치를 인식하는 등 각종 정보를 처리하고 판단하는 제어부(140), 및 각종 데이터를 저장하는 저장부(150)를 포함한다. 또한, 이동 로봇(100)은 외부 단말기와 데이터를 송수신하는 통신부(190)를 더 포함할 수 있다. Referring to FIG. 5, the mobile robot 100 includes a controller 140 for processing and determining various information such as a current position, and a storage unit 150 for storing various data. The mobile robot 100 may further include a communication unit 190 for transmitting and receiving data to / from an external terminal.

외부 단말기는 이동 로봇(100)을 제어하기 위한 애플리케이션을 구비하고, 애플리케이션의 실행을 통해 이동 로봇(100)이 청소할 주행구역에 대한 맵을 표시하고, 맵 상에 특정 영역을 청소하도록 영역을 지정할 수 있다. 외부 단말기는 맵 설정을 위한 애플리케이션(application)이 탑재된 리모콘, PDA, 랩탑(laptop), 스마트 폰, 태블릿 등을 예로 들 수 있다. The external terminal is provided with an application for controlling the mobile robot 100. The mobile robot 100 displays a map of a traveling area to be cleaned by the mobile robot 100 through the execution of the application and can designate a region for cleaning a specific area on the map have. The external terminal may be, for example, a remote controller, a PDA, a laptop, a smart phone, or a tablet on which an application for setting a map is mounted.

외부 단말기는 이동 로봇(100)과 통신하여, 맵과 함께 이동 로봇의 현재 위치를 표시할 수 있으며, 복수의 영역에 대한 정보가 표시될 수 있다. 또한, 외부 단말기는 이동 로봇의 주행에 따라 그 위치를 갱신하여 표시한다. The external terminal communicates with the mobile robot 100 to display the current position of the mobile robot together with the map, and information about a plurality of regions can be displayed. Further, the external terminal updates its position and displays it according to the traveling of the mobile robot.

제어부(140)는 이동 로봇(100)을 구성하는 영상획득부(120), 조작부(137), 주행부(160)를 제어하여, 이동 로봇(100)의 동작 전반을 제어한다. The control unit 140 controls the overall operation of the mobile robot 100 by controlling the image acquisition unit 120, the operation unit 137, and the travel unit 160 constituting the mobile robot 100.

저장부(150)는 이동 로봇(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 기록 매체는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.The storage unit 150 records various types of information required for controlling the mobile robot 100, and may include a volatile or nonvolatile recording medium. The storage medium stores data that can be read by a microprocessor, and includes a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD- Tape, floppy disk, optical data storage, and the like.

또한, 저장부(150)에는 주행구역에 대한 맵(Map)이 저장될 수 있다. 맵은 이동 로봇(100)과 유선 또는 무선 통신을 통해 정보를 교환할 수 있는 외부 단말기에 의해 입력된 것일 수도 있고, 이동 로봇(100)이 스스로 학습을 하여 생성한 것일 수도 있다. Also, the storage unit 150 may store a map of the driving area. The map may be input by an external terminal capable of exchanging information with the mobile robot 100 through wired or wireless communication, or may be generated by self-learning by the mobile robot 100.

맵에는 주행구역 내의 방들의 위치가 표시될 수 있다. 또한, 이동 로봇(100)의 현재 위치가 맵 상에 표시될 수 있으며, 맵 상에서의 이동 로봇(100)의 현재의 위치는 주행 과정에서 갱신될 수 있다. 외부 단말기는 저장부(150)에 저장된 맵과 동일한 맵을 저장한다. The map can display the location of the rooms in the driving area. In addition, the current position of the mobile robot 100 can be displayed on the map, and the current position of the mobile robot 100 on the map can be updated in the course of travel. The external terminal stores the same map as the map stored in the storage unit 150.

한편, 상기 저장부(150)에 저장되는 주행구역에 대한 맵(Map)은, 청소 중 주행에 사용되는 내비게이션 맵(Navigation map), 위치 인식에 사용되는 SLAM(Simultaneous localization and mapping) 맵, 장애물 등에 부딪히면 해당 정보를 저장하여 학습 청소시 사용하는 학습 맵, 전역 위치 인식에 사용되는 전역 위치 맵, 인식된 장애물에 관한 정보가 기록되는 장애물 인식 맵 등일 수 있다. The map for the driving area stored in the storage unit 150 may include at least one of a navigation map used for traveling during cleaning, a simultaneous localization and mapping (SLAM) map used for position recognition, A learning map used for learning cleaning, a global position map used for global position recognition, an obstacle recognition map for recording information about recognized obstacles, and the like.

한편, 상술한 바와 같이 용도별로 상기 저장부(150)에 맵들을 구분하여 저장, 관리할 수 있지만, 맵이 용도별로 명확히 구분되지 않을 수도 있다. 예를 들어, 적어도 2 이상의 용도로 사용할 수 있도록 하나의 맵에 복수의 정보를 저장할 수도 있다.Meanwhile, although the maps can be separately stored and managed in the storage unit 150 according to the usage as described above, the maps may not be clearly classified for each use. For example, a plurality of pieces of information may be stored in one map for use in at least two applications.

제어부(140)는 주행제어모듈(141), 구역구분모듈(142), 학습모듈(143) 및 인식모듈(144)을 포함한다. The control unit 140 includes a travel control module 141, a zone classification module 142, a learning module 143, and a recognition module 144.

주행제어모듈(141)은 이동 로봇(100)의 주행을 제어하는 것으로, 주행 설정에 따라 주행부(160)의 구동을 제어한다. 또한, 주행제어모듈(141)은 주행부(160)의 동작을 바탕으로 이동 로봇(100)의 이동 경로를 파악할 수 있다. 예를 들어, 주행제어모듈(141)은 구동 바퀴(136)의 회전속도를 바탕으로 이동 로봇(100)의 현재 또는 과거의 이동속도, 주행한 거리 등을 파악할 수 있으며, 각 구동 바퀴(136(L), 136(R))의 회전 방향에 따라 현재 또는 과거의 방향 전환 과정 또한 파악할 수 있다. 이렇게 파악된 이동 로봇(100)의 주행 정보를 바탕으로, 맵 상에서 이동 로봇(100)의 위치가 갱신될 수 있다. The travel control module 141 controls the travel of the mobile robot 100, and controls the travel of the travel unit 160 according to the travel setting. In addition, the travel control module 141 can grasp the travel path of the mobile robot 100 based on the operation of the travel unit 160. [ For example, the driving control module 141 can grasp the current or past traveling speed and the traveling distance of the mobile robot 100 based on the rotational speed of the driving wheel 136, L), 136 (R)), the current or past direction change process can be grasped. Based on the travel information of the mobile robot 100, the position of the mobile robot 100 on the map can be updated.

구역구분모듈(142)은 소정 기준에 따라 주행구역을 복수의 구역으로 구분할 수 있다. 주행구역은 이동 로봇(100)이 주행 경험이 있는 모든 평면상의 구역 및 현재 주행하고 있는 평면상의 구역을 모두 합한 범위로 정의될 수 있다. The zone classification module 142 may divide the traveling zone into a plurality of zones according to a predetermined criterion. The travel zone can be defined as a range including all of the area on the plane where the mobile robot 100 is experiencing driving and the area on the plane on which the mobile robot 100 is traveling.

구역구분모듈(142)은 주행구역을 복수의 소구역으로 구분하며, 소구역은 주행구역 내의 각 실(방)을 근거로 구분될 수 있다. 또한, 구역구분모듈(142)은 주행구역을 주행능력상 서로 분리된 복수의 대구역으로 구분할 수 있다. 예를 들면, 서로 동선상 완전히 분리된 두개의 실내공간은 각각 두개의 대구역으로 구분될 수 있다. 다른 예로, 같은 실내 공간이라 하더라도, 상기 대구역은 주행구역 내의 각 층을 근거로 구분될 수 있다. The zone division module 142 divides the traveling zone into a plurality of sub-zones, and the sub-zone may be divided based on each room (room) in the traveling zone. In addition, the zone division module 142 can divide the traveling zone into a plurality of large zones separated from each other in terms of driving capability. For example, two indoor spaces completely separated from each other by a line can be divided into two major zones, respectively. As another example, even in the same indoor space, the large area can be divided based on each layer in the driving area.

학습모듈(143)은 주행구역의 맵을 생성할 수 있다. 또한, 학습모듈(143)은 각 위치에서 영상획득부(120)를 통해 획득한 영상을 처리하여 맵과 연계시켜 전역위치를 인식한다.The learning module 143 may generate a map of the driving area. Also, the learning module 143 processes the image acquired through the image acquisition unit 120 at each position and recognizes the global position in association with the map.

인식모듈(144)은 현재 위치를 추정하여 인식한다. 인식모듈(144)은 영상획득부(120)의 영상 정보를 이용하여 학습모듈(143)과 연계하여 위치를 파악함으로써, 이동 로봇(100)의 위치가 갑자기 변경되는 경우에도 현재 위치를 추정하여 인식할 수 있다.The recognition module 144 estimates and recognizes the current position. The recognition module 144 grasps the position in cooperation with the learning module 143 by using the image information of the image acquisition unit 120 so that the current position is estimated and recognized even when the position of the mobile robot 100 suddenly changes can do.

이동 로봇(100)은 구역구분모듈(142)을 통해 연속적인 주행 중에 위치 인식이 가능하고 또한, 구역구분모듈(142) 없이 학습모듈(143) 및 인식모듈(144)을 통해, 맵을 학습하고 현재 위치를 추정할 수 있다. The mobile robot 100 learns the position during continuous travel through the zone classifying module 142 and learns the map through the learning module 143 and the recognition module 144 without the zone classifying module 142 The current position can be estimated.

이동 로봇(100)이 주행하는 중에, 영상획득부(120)는 이동 로봇(100) 주변의 영상들을 획득한다. 이하, 영상획득부(120)에 의해 획득된 영상을 '획득영상'이라고 정의한다. 획득영상에는 천장에 위치하는 조명들, 경계(edge), 코너(corner), 얼룩(blob), 굴곡(ridge) 등의 여러가지 특징(feature)들이 포함된다. During traveling of the mobile robot 100, the image acquisition unit 120 acquires images around the mobile robot 100. Hereinafter, the image acquired by the image acquisition unit 120 is defined as an 'acquired image'. The acquired image includes various features such as lights, edges, corners, blobs, ridges, etc., located on the ceiling.

학습모듈(143)은 획득영상들 각각으로부터 특징을 검출한다. 컴퓨터 비전(Computer Vision) 기술 분야에서 영상으로부터 특징을 검출하는 다양한 방법(Feature Detection)이 잘 알려져 있다. 이들 특징의 검출에 적합한 여러 특징검출기(feature detector)들이 알려져 있다. 예를들어, Canny, Sobel, Harris&Stephens/Plessey, SUSAN, Shi&Tomasi, Level curve curvature, FAST, Laplacian of Gaussian, Difference of Gaussians, Determinant of Hessian, MSER, PCBR, Grey-level blobs 검출기 등이 있다.The learning module 143 detects features from each of the acquired images. Various methods for detecting features from an image in the field of Computer Vision (Feature Detection) are well known. Several feature detectors suitable for detecting these features are known. For example, Canny, Sobel, Harris & Stephens / Plessey, SUSAN, Shi & Tomasi, Level curve curvature, FAST, Laplacian of Gaussian, Difference of Gaussians, Determinant of Hessian, MSER, PCBR and Gray-level blobs detector.

학습모듈(143)은 각 특징점을 근거로 디스크립터를 산출한다. 학습모듈(143)은 특징 검출을 위해 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 특징점을 디스크립터(descriptor)로 변환할 수 있다. 디스크립터는 n차원 벡터(vector)로 표기될 수 있다.The learning module 143 calculates a descriptor based on each minutiae point. The learning module 143 may convert the feature point into a descriptor using a Scale Invariant Feature Transform (SIFT) technique for feature detection. The descriptor may be denoted by an n-dimensional vector.

SIFT는 촬영 대상의 스케일(scale), 회전, 밝기변화에 대해서 불변하는 특징을 검출할 수 있어, 같은 영역을 이동 로봇(100)의 자세를 달리하며 촬영하더라도 불변하는(즉, 회전 불변한(Rotation-invariant)) 특징을 검출할 수 있다. 물론, 이에 한정되지 않고 다른 다양한 기법(예를들어, HOG: Histogram of Oriented Gradient, Haar feature, Fems, LBP:Local Binary Pattern, MCT:Modified Census Transform)들이 적용될 수도 있다.The SIFT can detect unchanging features with respect to the scale, rotation, and brightness change of the object to be photographed. Even if the same region is photographed with a different attitude of the mobile robot 100 (i.e., -invariant) can be detected. Of course, various other techniques (e.g., HOG: Histogram of Oriented Gradient, Haar feature, Fems, Local Binary Pattern (LBP), Modified Census Transform (MCT)) may be applied.

학습모듈(143)은 각 위치의 획득영상을 통해 얻은 디스크립터 정보를 바탕으로, 획득영상마다 적어도 하나의 디스크립터를 소정 하위 분류규칙에 따라 복수의 군으로 분류하고, 소정 하위 대표규칙에 따라 같은 군에 포함된 디스크립터들을 각각 하위 대표 디스크립터로 변환할 수 있다.The learning module 143 classifies at least one descriptor for each acquired image into a plurality of groups according to a predetermined lower classification rule on the basis of the descriptor information obtained through the acquired image of each position, The included descriptors can be converted into lower representative descriptors, respectively.

다른 예로, 실(room)과 같이 소정 구역내의 획득영상 들로부터 모인 모든 디스크립터를 소정 하위 분류규칙에 따라 복수의 군으로 분류하여 상기 소정 하위 대표규칙에 따라 같은 군에 포함된 디스크립터들을 각각 하위 대표 디스크립터로 변환할 수도 있다. As another example, it is also possible to classify all descriptors gathered from acquired images in a predetermined area, such as a room, into a plurality of groups according to a predetermined sub-classification rule, and write descriptors included in the same group according to the predetermined lower representative rule, . ≪ / RTI >

학습모듈(143)은 이 같은 과정을 거쳐, 각 위치의 특징분포를 구할 수 있다. 각 위치 특징분포는 히스토그램 또는 n차원 벡터로 표현될 수 있다. 또 다른 예로, 학습모듈(143)은 소정 하위 분류규칙 및 소정 하위 대표규칙을 거치지 않고, 각 특징점으로부터 산출된 디스크립터를 바탕으로 미지의 현재위치를 추정할 수 있다. The learning module 143 can obtain the feature distribution of each position through this process. Each position feature distribution can be represented as a histogram or an n-dimensional vector. As another example, the learning module 143 can estimate an unknown current position based on the descriptors calculated from each feature point, without going through a predetermined lower classification rule and a predetermined lower representative rule.

또한, 위치 도약 등의 이유로 이동 로봇(100)의 현재 위치가 미지의 상태가 된 경우에, 기 저장된 디스크립터 또는 하위 대표 디스크립터 등의 데이터를 근거로 현재 위치를 추정할 수 있다. In addition, when the current position of the mobile robot 100 becomes an unknown state due to a positional jump or the like, the current position can be estimated based on data such as a previously stored descriptor or a lower representative descriptor.

이동 로봇(100)은, 미지의 현재 위치에서 영상획득부(120)를 통해 획득영상을 획득한다. 영상을 통해 천장에 위치하는 조명들, 경계(edge), 코너(corner), 얼룩(blob), 굴곡(ridge) 등의 여러가지 특징(feature)들이 확인된다.The mobile robot 100 acquires an acquired image through the image acquisition unit 120 at an unknown current position. Through the image, various features such as lights, edges, corners, blobs, ridges, etc., are found on the ceiling.

인식모듈(144)은 획득영상으로부터 특징들을 검출한다. 컴퓨터 비전 기술 분야에서 영상으로부터 특징을 검출하는 다양한 방법 및 이들 특징의 검출에 적합한 여러 특징검출기들에 대한 설명은 상기한 바와 같다.The recognition module 144 detects the features from the acquired image. Various methods of detecting features from an image in the field of computer vision technology and descriptions of various feature detectors suitable for detecting these features are as described above.

인식모듈(144)은 각 인식 특징점을 근거로 인식 디스크립터 산출단계(S31)를 거쳐 인식 디스크립터를 산출한다. 이때 인식 특징점 및 인식 디스크립터는 인식모듈(144)에서 수행하는 과정을 설명하기 위한 것으로 학습모듈(143)에서 수행하는 과정을 설명하는 용어와 구분하기 위한 것이다. 다만, 이동 로봇(100)의 외부 세계의 특징이 각각 다른 용어로 정의되는 것에 불과하다. The recognition module 144 calculates the recognition descriptor through the recognition descriptor calculating step S31 based on each recognition minutiae. Here, the recognition minutiae and the recognition descriptor are used to describe the process performed by the recognition module 144, and distinguish it from the term describing the process performed by the learning module 143. [ However, the characteristics of the external world of the mobile robot 100 are merely defined by different terms.

인식모듈(144)은 본 특징 검출을 위해 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 인식 특징점을 인식 디스크립터로 변환할 수 있다. 인식 디스크립터는 n차원 벡터(vector)로 표기될 수 있다. The recognition module 144 may convert recognition feature points into recognition descriptors using a Scale Invariant Feature Transform (SIFT) technique for detecting the feature. The recognition descriptor may be denoted by an n-dimensional vector.

SIFT는 앞서 설명한 바와 같이, 획득영상에서 코너점 등 식별이 용이한 특징점을 선택한 후, 각 특징점 주변의 일정한 구역에 속한 픽셀들의 밝기 구배(gradient)의 분포 특성(밝기 변화의 방향 및 변화의 급격한 정도)에 대해, 각 방향에 대한 변화의 급격한 정도를 각 차원에 대한 수치로 하는 n차원 벡터(vector)를 구하는 영상인식기법이다. As described above, the SIFT selects characteristic points that are easily distinguishable, such as corner points, from the acquired image, and then determines the distribution characteristics of the brightness gradient of pixels belonging to a certain region around each characteristic point ) Is an image recognition technique that obtains an n-dimensional vector (vector) in which the degree of change in each direction is a numerical value for each dimension.

인식모듈(144)은 미지의 현재 위치의 획득영상을 통해 얻은 적어도 하나의 인식 디스크립터 정보를 근거로, 소정 하위 변환규칙에 따라 비교대상이 되는 위치 정보(예를 들면, 각 위치의 특징분포)와 비교 가능한 정보(하위 인식 특징분포)로 변환한다.Based on at least one recognition descriptor information obtained through an acquired image of an unknown current position, the recognition module 144 generates position information (for example, feature distribution of each position) Into a comparable information (lower recognition feature distribution).

소정 하위 비교규칙에 따라, 각각의 위치 특징분포를 각각의 인식 특징분포와 비교하여 각각의 유사도를 산출할 수 있다. 각각의 위치에 해당하는 상기 위치 별로 유사도(확률)를 산출하고, 그 중 가장 큰 확률이 산출되는 위치를 현재위치로 결정할 수 있다.According to a predetermined lower comparison rule, each position feature distribution can be compared with each recognition feature distribution to calculate each similarity. The similarity degree (probability) is calculated for each position corresponding to each position, and the position where the greatest probability is calculated can be determined as the current position.

이와 같이, 제어부(140)는 주행구역을 구분하고 복수의 영역으로 구성된 맵을 생성하거나, 기 저장된 맵을 바탕으로 본체(110)의 현재 위치를 인식할 수 있다. In this way, the control unit 140 can distinguish the driving zone, generate a map composed of a plurality of areas, or recognize the current position of the main body 110 based on the pre-stored map.

제어부(140)는 맵이 생성되면, 생성된 맵을 통신부(190)를 통해 외부 단말기로 전송한다. 또한, 제어부(140)는 앞서 설명한 바와 같이, 외부 단말기로부터 맵이 수신되면, 저장부에 저장할 수 있다. When the map is generated, the control unit 140 transmits the generated map to the external terminal through the communication unit 190. Also, as described above, the control unit 140 can store the map in the storage unit when the map is received from the external terminal.

또한 제어부(140)는 주행 중 맵이 갱신되는 경우 갱신된 정보를 외부 단말기로 전송하여 외부 단말기와 이동 로봇(100)에 저장되는 맵이 동일하도록 한다. 외부 단말기와 이동 로봇(100)에 저장된 맵이 동일하게 유지됨에 따라 이동 단말기로부터의 청소명령에 대하여, 이동 로봇(100)이 지정된 영역을 청소할 수 있으며, 또한, 외부 단말기에 이동 로봇의 현재 위치가 표시될 수 있도록 하기 위함이다. In addition, when the map is updated during travel, the controller 140 transmits the updated information to the external terminal so that the map stored in the external terminal and the mobile robot 100 are the same. As the map stored in the external terminal and the mobile robot 100 are kept the same, the mobile robot 100 can clean the designated area with respect to the cleaning command from the mobile terminal, and the current position of the mobile robot So that it can be displayed.

이때, 맵은 청소 영역을 복수의 영역으로 구분되고, 복수의 영역을 연결하는 연결통로가 포함하며, 영역 내의 장애물에 대한 정보를 포함한다. 청소 영역에 대한 구분은, 앞서 설명한 바와 같이 구역구분모듈(142)에 의해 소영역 및 대영역으로 구분된다. At this time, the map is divided into a plurality of areas in the cleaning area, and includes a connection path connecting the plurality of areas, and includes information on the obstacles in the area. The division for the cleaning area is divided into a small area and a large area by the area classification module 142 as described above.

제어부(140)는 청소명령이 입력되면, 맵 상의 위치와 이동 로봇의 현재위치가 일치하는지 여부를 판단한다. 청소명령은 리모컨, 조작부 또는 외부 단말기로부터 입력될 수 있다. When the cleaning command is inputted, the control unit 140 determines whether or not the position on the map matches the current position of the mobile robot. The cleaning command can be input from the remote controller, the operation unit, or an external terminal.

제어부(140)는 현재 위치가 맵 상의 위치와 일치하지 않는 경우, 또는 현재 위치를 확인할 수 없는 경우, 현재 위치를 인식하여 이동 로봇(100)의 현재 위치를 복구한 한 후, 현재 위치를 바탕으로 지정영역으로 이동하도록 주행부다. If the current position does not coincide with the current position on the map or the current position can not be confirmed, the controller 140 recognizes the current position and restores the current position of the mobile robot 100, And to move to the designated area.

현재 위치가 맵 상의 위치와 일치하지 않는 경우 또는 현재 위치를 확인할 수 없는 경우, 인식모듈(144)은 영상획득부(120)로부터 입력되는 획득영상을 분석하여 맵을 바탕으로 현재 위치를 추정할 수 있다. 또한, 구역구분모듈(142) 또는 학습모듈(143) 또한, 앞서 설명한 바와 같이 현재 위치를 인식할 수 있다. If the current position does not match the position on the map or the current position can not be confirmed, the recognition module 144 analyzes the acquired image input from the image acquisition unit 120 and estimates the current position based on the map have. In addition, the zone classification module 142 or the learning module 143 may also recognize the current location as described above.

위치를 인식하여 이동 로봇(100)의 현재 위치를 복구한 후, 주행제어모듈(141)은 현재 위치로부터 지정영역으로 이동 경로를 산출하고 주행부(160)를 제어하여 지정영역으로 이동한다. After recognizing the position and restoring the current position of the mobile robot 100, the travel control module 141 calculates the travel route from the current position to the designated area and controls the travel unit 160 to move to the designated area.

외부 단말기로부터 복수의 영역 중, 적어도 하나의 영역이 선택되는 경우, 주행제어모듈(141)은 선택된 영역을 지정영역으로 설정하고, 이동 경로를 산출한다. 주행제어모듈(141)은 지정영역 이동 후, 청소를 수행한다. When at least one of the plurality of areas is selected from the external terminal, the travel control module 141 sets the selected area as the designated area and calculates the travel route. The travel control module 141 performs cleaning after moving the designated area.

한편, 복수의 영역이 지정영역으로 선택된 경우, 주행제어모듈(141)은 복수의 영역 중 우선영역이 설정되었는지 여부 또는 선택된 복수의 지정영역에 대한 청소순서가 설정되었는지 여부를 판단한 후, 지정영역으로 이동하여 청소를 수행한다. On the other hand, when a plurality of areas is selected as the designated area, the travel control module 141 determines whether or not the priority area is set among the plurality of areas, or whether or not the cleaning order for the selected plurality of designated areas is set, Move to perform cleaning.

주행제어모듈(141)은 복수의 지정영역 중 어느 하나가 우선영역으로 설정된 경우, 복수의 지정영역 중 우선영역으로 이동하여, 우선영역을 제일 먼저 청소한 후 나머지 지정영역으로 이동하여 청소하도록 한다. 또한, 지정영역에 대한 청소순서가 설정된 경우 주행제어모듈(141)은 지정된 청소순서에 따라 지정영역을 순차적으로 이동하면서 청소를 수행한다. When one of the plurality of designation areas is set as the priority area, the travel control module 141 moves to the priority area among the plurality of designation areas, cleans the priority area first, and moves to the remaining designation area to clean. In addition, when the cleaning order for the designated area is set, the travel control module 141 performs cleaning while sequentially moving the designated area according to the designated cleaning order.

또한, 주행제어모듈(141)은 맵 상의 복수의 영역에 대한 구분에 관계없이 새롭게 임의의 영역이 설정되는 경우, 설정된 지정영억으로 이동하여 청소를 수행하도록 한다. In addition, when a new arbitrary area is set irrespective of the division of a plurality of areas on the map, the travel control module 141 moves to the set designated number of miles to perform cleaning.

제어부(140)는 설정된 지정영역에 대한 청소가 완료되면, 청소기록을 저장부(150)에 저장한다. The control unit 140 stores the cleaning history in the storage unit 150 when the cleaning of the designated area is completed.

또한, 제어부(140)는 통신부(190)를 통해 이동 로봇(100)의 동작상태 또는 청소상태를 소정 주기로 외부 단말기로 전송할 수 있다. 그에 따라 외부 단말기는 수신되는 데이터를 바탕으로, 실행중인 애플리케이션의 화면상에 맵과 함게 이동 로봇의 위치를 표시하고, 또한 청소상태에 대한 정보를 출력할 수 있다. The control unit 140 may transmit the operation state or the cleaning state of the mobile robot 100 to the external terminal at predetermined intervals through the communication unit 190. Accordingly, the external terminal displays the position of the mobile robot along with the map on the screen of the application being executed based on the received data, and can also output information on the cleaning state.

도 6은 본 발명의 이동 로봇의 영역 구분 및 그에 따른 맵 생성의 예가 도시된 도이다. FIG. 6 is a diagram showing an example of area classification of the mobile robot according to the present invention and generation of the map. FIG.

도 6의 (a)에 도시된 바와 같이, 이동 로봇(100)은 저장된 맵이 존재하지 않는 경우, 월팔로윙을 통해 주행구역(X1)을 주행하면서 맵을 생성할 수 있다. 6A, if the stored map does not exist, the mobile robot 100 can generate a map while traveling through the driving zone X1 through the wall follow-up.

구역구분모듈(142)은 도 6의(b)에 도시된 바와 같이, 주행구역(X1)을 복수의 영역(A1' 내지 A9')으로 구분하여 도 6의 (c)와 같이 맵을 생성한다. 생성된 맵은 저장부(150)에 저장되고, 통신부(190)를 통해 외부 단말기로 전송된다. 구역구분모듈(142)은 전술한 바와 같이 주행구역(X1)에 대하여 소영역과 대영역을 구분하고 그에 따른 맵을 생성한다. The zone classification module 142 generates a map as shown in FIG. 6 (c) by dividing the driving zone X1 into a plurality of zones A1 'to A9', as shown in FIG. 6 (b) . The generated map is stored in the storage unit 150 and transmitted to the external terminal through the communication unit 190. The zone division module 142 divides the small area and the large area into the driving area X1 as described above, and generates a map accordingly.

외부 단말기는 애플리케이션을 실행하고, 수신된 맵을 화면에 표시한다. 이때 구분된 복수의 영역(A1 내지 A9)을 각각 상이하게 표시한다. 맵은 복수의 영역(A1 내지 A9)이 각각 상이한 색상으로 표시되거나 또는 상이한 이름이 표시된다. The external terminal executes the application and displays the received map on the screen. At this time, the plurality of divided regions A1 to A9 are displayed differently. A plurality of areas A1 to A9 are displayed in different colors or different names are displayed on the map.

이동 로봇(100)은 청소명령이 입력되면, 저장된 맵을 바탕으로, 현재 위치를 판단하고, 현재 위치와 맵 상의 위치가 일치하는 경우에는 지정된 청소를 수행하고, 현재 위치가 일치하지 않는 경우, 현재 위치를 인식하여 복구한 후 청소를 수행한다. 따라서 이동 로봇(100)은 복수의 영역(A1 내지 A9) 중 어느 위치에 있더라도 현재 위치를 판단 한 후 지정영역으로 이동하여 청소를 수행할 수 있다. When the cleaning command is input, the mobile robot 100 determines the current position based on the stored map. If the current position coincides with the position on the map, the mobile robot 100 performs the designated cleaning. If the current position does not match, Recognize and repair the location and perform cleaning. Accordingly, the mobile robot 100 can perform cleaning by moving to a designated area after determining the current position regardless of any of the plurality of areas A1 to A9.

도 1 내지 도 5를 참조하여 설명한 것과 같이, 본 발명의 일 실시 예에 따른 이동 로봇(100)은, 본체(110)를 이동시키는 주행부(160), 상기 본체(110)주변의 영상을 획득하는 영상획득부(120), 상기 영상획득부(120)가 획득하는 영상을 저장하는 저장부(150), 및, 이동 로봇(100)의 전반적인 동작을 제어하는 제어부(140)를 포함할 수 있다.1 to 5, the mobile robot 100 according to an embodiment of the present invention includes a traveling unit 160 for moving the main body 110, A storage unit 150 for storing an image acquired by the image acquisition unit 120 and a control unit 140 for controlling the overall operation of the mobile robot 100 .

상기 제어부(140)는, 상기 영상획득부(120)가 획득한 영상에서 특정 패턴이 형성된 마커(Marker)가 인식되는 경우, 상기 인식된 마커의 위치 데이터에 기초하여 가상벽(Virtual Wall)을 설정할 수 있다.The controller 140 sets a virtual wall based on the position data of the recognized marker when a marker having a specific pattern formed on the image acquired by the image acquiring unit 120 is recognized .

도 7과 도 8은 본 발명의 실시 예에 따른 마커에 관한 설명에 참조되는 도면이고, 도 9와 도 10은 본 발명의 실시 예에 따른 이동 로봇의 마커 인식에 관한 설명에 참조되는 도면이다. FIGS. 7 and 8 are views referred to the description of the marker according to the embodiment of the present invention, and FIGS. 9 and 10 are views referred to the description of the marker recognition of the mobile robot according to the embodiment of the present invention.

도 7을 참조하면, 마커(700)는 특정 패턴(710)을 포함할 수 있다. 상기 패턴(710)은 상기 마커(700)의 외부면의 일부에 인쇄되거나 부착될 수 있다.Referring to FIG. 7, the marker 700 may include a specific pattern 710. The pattern 710 may be printed or attached to a portion of the outer surface of the marker 700.

도 8을 참조하면, 사용자는 하나 이상의 마커(701, 702)를 가상벽을 설정하고자 하는 위치에 부착 또는 설치할 수 있다. 상기 가상벽은, 이동 로봇(100)이 실제의 벽처럼 인식하여, 통과 가능한 영역일지라도 이동 로봇이 이동하지 말아야 하는 경계선 또는 금지 영역으로 작용할 수 있다.Referring to FIG. 8, a user may attach or install one or more markers 701 and 702 at a position where a virtual wall is to be set. The virtual wall can act as a boundary line or a forbidden area in which the mobile robot should not move even if the mobile robot 100 recognizes it as an actual wall and is a passable area.

예를 들어, 이동 로봇(100)이 집 현관 외부로 나가는 것을 방지하기 위하여 문(800)의 좌/우측 문틀에 마커(701, 702)를 부착할 수 있다. For example, markers 701 and 702 may be attached to the left and right door frames of the door 800 to prevent the mobile robot 100 from going out of the home entrance.

도 9의 (a)는 영상획득부(120)가 획득하는 입력 영상을 예시하고, 도 9의 (b)는 제어부(140)가 입력 영상으로부터 문(800)의 좌,우측에 배치된 마커(701, 702)를 인식하는 경우를 예시한 것이다.9A illustrates an input image acquired by the image acquisition unit 120 and FIG. 9B illustrates a case where the control unit 140 receives a marker (FIG. 9A) 701, and 702) are recognized.

제어부(140)는 마커들(701, 702)을 인식하고, 인식된 마커들(701, 702)의 위치에 대응하는 영역을 가상벽으로 설정할 수 있다.The control unit 140 recognizes the markers 701 and 702 and can set an area corresponding to the position of the recognized markers 701 and 702 as a virtual wall.

상기 문(800)에 가상벽이 설정되면, 이후에 상기 문(800)이 열려 있는 경우에도 대응하는 위치에 벽이 있는 것으로 이동 로봇(100)이 인식하기 때문에 이동 로봇(100)은 열려 있는 문(800) 밖으로 이탈하지 않게 된다. When the virtual wall is set in the door 800, the mobile robot 100 recognizes that there is a wall at the corresponding position even when the door 800 is opened, So that it does not come out of the casing 800.

상기 제어부(140)는, 상기 가상벽에 대응하는 영역에서는 회피 주행하거나 월팔로윙(wall following) 주행하도록 상기 주행부(160)를 제어할 수 있다. 따라서, 이동 로봇(100)은 상기 가상벽에 대응하는 영역을 통과하지 않고, 소정 영역을 이탈하지 않으면서 이동할 수 있다.The control unit 140 may control the driving unit 160 to avoid or run on the wall corresponding to the virtual wall. Therefore, the mobile robot 100 can move without passing through the area corresponding to the virtual wall, but without leaving the predetermined area.

한편, 상기 특정 패턴(710)은 가상벽을 설정하는데 사용하는 기하학적 패턴으로, 원, 사각형 등의 배경과 구분되는 기하학적 도형일 수 있다.The specific pattern 710 may be a geometric pattern used to set a virtual wall, and may be a geometric pattern that is distinguished from a background such as a circle, a square, and the like.

바람직하게는 도 7과 같이 상기 특정 패턴(710)은 비대칭 형상을 가짐으로써 상대적으로 더 많은 코너(corner) 등 특징점을 포함할 수 있고, 인식률을 더 향상시킬 수 있다.Preferably, as shown in FIG. 7, the specific pattern 710 has an asymmetric shape, so that it can include relatively more feature points such as a corner, and the recognition rate can be further improved.

한편, 이동 로봇(100)의 저장부(150)에는 가상벽에 대응하여 기설정된 패턴이 저장될 수 있고, 제어부(140)는, 기설정된 패턴이 인식되면 가상벽 설정을 위한 프로세스를 진행할 수 있다.Meanwhile, the preset pattern corresponding to the virtual wall may be stored in the storage unit 150 of the mobile robot 100, and when the preset pattern is recognized, the control unit 140 may proceed to the process for setting the virtual wall .

상기 제어부(140)는, 주행 중에 영상획득부(120)가 획득한 영상에서 가상벽 설정을 위한 특정 패턴을 포함하는 마커가 인식되면, 마커의 위치와 저장부(150)에 저장된 맵(map) 간의 위치 관계를 추출하고, 상기 마커의 위치에 기초하여 상기 맵(map)에 가상벽을 설정할 수 있다. When the marker including the specific pattern for virtual wall setting is recognized in the image acquired by the image acquisition unit 120 during driving, the controller 140 controls the position of the marker and the map stored in the storage unit 150, And a virtual wall can be set in the map based on the position of the marker.

상기 제어부(140)는, 상기 설정된 가상벽에 대한 정보를 상기 저장부(150)에 저장되는 맵(map)에 등록하여, 상기 맵에 가상벽을 연계시켜 저장하고 관리할 수 있다.The controller 140 may register information on the set virtual wall in a map stored in the storage unit 150 and store and manage the virtual wall in association with the map.

제어부(140)는 영상획득부(120)가 획득한 영상으로부터 마커(700)의 패턴(710)을 추출하고, 상기 추출된 패턴(710)이 가상벽 설정용으로 기설정된 패턴인 경우에, 마커의 위치정보를 판별할 수 있다.The control unit 140 extracts a pattern 710 of the marker 700 from the image acquired by the image obtaining unit 120. When the extracted pattern 710 is a predetermined pattern for virtual wall setting, Can be determined.

상술한 인식모듈(144)은 영상획득부(120)로부터 입력되는 획득영상을 분석하여 맵을 바탕으로 이동 로봇(100)의 현재 위치를 추정할 수 있다. 또한, 구역구분모듈(142) 또는 학습모듈(143)도, 앞서 설명한 바와 같이 현재 위치를 인식할 수 있다. The recognition module 144 may analyze the acquired image input from the image acquisition unit 120 and estimate the current position of the mobile robot 100 based on the map. Also, the zone classification module 142 or the learning module 143 can recognize the current position as described above.

이동 로봇(100)은 인식되는 패턴(710)의 크기, 각도에 기초하여, 이동 로봇(100)을 기준으로 마커(700)가 위치하는 방향과 거리를 판별할 수 있다.The mobile robot 100 can determine the direction and the distance in which the marker 700 is positioned with respect to the mobile robot 100 based on the size and angle of the pattern 710 to be recognized.

또한, 이동 로봇(100)은 자신의 현재 위치, 마커(700)가 위치하는 방향과 거리를 이용하여 마커(700)의 위치정보를 판별할 수 있다.In addition, the mobile robot 100 can determine the position information of the marker 700 by using its current position, the direction and the distance in which the marker 700 is positioned.

바람직하게는, 2 이상의 마커(701, 702)를 이용하는 것이 마커(701, 702)의 위치정보 판별 및 가상벽 설정에 더 효과적이다.Preferably, the use of two or more markers 701 and 702 is more effective in determining the position information of the markers 701 and 702 and setting the virtual walls.

2 이상의 마커들(701, 702)은 상호 이격되어 배치될 수 있고, 예를 들어, 도 8과 같이 가상벽으로 설정하고자 하는 문(800)의 좌,우측 문틀에 배치될 수 있다. The two or more markers 701 and 702 may be disposed apart from each other and may be disposed, for example, in the left and right door frames of the door 800 to be set as a virtual wall as shown in FIG.

좌,우측 문틀에 배치된 마커들(701, 702)에 포함되는 패턴이 인식되면, 문(800)의 크기를 추정할 수 있다. 예를 들어, 상기 제어부(140)는 공지된 호모그래피(Homography) 기반의 영상 처리 기술을 이용하여 문(800)의 크기를 추정할 수 있다.When the patterns included in the markers 701 and 702 arranged in the left and right door frames are recognized, the size of the door 800 can be estimated. For example, the controller 140 may estimate the size of the door 800 using a known homography-based image processing technique.

영상획득부(120)의 카메라에 의해 획득되는 영상은 통상적으로 2차원의 평면 영상이지만, 2차원 영상에서 특징점을 찾아 3차원의 특징점으로 변환할 수 있다.The image obtained by the camera of the image obtaining unit 120 is usually a two-dimensional plane image, but the feature point can be found in the two-dimensional image and converted into three-dimensional feature points.

획득되는 2차원의 평면 영상에 포함되는 특징점은 DLT(Direct Linear Transformation) 알고리즘(algorithm) 등 공지된 방법으로 구해지는 호모그래피에 의해 3차원상의 특징점으로 변환될 수 있다. The feature points included in the obtained two-dimensional plane image can be converted into three-dimensional feature points by homography obtained by a known method such as a DLT (Direct Linear Transformation) algorithm.

제어부(140)는 상호 이격되어 배치되는 2 이상의 마커들(701, 702)의 위치정보를 획득할 수 있다. 상기 위치정보는 이동 로봇(150)으로부터 상기 마커들(701, 702)까지의 실제 거리가 고려된 3차원 공간 상에서의 마커들(701, 702)의 위치를 반영할 수 있다. The controller 140 may obtain positional information of two or more markers 701 and 702 spaced apart from each other. The positional information may reflect the positions of the markers 701 and 702 on the three-dimensional space in which the actual distance from the mobile robot 150 to the markers 701 and 702 is considered.

한편, 상기 제어부(140)는, 2개 이상의 마커(701, 702)가 인식되는 경우, 상기 인식된 마커들(701, 702)을 연결하는 가상선을 기준으로 하여 상기 가상벽을 설정할 수 있다.Meanwhile, when two or more markers 701 and 702 are recognized, the control unit 140 can set the virtual wall based on a virtual line connecting the recognized markers 701 and 702. [

예를 들어, 상기 제어부(140)는 인식되는 마커(701, 702)들 사이를 가상벽으로 설정할 수 있고, 좌측의 마커(701)의 좌표를 가상벽의 시작 좌표로 설정하고, 우측의 마커(702)의 좌표를 가상벽의 종료 좌표로 설정할 수 있다. 이에 따라, 사용자가 마커들(701, 702)을 부착한 의도에 가장 부합하게 가상벽을 설정할 수 있다.For example, the control unit 140 may set virtual walls between the recognized markers 701 and 702, set the coordinates of the left marker 701 to the start coordinates of the virtual wall, 702 can be set as the end coordinates of the virtual wall. Accordingly, the virtual wall can be set so as to best match the intention of the user to attach the markers 701 and 702.

또한, 상기 제어부(140)는, 하나의 마커가 인식되는 경우, 상기 인식된 하나의 마커의 위치를 중심으로 하는 소정 영역을 상기 가상벽을 설정할 수 있다. In addition, when one marker is recognized, the controller 140 may set the virtual wall to a predetermined area centered on the position of the recognized one marker.

예를 들어, 상기 제어부(140)는, 상기 인식된 하나의 마커의 위치 좌표 가상벽의 중점 좌표로 설정하고, 중점 좌표로부터 소정 거리 이내의 영역을 상기 가상벽으로 설정할 수 있다.For example, the controller 140 may set the coordinates of the recognized coordinates of the marker of one marker as the coordinates of the center of the virtual wall, and may set an area of the virtual wall within a predetermined distance from the coordinates of the center of the marker.

또는, 상기 제어부(140)는, 하나의 마커가 인식되는 경우, 상기 인식된 하나의 마커의 위치를 시작점으로 하는 소정 영역을 상기 가상벽을 설정할 수 있다. Alternatively, when one marker is recognized, the control unit 140 may set the virtual wall to a predetermined area starting from the position of the recognized one marker.

도 10의 (a)는 영상획득부(120)가 획득하는 입력 영상을 예시하고, 도 10의 (b)는 제어부(140)가 입력 영상으로부터 문(1000)의 주변에 배치된 하나의 마커(703)를 인식하는 경우를 예시한 것이다.10A illustrates an input image acquired by the image acquisition unit 120 and FIG. 10B illustrates a case where a control unit 140 receives a marker (FIG. 10A) 703) is recognized.

실시예에 따라서는 복수의 마커를 이용하지 않고 하나의 마커(703)만으로 가상벽으로 설정하도록 구성될 수도 있다.It may be configured to set a virtual wall with only one marker 703 without using a plurality of markers according to an embodiment.

이 경우에, 제어부(140)는, 상기 인식된 하나의 마커(703)의 위치를 중심으로 하는 소정 영역을 상기 가상벽을 설정하거나, 상기 인식된 하나의 마커(703)의 위치를 시작점으로 하는 소정 영역을 상기 가상벽을 설정할 수 있다. In this case, the control unit 140 sets the virtual wall around a position of the recognized one marker 703 as a center, or sets a position of the recognized one marker 703 as a starting point The virtual wall can be set to a predetermined area.

또는, 상기 인식된 하나의 마커(703)는 복수개의 마커 중 하나일 수 있다. Alternatively, the recognized one marker 703 may be one of a plurality of markers.

상기 제어부(140)는, 하나의 마커(703)가 인식되는 경우, 상기 인식된 하나의 마커(703)의 위치를 시작점으로 하는 소정 영역을 상기 가상벽을 설정할 수 있다. When one marker 703 is recognized, the control unit 140 can set the virtual wall to a predetermined area starting from the position of the recognized one marker 703. FIG.

이 경우에, 상기 마커(703)에 포함되는 패턴은 비대칭 형상으로 형성되는 것이 더욱 바람직하다. 상기 패턴이 비대칭으로 형성되면, 좌우 또는 상하 방향으로 형상이 다르므로, 이를 방향성 정보로 이용할 수 있다.In this case, it is more preferable that the pattern included in the marker 703 is formed in an asymmetric shape. When the pattern is formed asymmetrically, since the shapes are different in the left and right or up and down directions, it can be used as the direction information.

도 7에 예시된 패턴(710)을 예로 들면, 패턴(710)은 그 내부 모양에서 좌측 상단 코너와 나머지 코너들이 상이하다. 따라서, 상기 좌측 코너에 대응하여, 상기 마커(700)의 좌측으로 가상벽을 설정할 수 있다. 또는, 다른 방향으로 가상벽을 설정할 수도 있을 것이다. Taking the pattern 710 illustrated in FIG. 7 as an example, the pattern 710 differs in its inner shape from the upper left corner and the remaining corners. Accordingly, the virtual wall can be set to the left side of the marker 700 corresponding to the left corner. Alternatively, a virtual wall may be set in a different direction.

한편, 영상획득부(120)는 상방이나 전방을 향하도록 설치되는 적어도 하나의 카메라를 구비할 수 있다. 도 2는 일반적인 예로서, 하나의 카메라(120)가 상방을 향하도록 설치되었다. Meanwhile, the image acquiring unit 120 may include at least one camera installed upward or forward. 2 shows a general example in which one camera 120 is installed facing upward.

이 경우에, 주변의 넓은 영역을 촬영할 수 있도록, 상기 카메라는 화각이 넓은 렌즈를 포함할 수 있다. 화각이 넓은 광각 렌즈를 이용하는 경우에, 그 성능에 따라서 일반 렌즈를 사용하는 경우보다 촬영 거리가 짧을 수 있다.In this case, the camera may include a lens having a wide angle of view so that a wide area around the camera can be photographed. In the case of using a wide-angle lens having a wide angle of view, the shooting distance may be shorter than the case of using a general lens depending on its performance.

따라서, 위치 인식에 사용되는 카메라를 공용으로 사용하면서도 마커의 인식률을 높이기 위하여 마커 및 패턴의 시인성을 향상시킬 필요가 있다.Therefore, it is necessary to improve the visibility of the marker and the pattern in order to increase the recognition rate of the marker while commonly using the camera used for position recognition.

도 7을 참조하면, 마커(700)는, 유색으로 형성되는 특정 패턴(710)과 상기 특정 패턴의 주위에 배치되는 백색 배경 영역(720, 730)을 포함할 수 있다.Referring to FIG. 7, the marker 700 may include a specific pattern 710 formed in a color and a white background area 720 and 730 disposed around the specific pattern.

패턴의 효율적인 인식을 위하여 배경 색상과 대비되는 색상으로 패턴을 구성할 수 있다. 실시예에 따라서는 외부의 백색 배경 영역(730)의 크기(c*d)보다 작은 소정 크기(a*b)를 가지는 영역 전체를 유색의 패턴으로 형성할 수 있다.For efficient recognition of the pattern, the pattern can be composed of a color contrasting with the background color. The entire area having a predetermined size (a * b) smaller than the size (c * d) of the external white background area 730 may be formed in a colored pattern.

더욱 바람직하게는, 상기 유색으로 형성되는 패턴(710)의 내부(720)와 외부(730)를 각각 백색 배경으로 처리함으로써, 패턴(710)의 인식이 더 용이해 질 수 있다.More preferably, the pattern 710 can be recognized more easily by treating the inside 720 and the outside 730 of the colored pattern 710 with a white background, respectively.

또는, 상기 마커는 소정 부피를 가지는 입체 도형일 수 있다.Alternatively, the marker may be a solid figure having a predetermined volume.

즉, 상기 마커는, 다각형 또는 원형의 평면 도형이거나 소정 부피를 가지는 입체 도형일 수 있다. 상기 마커 자체가 특정 형상을 가짐으로써, 마커의 인식률을 향상시킬 수 있다.That is, the marker may be a polygonal or circular plane figure or a three-dimensional figure having a predetermined volume. Since the marker itself has a specific shape, the recognition rate of the marker can be improved.

도 11과 도 12는 본 발명의 실시 예에 따른 마커에 관한 설명에 참조되는 도면이다. 도 11은 평면 도형으로 구성되는 마커들을 예시한 것이고, 도 12는 입체 도형으로 구성되는 마커들을 예시한 것이다.11 and 12 are views referred to the description of the marker according to the embodiment of the present invention. FIG. 11 illustrates markers constructed in a plan view, and FIG. 12 illustrates markers constructed in a plan view.

도 11의 (a)를 참조하면, 삼각형의 마커(1110) 내부에 패턴(1111)이 인쇄 또는 부착될 수 있다.Referring to FIG. 11A, a pattern 1111 may be printed or attached inside the marker 1110 of a triangle.

또는, 도 11의 (b)와 같이 오각형의 마커(1120) 내부에 패턴(1121)이 형성되거나 도 11의 (c)와 같이 원형의 마커(1130) 내부에 패턴(1131)이 형성될 수 있다.Alternatively, a pattern 1121 may be formed inside the pentagonal marker 1120 as shown in FIG. 11 (b), or a pattern 1131 may be formed inside the circular marker 1130 as shown in FIG. 11 (c) .

또는 타원형의 마커 또는 도 7에서 예시한 사각형의 마커를 이용할 수도 있다.Or an elliptical marker or the square marker illustrated in Fig. 7 may be used.

도 12의 (a)는 직육면체의 입체 도형으로 형성되는 마커(1210)의 적어도 일면에 형성되는 패턴(1211)을 예시한 것이고, 도 12의 (b)는 원기둥의 입체 도형으로 형성되는 마커(1220)의 외부면에 형성되는 패턴(1221)을 예시한 것이다.12 (a) illustrates a pattern 1211 formed on at least one surface of a marker 1210 formed in a cubic shape of a rectangular parallelepiped. FIG. 12 (b) illustrates a marker 1220 And a pattern 1221 formed on the outer surface of the substrate 1210. [

도 11과 도 12에서 예시된 마커들과 같이 마커가 특정 형상을 가지고 이동 로봇이 마커의 형상 자체를 인식하게 함으로써 인식률을 높일 수 있다.As in the case of the markers illustrated in FIGS. 11 and 12, the marker may have a specific shape and the mobile robot may recognize the shape of the marker itself, thereby increasing the recognition rate.

도 13은 본 발명의 일 실시 예에 따른 이동 로봇의 제어 방법을 도시한 순서도이다.13 is a flowchart illustrating a method of controlling a mobile robot according to an embodiment of the present invention.

도 13을 참조하면, 먼저, 이동 로봇(100)은 명령 또는 설정에 따라서 이동하며 청소를 수행할 수 있고(S1310), 이동 중에 영상획득부(120)는 본체(110) 주변의 영상을 획득할 수 있다(S1320).Referring to FIG. 13, first, the mobile robot 100 moves according to an instruction or a setting and performs cleaning (S1310). During movement, the image acquisition unit 120 acquires an image around the main body 110 (S1320).

상기 영상획득부(120)는 획득된 영상의 밝기 조절, 노이즈(noise) 제거, 색상(color) 보정 등의 영상 처리 프로세스를 진행할 수 있다.The image obtaining unit 120 may perform image processing such as brightness adjustment, noise removal, and color correction of the obtained image.

한편, 제어부(140)는 획득한 영상에서 가상벽 설정용으로 기설정된 특정 패턴이 형성된 마커(Marker)를 인식할 수 있다(S1330).In operation S1330, the controller 140 may recognize a marker having a predetermined pattern for virtual wall setting in the acquired image.

제어부(140)는 인식된 마커에 기초하여, 마커 및 패턴의 크기, 형상, 마커들간의 거리, 마커와 이동 로봇(100)의 거리에 기초하여 마커의 위치정보를 산출할 수 있다. Based on the recognized marker, the control unit 140 can calculate the positional information of the marker based on the size and shape of the marker and the pattern, the distance between the markers, and the distance between the marker and the mobile robot 100.

상기 마커 및/패턴의 인식에 따라, 제어부(140)는 마커가 인식된 위치에 대응하는 영역을 가상벽(Virtual Wall)으로 설정할 수 있다(S1340).According to the recognition of the marker and / pattern, the controller 140 may set an area corresponding to the recognized position of the marker as a virtual wall (S1340).

상기 제어부(140)는 상기 인식된 마커의 위치 데이터에 기초하여 가상벽(Virtual Wall)을 설정할 수 있다. 실시예에 따라서는, 상기 제어부(140)는, 2개 이상의 마커가 인식되는 경우, 상기 인식된 마커들을 연결하는 가상선을 기준으로 하여 상기 가상벽을 설정하거나, 하나의 마커가 인식되는 경우, 상기 인식된 하나의 마커의 위치를 중심으로 하는 소정 영역을 상기 가상벽을 설정할 수 있다.The controller 140 may set a virtual wall based on the position data of the recognized marker. According to an embodiment, when two or more markers are recognized, the controller 140 sets the virtual wall based on a virtual line connecting the recognized markers, or when one marker is recognized, The virtual wall can be set to a predetermined area centered on the position of the recognized one marker.

또한, 상기 제어부(140)는 상기 설정된 가상벽에 대한 정보를 저장부(150)에 저장되는 맵(map)에 등록할 수 있다(S1350).In addition, the controller 140 may register the set virtual wall information in a map stored in the storage unit 150 (S1350).

이후, 상기 제어부(140)는, 상기 가상벽에 대응하는 영역에서는 회피 주행하거나 벽을 따라 주행하는 월팔로윙(wall following) 주행하도록 제어할 수 있다(S1360).Thereafter, the control unit 140 may control to avoid a wall corresponding to the virtual wall or to run along a wall following the wall (S1360).

본 발명은 이동 로봇의 영역을 구분해주는 가상벽(Virtual Wall)을 마커를 이용하여 설정하는 방법에 관한 것이다.The present invention relates to a method for setting a virtual wall for identifying a region of a mobile robot using a marker.

본 발명은 마커를 이용하여 저비용으로 가상벽을 설정함으로써, 신생아가 자는 방 등 이동 로봇이 들어가지 않았으면 하는 영역, 집 현관 등 이동 로봇이 나가지 않았으면 하는 영역 등 사용자가 금지 영역으로 설정하고자 하는 영역을 구분해줄 수 있다.In the present invention, by setting a virtual wall at low cost by using a marker, it is possible to set a virtual wall such as an area where a mobile robot should not enter such as a room where a newborn baby sleeps, an area where the mobile robot should not go, You can divide the area.

이에 따라, 이동 로봇에게는 위험물이 많은 위험 지역의 출입을 막고 구속 상황을 줄일 수 있는 장점이 있고, 신생아 방 등 이동 로봇 자체가 유해한 공간의 이동 로봇 출입을 막을 수 있다. Accordingly, there is an advantage in that the mobile robot can prevent entry and exit of dangerous areas with many dangerous substances and reduce the restraint situation, and the mobile robot itself such as the newborn room can prevent the mobile robot from accessing the harmful space.

또한, 인식된 가상벽은 마커를 제거하더라도 맵이 유지되는 한 가상벽으로 유지할 수 있다. 즉, 별도의 마커를 구비할 필요없이, 소수의 동일한 마커로 가정 내 복수의 장소에 가상벽을 생성할 수 있다.In addition, the recognized virtual wall can be maintained as a virtual wall as long as the map is maintained even if the marker is removed. That is, it is possible to create a virtual wall at a plurality of places in a home with a small number of the same markers, without having to include a separate marker.

따라서, 본 발명의 실시 예들 중 적어도 하나에 의하면, 별도의 구성 추가 없이도 가상벽을 설정하고 설정된 가상벽에 기초하여 주행할 수 있는 이동 로봇 및 그 제어방법을 제공할 수 있다.Therefore, according to at least one of the embodiments of the present invention, it is possible to provide a mobile robot and its control method which can set a virtual wall and travel based on a set virtual wall without adding any additional configuration.

또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 저비용의 마커를 이용하여 가상벽을 설정할 수 있다.Further, according to at least one of the embodiments of the present invention, a virtual wall can be set using a low-cost marker.

또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 설정된 가상벽에 기초하여 주행함으로써, 이동 로봇 자체의 안정성 및 사용자의 편의성을 제고하고, 운전 효율, 청소 효율을 향상시킬 수 있다.Further, according to at least one of the embodiments of the present invention, traveling based on the set virtual wall improves the stability of the mobile robot itself and the user's convenience, and improves the operation efficiency and the cleaning efficiency.

본 발명에 따른 이동 로봇은 상기한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The mobile robot according to the present invention is not limited to the configuration and method of the embodiments described above, but the embodiments may be modified such that all or some of the embodiments are selectively combined .

한편, 본 발명의 실시 예에 따른 이동 로봇의 제어 방법은, 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the control method of the mobile robot according to the embodiment of the present invention can be implemented as a code that can be read by a processor on a recording medium readable by the processor. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium that can be read by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet . In addition, the processor-readable recording medium may be distributed over network-connected computer systems so that code readable by the processor in a distributed fashion can be stored and executed.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.

100: 이동 로봇 110: 본체
120: 영상획득부 140: 제어부
141: 주행제어모듈 142: 구역구분모듈
143: 학습모듈 144: 인식모듈
150: 저장부 160: 주행부
50: 외부 단말기
100: mobile robot 110: main body
120: Image acquisition unit 140:
141: travel control module 142: zone division module
143: learning module 144: recognition module
150: storage unit 160:
50: External terminal

Claims (14)

본체를 이동시키는 주행부;
상기 본체 주변의 영상을 획득하는 영상획득부;
상기 영상획득부가 획득하는 영상을 저장하는 저장부; 및
상기 영상획득부가 획득한 영상에서 특정 패턴이 형성된 마커(Marker)가 인식되는 경우, 상기 인식된 마커의 위치 데이터에 기초하여 가상벽(Virtual Wall)을 설정하는 제어부;를 포함하는 이동 로봇.
A traveling part for moving the main body;
An image acquiring unit acquiring an image around the main body;
A storage unit for storing an image acquired by the image acquisition unit; And
And a controller configured to set a virtual wall based on the position data of the recognized marker when a marker having a specific pattern is recognized in the image acquired by the image acquisition unit.
제1항에 있어서,
상기 제어부는,
상기 설정된 가상벽에 대한 정보를 상기 저장부에 저장되는 맵(map)에 등록하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein,
And registers information on the set virtual wall in a map stored in the storage unit.
제1항에 있어서,
상기 제어부는,
상기 가상벽에 대응하는 영역에서는 회피 주행하거나 월팔로윙(wall following) 주행하도록 상기 주행부를 제어하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein,
And controls the traveling section so as to avoid or run on a wall following in the area corresponding to the virtual wall.
제1항에 있어서,
상기 제어부는,
2개 이상의 마커가 인식되는 경우, 상기 인식된 마커들을 연결하는 가상선을 기준으로 하여 상기 가상벽을 설정하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein,
And when the two or more markers are recognized, sets the virtual wall based on a virtual line connecting the recognized markers.
제1항에 있어서,
상기 제어부는,
하나의 마커가 인식되는 경우, 상기 인식된 하나의 마커의 위치를 중심으로 하는 소정 영역을 상기 가상벽을 설정하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein,
And when the one marker is recognized, sets the virtual wall to a predetermined area centered on the position of the recognized one marker.
제1항에 있어서,
상기 마커는, 유색으로 형성되는 상기 특정 패턴과 상기 특정 패턴의 주위에 배치되는 백색 배경 영역을 포함하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein the marker includes a specific pattern formed in a color and a white background area arranged around the specific pattern.
제1항에 있어서,
상기 마커는, 다각형 또는 원형의 평면 도형이거나 소정 부피를 가지는 입체 도형인 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein the marker is a polygonal or circular plane figure or a three-dimensional figure having a predetermined volume.
이동 중 영상을 획득하는 단계;
상기 획득한 영상에서 특정 패턴이 형성된 마커(Marker)를 인식하는 단계; 및,
상기 인식된 마커의 위치 데이터에 기초하여 가상벽(Virtual Wall)을 설정하는 단계;를 포함하는 이동 로봇의 제어방법.
Acquiring a moving image;
Recognizing a marker in which a specific pattern is formed in the acquired image; And
And setting a virtual wall based on positional data of the recognized marker.
제8항에 있어서,
상기 설정된 가상벽에 대한 정보를 맵(map)에 저장하는 단계;를 더 포함하는 것을 특징으로 하는 이동 로봇의 제어방법.
9. The method of claim 8,
And storing information on the set virtual wall in a map. ≪ Desc / Clms Page number 20 >
제8항에 있어서,
상기 가상벽에 대응하는 영역에서는 회피 주행하거나 월팔로윙(wall following) 주행하는 단계;를 더 포함하는 이동 로봇의 제어방법.
9. The method of claim 8,
Further comprising the steps of: avoiding or traveling following a virtual wall in an area corresponding to the virtual wall.
제8항에 있어서,
상기 가상벽 설정 단계는,
2개 이상의 마커가 인식되는 경우, 상기 인식된 마커들을 연결하는 가상선을 기준으로 하여 상기 가상벽을 설정하는 것을 특징으로 하는 이동 로봇의 제어방법.
9. The method of claim 8,
Wherein the virtual wall setting step comprises:
Wherein the virtual wall is set based on a virtual line connecting the recognized markers when two or more markers are recognized.
제8항에 있어서,
상기 가상벽 설정 단계는,
하나의 마커가 인식되는 경우, 상기 인식된 하나의 마커의 위치를 중심으로 하는 소정 영역을 상기 가상벽을 설정하는 것을 특징으로 하는 이동 로봇의 제어방법.
9. The method of claim 8,
Wherein the virtual wall setting step comprises:
And when the one marker is recognized, sets the virtual wall to a predetermined area centered on the position of the recognized one marker.
제8항에 있어서,
상기 마커는, 유색으로 형성되는 상기 특정 패턴과 상기 특정 패턴의 주위에 배치되는 백색 배경 영역을 포함하는 것을 특징으로 하는 이동 로봇의 제어방법.
9. The method of claim 8,
Wherein the marker includes the specific pattern formed in color and a white background area arranged around the specific pattern.
제8항에 있어서,
상기 마커는, 다각형 또는 원형의 평면 도형이거나 소정 부피를 가지는 입체 도형인 것을 특징으로 하는 이동 로봇의 제어방법.
9. The method of claim 8,
Wherein the marker is a polygonal or circular plane figure or a three-dimensional figure having a predetermined volume.
KR1020160127781A 2016-10-04 2016-10-04 Moving robot and control method thereof KR20180037516A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160127781A KR20180037516A (en) 2016-10-04 2016-10-04 Moving robot and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160127781A KR20180037516A (en) 2016-10-04 2016-10-04 Moving robot and control method thereof

Publications (1)

Publication Number Publication Date
KR20180037516A true KR20180037516A (en) 2018-04-12

Family

ID=61969140

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160127781A KR20180037516A (en) 2016-10-04 2016-10-04 Moving robot and control method thereof

Country Status (1)

Country Link
KR (1) KR20180037516A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019204336A (en) * 2018-05-24 2019-11-28 東芝ライフスタイル株式会社 Autonomous traveling body
CN117301080A (en) * 2023-11-27 2023-12-29 广东汇博机器人技术有限公司 Automatic control system and method for industrial robot

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019204336A (en) * 2018-05-24 2019-11-28 東芝ライフスタイル株式会社 Autonomous traveling body
CN117301080A (en) * 2023-11-27 2023-12-29 广东汇博机器人技术有限公司 Automatic control system and method for industrial robot
CN117301080B (en) * 2023-11-27 2024-01-30 广东汇博机器人技术有限公司 Automatic control system and method for industrial robot

Similar Documents

Publication Publication Date Title
US10717193B2 (en) Artificial intelligence moving robot and control method thereof
EP3505310B1 (en) Mobile robot and control method therefor
US10750920B2 (en) Control method of robot system including plurality of moving robots
EP3575046B1 (en) Mobile robot and method for controlling same
KR102000067B1 (en) Moving Robot
US9798957B2 (en) Robot cleaner and control method thereof
KR20180021595A (en) Moving Robot and controlling method
KR20180023301A (en) Moving robot and control method thereof
KR20180023302A (en) Moving robot and control method thereof
KR20180098040A (en) Moving robot and control method thereof
KR20180023303A (en) Moving robot and control method thereof
KR20180074141A (en) Moving robot
KR20180090565A (en) Moving Robot and controlling method for thereof
KR101922953B1 (en) Moving Robot and controlling method
KR20180037516A (en) Moving robot and control method thereof
KR102478283B1 (en) Moving Robot and controlling method
KR20200091110A (en) Moving Robot and controlling method thereof