KR102070067B1 - Artificial intelligence Moving Robot and controlling method - Google Patents

Artificial intelligence Moving Robot and controlling method Download PDF

Info

Publication number
KR102070067B1
KR102070067B1 KR1020170139495A KR20170139495A KR102070067B1 KR 102070067 B1 KR102070067 B1 KR 102070067B1 KR 1020170139495 A KR1020170139495 A KR 1020170139495A KR 20170139495 A KR20170139495 A KR 20170139495A KR 102070067 B1 KR102070067 B1 KR 102070067B1
Authority
KR
South Korea
Prior art keywords
obstacle
image
image data
unit
mobile robot
Prior art date
Application number
KR1020170139495A
Other languages
Korean (ko)
Other versions
KR20190046201A (en
Inventor
김정환
이용재
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020170139495A priority Critical patent/KR102070067B1/en
Priority to AU2018356126A priority patent/AU2018356126B2/en
Priority to US16/759,118 priority patent/US11586211B2/en
Priority to PCT/KR2018/012688 priority patent/WO2019083291A1/en
Priority to EP18870615.4A priority patent/EP3702111B1/en
Priority to CN201880081516.XA priority patent/CN111479662B/en
Publication of KR20190046201A publication Critical patent/KR20190046201A/en
Application granted granted Critical
Publication of KR102070067B1 publication Critical patent/KR102070067B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명의 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법은 영상획득부를 통해 주행중 영상을 촬영하여 촬영되는 복수의 영상데이터를 저장하고, 장애물 감지유닛에 의해 장애물이 소정거리 내에 위치하는 것으로 판단되는 소정 시점에 대응모션을 시작하되, 상기 소정 시점 이전에 획득된 상기 영상데이터를 바탕으로 판단되는 상기 장애물에 따라 상기 대응모션을 결정하는 제어부를 포함하여, 장애물이 소정거리 내에 위치한 시점에서 그 이전에 촬영된 영상을 통해 장애물을 판단하여, 장애물이 소정거리 내에 위치하는 시점에서 즉시 대응하는 동작을 수행할 수 있고, 상이한 복수의 장애물에 대하여 장애물 감지 시 동일한 감지신호가 입력되더라도 영상을 통해 장애물을 판단하여 장애물에 따라 상이한 동작이 수행되도록 하여 다양한 장애물에 대응할 수 있으므로 영상을 이용한 장애물 학습을 통해 장애물을 효과적으로 회피할 수 있고 장애물의 종류에 따른 동작을 수행할 수 있다. The artificial intelligence mobile robot learning the obstacles of the present invention and a control method thereof store a plurality of image data photographed by shooting an image while driving through an image acquisition unit, and the obstacle detection unit determines that the obstacle is located within a predetermined distance. The control unit starts a corresponding motion at a predetermined time point, and includes a controller configured to determine the corresponding motion according to the obstacle determined based on the image data acquired before the predetermined time point. The obstacle may be determined based on the captured image, and the corresponding operation may be immediately performed when the obstacle is located within a predetermined distance, and the obstacle may be determined through the image even when the same detection signal is input when detecting the obstacle with respect to a plurality of different obstacles. To perform different actions according to obstacles It can cope with obstacles to learning through obstacles using video effectively avoid obstacles and can perform the operation according to the type of obstacles.

Description

장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법{Artificial intelligence Moving Robot and controlling method}Artificial intelligence mobile robot and controlling method for learning obstacles {Artificial intelligence Moving Robot and controlling method}

본 발명은 이동 로봇 및 그 제어방법에 관한 것으로, 청소영역을 주행하며 청소를 수행하는 이동 로봇 및 그 제어방법에 관한 것이다. The present invention relates to a mobile robot and a control method thereof, and more particularly, to a mobile robot and a method of controlling the same.

일반적으로 이동 로봇은 사용자의 조작 없이도 청소하고자 하는 구역 내를 스스로 주행하면서 바닥면으로부터 먼지 등의 이물질을 흡입하여 자동으로 청소하는 기기이다.In general, a mobile robot is a device for automatically cleaning by inhaling foreign substances such as dust from the floor surface while driving by itself in the area to be cleaned without the user's operation.

이러한 이동 로봇은 청소구역 내에 설치된 가구나 사무용품, 벽 등의 장애물까지의 거리를 감지하고, 장애물 회피 동작을 수행한다. The mobile robot detects the distance to obstacles such as furniture, office supplies, walls, etc. installed in the cleaning area, and performs an obstacle avoidance operation.

이동 로봇은, 장애물을 감지하기 위한 수단으로, 적외선, 레이저 등의 장애물 감지수단을 구비하고 있다. 이동로봇은 적외선 또는 레이저 등의 센서에 의한 감지신호를 바탕으로, 소정 거리 내의 장애물을 감지하여 장애물을 회피한다. The mobile robot is a means for detecting an obstacle, and includes an obstacle detection means such as an infrared ray or a laser. The mobile robot avoids obstacles by detecting an obstacle within a predetermined distance based on a detection signal by a sensor such as an infrared ray or a laser.

장애물을 감지 시 즉시 경로를 변경하는 경우 해당 영역에 대한 청소를 수행할 수 없으므로, 최대한 장애물에 근접하거나 또는 충돌한 후에 경로를 변경하게 된다. If the path is changed immediately when an obstacle is detected, the area cannot be cleaned, so the path is changed after approaching or colliding with the obstacle as much as possible.

그러나, 청소를 위해 접근하여 장애물에 충돌하는 경우, 이동 로봇의 충돌로 인하여 대상이 파손되는 등의 문제점이 발생할 수 있다. 예를 들어 탁자위의 화분이 떨어지거나 장애물이 파손될 수 있고, 장애물의 위치가 변경되는 등의 문제가 발생할 수 있다. However, in the case of approaching and cleaning an obstacle to the cleaning, problems such as damage to the object due to the collision of the mobile robot may occur. For example, there may be a problem that the flower pot on the table may fall or an obstacle may be broken, and the position of the obstacle may be changed.

또한, 이동 로봇이 장애물과 충돌하는 과정에서 미끄러짐 등의 현상이 발생함에 따라 이동 로봇에서 판단하는 위치와 실제 위치에 오차가 발생하는 문제점이 있다. In addition, there is a problem that an error occurs in the position and the actual position determined by the mobile robot as a phenomenon such as a slip occurs in the process of collision with the obstacle.

따라서 장애물의 종류를 인식하여 장애물에 따라 이동 로봇이 동작할 필요성이 있다.
Therefore, it is necessary to recognize the type of obstacle to operate the mobile robot according to the obstacle.

대한민국 공개특허 10-2016-01575Republic of Korea Patent Publication 10-2016-01575

본 발명이 해결하고자 하는 과제는, 주행중에 영상을 촬영하고, 장애물이 감지되면 기 촬영된 영상을 통해 장애물에 대응하는 모션을 수행하는 이동 로봇 및 그 제어방법을 제공하는 것이다.
SUMMARY OF THE INVENTION An object of the present invention is to provide a mobile robot and a control method of photographing an image while driving and performing a motion corresponding to an obstacle through a pre-photographed image when an obstacle is detected.

본 발명이 일 실시예에 따른 이동 로봇은, 이동 가능한 본체; 주행방향에 대한 영상을 촬영하는 영상획득부; 주행방향에 위치한 장애물을 감지하는 장애물 감지유닛; 상기 영상획득부를 통해 촬영되는 복수의 영상데이터를 저장하고, 상기 장애물 감지유닛에 의해 상기 장애물이 소정거리 내에 위치하는 것으로 판단되는 소정 시점에 대응모션을 시작하되, 상기 소정 시점 이전에 획득된 상기 영상데이터를 바탕으로 판단되는 상기 장애물에 따라 상기 대응모션을 결정하는 제어부를 포함한다. According to an embodiment of the present invention, a mobile robot includes: a main body movable; An image acquisition unit for photographing an image of a driving direction; An obstacle detecting unit detecting an obstacle located in a driving direction; Stores a plurality of image data photographed through the image acquisition unit, and starts the corresponding motion at a predetermined time point determined by the obstacle detection unit to be located within a predetermined distance, the image obtained before the predetermined time point And a controller configured to determine the corresponding motion according to the obstacle determined based on data.

본 발명의 이동 로봇의 제어방법은 주행 중, 영상획득부에 의해 주행방향에 대한 영상을 촬영하여 영상데이터를 저장하는 단계; 장애물 감지유닛을 통해 소정 거리 내에 장애물이 위치한 것을 판단하는 단계; 상기 장애물이 소정 거리 내에 위치하는 것으로 판단되는 소정 시점, 이전에 획득된 상기 영상데이터를 바탕으로 판단되는 상기 장애물에 따라 대응모션을 결정하는 단계; 상기 소정 시점에, 상기 장애물에 대한 대응모션을 시작하는 단계; 및 상기 대응모션에 따라 동작하여 상기 장애물을 회피하거나 또는 통과하여 주행하는 단계를 포함한다. The control method of the mobile robot of the present invention includes the steps of: storing the image data by taking an image of the driving direction by the image acquisition unit while driving; Determining that the obstacle is located within a predetermined distance through the obstacle detecting unit; Determining a corresponding motion according to a predetermined time point at which the obstacle is determined to be located within a predetermined distance and the obstacle determined based on the previously acquired image data; Starting a corresponding motion for the obstacle at the predetermined time point; And operating according to the corresponding motion to avoid or pass through the obstacle.

본 발명의 이동 로봇 및 그 제어방법은 주행방향에 위치하는 장애물에 대하여 장애물에 대한 감지신호를 바탕으로 대응할 수 있는 복수의 대응모션을 설정하고, 복수의 대응모션 중 어느 하나의 대응모션을 수행함에 따라 장애물에 따라 상이한 동작을 수행할 수 있다. The mobile robot and its control method of the present invention set a plurality of corresponding motions corresponding to the obstacles located in the driving direction based on a detection signal for the obstacles, and perform any one of the plurality of corresponding motions. Accordingly, different operations may be performed according to obstacles.

본 발명은 주행중에 영상을 촬영하고, 장애물이 소정 거리 내에 위치하는 경우 기 촬영된 영상을 분석하여 장애물에 대하여 설정된 복수의 모션 중 어느 하나를 선택하여 수행함에 따라, 상이한 복수의 장애물에 대하여 장애물 감지 시 동일한 감지신호가 입력되더라도 영상을 통해 장애물을 판단하여 장애물에 따라 상이한 동작이 수행되도록 하여 다양한 장애물에 대응할 수 있다. According to the present invention, when an image is taken while driving, and an obstacle is located within a predetermined distance, an obstacle is detected for a plurality of different obstacles as the selected image is analyzed by performing any one of a plurality of motions set for the obstacle. Even when the same detection signal is input at the same time, the obstacle may be determined based on the image so that different operations may be performed according to the obstacle, and thus various obstacles may be responded to.

또한, 본 발명은 주행 중에 주행방향에 대한 영상을 촬영함으로써, 장애물이 소정거리 내에 위치한 시점에서 그 이전에 촬영된 영상을 통해 장애물을 판단할 수 있고, 장애물이 소정거리 내에 위치하기 전에 사전에 영상을 통해 장애물을 사전에 판단하여, 장애물이 소정거리 내에 위치하는 시점에서 즉시 대응하는 동작을 수행할 수 있으므로, 장애물을 효과적으로 회피할 수 있고 장애물의 종류에 따른 동작을 수행할 수 있다. In addition, the present invention by taking an image of the driving direction while driving, it is possible to determine the obstacle through the image taken before it at the time when the obstacle is located within a predetermined distance, the image in advance before the obstacle is located within the predetermined distance By determining the obstacle in advance, the corresponding operation can be performed immediately at the time when the obstacle is located within a predetermined distance, it is possible to effectively avoid the obstacle and to perform the operation according to the type of obstacle.

본 발명은 촬영되는 영상을 기반으로 장애물을 추적할 수 있고, 장애물이 감지되는 시점에서 즉각적으로 동작을 수행함에 따라 장애물과의 충돌로 인한 장애물의 파손을 방지하고, 충돌로 인한 위치 오차를 방지할 수 있으며, 주행하는 영역의 환경변화를 감지하여 동작할 수 있다.
The present invention can track the obstacle based on the image to be photographed, and as soon as the operation is performed at the time when the obstacle is detected to prevent the damage of the obstacle due to the collision with the obstacle, to prevent the position error due to the collision It can be operated by detecting an environment change of the driving area.

도 1 은 본 발명의 일 실시예에 따른 이동 로봇 시스템의 이동 로봇이 도시된 사시도이다.
도 2 는 도 1의 이동 로봇의 수평 화각을 도시한 도이다.
도 3 은 도 1의 이동 로봇의 전면도이다.
도 4 는 도 1의 이동 로봇의 저면을 도시한 도이다.
도 5 는 본 발명의 일 실시예에 따른 이동 로봇 및 장애물 인식을 위한 시스템이 간략하게 도시된 도이다.
도 6 은 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.
도 7 및 도 8 은 발명의 이동 로봇의 주행 및 주행중 촬영되는 영상의 예가 도시된 도이다.
도 9 는 본 발명의 일실시예에 따른 이동 로봇의 장애물에 따른 감지신호 및 장애물인식에 대하여 설명하는데 참조되는 도이다.
도 10 은 본 발명의 일실시예에 따른 이동 로봇의 주행 중 장애물의 종류에 따른 동작을 설명하는데 참조되는 도이다.
도 11은 본 발명의 일실시예에 따른 이동 로봇 및 장애물 인식을 위한 기기간의 신호 흐름을 설명하는데 참조되는 도이다.
도 12 는 본 발명의 일실시예에 따른 이동 로봇의 장애물감지 및 대응 동작을 수행하는 과정을 설명하는데 참조되는 흐름도이다.
도 13 는 본 발명의 일실시예에 따른 이동 로봇의 장애물 인식 및 그에 따른 제어방법을 설명하는데 참조되는 순서도이다.
1 is a perspective view showing a mobile robot of the mobile robot system according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a horizontal angle of view of the mobile robot of FIG. 1.
3 is a front view of the mobile robot of FIG. 1.
4 is a diagram illustrating a bottom surface of the mobile robot of FIG. 1.
5 is a diagram schematically illustrating a system for recognizing a mobile robot and an obstacle according to an embodiment of the present invention.
6 is a block diagram illustrating main parts of a mobile robot according to an exemplary embodiment of the present invention.
7 and 8 are diagrams showing an example of an image photographed while driving and driving of the mobile robot of the present invention.
FIG. 9 is a diagram for describing a detection signal and an obstacle recognition according to an obstacle of a mobile robot according to an embodiment of the present invention.
FIG. 10 is a diagram referred to for describing an operation according to a type of an obstacle while driving of a mobile robot according to an embodiment of the present invention.
FIG. 11 is a diagram referred to for describing a signal flow between a mobile robot and a device for obstacle recognition according to an embodiment of the present invention.
12 is a flowchart referred to for explaining a process of performing an obstacle detection and a corresponding operation of a mobile robot according to an embodiment of the present invention.
FIG. 13 is a flowchart referred to for describing obstacle recognition and a control method according to an embodiment of the present invention. FIG.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 본 발명의 제어구성은 적어도 하나의 프로세서로 구성될 수 있다. Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be embodied in various different forms, and the present embodiments merely make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims. Like reference numerals refer to like elements throughout. The control configuration of the present invention may be composed of at least one processor.

도 1은 본 발명의 일 실시예에 따른 이동 로봇의 사시도이다. 도 2는 도 1의 이동 로봇의 수평 화각을 도시한 것이다. 도 3은 도 1의 이동 로봇의 전면도이다. 도 4는 도 1의 이동 로봇의 저면을 도시한 것이다. 1 is a perspective view of a mobile robot according to an embodiment of the present invention. 2 illustrates a horizontal angle of view of the mobile robot of FIG. 1. 3 is a front view of the mobile robot of FIG. 1. 4 illustrates a bottom surface of the mobile robot of FIG. 1.

도 1 내지 도 4를 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(1)은 청소구역의 바닥을 따라 이동하며, 바닥 상의 먼지 등의 이물질을 흡입하는 본체(10)와, 본체(10)의 전면에 배치되어 장애물을 감지하는 감지수단을 포함한다. 1 to 4, the mobile robot 1 according to an embodiment of the present invention moves along the bottom of the cleaning area, the main body 10 and the main body 10 for sucking foreign matter such as dust on the floor It is disposed in the front of the includes a sensing means for detecting the obstacle.

본체(10)는 외관을 형성하며 내측으로 본체(10)를 구성하는 부품들이 수납되는 공간을 형성하는 케이싱(11)과, 케이싱(11)에 배치되어 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(34)과, 케이싱(11)에 회전 가능하게 구비되는 좌륜(36(L))과 우륜(36(R))을 포함할 수 있다. 좌륜(36(L))과 우륜(36(R))이 회전함에 따라 본체(10)가 청소구역의 바닥을 따라 이동되며, 이 과정에서 흡입유닛(34)을 통해 이물질이 흡입된다.The main body 10 has a casing 11 that forms an exterior and forms a space in which the components constituting the main body 10 are accommodated, and a suction unit disposed in the casing 11 to suck foreign substances such as dust or garbage. 34, the left wheel 36 (L) and the right wheel 36 (R) rotatably provided in the casing 11. As the left wheel 36 (L) and the right wheel 36 (R) rotate, the main body 10 moves along the bottom of the cleaning area, and foreign matter is sucked through the suction unit 34 in this process.

흡입유닛(34)은 흡입력을 발생시키는 흡입 팬(미도시)과, 흡입 팬의 회전에 의해 생성된 기류가 흡입되는 흡입구(10h)를 포함할 수 있다. 흡입유닛(34)은 흡입구(10h)를 통해 흡입된 기류 중에서 이물질을 채집하는 필터(미도시)와, 필터에 의해 채집된 이물질들이 축적되는 이물질 채집통(미도시)을 포함할 수 있다.The suction unit 34 may include a suction fan (not shown) for generating a suction force and a suction port 10h through which air flow generated by the rotation of the suction fan is sucked. The suction unit 34 may include a filter (not shown) that collects foreign matters from the airflow sucked through the suction port 10h, and a foreign matter collecting container (not shown) in which foreign matters collected by the filter are accumulated.

또한, 본체(10)는 좌륜(36(L))과 우륜(36(R))을 구동시키는 주행부를 포함할 수 있다. 주행부는 적어도 하나의 구동모터를 포함할 수 있다. 적어도 하나의 구동모터는 좌륜(36(L))을 회전시키는 좌륜 구동모터와 우륜(36(R))을 회전시키는 우륜 구동모터를 포함할 수 있다.In addition, the main body 10 may include a driving unit for driving the left wheel 36 (L) and the right wheel 36 (R). The driving unit may include at least one driving motor. The at least one drive motor may include a left wheel drive motor for rotating the left wheel 36 (L) and a right wheel drive motor for rotating the right wheel 36 (R).

좌륜 구동모터와 우륜 구동모터는 제어부의 주행제어부에 의해 작동이 독립적으로 제어됨으로써 본체(10)의 직진, 후진 또는 선회가 이루어질 수 있다. 예를들어, 본체(10)가 직진 주행하는 경우에는 좌륜 구동모터와 우륜 구동모터가 같은 방향으로 회전되나, 좌륜 구동모터와 우륜 구동모터가 다른 속도로 회전되거나, 서로 반대 방향으로 회전되는 경우에는 본체(10)의 주행 방향이 전환될 수 있다. 본체(10)의 안정적인 지지를 위한 적어도 하나의 보조륜(37)이 더 구비될 수 있다.The left wheel drive motor and the right wheel drive motor may be driven straight, backward or swiveling of the main body 10 by independently controlling the operation by the traveling control unit of the controller. For example, when the main body 10 travels straight, when the left wheel drive motor and the right wheel drive motor rotate in the same direction, but the left wheel drive motor and the right wheel drive motor rotate at different speeds or in opposite directions. The running direction of the main body 10 may be switched. At least one auxiliary wheel 37 may be further provided to stably support the main body 10.

케이싱(11)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 복수의 브러시(35)가 더 구비될 수 있다. 복수의 브러시(35)의 회전에 의해 청소구역의 바닥으로부터 먼지들이 제거되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구(10h)를 통해 흡입되어 채집통에 모인다.A plurality of brushes 35 positioned at the front side of the bottom of the casing 11 and having a brush composed of a plurality of radially extending wings may be further provided. The dust is removed from the bottom of the cleaning area by the rotation of the plurality of brushes 35, and the dust separated from the bottom is sucked through the suction port 10h and collected in the collecting container.

케이싱(11)의 상면에는 사용자로부터 이동 로봇(1)의 제어를 위한 각종 명령을 입력받는 조작부(160)를 포함하는 컨트롤 패널이 구비될 수 있다.The upper surface of the casing 11 may be provided with a control panel including an operation unit 160 for receiving various commands for controlling the mobile robot 1 from the user.

감지수단은, 도 1의 (a)와 같이 복수의 센서를 이용하여 장애물을 감지하는 센서부(150), 영상을 촬영하는 영상획득부(170)를 포함한다. The sensing means includes a sensor unit 150 for detecting an obstacle using a plurality of sensors as shown in FIG. 1A, and an image acquisition unit 170 for capturing an image.

또한, 감지수단은, 도 1의 (b)와 같이, 본체(10)의 전면에 배치되어, 장애물을 감지하는 장애물 감지유닛(100), 영상을 촬영하는 영상획득부(170)를 포함할 수 있다. 장애물 감지유닛(100)은 광패턴을 조사하고 촬영되는 영상을 통해 장애물을 감지한다. 장애물 감지유닛(100)은 패턴획득부(140)를 포함하고, 또한, 센서부(150)를 포함할 수 있다. In addition, the sensing means, as shown in Figure 1 (b), may be disposed in the front of the main body 10, the obstacle detecting unit 100 for detecting the obstacle, and may include an image acquisition unit 170 for taking an image. have. The obstacle detecting unit 100 detects an obstacle through an image that is irradiated with an optical pattern and photographed. The obstacle detecting unit 100 may include a pattern acquisition unit 140 and may further include a sensor unit 150.

영상획득부(170)는 각각 전방을 향하도록 구비되어 주행방향을 촬영하고, 또한, 경우에 따라 천장을 향하도록 구비될 수 있다. 경우에 따라 전방과 천장을 향하는 두개의 영상획득부(170)가 구비될 수도 있다. 두개의 영상획득부가 구비되는 경우, 본체의 전면과 상단부에 각각 설치되어 전방과 천장의 영상을 각각 촬영할 수 있다. The image acquisition unit 170 may be provided to face the front direction, respectively, and may be provided to face the ceiling in some cases. In some cases, two image acquisition units 170 facing the front and the ceiling may be provided. When two image acquisition units are provided, the front and top portions of the main body may be respectively provided to capture an image of the front and the ceiling.

장애물 감지유닛(100)은 본체(10)의 전면에 배치될 수 있다. The obstacle detecting unit 100 may be disposed in front of the main body 10.

장애물 감지유닛(100)은 케이싱(11)의 전면에 고정되고, 제 1 패턴 조사부(120), 제 2 패턴 조사부(130) 및 패턴획득부(140)를 포함한다. 이때 패턴획득부(140)는 도시된 바와 같이 패턴조사부의 하부에 설치되거나 또는 제 1 및 제 2 패턴조사부 사이에 배치될 수 있다. The obstacle detecting unit 100 is fixed to the front surface of the casing 11 and includes a first pattern irradiator 120, a second pattern irradiator 130, and a pattern acquisition unit 140. In this case, the pattern acquisition unit 140 may be disposed below the pattern irradiation unit as shown, or disposed between the first and second pattern irradiation units.

도 2에서, 표시된 조사각(θh)은 제 1 패턴 조사부(120)로부터 조사된 제 1 패턴 광(P1)의 수평조사각을 표시한 것으로, 수평선의 양단이 제 1 패턴 조사부(120)와 이루는 각도를 나타내며, 130˚ 내지 140˚ 범위에서 정해지는 것이 바람직하나, 반드시 이에 한정되어야 하는 것은 아니다. 도 2에 표시된 점선은 이동 로봇(1)의 전방을 향하는 것이며, 제 1 패턴 광(P1)은 점선에 대해 대칭인 형태로 구성될 수 있다.In FIG. 2, the displayed irradiation angle θh represents the horizontal irradiation angle of the first pattern light P1 irradiated from the first pattern irradiation unit 120, and both ends of the horizontal line form the first pattern irradiation unit 120. It represents an angle, but is preferably determined in the range of 130 ° to 140 °, but is not necessarily limited thereto. The dotted line shown in FIG. 2 is directed toward the front of the mobile robot 1, and the first pattern light P1 may be configured to be symmetrical with respect to the dotted line.

본체(10)에는 재충전이 가능한 배터리(38)가 구비되며, 배터리(38)의 충전 단자(33)가 상용 전원(예를 들어, 가정 내의 전원 콘센트)과 연결되거나, 상용 전원과 연결된 별도의 충전대(400)에 본체(10)가 도킹되어, 충전 단자(33)가 충전대의 단자(410)와의 접촉을 통해 상용 전원과 전기적으로 연결되고, 배터리(38)의 충전이 이루어질 수 있다. 이동 로봇(1)을 구성하는 전장 부품들은 배터리(38)로부터 전원을 공급받을 수 있으며, 따라서, 배터리(38)가 충전된 상태에서 이동 로봇(1)은 상용 전원과 전기적으로 분리된 상태에서 자력 주행이 가능하다.The main body 10 includes a rechargeable battery 38, and the charging terminal 33 of the battery 38 is connected to a commercial power source (for example, a power outlet in a home) or a separate charging stand connected to the commercial power source. The main body 10 is docked to the 400, and the charging terminal 33 is electrically connected to a commercial power source through contact with the terminal 410 of the charging stand, and the battery 38 may be charged. The electric components constituting the mobile robot 1 may be supplied with power from the battery 38, and thus, the mobile robot 1 is magnetically separated from the commercial power source while the battery 38 is charged. Driving is possible.

도 5 는 본 발명의 일 실시예에 따른 이동 로봇 및 장애물 인식을 위한 시스템이 간략하게 도시된 도이다. 5 is a diagram schematically illustrating a system for recognizing a mobile robot and an obstacle according to an embodiment of the present invention.

이동 로봇(1)은 주행영역(H) 중 소정의 청소영역에 대한 청소명령을 수신하여 청소를 수행한다. 이동 로봇(1)은 주행 중 촬영되는 영상을 분석하여 장애물의 종류를 판단한다. The mobile robot 1 receives a cleaning command for a predetermined cleaning area of the travel area H to perform cleaning. The mobile robot 1 analyzes an image taken while driving to determine the type of obstacle.

이동 로봇(1)은 주행영역(H)에 존재하는 복수의 장애물(2, 3)을 감지하여 장애물을 인식하고, 장애물의 종류에 따라 접근, 통과, 회피 중 어느 하나의 동작을 수행한다. 이때, 이동 로봇(1)은 장애물에 접근하지 않고 회피하거나, 소정거리 접근한 후 소정의 동작을 수행할 수 있고, 장애물에 근접한 이후에 회피할 수 있으며, 장애물의 형태에 따라 장애물을 통과할 수 있다. The mobile robot 1 detects a plurality of obstacles 2 and 3 present in the driving area H to recognize the obstacles, and performs any one of approaching, passing, and avoiding according to the type of the obstacle. At this time, the mobile robot 1 may avoid the obstacle without approaching, or may perform a predetermined operation after approaching a predetermined distance, may avoid after approaching the obstacle, and may pass through the obstacle according to the shape of the obstacle. have.

이동 로봇(1)은 주행 중에 구비되는 영상획득부(170)를 통해 주행방향을 촬영하고 장애물 감지유닛(100)을 통해 소정거리 내에 위치하는 장애물을 감지한다. 이동 로봇(1)은 영상획득부(170)를 통해 연속적으로 주행방향을 촬영할 수 있고, 설정에 따라 소정시간 간격으로 영상을 촬영할 수 있다. The mobile robot 1 photographs the driving direction through the image acquisition unit 170 provided while driving and detects an obstacle located within a predetermined distance through the obstacle detecting unit 100. The mobile robot 1 may continuously photograph the driving direction through the image acquisition unit 170, and may photograph images at predetermined time intervals according to a setting.

이동 로봇(1)은 주행중에 촬영되는 영상을 저장하고, 장애물 감지유닛(100)을 통해 장애물이 감지되면, 대응 가능한 대응모션을 선별한 후, 영상분석을 통해 판단된 장애물에 따라, 특히 장애물의 종류에 따라 장애물에 대한 대응모션을 결정하여 동작한다. The mobile robot 1 stores an image photographed while driving, and when an obstacle is detected through the obstacle detecting unit 100, selects a corresponding corresponding motion, and according to the obstacle determined through image analysis, in particular, It operates by determining the corresponding motion for obstacles according to the type.

이동 로봇(1)은 상이한 장애물에 대하여 장애물 감지유닛(100)에 의해 동일한 감지신호가 입력되는 경우라도, 기 촬영된 영상을 바탕으로 장애물을 분석하여, 장애물에 따른 대응모션을 설정하고, 그에 따라 장애물에 대응하는 동작을 수행한다. Even if the same detection signal is input by the obstacle detecting unit 100 to the different obstacles, the mobile robot 1 analyzes the obstacles based on the pre-recorded image, and sets a corresponding motion according to the obstacles. Perform the action corresponding to the obstacle.

또한, 이동 로봇(1)은 영상이 촬영되면, 소정 시간 간격으로 영상을 분석하여 영상에 포함된 장애물을 인식하고, 장애물 감지유닛(100)에의해 소정 거리내에 장애물이 위치하는 것이 감지되면, 기 판단된 장애물의 종류를 바탕으로 대응모션에 대한 동작을 수행할 수 있다. In addition, when the image is taken, the mobile robot 1 analyzes the image at predetermined time intervals to recognize the obstacle included in the image, and when the obstacle is detected by the obstacle detecting unit 100 within a predetermined distance, An operation for the corresponding motion may be performed based on the type of the determined obstacle.

예를 들어, 이동 로봇(1)은 장애물에 따라 위험장애물인 경우 접근하지 않고 회피하도록 하고, 일반 장애물인 경우 근접거리까지 접근하거나 또는 장애물에 충돌 후 회피하도록 한다. For example, the mobile robot 1 avoids the dangerous obstacles according to the obstacles without approaching them, and in the case of the general obstacles, approaches the proximity or avoids the obstacles after the collision.

이동 로봇(1)은 자체 저장되는 데이터를 바탕으로 장애물의 종류를 판단하고 또한, 서버(90) 또는 단말(80)과 연결되어 장애물의 종류를 판단할 수 있다. 이동 로봇(1)은 네트워크(N)를 통해 서버(90)와의 통신하기 위해 별도의 통신장치(미도시)와 연결될 수 있다. The mobile robot 1 may determine the type of the obstacle based on the data stored therein, and may be connected to the server 90 or the terminal 80 to determine the type of the obstacle. The mobile robot 1 may be connected to a separate communication device (not shown) to communicate with the server 90 through the network (N).

이동 로봇(1)은 주행 중 촬영되는 영상에 대하여, 각 영상데이터를 필터링하여, 소정 시간 간격으로 서버 또는 단말로 전송하여 장애물 정보를 요청함으로써, 영상데이터에 포함된, 장애물에 대한 정보를 서버 또는 단말로부터 수신한다. 이동 로봇(1)은 장애물 감지유닛(100)에 의해 장애물이 소정거리 내에 위치하는 것으로 판단되는 때에, 영상데이터를 통해 장애물을 즉시 확인할 수 있다. The mobile robot 1 filters each image data with respect to the image photographed while driving, and transmits the information to the server or the terminal at a predetermined time interval to request obstacle information, thereby providing information on the obstacle included in the image data. Receive from the terminal. The mobile robot 1 may immediately identify the obstacle through the image data when it is determined by the obstacle detecting unit 100 that the obstacle is located within a predetermined distance.

단말(80)은 이동 로봇(1)을 제어하기 위한 어플리케이션을 구비하고, 어플리케이션의 실행을 통해 이동 로봇(1)이 청소할 주행구역에 대한 맵을 표시하고, 맵 상에 특정 영역을 청소하도록 영역을 지정할 수 있다. 또한, 이동 로봇으로부터 수신되는 데이터를 바탕으로 이동 로봇의 위치를 표시하고, 청소상태에 대한 정보를 표시한다. The terminal 80 includes an application for controlling the mobile robot 1, displays a map of the driving area to be cleaned by the mobile robot 1 through execution of the application, and sets an area to clean a specific area on the map. Can be specified. In addition, the position of the mobile robot is displayed based on the data received from the mobile robot, and information about the cleaning state is displayed.

단말은 통신모듈이 탑재되어 네트워크 접속이 가능하고 이동 로봇을 제어하기 위한 프로그램, 또는 이동 로봇 제어용 어플리케이션이 설치된 기기로, 컴퓨터, 랩탑, 스마트폰, PDA, 태블릿PC 등의 기기가 사용될 수 있다. 또한, 단말은, 스마트 워치 등의 웨어러블(wearable) 장치 또한 사용될 수 있다. The terminal is a device equipped with a communication module is connected to the network and the program for controlling the mobile robot, or the application for controlling the mobile robot, a device such as a computer, laptop, smartphone, PDA, tablet PC may be used. In addition, the terminal may also use a wearable device such as a smart watch.

단말(80)은 이동 로봇과, 가정 내 구축되는 네트워크를 통해 상호 연결될 수 있다. 단말과 이동 로봇은 WIFI로 연결됨은 물론, 블루투스, 적외선통신, 지그비 등의 근거리 무선통신방식을 이용하여 상호 통신할 수 있다. 단말과 이동 로봇의 통신 방식은, 이에 한정되지 않음을 명시한다. The terminal 80 may be connected to the mobile robot through a network built in the home. The terminal and the mobile robot may be connected to each other using WIFI as well as short range wireless communication such as Bluetooth, infrared communication, and Zigbee. It is specified that the communication method between the terminal and the mobile robot is not limited thereto.

또한, 단말(80)은 이동 로봇(1)으로부터 수신되는 영상에 대응하여 장애물의 종류를 판단할 수 있다. 단말(80)은 기 저장된 데이터를 바탕으로 장애물의 종류를 판단하거나, 서버와 연결되어 장애물의 종류를 판단할 수 있다. 예를들어 이동 로봇(1)이 네트워크 접속을 통한 서버연결이 불가능한 경우, 단말(80)이 이동 로봇의 데이터를 수신하여 서버로 전송할 수 있다. In addition, the terminal 80 may determine the type of obstacle in response to the image received from the mobile robot 1. The terminal 80 may determine the type of the obstacle based on the stored data, or may be connected to the server to determine the type of the obstacle. For example, when the mobile robot 1 cannot connect to the server through a network connection, the terminal 80 may receive data of the mobile robot and transmit it to the server.

또한, 단말(80)은 영상을 화면에 표시하여 사용자의 입력을 통해 장애물의 종류를 입력하여 이동 로봇으로 전송할 수 있고, 어플리케이션의 메뉴를 통해 특정 장애물에 대한 동작을 지정할 수 있다. In addition, the terminal 80 may display an image on a screen, input a type of obstacle through a user input, and transmit the type of obstacle to a mobile robot, and designate an operation for a specific obstacle through a menu of an application.

서버(90)는 소정 네트워크(N)를 통해 접속되는, 이동 로봇(1)으로부터 수신되는 영상데이터를 분석하여 장애물의 종류를 판단하고, 그에 대한 응답을 이동 로봇(1)으로 전송한다. 서버(90)는 단말로부터 요청이 있는 경우 장애물의 종류를 판단하여 응답할 수 있다. The server 90 analyzes the image data received from the mobile robot 1, which is connected through a predetermined network N, determines the type of obstacle, and transmits a response to the mobile robot 1. If there is a request from the terminal, the server 90 may determine and respond to the type of obstacle.

서버(90)는 복수의 이동 로봇(1)으로부터 수신되는 영상데이터를 바탕으로 하는 장애물 인식을 위한 데이터베이스(미도시)를 구비하여, 영상데이터로부터 추출되는 장애물에 대한 특징을 인식하여 장애물의 종류를 판단한다. The server 90 includes a database (not shown) for obstacle recognition based on image data received from the plurality of mobile robots 1, and recognizes a feature of the obstacle extracted from the image data to determine the type of obstacle. To judge.

서버(90)는 장애물 정보를 누적하여 저장하고, 장애물 정보를 분석하여 장애물의 종류를 판단한다. 또한, 서버(90)는 장애물을 종류에 따라 분류하여 장애물에 대한 이동 로봇(1)의 동작을 설정할 수 있다. The server 90 accumulates and stores obstacle information, and analyzes the obstacle information to determine the type of obstacle. In addition, the server 90 may classify obstacles according to types to set the operation of the mobile robot 1 with respect to the obstacles.

서버(90)는 새로운 장애물 정보를 분석하여, 기 저장된 장애물 정보를 갱신한다. 또한, 서버(90)는 단말(80)에 의해 설정되거나 또는 변경되는 장애물에 대한 이동 로봇의 동작정보를 수신하여 저장하고, 기 저장된 장애물 정보에 매칭하여 장애물에 대한 이동 로봇의 동작에 대한 설정을 갱신한다. The server 90 analyzes new obstacle information and updates previously stored obstacle information. In addition, the server 90 receives and stores the motion information of the mobile robot on the obstacle set or changed by the terminal 80, and sets the setting of the motion of the mobile robot on the obstacle by matching the previously stored obstacle information. Update

도 6은 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.6 is a block diagram illustrating main parts of a mobile robot according to an exemplary embodiment of the present invention.

도 6에 도시된 바와 같이, 이동 로봇(1)은 장애물 감지유닛(100), 영상획득부(170), 청소부(260), 주행부(250), 데이터부(180), 출력부(190), 조작부(160), 통신부(280) 그리고 동작 전반을 제어하는 제어부(110)를 포함한다. As shown in FIG. 6, the mobile robot 1 includes an obstacle detecting unit 100, an image acquisition unit 170, a cleaning unit 260, a traveling unit 250, a data unit 180, and an output unit 190. , An operation unit 160, a communication unit 280, and a control unit 110 for controlling the overall operation.

조작부(160)는 적어도 하나의 버튼, 스위치, 터치입력수단을 포함하여, 이동 로봇(1)의 작동 전반에 필요한, 온/오프 또는 각종 명령을 입력받아 제어부(110)로 입력한다. The manipulation unit 160 includes at least one button, a switch, and a touch input means, and receives an on / off or various commands necessary for the overall operation of the mobile robot 1 and inputs the same to the controller 110.

출력부(190)는 LED, LCD와 같은 디스플레이를 구비하고, 이동 로봇(1)의 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태 등을 표시한다. 또한, 출력부(190)는 스피커 또는 버저를 구비하여, 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태에 대응하는 소정의 효과음, 경고음 또는 음성안내를 출력한다. The output unit 190 includes a display such as an LED and an LCD, and displays an operation mode, reservation information, a battery state, an operation state, an error state, and the like of the mobile robot 1. In addition, the output unit 190 includes a speaker or a buzzer and outputs a predetermined sound effect, a warning sound, or a voice guidance corresponding to an operation mode, reservation information, a battery state, an operation state, and an error state.

통신부(280)는, 무선통신 방식으로 단말(80)과 통신한다. 또한, 통신부(280)는 가정 내 네트워크를 통해, 인터넷망에 연결되어, 외부의 서버(90)와 통신할 수 있다. The communication unit 280 communicates with the terminal 80 in a wireless communication method. In addition, the communication unit 280 may be connected to the Internet network through a home network to communicate with an external server 90.

통신부(280)는 생성되는 지도를 단말(80)로 전송하고, 단말로부터 청소명령을 수신하며, 이동 로봇의 동작상태, 청소상태에 대한 데이터를 단말로 전송한다. 통신부(280)는 지그비, 블루투스 등의 근거리 무선통신 뿐 아니라, 와이파이, 와이브로 등의 통신모듈을 포함하여 데이터를 송수신한다. The communication unit 280 transmits the generated map to the terminal 80, receives a cleaning command from the terminal, and transmits data on an operation state and a cleaning state of the mobile robot to the terminal. The communication unit 280 transmits and receives data including communication modules such as Wi-Fi and WiBro, as well as short-range wireless communication such as Zigbee and Bluetooth.

통신부(280)는 장애물 감지유닛(100)으로부터 감지되는 장애물에 대한 정보를 통신부(280)를 통해 서버(90)로 전송하고, 서버로부터 장애물에 대한 데이터를 수신한다. 또한, 통신부(280)는 단말(80)로부터 주행구역 내에 존재하는 장애물에 대한 정보 및 그에 따른 동작정보를 수신하고, 이동 로봇의 동작데이터를 단말(80)로 전송한다. The communication unit 280 transmits information on the obstacle detected by the obstacle detecting unit 100 to the server 90 through the communication unit 280, and receives data about the obstacle from the server. In addition, the communication unit 280 receives from the terminal 80 information about the obstacle existing in the driving zone and the corresponding operation information, and transmits the operation data of the mobile robot to the terminal 80.

주행부(250)는 적어도 하나의 구동모터를 포함하여 주행제어부(113)의 제어명령에 따라 이동 로봇이 주행하도록 한다. 주행부(250)는 앞서 설명한 바와 같이, 좌륜(36(L))을 회전시키는 좌륜 구동모터와 우륜(36(R))을 회전시키는 우륜 구동모터를 포함할 수 있다.The driving unit 250 includes at least one driving motor to allow the mobile robot to travel according to a control command of the driving control unit 113. As described above, the driving unit 250 may include a left wheel driving motor for rotating the left wheel 36 (L) and a right wheel driving motor for rotating the right wheel 36 (R).

청소부(260)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입장치를 동작시켜 먼지 또는 이물질을 흡입한다. 청소부(260)는 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(34)에 구비되는 흡입 팬의 동작을 제어하여 먼지가 흡입구를 통해 이물질 채집통(먼지통)에 투입되도록 한다. The cleaning unit 260 operates the brush to make it easy to inhale dust or foreign matter around the mobile robot, and operates the suction device to suck in dust or foreign matter. The cleaning unit 260 controls the operation of the suction fan provided in the suction unit 34 that sucks the foreign matter such as dust or garbage so that the dust is introduced into the foreign matter collecting container (dust box) through the suction port.

또한, 청소부(260)는 본체의 저면부 후방에 설치되어 바닥면과 접하여 바닥면을 물걸레질하는 물걸레청소부(미도시), 물걸레청소부로 물을 공급하는 물통(미도시)을 더 포함할 수 있다. In addition, the cleaning unit 260 may further include a mop cleaning unit (not shown) installed in the rear of the bottom portion of the main body in contact with the bottom surface and mopping the bottom surface, and a water tank (not shown) for supplying water to the mop cleaning unit. .

배터리(미도시)는 구동 모터뿐만 아니라, 이동 로봇(1)의 작동 전반에 필요한 전원을 공급한다. 배터리가 방전될 시, 이동 로봇(1)은 충전을 위해 충전대(400)로 복귀하는 주행을 할 수 있으며, 이러한 복귀 주행 중, 이동 로봇(1)은 스스로 충전대의 위치를 탐지할 수 있다. 충전대(400)는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되어야하는 것은 아니다.The battery (not shown) supplies not only a drive motor, but also power necessary for the overall operation of the mobile robot 1. When the battery is discharged, the mobile robot 1 may travel to return to the charging station 400 for charging, and during this return driving, the mobile robot 1 may detect the location of the charging station by itself. The charging unit 400 may include a signal transmitter (not shown) for transmitting a predetermined return signal. The return signal may be an ultrasonic signal or an infrared signal, but is not necessarily limited thereto.

데이터부(180)에는 장애물 감지유닛(100), 또는 센서부(150)로부터 입력되는 감지신호가 저장되고, 장애물을 판단하기 위한 기준데이터가 저장되며, 감지된 장애물에 대한 장애물정보가 저장된다. In the data unit 180, a detection signal input from the obstacle detecting unit 100 or the sensor unit 150 is stored, reference data for determining an obstacle is stored, and obstacle information on the detected obstacle is stored.

데이터부(180)는 장애물의 종류를 판단하기 위한 장애물데이터(181), 촬영되는 영상이 저장되는 영상데이터(182), 영역에 대한 지도데이터(183)가 저장된다. 지도데이터(183)에는 장애물정보가 포함되며, 이동 로봇에 의해 탐색되는 주행가능한 영역에 대한 기초맵, 기초맵으로부터 영역이 구분된 청소맵, 청소맵의 영역의 형상을 정리하여 사용자가 확인할 수 있도록 생성된 사용자맵, 그리고 청소맵과 사용자맵이 중첩되어 표시되는 가이드맵이 저장될 수 있다. The data unit 180 stores obstacle data 181 for determining the type of obstacle, image data 182 for storing a captured image, and map data 183 for a region. The map data 183 includes obstacle information, so that the user can check the basic map of the movable area searched by the mobile robot, the cleaning map in which the area is separated from the base map, and the shape of the area of the cleaning map. The generated user map and a guide map in which the cleaning map and the user map are overlapped can be stored.

장애물데이터(181)는 장애물 인식 및 장애물의 종류를 판단하기 위한 데이터이고, 인식된 장애물에 대한 이동 로봇의 동작, 예를 들어 주행속도, 주행방향, 회피 여부, 정지 여부 등에 대한 모션정보와, 스피커(173)를 통해 출력되는 효과음, 경고음, 음성안내에 대한 데이터가 포함된다. 영상데이터(182)는 촬영된 영상, 서버로부터 수신된 장애물 인식을 위한 인식정보가 포함된다. The obstacle data 181 is data for obstacle recognition and determination of types of obstacles, motion information about movements of the robot, for example, traveling speed, driving direction, avoidance, stop, etc. Data about the effect sound, warning sound, and voice guidance output through 173 are included. The image data 182 includes captured images and recognition information for recognizing obstacles received from a server.

또한, 데이터부(180)에는 이동 로봇의 동작을 제어하기 위한 제어데이터 및 이동 로봇의 청소모드에 따른 데이터, 센서부(150)에 의한 초음파/레이저 등의 감지신호가 저장된다. In addition, the data unit 180 stores control data for controlling the operation of the mobile robot, data according to the cleaning mode of the mobile robot, and detection signals such as ultrasonic waves / lasers by the sensor unit 150.

데이터부(180)는, 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장하는 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치를 포함할 수 있다. The data unit 180 stores data that can be read by a microprocessor, and includes a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, and a CD. -May include ROM, magnetic tape, floppy disks, optical data storage devices.

장애물 감지유닛(100)은 제 1 패턴 조사부(120), 제 2 패턴 조사부(130), 그리고 패턴획득부(140)를 포함한다. 앞서 설명한 도 1의 (a)와 같이 패턴조사부가 구비되지 않는 경우에는 조사되는 패턴없이, 영상획득부가 촬영되는 영상으로부터 장애물을 감지할 수 있다. The obstacle detecting unit 100 includes a first pattern irradiator 120, a second pattern irradiator 130, and a pattern acquirer 140. When the pattern irradiation unit is not provided as illustrated in FIG. 1A, an obstacle may be detected from an image captured by the image acquisition unit without a pattern to be irradiated.

또한, 영상획득부는 복수로 구비될 수 있다. 패턴조사부가 구비되는 경우, 패턴이 포함된 영상을 촬영하는 영상획득부와 주행방향 또는 전방의 상부를 촬영하는 별도의 영상획득부가 더 구비될 수 있다. In addition, the image acquisition unit may be provided in plurality. When the pattern irradiation unit is provided, an image acquisition unit for photographing an image including a pattern and a separate image acquisition unit for photographing a driving direction or an upper portion of the front may be further provided.

장애물 감지유닛(100)은 제 1 패턴 조사부(120), 제 2 패턴 조사부(130) 및 패턴획득부(140)를 포함한다. 또한, 장애물 감지유닛(100)은 적어도 하나의 센서로 구성된 센서부(150)를 포함할 수 있다. 경우에 따라 장애물 감지유닛(100)은 센서부로 구성될 수 있다. The obstacle detecting unit 100 includes a first pattern irradiator 120, a second pattern irradiator 130, and a pattern acquisition unit 140. In addition, the obstacle detecting unit 100 may include a sensor unit 150 composed of at least one sensor. In some cases, the obstacle detecting unit 100 may be configured as a sensor unit.

장애물 감지유닛(100)은 앞서 설명한 바와 같이, 본체(10)의 전면에 설치되어, 이동 로봇의 전방에 제 1 및 제 2 패턴의 광(P1, P2)을 조사하고, 조사된 패턴의 광을 촬영하여 패턴이 포함된 영상을 획득한다. 장애물 감지유닛(100)은 획득영상을 장애물 감지신호로써 제어부(110)로 입력한다. As described above, the obstacle detecting unit 100 is installed on the front surface of the main body 10 to irradiate the first and second patterns of light P1 and P2 to the front of the mobile robot and to radiate the light of the irradiated pattern. Shoot to obtain an image including the pattern. The obstacle detecting unit 100 inputs the acquired image to the controller 110 as an obstacle detecting signal.

장애물 감지유닛(100)의 제 1 및 제 2 패턴 조사부(120, 130)는 광원과, 광원으로부터 조사된 광이 투과됨으로써 소정의 패턴을 생성하는 패턴생성자(OPPE: Optical Pattern Projection Element)를 포함할 수 있다. 광원은 레이져 다이오드(Laser Diode, LD), 발광 다이오드(Light Emitteing Diode, LED) 등 일 수 있다. 레이져 광은 단색성, 직진성 및 접속 특성에 있어 다른 광원에 비해 월등해, 정밀한 거리 측정이 가능하며, 특히, 적외선 또는 가시광선은 대상체의 색상과 재질 등의 요인에 따라 거리 측정의 정밀도에 있어서 편차가 크게 발생되는 문제가 있기 때문에, 광원으로는 레이져 다이오드가 바람직하다. 패턴생성자는 렌즈, DOE(Diffractive optical element)를 포함할 수 있다. 각각의 패턴 조사부(120, 130)에 구비된 패턴 생성자의 구성에 따라 다양한 패턴의 광이 조사될 수 있다.The first and second pattern irradiation units 120 and 130 of the obstacle detecting unit 100 may include a light source and an optical pattern projection element (OPPE) that generates a predetermined pattern by transmitting light emitted from the light source. Can be. The light source may be a laser diode (LD), a light emitting diode (LED), or the like. Laser light is superior to other light sources in terms of monochromaticity, straightness, and connection characteristics, and accurate distance measurement is possible. In particular, infrared or visible light may vary in accuracy of distance measurement depending on factors such as color and material of the object. Since there is a problem that is largely generated, a laser diode is preferable as the light source. The pattern generator may include a lens and a diffractive optical element (DOE). Various patterns of light may be irradiated according to the configuration of the pattern generators provided in the pattern irradiation units 120 and 130.

패턴획득부(140)는 본체(10) 전방의 영상을 획득할 수 있다. 특히, 패턴획득부(140)에 의해 획득된 영상(이하, 획득영상이라고 함.)에는 패턴 광(P1, P2)이 나타나며, 이하, 획득영상에 나타난 패턴 광(P1, P2)의 상을 광 패턴이라고 하고, 이는 실질적으로 실제 공간상에 입사된 패턴 광(P1, P2)이 이미지 센서에 맺힌 상이기 때문에, 패턴 광들(P1, P2)과 같은 도면 부호를 부여하여, 제 1 패턴 광(P1) 및 제 2 패턴 광(P2)과 각각 대응하는 상들을 제 1 광 패턴(P1) 및 제 2 광 패턴(P2)이라고 하기로 한다.The pattern acquisition unit 140 may acquire an image of the front of the main body 10. In particular, the pattern light P1 and P2 appear in an image acquired by the pattern acquisition unit 140 (hereinafter, referred to as an acquired image). Hereinafter, the image of the pattern light P1 and P2 shown in the acquired image is lighted. The pattern is referred to as a pattern, and since the pattern light P1 and P2 incident on the actual space are images formed on the image sensor, the same reference numerals as those of the pattern lights P1 and P2 are assigned to the first pattern light P1. ) And the images corresponding to the second pattern light P2 are referred to as a first light pattern P1 and a second light pattern P2, respectively.

패턴조사부가 구비되지 않는 경우, 패턴획득부(140)는 본체 전방의, 패턴광이 포함되지 않은 영상을 획득한다. When the pattern irradiator is not provided, the pattern acquisition unit 140 acquires an image of the front of the main body that does not include pattern light.

패턴획득부(140)는 피사체의 상을 전기적 신호로 변환시킨 후 다시 디지털 신호로 바꿔 메모리소자에 기억시키는 카메라를 포함할 수 있다. 카메라는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.The pattern acquisition unit 140 may include a camera that converts an image of a subject into an electrical signal and then converts the image into a digital signal and stores the image in a memory device. The camera comprises at least one optical lens, an image sensor (e.g. CMOS image sensor) configured to include a plurality of photodiodes (e.g. pixels) formed by light passing through the optical lens, It may include a digital signal processor (DSP) that forms an image based on the signals output from the diodes. The digital signal processor may generate not only a still image but also a moving image composed of frames composed of the still image.

이미지센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 집적된 칩으로 구성되며, 광 다이오드로는 픽셀(pixel)을 예로 들 수 있다. 렌즈를 통과한 광에 의해 칩에 맺힌 영상에 의해 각각의 픽셀들에 전하가 축적되며, 픽셀에 축적된 전하들은 전기적 신호(예를들어, 전압)로 변환된다. 이미지센서로는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등이 잘 알려져 있다.The image sensor is an apparatus for converting an optical image into an electrical signal, and is composed of a chip in which a plurality of photo diodes are integrated. For example, a pixel may be a photo diode. Charges are accumulated in each pixel by an image formed on the chip by light passing through the lens, and the charges accumulated in the pixels are converted into an electrical signal (for example, a voltage). As the image sensor, a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), and the like are well known.

영상처리부는 이미지센서로부터 출력된 아날로그 신호를 바탕으로 디지털 영상을 생성한다. 영상처리부는 아날로그 신호를 디지털 신호로 변환하는 AD컨버터와, AD컨버터로부터 출력된 디지털 신호에 따라 일시적으로 디지털 정보(digital data)를 기록하는 버퍼 메모리(buffer memory)와, 버퍼 메모리에 기록된 정보를 처리하여 디지털 영상을 구성하는 디지털 신호처리기(DSP:Digital Signal Processor)를 포함할 수 있다.The image processor generates a digital image based on the analog signal output from the image sensor. The image processor includes an AD converter for converting an analog signal into a digital signal, a buffer memory for temporarily recording digital data in accordance with a digital signal output from the AD converter, and information recorded in the buffer memory. It may include a digital signal processor (DSP) for processing to form a digital image.

장애물 감지유닛(100)은 획득영상을 통해 패턴을 분석하여 패턴의 형태에 따라 장애물을 감지하고, 센서부(150)는 각 센서의 감지거리에 위치하는 장애물을 구비되는 센서를 통해 감지한다. The obstacle detecting unit 100 analyzes the pattern through the acquired image to detect the obstacle according to the shape of the pattern, and the sensor unit 150 detects the sensor having an obstacle located at a sensing distance of each sensor.

센서부(150)는 복수의 센서를 포함하여 장애물을 감지한다. 센서부(150)는 레이저, 초음파, 적외선 중 적어도 하나를 이용하여 본체(10)의 전방, 즉 주행방향의 장애물을 감지한다. 또한, 센서부(150)는 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서를 더 포함할 수 있다. 센서부(150)는 송출되는 신호가 반사되어 입사되는 경우, 장애물의 존재 여부 또는 장애물까지의 거리에 대한 정보를 장애물 감지신호로써 제어부(110)로 입력한다. The sensor unit 150 includes a plurality of sensors to detect an obstacle. The sensor unit 150 detects an obstacle in front of the main body 10, that is, a driving direction, by using at least one of laser, ultrasonic waves, and infrared rays. In addition, the sensor unit 150 may further include a cliff detection sensor for detecting the presence of a cliff on the floor in the driving zone. When the transmitted signal is reflected and incident, the sensor unit 150 inputs information on the presence or absence of an obstacle or a distance to the obstacle to the controller 110 as an obstacle detection signal.

영상획득부(170)는 이동 로봇이 동작하면, 연속적 영상을 촬영한다. 또한, 영상획득부(170)는 소정 주기로 영상을 촬영할 수 있다. 영상획득부(170)는 장애물 감지유닛(100)에 의해 장애물이 감지되지 않는, 주행 또는 청소상태에서도 영상을 촬영한다. The image acquisition unit 170 captures continuous images when the mobile robot operates. In addition, the image acquisition unit 170 may capture an image at a predetermined cycle. The image acquisition unit 170 captures an image even in a driving or cleaning state in which an obstacle is not detected by the obstacle detecting unit 100.

예를 들어 영상획득부(170)는 1회 촬영 후, 동일한 주행방향으로 이동하게 되면, 주행방향이 변경되지 않고 유지되는 동안 1회 촬영된 영상에 촬영된 장애물의 크기가 변화할 뿐 동일한 장애물이 촬영되므로, 소정 시간 단위로, 주기적으로 영상을 촬영한다. 또한, 영상획득부(170)는 주행방향이 변경되는 경우, 새로운 영상을 촬영한다. For example, when the image acquisition unit 170 moves in the same driving direction after the first shooting, the size of the obstacles recorded on the image once captured is changed while the driving direction is not changed. Since the image is taken, the image is periodically taken in predetermined time units. In addition, the image acquisition unit 170 captures a new image when the driving direction is changed.

영상획득부(170)는 이동 로봇의 이동 속도에 따라 촬영 주기를 설정할 수 있다. 또한, 영상획득부(170)는 센서부에 의한 감지거리와 이동 로봇의 이동속도를 고려하여 촬영 주기를 설정할 수 있다. The image acquisition unit 170 may set a shooting cycle according to the moving speed of the mobile robot. In addition, the image acquisition unit 170 may set the shooting period in consideration of the sensing distance by the sensor unit and the moving speed of the mobile robot.

영상획득부(170)는 본체가 주행하는 중에 촬영되는 영상을 영상데이터(182)로써 데이터부(180)에 저장한다. The image acquisition unit 170 stores the image photographed while the main body is traveling as the image data 182 in the data unit 180.

한편, 장애물 감지유닛(100)은 주행 중에 주행방향에 위치하는 장애물을 감지하여 제어부로 감지신호를 입력한다. 장애물 감지유닛(100)은 감지되는 장애물의 위치 또는 그 움직임에 대한 정보를 제어부(110)로 입력한다. 패턴획득부(140)는 패턴조사부에 의해 조사된 패턴이 포함된 영상을 감지신호로써 제어부로 입력하고, 센서부(150)는 구비되는 센서에 의해 감지되는 장애물에 대한 감지신호를 제어부로 입력한다. Meanwhile, the obstacle detecting unit 100 detects an obstacle located in the driving direction while driving and inputs a detection signal to the controller. The obstacle detecting unit 100 inputs the information on the position or movement of the detected obstacle to the controller 110. The pattern acquisition unit 140 inputs an image including a pattern irradiated by the pattern irradiation unit as a detection signal to the controller, and the sensor unit 150 inputs a detection signal for an obstacle detected by the sensor provided to the controller. .

제어부(110)는 주행영역(H) 중 지정된 주행구역 내에서, 이동 로봇이 주행하도록 주행부(250)를 제어한다. The controller 110 controls the driving unit 250 to allow the mobile robot to travel within the designated driving area of the driving area H.

제어부(110)는 주행 중, 주행부(250) 및 청소부(260)를 제어하여, 이동 로봇 주변의 먼지 또는 이물질을 흡수하도록 함으로써 주행구역에 대한 청소를 수행한다. 그에 따라 청소부(260)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입장치를 동작시켜 먼지 또는 이물질을 흡입한다. 주행 중에 이물질을 흡입하여 청소를 수행하도록 청소부를 제어한다. The control unit 110 controls the driving unit 250 and the cleaning unit 260 while driving, so as to absorb dust or foreign matter around the mobile robot to perform cleaning for the driving zone. Accordingly, the cleaning unit 260 operates the brush to make it easy to suck the dust or foreign matter around the mobile robot, and operates the suction device to suck the dust or foreign matter. The cleaning unit is controlled to inhale foreign matter and carry out cleaning while driving.

제어부(110)는 배터리의 충전용량을 체크하여 충전대로의 복귀 시기를 결정한다. 제어부(110)는 충전용량이 일정값에 도달하면, 수행중이던 동작을 중지하고, 충전대 복귀를 위해 충전대 탐색을 시작한다. 제어부(110)는 배터리의 충전용량에 대한 알림 및 충전대 복귀에 대한 알림을 출력할 수 있다. The controller 110 checks the charging capacity of the battery and determines when to return to the charging station. When the charging capacity reaches a predetermined value, the controller 110 stops the operation being performed and starts searching for the charging station to return to the charging station. The controller 110 may output a notification about the charge capacity of the battery and a notification about the return of the charging stand.

제어부(110)는 조작부(160)의 조작에 의해 입력되는 데이터를 처리하여 이동 로봇의 동작모드를 설정하고, 동작상태를 출력부(190)를 통해 출력하며, 동작상태, 에러상태 또는 장애물 감지에 따른 경고음, 효과음, 음성안내가 스피커를 통해 출력되도록 한다. The controller 110 processes the data input by the manipulation of the manipulation unit 160 to set the operation mode of the mobile robot, outputs the operation state through the output unit 190, and detects the operation state, error state, or obstacle. Follow the warning sound, sound effect, voice guidance through the speaker.

또한, 제어부(110)는 영상획득부(170) 또는 장애물 감지유닛(100)로부터 감지되는 장애물에 대하여, 장애물을 인식하고, 장애물에 대응하여 복수의 대응모션중 어느 하나를 설정하여 수행되도록 한다. In addition, the controller 110 recognizes the obstacle with respect to the obstacle detected by the image acquisition unit 170 or the obstacle detecting unit 100, and sets one of a plurality of corresponding motions in response to the obstacle.

제어부(110)는 영상획득부(170)에 의해 촬영되는 영상으로부터 장애물을 판단하고, 장애물 감지유닛(100)에 의해 장애물이 소정거리 내에 위치하는 것으로 감지되면, 장애물에 대한 대응모션을 설정하여 동작하도록 한다. The controller 110 determines an obstacle from the image photographed by the image acquisition unit 170, and if the obstacle is detected by the obstacle detecting unit 100 within a predetermined distance, sets the corresponding motion for the obstacle. Do it.

제어부(110)는 장애물 감지유닛(100)에 의해 장애물이 감지되기 전, 영상획득부(170)를 통해 촬영된 영상, 즉 영상데이터를 분석하여 영상데이터에 포함된 장애물을 판단할 수 있다. 제어부(110)는 자체 구비되는 데이터를 통해 장애물을 판단할 수 있고, 또한 통신부를 통해 서버 또는 단말로 영상데이터를 전송하여 장애물의 종류를 판단할 수 있다. The controller 110 may determine the obstacle included in the image data by analyzing the image photographed through the image acquisition unit 170, that is, the image data, before the obstacle is detected by the obstacle detecting unit 100. The controller 110 may determine the obstacle through the data provided by itself, and also determine the type of the obstacle by transmitting image data to the server or the terminal through the communication unit.

제어부(110)는 영상이 촬영된 후, 장애물 감지유닛(100)에 의해, 장애물이 소정 거리 내에 위치하는 것으로 감지되면, 감지신호를 해당 장애물의 종류에 따라 대응모션을 설정하는 센서부에 의해 해당 장애물이 감지되는 경우, 미리 인식된 장애물의 종류에 따라 본체가 지정된 동작을 수행하도록 한다. After the image is captured, the controller 110 detects that the obstacle is located within a predetermined distance by the obstacle detecting unit 100, and then detects the detection signal by a sensor unit that sets a corresponding motion according to the type of the obstacle. When the obstacle is detected, the main body performs a specified operation according to the type of the obstacle recognized in advance.

제어부(110)는 장애물 감지유닛의 감지거리에 따라, 장애물이 감지되는 때에 장애물에 대응하는 동작이 수행되도록 할 수 있고, 또한, 장애물 감지유닛에 의해 장애물이 감지되더라도, 장애물이 지정된 거리 내에 위치하는 경우에 장애물에 대응하는 동작이 수행되도록 할 수 있다. The controller 110 may perform an operation corresponding to the obstacle when the obstacle is detected according to the sensing distance of the obstacle detecting unit, and even if the obstacle is detected by the obstacle detecting unit, the obstacle may be located within a specified distance. In this case, an operation corresponding to the obstacle may be performed.

예를 들어 패턴획득부에 의한 감지신호로부터 장애물이 초기 감지되는 거리와, 초음파 센서에 의해 감지되는 거리가 상이한 경우 장애물에 대한 감지신호가 입력되는 시점이 상이해 진다. 그에 따라, 제어부(110)는 장애물을 감지할 수 있는 수단이 복수이거나, 또는 레이저센서와 같이 장애물을 감지할 수 있는 거리가 일정 거리 이상인 경우, 장애물 감지유닛(100)에 의해 감지되는 장애물까지의 거리를 바탕으로, 장애물이 지정된 거리, 예를 들어 30cm 에 위치하는 경우 복수의 대응모션 중 어느 하나가 수행되도록 한다. For example, when the distance from which the obstacle is initially detected from the detection signal by the pattern acquisition unit is different from the distance detected by the ultrasonic sensor, the time point at which the detection signal for the obstacle is input is different. Accordingly, the controller 110 is a plurality of means for detecting the obstacle, or when the distance to detect the obstacle, such as a laser sensor is more than a certain distance, to the obstacle detected by the obstacle detection unit 100 Based on the distance, any one of a plurality of corresponding motions is performed when the obstacle is located at a specified distance, for example, 30 cm.

제어부(110)는 장애물에 대한 감지신호를 바탕으로, 감지신호의 형태에 따라 복수의 대응모션 중 수행 가능한 대응모션을 선별하고, 영상데이터를 분석하여 영상에 포함된 장애물을 인식하여 그에 따라 어느 하나의 대응모션을 선택하여 본체의 동작을 제어한다. The controller 110 selects a corresponding motion that can be performed from among a plurality of corresponding motions according to the shape of the detection signal based on the detection signal for the obstacle, analyzes the image data, and recognizes the obstacle included in the image accordingly. Select the corresponding motion to control the operation of the main unit.

예를 들어 제어부는 감지신호가 패턴에 포함된 영상인 경우 패턴의 형태에 따라 상이한 감지신호로써 판단할 수 있고, 감지신호, 즉 패턴의 형태에 따라 장애물을 구분할 수 있다. For example, when the detection signal is an image included in the pattern, the controller may determine it as a different detection signal according to the shape of the pattern, and may distinguish an obstacle according to the detection signal, that is, the shape of the pattern.

제어부(110)는 영상을 통해 장애물을 인식하는 경우, 촬영된 영상에 대하여 소정 주기로, 장애물 감지유닛에 의해 감지신호가 입력되기 전, 수행할 수 있고, 또한, 장애물 감지신호가 입력되는 때에 판단할 수도 있다. 제어부(110)는 필요에 따라 서버(90) 또는 단말(80)로 데이터를 전송하여 장애물에 대한 데이터를 수신할 수 있다. When the obstacle 110 is recognized through the image, the controller 110 may perform a predetermined cycle with respect to the captured image before the detection signal is input by the obstacle detection unit, and may also determine when the obstacle detection signal is input. It may be. The controller 110 may receive data on the obstacle by transmitting data to the server 90 or the terminal 80 as necessary.

예를 들어 제어부(110)는 상이한 장애물, 문턱, 선풍기, 테이블에 대하여 동일한 감지신호가 입력되는 경우, 해당 감지신호에 대하여 동작 가능한 대응모션을 복수로 선별하고, 영상데이터를 통해 문턱, 선풍기, 테이블에 대하여 각각 대응모션을 설정하여 동작을 제어한다. For example, when the same detection signal is input to different obstacles, thresholds, fans, and tables, the controller 110 selects a plurality of corresponding motions that are operable to the detection signals, and sets the threshold, the fan, and the table through the image data. The motion is controlled by setting the corresponding motion for each.

제어부(110)는 장애물인식부(111), 맵생성부(112), 주행제어부(113)를 포함한다. The controller 110 includes an obstacle recognition unit 111, a map generation unit 112, and a driving control unit 113.

맵생성부(112)는 초기 동작 시, 또는 청소영역에 대한 지도가 저장되어 있지 않은 경우, 청소영역을 주행하면서 장애물 정보를 바탕으로 청소영역에 대한 지도를 생성한다. 또한, 맵생성부(112)는 주행중 획득되는 장애물 정보를 바탕으로, 기 생성된 지도를 갱신한다. The map generator 112 generates a map for the cleaning area based on the obstacle information while driving the cleaning area during the initial operation or when the map for the cleaning area is not stored. In addition, the map generator 112 updates the previously generated map based on the obstacle information acquired while driving.

맵생성부(112)는 주행 중 장애물인식부(111)를 획득되는 정보를 바탕으로 기초맵을 생성하고, 기초맵으로부터 영역을 구분하여 청소맵을 생성한다. 또한, 맵생성부(112)는 청소맵에 대하여 영역을 정리하고, 영역에 대한 속성을 설정하여 사용자맵과 가이드맵을 생성한다. 기초맵은, 주행을 통해 획득되는 청소영역의 형태가 외곽선으로 표시되는 지도이고, 청소맵은 기초맵에 영역이 구분된 지도이다. 기초맵과 청소맵에는 이동 로봇의 주행 가능한 영역과 장애물정보가 포함된다. 사용자맵은 청소맵의 영역을 단순화하고 외각선의 형태를 정리하여 가공한 것으로 시각적 효과를 가미한 지도이다. 가이드맵은 청소맵과 사용자맵이 중첩된 지도이다. 가이드맵에는 청소맵이 표시되므로, 이동 로봇이 실제 주행할 수 있는 영역을 바탕으로 청소명령이 입력될 수 있다. The map generator 112 generates a base map based on the information obtained by the obstacle recognition unit 111 while driving, and generates a cleaning map by dividing an area from the base map. In addition, the map generation unit 112 organizes the region with respect to the cleaning map and sets the attributes of the region to generate the user map and the guide map. The base map is a map in which the shape of the cleaning area obtained through driving is displayed as an outline, and the cleaning map is a map in which areas are divided into the base map. The basic map and the cleaning map include information on the moving area of the mobile robot and obstacle information. The user map is a map that has a visual effect by simplifying the area of the cleaning map and arranging the outlines. The guide map is a map in which the clean map and the user map overlap. Since the cleaning map is displayed on the guide map, a cleaning command may be input based on an area in which the mobile robot can actually travel.

맵생성부(112)는 기초맵 생성 후, 청소영역을 복수의 영역으로 구분하고, 복수의 영역을 연결하는 연결통로를 포함하며, 각 영역 내의 장애물에 대한 정보를 포함하여 지도를 생성한다. 맵생성부(112)는, 지도상의 영역 구분을 위해 소영역을 분리하여 대표영역을 설정하고, 분리된 소영역을 별도의 세부영역으로 설정하여 대표영역에 병합함으로써 영역이 구분된 지도를 생성한다.After generating the base map, the map generation unit 112 divides the cleaning area into a plurality of areas, includes a connection path connecting the plurality of areas, and generates a map including information on obstacles in each area. The map generation unit 112 generates a map in which regions are divided by dividing the small regions to distinguish the regions on the map, and setting the representative regions, and setting the separated small regions as separate detailed regions and merging them into the representative regions. .

맵생성부(112)는 구분된 각 영역에 대하여, 영역의 형태를 가공한다. 맵생성부(112)는 구분된 영역에 대하여 속성을 설정하고, 영역별 속성에 따라 영역의 형태를 가공한다.The map generation unit 112 processes the shape of the region for each divided region. The map generator 112 sets attributes for the divided regions and processes the shape of the regions according to the attributes for each region.

장애물인식부(111)는 영상획득부(170) 또는 장애물 감지유닛(100)으로부터 입력되는 데이터를 통해 장애물을 판단하고, 맵생성부(112)는 주행구역에 대한 지도를 생성하고, 감지되는 장애물에 대한 정보가 지도에 포함되도록 한다. 또한, 주행제어부(113)는 장애물 정보에 대응하여 이동방향 또는 주행경로를 변경하여 장애물을 통과하거나 또는 장애물을 회피하여 주행하도록 주행부(250)를 제어한다. The obstacle recognition unit 111 determines an obstacle based on data input from the image acquisition unit 170 or the obstacle detection unit 100, and the map generator 112 generates a map for the driving zone and detects the obstacle. Ensure that information about is included on the map. In addition, the driving controller 113 controls the driving unit 250 to change the moving direction or the driving path in response to the obstacle information so as to pass through the obstacle or to avoid the obstacle.

주행제어부(113)는 주행부(250)를 제어하여 좌륜 구동모터와 우륜 구동모터의 작동을 독립적으로 제어함으로써 본체(10)가 직진 또는 회전하여 주행하도록 한다. 주행제어부(113)는 청소명령에 따라 주행부(250)와 청소부(260)를 제어하여 본체(10)가 청소영역을 주행하면서 이물질을 흡입하여 청소가 수행되도록 한다. The driving controller 113 controls the driving unit 250 to independently control the operation of the left wheel driving motor and the right wheel driving motor so that the main body 10 travels straight or rotated. The traveling control unit 113 controls the driving unit 250 and the cleaning unit 260 according to the cleaning command so that the main body 10 inhales foreign substances while driving the cleaning area to perform cleaning.

장애물인식부(111)는 장애물 감지유닛(100)으로부터 입력되는 데이터를 분석하여 장애물을 판단한다. 장애물인식부(111)는 장애물 감지유닛의 감지신호, 예를 들어 초음파 또는 레이저 등의 신호에 따라 장애물의 방향 또는 장애물까지의 거리를 산출하고, 또한, 패턴이 포함된 획득영상을 분석하여 패턴을 추출하고 패턴의 형태를 분석하여 장애물을 판단한다. 장애물인식부(111)는 초음파 또는 적외선 신호를 이용하는 경우 장애물과의 거리 또는 장애물의 위치에 따라 수신되는 초음파의 형태, 초음파가 수신되는 시간에 차이가 있으므로 이를 바탕으로 장애물을 판단한다. The obstacle recognition unit 111 determines an obstacle by analyzing data input from the obstacle detection unit 100. The obstacle recognition unit 111 calculates the direction of the obstacle or the distance to the obstacle according to a detection signal of the obstacle detection unit, for example, an ultrasonic or laser signal, and analyzes the acquired image including the pattern to analyze the pattern. The obstacles are determined by extracting and analyzing the shape of the pattern. When the obstacle recognition unit 111 uses an ultrasonic wave or an infrared signal, the obstacle recognition unit 111 determines an obstacle based on the distance between the obstacle or the position of the obstacle, since the shape of the ultrasonic wave is different from the time when the ultrasonic wave is received.

또한, 장애물인식부(111)는 영상획득부(170)에 의해 장애물을 촬영한 영상데이터가 입력되면, 데이터부(180)에 저장한다. 영상획득부(170)는 전방의 장애물을 복수회 촬영하므로, 영상데이터 또한 복수개가 저장된다. 또한, 영상획득부(170)가 주행방향에 대한 영상을 연속 촬영하는 경우, 장애물인식부(111)는 입력되는 동영상을 영상데이터로써 저장하거나 또는 동영상을 프레임 단위로 구분하여 영상데이터로써 저장한다. 장애물인식부(111)는 동영상을 프레임 단위로 분석하여 불필요한 프레임, 즉 대상물이 흔들리거나 초점이 맞지 않는 프레임 또는 빈 프레임(장애물이 촬영되지 않은 프레임)은 제거하고, 소정 시간 단위로 프레임을 영상데이터로써 저장한다. In addition, the obstacle recognition unit 111 stores the image data photographing the obstacle by the image acquisition unit 170 and stores it in the data unit 180. Since the image acquisition unit 170 photographs the obstacle in front of the plurality of times, a plurality of image data are also stored. In addition, when the image acquisition unit 170 continuously photographs the image in the driving direction, the obstacle recognition unit 111 stores the input video as image data or divides the video by frame unit as image data. The obstacle recognition unit 111 analyzes the video in a frame unit, and removes unnecessary frames, that is, frames in which an object is not shaken or in focus, or empty frames (frames in which obstacles are not photographed). Save as.

장애물인식부(111)는 복수의 영상데이터를 분석하여, 촬영된 대상, 즉 장애물을 인식할 수 있는지 여부를 판단한다. 이때 장애물인식부(111)는 영상데이터를 분석하여 영상데이터가 인식 가능한 것인지 아닌지 여부를 판단한다. 예를 들어, 장애물인식부(111)는 흔들린 영상, 초점이 맞지 않는 영상, 어두워서 장애물을 구분할 수 없는 영상을 분리하여 폐기한다. The obstacle recognition unit 111 analyzes the plurality of image data to determine whether the object to be photographed, that is, the obstacle can be recognized. At this time, the obstacle recognition unit 111 analyzes the image data to determine whether or not the image data is recognizable. For example, the obstacle recognition unit 111 separates and discards a shaken image, an image that is not in focus, and an image that cannot distinguish an obstacle due to a dark state.

장애물인식부(111)는 영상데이터를 분석하여 장애물의 특징으로 추출하고, 장애물의 형상(형태), 크기 및 색상 바탕으로 장애물을 판단하고 그 위치를 판단한다. 장애물인식부(111)는 기 촬영된 복수의 영상으로부터 장애물을 분석하고, 장애물이 지정거리에 위치하는 것으로 판단되는 시점을 기준으로 기 설정된 시간 이전에 촬영된 영상을 분석하여 장애물을 판단한다. The obstacle recognition unit 111 analyzes the image data and extracts the characteristics of the obstacle, determines the obstacle based on the shape (shape), size, and color of the obstacle, and determines the location thereof. The obstacle recognition unit 111 analyzes the obstacle from the plurality of images photographed in advance, and analyzes the image photographed before the preset time on the basis of the point in time at which the obstacle is determined to be located at the designated distance, and determines the obstacle.

감지신호에 의해 장애물 판단 후 영상데이터를 통한 장애물 판단을 수행하는 것으로 기재하고 있으나, 그 순서에 한정되지 아니하고, 영상을 통한 장애물 판단을 수행한 후에 감지신호에 의한 장애물 판단은 수행할 수 있고, 또한, 동시에 수행 될 수 있다. Although it is described that an obstacle is determined through the image data after the obstacle is determined by the detection signal, the present invention is not limited thereto, and the obstacle is determined by the detection signal after the obstacle is determined through the image. , Can be performed at the same time.

장애물에 지정거리 이내로 접근한 상태에서는 장애물의 일부만 촬영될 수 있으므로, 기 설정된 시간 이전에 촬영된, 즉 지정거리보다 먼 거리에서 촬영되어 장애물의 전체형상이 촬영된 영상을 이용하여 장애물을 판단한다. 장애물인식부(111)는 구체적인 장애물의 종류를 판단할 수 있고, 경우에 따라 형상과 크기만을 판단할 수도 있다. Since only a part of the obstacle may be photographed in a state in which the obstacle is approached within a specified distance, the obstacle is determined using an image photographed before a preset time, that is, captured at a distance greater than the specified distance and the entire shape of the obstacle is photographed. The obstacle recognition unit 111 may determine the type of a specific obstacle, and in some cases, may determine only a shape and a size.

장애물인식부(111)는 영상데이터로부터 영상의 배경을 제외하고, 기 저장된 장애물데이터를 바탕으로 장애물의 특징을 추출하여 장애물의 종류를 판단할 수 있다. 장애물데이터(181)는 서버로부터 수신되는 새로운 장애물데이터에 의해 갱신된다. 이동 로봇(1)은 감지되는 장애물에 대한 장애물데이터를 저장하고 그외 데이터에 대하여 서버로부터 장애물의 종류에 대한 데이터를 수신할 수 있다. The obstacle recognition unit 111 may determine the type of the obstacle by extracting the feature of the obstacle based on the previously stored obstacle data, excluding the background of the image from the image data. The obstacle data 181 is updated by new obstacle data received from the server. The mobile robot 1 may store obstacle data on the detected obstacle and receive data on the type of obstacle from the server for other data.

장애물인식부(111)는 영상을 구성하는 소정의 픽셀들에 대해 점, 선, 면 등의 특징을 검출 (feature detection)하고, 이렇게 검출된 특징을 바탕으로 장애물을 검출한다. The obstacle recognition unit 111 detects a feature such as a point, a line, a surface, or the like with respect to predetermined pixels of the image, and detects an obstacle based on the detected feature.

장애물인식부(111)는 장애물의 외곽선을 추출하여 그 형태를 바탕으로 장애물을 인식하여 그 종류를 판단한다. 장애물인식부(111)는 형태를 바탕으로, 장애물의 색상, 크기에 따라 장애물의 종류를 판단할 수 있다. 또한, 장애물인식부(111)는 장애물의 형태와 움직임을 바탕으로 장애물의 종류를 판단할 수 있다. The obstacle recognition unit 111 extracts the outline of the obstacle and recognizes the obstacle based on the shape to determine the type of the obstacle. The obstacle recognition unit 111 may determine the type of obstacle based on the shape and size of the obstacle. In addition, the obstacle recognition unit 111 may determine the type of obstacle based on the shape and movement of the obstacle.

장애물인식부(111)는 장애물 정보를 바탕으로, 사람, 동물, 사물을 구분한다. 장애물인식부(111)는 장애물의 종류를, 일반장애물, 위험장애물, 생체장애물, 바닥장애물로 분류하고, 각 분류에 대하여 세부적인 장애물의 종류를 판단할 수 있다. The obstacle recognition unit 111 classifies a person, an animal, and an object based on the obstacle information. The obstacle recognition unit 111 may classify the types of obstacles into general obstacles, dangerous obstacles, biological obstacles, and floor obstacles, and determine the type of detailed obstacles for each classification.

또한, 장애물인식부(111)는 인식 가능한 영상데이터를 통신부(280)를 통해 서버(90)로 전송하여 장애물의 종류를 판단하도록 한다. 통신부(280)는 적어도 하나의 영상데이터를 서버(90)로 전송한다.In addition, the obstacle recognition unit 111 transmits recognizable image data to the server 90 through the communication unit 280 to determine the type of obstacle. The communication unit 280 transmits at least one image data to the server 90.

서버(90)는 이동 로봇(1)으로부터 영상데이터가 수신되면, 영상데이터를 분석하여 촬영된 대상에 대한 외곽선 또는 형상을 추출하고, 기 저장된 장애물에 대한 데이터와 비교하여, 장애물의 종류를 판단한다. 서버(90)는 유사한 형태 또는 유사한 색상의 장애물을 우선 검색하고, 해당 영상데이터로부터 특징을 추출하여 비교함으로써, 장애물의 종류를 판단한다. When the image data is received from the mobile robot 1, the server 90 analyzes the image data, extracts the outline or shape of the photographed object, and compares the data with the previously stored obstacles to determine the type of the obstacle. . The server 90 first searches for obstacles of a similar shape or color, and extracts and compares features from the corresponding image data to determine the type of obstacle.

서버(90)는 장애물의 종류를 판단한 후, 장애물에 대한 데이터를 이동 로봇(1)으로 전송한다. After determining the type of obstacle, the server 90 transmits data about the obstacle to the mobile robot 1.

장애물인식부(111)는 통신부를 통해 서버로부터 수신되는 장애물에 대한 데이터를 장애물데이터로써 데이터부(180)에 저장한다. 장애물인식부(111)는 서버에 의해 장애물의 종류가 판단되면, 그에 대응하는 동작을 수행하도록 한다. 주행제어부(113)는 장애물의 종류에 대응하여 장애물을 회피하거나, 접근하거나 또는 통과하도록 주행부를 제어하고, 경우에 따라 소정의 효과음 또는 경고음, 음성안내가 스피커를 통해 출력되도록 한다. The obstacle recognition unit 111 stores the data on the obstacle received from the server through the communication unit as the obstacle data in the data unit 180. When the obstacle recognition unit 111 determines the type of the obstacle by the server, the obstacle recognition unit 111 performs an operation corresponding thereto. The driving controller 113 controls the driving unit to avoid, approach, or pass the obstacle in response to the type of the obstacle, and optionally outputs a predetermined sound effect, warning sound, and voice guidance through the speaker.

장애물인식부(111)는 앞서 설명한 바와 같이, 영상데이터를 인식 가능한지 여부를 판단하고, 저장된 장애물데이터에 따라 영상데이터를 서버로 전송함으로써, 서버의 응답에 따라 장애물의 종류를 인식한다. As described above, the obstacle recognition unit 111 determines whether the image data can be recognized and transmits the image data to the server according to the stored obstacle data, thereby recognizing the type of the obstacle in response to the server.

또한, 장애물인식부는 복수의 장애물 중 선택된 장애물에 대하여, 장애물 인식을 위한 장애물데이터를 저장함으로써, 서버로 영상데이터를 전송하지 않더라도 장애물인식데이터를 바탕으로, 장애물을 인식할 수 있다. In addition, the obstacle recognition unit may store the obstacle data for obstacle recognition of the selected obstacle among the plurality of obstacles, and may recognize the obstacle based on the obstacle recognition data even if the image data is not transmitted to the server.

제어부(110)는 데이터부(180)의 저장용량에 한계가 있으므로, 선택된 일부 장애물에 대한 정보를 장애물인식데이터로써 저장할 수 있다. 예를 들어 제어부(110)는 단말(80)을 통해 선택된 장애물, 또는 감지 횟수를 바탕으로 감지 횟수가 많은 장애물에 대하여 데이터부에 장애물인식데이터를 저장할 수 있다. Since the controller 110 has a limited storage capacity of the data unit 180, the controller 110 may store information on some selected obstacles as obstacle recognition data. For example, the controller 110 may store the obstacle recognition data in the data unit for an obstacle selected through the terminal 80 or an obstacle having a large number of detections based on the number of detections.

그에 따라 장애물인식부(111)는 청소영역에 존재하는 장애물, 반복적으로 감지되는 장애물에 대하여 데이터부에 저장함으로써, 장애물이 감지되면 즉시 그에 대응하는 동작을 수행할 수 있다. Accordingly, the obstacle recognition unit 111 may store an obstacle in the cleaning area and an obstacle that is repeatedly detected in the data unit to immediately perform an operation corresponding to the detected obstacle.

주행제어부(113)는 영상데이터로부터 주행제어부(113)는 장애물의 종류가 인식되면, 장애물의 종류에 대응하여 주행부(250)를 제어하여, 본체(10)가 소정의 동작을 수행하도록 한다. When the driving controller 113 recognizes the type of obstacle from the image data, the driving controller 113 controls the driving unit 250 in response to the type of the obstacle so that the main body 10 performs a predetermined operation.

주행제어부(113)는 장애물 감지유닛(100)의 감지신호에 따라 장애물이 소정 거리 내에 위치하는 것으로 판단되면, 감지신호의 종류 또는 형태에 따라 실행 가능한 대응모션에 대하여, 영상데이터를 바탕으로 판단되는 장애물의 종류, 형태 크기에 따라 복수의 대응모션 중 어느 하나를 설정하여 동작을 수행한다. If it is determined that the obstacle is located within a predetermined distance according to the detection signal of the obstacle detecting unit 100, the driving controller 113 is determined based on the image data with respect to the corresponding motion executable according to the type or shape of the detection signal. An operation is performed by setting any one of a plurality of corresponding motions according to the type and shape of the obstacle.

주행제어부(113)는 장애물인식부(111)로부터 인식되는 장애물에 대응하여, 주행 가능 여부 또는 진입가능 여부를 판단하여 장애물에 접근하여 주행하거나, 장애물을 통과하거나, 또는 장애물을 회피하도록 주행경로/청소경로를 설정하여 주행부(250)를 제어한다. In response to the obstacle recognized by the obstacle recognition unit 111, the driving controller 113 determines whether the vehicle is capable of driving or whether the vehicle is able to enter the vehicle, and moves to approach the obstacle, passes the obstacle, or avoids the obstacle. The driving path 250 is controlled by setting a cleaning path.

예를 들어, 주행제어부(113)는 장애물에 대응하여, 본체(10)가 정지, 감속, 가속, 역주행, 유턴, 주행방향을 변경하도록 하며, 장애물에 대하여 일정거리 이상 접근하지 않도록 하고, 일정시간 대기하도록 할 수 있다. 또한, 주행제어부(113)는 장애물에 따라 지정된 소리가 스피커를 통해 출력되도록 하며, 지정된 동작과 함께 소리가 출력되도록 할 수 있다. For example, the driving control unit 113 in response to the obstacle, the main body 10 to stop, decelerate, accelerate, reverse driving, u-turn, driving direction, so as not to approach the obstacle more than a certain distance, a certain time You can wait. In addition, the driving control unit 113 may output the specified sound according to the obstacle through the speaker, and may be output along with the specified operation.

주행제어부(113)는 장애물 감지유닛(100)을 통해 장애물이 지정된 거리 내에 위치하는 경우, 감지신호에 따라 회피, 접근, 접근거리에 대한 설정, 그리고 정지, 감속, 가속, 역주행, 유턴 및 주행방향 변경과 같은 복수의 대응모션을 설정하고, 기 촬영된 영상데이터로부터 판단되는 장애물에 따라 어느 하나의 대응모션을 설정하여 주행부를 제어한다. When the obstacle is located within the designated distance through the obstacle detecting unit 100, the driving controller 113 sets the avoidance, approach, approach distance, and stop, deceleration, acceleration, reverse driving, u-turn and driving direction according to the detection signal. A plurality of corresponding motions such as a change are set, and one corresponding motion is set according to an obstacle determined from previously photographed image data to control the driving unit.

즉 주행제어부(113)는 입력되는 감지신호에 따라 복수의 대응모션을 설정하되, 기 촬영된, 감지신호가 입력되기 이전 시간의 영상데이터로부터 판단되는 장애물에 대응하여 복수의 대응모션 중 어느 하나의 대응모션이 수행되되도록 주행부를 제어한다. 주행제어부(113)는 영상데이터를 통해 장애물의 종류가 구체적으로 판단되는 경우 장애물의 종류에 따라 대응모션을 설정하고, 정확한 종류를 판단할 수 없는 경우라도, 장애물의 형상 또는 크기에 따라 대응모션을 설정할 수 있다. 예를 들어 구체적인 종류는 알 수 없으나, 바닥면으로부터 일정 크기 이상의 공간, 즉 이동 로봇이 통관 가능한 높이와 폭의 공간, 이 존재하는 경우 본체가 장애물을 통과하도록 설정할 수 있다. That is, the driving control unit 113 sets a plurality of corresponding motions according to the input detection signal, and in response to the obstacle determined from the image data of the time before the detection signal is input, the one of the plurality of corresponding motions is set. The driving unit is controlled to perform the corresponding motion. When the type of obstacle is determined in detail through the image data, the driving controller 113 sets the corresponding motion according to the type of the obstacle, and even if it is impossible to determine the correct type, the driving control unit 113 performs the corresponding motion according to the shape or size of the obstacle. Can be set. For example, the specific type is unknown, but if there is a space of a predetermined size or more from the bottom surface, that is, a space having a height and width through which the mobile robot can pass, the main body may be set to pass through an obstacle.

도 7 및 도 8은 발명의 이동 로봇의 주행 및 주행중 촬영되는 영상의 예가 도시된 도이다. 7 and 8 are diagrams showing an example of an image photographed while driving and driving of the mobile robot of the present invention.

도 7에 도시된 바와 같이, 이동 로봇(1)은 주행 중, 본체(10)의 전방에 위치하는 장애물을 감지한다.As shown in FIG. 7, the mobile robot 1 detects an obstacle located in front of the main body 10 while driving.

도 7의 (a)와 같은 주행영역(H)에서 이동 로봇(1)이 창문(O4)을 향해 주행하는 경우, 도 7의 (b)와 같은 영상이 촬영된다. 촬영된 영상에는 주행방향에 위치하는 복수의 장애물(O01 내지 O06)이 포함된다. When the mobile robot 1 travels toward the window O4 in the travel area H as illustrated in FIG. 7A, an image as illustrated in FIG. 7B is captured. The captured image includes a plurality of obstacles O01 to O06 positioned in the driving direction.

영상획득부(170)는 영상을 연속하여 촬영하거나, 또는 소정 주기에 따라 반복하여 촬영할 수 있다. The image acquisition unit 170 may photograph images continuously or repeatedly photograph the images according to a predetermined period.

이동 로봇(1)이 일정거리 전진하면, 도 8에 도시된 바와 같이, 장애물에 가까워짐에 따라 장애물이 확대된 형태로 촬영된다. When the mobile robot 1 advances a certain distance, as shown in FIG. 8, as the obstacle approaches the obstacle, the obstacle is photographed in an enlarged form.

이동 로봇(1)의 본체가 이동할수록 촬영되는 영상에는 이동 로봇의 주행방향에 위치한 장애물일수록 영상 내에서의 면적이 증가하고 이동 로봇의 주행방향과 반대에 위치한 장애물일수록 영상에서 차지하는 면적이 감소하게 된다. As the main body of the mobile robot 1 moves, the area of the image increases as the obstacle located in the traveling direction of the mobile robot increases, and the area occupied by the image decreases as the obstacle located opposite to the moving direction of the mobile robot moves. .

도 8의 (a)와 같이 이동 로봇이 이동함에 따라, 영역 내에 위치하는 복수의 장애물(O01 내지 O06) 중, 제 2 및 제 3 장애물(O02, O03)에 접근하게 된다. 그에 따라 영상획득부(170)를 통해 촬영되는 영상에는 도 8의 (b)에 도시된 바와 같이, 제 2 및 제 3 장애물(O02, O03)이 촬영된다. As the mobile robot moves as shown in FIG. 8A, the second and third obstacles O02 and O03 are approached among the plurality of obstacles O01 to O06 located in the area. Accordingly, the second and third obstacles O02 and O03 are photographed in the image photographed through the image acquisition unit 170 as shown in FIG.

장애물인식부(111)는 도 7와 같은 위치에서 촬영된 영상을 저장하고, 저장된 영상데이터를 통해 복수의 장애물(O01 내지 O06)을 감지하여 인식할 수 있다. 도 8에 도시된 바와 같이 이동 로봇(1)이 제 2 및 제 3 장애물(O02, O03)에 접근하면, 장애물 감지유닛(100)에 의해 감지신호가 입력되고, 장애물인식부(111)는 장애물이 지정거리 내에 위치하는 것으로 판단하여 기 촬영된 영상데이터를 바탕으로 장애물을 판단한다. 장애물인식부(111)는 감지신호 입력 전에 장애물을 판단할 수 있고, 또한, 서버 또는 단말로 영상데이터를 전송하여 장애물을 판단할 수 있다. The obstacle recognition unit 111 may store the image photographed at the position as shown in FIG. 7, and detect and recognize the plurality of obstacles O01 to O06 through the stored image data. As shown in FIG. 8, when the mobile robot 1 approaches the second and third obstacles O02 and O03, a detection signal is input by the obstacle detection unit 100, and the obstacle recognition unit 111 is an obstacle. It is determined that the position within the specified distance to determine the obstacle based on the pre-recorded image data. The obstacle recognition unit 111 may determine the obstacle before inputting the detection signal, and may determine the obstacle by transmitting image data to the server or the terminal.

이동 로봇(1)의 주행방향이 변경되는 경우, 감지신호에 따라 장애물을 판단하는 경우, 주행방향이 변경되기 전에 촬영된 영상데이터에는 주행방향의 장애물이 촬영되지 않을 가능성이 크므로 주행방향이 변경된 이후의 영상을 바탕으로 장애물을 판단한다. 따라서 이동 로봇(1)은 장애물 감지유닛(100)의 감지신호에 따라 장애물이 지정거리 내에 위치하는 경우, 동일한 주행방향에서 기 촬영된 영상데이터를 바탕으로 장애물을 판단한다. When the driving direction of the mobile robot 1 is changed, when the obstacle is judged according to the detection signal, since the obstacle in the driving direction is not likely to be captured in the image data photographed before the driving direction is changed, the driving direction is changed. Obstacles are determined based on the following images. Therefore, when the obstacle is located within a predetermined distance according to the detection signal of the obstacle detecting unit 100, the mobile robot 1 determines the obstacle based on the image data photographed in the same driving direction.

이동 로봇(1)은 촬영된 영상데이터로부터 장애물을 인식하여 장애물의 종류를 판단한다. 영상획득부(170)는 주행 중에 촬영되는 영상데이터를 저장하고, 제어부는 소정 주기에 따라 영상데이터를 분석하여 장애물을 판단하거나 또는 장애물이 지정거리에 위치하는 것으로 장애물 감지유닛(100)에 의해 감지되면 기 촬영된 영상데이터를 이용하여 장애물을 판단할 수 있다. The mobile robot 1 determines the type of obstacle by recognizing the obstacle from the captured image data. The image acquisition unit 170 stores image data photographed while driving, and the controller analyzes the image data according to a predetermined period to determine an obstacle or that the obstacle is located at a predetermined distance and detected by the obstacle detecting unit 100. If it is possible to determine the obstacle using the pre-recorded image data.

제어부는 제 2 및 제 3 장애물(O02, O03)에 대하여 앞서 설명한 바와 같이 영상데이터를 통해 장애물의 종류, 형태, 크기 등에 대한 정보를 판단하므로, 그에 대응하여 대응모션이 수행되도록 주행부를 제어한다. The controller determines the information on the type, shape, size, etc. of the obstacle through the image data as described above with respect to the second and third obstacles O02 and O03, and controls the driving unit to perform a corresponding motion in response thereto.

예를 들어 제어부(110)는 탁자인 제 2 장애물(O002)에 대하여, 제 2 장애물에 대한 감지신호가 입력되면, 접근 후 회피, 진입의 두가지 대응모션을 선별하고, 영상데이터를 분석하여 탁자 밑으로 진입 가능한지 여부에 따라 어느 하나의 대응모션을 결정하여 동작한다. For example, when the detection signal for the second obstacle is input to the second obstacle O002, which is a table, the controller 110 selects two corresponding motions of avoiding and entering after approaching and analyzes the image data to analyze the image data. It operates by determining one of the corresponding motions according to whether it is possible to enter.

종류가 동일한 탁자라도, 그 크기가 상이하고, 탁자 밑의 공간의 크기가 상이하며, 이동 로봇의 크기 또한 상이할 수 있으므로 이동 로봇의 진입 가능 여부가 상이하므로, 제어부는 장애물 감지유닛(100)의 감지신호를 바탕으로 복수의 대응모션, 예를 들어 접근 후 회피하거나 진입 또는 통과하도록 하는, 수행 가능한 대응모션을 설정하되, 영상분석을 통해 장애물의 종류, 형태(형상), 크기에 따라 복수의 대응모션 중 어느 하나의 대응모션을 지정하여 수행하도록 결정한다. Even if the table is the same type, the size is different, the size of the space under the table is different, the size of the mobile robot may also be different, so whether or not the entry of the mobile robot is different, the control unit of the obstacle detection unit 100 Based on the detection signal, a plurality of corresponding motions, for example, a corresponding motion that can be avoided or entered or passed after approaching, can be set. Decide to perform by designating the corresponding motion of the motion.

탁자의 높이와 탁자 다리의 폭에 따라 탁자 밑으로 진입할지 여부를 판단하여 주행방향을 결정하게 된다. 또한, 동일한 제 2 장애물(O2), 탁자에 대하여, 제 3 장애물(03)인 의자의 존재 여부에 따라 대응모션이 변경될 수 있다. Depending on the height of the table and the width of the legs of the table to determine whether to enter under the table to determine the driving direction. In addition, with respect to the same second obstacle O2 and the table, the corresponding motion may be changed according to the presence or absence of the chair as the third obstacle 03.

그에 따라 이동 로봇은, 장애물에 대하여 감지신호 입력 시 처리할 수 있는 복수의 대응모션을 설정하고, 영상을 통해 판단되는 장애물의 정보에 따라 어느 하나의 대응모션을 설정함에 따라 탁자라는 장애물에 대하여 장애물의 크기나 형상, 이동 로봇의 본체 크기 등에 따라 상이한 대응모션을 수행할 수 있다. Accordingly, the mobile robot sets a plurality of corresponding motions that can be processed when the detection signal is input to the obstacle, and sets one of the corresponding motions according to the information of the obstacle determined through the image. Depending on the size and shape of the, the size of the main body of the mobile robot can be performed a different corresponding motion.

도 9 는 본 발명의 일실시예에 따른 이동 로봇의 장애물에 따른 감지신호 및 장애물인식에 대하여 설명하는데 참조되는 도이고, 도 10 은 본 발명의 일실시예에 따른 이동 로봇의 주행 중 장애물의 종류에 따른 동작을 설명하는데 참조되는 도이다. 9 is a view for explaining the detection signal and the obstacle recognition according to the obstacle of the mobile robot according to an embodiment of the present invention, Figure 10 is a kind of obstacles while driving the mobile robot according to an embodiment of the present invention Is a diagram referred to for explaining the operation according to.

도 9의 (a)에 도시된 바와 같이 장애물 감지유닛(100)은, 지정 거리 내에 장애물이 위치하는 것으로 감지되면, 그에 대한 감지신호를 입력한다. As illustrated in (a) of FIG. 9, when detecting that an obstacle is located within a predetermined distance, the obstacle detecting unit 100 inputs a detection signal thereto.

장애물 감지유닛(100) 중, 패턴조사부로부터 조사된 패턴이 패턴획득부에 촬영되면, 영상에는 도시된 바와 같이 장애물에 조사된 패턴(P1)이 표시된다.When the pattern irradiated from the pattern irradiator is photographed on the pattern acquisition unit, the pattern P1 irradiated to the obstacle is displayed on the image.

패턴이 기준선(ref1)보다 상부에 위치함에 따라, 장애물인식부(111)는 주행방향에 일정 높이는 갖는 장애물이 위치하는 것으로 판단할 수 있다. As the pattern is positioned above the reference line ref1, the obstacle recognition unit 111 may determine that an obstacle having a predetermined height in the driving direction is located.

그에 따라 주행제어부는 감지신호에 대응하여, 전방에 위치한 장애물에 대하여 수행할 수 있는 대응모션을 복수 설정한다. 예를 들어 회피, 접근, 진입, 통과 등의 대응모션을 설정할 수 있다. Accordingly, in response to the detection signal, the traveling controller sets a plurality of corresponding motions that can be performed on the obstacle located ahead. For example, response motion such as avoidance, approach, entry, and passage can be set.

또한, 장애물인식부(111)는 감지신호가 입력된 때에, 기 촬영된, 즉 감지신호가 입력되기 전에 촬영된 영상데이터를 분석하여 주행방향에 위치한 장애물을 판단한다. In addition, the obstacle recognition unit 111 determines the obstacle located in the driving direction by analyzing the image data photographed when the detection signal is input, that is, photographed before the detection signal is input.

도 9의 (b)의 같이 에어컨의 하단부에 패턴이 조사되는 경우, 도 9의 (c)와 같이 선풍기의 하부, 선풍기의 받침대 부분에 패턴이 조사되는 경우, 도 9의 (d)와 같이 문턱에 패턴이 조사되는 경우, 그리고 도 9의 (e)와 같이, 작은 상자에 패턴이 조사되는 경우, 앞서 설명한 도 9의 (a)와 같은 패턴이 영상으로 촬영될 수 있다. When the pattern is irradiated to the lower end of the air conditioner as shown in (b) of FIG. 9, when the pattern is irradiated to the bottom of the fan and the pedestal portion of the fan as shown in (c) of FIG. 9, the threshold as shown in (d) of FIG. When the pattern is irradiated, and when the pattern is irradiated to the small box as shown in (e) of FIG. 9, the pattern as shown in FIG. 9 (a) described above may be photographed.

각각 상이한 장애물임에도 동일한 패턴이 검출됨에 따라, 장애물인식부(111)는 기 촬영된 영상을 바탕으로 장애물을 판단한다. As the same pattern is detected even though the obstacles are different from each other, the obstacle recognition unit 111 determines the obstacle based on the pre-recorded image.

도 10에 도시된 바와 같이, 감지신호가 입력되기 전에 촬영된 영상을 분석하여 주행방향에 위치한 장애물이 선풍기인 것을 판단할 수 있다. As shown in FIG. 10, the obstacle image located in the driving direction may be determined by analyzing the photographed image before the detection signal is input.

도 10의 (a)에 도시된 바와 같이, 이동 로봇(1)은 주행 중에, 촬영된 영상을 저장하고, 장애물 감지유닛(100)에 의해 장애물이 지정 거리 내에 위치하는 것이 감지되면, 장애물인식부(111)는 기 촬영된 영상을 분석하여 영상데이터에 촬영된 장애물을 인식하여 종류, 크기, 형상(형태) 등의 장애물에 대한 정보를 판단한다.As shown in (a) of FIG. 10, the mobile robot 1 stores the captured image while driving and detects that the obstacle is located within a predetermined distance by the obstacle detecting unit 100. The 111 analyzes the photographed image to recognize obstacles photographed in the image data to determine information on obstacles such as type, size, shape (shape), and the like.

장애물인식부(111)는 감지신호가 입력되기 전, 즉 장애물이 지정 거리 보다 먼 거리에 위치한 때에 촬영된 영상데이터를 분석하여 장애물을 판단한다. The obstacle recognition unit 111 determines the obstacle by analyzing the image data photographed before the detection signal is input, that is, when the obstacle is located farther than the specified distance.

예를 들어 장애물인식부(111)는 제 2 거리(D02)에서 감지신호가 입력되는 경우, 제 2 거리에서는 도 10의 (c)와 같이 장애물의 일부만이 촬영되므로, 장애물에 대한 감지신호가 입력되기 전, 감지신호가 입력되는 시점을 기준으로 일정 시간 전에 제 1 거리(D01)에서 촬영된 도 10 (b) 영상을 분석하여 장애물을 판단한다. 장애물인식부(1111)는 동일한 주행방향에서 촬영된 영상을 바탕으로 촬영한다. For example, when the obstacle recognition unit 111 receives a detection signal at the second distance D02, only a part of the obstacle is photographed at the second distance as illustrated in FIG. 10C, so that the detection signal for the obstacle is input. Before the detection, the obstacle is determined by analyzing the image of FIG. 10 (b) taken at the first distance D01 based on a time point at which the detection signal is input. The obstacle recognition unit 1111 photographs based on the image photographed in the same driving direction.

장애물인식부(111)는 본체의 주행 반향이 변경되는 경우, 주행방향이 변경된 이후에 촬영된 영상으로부터 장애물을 판단한다.When the driving echo of the main body is changed, the obstacle recognition unit 111 determines the obstacle from the image photographed after the driving direction is changed.

주행제어부는 감지신호에 따른 복수의 대응모션 중, 도 9의 (c)와 같이 장애물이 선풍기임을 영상을 통해 판단하여 그에 대한 대응모션을 수행하도록 한다. 예를 들어 선풍기의 경우, 이동 로봇이 선풍기의 하부, 선풍기의 받침대 위로 올라가 고립되는 경우가 발생할 수 있으므로, 선풍기에 10cm 이상 접근하지 않고 회피하도록 대응모션(일정거리 접근 후 회피)을 설정하여 주행부를 제어한다. The driving controller determines that the obstacle is an electric fan as shown in FIG. 9C among the corresponding motions according to the detection signal, and performs the corresponding motion. For example, in the case of an electric fan, the mobile robot may be isolated from the lower part of the electric fan and the base of the electric fan, so that the moving part may be set by avoiding 10 cm or more of the electric fan. To control.

또한, 영상을 통해 도 9의 (e)와 같이 상자로 판단되는 경우에는 상자에 접근하여 충돌한 후, 이동 가능 여부를 확인할 후에 회피하도록 설정할 수 있다. 상자가 가벼운 경우 이동 로봇에 의해 위치가 변경될 수 있으므로, 접근하여 충돌하도록 대응모션을 설정할 수 있다. In addition, if it is determined through the image as a box as shown in FIG. If the box is light, the position can be changed by the mobile robot, so the corresponding motion can be set to approach and collide.

제어부(110)는 감지되는 장애물에 대한 정보를 장애물데이터로써 저장한다. The controller 110 stores the information on the detected obstacle as obstacle data.

장애물데이터에는, 장애물이 감지되는 횟수에 따라 자주 감지되는 장애물에 대한 데이터가 저장된다. In the obstacle data, data about an obstacle that is frequently detected according to the number of times that the obstacle is detected is stored.

주행제어부(113)는 장애물의 종류에 따라 위험장애물인지 여부를 추가로 판단하여, 그에 대응하는 동작을 수행하도록 주행부를 제어할 수 있다. 주행제어부(113)는 장애물의 종류에 따라 동작이 지정된 경우 지정된 동작을 수행하도록 하고, 별도로 동작이 지정되지 않은 경우, 위험장애물 인지 여부에 따라 장애물에 대한 접근의 정도를 가변하여 설정할 수 있다. 또한, 주행제어부(113)는 위험장애물인 경우 장애물에 종류에 따라 소정의 효과음 또는 경고음을 출력하고, 음성안내를 출력할 수 있다. 주행제어부(113)는 화분, 화병 등의 파손가능성이 있는 대상, 애완동물, 고립 가능성이 있는 의자 다리 등을 위험장애물로 설정할 수 있다. The driving controller 113 may further determine whether the obstacle is a dangerous obstacle according to the type of obstacle, and control the driving unit to perform an operation corresponding thereto. When the operation is designated according to the type of obstacle, the driving controller 113 may perform the designated operation. When the operation is not specified, the driving controller 113 may vary the degree of access to the obstacle according to whether the dangerous obstacle is recognized. In addition, the driving control unit 113 may output a predetermined sound effect or a warning sound according to the type of obstacle in the case of a dangerous obstacle, and output a voice guidance. The driving control unit 113 may set the object that may be damaged such as a flower pot or a vase, a pet, a chair leg that may be isolated, and the like as a dangerous obstacle.

또한, 장애물인식부(111)는 동일한 감지신호가 입력되어 동일한 장애물이 위치하는 경우라도, 장애물의 크기 또는 형상에 따라 상이한 대응모션을 수행할 수 있다. In addition, the obstacle recognition unit 111 may perform a different corresponding motion according to the size or shape of the obstacle even when the same detection signal is input to the same obstacle.

예를 들어 의자의 다리로 판단되는 감지신호가 입력되는 경우, 영상을 통해 의자인 것을 판단하는 경우에도, 의자의 높이와 의자의 다리 사이의 간격에 따라 회피, 접근, 진입의 동작이 수행될 수 있다. 장애물인식부(111)는 감지신호 입력 후 영상을 분석하여 의자 다리 사이의 간격과 의자의 높이를 산출하여 진입 여부를 판단한다. 그에 따라 주행제어부는 회피, 접근, 진입 중 어느 하나의 대응모션이 수행되도록 한다. For example, when a detection signal determined to be a leg of a chair is input, even when it is determined that the chair is an image, an operation of avoiding, approaching or entering may be performed according to the distance between the height of the chair and the leg of the chair. have. The obstacle recognition unit 111 analyzes the image after inputting the detection signal and calculates the distance between the chair legs and the height of the chair to determine whether to enter. As a result, the driving control unit performs one of the corresponding motions of avoiding, approaching and entering.

도 11은 본 발명의 일실시예에 따른 이동 로봇 및 장애물 인식을 위한 기기간의 신호 흐름을 설명하는데 참조되는 도이다. FIG. 11 is a diagram referred to for describing a signal flow between a mobile robot and a device for obstacle recognition according to an embodiment of the present invention.

도 11에 도시된 바와 같이, 이동 로봇(1)은 주행구역을 주행하면서 청소를 수행한다.As shown in Fig. 11, the mobile robot 1 performs cleaning while traveling in the travel area.

이동 로봇(1)은 주행 중 영상을 촬영하고, 영상을 영상데이터로 저장한다. 제어부(110)는 영상을 통해 장애물을 판단하는 경우, 저장된 장애물 정보를 바탕으로 영상을 분석하여 장애물을 판단한다(S1).The mobile robot 1 captures an image while driving and stores the image as image data. When determining the obstacle through the image, the controller 110 analyzes the image based on the stored obstacle information to determine the obstacle (S1).

또한, 이동 로봇(1)은 영상데이터를 서버(90) 또는 단말(80)로 전송하여 장애물 확인을 요청할 수 있다(S2).In addition, the mobile robot 1 may request to check the obstacle by transmitting the image data to the server 90 or the terminal 80 (S2).

서버(90)는 영상데이터를 분석하여 장애물에 대한 특징을 추출하여, 형태를 바탕으로 장애물의 종류를 판단한다. 서버(90)는 누적되는 장애물에 대한 데이터를 데이터베이스에 저장하여 장애물 판단에 활용한다. The server 90 analyzes the image data to extract features of the obstacle, and determines the type of the obstacle based on the shape. The server 90 stores data on the accumulated obstacles in a database and utilizes the obstacles in determining the obstacles.

단말(80)은 이동 로봇(1)이 서버에 접속할 수 없는 경우 서버로 데이터를 전송할 수 있다. 또한, 단말(80)은 수신된 영상데이터를 바탕으로 장애물의 종류를 판단할 수 있고, 사용자 입력을 통해 장애물의 종류를 판단할 수 있다. The terminal 80 may transmit data to the server when the mobile robot 1 cannot connect to the server. In addition, the terminal 80 may determine the type of the obstacle based on the received image data, and may determine the type of the obstacle through a user input.

서버(90) 또는 단말(80)은 이동 로봇의 요청 대응하여, 장애물의 종류에 대한 데이터를 이동 로봇(1)으로 전송한다(S3). 또한, 서버(90) 또는 단말(80)은 장애물의 종류에 대응하는 회피동작에 대한 데이터를 이동 로봇(1)으로 전송할 수 있다. 이동 로봇(1)은 수신되는 데이터에 따라 회피 동작을 수행한다. In response to a request of the mobile robot, the server 90 or the terminal 80 transmits data on the type of obstacle to the mobile robot 1 (S3). In addition, the server 90 or the terminal 80 may transmit data on the avoidance operation corresponding to the type of obstacle to the mobile robot 1. The mobile robot 1 performs the avoiding operation according to the received data.

도 12 는 본 발명의 일실시예에 따른 이동 로봇의 장애물감지 및 대응 동작을 수행하는 과정을 설명하는데 참조되는 흐름도이다. 12 is a flowchart referred to for explaining a process of performing an obstacle detection and a corresponding operation of a mobile robot according to an embodiment of the present invention.

도 12에 도시된 바와 같이, 이동 로봇(1)은 주행 중에 영상획득부(170)를 통해 복수의 영상을 촬영한다. 제어부(110)는 장애물 감지유닛을 통해 장애물이 감지되지 않더라고 주행중에 영상이 촬영되도록 한다. As shown in FIG. 12, the mobile robot 1 captures a plurality of images through the image acquisition unit 170 while driving. The controller 110 allows the image to be taken while driving even though the obstacle is not detected through the obstacle detecting unit.

영상은 소정시간 간격으로 정지영상으로 촬영될 수 있고, 또한 연속 촬영을 통해 동영상으로 촬영될 수 있다. 영상획득부(170)는 촬영되는 영상을 복수의 영상데이터(I01 내지 I03)으로 데이터부에 저장한다(S11). Images may be taken as still images at predetermined time intervals, and may also be captured as moving images through continuous shooting. The image acquisition unit 170 stores the captured image as a plurality of image data (I01 to I03) in the data unit (S11).

영상획득부(170)에 구비되는 영상처리부는 촬영된 영상을 필터링하여 일정시간 간격으로 영상데이터가 저장되도록 하고, 동영상이 촬영되는 경우 프레임 단위로 분석하여 불필요한 프레임은 제거한 후 영상데이터를 저장한다. The image processing unit provided in the image acquisition unit 170 filters the photographed image so that the image data is stored at predetermined time intervals, and when the video is captured, analyzes the frame unit and removes unnecessary frames, and then stores the image data.

제어부(110)는 영상데이터는 저장하고, 장애물 감지유닛에 의해 장애물이 감지되면(T1), 장애물이 지정 거리 내에 위치하는 경우 기 촬영된 영상데이터를 분석하여 배경을 제거하고(S12) 특징을 추출한다(S13). 장애물인식부(111)는 장애물에 대한 형상(형태), 크기, 종류를 판단한다(S14).The controller 110 stores the image data, and when an obstacle is detected by the obstacle detecting unit (T1), when the obstacle is located within a predetermined distance, the controller 110 removes the background by analyzing the photographed image data (S12) and extracts a feature. (S13). The obstacle recognition unit 111 determines the shape (shape), size, and type of the obstacle (S14).

제어부(110)는 감지신호와 영상을 통해 판단되는 장애물에 대응하여 대응모션을 설정하고 그에 따라 동작하도록 주행부를 제어한다. The controller 110 controls the driving unit to set the corresponding motion in response to the obstacle determined by the detection signal and the image and operate accordingly.

경우에 따라 제어부(110)는 장애물 감지유닛(100)에 의해 감지신호가 입력되기 전, 소정 단위로 영상데이터를 분석하여 필터링하고 특징으로 추출하여(S12, S13), 장애물의 형상, 크기, 또는 종류를 판단할 수 있다(S14). 장애물에 대한 판단이 완료된 상태에서 장애물 감지유닛(100)에 의해 감지신호가 입력되면(T2), 제어부는 감지신호와 영상을 통한 장애물 판단을 근거로 장애물에 대한 대응모션을 설정하여 지정된 동작을 수행한다(S17).In some cases, before the detection signal is input by the obstacle detection unit 100, the control unit 110 analyzes, filters, and extracts image data in a predetermined unit (S12 and S13) to determine the shape, size, or the like of the obstacle. The type can be determined (S14). When the detection signal is input by the obstacle detection unit 100 while the determination of the obstacle is completed (T2), the controller sets a corresponding motion for the obstacle based on the detection signal and the determination of the obstacle through the image to perform a specified operation. (S17).

한편, 제어부(1110)는 복수의 영상데이터를 서버로 전송하여(S15), 서버로 장애물 판단을 요청할 수 있다. 서버로부터 장애물에 대한 데이터가 수신되면 장애물 정보(S16)를 저장하고, 그에 따라 장애물을 판단한다(S14).Meanwhile, the controller 1110 may transmit a plurality of image data to the server (S15), and request an obstacle determination from the server. When data on the obstacle is received from the server, the obstacle information (S16) is stored, and the obstacle is determined accordingly (S14).

제어부(110)는 장애물 감지유닛(100)의 감지신호와 영상을 통한 장애물 판단을 바탕으로 대응모션을 설정하고 그에 따라 동작을 수행한다(S17).The controller 110 sets a corresponding motion based on the detection signal of the obstacle detecting unit 100 and the obstacle determination through the image (S17).

도 13 은 본 발명의 일실시예에 따른 이동 로봇의 장애물 인식 및 그에 따른 제어방법을 설명하는데 참조되는 순서도이다. FIG. 13 is a flowchart referred to for describing obstacle recognition and a control method thereof according to an exemplary embodiment of the present invention. FIG.

도 13에 도시된 바와 같이, 이동 로봇(1)은 주행영역(H) 내에서 주행가능한 영역을 주행하고 지정된 영역에 대한 청소를 수행한다(S310). As shown in FIG. 13, the mobile robot 1 travels in a traveling area within the traveling area H and performs cleaning on a designated area (S310).

이동 로봇(1)은 이동 또는 청소명령이 입력되면, 영상획득부(170)를 통해 영상을 촬영한다. 영상획득부(170)는 연속으로 영상을 촬영하거나(동영상) 또는, 소정 시간 간격으로, 영상을 촬영할 수 있다(S320). 촬영된 획득영상은 영상데이터로써 저장된다. When a moving or cleaning command is input, the mobile robot 1 captures an image through the image acquisition unit 170. The image acquisition unit 170 may continuously capture an image (video) or may capture an image at predetermined time intervals (S320). The acquired acquisition image is stored as image data.

영상획득부(170)는 이동 로봇의 이동 속도에 따라 촬영 주기를 설정하고, 또한 장애물 감지유닛의 장애물 감지 가능한 거리를 기준으로 설정할 수 있다. The image acquisition unit 170 may set a shooting cycle according to the moving speed of the mobile robot, and may also set the distance based on the obstacle detectable distance of the obstacle detecting unit.

영상획득부(170)는 복수의 영상데이터에 대하여, 인식 가능한지 여부를 판단하여 필터링하고, 영상분석이 가능한 영상을 선별하여 영상데이터로 저장한다. The image acquisition unit 170 determines whether the plurality of image data is recognizable or filtered, and selects and stores the image capable of image analysis as image data.

예를 들어 영상획득부(170)는 장애물의 움직임 또는 촬영중 본체(10)의 움직임에 의해 장애물이 정상적으로 촬영되지 못한 경우, 예를 들어 촬영대상인 장애물에 대한 이미지가 흔들려 장애물을 인식할 수 없는 경우, 초점이 맞지 않아 인식이 불가능한 경우는 제외하고, 정상적으로 촬영된 영상을 선별하여 영상데이터로 저장한다. For example, the image acquisition unit 170 when the obstacle is not normally captured by the movement of the obstacle or the movement of the main body 10 during shooting, for example, when the image of the obstacle to be photographed shakes the obstacle cannot be recognized. In this case, the captured image is selected and stored as the image data, except when the recognition is impossible due to lack of focus.

영상획득부(170)는 이동 로봇(1)이 동작하는 중에 영상을 촬영하고, 장애물 감지유닛(100)은 패턴을 조사하거나, 초음파, 적외선, 레이저를 이용하여 주행방향에 위치한 장애물을 감지하여 감지신호를 입력한다(S300). The image acquisition unit 170 photographs an image while the mobile robot 1 is operating, and the obstacle detecting unit 100 detects an obstacle located in a driving direction by irradiating a pattern or by using an ultrasonic wave, an infrared ray, or a laser. Input the signal (S300).

장애물인식부(111)는 감지신호를 바탕으로 주행방향에 위치한 장애물의 유무, 또는 3D센서를 이용하여 패턴분석을 통해 장애물의 크기, 위치 등을 판단할 수 있다(S340). The obstacle recognition unit 111 may determine the size and location of the obstacle through pattern analysis using the presence or absence of the obstacle located in the driving direction or the 3D sensor based on the detection signal (S340).

제어부(110)는 패턴을 조사하여 획득된 패턴의 형태를 통해 장애물을 판단하는 경우, 동일한 감지신호가 입력되는 장애물 들을 분류하여 구분하고, 각각의 감지신호에 따라 수행 가능한 복수의 대응모션을 설정한다(S350). When the controller 110 determines an obstacle through a pattern obtained by examining a pattern, the controller 110 classifies and classifies obstacles to which the same sensing signal is input, and sets a plurality of corresponding motions that can be performed according to each sensing signal. (S350).

제어부(110)는 장애물 감지유닛의 센서의 종류에 따라 감지가능한 거리에 차이가 있으므로, 감지신호를 바탕으로 장애물까지의 거리를 판단하여 장애물이 지정거리에 위치하는지 여부를 판단한다(S360). Since the controller 110 has a difference in the detectable distance according to the type of sensor of the obstacle detecting unit, the controller 110 determines whether the obstacle is located at the designated distance based on the detection signal (S360).

제어부(110)는 감지신호의 형태에 따라 주행방향에 위치한 장애물에 대하여 수행 가능한 복수의 대응모션을 판단하고, 장애물이 지정거리 내에 위치하는 경우, 기 촬영된 이전 시점의 영상데이터를 분석하여(S370), 장애물을 판단한다(S380).The controller 110 determines a plurality of corresponding motions that can be performed with respect to the obstacle located in the driving direction according to the shape of the detection signal, and when the obstacle is located within the designated distance, analyzes the image data of the previous photographed time point (S370). ), To determine the obstacle (S380).

장애물인식부(111)는 영상데이터를 분석하여 장애물에 대한 인식이 가능한지 여부에 따라 필터링하고, 영상처리를 통해 필터링된 영상데이터로부터 배경을 제거한 후, 장애물의 외곽선 또는 특징점을 추출하여 장애물에 대한 형태와 특징을 추출한다.The obstacle recognition unit 111 analyzes the image data and filters the image based on whether the obstacle can be recognized, removes the background from the filtered image data through image processing, and extracts the outline or feature point of the obstacle to form the shape of the obstacle. And extract features.

장애물인식부(111)는 영상데이터의 밝기, 선명도, 본체(10)의 이동속도를 바탕으로 영상데이터의 식별 여부를 판단할 수 있다. 장애물인식부(111)는 영상데이터의 복수의 픽셀값의 밝기값을 바탕으로 영상데이터의 밝기를 판단하여 노출과다, 노출부족, 정상노출을 구분한다. 또한, 장애물인식부(111)는 본체의 이동속도가 설정속도 이상인 경우, 촬영되는 영상에 흔들림이 있다고 판단할 수 있고, 영상데이터의 선명도를 판단하여 식별 가능 여부를 판단한다. The obstacle recognition unit 111 may determine whether the image data is identified based on the brightness, the sharpness, and the moving speed of the main body 10. The obstacle recognition unit 111 determines the brightness of the image data based on the brightness values of the plurality of pixel values of the image data to distinguish between overexposure, underexposure, and normal exposure. In addition, the obstacle recognition unit 111 may determine that there is a shake in the captured image when the moving speed of the main body is greater than or equal to the set speed, and determine whether the image data can be identified by determining the sharpness of the image data.

장애물인식부(111)는 추출된 장애물의 외곽선과 특징을 추출하여 형태를 분석하고, 장애물데이터를 바탕으로 장애물의 종류, 크기를 판단한다.The obstacle recognition unit 111 extracts the outline and features of the extracted obstacle, analyzes the shape, and determines the type and size of the obstacle based on the obstacle data.

한편, 장애물인식부(111)는 별도의 장애물데이터가 존재하지 않거나, 또는 장애물데이터로부터 장애물의 종류를 판단할 수 없는 경우 서버(90) 또는 단말로 영상데이터를 전송하여 장애물 확인을 요청할 수 있다. 서버를 통한 장애물 판단은 영상이 촬영되면 즉시 수행될 수 있다. 자체 판단 또는 서버로부터의 응답에 의해 장애물의 종류를 판단한다. On the other hand, when the obstacle recognition unit 111 does not have a separate obstacle data, or can not determine the type of the obstacle from the obstacle data may transmit the image data to the server 90 or the terminal may request the obstacle confirmation. Obstacle determination through the server may be immediately performed when the image is taken. The type of obstacle is judged by the self judgment or the response from the server.

서버(90)는 하나의 장애물에 대하여 복수의 영상데이터를 저장하고, 특정 장애물에 대한 특징을 추출하여 데이터베이스에 저장한다. 서버(90)는 이동 로봇(1)으로부터 수신된 영상데이터를 분석하여 기 저장된 데이터와 비교함으로써, 장애물의 종류를 판단한다. 서버(90)는 장애물의 종류 및 그에 관련된 장애물데이터를 이동 로봇(1)으로 전송한다. The server 90 stores a plurality of image data with respect to one obstacle, extracts a feature of a specific obstacle and stores it in a database. The server 90 determines the type of obstacle by analyzing the image data received from the mobile robot 1 and comparing it with previously stored data. The server 90 transmits the type of obstacle and the obstacle data related thereto to the mobile robot 1.

장애물인식부(111)는 장애물에 대한 형태와 특징에 대응하여 판단된 장애물에 대한 데이터를 바탕으로 복수의 대응모션 중 어느 하나를 설정한다(S390). The obstacle recognition unit 111 sets any one of a plurality of corresponding motions based on the data of the obstacle determined according to the shape and the feature of the obstacle (S390).

주행제어부는 주행부를 제어하여 설정된 대응모션에 따른 동작을 수행한다(S400). The driving controller controls the driving unit to perform an operation according to the corresponding motion (S400).

주행제어부(113)는 위험장애물인 경우, 장애물에 일정거리 이상 접근하지 않고 회피하여 주행하도록 설정한다. 또한, 주행제어부(113)는 장애물의 종류에 따라 지정된 동작이 존재하는 경우 지정된 동작을 수행하도록 설정한다.In the case of a dangerous obstacle, the driving control unit 113 is set to avoid the obstacle without approaching a certain distance or more and to travel. In addition, the driving controller 113 is set to perform the specified operation when the specified operation exists according to the type of obstacle.

주행제어부(113)는 장애물에 접근한 후 회피하거나, 지정거리 도달시 즉시 회피하도록 설정할 수 있고, 접근하는 경우 접근 거리를 설정할 수 있으며, 장애물로 진입, 통과하도록 설정할 수 있다. 또한, 이동로봇은 소정의 경고음을 출력할 수도 있다. The driving control unit 113 may be set to avoid after approaching an obstacle, or to immediately avoid when reaching a specified distance, and may set an access distance when approaching, and may be set to enter or pass through an obstacle. In addition, the mobile robot may output a predetermined warning sound.

따라서 이동 로봇(1)은 동일한 감지신호가 입력되는 경우라도, 영상분석을 통해 장애물에 따라 상이한 동작이 수행할 수 있고, 동일한 감지신호 및 장애물의 종류라 하더라도 장애물의 크기나 형태에 따라 대응모션을 상이하게 수행할 수 있다. Therefore, even if the same sensing signal is input, the mobile robot 1 may perform different operations according to the obstacles through image analysis, and even if the same sensing signal and the type of obstacles perform the corresponding motion according to the size or shape of the obstacle. Can be performed differently.

본 발명은 장애물에 지정거리 접근하면 설정된 동작을 수행함으로써, 장애물에 대하여 즉각적으로 대응할 수 있고, 기 촬영된 영상을 이용함에 따라 장애물 판단이 용이해지므로 보다 효과적으로 장애물을 회피할 수 있다.
According to the present invention, when a predetermined distance is approached to an obstacle, the set operation may be performed immediately, and the obstacle may be easily determined by using a pre-recorded image, thereby more effectively avoiding the obstacle.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and changes without departing from the essential characteristics of the present invention.

1: 이동 로봇 10: 본체
100: 장애물 감지유닛 110: 제어부
111: 장애물인식부 113: 주행제어부
120, 130: 패턴 조사부 140: 패턴 획득부
150: 센서부 170: 영상획득부
180: 데이터부
250: 주행부 260: 청소부
1: mobile robot 10: main body
100: obstacle detection unit 110: control unit
111: obstacle recognition unit 113: driving control unit
120, 130: pattern irradiation unit 140: pattern acquisition unit
150: sensor unit 170: image acquisition unit
180: data part
250: running part 260: cleaning part

Claims (22)

이동 가능한 본체;
주행방향에 대한 영상을 촬영하는 영상획득부;
주행방향에 위치한 장애물을 감지하는 장애물 감지유닛;
상기 영상획득부를 통해 촬영되는 복수의 영상데이터를 저장하고, 상기 장애물 감지유닛으로부터 입력된 소정 형태의 감지신호에 따라, 상기 감지신호를 통해 산출되는 장애물과의 거리를 바탕으로 상기 장애물이 소정 거리 내에 위치하는지 여부를 판단하고, 상기 장애물이 소정 거리 내에 위치하는 것으로 판단되는 소정 시점에 대응모션을 시작하되, 상기 소정 시점 이전에 획득된 상기 영상데이터를 바탕으로 판단되는 상기 장애물에 따라, 복수의 대응모션 중 어느 하나를 선택하여 상기 대응모션을 결정하는 제어부를 포함하고,
상기 제어부는 상기 소정 시점의 상기 본체의 주행방향과 동일한 주행방향에서 촬영된 영상데이터에 기초하여 상기 장애물을 판단하는 것을 특징으로 하는 이동 로봇.
A movable body;
An image acquisition unit for photographing an image of a driving direction;
An obstacle detecting unit detecting an obstacle located in a driving direction;
Stores a plurality of image data photographed through the image acquisition unit, in accordance with a predetermined type of detection signal input from the obstacle detection unit, the obstacle within a predetermined distance based on the distance to the obstacle calculated through the detection signal Determine whether or not to be located, and start the corresponding motion at a predetermined time point at which it is determined that the obstacle is located within a predetermined distance, and according to the obstacle determined based on the image data acquired before the predetermined time point, A control unit for selecting one of the motions to determine the corresponding motion;
And the controller determines the obstacle based on image data photographed in the same travel direction as the travel direction of the main body at the predetermined time point.
제 1 항에 있어서,
상기 제어부는 상기 감지신호에 따라 복수의 대응모션이 수행 가능하도록 설정하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The control unit is a mobile robot, characterized in that for setting a plurality of corresponding motion to perform according to the detection signal.
삭제delete 제 2 항에 있어서,
상기 제어부는 동일하게 입력되는 상기 감지신호에 대하여, 상기 영상데이터를 바탕으로 상기 복수의 대응모션 중 어느 하나의 대응모션이 수행되도록 제어하는 것을 특징으로 하는 이동 로봇.
The method of claim 2,
And the control unit controls the corresponding input signal to perform any one of the corresponding motions among the plurality of corresponding motions based on the image data.
제 1 항에 있어서,
상기 제어부는 상기 장애물 감지유닛에 의해 상기 장애물이 소정 거리에 위치하는 것으로 판단되는 시점을 기준으로, 일정 시간 이전에 촬영된 영상데이터를 분석하여 상기 장애물을 판단하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The controller may determine the obstacle by analyzing the image data photographed before a predetermined time on the basis of the point of time when the obstacle is determined to be located at a predetermined distance by the obstacle detecting unit.
삭제delete 제 1 항에 있어서,
상기 제어부는 상기 영상데이터를 분석하여 상기 장애물의 형상, 크기 또는 장애물의 종류를 판단하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The controller analyzes the image data to determine the shape, size, or type of the obstacle.
제 1 항에 있어서,
상기 제어부는 상기 감지신호가 입력되기 전, 상기 영상데이터를 분석하여 상기 장애물을 판단하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The controller may determine the obstacle by analyzing the image data before the detection signal is input.
제 1 항에 있어서,
상기 제어부는 상기 감지신호가 입력되면, 상기 영상데이터를 분석하여 상기 장애물을 판단하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The controller may determine the obstacle by analyzing the image data when the detection signal is input.
제 1 항에 있어서,
상기 제어부는 상기 영상데이터는 단말 또는 서버로 전송하여 상기 영상데이터에 포함된 상기 장애물에 대한 정보를 수신하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The control unit is a mobile robot, characterized in that for transmitting the image data to the terminal or server to receive information about the obstacle included in the image data.
제 1 항에 있어서,
상기 영상획득부는 주행방향에 대하여 연속적으로 촬영하거나 또는 지정된 시간에 따라 영상을 촬영하여 상기 영상데이터를 저장하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The image acquisition unit is a mobile robot, characterized in that for continuously shooting in the driving direction or to take an image according to a specified time to store the image data.
제 1 항에 있어서,
상기 제어부는 정지, 감속, 가속, 역주행, 대기, 회피, 근거리 접근 금지, 음성안내 중 적어도 하나가 조합된 상기 대응모션을 수행하도록 제어하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
And the controller controls to perform the corresponding motion in which at least one of stop, deceleration, acceleration, reverse driving, standby, avoidance, short-range access prohibition, and voice guidance is performed.
제 1 항에 있어서,
상기 장애물 감지유닛은 초음파센서, 레이저센서, 적외선센서, 3D센서 중 적어도 하나를 포함하는 이동 로봇.
The method of claim 1,
The obstacle detecting unit includes at least one of an ultrasonic sensor, a laser sensor, an infrared sensor, and a 3D sensor.
제 1 항에 있어서,
상기 제어부는 상기 영상데이터를 단말 또는 서버로 전송하여 장애물 확인을 요청하고, 상기 서버 또는 상기 단말로부터 수신되는 응답데이터에 대응하여 상기 장애물의 종류를 판단하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The controller transmits the image data to a terminal or a server to request an obstacle check, and determines the type of the obstacle in response to the response data received from the server or the terminal.
주행 중, 영상획득부에 의해 주행방향에 대한 영상을 촬영하여 영상데이터를 저장하는 단계;
장애물 감지유닛을 통해 장애물에 대한 감지신호가 입력되는 단계;
상기 감지신호를 통해 산출되는 장애물과의 거리를 바탕으로 상기 장애물이 본체로부터 소정 거리 내에 위치하는지 여부를 판단하는 단계;
상기 장애물이 소정 거리 내에 위치하는 것으로 판단되는 소정 시점에, 그 이전에 획득된 상기 영상데이터 중 상기 소정 시점의 본체의 주행방향과 동일한 주행방향에서 촬영된 영상데이터에 기초하여 상기 장애물을 판단하는 단계;;
상기 장애물에 따라 복수의 대응모션 중 어느 하나를 대응모션으로 결정하는 단계;
상기 소정 시점에, 상기 장애물에 대한 상기 대응모션을 시작하는 단계; 및
상기 대응모션에 따라 동작하여 상기 장애물을 회피하거나 또는 통과하여 주행하는 단계를 포함하는 이동 로봇의 제어방법.
While driving, taking an image of a driving direction by an image acquisition unit and storing image data;
Inputting a detection signal for an obstacle through the obstacle detecting unit;
Determining whether the obstacle is located within a predetermined distance from the main body based on a distance from the obstacle calculated through the detection signal;
Determining, at a predetermined time point at which the obstacle is determined to be located within a predetermined distance, the obstacle is determined based on the image data photographed in the same traveling direction as the traveling direction of the main body at the predetermined time point among the image data previously acquired; ;;
Determining one of a plurality of corresponding motions as a corresponding motion according to the obstacle;
Starting the corresponding motion for the obstacle at the predetermined time point; And
Operating in accordance with the corresponding motion to avoid the obstacle or to pass through the control method of the mobile robot.
삭제delete 제 15 항에 있어서,
상기 대응모션을 설정하는 단계는, 상기 장애물 감지유닛으로부터 입력되는 감지신호의 형태에 따라 복수의 대응모션을 설정하고, 상기 영상데이터에 의해 상기 복수의 대응모션 중 어느 하나를 선택하는 단계를 더 포함하는 이동 로봇의 제어방법.
The method of claim 15,
The setting of the corresponding motion may further include setting a plurality of corresponding motions according to the type of the detection signal input from the obstacle detecting unit, and selecting one of the plurality of corresponding motions based on the image data. Control method of the mobile robot.
제 15 항에 있어서,
영상 촬영 후 상기 장애물 감지유닛으로부터 상기 장애물에 대한 감지신호가 입력되기 전, 상기 영상데이터를 분석하여 상기 장애물을 판단하는 단계를 더 포함하는 이동 로봇의 제어방법.
The method of claim 15,
And analyzing the image data to determine the obstacle after the image is photographed and before the detection signal for the obstacle is input from the obstacle detecting unit.
제 15 항에 있어서,
상기 장애물 감지유닛으로부터 상기 장애물에 대한 감지신호가 입력되면, 상기 영상데이터를 분석하여 상기 장애물을 판단하는 단계를 더 포함하는 이동 로봇의 제어방법.
The method of claim 15,
And detecting the obstacle by analyzing the image data when a detection signal for the obstacle is input from the obstacle detecting unit.
삭제delete 제 18 항 또는 제 19 항에 있어서,
상기 영상데이터를 분석하여 상기 장애물의 형상, 크기 또는 종류를 판단하는 것을 특징으로 하는 이동 로봇의 제어방법.
The method of claim 18 or 19,
And analyzing the image data to determine the shape, size, or type of the obstacle.
제 15 항에 있어서,
상기 영상데이터를 단말 또는 서버로 전송하여 상기 영상데이터에 포함된 상기 장애물에 대한 정보를 수신하는 단계를 더 포함하는 이동 로봇의 제어방법.
The method of claim 15,
And transmitting information about the obstacle included in the image data by transmitting the image data to a terminal or a server.
KR1020170139495A 2017-10-25 2017-10-25 Artificial intelligence Moving Robot and controlling method KR102070067B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020170139495A KR102070067B1 (en) 2017-10-25 2017-10-25 Artificial intelligence Moving Robot and controlling method
AU2018356126A AU2018356126B2 (en) 2017-10-25 2018-10-25 Artificial intelligence moving robot which learns obstacles, and control method therefor
US16/759,118 US11586211B2 (en) 2017-10-25 2018-10-25 AI mobile robot for learning obstacle and method of controlling the same
PCT/KR2018/012688 WO2019083291A1 (en) 2017-10-25 2018-10-25 Artificial intelligence moving robot which learns obstacles, and control method therefor
EP18870615.4A EP3702111B1 (en) 2017-10-25 2018-10-25 Artificial intelligence moving robot which learns obstacles, and control method therefor
CN201880081516.XA CN111479662B (en) 2017-10-25 2018-10-25 Artificial intelligent mobile robot for learning obstacle and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170139495A KR102070067B1 (en) 2017-10-25 2017-10-25 Artificial intelligence Moving Robot and controlling method

Publications (2)

Publication Number Publication Date
KR20190046201A KR20190046201A (en) 2019-05-07
KR102070067B1 true KR102070067B1 (en) 2020-01-28

Family

ID=66656067

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170139495A KR102070067B1 (en) 2017-10-25 2017-10-25 Artificial intelligence Moving Robot and controlling method

Country Status (1)

Country Link
KR (1) KR102070067B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11599114B2 (en) 2019-07-09 2023-03-07 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
US11967157B2 (en) 2021-08-20 2024-04-23 Samsung Electronics Co., Ltd. Robot and method for controlling thereof

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019172733A2 (en) * 2019-05-08 2019-09-12 엘지전자 주식회사 Moving robot capable of interacting with subject being sensed, and method of interaction between moving robot and subject being sensed
US11565411B2 (en) 2019-05-29 2023-01-31 Lg Electronics Inc. Intelligent robot cleaner for setting travel route based on video learning and managing method thereof
KR102254157B1 (en) * 2019-07-09 2021-05-21 삼성전자주식회사 Warped image based ground object recognition electronic apparatus and controlling method thereof
KR102269053B1 (en) * 2019-07-09 2021-06-24 삼성전자주식회사 Electronic apparatus and controlling method thereof
US11650597B2 (en) * 2019-07-09 2023-05-16 Samsung Electronics Co., Ltd. Electronic apparatus for identifying object through warped image and control method thereof
KR20210148739A (en) * 2020-06-01 2021-12-08 삼성전자주식회사 Cleaning robot and controlling method thereof
KR20220121483A (en) * 2021-02-25 2022-09-01 엘지전자 주식회사 Method of intelligently generating map and mobile robot thereof
KR102699471B1 (en) * 2021-12-28 2024-08-26 한국로봇융합연구원 Robot operation system that reacts when recognizing obstacles

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100662638B1 (en) * 2001-04-18 2007-01-02 삼성광주전자 주식회사 Apparatus for correcting obstacle detection error of robot cleaner and method therefor
KR100728225B1 (en) * 2005-10-27 2007-06-14 엘지전자 주식회사 Driving method for moving robot and moving robot using the method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101717821B1 (en) 2014-06-27 2017-03-17 롯데첨단소재(주) Styrenic copolymers and thermoplastic resin composition comprising thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100662638B1 (en) * 2001-04-18 2007-01-02 삼성광주전자 주식회사 Apparatus for correcting obstacle detection error of robot cleaner and method therefor
KR100728225B1 (en) * 2005-10-27 2007-06-14 엘지전자 주식회사 Driving method for moving robot and moving robot using the method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11599114B2 (en) 2019-07-09 2023-03-07 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
US12078998B2 (en) 2019-07-09 2024-09-03 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
US11967157B2 (en) 2021-08-20 2024-04-23 Samsung Electronics Co., Ltd. Robot and method for controlling thereof

Also Published As

Publication number Publication date
KR20190046201A (en) 2019-05-07

Similar Documents

Publication Publication Date Title
US11586211B2 (en) AI mobile robot for learning obstacle and method of controlling the same
KR102070067B1 (en) Artificial intelligence Moving Robot and controlling method
US11846950B2 (en) Mobile robot and control method thereof
US11226633B2 (en) Mobile robot and method of controlling the same
KR102024092B1 (en) Moving Robot and controlling method
US10695906B2 (en) Moving robot and controlling method
EP3950234B1 (en) Mobile robot and control method thereof
KR102032285B1 (en) Moving Robot and controlling method
KR20180098891A (en) Moving Robot and controlling method
KR102330607B1 (en) Artificial intelligence Moving Robot and controlling method
US20230091839A1 (en) Moving robot and control method thereof
KR20190119234A (en) Moving Robot and controlling method
KR102500529B1 (en) Moving Robot and controlling method
KR20190103511A (en) Moving Robot and controlling method
US20220257075A1 (en) Moving robot and method of controlling the same
US20220280007A1 (en) Mobile robot and method of controlling the same
KR102152731B1 (en) Moving Robot and controlling method
KR20210080022A (en) Moving Robot and controlling method

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant