KR20190046201A - Moving Robot and controlling method - Google Patents

Moving Robot and controlling method Download PDF

Info

Publication number
KR20190046201A
KR20190046201A KR1020170139495A KR20170139495A KR20190046201A KR 20190046201 A KR20190046201 A KR 20190046201A KR 1020170139495 A KR1020170139495 A KR 1020170139495A KR 20170139495 A KR20170139495 A KR 20170139495A KR 20190046201 A KR20190046201 A KR 20190046201A
Authority
KR
South Korea
Prior art keywords
obstacle
unit
image
image data
mobile robot
Prior art date
Application number
KR1020170139495A
Other languages
Korean (ko)
Other versions
KR102070067B1 (en
Inventor
김정환
이용재
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020170139495A priority Critical patent/KR102070067B1/en
Priority to PCT/KR2018/012688 priority patent/WO2019083291A1/en
Priority to AU2018356126A priority patent/AU2018356126B2/en
Priority to EP18870615.4A priority patent/EP3702111B1/en
Priority to CN201880081516.XA priority patent/CN111479662B/en
Priority to US16/759,118 priority patent/US11586211B2/en
Publication of KR20190046201A publication Critical patent/KR20190046201A/en
Application granted granted Critical
Publication of KR102070067B1 publication Critical patent/KR102070067B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Abstract

The present invention relates to a moving robot and a controlling method thereof. According to the present invention, the moving robot includes a control unit photographing an image during driving through an image acquisition unit to store a plurality of pieces of photographed image data, and starting a countermotion at a predetermined time point determined as an obstacle is placed within a predetermined distance by an obstacle detection unit, wherein the countermotion is determined in accordance with the obstacle determined based on the image data acquired before the predetermined time point. Accordingly, the obstacle is determined through the image photographed before a time point when the obstacle is placed within a predetermined distance such that countermotion can be immediately performed at the time point when the obstacle is placed within the predetermined distance. Moreover, the obstacle is determined through the image even if the same detection signal is inputted when a plurality of obstacles are detected such that a different motion is performed in accordance with the obstacle. Thus, various obstacles can be corresponded via countermotion, thereby effectively avoiding the obstacle and performing a motion in accordance with the type of obstacle.

Description

이동 로봇 및 그 제어방법{Moving Robot and controlling method}[0001] The present invention relates to a mobile robot,

본 발명은 이동 로봇 및 그 제어방법에 관한 것으로, 청소영역을 주행하여 청소를 수행하는 이동 로봇 및 그 제어방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile robot and a control method thereof, and more particularly, to a mobile robot that travels in a cleaning area to perform cleaning and a control method thereof.

일반적으로 이동 로봇은 사용자의 조작 없이도 청소하고자 하는 구역 내를 스스로 주행하면서 바닥면으로부터 먼지 등의 이물질을 흡입하여 자동으로 청소하는 기기이다.Generally, a mobile robot is a device that automatically moves inside a region to be cleaned without user's operation, while suctioning foreign substances such as dust from a floor surface.

이러한 이동 로봇은 청소구역 내에 설치된 가구나 사무용품, 벽 등의 장애물까지의 거리를 감지하고, 장애물 회피 동작을 수행한다. Such a mobile robot senses distances to obstacles such as furniture, office supplies, and walls installed in the cleaning area and performs an obstacle avoidance operation.

이동 로봇은, 장애물을 감지하기 위한 수단으로, 적외선, 레이저 등의 장애물 감지수단을 구비하고 있다. 이동로봇은 적외선 또는 레이저 등의 센서에 의한 감지신호를 바탕으로, 소정 거리 내의 장애물을 감지하여 장애물을 회피한다. The mobile robot is provided with means for detecting an obstacle such as an infrared ray or a laser as means for detecting an obstacle. The mobile robot detects an obstacle within a predetermined distance based on a detection signal from a sensor such as an infrared ray or a laser to avoid an obstacle.

장애물을 감지 시 즉시 경로를 변경하는 경우 해당 영역에 대한 청소를 수행할 수 없으므로, 최대한 장애물에 근접하거나 또는 충돌한 후에 경로를 변경하게 된다. When an obstacle is detected, if the route is changed immediately, it is impossible to perform the cleaning for the area. Therefore, the route is changed as close as possible to the obstacle or after collision.

그러나, 청소를 위해 접근하여 장애물에 충돌하는 경우, 이동 로봇의 충돌로 인하여 대상이 파손되는 등의 문제점이 발생할 수 있다. 예를 들어 탁자위의 화분이 떨어지거나 장애물이 파손될 수 있고, 장애물의 위치가 변경되는 등의 문제가 발생할 수 있다. However, when approaching for the purpose of cleaning and colliding with an obstacle, there arises a problem that the object is damaged due to collision of the mobile robot. For example, the pollen on the table may fall, the obstacle may be damaged, and the position of the obstacle may be changed.

또한, 이동 로봇이 장애물과 충돌하는 과정에서 미끄러짐 등의 현상이 발생함에 따라 이동 로봇에서 판단하는 위치와 실제 위치에 오차가 발생하는 문제점이 있다. In addition, when the mobile robot collides with an obstacle, a slip phenomenon occurs, which causes a problem that an error occurs in a position and an actual position determined by the mobile robot.

따라서 장애물의 종류를 인식하여 장애물에 따라 이동 로봇이 동작할 필요성이 있다.
Therefore, there is a need for the mobile robot to operate according to the obstacle by recognizing the type of the obstacle.

본 발명이 해결하고자 하는 과제는, 주행중에 영상을 촬영하고, 장애물이 감지되면 기 촬영된 영상을 통해 장애물에 대응하는 모션을 수행하는 이동 로봇 및 그 제어방법을 제공하는 것이다.
SUMMARY OF THE INVENTION The present invention provides a mobile robot that captures an image during driving and performs a motion corresponding to an obstacle through a captured image when an obstacle is detected, and a control method thereof.

본 발명이 일 실시예에 따른 이동 로봇은, 이동 가능한 본체; 주행방향에 대한 영상을 촬영하는 영상획득부; 주행방향에 위치한 장애물을 감지하는 장애물 감지유닛; 상기 영상획득부를 통해 촬영되는 복수의 영상데이터를 저장하고, 상기 장애물 감지유닛에 의해 상기 장애물이 소정거리 내에 위치하는 것으로 판단되는 소정 시점에 대응모션을 시작하되, 상기 소정 시점 이전에 획득된 상기 영상데이터를 바탕으로 판단되는 상기 장애물에 따라 상기 대응모션을 결정하는 제어부를 포함한다. A mobile robot according to an embodiment of the present invention includes a movable body; An image acquiring unit for acquiring an image of a driving direction; An obstacle detection unit for detecting an obstacle located in a driving direction; Wherein the obstacle detection unit is configured to store a plurality of image data photographed through the image acquisition unit and to start a corresponding motion at a predetermined time point at which the obstacle is determined to be located within a predetermined distance by the obstacle detection unit, And a controller for determining the corresponding motion according to the obstacle determined based on the data.

본 발명의 이동 로봇의 제어방법은 주행 중, 영상획득부에 의해 주행방향에 대한 영상을 촬영하여 영상데이터를 저장하는 단계; 장애물 감지유닛을 통해 소정 거리 내에 장애물이 위치한 것을 판단하는 단계; 상기 장애물이 소정 거리 내에 위치하는 것으로 판단되는 소정 시점, 이전에 획득된 상기 영상데이터를 바탕으로 판단되는 상기 장애물에 따라 대응모션을 결정하는 단계; 상기 소정 시점에, 상기 장애물에 대한 대응모션을 시작하는 단계; 및 상기 대응모션에 따라 동작하여 상기 장애물을 회피하거나 또는 통과하여 주행하는 단계를 포함한다. A control method of a mobile robot according to the present invention includes the steps of: capturing an image of a traveling direction by an image acquisition unit and storing image data during traveling; Determining that an obstacle is located within a predetermined distance through the obstacle detection unit; Determining a corresponding motion according to the obstacle determined based on the image data obtained at a predetermined time, which is determined to be located within a predetermined distance; Initiating a corresponding motion for the obstacle at the predetermined point in time; And operating in accordance with the corresponding motion to avoid or pass through the obstacle.

본 발명의 이동 로봇 및 그 제어방법은 주행방향에 위치하는 장애물에 대하여 장애물에 대한 감지신호를 바탕으로 대응할 수 있는 복수의 대응모션을 설정하고, 복수의 대응모션 중 어느 하나의 대응모션을 수행함에 따라 장애물에 따라 상이한 동작을 수행할 수 있다. A mobile robot and a control method thereof according to the present invention set a plurality of corresponding motions corresponding to obstacles located in a driving direction on the basis of a detection signal of an obstacle and perform a corresponding motion of a plurality of corresponding motions Depending on the obstacle, different actions can be performed.

본 발명은 주행중에 영상을 촬영하고, 장애물이 소정 거리 내에 위치하는 경우 기 촬영된 영상을 분석하여 장애물에 대하여 설정된 복수의 모션 중 어느 하나를 선택하여 수행함에 따라, 상이한 복수의 장애물에 대하여 장애물 감지 시 동일한 감지신호가 입력되더라도 영상을 통해 장애물을 판단하여 장애물에 따라 상이한 동작이 수행되도록 하여 다양한 장애물에 대응할 수 있다. According to the present invention, when an obstacle is located within a predetermined distance, an image is photographed during driving, and the imaged image is analyzed to select one of a plurality of motions set for the obstacle, Even if the same sensing signal is inputted, different obstacles can be dealt with by performing different operations according to the obstacle by judging the obstacle through the image.

또한, 본 발명은 주행 중에 주행방향에 대한 영상을 촬영함으로써, 장애물이 소정거리 내에 위치한 시점에서 그 이전에 촬영된 영상을 통해 장애물을 판단할 수 있고, 장애물이 소정거리 내에 위치하기 전에 사전에 영상을 통해 장애물을 사전에 판단하여, 장애물이 소정거리 내에 위치하는 시점에서 즉시 대응하는 동작을 수행할 수 있으므로, 장애물을 효과적으로 회피할 수 있고 장애물의 종류에 따른 동작을 수행할 수 있다. Further, according to the present invention, an obstacle can be determined through a previously captured image at a time when an obstacle is located within a predetermined distance by photographing an image in the running direction during traveling, and before the obstacle is positioned within a predetermined distance, The obstacle can be determined in advance and the corresponding operation can be performed immediately when the obstacle is located within the predetermined distance. Therefore, the obstacle can be effectively avoided and the operation according to the type of the obstacle can be performed.

본 발명은 촬영되는 영상을 기반으로 장애물을 추적할 수 있고, 장애물이 감지되는 시점에서 즉각적으로 동작을 수행함에 따라 장애물과의 충돌로인한 장애물의 파손을 방지하고, 충돌로 인한 위치 오차를 방지할 수 있으며, 주행하는 영역의 환경변화를 감지하여 동작할 수 있다.
According to the present invention, an obstacle can be tracked based on a photographed image, and an obstacle can be tracked instantaneously at the time when an obstacle is detected, thereby preventing damage to an obstacle due to collision with an obstacle, And it can operate by detecting environmental changes of the traveling area.

도 1 은 본 발명의 일 실시예에 따른 이동 로봇 시스템의 이동 로봇이 도시된 사시도이다.
도 2 는 도 1의 이동 로봇의 수평 화각을 도시한 도이다.
도 3 은 도 1의 이동 로봇의 전면도이다.
도 4 는 도 1의 이동 로봇의 저면을 도시한 도이다.
도 5 는 본 발명의 일 실시예에 따른 이동 로봇 및 장애물 인식을 위한 시스템이 간략하게 도시된 도이다.
도 6 은 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.
도 7 및 도 8 은 발명의 이동 로봇의 주행 및 주행중 촬영되는 영상의 예가 도시된 도이다.
도 9 는 본 발명의 일실시예에 따른 이동 로봇의 장애물에 따른 감지신호 및 장애물인식에 대하여 설명하는데 참조되는 도이다.
도 10 은 본 발명의 일실시예에 따른 이동 로봇의 주행 중 장애물의 종류에 따른 동작을 설명하는데 참조되는 도이다.
도 11은 본 발명의 일실시예에 따른 이동 로봇 및 장애물 인식을 위한 기기간의 신호 흐름을 설명하는데 참조되는 도이다.
도 12 는 본 발명의 일실시예에 따른 이동 로봇의 장애물감지 및 대응 동작을 수행하는 과정을 설명하는데 참조되는 흐름도이다.
도 13 는 본 발명의 일실시예에 따른 이동 로봇의 장애물 인식 및 그에 따른 제어방법을 설명하는데 참조되는 순서도이다.
1 is a perspective view illustrating a mobile robot of a mobile robot system according to an embodiment of the present invention.
FIG. 2 is a view showing the horizontal angle of view of the mobile robot of FIG. 1. FIG.
3 is a front view of the mobile robot of FIG.
FIG. 4 is a bottom view of the mobile robot of FIG. 1. FIG.
FIG. 5 is a schematic view of a mobile robot and a system for obstacle recognition according to an embodiment of the present invention.
6 is a block diagram illustrating the main parts of a mobile robot according to an embodiment of the present invention.
Figs. 7 and 8 are views showing examples of images taken during traveling and running of the mobile robot of the invention. Fig.
FIG. 9 is a diagram for explaining sensing signals and obstacle recognition according to obstacles of a mobile robot according to an embodiment of the present invention. Referring to FIG.
FIG. 10 is a diagram for describing an operation of a mobile robot according to the type of an obstacle during travel according to an exemplary embodiment of the present invention. Referring to FIG.
11 is a diagram for describing a signal flow between a mobile robot and an apparatus for obstacle recognition according to an embodiment of the present invention.
12 is a flowchart illustrating a process of detecting and responding to an obstacle of a mobile robot according to an embodiment of the present invention.
13 is a flow chart for explaining an obstacle recognition and control method of a mobile robot according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 본 발명의 제어구성은 적어도 하나의 프로세서로 구성될 수 있다. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification. The control arrangement of the present invention may be comprised of at least one processor.

도 1은 본 발명의 일 실시예에 따른 이동 로봇의 사시도이다. 도 2는 도 1의 이동 로봇의 수평 화각을 도시한 것이다. 도 3은 도 1의 이동 로봇의 전면도이다. 도 4는 도 1의 이동 로봇의 저면을 도시한 것이다. 1 is a perspective view of a mobile robot according to an embodiment of the present invention. Fig. 2 shows the horizontal angle of view of the mobile robot of Fig. 1. Fig. 3 is a front view of the mobile robot of FIG. Fig. 4 is a bottom view of the mobile robot of Fig. 1. Fig.

도 1 내지 도 4를 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(1)은 청소구역의 바닥을 따라 이동하며, 바닥 상의 먼지 등의 이물질을 흡입하는 본체(10)와, 본체(10)의 전면에 배치되어 장애물을 감지하는 감지수단을 포함한다. 1 to 4, a mobile robot 1 according to an embodiment of the present invention includes a main body 10 moving along the bottom of a cleaning area and sucking foreign substances such as dust on the floor, And sensing means for sensing an obstacle.

본체(10)는 외관을 형성하며 내측으로 본체(10)를 구성하는 부품들이 수납되는 공간을 형성하는 케이싱(11)과, 케이싱(11)에 배치되어 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(34)과, 케이싱(11)에 회전 가능하게 구비되는 좌륜(36(L))과 우륜(36(R))을 포함할 수 있다. 좌륜(36(L))과 우륜(36(R))이 회전함에 따라 본체(10)가 청소구역의 바닥을 따라 이동되며, 이 과정에서 흡입유닛(34)을 통해 이물질이 흡입된다.The main body 10 includes a casing 11 forming an outer appearance and defining a space for accommodating components constituting the main body 10 inwardly and a suction unit 12 disposed in the casing 11 for sucking foreign substances such as dust, A left wheel 36 (L) and a right wheel 36 (R) which are rotatably provided in the casing 11. As the left wheel 36 (L) and the right wheel 36 (R) rotate, the main body 10 moves along the bottom of the cleaning area, and foreign substances are sucked through the suction unit 34 in this process.

흡입유닛(34)은 흡입력을 발생시키는 흡입 팬(미도시)과, 흡입 팬의 회전에 의해 생성된 기류가 흡입되는 흡입구(10h)를 포함할 수 있다. 흡입유닛(34)은 흡입구(10h)를 통해 흡입된 기류 중에서 이물질을 채집하는 필터(미도시)와, 필터에 의해 채집된 이물질들이 축적되는 이물질 채집통(미도시)을 포함할 수 있다.The suction unit 34 may include a suction fan (not shown) for generating a suction force and a suction port 10h for sucking the airflow generated by the rotation of the suction fan. The suction unit 34 may include a filter (not shown) for collecting foreign substances in the air stream sucked through the suction port 10h and a foreign matter collecting box (not shown) in which foreign substances collected by the filter are accumulated.

또한, 본체(10)는 좌륜(36(L))과 우륜(36(R))을 구동시키는 주행부를 포함할 수 있다. 주행부는 적어도 하나의 구동모터를 포함할 수 있다. 적어도 하나의 구동모터는 좌륜(36(L))을 회전시키는 좌륜 구동모터와 우륜(36(R))을 회전시키는 우륜 구동모터를 포함할 수 있다.In addition, the main body 10 may include a running portion for driving the left wheel 36 (L) and the right wheel 36 (R). The running section may include at least one drive motor. The at least one drive motor may include a left wheel drive motor for rotating the left wheel 36 (L) and a right wheel drive motor for rotating the right wheel 36 (R).

좌륜 구동모터와 우륜 구동모터는 제어부의 주행제어부에 의해 작동이 독립적으로 제어됨으로써 본체(10)의 직진, 후진 또는 선회가 이루어질 수 있다. 예를들어, 본체(10)가 직진 주행하는 경우에는 좌륜 구동모터와 우륜 구동모터가 같은 방향으로 회전되나, 좌륜 구동모터와 우륜 구동모터가 다른 속도로 회전되거나, 서로 반대 방향으로 회전되는 경우에는 본체(10)의 주행 방향이 전환될 수 있다. 본체(10)의 안정적인 지지를 위한 적어도 하나의 보조륜(37)이 더 구비될 수 있다.The left and right wheel driving motors and the right wheel driving motors can be controlled to be operated independently by the travel control unit of the control unit, thereby making it possible to straighten, reverse, or turn the main body 10. For example, when the main body 10 runs straight, the left wheel driving motor and the right wheel driving motor are rotated in the same direction. However, when the left wheel driving motor and the right wheel driving motor are rotated at different speeds or in opposite directions The running direction of the main body 10 can be switched. At least one auxiliary wheel 37 for stably supporting the main body 10 may be further provided.

케이싱(11)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 복수의 브러시(35)가 더 구비될 수 있다. 복수의 브러시(35)의 회전에 의해 청소구역의 바닥으로부터 먼지들이 제거되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구(10h)를 통해 흡입되어 채집통에 모인다.A plurality of brushes 35, which are located on the front side of the bottom surface of the casing 11 and have a plurality of radially extending blades, may be further provided. The dusts are removed from the bottom of the cleaning area by the rotation of the plurality of brushes 35, so that the dusts separated from the floor are sucked through the suction port 10h and collected in the collecting box.

케이싱(11)의 상면에는 사용자로부터 이동 로봇(1)의 제어를 위한 각종 명령을 입력받는 조작부(160)를 포함하는 컨트롤 패널이 구비될 수 있다.A control panel including an operation unit 160 for receiving various commands for controlling the mobile robot 1 from a user may be provided on the upper surface of the casing 11. [

감지수단은, 도 1의 (a)와 같이 복수의 센서를 이용하여 장애물을 감지하는 센서부(150), 영상을 촬영하는 영상 획득부(170)를 포함한다. The sensing unit includes a sensor unit 150 for sensing an obstacle using a plurality of sensors, and an image acquiring unit 170 for sensing an image, as shown in FIG. 1 (a).

또한, 감지수단은, 도 1의 (b)와 같이, 본체(10)의 전면에 배치되어, 장애물을 감지하는 장애물 감지유닛(100), 영상을 촬영하는 영상획득부(170)를 포함할 수 있다. 장애물 감지유닛(100)은 광패턴을 조사하고 촬영되는 영상을 통해 장애물을 감지한다. 장애물 감지유닛(100)은 패턴획득부(140)를 포함하고, 또한, 센서부(150)를 포함할 수 있다. 1 (b), the sensing means may include an obstacle sensing unit 100 disposed on the front surface of the main body 10 for sensing an obstacle, and an image acquiring unit 170 for sensing an image. have. The obstacle detection unit 100 irradiates a light pattern and detects an obstacle through an image to be photographed. The obstacle detecting unit 100 includes a pattern obtaining unit 140 and may also include a sensor unit 150.

영상 획득부(170)는 각각 전방을 향하도록 구비되어 주행방향을 촬영하고, 또한, 경우에 따라 천장을 향하도록 구비될 수 있다. 경우에 따라 전방과 천장을 향하는 두개의 영상 획득부(170)가 구비될 수도 있다. 두개의 영상획득부가 구비되는 경우, 본체의 전면과 상단부에 각각 설치되어 전방과 천장의 영상을 각각 촬영할 수 있다. The image acquiring unit 170 may be provided so as to face forward and photograph the running direction, and may be provided so as to face the ceiling as the case may be. In some cases, two image acquiring units 170 facing the front and the ceiling may be provided. When two image acquiring units are provided, they can be installed on the front and top of the main body, respectively, so that images of the front and ceiling can be photographed, respectively.

장애물 감지유닛(100)은 본체(10)의 전면에 배치될 수 있다. The obstacle detection unit 100 may be disposed on the front surface of the main body 10. [

장애물 감지유닛(100)은 케이싱(11)의 전면에 고정되고, 제 1 패턴 조사부(120), 제 2 패턴 조사부(130) 및 패턴획득부(140)를 포함한다. 이때 패턴획득부(140)는 도시된 바와 같이 패턴조사부의 하부에 설치되거나 또는 제 1 및 제 2 패턴조사부 사이에 배치될 수 있다. The obstacle detecting unit 100 is fixed to the front surface of the casing 11 and includes a first pattern irradiating unit 120, a second pattern irradiating unit 130, and a pattern obtaining unit 140. [ At this time, the pattern obtaining unit 140 may be disposed below the pattern irradiating unit or may be disposed between the first and second pattern irradiating units as shown in FIG.

도 2에서, 표시된 조사각(θh)은 제 1 패턴 조사부(120)로부터 조사된 제 1 패턴 광(P1)의 수평조사각을 표시한 것으로, 수평선의 양단이 제 1 패턴 조사부(120)와 이루는 각도를 나타내며, 130˚ 내지 140˚ 범위에서 정해지는 것이 바람직하나, 반드시 이에 한정되어야 하는 것은 아니다. 도 2에 표시된 점선은 이동 로봇(1)의 전방을 향하는 것이며, 제 1 패턴 광(P1)은 점선에 대해 대칭인 형태로 구성될 수 있다.2, the irradiation angle h shown in FIG. 2 represents the horizontal irradiation angle of the first pattern light P1 irradiated from the first pattern irradiation unit 120, It is preferable that the angle is set in the range of 130 DEG to 140 DEG, but it is not limited thereto. The dotted line shown in Fig. 2 is directed toward the front of the mobile robot 1, and the first patterned light P1 may be configured to be symmetrical with respect to the dotted line.

본체(10)에는 재충전이 가능한 배터리(38)가 구비되며, 배터리(38)의 충전 단자(33)가 상용 전원(예를 들어, 가정 내의 전원 콘센트)과 연결되거나, 상용 전원과 연결된 별도의 충전대(400)에 본체(10)가 도킹되어, 충전 단자(33)가 충전대의 단자(410)와의 접촉을 통해 상용 전원과 전기적으로 연결되고, 배터리(38)의 충전이 이루어질 수 있다. 이동 로봇(1)을 구성하는 전장 부품들은 배터리(38)로부터 전원을 공급받을 수 있으며, 따라서, 배터리(38)가 충전된 상태에서 이동 로봇(1)은 상용 전원과 전기적으로 분리된 상태에서 자력 주행이 가능하다.The main body 10 is provided with a rechargeable battery 38. The charging terminal 33 of the battery 38 is connected to a commercial power source (for example, a power outlet in a home) The main body 10 is docked to the charging terminal 400 so that the charging terminal 33 is electrically connected to the commercial power supply through contact with the terminal 410 of the charging stand and charging of the battery 38 can be performed. Electric components constituting the mobile robot 1 can be supplied with power from the battery 38. Therefore, in a state where the battery 38 is charged and the mobile robot 1 is electrically disconnected from the commercial power supply, It is possible to drive.

도 5 는 본 발명의 일 실시예에 따른 이동 로봇 및 장애물 인식을 위한 시스템이 간략하게 도시된 도이다. FIG. 5 is a schematic view of a mobile robot and a system for obstacle recognition according to an embodiment of the present invention.

이동 로봇(1)은 주행영역(H) 중 소정의 청소영역에 대한 청소명령을 수신하여 청소를 수행한다. 이동 로봇(1)은 주행 중 촬영되는 영상을 분석하여 장애물의 종류를 판단한다. The mobile robot (1) receives a cleaning command for a predetermined cleaning area of the travel area (H) and performs cleaning. The mobile robot (1) analyzes the images taken while driving to determine the type of the obstacle.

이동 로봇(1)은 주행영역(H)에 존재하는 복수의 장애물(2, 3)을 감지하여 장애물을 인식하고, 장애물의 종류에 따라 접근, 통과, 회피 중 어느 하나의 동작을 수행한다. 이때, 이동 로봇(1)은 장애물에 접근하지 않고 회피하거나, 소정거리 접근한 후 소정의 동작을 수행할 수 있고, 장애물에 근접한 이후에 회피할 수 있으며, 장애물의 형태에 따라 장애물을 통과할 수 있다. The mobile robot 1 recognizes an obstacle by sensing a plurality of obstacles 2 and 3 existing in the travel area H and performs any one of approach, pass, and avoid according to the type of the obstacle. At this time, the mobile robot 1 can avoid the obstacle without approaching it, can perform a predetermined operation after approaching a predetermined distance, can avoid the obstacle after approaching the obstacle, can pass the obstacle according to the shape of the obstacle have.

이동 로봇(1)은 주행 중에 구비되는 영상 획득부(170)를 통해 주행방향을 촬영하고 장애물 감지유닛(100)을 통해 소정거리 내에 위치하는 장애물을 감지한다. 이동 로봇(1)은 영상 획득부(170)를 통해 연속적으로 주행방향을 촬영할 수 있고, 설정에 따라 소정시간 간격으로 영상을 촬영할 수 있다. The mobile robot 1 photographs the driving direction through the image acquiring unit 170 provided during driving and detects obstacles located within a predetermined distance through the obstacle sensing unit 100. The mobile robot 1 can continuously photograph the running direction through the image obtaining unit 170 and can take an image at predetermined time intervals according to the setting.

이동 로봇(1)은 주행중에 촬영되는 영상을 저장하고, 장애물 감지유닛(100)을 통해 장애물이 감지되면, 대응 가능한 대응모션을 선별한 후, 영상분석을 통해 판단된 장애물에 따라, 특히 장애물의 종류에 따라 장애물에 대한 대응모션을 결정하여 동작한다. When the obstacle is detected through the obstacle detection unit 100, the mobile robot 1 selects the corresponding motion that can be dealt with, and then, based on the obstacle determined through the image analysis, And determines the corresponding motion for the obstacle according to the type and operates.

이동 로봇(1)은 상이한 장애물에 대하여 장애물 감지유닛(100)에 의해 동일한 감지신호가 입력되는 경우라도, 기 촬영된 영상을 바탕으로 장애물을 분석하여, 장애물에 따른 대응모션을 설정하고, 그에 따라 장애물에 대응하는 동작을 수행한다. Even when the same detection signal is inputted by the obstacle detection unit 100 for different obstacles, the mobile robot 1 analyzes the obstacle based on the previously captured image, sets the corresponding motion according to the obstacle, And performs an operation corresponding to the obstacle.

또한, 이동 로봇(1)은 영상이 촬영되면, 소정 시간 간격으로 영상을 분석하여 영상에 포함된 장애물을 인식하고, 장애물 감지유닛(100)에의해 소정 거리내에 장애물이 위치하는 것이 감지되면, 기 판단된 장애물의 종류를 바탕으로 대응모션에 대한 동작을 수행할 수 있다. When the obstacle is detected by the obstacle detection unit 100, the mobile robot 1 analyzes the image at predetermined time intervals to detect obstacles included in the image. When the obstacle is detected by the obstacle detection unit 100, And the operation for the corresponding motion can be performed based on the type of the determined obstacle.

예를 들어, 이동 로봇(1)은 장애물에 따라 위험장애물인 경우 접근하지 않고 회피하도록 하고, 일반 장애물인 경우 근접거리까지 접근하거나 또는 장애물에 충돌 후 회피하도록 한다. For example, the mobile robot (1) avoids approaching a dangerous obstacle according to an obstacle and avoids approaching to a proximity distance or avoiding an obstacle in the case of a general obstacle.

이동 로봇(1)은 자체 저장되는 데이터를 바탕으로 장애물의 종류를 판단하고 또한, 서버(90) 또는 단말(80)과 연결되어 장애물의 종류를 판단할 수 있다. 이동 로봇(1)은 네트워크(N)를 통해 서버(90)와의 통신하기 위해 별도의 통신장치(미도시)와 연결될 수 있다. The mobile robot 1 can determine the type of the obstacle based on the data stored therein and can determine the type of the obstacle by being connected to the server 90 or the terminal 80. The mobile robot 1 may be connected to a separate communication device (not shown) to communicate with the server 90 via the network N. [

이동 로봇(1)은 주행 중 촬영되는 영상에 대하여, 각 영상데이터를 필터링하여, 소정 시간 간격으로 서버 또는 단말로 전송하여 장애물 정보를 요청함으로써, 영상데이터에 포함된, 장애물에 대한 정보를 서버 또는 단말로부터 수신한다. 이동 로봇(1)은 장애물 감지유닛(100)에 의해 장애물이 소정거리 내에 위치하는 것으로 판단되는 때에, 영상데이터를 통해 장애물을 즉시 확인할 수 있다. The mobile robot 1 filters each image data and transmits the filtered image data to the server or the terminal at predetermined time intervals to request the obstacle information so that information on the obstacles included in the image data can be transmitted to the server or the terminal And receives it from the terminal. When the obstacle detecting unit 100 determines that the obstacle is located within a predetermined distance, the mobile robot 1 can immediately check the obstacle through the image data.

단말(80)은 이동 로봇(1)을 제어하기 위한 어플리케이션을 구비하고, 어플리케이션의 실행을 통해 이동 로봇(1)이 청소할 주행구역에 대한 맵을 표시하고, 맵 상에 특정 영역을 청소하도록 영역을 지정할 수 있다. 또한, 이동 로봇으로부터 수신되는 데이터를 바탕으로 이동 로봇의 위치를 표시하고, 청소상태에 대한 정보를 표시한다. The terminal 80 is provided with an application for controlling the mobile robot 1. The terminal 80 displays a map of the traveling area to be cleaned by the mobile robot 1 through the execution of the application, Can be specified. In addition, the position of the mobile robot is displayed based on data received from the mobile robot, and information on the state of cleaning is displayed.

단말은 통신모듈이 탑재되어 네트워크 접속이 가능하고 이동 로봇을 제어하기 위한 프로그램, 또는 이동 로봇 제어용 어플리케이션이 설치된 기기로, 컴퓨터, 랩탑, 스마트폰, PDA, 태블릿PC 등의 기기가 사용될 수 있다. 또한, 단말은, 스마트 워치 등의 웨어러블(wearable) 장치 또한 사용될 수 있다. The terminal may be a computer, a laptop, a smart phone, a PDA, a tablet PC, or the like, which is equipped with a program for controlling a mobile robot, or a mobile robot control application. Also, a wearable device such as a smart watch may be used as the terminal.

단말(80)은 이동 로봇과, 가정 내 구축되는 네트워크를 통해 상호 연결될 수 있다. 단말과 이동 로봇은 WIFI로 연결됨은 물론, 블루투스, 적외선통신, 지그비 등의 근거리 무선통신방식을 이용하여 상호 통신할 수 있다. 단말과 이동 로봇의 통신 방식은, 이에 한정되지 않음을 명시한다. The terminal 80 can be interconnected with a mobile robot through a home network. The terminal and the mobile robot can communicate with each other using a short-range wireless communication method such as Bluetooth, infrared communication and ZigBee as well as WIFI. The communication method of the terminal and the mobile robot is not limited to this.

또한, 단말(80)은 이동 로봇(1)으로부터 수신되는 영상에 대응하여 장애물의 종류를 판단할 수 있다. 단말(80)은 기 저장된 데이터를 바탕으로 장애물의 종류를 판단하거나, 서버와 연결되어 장애물의 종류를 판단할 수 있다. 예를들어 이동 로봇(1)이 네트워크 접속을 통한 서버연결이 불가능한 경우, 단말(80)이 이동 로봇의 데이터를 수신하여 서버로 전송할 수 있다. In addition, the terminal 80 can determine the type of the obstacle in response to the image received from the mobile robot 1. [ The terminal 80 may determine the type of the obstacle based on the stored data or may determine the type of the obstacle by being connected to the server. For example, when the mobile robot 1 can not connect to the server through the network connection, the terminal 80 can receive the data of the mobile robot and transmit the data to the server.

또한, 단말(80)은 영상을 화면에 표시하여 사용자의 입력을 통해 장애물의 종류를 입력하여 이동 로봇으로 전송할 수 있고, 어플리케이션의 메뉴를 통해 특정 장애물에 대한 동작을 지정할 수 있다. In addition, the terminal 80 may display an image on the screen, input the type of the obstacle through the input of the user, transmit the type of the obstacle to the mobile robot, and specify an operation for the specific obstacle through the menu of the application.

서버(90)는 소정 네트워크(N)를 통해 접속되는, 이동 로봇(1)으로부터 수신되는 영상데이터를 분석하여 장애물의 종류를 판단하고, 그에 대한 응답을 이동 로봇(1)으로 전송한다. 서버(90)는 단말로부터 요청이 있는 경우 장애물의 종류를 판단하여 응답할 수 있다. The server 90 analyzes image data received from the mobile robot 1, which is connected via a predetermined network N, to determine the type of the obstacle, and transmits a response to the mobile robot 1. The server 90 can determine the type of the obstacle and respond to the request when there is a request from the terminal.

서버(90)는 복수의 이동 로봇(1)으로부터 수신되는 영상데이터를 바탕으로 하는 장애물 인식을 위한 데이터베이스(미도시)를 구비하여, 영상데이터로부터 추출되는 장애물에 대한 특징을 인식하여 장애물의 종류를 판단한다. The server 90 includes a database (not shown) for recognizing an obstacle based on image data received from a plurality of mobile robots 1, recognizes the characteristics of the obstacle extracted from the image data, .

서버(90)는 장애물 정보를 누적하여 저장하고, 장애물 정보를 분석하여 장애물의 종류를 판단한다. 또한, 서버(90)는 장애물을 종류에 따라 분류하여 장애물에 대한 이동 로봇(1)의 동작을 설정할 수 있다. The server 90 accumulates and stores the obstacle information, analyzes the obstacle information, and determines the type of the obstacle. In addition, the server 90 can classify the obstacle according to the type and set the operation of the mobile robot 1 with respect to the obstacle.

서버(90)는 새로운 장애물 정보를 분석하여, 기 저장된 장애물 정보를 갱신한다. 또한, 서버(90)는 단말(80)에 의해 설정되거나 또는 변경되는 장애물에 대한 이동 로봇의 동작정보를 수신하여 저장하고, 기 저장된 장애물 정보에 매칭하여 장애물에 대한 이동 로봇의 동작에 대한 설정을 갱신한다. The server 90 analyzes the new obstacle information and updates the previously stored obstacle information. In addition, the server 90 receives and stores the motion information of the mobile robot with respect to the obstacle set or changed by the terminal 80, and sets the setting of the motion of the mobile robot with respect to the obstacle by matching with the previously stored obstacle information Update.

도 6은 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.6 is a block diagram illustrating the main parts of a mobile robot according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 이동 로봇(1)은 통신부(140), 장애물 감지유닛(100), 영상획득부(170), 청소부(260), 주행부(250), 데이터부(180), 출력부(190), 조작부(160), 통신부(280) 그리고 동작 전반을 제어하는 제어부(110)를 포함한다. 6, the mobile robot 1 includes a communication unit 140, an obstacle detection unit 100, an image acquisition unit 170, a cleaning unit 260, a travel unit 250, a data unit 180, An output unit 190, an operation unit 160, a communication unit 280, and a control unit 110 for controlling overall operations.

조작부(160)는 적어도 하나의 버튼, 스위치, 터치입력수단을 포함하여, 이동 로봇(1)의 작동 전반에 필요한, 온/오프 또는 각종 명령을 입력받아 제어부(110)로 입력한다. The operation unit 160 includes at least one button, a switch, and a touch input unit. The operation unit 160 receives inputs of on / off or various commands required for the overall operation of the mobile robot 1 and inputs the commands to the control unit 110.

출력부(190)는 LED, LCD와 같은 디스플레이를 구비하고, 이동 로봇(1)의 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태 등을 표시한다. 또한, 출력부(190)는 스피커 또는 버저를 구비하여, 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태에 대응하는 소정의 효과음, 경고음 또는 음성안내를 출력한다. The output unit 190 includes a display such as an LED and an LCD and displays an operation mode, reservation information, a battery status, an operation status, an error status, and the like of the mobile robot 1. The output unit 190 includes a speaker or a buzzer and outputs a predetermined sound effect, a warning sound, or a voice guidance corresponding to the operation mode, the reservation information, the battery status, the operation status, and the error status.

통신부(270)는, 무선통신 방식으로 단말(80)과 통신한다. 또한, 통신부(270)는 가정 내 네트워크를 통해, 인터넷망에 연결되어, 외부의 서버(90)와 통신할 수 있다. The communication unit 270 communicates with the terminal 80 through a wireless communication system. In addition, the communication unit 270 can be connected to the Internet network through the home network, and can communicate with an external server 90. [

통신부(270)는 생성되는 지도를 단말(80)로 전송하고, 단말로부터 청소명령을 수신하며, 이동 로봇의 동작상태, 청소상태에 대한 데이터를 단말로 전송한다. 통신부(270)는 지그비, 블루투스 등의 근거리 무선통신 뿐 아니라, 와이파이, 와이브로 등의 통신모듈을 포함하여 데이터를 송수신한다. The communication unit 270 transmits the generated map to the terminal 80, receives the cleaning command from the terminal, and transmits data on the operation state and the cleaning state of the mobile robot to the terminal. The communication unit 270 transmits and receives data including not only short-range wireless communication such as ZigBee and Bluetooth, but also communication modules such as Wi-Fi and WiBro.

통신부(140)는 장애물 감지유닛(100)로부터 감지되는 장애물에 대한 정보를 통신부(140)를 통해 서버(90)로 전송하고, 서버로부터 장애물에 대한 데이터를 수신한다. 또한, 통신부(140)는 단말(80)로부터 주행구역 내에 존재하는 장애물에 대한 정보 및 그에 따른 동작정보를 수신하고, 이동 로봇의 동작데이터를 단말(80)로 전송한다. The communication unit 140 transmits information on the obstacle detected from the obstacle detection unit 100 to the server 90 through the communication unit 140 and receives data on the obstacle from the server. The communication unit 140 receives the information on the obstacles existing in the travel zone from the terminal 80 and the operation information corresponding thereto and transmits the operation data of the mobile robot to the terminal 80. [

주행부(250)는 적어도 하나의 구동모터를 포함하여 주행제어부(230)의 제어명령에 따라 이동 로봇이 주행하도록 한다. 주행부(250)는 앞서 설명한 바와 같이, 좌륜(36(L))을 회전시키는 좌륜 구동모터와 우륜(36(R))을 회전시키는 우륜 구동모터를 포함할 수 있다.The traveling unit 250 includes at least one driving motor and allows the mobile robot to travel according to a control command of the traveling control unit 230. [ The traveling unit 250 may include a left wheel driving motor for rotating the left wheel 36 (L) and a right wheel driving motor for rotating the right wheel 36 (R), as described above.

청소부(260)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입장치를 동작시켜 먼지 또는 이물질을 흡입한다. 청소부(260)는 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(34)에 구비되는 흡입 팬의 동작을 제어하여 먼지가 흡입구를 통해 이물질 채집통(먼지통)에 투입되도록 한다. The cleaning unit 260 operates the brush to make dust or foreign matter around the mobile robot easy to suck, and operates the suction device to suck dust or foreign matter. The cleaning unit 260 controls the operation of the suction fan provided in the suction unit 34 that sucks foreign matter such as dust or trash so that the dust is introduced into the foreign matter collecting box (dust container) through the suction port.

또한, 청소부(260)는 본체의 저면부 후방에 설치되어 바닥면과 접하여 바닥면을 물걸레질하는 물걸레청소부(미도시), 물걸레청소부로 물을 공급하는 물통(미도시)을 더 포함할 수 있다. The cleaning unit 260 may further include a water-cleaning unit (not shown) installed at the rear of the bottom surface of the main body to wipe the bottom surface of the bottom surface of the main body 260, and a water bottle (not shown) .

배터리(미도시)는 구동 모터뿐만 아니라, 이동 로봇(1)의 작동 전반에 필요한 전원을 공급한다. 배터리가 방전될 시, 이동 로봇(1)은 충전을 위해 충전대(400)로 복귀하는 주행을 할 수 있으며, 이러한 복귀 주행 중, 이동 로봇(1)은 스스로 충전대의 위치를 탐지할 수 있다. 충전대(400)는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되어야하는 것은 아니다.The battery (not shown) supplies not only the drive motor but also the power required for the overall operation of the mobile robot 1. [ When the battery is discharged, the mobile robot 1 can return to the charging stand 400 for charging. During the return travel, the mobile robot 1 can detect the position of the charging stand by itself. The charging stand 400 may include a signal transmitting unit (not shown) for transmitting a predetermined return signal. The return signal may be an ultrasound signal or an infrared signal, but is not necessarily limited thereto.

데이터부(180)에는 장애물 감지유닛(100), 또는 센서부(150)로부터 입력되는 감지신호가 저장되고, 장애물을 판단하기 위한 기준데이터가 저장되며, 감지된 장애물에 대한 장애물정보가 저장된다. In the data unit 180, a sensing signal input from the obstacle sensing unit 100 or the sensor unit 150 is stored, reference data for determining an obstacle is stored, and obstacle information for the sensed obstacle is stored.

데이터부(180)는 장애물의 종류를 판단하기 위한 장애물데이터(181), 촬영되는 영상이 저장되는 영상데이터(182), 영역에 대한 지도데이터(183)가 저장된다. 지도데이터(183)에는 장애물정보가 포함되며, 이동 로봇에 의해 탐색되는 주행가능한 영역에 대한 기초맵, 기초맵으로부터 영역이 구분된 청소맵, 청소맵의 영역의 형상을 정리하여 사용자가 확인할 수 있도록 생성된 사용자맵, 그리고 청소맵과 사용자맵이 중첩되어 표시되는 가이드맵이 저장될 수 있다. The data unit 180 stores obstacle data 181 for determining the type of the obstacle, image data 182 for storing the captured image, and map data 183 for the area. The map data 183 includes obstacle information, and a basic map for a travelable area searched by the mobile robot, a cleaning map in which the area is divided from the basic map, A generated user map, and a guide map in which the cleaning map and the user map are displayed in a superimposed manner.

장애물데이터(181)는 장애물 인식 및 장애물의 종류를 판단하기 위한 데이터이고, 인식된 장애물에 대한 이동 로봇의 동작, 예를 들어 주행속도, 주행방향, 회피 여부, 정지 여부 등에 대한 모션정보와, 스피커(173)를 통해 출력되는 효과음, 경고음, 음성안내에 대한 데이터가 포함된다. 영상데이터(182)는 촬영된 영상, 서버로부터 수신된 장애물 인식을 위한 인식정보가 포함된다. The obstacle data 181 is data for recognizing the obstacle and the type of the obstacle. The obstacle data 181 includes motion information on the motion of the mobile robot with respect to the recognized obstacle, for example, traveling speed, traveling direction, A warning sound, and voice guidance output through the speaker 173. The image data 182 includes the photographed image and recognition information for recognizing an obstacle received from the server.

또한, 데이터부(180)에는 이동 로봇의 동작을 제어하기 위한 제어데이터 및 이동 로봇의 청소모드에 따른 데이터, 센서부(150)에 의한 초음파/레이저 등의 감지신호가 저장된다. The data unit 180 stores control data for controlling the operation of the mobile robot, data according to the cleaning mode of the mobile robot, and detection signals such as ultrasonic / laser signals by the sensor unit 150.

데이터부(180)는, 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장하는 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치를 포함할 수 있다. The data unit 180 stores data that can be read by a microprocessor and includes a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD) -ROM, magnetic tape, floppy disk, optical data storage device.

장애물 감지유닛(100)은 제 1 패턴 조사부(120), 제 2 패턴 조사부(130), 그리고 패턴획득부(140)를 포함한다. 앞서 설명한 도 1의 (a)와 같이 패턴조사부가 구비되지 않는 경우에는 조사되는 패턴없이, 영상 획득부가 촬영되는 영상으로부터 장애물을 감지할 수 있다. The obstacle detecting unit 100 includes a first pattern irradiating unit 120, a second pattern irradiating unit 130, and a pattern obtaining unit 140. In the case where the pattern irradiating unit is not provided as shown in FIG. 1 (a), the image acquiring unit can detect an obstacle from a photographed image without a pattern to be irradiated.

또한, 영상획득부는 복수로 구비될 수 있다. 패턴조사부가 구비되는 경우, 패턴이 포함된 영상을 촬영하는 영상획득부와 주행방향 또는 전방의 상부를 촬영하는 별도의 영상획득부가 더 구비될 수 있다. Also, a plurality of image acquisition units may be provided. When the pattern irradiating unit is provided, the image acquiring unit for photographing the image including the pattern and the separate image acquiring unit for photographing the traveling direction or the upper part of the forward direction may be further provided.

장애물 감지유닛(100)은 제 1 패턴 조사부(120), 제 2 패턴 조사부(130) 및 패턴획득부(140)를 포함한다. 또한, 장애물 감지유닛(100)은 적어도 하나의 센서로 구성된 센서부(150)를 포함할 수 있다. 경우에 따라 장애물 감지유닛(100)은 센서부로 구성될 수 있다. The obstacle detecting unit 100 includes a first pattern irradiating unit 120, a second pattern irradiating unit 130, and a pattern obtaining unit 140. In addition, the obstacle detection unit 100 may include a sensor unit 150 composed of at least one sensor. In some cases, the obstacle detection unit 100 may be constituted by a sensor unit.

장애물 감지유닛(100)은 앞서 설명한 바와 같이, 본체(10)의 전면에 설치되어, 이동 로봇의 전방에 제 1 및 제 2 패턴의 광(P1, P2)을 조사하고, 조사된 패턴의 광을 촬영하여 패턴이 포함된 영상을 획득한다. 장애물 감지유닛(100)은 획득영상을 장애물 감지신호로써 제어부(200)로 입력한다. As described above, the obstacle detecting unit 100 is installed on the front surface of the main body 10, and irradiates light P1 and P2 of the first and second patterns in front of the mobile robot, And captures an image including a pattern. The obstacle detection unit 100 inputs the acquired image to the control unit 200 as an obstacle detection signal.

장애물 감지유닛(100)의 제 1 및 제 2 패턴 조사부(120, 130)는 광원과, 광원으로부터 조사된 광이 투과됨으로써 소정의 패턴을 생성하는 패턴생성자(OPPE: Optical Pattern Projection Element)를 포함할 수 있다. 광원은 레이져 다이오드(Laser Diode, LD), 발광 다이오드(Light Emitteing Diode, LED) 등 일 수 있다. 레이져 광은 단색성, 직진성 및 접속 특성에 있어 다른 광원에 비해 월등해, 정밀한 거리 측정이 가능하며, 특히, 적외선 또는 가시광선은 대상체의 색상과 재질 등의 요인에 따라 거리 측정의 정밀도에 있어서 편차가 크게 발생되는 문제가 있기 때문에, 광원으로는 레이져 다이오드가 바람직하다. 패턴생성자는 렌즈, DOE(Diffractive optical element)를 포함할 수 있다. 각각의 패턴 조사부(120, 130)에 구비된 패턴 생성자의 구성에 따라 다양한 패턴의 광이 조사될 수 있다.The first and second pattern irradiating units 120 and 130 of the obstacle detecting unit 100 include a light source and an optical pattern projection element (OPPE) that generates a predetermined pattern by transmitting light irradiated from the light source . The light source may be a laser diode (LD), a light emitting diode (LED), or the like. In particular, the infrared ray or visible light is subject to variations in the accuracy of the distance measurement depending on factors such as the color and the material of the object, A laser diode is preferable as a light source. The pattern generator may include a lens, a diffractive optical element (DOE). Depending on the configuration of the pattern generator included in each of the pattern irradiators 120 and 130, light of various patterns can be irradiated.

패턴획득부(140)는 본체(10) 전방의 영상을 획득할 수 있다. 특히, 패턴획득부(140)에 의해 획득된 영상(이하, 획득영상이라고 함.)에는 패턴 광(P1, P2)이 나타나며, 이하, 획득영상에 나타난 패턴 광(P1, P2)의 상을 광 패턴이라고 하고, 이는 실질적으로 실제 공간상에 입사된 패턴 광(P1, P2)이 이미지 센서에 맺힌 상이기 때문에, 패턴 광들(P1, P2)과 같은 도면 부호를 부여하여, 제 1 패턴 광(P1) 및 제 2 패턴 광(P2)과 각각 대응하는 상들을 제 1 광 패턴(P1) 및 제 2 광 패턴(P2)이라고 하기로 한다.The pattern obtaining unit 140 may obtain an image of the front of the main body 10. [ Particularly, the pattern light P1 or P2 appears in the image obtained by the pattern obtaining unit 140 (hereinafter, referred to as an acquired image), and the image of the pattern light P1 or P2, Since the pattern light P1 or P2 incident on the actual space is substantially formed on the image sensor, the same reference numerals as the pattern lights P1 and P2 are assigned to the first pattern light P1 And the second pattern light P2 are referred to as a first light pattern P1 and a second light pattern P2, respectively.

패턴조사부가 구비되지 않는 경우, 패턴획득부(140)는 본체 전방의, 패턴광이 포함되지 않은 영상을 획득한다. If the pattern irradiating unit is not provided, the pattern obtaining unit 140 acquires an image in the front of the main body that does not include the pattern light.

패턴획득부(140)는 피사체의 상을 전기적 신호로 변환시킨 후 다시 디지털 신호로 바꿔 메모리소자에 기억시키는 카메라를 포함할 수 있다. 카메라는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.The pattern obtaining unit 140 may include a camera that converts an image of an object into an electrical signal and then converts the image into an electrical signal and stores the digital signal in a memory device. The camera includes an image sensor (e.g., a CMOS image sensor) configured with at least one optical lens and a plurality of photodiodes (e.g., pixels) that are imaged by light passing through the optical lens, And a digital signal processor (DSP) that configures an image based on signals output from the diodes. The digital signal processor is capable of generating moving images composed of still frames as well as still images.

이미지센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 집적된 칩으로 구성되며, 광 다이오드로는 픽셀(pixel)을 예로 들 수 있다. 렌즈를 통과한 광에 의해 칩에 맺힌 영상에 의해 각각의 픽셀들에 전하가 축적되며, 픽셀에 축적된 전하들은 전기적 신호(예를들어, 전압)로 변환된다. 이미지센서로는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등이 잘 알려져 있다.An image sensor is an apparatus for converting an optical image into an electrical signal. The image sensor is composed of a chip on which a plurality of photo diodes are integrated, and a photodiode is exemplified as a pixel. Charges are accumulated in the respective pixels by an image formed on the chip by the light passing through the lens, and the charges accumulated in the pixels are converted into an electrical signal (for example, voltage). Charge Coupled Device (CCD) and Complementary Metal Oxide Semiconductor (CMOS) are well known as image sensors.

영상처리부는 이미지센서로부터 출력된 아날로그 신호를 바탕으로 디지털 영상을 생성한다. 영상처리부는 아날로그 신호를 디지털 신호로 변환하는 AD컨버터와, AD컨버터로부터 출력된 디지털 신호에 따라 일시적으로 디지털 정보(digital data)를 기록하는 버퍼 메모리(buffer memory)와, 버퍼 메모리에 기록된 정보를 처리하여 디지털 영상을 구성하는 디지털 신호처리기(DSP:Digital Signal Processor)를 포함할 수 있다.The image processor generates a digital image based on the analog signal output from the image sensor. The image processing unit includes an AD converter for converting an analog signal into a digital signal, a buffer memory for temporarily storing digital information according to the digital signal output from the AD converter, And may include a digital signal processor (DSP) that processes the digital image and forms a digital image.

장애물 감지유닛(100)은 획득영상을 통해 패턴을 분석하여 패턴의 형태에 따라 장애물을 감지하고, 센서부(150)는 각 센서의 감지거리에 위치하는 장애물을 구비되는 센서를 통해 감지한다. The obstacle sensing unit 100 senses an obstacle according to the pattern type by analyzing the pattern through the acquired image, and the sensor unit 150 senses an obstacle located at the sensing distance of each sensor through the sensor.

센서부(150)는 복수의 센서를 포함하여 장애물을 감지한다. 센서부(150)는 레이저, 초음파, 적외선 중 적어도 하나를 이용하여 본체(10)의 전방, 즉 주행방향의 장애물을 감지한다. 또한, 센서부(122)는 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서를 더 포함할 수 있다. 센서부(150)는 송출되는 신호가 반사되어 입사되는 경우, 장애물의 존재 여부 또는 장애물까지의 거리에 대한 정보를 장애물 감지신호로써 제어부(200)로 입력한다. The sensor unit 150 includes a plurality of sensors to detect obstacles. The sensor unit 150 senses an obstacle in front of the main body 10, that is, an obstacle in the running direction, using at least one of laser, ultrasonic waves and infrared rays. In addition, the sensor unit 122 may further include a cliff detection sensor for detecting the presence or absence of a cliff on the floor in the driving area. When the transmitted signal is reflected and incident, the sensor unit 150 inputs information on the presence of an obstacle or a distance to the obstacle to the controller 200 as an obstacle detection signal.

영상획득부(170)는 이동 로봇이 동작하면, 연속적 영상을 촬영한다. 또한, 영상획득부(170)는 소정 주기로 영상을 촬영할 수 있다. 영상획득부(170)는 장애물감지유닛(100)에 의해 장애물이 감지되지 않는, 주행 또는 청소상태에서도 영상을 촬영한다. The image acquisition unit 170 captures a continuous image when the mobile robot operates. Also, the image acquisition unit 170 may capture an image at a predetermined cycle. The image acquiring unit 170 photographs an image even when the obstacle is not detected by the obstacle detecting unit 100, even in the traveling or cleaning state.

예를 들어 영상획득부(170)는 1회 촬영 후, 동일한 주행방향으로 이동하게 되면, 주행방향이 변경되지 않고 유지되는 동안 1회 촬영된 영상에 촬영된 장애물의 크기가 변화할 뿐 동일한 장애물이 촬영되므로, 소정 시간 단위로, 주기적으로 영상을 촬영한다. 또한, 영상획득부(170)는 주행방향이 변경되는 경우, 새로운 영상을 촬영한다. For example, when the image acquisition unit 170 moves in the same traveling direction after one shot, the size of the obstacle photographed in the image taken one time while the traveling direction is maintained unchanged changes only in the same obstacle The image is periodically photographed at predetermined time intervals. In addition, the image acquisition unit 170 photographs a new image when the direction of travel is changed.

영상획득부(170)는 이동 로봇의 이동 속도에 따라 촬영 주기를 설정할 수 있다. 또한, 영상획득부(170)는 센서부에 의한 감지거리와 이동 로봇의 이동속도를 고려하여 촬영 주기를 설정할 수 있다. The image acquisition unit 170 can set the imaging cycle according to the moving speed of the mobile robot. In addition, the image acquisition unit 170 may set the imaging period in consideration of the sensing distance by the sensor unit and the moving speed of the mobile robot.

영상획득부(170)는 본체가 주행하는 중에 촬영되는 영상을 영상데이터(182)로써 데이터부(180)에 저장한다. The image acquiring unit 170 stores the image photographed while the main body is traveling in the data unit 180 as the image data 182. [

한편, 장애물 감지유닛(100)은 주행 중에 주행방향에 위치하는 장애물을 감지하여 제어부로 감지신호를 입력한다. 장애물 감지유닛(100)은 감지되는 장애물의 위치 또는 그 움직임에 대한 정보를 제어부(110)로 입력한다. 패턴획득부(140)는 패턴조사부에 의해 조사된 패턴이 포함된 영상을 감지신호로써 제어부로 입력하고, 센서부(150)는 구비되는 센서에 의해 감지되는 장애물에 대한 감지신호를 제어부로 입력한다. On the other hand, the obstacle detecting unit 100 senses an obstacle located in the driving direction while driving and inputs a sensing signal to the control unit. The obstacle detection unit 100 inputs information on the position or movement of the obstacle to be detected to the control unit 110. [ The pattern obtaining unit 140 inputs the image including the pattern irradiated by the pattern irradiating unit to the control unit as a sensing signal, and the sensor unit 150 inputs a sensing signal for the obstacle sensed by the provided sensor to the control unit .

제어부(110)는 주행영역(H) 중 지정된 주행구역 내에서, 이동 로봇이 주행하도록 주행부(250)를 제어한다. The control unit 110 controls the travel unit 250 so that the mobile robot travels within the specified travel area of the travel region H. [

제어부(110)는 주행 중, 주행부(250) 및 청소부(170)를 제어하여, 이동 로봇 주변의 먼지 또는 이물질을 흡수하도록 함으로써 주행구역에 대한 청소를 수행한다. 그에 따라 청소부(150)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입장치를 동작시켜 먼지 또는 이물질을 흡입한다. 주행 중에 이물질을 흡입하여 청소를 수행하도록 청소부를 제어한다. The control unit 110 controls the traveling unit 250 and the cleaning unit 170 to absorb dust or foreign matter around the mobile robot to thereby perform cleaning of the traveling area. Accordingly, the cleaning unit 150 operates the brush to make dust or foreign matter around the mobile robot easy to suck, and operates the suction device to suck dust or foreign matter. And controls the cleaning unit to perform cleaning by sucking foreign matter while driving.

제어부(110)는 배터리의 충전용량을 체크하여 충전대로의 복귀 시기를 결정한다. 제어부(110)는 충전용량이 일정값에 도달하면, 수행중이던 동작을 중지하고, 충전대 복귀를 위해 충전대 탐색을 시작한다. 제어부(110)는 배터리의 충전용량에 대한 알림 및 충전대 복귀에 대한 알림을 출력할 수 있다. The control unit 110 checks the charging capacity of the battery and determines the return time of the charging station. When the charging capacity reaches a predetermined value, the control unit 110 stops the operation being performed and starts searching for a charging station to return to the charging station. The control unit 110 may output a notification of the charging capacity of the battery and a notification of the charging unit return.

제어부(110)는 조작부(160)의 조작에 의해 입력되는 데이터를 처리하여 이동 로봇의 동작모드를 설정하고, 동작상태를 출력부(190)를 통해 출력하며, 동작상태, 에러상태 또는 장애물 감지에 따른 경고음, 효과음, 음성안내가 스피커를 통해 출력되도록 한다. The control unit 110 processes the data inputted by the operation of the operation unit 160 to set the operation mode of the mobile robot, outputs the operation state through the output unit 190, and detects the operation state, the error state, The sound, the sound effect, and the voice guidance are outputted through the speaker.

또한, 제어부(110)는 영상획득부(170) 또는 장애물 감지유닛(100)로부터 감지되는 장애물에 대하여, 장애물을 인식하고, 장애물에 대응하여 복수의 대응모션중 어느 하나를 설정하여 수행되도록 한다. In addition, the controller 110 recognizes an obstacle to an obstacle detected from the image acquiring unit 170 or the obstacle sensing unit 100, and sets one of a plurality of corresponding motions corresponding to the obstacle to be performed.

제어부(110)는 영상획득부(170)에 의해 촬영되는 영상으로부터 장애물을 판단하고, 장애물 감지유닛(100)에 의해 장애물이 소정거리 내에 위치하는 것으로 감지되면, 장애물에 대한 대응모션을 설정하여 동작하도록 한다. The control unit 110 determines an obstacle from the image captured by the image obtaining unit 170. If it is detected by the obstacle detecting unit 100 that the obstacle is located within a predetermined distance, .

제어부(110)는 장애물감지유닛(100)에 의해 장애물이 감지되기 전, 영상획득부(170)를 통해 촬영된 영상, 즉 영상데이터를 분석하여 영상데이터에 포함된 장애물을 판단할 수 있다. 제어부(110)는 자체 구비되는 데이터를 통해 장애물을 판단할 수 있고, 또한 통신부를 통해 서버 또는 단말로 영상데이터를 전송하여 장애물의 종류를 판단할 수 있다. The control unit 110 may analyze an image captured through the image acquisition unit 170, that is, image data, before the obstacle is detected by the obstacle detection unit 100, to determine an obstacle included in the image data. The control unit 110 can determine an obstacle through data provided thereto, and can also determine the type of an obstacle by transmitting image data to a server or a terminal through a communication unit.

제어부(110)는 영상이 촬영된 후, 장애물 감지유닛(100)에 의해, 장애물이 소정 거리 내에 위치하는 것으로 감지되면, 감지신호를 해당 장애물의 종류에 따라 대응모션을 설정하는 센서부에 의해 해당 장애물이 감지되는 경우, 미리 인식된 장애물의 종류에 따라 본체가 지정된 동작을 수행하도록 한다. When the obstacle detecting unit 100 detects that the obstacle is located within a predetermined distance after the image is captured, the control unit 110 controls the sensor unit to set the corresponding motion according to the type of the obstacle When an obstacle is detected, the main body performs the designated operation according to the type of the obstacle recognized in advance.

제어부(110)는 장애물 감지유닛의 감지거리에 따라, 장애물이 감지되는 때에 장애물에 대응하는 동작이 수행되도록 할 수 있고, 또한, 장애물 감지유닛에 의해 장애물이 감지되더라도, 장애물이 지정된 거리 내에 위치하는 경우에 장애물에 대응하는 동작이 수행되도록 할 수 있다. The control unit 110 can cause the operation corresponding to the obstacle to be performed when the obstacle is detected according to the detection distance of the obstacle detection unit and also the obstacle is positioned within the specified distance even if the obstacle is detected by the obstacle detection unit The operation corresponding to the obstacle can be performed.

예를 들어 패턴획득부에 의한 감지신호로부터 장애물이 초기 감지되는 거리와, 초음파 센서에 의해 감지되는 거리가 상이한 경우 장애물에 대한 감지신호가 입력되는 시점이 상이해 진다. 그에 따라, 제어부(110)는 장애물을 감지할 수 있는 수단이 복수이거나, 또는 레이저센서와 같이 장애물을 감지할 수 있는 거리가 일정 거리 이상인 경우, 장애물 감지유닛(100)에 의해 감지되는 장애물까지의 거리를 바탕으로, 장애물이 지정된 거리, 예를 들어 30cm 에 위치하는 경우 복수의 대응모션 중 어느 하나가 수행되도록 한다. For example, when the obstacle is initially sensed from the sensing signal by the pattern acquiring unit and when the distance sensed by the ultrasonic sensor is different, the sensing signal for the obstacle is input. Accordingly, when a plurality of means for detecting an obstacle are present or a distance capable of detecting an obstacle such as a laser sensor is equal to or greater than a predetermined distance, the control unit 110 controls the operation of the obstacle detection unit 100, Based on the distance, when the obstacle is located at a specified distance, for example 30 cm, any one of a plurality of corresponding motions is performed.

제어부(110)는 장애물에 대한 감지신호를 바탕으로, 감지신호의 형태에 따라 복수의 대응모션 중 수행 가능한 대응모션을 선별하고, 영상데이터를 분석하여 영상에 포함된 장애물을 인식하여 그에 따라 어느 하나의 대응모션을 선택하여 본체의 동작을 제어한다. Based on the detection signal of the obstacle, the control unit 110 selects a corresponding motion that can be performed among a plurality of corresponding motions according to the type of the sensing signal, analyzes the image data, recognizes an obstacle included in the image, And controls the operation of the main body.

예를 들어 제어부는 감지신호가 패턴에 포함된 영상인 경우 패턴의 형태에 따라 상이한 감지신호로써 판단할 수 있고, 감지신호, 즉 패턴의 형태에 따라 장애물을 구분할 수 있다. For example, if the detection signal is an image included in the pattern, the controller can determine the detection signal as a different detection signal according to the pattern type, and can distinguish the obstacle according to the pattern of the detection signal, that is, the pattern.

제어부(110)는 영상을 통해 장애물을 인식하는 경우, 촬영된 영상에 대하여 소정 주기로, 장애물 감지유닛에 의해 감지신호가 입력되기 전, 수행할 수 있고, 또한, 장애물 감지신호가 입력되는 때에 판단할 수도 있다. 제어부(110)는 필요에 따라 서버(90) 또는 단말(80)로 데이터를 전송하여 장애물에 대한 데이터를 수신할 수 있다. When the obstacle is recognized through the image, the control unit 110 can perform the detection of the obstacle by the obstacle detection unit before the obstacle detection unit inputs the captured image at a predetermined cycle, and when the obstacle detection signal is inputted It is possible. The controller 110 may receive data on an obstacle by transmitting data to the server 90 or the terminal 80 as needed.

예를 들어 제어부(110)는 상이한 장애물, 문턱, 선풍기, 테이블에 대하여 동일한 감지신호가 입력되는 경우, 해당 감지신호에 대하여 동작 가능한 대응모션을 복수로 선별하고, 영상데이터를 통해 문덕, 선풍기, 테이블에 대하여 각각 대응모션을 설정하여 동작을 제어한다. For example, when the same sensing signal is input to different obstacles, thresholds, fans, and tables, the controller 110 selects a plurality of corresponding motions that can be operated for the sensing signal, And sets the corresponding motion to control the operation.

제어부(110)는 장애물인식부(111), 맵생성부(112), 주행제어부(113)을 포함한다. The control unit 110 includes an obstacle recognition unit 111, a map generation unit 112, and a travel control unit 113.

맵생성부(112)는 초기 동작 시, 또는 청소영역에 대한 지도가 저장되어 있지 않은 경우, 청소영역을 주행하면서 장애물 정보를 바탕으로 청소영역에 대한 지도를 생성한다. 또한, 맵생성부(112)는 주행중 획득되는 장애물 정보를 바탕으로, 기 생성된 지도를 갱신한다. The map generating unit 112 generates a map for the cleaning area based on the obstacle information while running the cleaning area in the initial operation or when the map for the cleaning area is not stored. Further, the map generating unit 112 updates the pre-generated map based on the obstacle information obtained during the running.

맵생성부(112)는 주행 중 장애물인식부(111)를 획득되는 정보를 바탕으로 기초맵을 생성하고, 기초맵으로부터 영역을 구분하여 청소맵을 생성한다. 또한 맵생성부(112)는 청소맵에 대하여 영역을 정리하고, 영역에 대한 속성을 설정하여 사용자맵과 가이드맵을 생성한다. 기초맵은, 주행을 통해 획득되는 청소영역의 형태가 외곽선으로 표시되는 지도이고, 청소맵은 기초맵에 영역이 구분된 지도이다. 기초맵과 청소맵에는 이동 로봇의 주행 가능한 영역과 장애물정보가 포함된다. 사용자맵은 청소맵의 영역을 단순화하고 외각선의 형태를 정리하여 가공한 것으로 시각적 효과를 가미한 지도이다. 가이드맵은 청소맵과 사용자맵이 중첩된 지도이다. 가이드맵에는 청소맵이 표시되므로, 이동 로봇이 실제 주행할 수 있는 영역을 바탕으로 청소명령이 입력될 수 있다. The map generating unit 112 generates a basic map based on information obtained from the obstacle recognizing unit 111 during travel, and generates a cleaning map by dividing the area from the basic map. Further, the map generating unit 112 arranges the area for the cleaning map, and sets the attribute for the area to generate the user map and the guide map. The basic map is a map in which the shape of the cleaning area obtained through running is indicated by an outline, and the cleaning map is a map in which the area is divided into basic maps. The basic map and the cleaning map include a travelable area and obstacle information of the mobile robot. The user map is a map that simplifies the area of the cleaning map and outlines the shape of the outline, and adds visual effects. The guide map is a map in which the cleaning map and the user map are superimposed. Since the cleaning map is displayed in the guide map, a cleaning command can be inputted based on the area that the mobile robot can actually travel.

맵생성부(112)는 기초맵 생성 후, 청소영역을 복수의 영역으로 구분하고, 복수의 영역을 연결하는 연결통로를 포함하며, 각 영역 내의 장애물에 대한 정보를 포함하여 지도를 생성한다. 맵생성부(112)는, 지도상의 영역 구분을 위해 소영역을 분리하여 대표영역을 설정하고, 분리된 소영역을 별도의 세부영역으로 설정하여 대표영역에 병합함으로써 영역이 구분된 지도를 생성한다.After generating the basic map, the map generating unit 112 divides the cleaning area into a plurality of areas, and includes a connection path connecting the plurality of areas, and generates a map including information on the obstacles in each area. The map generation unit 112 generates a map in which a representative region is set by dividing a small region for dividing a region on a map, and a divided sub-region is set as a separate sub-region to be merged into a representative region .

맵생성부(112)는 구분된 각 영역에 대하여, 영역의 형태를 가공한다. 맵생성부(112)는 구분된 영역에 대하여 속성을 설정하고, 영역별 속성에 따라 영역의 형태를 가공한다.The map generating unit 112 processes the shape of the area for each of the divided areas. The map generation unit 112 sets attributes for the divided regions, and processes the types of regions according to the attributes for each region.

장애물인식부(111)는 영상획득부(170) 또는 장애물 감지유닛(100)으로부터 입력되는 데이터를 통해 장애물을 판단하고, 맵생성부(112)는 주행구역에 대한 지도를 생성하고, 감지되는 장애물에 대한 정보가 지도에 포함되도록 한다. 또한, 주행제어부(113)는 장애물 정보에 대응하여 이동방향 또는 주행경로를 변경하여 장애물을 통과하거나 또는 장애물을 회피하여 주행하도록 주행부(250)를 제어한다. The obstacle recognition unit 111 determines obstacles through the data input from the image acquisition unit 170 or the obstacle detection unit 100. The map generation unit 112 generates a map of the traveling area, To be included in the map. In addition, the driving control unit 113 controls the driving unit 250 to change the moving direction or the traveling path in accordance with the obstacle information so as to pass the obstacle or to avoid the obstacle.

주행제어부(113)는 주행부(250)를 제어하여 좌륜 구동모터와 우륜 구동모터의 작동을 독립적으로 제어함으로써 본체(10)가 직진 또는 회전하여 주행하도록 한다. 주행제어부(113)는 청소명령에 따라 주행부(250)와 청소부(150)를 제어하여 본체(10)가 청소영역을 주행하면서 이물질을 흡입하여 청소가 수행되도록 한다. The travel control unit 113 controls the travel unit 250 to independently control the operation of the left and right wheel drive motors so that the main body 10 travels straight or rotates. The travel control unit 113 controls the traveling unit 250 and the cleaning unit 150 according to a cleaning command so that the main body 10 travels in the cleaning area and sucks foreign substances to perform cleaning.

장애물인식부(111)는 장애물 감지유닛(100)으로부터 입력되는 데이터를 분석하여 장애물을 판단한다. 장애물인식부(111)는 장애물 감지유닛의 감지신호, 예를 들어 초음파 또는 레이저 등의 신호에 따라 장애물의 방향 또는 장애물까지의 거리를 산출하고, 또한, 패턴이 포함된 획득영상을 분석하여 패턴을 추출하고 패턴의 형태를 분석하여 장애물을 판단한다. 장애물인식부(111)는 초음파 또는 적외선 신호를 이용하는 경우 장애물과의 거리 또는 장애물의 위치에 따라 수신되는 초음파의 형태, 초음파가 수신되는 시간에 차이가 있으므로 이를 바탕으로 장애물을 판단한다. The obstacle recognition unit 111 analyzes data input from the obstacle detection unit 100 to determine an obstacle. The obstacle recognition unit 111 calculates the direction of the obstacle or the distance to the obstacle based on a detection signal of the obstacle detection unit, for example, an ultrasonic wave or a laser, and analyzes the acquired image including the pattern And the obstacle is judged by analyzing the pattern form. When an ultrasonic wave or an infrared signal is used, the obstacle recognition unit 111 determines the obstacle based on the distance between the obstacle and the type of the ultrasonic wave received and the time of receiving the ultrasonic wave according to the position of the obstacle.

또한, 장애물인식부(111)는 영상획득부(170)에 의해 장애물을 촬영한 영상데이터가 입력되면, 데이터부(180)에 저장한다. 영상획득부(170)는 전방의 장애물을 복수회 촬영하므로, 영상데이터 또한 복수개가 저장된다. 또한, 영상획득부(170)가 주행방향에 대한 영상을 연속 촬영하는 경우, 장애물인식부(111)는 입력되는 동영상을 영상데이터로써 저장하거나 또는 동영상을 프레임 단위로 구분하여 영상데이터로써 저장한다. 장애물인식부(111)는 동영상을 프레임 단위로 분석하여 불필요한 프레임, 즉 대상물이 흔들리거나 초점이 맞지 않는 프레임 또는 빈 프레임(장애물이 촬영되지 않은 프레임)은 제거하고, 소정 시간 단위로 프레임을 영상데이터로써 저장한다. In addition, the obstacle recognizing unit 111 stores the image data obtained by imaging the obstacle by the image obtaining unit 170 in the data unit 180. Since the image acquiring unit 170 photographs the obstacle in front of the obstacle a plurality of times, a plurality of image data is also stored. When the image acquisition unit 170 continuously captures an image of the driving direction, the obstacle recognition unit 111 stores the input moving image as image data or the moving image divided into frames and stores the image as image data. The obstacle recognizing unit 111 analyzes the moving image frame by frame to remove unnecessary frames, that is, a frame in which the object is shaken or out of focus, or an empty frame (frame in which no obstacle is photographed) .

장애물인식부(111)는 복수의 영상데이터를 분석하여, 촬영된 대상, 즉 장애물을 인식할 수 있는지 여부를 판단한다. 이때 장애물 인식부(112)는 영상데이터를 분석하여 영상데이터가 인식 가능한 것인지 아닌지 여부를 판단한다. 예를 들어, 장애물인식부(111)는 흔들린 영상, 초점이 맞지 않는 영상, 어두워서 장애물을 구분할 수 없는 영상을 분리하여 폐기한다. The obstacle recognition unit 111 analyzes a plurality of image data to determine whether or not the photographed object, that is, an obstacle can be recognized. At this time, the obstacle recognition unit 112 analyzes the image data and determines whether the image data is recognizable or not. For example, the obstacle recognizing unit 111 separates and discards a shaken image, an unfocused image, or an image that is dark and can not distinguish an obstacle.

장애물인식부(111)는 영상데이터를 분석하여 장애물의 특징으로 추출하고, 장애물의 형상(형태), 크기 및 색상 바탕으로 장애물을 판단하고 그 위치를 판단한다. 장애물인식부(111)는 기 촬영된 복수의 영상으로부터 장애물을 분석하고, 장애물이 지정거리에 위치하는 것으로 판단되는 시점을 기준으로 기 설정된 시간 이전에 촬영된 영상을 분석하여 장애물을 판단한다. The obstacle recognition unit 111 analyzes the image data and extracts it as a feature of the obstacle. The obstacle is determined based on the shape (shape), size and color of the obstacle, and the position of the obstacle is determined. The obstacle recognition unit 111 analyzes an obstacle from a plurality of photographed images and analyzes an image photographed before a predetermined time based on a point at which the obstacle is determined to be located at a specified distance to determine an obstacle.

감지신호에 의해 장애물 판단 후 영상데이터를 통한 장애물 판단을 수행하는 것으로 기재하고 있으나, 그 순서에 한정되지 아니하고, 영상을 통한 장애물 판단을 수행한 후에 감지신호에 의한 장애물 판단은 수행할 수 있고, 또한, 동시에 수행 될 수 있다. The obstacle determination is performed through the image data after the obstacle is determined by the sensing signal. However, the present invention is not limited to this order, and it is possible to perform the obstacle determination by the sensing signal after performing the obstacle determination through the image, , Can be performed simultaneously.

장애물에 지정거리 이내로 접근한 상태에서는 장애물의 일부만 촬영될 수 있으므로, 기 설정된 시간 이전에 촬영된, 즉 지정거리보다 먼 거리에서 촬영되어 장애물의 전체형상이 촬영된 영상을 이용하여 장애물을 판단한다. 장애물인식부(111)는 구체적인 장애물의 종류를 판단할 수 있고, 경우에 따라 형상과 크기만을 판단할 수도 있다. Since only a part of the obstacle can be photographed when the obstacle is approaching within the designated distance, the obstacle is judged using the image photographed before the predetermined time, that is, the image taken at a distance longer than the specified distance and the entire shape of the obstacle was photographed. The obstacle recognizing unit 111 can determine the specific obstacle type, and may determine only the shape and the size depending on the case.

장애물인식부(111)는 영상데이터로부터 영상의 배경을 제외하고, 기 저장된 장애물데이터를 바탕으로 장애물의 특징을 추출하여 장애물의 종류를 판단할 수 있다. 장애물데이터(181)는 서버로부터 수신되는 새로운 장애물데이터에 의해 갱신된다. 이동 로봇(1)은 감지되는 장애물에 대한 장애물데이터를 저장하고 그외 데이터에 대하여 서버로부터 장애물의 종류에 대한 데이터를 수신할 수 있다. The obstacle recognizing unit 111 can determine the type of the obstacle by extracting the feature of the obstacle based on the previously stored obstacle data, excluding the background of the image from the image data. The obstacle data 181 is updated by new obstacle data received from the server. The mobile robot 1 may store the obstacle data for the obstacle to be sensed and receive data on the type of the obstacle from the server for the other data.

장애물인식부(111)는 영상을 구성하는 소정의 픽셀들에 대해 점, 선, 면 등의 특징을 검출 (feature detection)하고, 이렇게 검출된 특징을 바탕으로 장애물을 검출한다. The obstacle recognition unit 111 detects features such as points, lines, and planes with respect to predetermined pixels constituting an image (feature detection), and detects obstacles based on the detected features.

장애물인식부(111)는 장애물의 외곽선을 추출하여 그 형태를 바탕으로 장애물을 인식하여 그 종류를 판단한다. 장애물인식부(111)는 형태를 바탕으로, 장애물의 색상, 크기에 따라 장애물의 종류를 판단할 수 있다. 또한, 장애물 인식부(112)는 장애물의 형태와 움직임을 바탕으로 장애물의 종류를 판단할 수 있다. The obstacle recognition unit 111 extracts the outline of the obstacle, recognizes the obstacle based on the outline of the obstacle, and determines the type of the obstacle. The obstacle recognition unit 111 can determine the type of the obstacle according to the color and size of the obstacle based on the shape. In addition, the obstacle recognition unit 112 can determine the type of the obstacle based on the type and motion of the obstacle.

장애물 인식부(112)는 장애물 정보를 바탕으로, 사람, 동물, 사물을 구분한다. 장애물 인식부(112)는 장애물의 종류를, 일반장애물, 위험장애물, 생체장애물, 바닥장애물로 분류하고, 각 분류에 대하여 세부적인 장애물의 종류를 판단할 수 있다. The obstacle recognition unit 112 distinguishes people, animals, and objects based on the obstacle information. The obstacle recognition unit 112 classifies the types of obstacles as general obstacles, dangerous obstacles, biological obstacles, and bottom obstacles, and determines the types of detailed obstacles for each classification.

또한, 장애물인식부(111)는 인식 가능할 영상데이터를 통신부(280)를 통해 서버(90)로 전송하여 장애물의 종류를 판단하도록 한다. 통신부(280)는 적어도 하나의 영상데이터를 서버(90)로 전송한다.In addition, the obstacle recognition unit 111 transmits the recognizable image data to the server 90 through the communication unit 280 to determine the type of the obstacle. The communication unit 280 transmits at least one video data to the server 90.

서버(90)는 이동 로봇(1)으로부터 영상데이터가 수신되면, 영상데이터를 분석하여 촬영된 대상에 대한 외곽선 또는 형상을 추출하고, 기 저장된 장애물에 대한 데이터와 비교하여, 장애물의 종류를 판단한다. 서버(90)는 유사한 형태 또는 유사한 색상의 장애물을 우선 검색하고, 해당 영상데이터로부터 특징을 추출하여 비교함으로써, 장애물의 종류를 판단한다. When the image data is received from the mobile robot 1, the server 90 analyzes the image data, extracts an outline or a shape of the photographed object, compares the outline or shape with the previously stored data, and determines the type of the obstacle . The server 90 first searches for an obstacle similar to or similar to the color, extracts features from the image data, and compares the features to determine the type of the obstacle.

서버(90)는 장애물의 종류를 판단한 후, 장애물에 대한 데이터를 이동 로봇(1)으로 전송한다. After determining the type of the obstacle, the server 90 transmits data on the obstacle to the mobile robot 1.

장애물인식부(111)는 통신부를 통해 서버로부터 수신되는 장애물에 대한 데이터를 장애물데이터로써 데이터부(180)에 저장한다. 장애물인식부(111)는 서버에 의해 장애물의 종류가 판단되면, 그에 대응하는 동작을 수행하도록 한다. 주행제어부(113)는 장애물의 종류에 대응하여 장애물을 회피하거나, 접근하거나 또는 통과하도록 주행부를 제어하고, 경우에 따라 소정의 효과음 또는 경고음, 음성안내가 스피커를 통해 출력되도록 한다. The obstacle recognition unit 111 stores data on obstacles received from the server through the communication unit in the data unit 180 as obstacle data. The obstacle recognition unit 111 allows the server to perform an operation corresponding to the type of the obstacle. The driving control unit 113 controls the driving unit to avoid, approach, or pass an obstacle in accordance with the type of the obstacle, and to output a predetermined sound effect, a warning sound, or a voice guidance through the speaker as occasion demands.

장애물인식부(111)는 앞서 설명한 바와 같이, 영상데이터를 인식 가능한지 여부를 판단하고, 저장된 장애물데이터에 따라 영상데이터를 서버로 전송함으로써, 서버의 응답에 따라 장애물의 종류를 인식한다. As described above, the obstacle recognition unit 111 determines whether the image data can be recognized, and transmits the image data to the server according to the stored obstacle data, thereby recognizing the type of the obstacle according to the response of the server.

또한, 장애물 인식부는 복수의 장애물 중 선택된 장애물에 대하여, 장애물 인식을 위한 장애물데이터를 저장함으로써, 서버로 영상데이터를 전송하지 않더라도 장애물인식데이터를 바탕으로, 장애물을 인식할 수 있다. In addition, the obstacle recognition unit can recognize the obstacle based on the obstacle recognition data even if the image data is not transmitted to the server by storing the obstacle data for the obstacle recognition for the selected obstacle among the plurality of obstacles.

제어부(110)는 데이터부(180)의 저장용량에 한계가 있으므로, 선택된 일부 장애물에 대한 정보를 장애물인식데이터로써 저장할 수 있다. 예를 들어 제어부(110)는 단말(80)을 통해 선택된 장애물, 또는 감지 횟수를 바탕으로 감지 횟수가 많은 장애물에 대하여 데이터부에 장애물인식데이터를 저장할 수 있다. Since the storage unit of the data unit 180 has a limited capacity, the controller 110 may store information on selected selected obstacles as obstacle recognition data. For example, the control unit 110 may store the obstacle recognition data in the data unit for the obstacle having a large number of times of detection based on the obstacle selected by the terminal 80 or the number of times of sensing.

그에 따라 장애물인식부(111)는 청소영역에 존재하는 장애물, 반복적으로 감지되는 장애물에 대하여 데이터부에 저장함으로써, 장애물이 감지되면 즉시 그에 대응하는 동작을 수행할 수 있다. Accordingly, the obstacle recognizing unit 111 can store an obstacle present in the cleaning area, an obstacle repeatedly detected, in the data unit, so that the obstacle recognizing unit 111 can immediately perform an operation corresponding to the obstacle when the obstacle is detected.

주행제어부(113)는 영상데이터로부터 주행제어부(113)는 장애물의 종류가 인식되면, 장애물의 종류에 대응하여 주행부(250)를 제어하여, 본체(10)가 소정의 동작을 수행하도록 한다. When the driving control unit 113 recognizes the type of the obstacle from the image data, the driving control unit 113 controls the driving unit 250 according to the type of the obstacle so that the main body 10 performs a predetermined operation.

주행제어부(113)는 장애물감지유닛(100)의 감지신호에 따라 장애물이 소정 거리 내에 위치하는 것으로 판단되면, 감지신호의 종류 또는 형태에 따라 실행 가능한 대응모션에 대하여, 영상데이터를 바탕으로 판단되는 장애물의 종류, 형태 크기에 따라 복수의 대응모션 중 어느 하나를 설정하여 동작을 수행한다. If it is determined that the obstacle is located within a predetermined distance according to the detection signal of the obstacle detection unit 100, the travel control unit 113 determines that the obstacle is within the predetermined distance based on the image data An operation is performed by setting any one of a plurality of corresponding motions according to the type of the obstacle and the shape size.

주행제어부(113)는 장애물인식부(111)로부터 인식되는 장애물에 대응하여, 주행 가능 여부 또는 진입가능 여부를 판단하여 장애물에 접근하여 주행하거나, 장애물을 통과하거나, 또는 장애물을 회피하도록 주행경로/청소경로를 설정하여 주행부(250)를 제어한다. In response to the obstacle recognized by the obstacle recognition unit 111, the driving control unit 113 determines whether or not the vehicle is capable of running or approaches the obstacle, and determines whether the vehicle is approaching or departing from the obstacle, And controls the traveling unit 250 by setting a cleaning route.

예를 들어, 주행제어부(113)는 장애물에 대응하여, 본체(10)가 정지, 감속, 가속, 역주행, 유턴, 주행방향을 변경하도록 하며, 장애물에 대하여 일정거리 이상 접근하지 않도록 하고, 일정시간 대기하도록 할 수 있다. 또한, 주행제어부(113)는 장애물에 따라 지정된 소리가 스피커를 통해 출력되도록 하며, 지정된 동작과 함께 소리가 출력되도록 할 수 있다. For example, in response to an obstacle, the travel control unit 113 causes the main body 10 to change stop, decelerate, accelerate, reverse, turn, or travel direction, It can wait. In addition, the travel control unit 113 may cause the sound designated by the obstacle to be output through the speaker, and output the sound along with the designated operation.

주행제어부(113)는 장애물 감지유닛(100)을 통해 장애물이 지정된 거리 내에 위치하는 경우, 감지신호에 따라 회피, 접근, 접근거리에 대한 설정, 그리고 정지, 감속, 가속, 역주행, 유턴, 주행방향 변경와 같은 복수의 대응모션을 설정하고, 기 촬영된 영상데이터로부터 판단되는 장애물에 따라 어느 하나의 대응모션을 설정하여 주행부를 제어한다. When the obstacle is located within the designated distance through the obstacle detection unit 100, the travel control unit 113 sets avoidance, approach, approach distance and stop, decelerate, accelerate, reverse, turn, And sets the corresponding motion in accordance with the obstacle judged from the photographed image data to control the traveling section.

즉 주행제어부(113)는 입력되는 감지신호에 따라 복수의 대응모션을 설정하되, 기 촬영된, 감지신호가 입력되기 이전 시간의 영상데이터로부터 판단되는 장애물에 대응하여 복수의 대응모션 중 어느 하나의 대응모션이 수행되되도록 주행부를 제어한다. 주행제어부(113)는 영상데이터를 통해 장애물의 종류가 구체적으로 판단되는 경우 장애물의 종류에 따라 대응모션을 설정하고, 정확한 종류를 판단할 수 없는 경우라도, 장애물의 형상 또는 크기에 따라 대응모션을 설정할 수 있다. 예를 들어 구체적인 종류는 알수 없으나, 바닥면으로 부터 일정 크기 이상의 공간, 즉 이동 로봇이 통관 가능한 높이과 폭의 공간, 이 존재하는 경우 본체가 장애물을 통과하도록 설정할 수 있다. That is, the driving control unit 113 sets a plurality of corresponding motions in accordance with the input sensing signal, and selects one of a plurality of corresponding motions corresponding to the obstacle determined from the image data of the time before the sensed signal is input And controls the traveling section such that the corresponding motion is performed. When the type of the obstacle is specifically determined based on the image data, the driving control unit 113 sets the corresponding motion according to the type of the obstacle, and if the type of the obstacle can not be determined accurately, Can be set. For example, although the specific type is not known, it is possible to set the body to pass through the obstacle when there is a space of a certain size or more from the floor surface, that is, a space having a height and width for allowing the mobile robot to pass through.

도 7 및 도8은 발명의 이동 로봇의 주행 및 주행중 촬영되는 영상의 예가 도시된 도이다. Figs. 7 and 8 are views showing examples of images taken during traveling and running of the mobile robot of the invention. Fig.

도 7에 도시된 바와 같이, 이동 로봇(1)은 주행 중, 본체(10)의 전방에 위치하는 장애물을 감지한다.As shown in FIG. 7, the mobile robot 1 detects an obstacle located in front of the main body 10 during traveling.

도 7의 (a)와 같은 주행영역(H)에서 이동 로봇(1)이 창문(O4)를 향해 주행하는 경우, 도 7의 (b)와 같은 영상이 촬영된다. 촬영된 영상에는 주행방향에 위치하는 복수의 장애물(O01 내지 O06)이 포함된다. When the mobile robot 1 travels toward the window O4 in the travel region H as shown in Fig. 7 (a), the image as shown in Fig. 7 (b) is photographed. The photographed image includes a plurality of obstacles (O01 to O06) positioned in the running direction.

영상획득부(170)는 영상을 연속하여 촬영하거나, 또는 소정 주기에 따라 반복하여 촬영할 수 있다. The image acquiring unit 170 can photograph the images continuously or repeatedly in a predetermined cycle.

이동 로봇(1)이 일정거리 전진하면, 도 8에 도시된 바와 같이, 장애물에 가까워짐에 따라 장애물이 확대된 형태로 촬영된다. When the mobile robot 1 advances a certain distance, as shown in FIG. 8, the obstacle is photographed in an enlarged form as it approaches the obstacle.

이동 로봇(1)의 본체가 이동할수록 촬영되는 영상에는 이동 로봇의 주행방향에 위치한 장애물일수록 영상 내에서의 면적이 증가하고 이동 로봇의 주행방향과 반대에 위치한 장애물일수록 영상에서 차지하는 면적이 감소하게 된다. As the main body of the mobile robot 1 moves, the area occupied by the obstacle located in the traveling direction of the mobile robot increases and the area occupied by the obstacle located opposite to the traveling direction of the mobile robot decreases .

도 8의 (a)와 같이 이동 로봇이 이동함에 따라, 영역 내에 위치하는 복수의 장애물(O01 내지 O06) 중, 제 2 및 제 3 장애물(O02, O03)에 접근하게 된다. 그에 따라 영상획득부(170)를 통해 촬영되는 영상에는 도 8의 (b)에 도시된 바와 같이, 제 2 및 제 3 장애물(O02, O03)이 촬영된다. As the mobile robot moves as shown in FIG. 8A, the second and third obstacles O02 and O03 among the plurality of obstacles O01 to O06 located in the area are approached. The second and third obstacles O02 and O03 are photographed on the image photographed through the image acquiring unit 170 as shown in FIG. 8 (b).

장애물인식부(111)는 도 7와 같은 위치에서 촬영된 영상을 저장하고, 저장된 영상데이터를 통해 복수의 장애물(O01 내지 O06)을 감지하여 인식할 수 있다. 도 8에 도시된 바와 같이 이동 로봇(1)이 제 2 및 제 3 장애물(O02, O03)에 접근하면, 장애물 감지유닛(100)에 의해 감지신호가 입력되고, 장애물인식부(111)는 장애물이 지정거리 내에 위치하는 것으로 판단하여 기 촬영된 영상데이터를 바탕으로 장애물을 판단한다. 장애물인식부(111)는 감지신호 입력 전에 장애물을 판단할 수 있고, 또한, 서버 또는 단말로 영상데이터를 전송하여 장애물을 판단할 수 있다. The obstacle recognizing unit 111 stores an image photographed at a position as shown in FIG. 7, and can recognize and recognize a plurality of obstacles (O01 to O06) through stored image data. 8, when the mobile robot 1 approaches the second and third obstacles O02 and O03, a detection signal is input by the obstacle detection unit 100, and the obstacle recognition unit 111 recognizes the obstacle And determines an obstacle on the basis of the image data photographed. The obstacle recognition unit 111 can determine an obstacle before inputting a sensing signal and can also determine an obstacle by transmitting image data to a server or a terminal.

이동 로봇(1)의 주행방향이 변경되는 경우, 감지신호에 따라 장애물을 판단하는 경우, 주행방향이 변경되기 전에 촬영된 영상데이터에는 주행방향의 장애물이 촬영되지 않을 가능성이 크므로 주행방향이 변경된 이후의 영상을 바탕으로 장애물을 판단한다. 따라서 이동 로봇(1)은 장애물감지유닛(100)의 감지신호에 따라 장애물이 지정거리 내에 위치하는 경우, 동일한 주행방향에서 기 촬영된 영상데이터를 바탕으로 장애물을 판단한다. In the case where the traveling direction of the mobile robot 1 is changed and the obstacle is judged according to the detection signal, there is a high possibility that the obstacle in the traveling direction is not captured in the image data photographed before the traveling direction is changed. The obstacle is judged based on the subsequent image. Accordingly, when the obstacle is located within the designated distance according to the detection signal of the obstacle detection unit 100, the mobile robot 1 determines the obstacle based on the image data photographed in the same traveling direction.

이동 로봇(1)은 촬영된 영상데이터로부터 장애물을 인식하여 장애물의 종류를 판단한다. 영상획득부(170)는 주행 중에 촬영되는 영상데이터를 저장하고, 제어부는 소정 주기에 따라 영상데이터를 분석하여 장애물을 판단하거나 또는 장애물이 지정거리에 위치하는 것으로 장애물 감지유닛(100)에 의해 감지되면 기 촬영된 영상데이터를 이용하여 장애물을 판단할 수 있다. The mobile robot 1 recognizes the obstacle from the photographed image data and determines the type of the obstacle. The image acquiring unit 170 stores image data photographed during driving, and the controller analyzes the image data according to a predetermined cycle to determine an obstacle, or the obstacle sensing unit 100 An obstacle can be determined using the image data photographed.

제어부는 제 2 및 제 3 장애물(O02, O03)에 대하여 앞서 설명한 바와 같이 영상데이터를 통해 장애물의 종류, 형태, 크기 등에 대한 정보를 판단하므로, 그에 대응하여 대응모션이 수행되도록 주행부를 제어한다. The controller determines the information on the type, shape, size, and the like of the obstacle through the image data as described above with respect to the second and third obstacles (O02, O03), and controls the traveling unit so that the corresponding motion is performed correspondingly.

예를 들어 제어부(110)는 탁자인 제 2 장애물(O002)에 대하여, 제 2 장애물에 대한 감지신호가 입력되면, 접근 후 회피, 진입의 두가지 대응모션을 선별하고, 영상데이터를 분석하여 탁자 밑으로 진입 가능한지 여부에 따라 어느 하나의 대응모션을 결정하여 동작한다. For example, when the detection signal for the second obstacle is input to the second obstacle O002 as a table, the control unit 110 selects two corresponding motions of avoiding approach and entering, analyzes the image data, And determines whether or not any one of the corresponding motions is available.

종류가 동일한 탁자라도, 그 크기가 상이하고, 탁자 밑의 공간의 크기가 상이하며, 이동 로봇의 크기 또한 상이할 수 있으므로 이동 로봇의 진입 가능 여부가 상이하므로, 제어부는 장애물 감지유닛(100)의 감지신호를 바탕으로 복수의 대응모션, 예를 들어 접근 후 회피하거나 진입 또는 통과하도록 하는, 수행 가능한 대응모션을 설정하되, 영상분석을 통해 장애물의 종류, 형태(형상), 크기에 따라 복수의 대응모션 중 어느 하나의 대응모션을 지정하여 수행하도록 결정한다. Even if a table of the same kind is different, the size of the space under the table is different, and the size of the mobile robot may also be different. Therefore, (Motion), for example, avoiding, approaching, or passing through a plurality of corresponding motions based on the type of the obstacle, shape (form) and size through image analysis And determines to perform one of the motion corresponding motions.

탁자의 높이와 탁자 다리의 폭에 따라 탁자 밑으로 진입할지 여부를 판단하여 주행방향을 결정하게 된다. 또한, 동일한 제 2 장애물(O2), 탁자에 대하여, 제 3 장애물(03)인 의지가 존재 여부에 따라 대응모션이 변경될 수 있다. Depending on the height of the table and the width of the table legs, it is determined whether or not to go under the table and the direction of travel is determined. Also, for the same second obstacle O2, the table, the corresponding motion can be changed depending on whether or not the third obstacle 03 is present.

그에 따라 이동 로봇은, 장애물에 대하여 감지신호 입력 시 처리할 수 있는 복수의 대응모션을 설정하고, 영상을 통해 판단되는 장애물의 정보에 따라 어느 하나의 대응모션을 설정함에 따라 탁자라는 장애물에 대하여 장애물의 크기나 형상, 이동 로봇의 본체 크기 등에 따라 상이한 대응모션을 수행할 수 있다. Accordingly, the mobile robot sets a plurality of corresponding motions that can be processed when the detection signal is inputted to the obstacle, and sets any corresponding motion according to the information of the obstacle determined through the image, It is possible to perform different corresponding motions depending on the size, shape, size of the body of the mobile robot, and the like.

도 9 는 본 발명의 일실시예에 따른 이동 로봇의 장애물에 따른 감지신호 및 장애물인식에 대하여 설명하는데 참조되는 도이고, 도 10 은 본 발명의 일실시예에 따른 이동 로봇의 주행 중 장애물의 종류에 따른 동작을 설명하는데 참조되는 도이다. FIG. 9 is a diagram for explaining a detection signal and an obstacle recognition according to an obstacle of a mobile robot according to an embodiment of the present invention. FIG. Fig. 6 is a diagram for explaining an operation according to the present invention.

도 9의 (a)에 도시된 바와 같이 장애물 감지유닛(100)은, 지정 거리 내에 장애물이 위치하는 것으로 감지되면, 그에 대한 감지신호를 입력한다. As shown in FIG. 9 (a), when the obstacle detecting unit 100 detects that an obstacle is located within the designated distance, it inputs a sensing signal for the obstacle.

장애물 감지유닛(100) 중, 패턴조사부로부터 조사된 패턴이 패턴획득부에 촬영되면, 영상에는 도시된 바와 같이 장애물에 조사된 패턴(P1)이 표시된다.When the pattern irradiated from the pattern irradiating unit is photographed in the pattern obtaining unit, the pattern P1 irradiated to the obstacle is displayed on the image as shown in Fig.

패턴이 기준선(ref1)보다 상부에 위치함에 따라, 장애물인식부(111)는 주행방향에 일정 높이는 갖는 장애물이 위치하는 것으로 판단할 수 있다. As the pattern is located above the reference line ref1, the obstacle recognizing unit 111 can determine that an obstacle having a certain height in the traveling direction is located.

그에 따라 주행제어부는 감지신호에 대응하여, 전방에 위치한 장애물에 대하여 수행할 수 있는 대응모션을 복수 설정한다. 예를 들어 회피, 접근, 진입, 통과등의 대응모션을 설정할 수 있다. Accordingly, the travel control unit sets a plurality of corresponding motions that can be performed on the obstacles located ahead in response to the detection signals. For example, you can set corresponding motions such as avoidance, approach, entry, and pass.

또한, 장애물인식부(111)는 감지신호가 입력된 때에, 기 촬영된, 즉 감지신호가 입력되기 전에 촬영된 영상데이터를 분석하여 주행방향에 위치한 장애물을 판단한다. Also, the obstacle recognizing unit 111 analyzes the image data photographed before the sensing signal is inputted, and judges an obstacle located in the traveling direction when the sensing signal is inputted.

도 9의 (b)의 같이 에어컨의 하단부에 패턴이 조사되는 경우, 도 9의 (c)와 같이 선풍기의 받침대 부분에 패턴이 조사되는 경우, 도 9의 (d)와 같이 문턱에 패턴이 조사되는 경우, 그리고 도 9의 (e)와 같이, 작은 상자에 패턴이 조사되는 경우, 앞서 설명한 도 9의 (a)와 같은 패턴이 영상으로 촬영될 수 있다. When a pattern is irradiated on the lower end of the air conditioner as shown in FIG. 9 (b), when a pattern is irradiated on the pedestal portion of the fan as shown in FIG. 9 (c) 9 (e), when a pattern is irradiated on a small box, the pattern as shown in FIG. 9 (a) described above can be photographed as an image.

각각 상이한 장애물임에도 동일한 패턴이 검출됨에 따라, 장애물인식부(111)는 기 촬영된 영상을 바탕으로 장애물을 판단한다. As the same pattern is detected even though they are different obstacles, the obstacle recognizing unit 111 judges an obstacle based on the photographed images.

도 10에 도시된 바와 같이, 감지신호가 입력되기 전에 촬영된 영상을 분석하여 주행방향에 위치한 장애물이 선풍기 인 것을 판단할 수 있다. As shown in FIG. 10, it is possible to determine that the obstacle located in the driving direction is a fan by analyzing the captured image before the sensing signal is input.

도 10의 (a)에 도시된 바와 같이, 이동 로봇(1)은 주행 중에, 촬영된 영상을 저장하고, 장애물 감지유닛(100)에 의해 장애물이 지정 거리 내에 위치하는 것이 감지되면, 장애물인식부(111)는 기 촬영된 영상을 분석하여 영상데이터에 촬영된 장애물을 인식하여 종류, 크기, 형상(형태) 등의 장애물에 대한 정보를 판단한다.10 (a), the mobile robot 1 stores the photographed image while driving, and when it is detected by the obstacle detection unit 100 that the obstacle is located within the designated distance, (111) analyzes the photographed image, recognizes the obstacle photographed in the image data, and judges information about obstacles such as type, size, shape (form) and the like.

장애물인식부(111)는 감지신호가 입력되기 전, 즉 장애물이 지정 거리 보다 먼 거리에 위치한 때에 촬영된 영상데이터를 분석하여 장애물을 판단한다. The obstacle recognizing unit 111 analyzes the photographed image data to determine an obstacle before the detection signal is inputted, that is, when the obstacle is located at a distance greater than the designated distance.

예를 들어 장애물인식부(111)는 제 2 거리(D02)에서 감지신호가 입력되는 경우, 제 2 거리에서는 도 10의 (c)와 같이 장애물의 일부만이 촬영되므로, 장애물에 대한 감지신호가 입력되기 전, 감지신호가 입력되는 시점을 기준으로 일정 시간 전에 제 1 거리(D01)에서 촬영된 도 10 (b) 영상을 분석하여 장애물을 판단한다. 장애물 인식부(1111)는 동일한 주행방향에서 촬영된 영상을 바탕으로 촬영한다. For example, when the sensing signal is input at the second distance D02, the obstacle recognizing unit 111 photographs only a part of the obstacle at the second distance as shown in (c) of FIG. 10, The obstacle is determined by analyzing the image of FIG. 10B photographed at the first distance D01 a predetermined time before the detection signal is inputted. The obstacle recognizing unit 1111 photographs based on the image taken in the same traveling direction.

장애물인식부(111)는 본체의 주행 반향이 변경되는 경우, 주행방향이 변경된 이후에 촬영된 영상으로부터 장애물을 판단한다.The obstacle recognizing unit 111 judges an obstacle from the photographed image after the traveling direction is changed when the traveling echo of the main body is changed.

주행제어부는 감지신호에 따른 복수의 대응모션 중, 도 9의 (c)와같이 장애물이 선풍기임을 영상을 통해 판단하여 그에 대한 대응모션을 수행하도록 한다. 예를 들어 선풍기의 경우, 이동 로봇이 선풍기 반침위로 올라가 고립되는 경우가 발생할 수 있으므로, 선풍기에 10cm 이상 접근하지 않고 회피하도록 대응모션(일정거리 접근 후 회피)을 설정하여 주행부를 제어한다. The driving control unit determines through the image that the obstacle is a fan as shown in FIG. 9C among a plurality of corresponding motions corresponding to the detection signal, and performs a corresponding motion thereon. For example, in the case of an electric fan, since the mobile robot may rise up above the half-needle of the fan, it may occur that the moving robot is isolated, so that the driving unit is controlled by setting the corresponding motion (avoiding approaching a certain distance) so as not to approach the fan more than 10 cm.

또한, 영상을 통해 도 9의 (e)와 같이 상자로 판단되는 경우에는 상자에 접근하여 충돌한 후, 이동 가능 여부를 확인할 후에 회피하도록 설정할 수있다. 상자가 가벼운 경우 이동 로봇에 의해 위치가 변경될 수 있으므로, 접근하여 충돌하도록 대응모션을 설정할 수 있다. Also, in the case where the box is determined as a box as shown in FIG. 9 (e) through the image, it is possible to set the box to approach and collide with the box, and then check whether the box is movable before avoiding it. If the box is light, the position can be changed by the mobile robot, so that the corresponding motion can be set so as to approach and collide.

제어부(110)는 감지되는 장애물에 대한 정보를 장애물데이터로써 저장한다. The control unit 110 stores information on the detected obstacle as obstacle data.

장애물데이터에는, 장애물이 감지되는 횟수에 따라 자주 감지되는 장애물에 대한 데이터가 저장된다. In the obstacle data, data on an obstacle frequently detected according to the number of times the obstacle is detected is stored.

주행제어부(113)는 장애물의 종류에 따라 위험장애물인지 여부를 추가로 판단하여, 그에 대응하는 동작을 수행하도록 주행부를 제어할 수 있다. 주행제어부(113)는 장애물의 종류에 따라 동작이 지정된 경우 지정된 동작을 수행하도록 하고, 별도로 동작이 지정되지 않은 경우, 위험장애물 인지 여부에 따라 장애물에 대한 접근의 정도를 가변하여 설정할 수 있다. 또한 주행제어부(113)는 위험장애물인 경우 장애물에 종류에 따라 소정의 효과음 또는 경고음을 출력하고, 음성안내를 출력할 수 있다. 주행제어부(113)는 화분, 화병 등의 파손가능성이 있는 대상, 애완동물, 고립 가능성이 있는 의자 다리 등을 위험장애물로 설정할 수 있다. The driving control unit 113 may further determine whether the vehicle is a dangerous obstacle according to the type of the obstacle and control the driving unit to perform the operation corresponding thereto. The travel control unit 113 allows the designated operation to be performed when the operation is designated according to the type of the obstacle, and the degree of access to the obstacle can be varied according to whether the operation is not designated as a dangerous obstacle. In addition, if the obstacle is a dangerous obstacle, the travel control unit 113 may output a predetermined sound effect or a warning sound depending on the obstacle and output a voice guidance. The travel control unit 113 can set a potentially damaging object such as a pot, a vase, a pet, a chair leg with possibility of being isolated as a dangerous obstacle.

또한, 장애물인식부(111)는 동일한 감지신호가 입력되어 동일한 장애물이 위치하는 경우라도, 장애물의 크기 또는 형상에 따라 상이한 대응모션을 수행할 수 있다. In addition, the obstacle recognizing unit 111 can perform different corresponding motions according to the size or shape of the obstacle even when the same obstacle is located by inputting the same sensing signal.

예를 들어 의지다리로 판단되는 감지신호가 입력되는 경우, 영상을 통해 의지인 것을 판단하는 경우에도, 의자의 높이와 의자의 다리 사이의 간격에 따라 회피, 접근, 진입의 동작이 수행될 수 있다. 장애물인식부(111)는 감지신호 입력후 영상을 분석하여 의자 다리 사이의 간격과 의자의 높이를 산출하여 진입 여부를 판단한다. 그에 따라 주행제어부는 회피, 접근, 진입 중 어느 하나의 대응모션이 수행되도록 한다. For example, in the case where a sensing signal judged to be the shoulder leg is inputted, even if it is judged that the will is through the image, the operation of avoiding, approaching, and entering can be performed according to the interval between the height of the chair and the legs of the chair . The obstacle recognizing unit 111 analyzes the image after inputting the sensing signal, calculates the height between the legs of the chair and the height of the chair, and judges whether or not the chair enters the chair. Accordingly, the driving control unit causes any one of the avoiding, approaching, and entering corresponding motions to be performed.

도 11은 본 발명의 일실시예에 따른 이동 로봇 및 장애물 인식을 위한 기기간의 신호 흐름을 설명하는데 참조되는 도이다. 11 is a diagram for describing a signal flow between a mobile robot and an apparatus for obstacle recognition according to an embodiment of the present invention.

도 11에 도시된 바와 같이, 이동 로봇(1)은 주행구역을 주행하면서 청소를 수행한다.As shown in Fig. 11, the mobile robot 1 carries out cleaning while traveling in a traveling area.

이동 로봇(1)은 주행 중 영상을 촬영하고, 영상을 영상데이터로 저장한다. 제어부(110)는 영상을 통해 장애물을 판단하는 경우, 저장된 장애물 정보를 바탕으로 영상을 분석하여 장애물을 판단한다(S1).The mobile robot 1 photographs a moving image while driving and stores the image as image data. When the obstacle is determined through the image, the controller 110 analyzes the image based on the stored obstacle information to determine an obstacle (S1).

또한, 이동 로봇(1)은 영상데이터를 서버(90) 또는 단말(80)로 전송하여 장애물 확인을 요청할 수 있다(S2).In addition, the mobile robot 1 may transmit image data to the server 90 or the terminal 80 to request an obstacle confirmation (S2).

서버(90)는 영상데이터를 분석하여 장애물에 대한 특징을 추출하여, 형태를 바탕으로 장애물의 종류를 판단한다. 서버(90)는 누적되는 장애물에 대한 데이터를 데이터베이스에 저장하여 장애물 판단에 활용한다. The server 90 analyzes the image data, extracts characteristics of the obstacle, and determines the type of the obstacle based on the shape. The server 90 stores the data of the accumulated obstacles in the database and utilizes them for obstacle determination.

단말(80)은 이동 로봇(1)이 서버에 접속할 수 없는 경우 서버로 데이터를 전송할 수 있다. 또한, 단말(80)은 수신된 영상데이터를 바탕으로 장애물의 종류를 판단할 수 있고, 사용자 입력을 통해 장애물의 종류를 판단할 수 있다. The terminal 80 can transmit data to the server when the mobile robot 1 can not connect to the server. In addition, the terminal 80 can determine the type of the obstacle based on the received image data, and can determine the type of the obstacle through the user input.

서버(90) 또는 단말(80)은 이동 로봇의 요청 대응하여, 장애물의 종류에 대한 데이터를 이동 로봇(1)으로 전송한다(S3). 또한, 서버(90) 또는 단말(80)은 장애물의 종류에 대응하는 회피동작에 대한 데이터를 이동 로봇(1)으로 전송할 수 있다. 이동 로봇(1)은 수신되는 데이터에 따라 회피 동작을 수행한다. The server 90 or the terminal 80 transmits data on the type of the obstacle to the mobile robot 1 in response to the request of the mobile robot (S3). In addition, the server 90 or the terminal 80 can transmit data on the avoiding action corresponding to the type of the obstacle to the mobile robot 1. [ The mobile robot (1) performs the avoiding operation according to the received data.

도 12 는 본 발명의 일실시예에 따른 이동 로봇의 장애물감지 및 대응 동작을 수행하는 과정을 설명하는데 참조되는 흐름도이다. 12 is a flowchart illustrating a process of detecting and responding to an obstacle of a mobile robot according to an embodiment of the present invention.

도 12에 도시된 바와 같이, 이동 로봇(1)은 주행 중에 영상획득부(170)를 통해 복수의 영상을 촬영한다. 제어부(110)는 장애물 감지유닛을 통해 장애물이 감지되지 않더라고 주행중에 영상이 촬영되도록 한다.  As shown in Fig. 12, the mobile robot 1 photographs a plurality of images through the image acquisition unit 170 while driving. The control unit 110 causes the obstacle detection unit to shoot an image while the vehicle is running while an obstacle is not detected.

영상은 소정시간 간격으로 정지영상으로 촬영될 수 있고, 또한 연속 촬영을 통해 동영상으로 촬영될 수 있다. 영상획득부(170)는 촬영되는 영상을 복수의 영상데이터(I01 내지 I03)으로 데이터부에 저장한다(S11). The image can be photographed as a still image at predetermined time intervals, or can be photographed as a moving image through continuous shooting. The image obtaining unit 170 stores the captured image in the data portion using a plurality of image data I01 to I03 (S11).

영상획득부(170)에 구비되는 영상처리부는 촬영된 영상을 필터링하여 일정시간 간격으로 영상데이터가 저장되도록 하고, 동영상이 촬영되는 경우 프레임 단위로 분석하여 불필요한 프레임은 제거한 후 영상데이터를 저장한다. The image processing unit included in the image obtaining unit 170 filters the photographed images to store the image data at predetermined time intervals. When the moving images are photographed, the image processing unit analyzes the frames in units of frames to remove unnecessary frames, and then stores the image data.

제어부(110)는 영상데이터는 저장하고, 장애물감지유닛에 의해 장애물이 감지되면(T1), 장애물이 지정 거리 내에 위치하는 경우 기 촬영된 영상데이터를 분석하여 배경을 제거하고(S12) 특징을 추출한다(S13). 장애물인식부(111)는 장애물에 대한 형상(형태), 크기, 종류를 판단한다(S14).When the obstacle is detected by the obstacle detection unit (T1), the control unit 110 analyzes the captured image data when the obstacle is located within the designated distance, and removes the background (S12) (S13). The obstacle recognition unit 111 determines the shape (shape), size, and type of the obstacle (S14).

제어부(110)은 감지신호와 영상을 통해 판단되는 장애물에 대응하여 대응모션을 설정하고 그에 따라 동작하도록 주행부를 제어한다. The control unit 110 sets the corresponding motion in response to the obstacle determined through the sensing signal and the image, and controls the driving unit to operate accordingly.

경우에 따라 제어부(110)는 장애물 감지유닛(100)에 의해 감지신호가 입력되기 전, 소정 단위로 영상데이터를 분석하여 필터링하고 특징으로 추출하여(S12, S13), 장애물의 형상, 크기, 또는 종류를 판단할 수 있다(S14). 장애물에 대한 판단이 완료된 상태에서 장애물 감지유닛(100)에 의해 감지신호가 입력되면(T2), 제어부는 감지신호와 영상을 통한 장애물 판단을 근거로 장애물에 대한 대응모션을 설정하여 지정된 동작을 수행한다(S17).The controller 110 analyzes the image data in a predetermined unit, filters and extracts the features of the image data in steps S12 and S13 before the detection signal is input by the obstacle detection unit 100, The type can be determined (S14). If a detection signal is inputted by the obstacle detection unit 100 in a state where the determination of the obstacle is completed (T2), the control unit sets a corresponding motion for the obstacle based on the detection signal and the obstacle determination through the image, (S17).

한편, 제어부(1110)는 복수의 영상데이터는 서버로 전송하여(S15), 서버로 장애물 판단을 요청할 수 있다. 서버로부터 장애물에 대한 데이터가 수신되면 장애물 정보(S16)를 저장하고, 그에 따라 장애물을 판단한다(S14).On the other hand, the control unit 1110 transmits a plurality of image data to the server (S15), and can request the server to determine the obstacle. When data on an obstacle is received from the server, the obstacle information S16 is stored and an obstacle is determined accordingly (S14).

제어부(110)는 장애물 감지유닛(100)의 감지신호와 영상을 통한 장애물 판단을 바탕으로 대응모션을 설정하고 그에 따라 동작한다(S17).The control unit 110 sets the corresponding motion based on the detection signal of the obstacle detection unit 100 and the obstacle determination through the image, and operates accordingly (S17).

도 13 은 본 발명의 일실시예에 따른 이동 로봇의 장애물 인식 및 그에 따른 제어방법을 설명하는데 참조되는 순서도이다. FIG. 13 is a flow chart for explaining an obstacle recognition and control method of a mobile robot according to an embodiment of the present invention. Referring to FIG.

도 13에 도시된 바와 같이, 이동 로봇(1)은 주행영역(H) 내에서 주행가능한 영역을 주행하고 지정된 영역에 대한 청소를 수행한다(S310). As shown in FIG. 13, the mobile robot 1 travels in a travelable region in the travel region H and performs cleaning on the designated region (S310).

이동 로봇(1)은 이동 또는 청소명령이 입력되면, 영상획득부(170)를 통해 영상을 촬영한다. 영상획득부(170)는 연속으로 영상을 촬영하거나(동영상) 또는, 소정 시간 간격으로, 영상을 촬영할 수 있다(S320). 촬영된 획득영상은 영상데이터로써 저장된다. The mobile robot 1 shoots an image through the image acquisition unit 170 when a move or clean command is inputted. The image obtaining unit 170 may continuously capture images (moving images) or images at predetermined time intervals (S320). The captured image is stored as image data.

영상획득부(170)는 이동 로봇의 이동 속도에 따라 촬영 주기를 설정하고, , 또한 장애물 감지유닛의 장애물 감지 가능한 거리를 기준으로 설정할 수 있다. The image acquisition unit 170 may set the imaging cycle according to the moving speed of the mobile robot, and may also set the distance that the obstacle detection unit can detect based on the obstacle detection distance.

영상획득부(170)는 복수의 영상데이터에 대하여, 인식 가능한지 여부를 판단하여 필터링하고, 영상분석이 가능한 영상을 선별하여 영상데이터로 저장한다. The image obtaining unit 170 determines whether or not the plurality of image data is recognizable, filters the image data, and selects an image capable of image analysis and stores the image data as image data.

예를 들어 영상획득부(170)는 장애물의 움직임 또는 촬영중 본체(10)의 움직임에 의해 장애물이 정상적으로 촬영되지 못한 경우, 예를 들어 촬영대상인 장애물에 대한 이미지가 흔들려 장애물을 인식할 수 없는 경우, 초점이 맞지 않아 인식이 불가능한 경우는 제외하고, 정상적으로 촬영된 영상을 선별하여 영상데이터로 저장한다. For example, when the obstacle can not be normally photographed due to the movement of the obstacle or the movement of the main body 10 during the shooting, for example, if the image of the obstacle to be imaged is shaken and the obstacle can not be recognized , Except for cases where it is impossible to recognize the camera because the camera is out of focus, images are normally taken and stored as image data.

영상획득부(170)는 이동 로봇(1)이 동작하는 중에 영상을 촬영하고, 장애물 감지유닛(100)는 패턴을 조사하거나, 초음파, 적외선, 레이저를 이용하여 주행방향에 위치한 장애물을 감지하여 감지신호를 입력한다(S300). The image acquisition unit 170 photographs an image while the mobile robot 1 is operating, and the obstacle detection unit 100 detects an obstacle located in the traveling direction using an ultrasonic wave, an infrared ray, or a laser, A signal is input (S300).

장애물인식부(111)는 감지신호를 바탕으로 주행방향에 위치한 장애물의 유무, 또는 3D센서를 이용하여 패턴분석을 통해 장애물의 크기, 위치 등을 판단할 수 있다(S340). The obstacle recognizing unit 111 can determine the presence or absence of obstacles located in the traveling direction based on the sensing signal or the size, position, etc. of the obstacle through pattern analysis using the 3D sensor at step S340.

제어부(110)는 패턴을 조사하여 획득된 패턴의 형태를 통해 장애물을 판단하는 경우, 동일한 감지신호가 입력되는 장애물 들을 분류하여 구분하고, 각각의 감지신호에 따라 수행 가능한 복수의 대응모션을 설정한다(S350). In the case where the obstacle is judged based on the pattern shape obtained by examining the pattern, the controller 110 classifies and classifies the obstacles to which the same sensing signal is input, and sets a plurality of corresponding motions that can be performed according to the respective sensing signals (S350).

제어부(110)는 장애물 감지유닛의 센서의 종류에 따라 감지가능한 거리에 차이가 있으므로, 감지신호를 바탕으로 장애물까지의 거리를 판단하여 장애물이 지정거리에 위치하는지 여부를 판단한다(S360). The control unit 110 determines the distance to the obstacle based on the sensing signal, and determines whether the obstacle is located at the designated distance (S360) because there is a difference in the distance that can be sensed according to the sensor type of the obstacle sensing unit.

제어부(110)는 감지신호의 형태에 따라 주행방향에 위치한 장애물에 대하여 수행 가능한 복수의 대응모션을 판단하고, 장애물이 지정거리 내에 위치하는 경우, 기 촬영된 이전 시점의 영상데이터를 분석하여(S370), 장애물을 판단한다(S380).The control unit 110 determines a plurality of corresponding motions that can be performed on the obstacle located in the driving direction according to the type of the sensing signal. If the obstacle is located within the designated distance, the controller 110 analyzes the image data of the previous imaging point ), And determines an obstacle (S380).

장애물인식부(111)는 영상데이터를 분석하여 장애물에 대한 인식이 가능한지 여부에 따라 필터링하고, 영상처리를 통해 필터링된 영상데이터로부터 배경을 제거한 후, 장애물의 외곽선 또는 특징점을 추출하여 장애물에 대한 형태와 특징을 추출한다.The obstacle recognizing unit 111 analyzes the image data and filters the obstacle according to whether or not the obstacle can be recognized, removes the background from the image data filtered through the image processing, extracts the outline or minutiae of the obstacle, And features.

장애물인식부(111)는 영상데이터의 밝기, 선명도, 본체(10)의 이동속도를 바탕으로 영상데이터의 식별 여부를 판단할 수 있다. 장애물인식부(111)는 영상데이터의 복수의 픽셀값의 밝기값을 바탕으로 영상데이터의 밝기를 판단하여 노출과다, 노출부족, 정상노출을 구분한다. 또한, 장애물인식부(111)는 본체의 이동속도가 설정속도 이상인 경우, 촬영되는 영상에 흔들림이 있다고 판단할 수 있고, 영상데이터의 선명도를 판단하여 식별 가능 여부를 판단한다. The obstacle recognizing unit 111 can determine whether the image data is identified based on the brightness, sharpness, and moving speed of the main body 10 of the image data. The obstacle recognition unit 111 determines the brightness of the image data based on the brightness values of the plurality of pixel values of the image data, thereby distinguishing the overexposure, the underexposure, and the normal exposure. In addition, when the moving speed of the main body is equal to or higher than the set speed, the obstacle recognizing unit 111 can determine that there is blurring in the photographed image and judges the clarity of the image data to determine whether or not it can be discriminated.

장애물인식부(111)는 추출된 장애물의 외곽선과 특징을 추출하여 형태를 분석하고, 장애물데이터를 바탕으로 장애물의 종류, 크기를 판단한다 The obstacle recognition unit 111 extracts the outlines and features of the extracted obstacle, analyzes the type, and determines the type and size of the obstacle based on the obstacle data

한편, 장애물인식부(111)는 별도의 장애물데이터가 존재하지 않거나, 또는 장애물데이터로부터 장애물의 종류를 판단할 수 없는 경우 서버(90) 또는 단말로 영상데이터를 전송하여 장애물 확인을 요청할 수 있다. 서버를 통한 장애물 판단은 영상이 촬영되면 즉시 수행될 수 있다. 자체 판단 또는 서버로부터의 응답에 의해 장애물의 종류를 판단한다. On the other hand, if no obstacle data exists or the obstacle data can not be determined from the obstacle data, the obstacle recognition unit 111 can request the server 90 or the terminal to confirm the obstacle by transmitting the image data. The determination of the obstacle through the server can be performed immediately when the image is captured. The type of the obstacle is judged by the self judgment or the response from the server.

서버(90)는 하나의 장애물에 대하여 복수의 영상데이터를 저장하고, 특정 장애물에 대한 특징을 추출하여 데이터베이스에 저장한다. 서버(90)는 이동 로봇(1)으로부터 수신된 영상데이터를 분석하여 기 저장된 데이터와 비교함으로써, 장애물의 종류를 판단한다. 서버(90)는 장애물의 종류 및 그에 관련된 장애물데이터를 이동 로봇(1)으로 전송한다. The server 90 stores a plurality of image data for one obstacle, extracts characteristics of the specific obstacle, and stores the extracted characteristic data in the database. The server 90 analyzes the image data received from the mobile robot 1 and compares the image data with previously stored data to determine the type of the obstacle. The server 90 transmits the kind of the obstacle and the obstacle data related thereto to the mobile robot 1. [

장애물인식부(111)는 장애물에 대한 형태와 특징에 대응하여 판단된 장애물에 대한 데이터를 바탕으로 복수의 대응모션 중 어느 하나를 설정한다(S390). The obstacle recognizing unit 111 sets any one of a plurality of corresponding motions based on the data of the obstacle determined in accordance with the shape and characteristics of the obstacle (S390).

주행제어부는 주행부를 제어하여 설정된 대응모션에 따른 동작을 수행한다(S400). The driving control unit controls the driving unit to perform the operation corresponding to the set corresponding motion (S400).

주행제어부(113)는 위험장애물인 경우, 장애물에 일정거리 이상 접근하지 않고 회피하여 주행하도록 설정한다. 또한, 주행제어부(113)는 장애물의 종류에 따라 지정된 동작이 존재하는 경우 지정된 동작을 수행하도록 설정한다.In the case of a dangerous obstacle, the driving control unit 113 sets the obstacle to avoid an obstacle more than a certain distance to travel. In addition, the travel controller 113 sets the designated operation to perform the designated operation when there is the designated operation according to the type of the obstacle.

주행제어부(113)은 장애물에 접근한 후 회피하거나, 지정거리 도달시 즉시 회피하도록 설정할 수 있고, 접근하는 경우 접근 거리를 설정할 수 있으며, 장애물로 진입, 통과하도록 설정할 수 있다. 또한, 이동로봇은 소정의 경고음을 출력할 수도 있다. The travel control unit 113 can be set to avoid the obstacle after approaching the obstacle, or to avoid the obstacle immediately when reaching the specified distance, and to set the approach distance when approaching the obstacle. Further, the mobile robot may output a predetermined warning sound.

따라서 이동 로봇(1)은 동일한 감지신호가 입력되는 경우라도, 영상분석을 통해 장애물에 따라 상이한 동작이 수행할 수 있고, 동일한 감지신호 및 장애물의 종류라 하더라도 장애물의 크기나 형태에 따라 대응모션을 상이하게 수행할 수 있다. Accordingly, even when the same sensing signal is input, the mobile robot 1 can perform different operations according to obstacles through the image analysis, and even if the same sensing signals and the same types of obstacles are present, Can be performed differently.

본 발명은 장애물에 지정거리 접근하면 설정된 동작을 수행함으로써, 장애물에 대하여 즉각적으로 대응할 수 있고, 기 촬영된 영상을 이용함에 따라 장애물 판단이 용이해지므로 보다 효과적으로 장애물을 회피할 수 있다.
According to an embodiment of the present invention, an obstacle can be instantaneously responded to a predetermined distance by approaching a specified distance to an obstacle, and an obstacle can be easily determined by using a previously captured image, thereby more effectively avoiding obstacles.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.

1: 이동 로봇 10: 본체
100: 장애물 감지유닛 110: 제어부
111: 장애물인식부 113: 주행제어부
120, 130: 패턴 조사부 140: 패턴 획득부
150: 센서부 170: 영상획득부
180: 데이터부
250: 주행부 260: 청소부
1: mobile robot 10: main body
100: obstacle detection unit 110: control unit
111: an obstacle recognition unit 113:
120, 130: pattern irradiation unit 140: pattern obtaining unit
150: sensor unit 170: image acquiring unit
180: Data portion
250: running part 260: cleaner

Claims (22)

이동 가능한 본체;
주행방향에 대한 영상을 촬영하는 영상획득부;
주행방향에 위치한 장애물을 감지하는 장애물 감지유닛;
상기 영상획득부를 통해 촬영되는 복수의 영상데이터를 저장하고, 상기 장애물 감지유닛에 의해 상기 장애물이 소정거리 내에 위치하는 것으로 판단되는 소정 시점에 대응모션을 시작하되, 상기 소정 시점 이전에 획득된 상기 영상데이터를 바탕으로 판단되는 상기 장애물에 따라 상기 대응모션을 결정하는 제어부를 포함하는 이동 로봇.
A movable body;
An image acquiring unit for acquiring an image of a driving direction;
An obstacle detection unit for detecting an obstacle located in a driving direction;
Wherein the obstacle detection unit is configured to store a plurality of image data photographed through the image acquisition unit and to start a corresponding motion at a predetermined time point at which the obstacle is determined to be located within a predetermined distance by the obstacle detection unit, And a controller for determining the corresponding motion according to the obstacle determined based on the data.
제 1 항에 있어서,
상기 제어부는 상기 장애물 감지유닛으로부터 입력된 소정 형태의 감지신호에 따라 복수의 대응모션이 수행 가능하도록 설정하되, 상기 영상데이터에 의해서 상기 복수의 대응모션 중 어느 하나가 선택되도록 하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein the controller is configured to set a plurality of corresponding motions according to a predetermined type of sensing signal input from the obstacle sensing unit so that one of the plurality of corresponding motions is selected by the image data, robot.
제 2 항에 있어서,
상기 제어부는 상기 감지신호를 통해 산출되는 장애물과의 거리를 바탕으로 상기 장애물이 소정 거리 내에 위치하는지 여부를 판단하는 것을 특징으로 하는 이동 로봇.
3. The method of claim 2,
Wherein the controller determines whether the obstacle is located within a predetermined distance based on a distance from the obstacle calculated through the sensing signal.
제 2 항에 있어서,
상기 제어부는 동일하게 입력되는 상기 감지신호에 대하여, 상기 영상데이터를 바탕으로 상이한 대응모션이 수행되도록 제어하는 것을 특징으로 하는 이동 로봇.
3. The method of claim 2,
Wherein the control unit performs control so that different corresponding motions are performed based on the image data for the sensing signal that is input in the same manner.
제 1 항에 있어서,
상기 제어부는 상기 장애물 감지유닛에 의해 상기 장애물이 소정 거리에 위치하는 것으로 판단되는 시점을 기준으로, 일정 시간 이전에 촬영된 영상데이터를 분석하여 상기 장애물을 판단하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein the controller determines the obstacle by analyzing image data photographed before a predetermined time based on a time point at which the obstacle is determined to be located at a predetermined distance by the obstacle detection unit.
제 1 항에 있어서,
상기 제어부는 상기 장애물이 소정 거리에 위치하는 것으로 판단되는 시점의 상기 본체의 주행방향과 동일한 주행방향에서 촬영된 영상데이터에 기초하여 상기 장애물을 판단하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein the control unit determines the obstacle based on image data photographed in a traveling direction identical to a traveling direction of the main body at a time when the obstacle is determined to be located at a predetermined distance.
제 1 항에 있어서,
상기 제어부는 상기 영상데이터를 분석하여 상기 장애물의 형상, 크기 또는 장애물의 종류를 판단하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein the control unit analyzes the image data to determine the shape, size, or type of the obstacle.
제 2 항에 있어서,
상기 제어부는 상기 감지신호 입력 전, 상기 영상데이터를 분석하여 상기 장애물을 판단하는 것을 특징으로 하는 이동 로봇.
3. The method of claim 2,
Wherein the controller determines the obstacle by analyzing the image data before inputting the sensing signal.
제 2 항에 있어서,
상기 제어부는 상기 감지신호가 입력되면, 상기 영상데이터를 분석하여 상기 장애물을 판단하는 것을 특징으로 하는 이동 로봇.
3. The method of claim 2,
Wherein the control unit determines the obstacle by analyzing the image data when the sensing signal is input.
제 1 항에 있어서,
상기 제어부는 상기 영상데이터는 단말 또는 서버로 전송하여 상기 영상데이터에 포함된 상기 장애물에 대한 정보를 수신하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein the control unit transmits the image data to a terminal or a server and receives information on the obstacle included in the image data.
제 1 항에 있어서,
상기 영상획득부는 주행방향에 대하여 연속적으로 촬영하거나 또는 지정된 시간에 따라 영상을 촬영하여 상기 영상데이터를 저장하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein the image acquiring unit consecutively photographs the moving direction or photographs an image at a designated time and stores the image data.
제 1 항에 있어서,
상기 제어부는 정지, 감속, 가속, 역주행, 대기, 회피, 근거리 접근 금지, 음성안내 중 적어도 하나가 조합된 상기 대응모션을 수행하도록 제어하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein the control unit controls to perform the corresponding motion in combination with at least one of stop, decelerate, accelerate, reverse, wait, avoid, close-out approach, and voice guidance.
제 1 항에 있어서,
상기 장애물 감지유닛은 초음파센서, 레이저센서, 적외선센서, 3D센서 중 적어도 하나를 포함하는 이동 로봇.
The method according to claim 1,
Wherein the obstacle detection unit includes at least one of an ultrasonic sensor, a laser sensor, an infrared sensor, and a 3D sensor.
제 1 항에 있어서,
상기 제어부는 상기 영상데이터를 단말 또는 서버로 전송하여 장애물 확인을 요청하고, 상기 서버 또는 상기 단말로부터 수신되는 응답데이터에 대응하여 상기 장애물의 종류를 판단하는 것을 특징으로 하는 이동 로봇.
The method according to claim 1,
Wherein the control unit requests the obstacle confirmation by transmitting the image data to the terminal or the server, and determines the type of the obstacle according to the response data received from the server or the terminal.
주행 중, 영상획득부에 의해 주행방향에 대한 영상을 촬영하여 영상데이터를 저장하는 단계;
장애물 감지유닛을 통해 소정 거리 내에 장애물이 위치한 것을 판단하는 단계;
상기 장애물이 소정 거리 내에 위치하는 것으로 판단되는 소정 시점, 이전에 획득된 상기 영상데이터를 바탕으로 판단되는 상기 장애물에 따라 대응모션을 결정하는 단계;
상기 소정 시점에, 상기 장애물에 대한 대응모션을 시작하는 단계; 및
상기 대응모션에 따라 동작하여 상기 장애물을 회피하거나 또는 통과하여 주행하는 단계를 포함하는 이동 로봇의 제어방법.
A step of photographing an image in a traveling direction by an image acquisition unit and storing image data during traveling;
Determining that an obstacle is located within a predetermined distance through the obstacle detection unit;
Determining a corresponding motion according to the obstacle determined based on the image data obtained at a predetermined time, which is determined to be located within a predetermined distance;
Initiating a corresponding motion for the obstacle at the predetermined point in time; And
And moving in accordance with the corresponding motion so as to avoid or pass the obstacle.
제 15 항에 있어서,
상기 장애물 감지유닛으로부터 입력되는 감지신호감지신호를 바탕으로 상기 장애물이 본체로부터 소정거리 내에 위치하는지 여부를 판단하는 단계를 더 포함하는 이동 로봇의 제어방법.
16. The method of claim 15,
Further comprising the step of determining whether the obstacle is located within a predetermined distance from the main body based on the detection signal detection signal input from the obstacle detection unit.
제 15 항에 있어서,
상기 대응모션을 설정하는 단계는, 상기 장애물 감지유닛으로부터 입력되는 감지신호의 형태에 따라 복수의 대응모션을 설정하고, 상기 영상데이터에 의해 상기 복수의 대응모션 중 어느 하나를 선택하는 단계를 더 포함하는 이동 로봇의 제어방법.
16. The method of claim 15,
The step of setting the corresponding motion further includes setting a plurality of corresponding motions according to the type of the sensing signal input from the obstacle sensing unit and selecting one of the plurality of corresponding motions by the image data A control method of the mobile robot.
제 15 항에 있어서,
영상 촬영 후 상기 장애물 감지유닛으로부터 상기 장애물에 대한 감지신호가 입력되기 전, 상기 영상데이터를 분석하여 상기 장애물을 판단하는 단계를 더 포함하는 이동 로봇의 제어방법.
16. The method of claim 15,
Further comprising the step of analyzing the image data and determining the obstacle before the sensing signal for the obstacle is inputted from the obstacle sensing unit after the image sensing.
제 15 항에 있어서,
상기 장애물 감지유닛으로부터 상기 장애물에 대한 감지신호가 입력되면, 상기 영상데이터를 분석하여 상기 장애물을 판단하는 단계를 더 포함하는 이동 로봇의 제어방법.
16. The method of claim 15,
Further comprising the step of analyzing the image data to determine the obstacle when the detection signal for the obstacle is input from the obstacle detection unit.
제 18 항 또는 제 19 항에 있어서,
상기 감지신호가 입력된 시점의 주행방향과 동일한 주행방향에 대한 영상데이터에 기초하여 상기 장애물을 판단하는 것을 특징으로 하는 이동 로봇의 제어방법.
20. The method according to claim 18 or 19,
And determines the obstacle based on the image data of the traveling direction that is the same as the traveling direction at the time when the sensing signal is inputted.
제 18 항 또는 제 19 항에 있어서,
상기 영상데이터를 분석하여 상기 장애물의 형상, 크기 또는 종류를 판단하는 것을 특징으로 하는 이동 로봇의 제어방법.
20. The method according to claim 18 or 19,
And analyzing the image data to determine the shape, size, or type of the obstacle.
제 15 항에 있어서,
상기 영상데이터를 단말 또는 서버로 전송하여 상기 영상데이터에 포함된 상기 장애물에 대한 정보를 수신하는 단계를 더 포함하는 이동 로봇의 제어방법.
16. The method of claim 15,
And transmitting the image data to a terminal or a server to receive information on the obstacle included in the image data.
KR1020170139495A 2017-10-25 2017-10-25 Artificial intelligence Moving Robot and controlling method KR102070067B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020170139495A KR102070067B1 (en) 2017-10-25 2017-10-25 Artificial intelligence Moving Robot and controlling method
PCT/KR2018/012688 WO2019083291A1 (en) 2017-10-25 2018-10-25 Artificial intelligence moving robot which learns obstacles, and control method therefor
AU2018356126A AU2018356126B2 (en) 2017-10-25 2018-10-25 Artificial intelligence moving robot which learns obstacles, and control method therefor
EP18870615.4A EP3702111B1 (en) 2017-10-25 2018-10-25 Artificial intelligence moving robot which learns obstacles, and control method therefor
CN201880081516.XA CN111479662B (en) 2017-10-25 2018-10-25 Artificial intelligent mobile robot for learning obstacle and control method thereof
US16/759,118 US11586211B2 (en) 2017-10-25 2018-10-25 AI mobile robot for learning obstacle and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170139495A KR102070067B1 (en) 2017-10-25 2017-10-25 Artificial intelligence Moving Robot and controlling method

Publications (2)

Publication Number Publication Date
KR20190046201A true KR20190046201A (en) 2019-05-07
KR102070067B1 KR102070067B1 (en) 2020-01-28

Family

ID=66656067

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170139495A KR102070067B1 (en) 2017-10-25 2017-10-25 Artificial intelligence Moving Robot and controlling method

Country Status (1)

Country Link
KR (1) KR102070067B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019172733A3 (en) * 2019-05-08 2020-03-26 엘지전자 주식회사 Moving robot capable of interacting with subject being sensed, and method of interaction between moving robot and subject being sensed
WO2020241924A1 (en) * 2019-05-29 2020-12-03 엘지전자 주식회사 Intelligent cleaning robot setting travel route on basis of image learning, and operation method thereof
WO2021006635A1 (en) * 2019-07-09 2021-01-14 Samsung Electronics Co., Ltd. Electronic apparatus for identifying object through warped image and control method thereof
WO2021006622A1 (en) * 2019-07-09 2021-01-14 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
KR20210006825A (en) * 2019-07-09 2021-01-19 삼성전자주식회사 Warped image based ground object recognition electronic apparatus and controlling method thereof
KR20210006826A (en) * 2019-07-09 2021-01-19 삼성전자주식회사 Electronic apparatus and controlling method thereof
WO2021246732A1 (en) * 2020-06-01 2021-12-09 삼성전자주식회사 Cleaning robot and method for controlling same
WO2022181901A1 (en) * 2021-02-25 2022-09-01 엘지전자 주식회사 Intelligent map generation method and mobile robot therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100662638B1 (en) * 2001-04-18 2007-01-02 삼성광주전자 주식회사 Apparatus for correcting obstacle detection error of robot cleaner and method therefor
KR100728225B1 (en) * 2005-10-27 2007-06-14 엘지전자 주식회사 Driving method for moving robot and moving robot using the method
KR20160001575A (en) 2014-06-27 2016-01-06 제일모직주식회사 Styrenic copolymers and thermoplastic resin composition comprising thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100662638B1 (en) * 2001-04-18 2007-01-02 삼성광주전자 주식회사 Apparatus for correcting obstacle detection error of robot cleaner and method therefor
KR100728225B1 (en) * 2005-10-27 2007-06-14 엘지전자 주식회사 Driving method for moving robot and moving robot using the method
KR20160001575A (en) 2014-06-27 2016-01-06 제일모직주식회사 Styrenic copolymers and thermoplastic resin composition comprising thereof

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019172733A3 (en) * 2019-05-08 2020-03-26 엘지전자 주식회사 Moving robot capable of interacting with subject being sensed, and method of interaction between moving robot and subject being sensed
WO2020241924A1 (en) * 2019-05-29 2020-12-03 엘지전자 주식회사 Intelligent cleaning robot setting travel route on basis of image learning, and operation method thereof
US11565411B2 (en) 2019-05-29 2023-01-31 Lg Electronics Inc. Intelligent robot cleaner for setting travel route based on video learning and managing method thereof
WO2021006635A1 (en) * 2019-07-09 2021-01-14 Samsung Electronics Co., Ltd. Electronic apparatus for identifying object through warped image and control method thereof
WO2021006622A1 (en) * 2019-07-09 2021-01-14 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
KR20210006825A (en) * 2019-07-09 2021-01-19 삼성전자주식회사 Warped image based ground object recognition electronic apparatus and controlling method thereof
KR20210006826A (en) * 2019-07-09 2021-01-19 삼성전자주식회사 Electronic apparatus and controlling method thereof
US11599114B2 (en) 2019-07-09 2023-03-07 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
US11650597B2 (en) 2019-07-09 2023-05-16 Samsung Electronics Co., Ltd. Electronic apparatus for identifying object through warped image and control method thereof
WO2021246732A1 (en) * 2020-06-01 2021-12-09 삼성전자주식회사 Cleaning robot and method for controlling same
WO2022181901A1 (en) * 2021-02-25 2022-09-01 엘지전자 주식회사 Intelligent map generation method and mobile robot therefor

Also Published As

Publication number Publication date
KR102070067B1 (en) 2020-01-28

Similar Documents

Publication Publication Date Title
EP3702111B1 (en) Artificial intelligence moving robot which learns obstacles, and control method therefor
US11846950B2 (en) Mobile robot and control method thereof
KR102070067B1 (en) Artificial intelligence Moving Robot and controlling method
EP3459688B1 (en) Mobile robot and control method therefor
US11226633B2 (en) Mobile robot and method of controlling the same
US10695906B2 (en) Moving robot and controlling method
KR102024092B1 (en) Moving Robot and controlling method
KR20190035377A (en) Moving Robot and controlling method
KR20180098891A (en) Moving Robot and controlling method
KR20180082264A (en) Moving Robot and controlling method
KR102330607B1 (en) Artificial intelligence Moving Robot and controlling method
US20230091839A1 (en) Moving robot and control method thereof
US20220257075A1 (en) Moving robot and method of controlling the same
KR20190103511A (en) Moving Robot and controlling method
KR20190119234A (en) Moving Robot and controlling method
KR102500529B1 (en) Moving Robot and controlling method
US20220280007A1 (en) Mobile robot and method of controlling the same
KR102152731B1 (en) Moving Robot and controlling method
KR102300790B1 (en) Moving Robot and controlling method

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant