KR20190119234A - Moving Robot and controlling method - Google Patents

Moving Robot and controlling method Download PDF

Info

Publication number
KR20190119234A
KR20190119234A KR1020180039728A KR20180039728A KR20190119234A KR 20190119234 A KR20190119234 A KR 20190119234A KR 1020180039728 A KR1020180039728 A KR 1020180039728A KR 20180039728 A KR20180039728 A KR 20180039728A KR 20190119234 A KR20190119234 A KR 20190119234A
Authority
KR
South Korea
Prior art keywords
area
map
driving
mobile robot
unsearched
Prior art date
Application number
KR1020180039728A
Other languages
Korean (ko)
Inventor
천선희
홍민우
조한민
김지웅
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020180039728A priority Critical patent/KR20190119234A/en
Publication of KR20190119234A publication Critical patent/KR20190119234A/en
Priority to KR1020200101049A priority patent/KR102500529B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The present invention relates to a moving robot and a control method for the same. According to the present invention, the control method includes: the moving robot generating a map about an area in correspondence with obstacle information sensed while driving in the area; and a terminal outputting the map received from the moving robot on a screen and transmitting a cleaning command on a selected area from the map to the moving robot. The moving robot renews the map stored in advance by generating the map about a non-search area by moving the non-search area when the non-search area is selected from the map by the terminal. So, the moving robot adds the map about a new area to an existing map and, therefore, can use the map renewed while maintaining cleaning data about each area and area division. Also, a driving pattern of the moving robot is set and the moving robot is controlled in the driving pattern corresponding to each area with different shapes.

Description

이동 로봇 및 그 제어방법{Moving Robot and controlling method}Mobile robot and controlling method

본 발명은 이동 로봇 및 그 제어방법에 관한 것으로, 청소영역을 주행하는 이동 로봇 및 그 제어방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile robot and a control method thereof, and to a mobile robot and a control method thereof for driving a cleaning area.

일반적으로 이동 로봇은 사용자의 조작 없이도 청소하고자 하는 구역 내를 스스로 주행하면서 바닥면으로부터 먼지 등의 이물질을 흡입하여 자동으로 청소하는 기기이다.In general, a mobile robot is a device for automatically cleaning by inhaling foreign substances such as dust from the floor surface while driving by itself in the area to be cleaned without the user's operation.

이동 로봇은 청소구역 내에 설치된 가구나 사무용품, 벽 등의 장애물까지의 거리를 감지하고, 장애물 회피 동작을 수행한다. 이동 로봇은, 장애물을 감지하기 위한 수단을 구비하여 소정 거리 내의 장애물을 감지하여 장애물을 회피할 수 있다. The mobile robot detects the distance to obstacles such as furniture, office supplies, and walls installed in the cleaning area, and performs an obstacle avoidance operation. The mobile robot may include means for detecting an obstacle to detect an obstacle within a predetermined distance and avoid the obstacle.

이동 로봇은 영역을 주행하면서 지도를 생성하고, 생성된 지도를 바탕으로 청소를 수행한다. 소정 영역을 청소하도록 지정되는 경우, 지도를 바탕으로 해당 영역으로 이동하여 청소를 수행할 수 있다. The mobile robot generates a map while driving the area and performs cleaning based on the generated map. When the predetermined area is designated to be cleaned, the cleaning may be performed by moving to the corresponding area based on the map.

이동 로봇은, 지도를 바탕으로 주행하되, 지도에 없는 영역에 도달하는 경우, 미탐색영역으로 판단하여 그에 대한 지도를 생성할 수 있다. When the mobile robot runs based on a map and reaches an area not included in the map, the mobile robot may determine that it is an unsearched area and generate a map thereof.

그러나 종래의 이동 로봇은, 미탐색영역에 대한 지도를 생성하는 경우, 기 저장된 지도를 삭제하고, 미탐색영역을 포함하여 새로운 지도를 생성하게 된다. 새로운 영역은 물론 기존의 영역을 포함한 전체 영역을 주행하면서 새로운 지도를 생성한다. However, when a conventional mobile robot generates a map for an unsearched area, the mobile robot deletes a previously stored map and generates a new map including the unsearched area. A new map is created by driving not only the new area but also the whole area including the existing area.

이와 같이 새로운 지도를 생성하는 경우, 기존의 영역을 불필요하여 다시 탐색하게 되고, 영역을 새롭게 구분해야하는 문제점이 있다. When creating a new map as described above, there is a problem in that the existing area is searched again unnecessarily and the area must be newly divided.

또한, 기존에 청소를 수행했던 영역에 대한 정보, 예를 들어 영역의 구분은 물론, 영역별 청소 횟수, 영역에 위치하는 장애물에 대한 정보가 삭제되거나, 더 이상 사용할 수 없게 된다. In addition, the information on the area in which the cleaning has been previously performed, for example, the classification of the areas, as well as the number of cleanings per area and information on the obstacles located in the areas, may be deleted or no longer used.

또한, 대한민국 공개특허 10-2009-0019459에는 개별 영역에서 각각 지도를 생성하고, 분할된 영역 간의 공통된 특징점을 추출하여 상호 매칭함으로써 개별 영역에 대한 지도를 결합하여 전체영역에 대한 지도를 생성하는 것을 설명하고 있다. 그러나 전체영역의 지도를 생성하기 위해 각각의 영역에 대한 지도를 생성하여 결합하는 방식을 취하는 것으로 생성된 지도를 활용하거나, 기 생성된 지도에 새로운 지도를 추가하는 것에 대해서는 고려하고 있지 않다.
In addition, the Republic of Korea Patent Publication No. 10-2009-0019459 describes the generation of a map for the entire area by combining the maps for the individual areas by generating a map in each area, and extracting and matching common feature points between the divided areas. Doing. However, we do not consider using the generated maps or adding new maps to the generated maps by taking the method of generating and combining the maps for each area to generate the maps of the whole area.

본 발명이 해결하고자 하는 과제는, 생성된 지도를, 이동 로봇의 주행환경에 따라 지도를 갱신하여 새로운 영역을 추가하고, 지도를 이용하여 청소를 지시하는 이동 로봇 및 그 제어방법을 제공하는 것이다.
The problem to be solved by the present invention is to provide a mobile robot and a control method thereof in which the generated map is updated according to the driving environment of the mobile robot to add a new area, and instructs cleaning using the map.

본 발명의 이동 로봇은, 영역을 주행하는 본체, 주행중 장애물을 감지하는 감지수단, 상기 본체의 주행을 제어하고, 상기 감지수단을 통해 감지되는 장애물정보에 대응하여 상기 영역에 대한 지도를 생성하고, 상기 지도 내의 각 영역을 주행하며 청소를 수행하도록 상기 주행부를 제어하는 제어부 및 상기 지도를 단말로 전송하는 통신부를 포함하고, 상기 제어부는, 사용자 입력에 대응하여 어느 하나의 영역이 선택되면, 상기 영역이 상기 지도의 탐색영역인 경우, 상기 영역에 설정된 주행패턴에 따라 상기 영역을 주행하며 지정된 동작을 수행하고, 상기 영역이 미탐색영역인 경우, 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하여 기 생성된 상기 지도에 추가하는 것을 특징으로 한다. The mobile robot of the present invention includes a main body driving an area, a sensing means for detecting an obstacle while driving, a driving of the main body, and generating a map of the area in response to the obstacle information detected by the sensing means, A control unit for controlling the driving unit to perform driving and cleaning each area in the map, and a communication unit for transmitting the map to a terminal, wherein the control unit, when any one area is selected in response to a user input, In the case of the search area of the map, driving the area according to the driving pattern set in the area and performing a designated operation; if the area is the unsearched area, driving the unsearched area and A map is generated and added to the previously generated map.

상기 제어부는 상기 미탐색영역 중 상기 사용자 입력에 대응하는 어느 한 지점을 목표로 상기 본체가 이동하여 상기 미탐색영역으로 진입하도록 상기 주행부를 제어하는 것을 특징으로 한다. The controller may control the driving unit to move the main body to enter the unsearched area by targeting a point corresponding to the user input among the unsearched areas.

상기 제어부는 상기 지도의 탐색영역 중 상기 미탐색영역에 인접한 어느 한 영역으로 이동한 후, 상기 미탐색영역으로 이동하도록 하는 것을 특징으로 한다. The control unit may move to any one of the search areas of the map adjacent to the unsearched area and then move to the unsearched area.

상기 제어부는 상기 사용자 입력에 의해 터치 후 드래그된 방향 대응하여, 상기 미탐색영역으로의 주행경로를 설정하여 상기 미탐색영역으로 이동하도록 상기 주행부를 제어하는 것을 특징으로 한다. The controller may control the driving unit to move to the non-search area by setting a driving path to the non-search area in response to the direction dragged after the touch by the user input.

상기 제어부는 상기 미탐색영역에 대한 지도가 추가된 갱신된 지도를 상기 통신부를 통해 단말로 전송하고, 상기 단말로부터 상기 사용자 입력을 수신하는 것을 특징으로 한다. The control unit may transmit the updated map to which the map for the non-search area is added to the terminal through the communication unit, and receive the user input from the terminal.

또한, 본 발명은, 영역을 주행하는 본체, 주행중 장애물을 감지하는 감지수단, 상기 본체의 주행을 제어하고, 상기 감지수단을 통해 감지되는 장애물정보에 대응하여 상기 영역에 대한 지도를 생성하는 제어부, 상기 지도를 단말로 전송하는 통신부를 포함하고, 상기 제어부는 상기 단말로부터 상기 지도에 포함되지 않는 미탐색영역에 대한 주행명령이 수신되면, 상기 미탐색영역으로 이동하여 상기 미탐색영역에 대한 지도를 생성하여 상기 지도에 추가하는 것을 특징으로 한다. In addition, the present invention, the main body traveling area, the sensing means for detecting an obstacle while driving, the control unit for controlling the running of the main body, and generates a map for the area in response to the obstacle information detected by the sensing means, And a communication unit for transmitting the map to a terminal, and the control unit moves to the unsearched area and receives a map for the unsearched area when the driving command for the unsearched area not included in the map is received from the terminal. Create and add to the map.

상기 단말은 사용자 입력에 대응하여 상기 이동 로봇에 대한 주행패턴을 설정하고, 상기 주행패턴이 적용된 청소명령을 상기 이동 로봇으로 전송하는 것을 특징으로 한다. The terminal sets a driving pattern for the mobile robot in response to a user input, and transmits a cleaning command to which the driving pattern is applied to the mobile robot.

본 발명의 이동 로봇의 제어방법은, 적어도 하나의 영역을 주행하며 지도를 생성하는 단계, 사용자 입력에 대응하여 어느 하나의 영역이 선택되는 단계, 상기 영역이 상기 지도의 탐색영역 중 하나인 경우, 상기 영역에 설정된 주행패턴에 따라 상기 영역을 주행하며 지정된 동작을 수행하는 단계, 상기 영역이 미탐색영역인 경우, 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하는 단계, 및 기 생성된 상기 지도에 상기 미탐색영역에 대한 지도를 추가하는 단계를 포함한다. In the control method of the mobile robot of the present invention, generating a map while driving at least one area, selecting one area in response to a user input, and when the area is one of the search areas of the map, Driving the area according to the driving pattern set in the area and performing a designated operation; if the area is the unsearched area, driving the unsearched area and generating a map for the unsearched area; and And adding a map for the unsearched area to the generated map.

본 발명의 이동 로봇의 제어방법은, 이동 로봇으로부터 수신된 지도가 단말에 표시되는 단계, 상기 지도 중 미탐색영역이 선택되는 단계, 상기 단말이, 상기 미탐색영역으로의 주행명령을 상기 이동 로봇으로 전송하는 단계, 상기 주행명령에 대응하여, 상기 이동 로봇이 상기 미탐색영역으로 이동하는 단계, 상기 지도의 영역을 이탈하여 상기 미탐색영역에 진입하면, 상기 미탐색영역에 대한 지도를 생성하는 단계, 및 상기 지도에 상기 미탐색영역에 대한 지도를 추가하여 상기 지도를 갱신하는 단계를 포함한다. In the control method of the mobile robot of the present invention, the step of displaying the map received from the mobile robot on the terminal, the step of selecting the unsearched area of the map, the terminal, the mobile robot commanding the driving command to the unsearched area Transmitting to the navigation command, moving the robot to the unsearched area in response to the driving command, generating a map for the unsearched area when leaving the area of the map and entering the unsearched area; And updating the map by adding a map for the unsearched area to the map.

상기 단말이, 사용자 입력에 대응하여 상기 이동 로봇에 대한 주행패턴을 설정하는 단계 및 상기 주행패턴을 포함하여 상기 청소명령을 전송하는 것을 특징으로 한다. The terminal may include setting a driving pattern for the mobile robot in response to a user input, and transmitting the cleaning command including the driving pattern.

본 발명은, 영역을 주행하며 감지되는 장애물 정보에 대응하여 상기 영역에 대한 지도를 생성하는 이동 로봇 및 상기 이동 로봇으로부터 수신된 상기 지도를 화면에 출력하고, 상기 지도로부터 선택된 영역에 대한 청소명령을 상기 이동 로봇으로 전송하는 단말을 포함하고, 상기 이동 로봇은 상기 단말에 의해 상기 지도 중 미탐색영역이 선택되면, 상기 미탐색영역으로 이동하여 상기 미탐색영역에 대한 지도를 생성하여 기 저장된 상기 지도를 갱신하는 것을 특징으로 한다. According to the present invention, the mobile robot generates a map of the area in response to the detected obstacle information while driving the area, and outputs the map received from the mobile robot on a screen, and provides a cleaning command for the area selected from the map. And a terminal for transmitting to the mobile robot, wherein the mobile robot moves to the unsearched area by generating a map for the unsearched area when the unsearched area of the map is selected by the terminal. It characterized in that to update.

상기 이동 로봇은, 주행 중, 새로운 영역에 진입하는 경우 새로운 영역으로 인식하여 새로운 영역에 대한 지도를 생성하는 것을 특징으로 한다. When the mobile robot enters a new area while driving, the mobile robot generates a map of the new area by recognizing it as a new area.

상기 이동 로봇은 단말로부터 미탐색영역으로의 주행에 대한 제어명령이 수신되면, 미탐색영역으로 이동하여 미탐색영역에 대한 지도를 생성하는 것을 특징으로 한다. When the mobile robot receives a control command for driving to the unsearched area from the terminal, the mobile robot moves to the unsearched area and generates a map for the unsearched area.

상기 이동 로봇은 기 저장된 지도의 영역을 이탈하여 미탐색영역에 진입하는 시점을 기준으로 미탐색영역에 대한 지도를 점진적으로 추가하여 기 저장된 지도를 갱신하는 것을 특징으로 한다. The mobile robot updates the previously stored map by gradually adding a map for the unsearched area on the basis of the time when the mobile robot leaves the previously stored map area and enters the unsearched area.

상기 이동 로봇은, 미탐색영역으로의 주행에 대한 제어명령이 수신되면, 미탐색영역에 인접한 영역으로 이동한 후, 감지되는 장애물 정보를 바탕으로 미탐색영역으로의 이동경로를 설정하는 것을 특징으로 한다. The mobile robot, when a control command for driving to the unsearched area is received, moves to an area adjacent to the unsearched area, and sets a movement path to the unsearched area based on the detected obstacle information. do.

상기 단말은 사용자입력에 대응하여, 지도에 지정되지 않은 미탐색영역이 선택되는 경우 선택된 지점으로 이동하여 미탐색영역을 탐색하도록 이동 로봇으로 제어명령을 전송하고, 기 저장된 지도를 바탕으로 선택된 지점의 상대적 위치를 산출하여 이동 로봇으로 전송하는 것을 특징으로 한다. The terminal transmits a control command to the mobile robot to move to the selected point to search for the unsearched area when the unsearched area not designated in the map is selected in response to a user input, and transmits a control command to the selected point based on the previously stored map. The relative position is calculated and transmitted to the mobile robot.

상기 단말은, 복수의 영역 중 선택된 영역을 화면에 표시하고, 상기 단말은, 패턴설정화면을 표시하고, 사용자 입력에 대응하여 입력패턴을 분석하여 이동 로봇에 대한 주행패턴을 설정하는 것을 특징으로 한다.
The terminal displays a selected area among a plurality of areas on a screen, and the terminal displays a pattern setting screen and analyzes an input pattern in response to a user input to set a driving pattern for a mobile robot. .

본 발명의 이동 로봇 및 그 제어방법은 영역을 주행하면서 생성된 지도를 바탕으로 영역을 구분하여 청소를 수행하고, 생성된 지도를 단말로 전송함으로써, 지도를 바탕으로 이동 로봇의 동작을 제어할 수 있다. The mobile robot and its control method according to the present invention can perform the cleaning by dividing the area based on the generated map while driving the area, and transmit the generated map to the terminal, thereby controlling the operation of the mobile robot based on the map. have.

본 발명은 이동 로봇이 새로운 영역에 도달하면, 새로운 영역을 탐색하여 지도를 생성하고, 기존의 지도에 새로운 영역에 대한 지도를 추가함으로써, 영역 구분 및 각 영역에 대한 청소데이터를 유지하면서 갱신된 지도를 사용할 수 있다. According to the present invention, when a mobile robot reaches a new area, a new area is searched to create a map, and a map for a new area is added to an existing map, thereby updating the map while maintaining area classification and cleaning data for each area. Can be used.

본 발명은 이동 로봇의 주행 패턴을 새로이 등록할 수 있고, 그에 따라 형태가 상이한 각 영역에 대응하는 주행 패턴으로 이동 로봇이 주행할 수 있다.  According to the present invention, a travel pattern of a mobile robot can be newly registered, and thus the mobile robot can travel in a travel pattern corresponding to each region having a different shape.

본 발명은 단말을 통해 이동 로봇의 청소 및 주행 상황을 모니터링 할 수 있고, 사용자의 입력에 따라 이동 로봇에 대한 설정을 변경할 수 있다.
The present invention can monitor the cleaning and driving situation of the mobile robot through the terminal, it is possible to change the settings for the mobile robot according to the user input.

도 1 은 본 발명의 일 실시예에 따른 이동 로봇의 사시도이다.
도 2 는 도 1의 이동 로봇과 통신하는 단말이 도시된 도이다.
도 3 은 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.
도 4 는 본 발명의 일 실시예에 따른 이동 로봇의 지도를 설명하는데 참조되는 도이다.
도 5 는 본 발명의 일 실시예에 따른 이동 로봇의 미탐색영역에 대한 탐색 동작을 설명하는데 참조되는 도이다.
도 6 은 도 5 의 이동 로봇의 미탐색영역에 대한 지도생성을 설명하는데 참조되는 도이다.
도 7 은 본 발명의 일 실시예에 따른 이동 로봇의 단말을 이용한 청소명령 설정을 설명하는데 참조되는 예시도이다.
도 8 은 본 발명의 일실시예에 따른 이동 로봇의 주행 패턴을 설명하는데 탐조되는 도이다.
도 9 는 본 발명의 일실시예에 따른 이동 로봇의 새로운 영역에 대한 지도생성방법을 설명하는데 참조되는 도이다.
도 10 은 본 발명의 일실시예에 따른 이동 로봇의 주행 패턴에 따른 제어방법이 도시된 순서도이다.
1 is a perspective view of a mobile robot according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a terminal communicating with the mobile robot of FIG. 1.
3 is a block diagram illustrating main parts of a mobile robot according to an exemplary embodiment of the present invention.
4 is a view referred to for explaining a map of a mobile robot according to an embodiment of the present invention.
5 is a view referred to for explaining a search operation for the undetected area of the mobile robot according to an embodiment of the present invention.
FIG. 6 is a diagram referred to for describing map generation of an unsearched area of the mobile robot of FIG. 5.
7 is an exemplary diagram referred to for explaining setting of a cleaning command using a terminal of a mobile robot according to an embodiment of the present invention.
8 is a view for exploring the driving pattern of the mobile robot according to an embodiment of the present invention.
9 is a diagram referred to explain a method for generating a map for a new area of a mobile robot according to an embodiment of the present invention.
10 is a flowchart illustrating a control method according to a traveling pattern of a mobile robot according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 본 발명의 제어구성은 적어도 하나의 프로세서로 구성될 수 있도록 하드웨어로 구성될 수 있다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various different forms, and only the embodiments make the disclosure of the present invention complete, and the general knowledge in the art to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims. Like reference numerals refer to like elements throughout. The control configuration of the present invention can be configured in hardware so that it can be configured with at least one processor.

도 1 은 본 발명의 일 실시예에 따른 이동 로봇의 사시도이다. 1 is a perspective view of a mobile robot according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(1)은 영역의 바닥을 따라 이동하며, 바닥 상의 먼지 등의 이물질을 흡입하는 본체(10)와, 본체(10)의 전면에 배치되어 장애물을 감지하는 감지수단을 포함한다. Referring to FIG. 1, the mobile robot 1 according to an embodiment of the present invention moves along a bottom of an area, and includes a main body 10 that sucks foreign substances such as dust on the floor, and a front surface of the main body 10. It is disposed includes a sensing means for detecting the obstacle.

본체(10)는 외관을 형성하며 내측으로 본체(10)를 구성하는 부품들이 수납되는 공간을 형성하는 케이싱(11)과, 케이싱(11)에 배치되어 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(미도시)과, 케이싱(11)에 회전 가능하게 구비되는 좌륜(미도시)과 우륜(미도시)을 포함할 수 있다. 좌륜과 우륜이 회전함에 따라 본체(10)가 청소구역의 바닥을 따라 이동되며, 이 과정에서 흡입유닛을 통해 이물질이 흡입된다. The main body 10 has a casing 11 that forms an exterior and forms a space in which the components constituting the main body 10 are housed, and a suction unit disposed in the casing 11 to suck foreign matter such as dust or garbage. (Not shown) and a left wheel (not shown) and a right wheel (not shown) which are rotatably provided in the casing 11. As the left wheel and the right wheel rotate, the main body 10 moves along the bottom of the cleaning area, and foreign matter is sucked through the suction unit in the process.

흡입유닛은 흡입력을 발생시키는 흡입 팬(미도시)과, 흡입 팬의 회전에 의해 생성된 기류가 흡입되는 흡입구(미도시)를 포함할 수 있다. 흡입유닛은 흡입구를 통해 흡입된 기류 중에서 이물질을 채집하는 필터(미도시)와, 필터에 의해 채집된 이물질들이 축적되는 이물질 채집통(미도시)을 포함할 수 있다. 흡입유닛은 본체(10)의 배면에 배치된다. 경우에 따라 흡입노즐이 본체의 전면에, 배면을 향해 설치될 수 있다. The suction unit may include a suction fan (not shown) for generating a suction force and a suction port (not shown) through which air flow generated by the rotation of the suction fan is sucked. The suction unit may include a filter (not shown) that collects foreign matters from the air flow sucked through the suction port, and a foreign matter collecting container (not shown) in which foreign matters collected by the filter are accumulated. The suction unit is disposed on the rear surface of the main body 10. In some cases, the suction nozzle may be installed at the front side of the main body and toward the rear side.

또한, 본체(10)는 좌륜과 우륜을 구동시키는 주행부를 포함할 수 있다. 주행부는 적어도 하나의 구동모터를 포함할 수 있다. 적어도 하나의 구동모터는 좌륜을 회전시키는 좌륜 구동모터와 우륜을 회전시키는 우륜 구동모터를 포함할 수 있다. In addition, the main body 10 may include a driving unit for driving the left wheel and the right wheel. The driving unit may include at least one driving motor. The at least one drive motor may include a left wheel drive motor for rotating the left wheel and a right wheel drive motor for rotating the right wheel.

좌륜 구동모터와 우륜 구동모터는 제어부의 주행제어부에 의해 작동이 독립적으로 제어됨으로써 본체(10)의 직진, 후진 또는 선회가 이루어질 수 있다. 예를들어, 본체(10)가 직진 주행하는 경우에는 좌륜 구동모터와 우륜 구동모터가 같은 방향으로 회전되나, 좌륜 구동모터와 우륜 구동모터가 다른 속도로 회전되거나, 서로 반대 방향으로 회전되는 경우에는 본체(10)의 주행 방향이 전환될 수 있다. 본체(10)의 안정적인 지지를 위한 적어도 하나의 보조륜이 더 구비될 수 있다.The left wheel drive motor and the right wheel drive motor may be driven straight, backward or swiveled by the operation of the control unit of the control unit independently controlled. For example, when the main body 10 travels straight, when the left wheel drive motor and the right wheel drive motor rotate in the same direction, but the left wheel drive motor and the right wheel drive motor rotate at different speeds or rotate in opposite directions. The running direction of the main body 10 may be switched. At least one auxiliary wheel for stable support of the main body 10 may be further provided.

케이싱(11)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 복수의 브러시(35)가 더 구비될 수 있다. 복수의 브러시(35)의 회전에 의해 청소구역의 바닥으로부터 먼지들이 제거되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구를 통해 흡입되어 채집통에 모인다.A plurality of brushes 35 positioned at the front side of the bottom of the casing 11 and having a brush composed of a plurality of radially extending wings may be further provided. The dust is removed from the bottom of the cleaning area by the rotation of the plurality of brushes 35, and the dust separated from the bottom is sucked through the suction port and collected in the collecting container.

케이싱(11)의 상면에는 사용자로부터 이동 로봇(1)의 제어를 위한 각종 명령을 입력받는 조작부(160)를 포함하는 컨트롤 패널이 구비될 수 있다.The upper surface of the casing 11 may be provided with a control panel including an operation unit 160 for receiving various commands for controlling the mobile robot 1 from the user.

감지수단은, 도 1의 (a)와 같이 복수의 센서를 이용하여 장애물을 감지하는 센서부(150), 영상을 촬영하는 영상획득부(170)를 포함한다. The sensing means includes a sensor unit 150 for detecting an obstacle using a plurality of sensors as shown in FIG. 1A, and an image acquisition unit 170 for capturing an image.

또한, 감지수단은, 도 1의 (b)와 같이, 본체(10)의 전면에 배치되어, 장애물을 감지하는 장애물 감지유닛(100), 영상을 촬영하는 영상획득부(170)를 포함할 수 있다. 장애물 감지유닛(100)은 광패턴(PT1, PT2)을 조사하고 촬영되는 영상을 통해 장애물을 감지한다. 장애물 감지유닛(100)은 패턴획득부(140)를 포함하고, 또한, 센서부(150)를 포함할 수 있다. In addition, the sensing means, as shown in Figure 1 (b), may be disposed on the front of the main body 10, the obstacle detecting unit 100 for detecting an obstacle, and may include an image acquisition unit 170 for taking an image. have. The obstacle detecting unit 100 irradiates the light patterns PT1 and PT2 and detects the obstacle through the captured image. The obstacle detecting unit 100 may include a pattern acquisition unit 140 and may further include a sensor unit 150.

영상획득부(170)는 각각 전방을 향하도록 구비되어 주행방향을 촬영하고, 또한, 천장을 향하도록 구비될 수 있다. 경우에 따라 전방과 천장을 향하는 두개의 영상획득부(170)가 구비될 수도 있다. 두개의 영상획득부가 구비되는 경우, 본체의 전면과 상단부에 각각 설치되어 전방과 천장의 영상을 각각 촬영할 수 있으며, 케이싱의 형태 또는 영상획득부의 배치 위치에 따라 전면과 전면의 천장의 일부를 촬영할 수 있다. The image acquisition unit 170 may be provided to face the front, respectively, to photograph the driving direction, and may be provided to face the ceiling. In some cases, two image acquisition units 170 facing the front and the ceiling may be provided. When two image capturing units are provided, the front and top portions of the main body may be respectively photographed to capture front and ceiling images, and the front and front ceilings may be photographed according to the shape of the casing or the position of the image capturing unit. have.

장애물 감지유닛(100)은 본체(10)의 전면에 배치될 수 있다. The obstacle detecting unit 100 may be disposed in front of the main body 10.

장애물 감지유닛(100)은 케이싱(11)의 전면에 고정되고, 제 1 패턴조사부(120), 제 2 패턴조사부(130) 및 패턴획득부(140)를 포함한다. 이때 패턴획득부(140)는 도시된 바와 같이 패턴조사부의 하부에 설치되거나 또는 제 1 및 제 2 패턴조사부 사이에 배치될 수 있다. The obstacle detecting unit 100 is fixed to the front surface of the casing 11 and includes a first pattern irradiator 120, a second pattern irradiator 130, and a pattern acquisition unit 140. In this case, the pattern acquisition unit 140 may be disposed below the pattern irradiation unit as shown, or disposed between the first and second pattern irradiation units.

패턴조사부(120)(130)는 소정의 수평조사각을 갖는다. 수평조사각은 수평선의 양단이 패턴조사부(120)(130)와 이루는 각도를 나타내며, 130˚ 내지 140˚ 범위에서 정해지는 것이 바람직하나, 반드시 이에 한정되어야 하는 것은 아니다. The pattern irradiation units 120 and 130 have a predetermined horizontal irradiation angle. The horizontal irradiation angle represents an angle formed at both ends of the horizontal line with the pattern irradiation units 120 and 130, but is preferably determined in a range of 130 ° to 140 °, but is not necessarily limited thereto.

본체(10)에는 재충전이 가능한 배터리(미도시)가 구비되며, 배터리의 충전 단자가 상용 전원(예를 들어, 가정 내의 전원 콘센트)과 연결되거나, 상용 전원과 연결된 별도의 충전대(40)에 본체(10)가 도킹되어, 충전 단자가 충전대의 단자(410)와의 접촉을 통해 상용 전원과 전기적으로 연결되고, 배터리의 충전이 이루어질 수 있다. 이동 로봇(1)을 구성하는 전장 부품들은 배터리로부터 전원을 공급받을 수 있으며, 따라서, 배터리가 충전된 상태에서 이동 로봇(1)은 상용 전원과 전기적으로 분리된 상태에서 자력 주행이 가능하다.The main body 10 includes a rechargeable battery (not shown), and the charging terminal of the battery is connected to a commercial power source (for example, a power outlet in a home) or a separate charging unit 40 connected to the commercial power source. 10 is docked so that the charging terminal is electrically connected to the commercial power source through contact with the terminal 410 of the charging stand, and the battery can be charged. The electrical components constituting the mobile robot 1 may be supplied with power from a battery, and thus, the mobile robot 1 may be driven magnetically in a state in which the mobile robot 1 is electrically separated from commercial power.

도 2 는 도 1의 이동 로봇과 통신하는 단말이 도시된 도이다. FIG. 2 is a diagram illustrating a terminal communicating with the mobile robot of FIG. 1.

도 2에 도시된 바와 같이, 이동 로봇(1)은 단말(200)과 통신한다. As shown in FIG. 2, the mobile robot 1 communicates with the terminal 200.

이동 로봇(1)은 영역을 주행하며 지도를 생성하고, 생성된 지도를 단말(200)로 전송한다. 단말(200)은 수신되는 지도를 저장하고, 화면에 표시한다. The mobile robot 1 travels an area, generates a map, and transmits the generated map to the terminal 200. The terminal 200 stores the received map and displays it on the screen.

단말(200)은 사용자의 입력에 대응하는 청소명령을 이동 로봇(1)으로 전송한다. 그에 따라 이동 로봇은 수신되는 청소명령을 바탕으로 소정 영역을 주행하면서 청소를 수행할 수 있다. The terminal 200 transmits a cleaning command corresponding to the user's input to the mobile robot 1. Accordingly, the mobile robot may perform cleaning while driving a predetermined area based on the received cleaning command.

또한, 이동 로봇은, 방범모드 등의 설정을 통해, 지정된 영역을 주행하며 영상을 촬영하여 단말로 전송할 수 있다. 이동 로봇(1)은 주행중 영상을 촬영하여 단말로 전송할 수 있다. In addition, the mobile robot may travel through a designated area while capturing an image and transmit the same to a terminal through a setting such as a security mode. The mobile robot 1 may photograph an image while driving and transmit the image to the terminal.

단말(200)은 이동 로봇의 현재위치를 화면에 표시하고 이동 로봇(1)으로부터 수신되는 데이터를 화면에 표시할 수 있다. The terminal 200 may display the current position of the mobile robot on the screen and display data received from the mobile robot 1 on the screen.

이동 로봇(1)은 주행 중 촬영되는 영상을 분석하여 장애물의 종류를 판단한다. 이동 로봇(1)은 주행중, 주행방향에 위치하는 적어도 하나의 장애물을 감지하고, 장애물을 인식할 수 있다. The mobile robot 1 determines the type of obstacle by analyzing an image photographed while driving. The mobile robot 1 may detect at least one obstacle located in the driving direction and recognize the obstacle while driving.

패턴조사부(120)(130)는 전방을 향해 패턴을 조사하고, 패턴획득부(140)는 패턴을 촬영한다. 이동 로봇(1)은 패턴의 형태 변화를 바탕으로 장애물을 감지한다. The pattern irradiation unit 120 and 130 irradiates the pattern toward the front, and the pattern acquisition unit 140 photographs the pattern. The mobile robot 1 detects an obstacle based on a change in the shape of the pattern.

또한, 영상획득부(170)는 주행방향에 대한 영상을 촬영하고, 이동 로봇(1)은 영상을 분석하여 장애물의 특징을 추출하여 장애물의 종류를 인식할 수 있다. In addition, the image acquisition unit 170 may take an image of the driving direction, the mobile robot 1 may analyze the image to extract the features of the obstacle to recognize the type of obstacle.

또한, 센서부(150)는 초음파, 레이저, 적외선 등의 신호를 바탕으로 일정거리 내에 위치하는 장애물을 감지할 수 있다. In addition, the sensor unit 150 may detect an obstacle located within a predetermined distance based on signals such as ultrasonic waves, lasers, and infrared rays.

이동 로봇(1)은 이러한 감지수단을 통해 감지되는 장애물을 바탕으로, 영역에 대한 지도(맵, map)를 생성하고, 지도를 바탕으로 주행하면서 감지수단을 통해 감지되는 장애물을 회피한다. The mobile robot 1 generates a map (map) for an area based on the obstacle detected by the sensing means, and avoids the obstacle detected by the sensing means while driving based on the map.

단말(200)은 이동 로봇(1)을 제어하기 위한 어플리케이션을 구비하고, 어플리케이션의 실행을 통해 이동 로봇(1)이 청소할 주행구역에 대한 맵을 표시하고, 맵 상에 특정 영역을 청소하도록 영역을 지정할 수 있다. 또한, 단말(200)은 이동 로봇으로부터 수신되는 데이터를 바탕으로 이동 로봇의 위치를 표시하고, 청소상태에 대한 정보를 표시한다. The terminal 200 includes an application for controlling the mobile robot 1, displays a map of a driving area to be cleaned by the mobile robot 1 through execution of the application, and sets an area to clean a specific area on the map. Can be specified. In addition, the terminal 200 displays the position of the mobile robot based on the data received from the mobile robot, and displays information on the cleaning state.

단말(200)은 통신모듈이 탑재되어 네트워크 접속이 가능하고 이동 로봇을 제어하기 위한 프로그램, 또는 이동 로봇 제어용 어플리케이션이 설치된 기기로, 컴퓨터, 랩탑, 스마트폰, PDA, 태블릿PC 등의 기기가 사용될 수 있다. 또한, 단말은, 스마트 워치 등의 웨어러블(wearable) 장치 또한 사용될 수 있다. The terminal 200 is a device equipped with a communication module that can be connected to a network and has a program for controlling a mobile robot or an application for controlling a mobile robot, and a device such as a computer, a laptop, a smartphone, a PDA, a tablet PC, and the like can be used. have. In addition, the wearable device such as a smart watch may also be used.

단말(200)은 이동 로봇과, 가정 내 구축되는 네트워크를 통해 상호 연결될 수 있다. 단말과 이동 로봇은 WIFI로 연결됨은 물론, 블루투스, 적외선통신, 지그비 등의 근거리 무선통신방식을 이용하여 상호 통신할 수 있다. 단말과 이동 로봇의 통신 방식은, 이에 한정되지 않음을 명시한다. The terminal 200 may be connected to the mobile robot through a network built in the home. The terminal and the mobile robot may be connected to each other using a short range wireless communication method such as Bluetooth, infrared communication, Zigbee, as well as WIFI. The communication method between the terminal and the mobile robot is not limited thereto.

필요에 따라 이동 로봇(1)은 서버(90)와 통신할 수 있다. If necessary, the mobile robot 1 may communicate with the server 90.

서버(미도시)는 소정 네트워크(N)를 통해 접속되는, 이동 로봇(1)으로부터 수신되는 영상데이터를 분석하여 장애물의 종류를 판단하고, 그에 대한 응답을 이동 로봇(1)으로 전송한다. 서버는 단말로부터 요청이 있는 경우 장애물의 종류를 판단하여 응답할 수 있다. The server (not shown) analyzes the image data received from the mobile robot 1, which is connected through a predetermined network N, determines the type of obstacle, and transmits a response to the mobile robot 1. The server may respond by determining the type of obstacle when a request is made from the terminal.

서버는 복수의 이동 로봇(1)으로부터 수신되는 영상데이터를 누적하고 복수의 영상데이터를 분석하여 장애물에 대하여 학습한다. 서버(90)는 복수의 영상데이터를 바탕으로 하는 장애물 인식을 위한 데이터베이스(미도시)를 구비하여, 영상데이터로부터 추출되는 장애물에 대한 특징을 인식하여 장애물의 종류를 판단한다. The server accumulates image data received from the plurality of mobile robots 1 and analyzes the plurality of image data to learn about obstacles. The server 90 includes a database (not shown) for obstacle recognition based on the plurality of image data, and determines the type of the obstacle by recognizing the characteristic of the obstacle extracted from the image data.

서버는 새로운 장애물 정보를 분석하여, 기 저장된 장애물 정보를 갱신한다. 또한, 서버는 단말(200)에 의해 설정되거나 또는 변경되는 장애물에 대한 이동 로봇의 동작정보를 수신하여 저장하고, 기 저장된 장애물 정보에 매칭하여 장애물에 대한 이동 로봇의 동작에 대한 설정을 갱신한다. The server analyzes the new obstacle information and updates the previously stored obstacle information. In addition, the server receives and stores the operation information of the mobile robot for the obstacle set or changed by the terminal 200, and updates the setting for the operation of the mobile robot for the obstacle by matching the stored obstacle information.

도 3 은 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다. 3 is a block diagram illustrating main parts of a mobile robot according to an exemplary embodiment of the present invention.

도 3에 도시된 바와 같이, 이동 로봇(1)은 장애물 감지유닛(100), 영상획득부(170), 청소부(260), 주행부(250), 데이터부(180), 출력부(190), 조작부(160), 통신부(290) 그리고 동작 전반을 제어하는 제어부(110)를 포함한다. As shown in FIG. 3, the mobile robot 1 includes an obstacle detecting unit 100, an image acquisition unit 170, a cleaning unit 260, a traveling unit 250, a data unit 180, and an output unit 190. , An operation unit 160, a communication unit 290, and a control unit 110 for controlling the overall operation.

조작부(160)는 적어도 하나의 버튼, 스위치, 터치입력수단을 포함하여, 이동 로봇(1)의 작동 전반에 필요한, 온/오프 또는 각종 명령을 입력받아 제어부(110)로 입력한다. The manipulation unit 160 includes at least one button, a switch, and a touch input means, and receives an on / off or various commands necessary for the overall operation of the mobile robot 1 and inputs the same to the controller 110.

출력부(190)는 LED, LCD와 같은 디스플레이를 구비하고, 이동 로봇(1)의 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태 등을 표시한다. 또한, 출력부(190)는 스피커 또는 버저를 구비하여, 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태에 대응하는 소정의 효과음, 경고음 또는 음성안내를 출력한다. The output unit 190 includes a display such as an LED and an LCD, and displays an operation mode, reservation information, a battery state, an operation state, an error state, and the like of the mobile robot 1. In addition, the output unit 190 includes a speaker or a buzzer and outputs a predetermined sound effect, a warning sound or a voice guidance corresponding to the operation mode, reservation information, battery state, operation state, and error state.

통신부(290)는 지그비, 블루투스 등의 근거리 무선통신뿐 아니라, 와이파이, 와이브로 등의 통신모듈을 포함하여 데이터를 송수신한다.  The communication unit 290 transmits and receives data including communication modules such as Wi-Fi and WiBro, as well as short-range wireless communication such as Zigbee and Bluetooth.

통신부(290)는, 무선통신 방식으로 단말(200)과 통신한다. The communication unit 290 communicates with the terminal 200 in a wireless communication method.

통신부(290)는 생성되는 지도를 단말(200)로 전송하고, 단말로부터 청소명령을 수신하며, 이동 로봇의 동작상태, 청소상태에 대한 데이터를 단말로 전송한다. 또한, 통신부(290)는 단말(200)로부터 주행구역 내에 존재하는 장애물에 대한 정보 및 그에 따른 동작정보를 수신하고, 이동 로봇의 동작데이터를 단말(200)로 전송한다. The communication unit 290 transmits the generated map to the terminal 200, receives a cleaning command from the terminal, and transmits data on an operation state and a cleaning state of the mobile robot to the terminal. In addition, the communication unit 290 receives information on the obstacle and the operation information according to the obstacle existing in the driving zone from the terminal 200, and transmits the operation data of the mobile robot to the terminal 200.

통신부(290)는 가정 내 네트워크를 통해, 인터넷망에 연결되어, 외부의 서버(90)와 통신할 수 있다. 통신부(290)는 장애물 감지유닛(100)로부터 감지되는 장애물에 대한 정보를 통신부(290)를 통해 서버(90)로 전송하고, 서버로부터 장애물에 대한 데이터를 수신한다. The communication unit 290 may be connected to the Internet network through a home network to communicate with an external server 90. The communication unit 290 transmits information on the obstacle detected by the obstacle detecting unit 100 to the server 90 through the communication unit 290, and receives data on the obstacle from the server.

통신부(290)는 충전대(40)와 통신하며 충전대 복귀신호를 수신하고 또한 툴분리신호를 수신할 수 있다. 또한, 통신부(290)는, 툴로부터 송신되는 툴 위치신호를 수신할 수 있다. The communication unit 290 may communicate with the charging station 40 and receive the charging station return signal, and may also receive the tool separation signal. In addition, the communication unit 290 may receive a tool position signal transmitted from the tool.

주행부(250)는 적어도 하나의 구동모터를 포함하여 주행제어부(113)의 제어명령에 따라 이동 로봇이 주행하도록 한다. 주행부(250)는 앞서 설명한 바와 같이, 좌륜을 회전시키는 좌륜 구동모터와 우륜을 회전시키는 우륜 구동모터를 포함할 수 있다.The driving unit 250 includes at least one driving motor to allow the mobile robot to travel according to a control command of the driving control unit 113. The driving unit 250 may include a left wheel driving motor for rotating the left wheel and a right wheel driving motor for rotating the right wheel, as described above.

청소부(260)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입유닛을 동작시켜 먼지 또는 이물질을 흡입한다. 청소부(260)는 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(261)에 구비되는 흡입 팬의 동작을 제어하여 먼지가 흡입구를 통해 이물질 채집통(먼지통)에 투입되도록 한다. The cleaning unit 260 operates a brush to easily inhale dust or foreign matter around the mobile robot, and operates the suction unit to suck in dust or foreign matter. The cleaning unit 260 controls the operation of the suction fan provided in the suction unit 261 that sucks the foreign matter such as dust or garbage so that the dust is introduced into the foreign matter collecting bin (dust bin) through the suction port.

또한, 청소부(260)는 본체의 저면부 후방에 설치되어 바닥면과 접하여 바닥면을 물걸레질하는 물걸레청소부(미도시), 물걸레청소부로 물을 공급하는 물통(미도시)을 더 포함할 수 있다. In addition, the cleaning unit 260 may further include a mop cleaning unit (not shown) installed at the rear of the bottom portion of the main body to mop the bottom surface in contact with the bottom surface, and a bucket (not shown) for supplying water to the mop cleaning unit. .

배터리(미도시)는 구동 모터뿐만 아니라, 이동 로봇(1)의 작동 전반에 필요한 전원을 공급한다. 배터리가 방전될 시, 이동 로봇(1)은 충전을 위해 충전대(40)로 복귀하는 주행을 할 수 있으며, 이러한 복귀 주행 중, 이동 로봇(1)은 스스로 충전대의 위치를 탐지할 수 있다. 충전대(40)는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되어야하는 것은 아니다.The battery (not shown) supplies not only a driving motor but also power required for the overall operation of the mobile robot 1. When the battery is discharged, the mobile robot 1 may travel to return to the charging table 40 for charging, and during this return driving, the mobile robot 1 may detect the location of the charging stand by itself. Charging station 40 may include a signal transmitter (not shown) for transmitting a predetermined return signal. The return signal may be an ultrasonic signal or an infrared signal, but is not necessarily limited thereto.

데이터부(180)에는 장애물 감지유닛(100), 또는 센서부(150)로부터 입력되는 감지신호가 저장되고, 장애물을 판단하기 위한 기준데이터가 저장되며, 감지된 장애물에 대한 장애물정보가 저장된다. In the data unit 180, a sensing signal input from the obstacle detecting unit 100 or the sensor unit 150 is stored, reference data for determining an obstacle is stored, and obstacle information on the detected obstacle is stored.

데이터부(180)는 장애물의 종류를 판단하기 위한 장애물데이터(181), 촬영되는 영상이 저장되는 영상데이터(182), 영역에 대한 지도데이터(183)가 저장된다. 지도데이터(183)에는 장애물정보가 포함되며, 이동 로봇에 의해 탐색되는 주행가능한 영역에 대한 다양한 형태의 지도(맵)가 저장된다. 예를 들어, 이동 로봇에 의해 탐색된 주행가능한 영역에 대한 정보가 포함된 기초맵, 기초맵으로부터 영역이 구분된 청소맵, 청소맵의 영역의 형상을 정리하여 사용자가 확인할 수 있도록 생성된 사용자맵, 그리고 청소맵과 사용자맵이 중첩되어 표시되는 가이드맵이 저장될 수 있다. The data unit 180 stores obstacle data 181 for determining the type of obstacle, image data 182 for storing a captured image, and map data 183 for a region. The map data 183 includes obstacle information and stores various types of maps (maps) for driving areas searched by the mobile robot. For example, a user map generated by a mobile robot to display the base map including information on the movable area searched by the mobile robot, a cleaning map in which areas are separated from the base map, and a shape of the cleaning map area for the user to check. In addition, the guide map in which the cleaning map and the user map are overlapped may be stored.

장애물데이터(181)는 장애물 인식 및 장애물의 종류를 판단하기 위한 데이터이고, 인식된 장애물에 대한 이동 로봇의 동작, 예를 들어 주행속도, 주행방향, 회피 여부, 정지 여부 등에 대한 모션정보와, 스피커(173)를 통해 출력되는 효과음, 경고음, 음성안내에 대한 데이터가 포함된다. 영상데이터(182)는 촬영된 영상, 서버로부터 수신된 장애물 인식을 위한 인식정보가 포함된다. The obstacle data 181 is data for obstacle recognition and determination of the type of obstacle. The obstacle data 181 includes motion information about the movement of the mobile robot with respect to the recognized obstacle, for example, driving speed, driving direction, avoidance, stop, and the like. Data about the effect sound, warning sound, and voice guidance output through 173 are included. The image data 182 includes captured images and recognition information for recognizing obstacles received from a server.

또한, 데이터부(180)에는 이동 로봇의 동작을 제어하기 위한 제어데이터 및 이동 로봇의 청소모드에 따른 데이터, 센서부(150)에 의한 초음파/레이저 등의 감지신호가 저장된다. In addition, the data unit 180 stores control data for controlling the operation of the mobile robot, data according to a cleaning mode of the mobile robot, and a detection signal such as an ultrasound / laser by the sensor unit 150.

데이터부(180)는, 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장하는 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치를 포함할 수 있다. The data unit 180 stores data that can be read by a microprocessor, and includes a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD. -ROM, magnetic tape, floppy disk, optical data storage device.

장애물 감지유닛(100)은 제 1 패턴조사부(120), 제 2 패턴조사부(130), 그리고 패턴획득부(140)를 포함한다. The obstacle detecting unit 100 includes a first pattern irradiator 120, a second pattern irradiator 130, and a pattern acquisition unit 140.

영상획득부(170)는 적어도 하나 구비된다. At least one image acquisition unit 170 is provided.

영상획득부(170)는 전방을 향해 설치되어 주행방향의 영상을 촬영하고, 또한, 전방의 천장을 촬영할 수 있다. 경우에 따라 전방을 촬영하는 영상획득부와 천장을 촬영하는 영상획득부가 각각 구비될 수도 있다. The image acquisition unit 170 is installed toward the front side to take an image of the driving direction, and can also photograph the front ceiling. In some cases, an image acquisition unit for photographing the front and an image acquisition unit for photographing the ceiling may be provided.

또한, 감지수단은 적어도 하나의 센서로 구성된 센서부(150)를 포함할 수 있다. 경우에 따라 장애물 감지유닛(100)은 센서부로 구성될 수 있다. In addition, the sensing means may include a sensor unit 150 composed of at least one sensor. In some cases, the obstacle detecting unit 100 may be configured as a sensor unit.

장애물 감지유닛(100)은 앞서 설명한 바와 같이, 본체(10)의 전면에 설치되어, 이동 로봇의 전방에 제 1 및 제 2 패턴의 광을 조사하고, 조사된 패턴의 광을 촬영하여 패턴이 포함된 영상을 획득한다. 장애물 감지유닛(100)은 획득영상을 장애물 감지신호로써 제어부(110)로 입력한다. As described above, the obstacle detecting unit 100 is installed on the front surface of the main body 10 to irradiate the first and second patterns of light in front of the mobile robot and to photograph the irradiated pattern of light. The captured image. The obstacle detection unit 100 inputs the acquired image to the controller 110 as an obstacle detection signal.

장애물 감지유닛(100)의 제 1 및 제 2 패턴조사부(120, 130)는 광원과, 광원으로부터 조사된 광이 투과됨으로써 소정의 패턴을 생성하는 패턴생성자(OPPE: Optical Pattern Projection Element)를 포함할 수 있다. 광원은 레이져 다이오드(Laser Diode, LD), 발광 다이오드(Light Emitteing Diode, LED) 등 일 수 있다. 레이져 광은 단색성, 직진성 및 접속 특성에 있어 다른 광원에 비해 월등해, 정밀한 거리 측정이 가능하며, 특히, 적외선 또는 가시광선은 대상체의 색상과 재질 등의 요인에 따라 거리 측정의 정밀도에 있어서 편차가 크게 발생되는 문제가 있기 때문에, 광원으로는 레이져 다이오드가 바람직하다. 패턴생성자는 렌즈, DOE(Diffractive optical element)를 포함할 수 있다. 각각의 패턴조사부(120, 130)에 구비된 패턴 생성자의 구성에 따라 다양한 패턴의 광이 조사될 수 있다.The first and second pattern irradiation units 120 and 130 of the obstacle detecting unit 100 may include a light source and an optical pattern projection element (OPPE) that generates a predetermined pattern by transmitting light emitted from the light source. Can be. The light source may be a laser diode (LD), a light emitting diode (LED), or the like. Laser light is superior to other light sources in terms of monochromaticity, straightness, and connection characteristics, and accurate distance measurement is possible. In particular, infrared or visible light may vary in accuracy of distance measurement depending on factors such as color and material of the object. Since there is a problem that is largely generated, a laser diode is preferable as the light source. The pattern generator may include a lens and a diffractive optical element (DOE). Various patterns of light may be irradiated according to the configuration of the pattern generators provided in the pattern irradiation units 120 and 130.

패턴획득부(140)는 본체(10) 전방의 영상을 획득할 수 있다. 특히, 패턴획득부(140)에 의해 획득된 영상(이하, 획득영상이라고 함.)에는 패턴 광(PT1, PT2)이 나타나며, 이하, 획득영상에 나타난 패턴 광(PT1, PT2)의 상을 광 패턴이라고 하고, 이는 실질적으로 실제 공간상에 입사된 패턴 광(PT1, PT2)이 이미지 센서에 맺힌 상이기 때문에, 패턴 광들(PT1, PT2)과 같은 도면 부호를 부여하여, 제 1 패턴 광(PT1) 및 제 2 패턴 광(PT2)과 각각 대응하는 상들을 제 1 광 패턴(PT1) 및 제 2 광 패턴(PT2)이라고 하기로 한다.The pattern acquisition unit 140 may acquire an image of the front of the main body 10. In particular, the pattern light PT1 and PT2 appear in an image acquired by the pattern acquisition unit 140 (hereinafter, referred to as an acquired image). Hereinafter, the image of the pattern light PT1 and PT2 shown in the acquired image is lighted. The pattern is referred to as a pattern, and since the pattern light PT1 and PT2 incident on the actual space is an image formed on the image sensor, the same reference numerals as the pattern light PT1 and PT2 are assigned to the first pattern light PT1. ) And the image corresponding to the second pattern light PT2, respectively, will be referred to as a first light pattern PT1 and a second light pattern PT2.

패턴조사부가 구비되지 않는 경우, 패턴획득부(140)는 본체 전방의, 패턴광이 포함되지 않은 영상을 획득한다. When the pattern irradiator is not provided, the pattern acquisition unit 140 acquires an image of the front of the main body that does not include pattern light.

패턴획득부(140)는 피사체의 상을 전기적 신호로 변환시킨 후 다시 디지털 신호로 바꿔 메모리소자에 기억시키는 카메라를 포함할 수 있다. 카메라는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.The pattern acquisition unit 140 may include a camera that converts an image of an object into an electrical signal and then converts the image into a digital signal and stores the image in a memory device. The camera comprises at least one optical lens, an image sensor (e.g. CMOS image sensor) configured to include a plurality of photodiodes (e.g. pixels) formed by light passing through the optical lens, It may include a digital signal processor (DSP) that forms an image based on the signals output from the diodes. The digital signal processor may generate not only a still image but also a moving image composed of frames composed of the still image.

이미지센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 집적된 칩으로 구성되며, 광 다이오드로는 픽셀(pixel)을 예로 들 수 있다. 렌즈를 통과한 광에 의해 칩에 맺힌 영상에 의해 각각의 픽셀들에 전하가 축적되며, 픽셀에 축적된 전하들은 전기적 신호(예를들어, 전압)로 변환된다. 이미지센서로는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등이 잘 알려져 있다.An image sensor is an apparatus that converts an optical image into an electrical signal, and is composed of a chip in which a plurality of photo diodes are integrated. For example, a pixel is a photo diode. Charges are accumulated in each pixel by an image formed on the chip by light passing through the lens, and the charges accumulated in the pixels are converted into electrical signals (eg, voltages). As the image sensor, a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), and the like are well known.

영상처리부는 이미지센서로부터 출력된 아날로그 신호를 바탕으로 디지털 영상을 생성한다. 영상처리부는 아날로그 신호를 디지털 신호로 변환하는 AD컨버터와, AD컨버터로부터 출력된 디지털 신호에 따라 일시적으로 디지털 정보(digital data)를 기록하는 버퍼 메모리(buffer memory)와, 버퍼 메모리에 기록된 정보를 처리하여 디지털 영상을 구성하는 디지털 신호처리기(DSP:Digital Signal Processor)를 포함할 수 있다.The image processor generates a digital image based on the analog signal output from the image sensor. The image processor includes an AD converter for converting an analog signal into a digital signal, a buffer memory for temporarily recording digital data in accordance with a digital signal output from the AD converter, and information recorded in the buffer memory. It may include a digital signal processor (DSP) for processing to form a digital image.

장애물 감지유닛(100)은 획득영상을 통해 패턴을 분석하여 패턴의 형태에 따라 장애물을 감지하고, 센서부(150)는 각 센서의 감지거리에 위치하는 장애물을 구비되는 센서를 통해 감지한다. The obstacle detecting unit 100 analyzes a pattern through the acquired image to detect an obstacle according to the shape of the pattern, and the sensor unit 150 detects the sensor having an obstacle located at a sensing distance of each sensor.

센서부(150)는 복수의 센서를 포함하여 장애물을 감지한다. 센서부(150)는 레이저, 초음파, 적외선 중 적어도 하나를 이용하여 본체(10)의 전방, 즉 주행방향의 장애물을 감지한다. 또한, 센서부(150)는 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서를 더 포함할 수 있다. 센서부(150)는 송출되는 신호가 반사되어 입사되는 경우, 장애물의 존재 여부 또는 장애물까지의 거리에 대한 정보를 장애물 감지신호로써 제어부(110)로 입력한다. The sensor unit 150 includes a plurality of sensors to detect an obstacle. The sensor unit 150 detects an obstacle in front of the main body 10, that is, a driving direction, by using at least one of laser, ultrasonic waves, and infrared rays. In addition, the sensor unit 150 may further include a cliff detection sensor for detecting the presence of a cliff on the floor in the driving zone. When the transmitted signal is reflected and incident, the sensor unit 150 inputs information on the presence or absence of an obstacle or a distance to the obstacle to the controller 110 as an obstacle detection signal.

영상획득부(170)는 이동 로봇이 동작하면, 연속적 영상을 촬영한다. 또한, 영상획득부(170)는 소정 주기로 영상을 촬영할 수 있다. 영상획득부(170)는 장애물 감지유닛(100)에 의해 장애물이 감지되지 않는, 주행 또는 청소상태에서도 영상을 촬영한다. The image acquisition unit 170 captures continuous images when the mobile robot operates. In addition, the image acquisition unit 170 may capture an image at a predetermined cycle. The image acquisition unit 170 captures an image even in a driving or cleaning state in which an obstacle is not detected by the obstacle detecting unit 100.

예를 들어 영상획득부(170)는 1회 촬영 후, 동일한 주행방향으로 이동하게 되면, 주행방향이 변경되지 않고 유지되는 동안 1회 촬영된 영상에 촬영된 장애물의 크기가 변화할 뿐 동일한 장애물이 촬영되므로, 주기적으로 영상을 촬영한다. 영상획득부(170)는 소정 시간 또는 소정 거리 단위로 영상을 촬영할 수 있다. 또한, 영상획득부(170)는 주행방향이 변경되는 경우, 새로운 영상을 촬영한다. For example, if the image acquisition unit 170 moves in the same driving direction after the first shooting, the size of the obstacle captured in the image once captured is changed while the driving direction is not changed. Since it is taken, images are taken periodically. The image acquisition unit 170 may capture an image at a predetermined time or a predetermined distance unit. In addition, the image acquisition unit 170 captures a new image when the driving direction is changed.

영상획득부(170)는 이동 로봇의 이동 속도에 따라 촬영 주기를 설정할 수 있다. 또한, 영상획득부(170)는 센서부에 의한 감지거리와 이동 로봇의 이동속도를 고려하여 촬영 주기를 설정할 수 있다. The image acquisition unit 170 may set a shooting cycle according to the moving speed of the mobile robot. In addition, the image acquisition unit 170 may set the shooting period in consideration of the sensing distance by the sensor unit and the moving speed of the mobile robot.

영상획득부(170)는 본체가 주행하는 중에 촬영되는 영상을 영상데이터(182)로써 데이터부(180)에 저장한다. The image acquisition unit 170 stores the image photographed while the main body is traveling as the image data 182 in the data unit 180.

한편, 장애물 감지유닛(100)은 주행 중에 주행방향에 위치하는 장애물을 감지하여 제어부로 감지신호를 입력한다. 장애물 감지유닛(100)은 감지되는 장애물의 위치 또는 그 움직임에 대한 정보를 제어부(110)로 입력한다. 패턴획득부(140)는 패턴조사부에 의해 조사된 패턴이 포함된 영상을 감지신호로써 제어부로 입력하고, 센서부(150)는 구비되는 센서에 의해 감지되는 장애물에 대한 감지신호를 제어부로 입력한다. Meanwhile, the obstacle detecting unit 100 detects an obstacle located in the driving direction while driving and inputs a detection signal to the controller. The obstacle detecting unit 100 inputs information on the detected obstacle position or its movement to the controller 110. The pattern acquisition unit 140 inputs an image including a pattern irradiated by the pattern irradiation unit as a detection signal to the controller, and the sensor unit 150 inputs a detection signal for an obstacle detected by the sensor provided to the controller. .

제어부(110)는 주행영역 중 지정된 주행구역 내에서, 이동 로봇이 주행하도록 주행부(250)를 제어한다. The controller 110 controls the driving unit 250 to move the mobile robot in a designated driving zone of the driving region.

제어부(110)는 조작부(160)의 조작에 의해 입력되는 데이터를 처리하여 이동 로봇의 동작모드를 설정하고, 동작상태를 출력부(190)를 통해 출력하며, 동작상태, 에러상태 또는 장애물 감지에 따른 경고음, 효과음, 음성안내가 스피커를 통해 출력되도록 한다. The controller 110 processes the data input by the manipulation of the manipulation unit 160 to set the operation mode of the mobile robot, outputs the operation state through the output unit 190, and detects the operation state, error state, or obstacle. Follow the warning sound, sound effect, voice guidance through the speaker.

제어부(110)는 주행 중, 주행부(250) 및 청소부(260)를 제어하여, 이동 로봇 주변의 먼지 또는 이물질을 흡수하도록 함으로써 주행구역에 대한 청소를 수행한다. 그에 따라 청소부(260)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입장치를 동작시켜 먼지 또는 이물질을 흡입한다. 주행 중에 이물질을 흡입하여 청소를 수행하도록 청소부를 제어한다. The controller 110 controls the driving unit 250 and the cleaning unit 260 while driving, so as to absorb dust or foreign matter around the mobile robot to perform cleaning for the driving zone. Accordingly, the cleaning unit 260 operates the brush to make it easy to suck the dust or foreign matter around the mobile robot, and operates the suction device to suck the dust or foreign matter. The cleaning unit is controlled to suck the foreign matter while driving and perform the cleaning.

제어부(110)는 배터리의 충전용량을 체크하여 충전대로의 복귀 시기를 결정한다. 제어부(110)는 충전용량이 일정값에 도달하면, 수행중이던 동작을 중지하고, 충전대 복귀를 위해 충전대 탐색을 시작한다. 제어부(110)는 배터리의 충전용량에 대한 알림 및 충전대 복귀에 대한 알림을 출력할 수 있다. The controller 110 checks the charge capacity of the battery to determine when to return to the charging station. When the charging capacity reaches a predetermined value, the controller 110 stops the operation that is being performed and starts searching for the charging station to return to the charging station. The controller 110 may output a notification about the charging capacity of the battery and a notification about the return of the charging stand.

제어부(110)는 영상획득부(170) 또는 장애물 감지유닛(100)로부터 감지되는 장애물에 대하여, 장애물을 인식하고, 장애물에 대응하여 복수의 대응모션중 어느 하나를 설정하여 수행되도록 할 수 있다. 또한, 제어부는 감지신호가 패턴에 포함된 영상인 경우 패턴의 형태에 따라 상이한 감지신호로써 판단할 수 있고, 감지신호, 즉 패턴의 형태에 따라 장애물을 구분할 수 있다. The controller 110 may recognize the obstacle with respect to the obstacle detected by the image acquisition unit 170 or the obstacle detection unit 100, and may set one of a plurality of corresponding motions in response to the obstacle. In addition, when the detection signal is an image included in the pattern, the controller may determine it as a different detection signal according to the shape of the pattern, and may distinguish an obstacle according to the detection signal, that is, the shape of the pattern.

제어부(110)는 통신부(290)를 통해 생성된 지도를 단말(200)로 전송하고, 단말(200)로부터 수신되는 데이터에 대응하여 지정된 영역으로 이동하여 청소를 수행한다. The controller 110 transmits the map generated through the communication unit 290 to the terminal 200 and moves to a designated area in response to the data received from the terminal 200 to perform cleaning.

한편, 제어부(110)는 단말(200)에 의해 지정된 영역이 지도에 존재하지 않는 새로운 영역인 경우, 미탐색영역으로 판단하여 새로운 지도를 작성할 수 있다. On the other hand, if the area designated by the terminal 200 is a new area that does not exist in the map, the controller 110 may determine that the area is not searched and create a new map.

제어부(110)는 새로운 영역에 도달하는 경우, 기 생성된 지도는 유지하되, 새로운 영역이 기 존의 영역과 연결되어 있는 경우, 새로운 영역에 대한 지도를 생성하여 기 생성된 지도에 추가할 수 있다. When the new region reaches the new region, the controller 110 maintains the previously generated map, but when the new region is connected to the existing region, the controller 110 may generate a map for the new region and add it to the previously generated map. .

또한, 제어부는 본체의 이동 정도에 따라 지도를 갱신할 수 있다. 즉 새로운 영역 전체에 대한 지도를 생성하기 전, 본체의 이동에 따라 감지되는 정보를 바탕으로 점진적으로 새로운 영역에 대한 지도를 추가할 수 있다. The controller may update the map according to the degree of movement of the main body. That is, before generating a map of the entire new area, the map of the new area may be gradually added based on the information detected according to the movement of the main body.

제어부는 미탐색영역에 대한 지도를 점진적으로 추가하여 기 저장된 지도를 갱신하며, 미탐색영역에서의 주행거리에 따라 단계적으로 상기 지도를 갱신할 수 있다. The controller may gradually update a previously stored map by gradually adding a map for the unsearched area, and may update the map in stages according to the driving distance in the unsearched area.

제어부(110)는 기 저장된 지도를 기반으로 지정된 영역의 위치를 판단하고, 기 저장된 지도의 어느 한 지점으로부터 새로운 영역에 대한 탐색을 시작하도록 주행부(250)를 제어한다. 제어부(110)는 지정된 영역과 지도의 상대적 거리 및 위치를 산출하여 주행부(250)를 제어한다. 제어부(110)는 장애물 감지유닛(100), 영상획득부(170), 그리고 센서부(150)로부터 입력되는 데이터를 저장하고 분석하여 주행방향에 위치하는 장애물을 감지하고, 지정된 위치를 기준으로 주변을 확장하여 미탐색영역에 대한 지도를 생성할 수 있다. The controller 110 determines a location of a designated area based on a previously stored map, and controls the driving unit 250 to start a search for a new area from any point of the previously stored map. The controller 110 controls the driving unit 250 by calculating a relative distance and a position of the designated area and the map. The controller 110 stores and analyzes data input from the obstacle detecting unit 100, the image acquisition unit 170, and the sensor unit 150 to detect an obstacle located in a driving direction, and detects an obstacle based on a specified position. You can expand to create a map for unsearched areas.

제어부(110)는 새로운 영역이 추가된 지도를 단말(200)로 전송한다. The controller 110 transmits the map to which the new area is added to the terminal 200.

제어부(110)는 장애물인식부(111), 맵생성부(112), 주행제어부(113)를 포함한다. The controller 110 includes an obstacle recognition unit 111, a map generation unit 112, and a driving control unit 113.

맵생성부(112)는 초기 동작 시, 또는 청소영역에 대한 지도가 저장되어 있지 않은 경우, 청소영역을 주행하면서 장애물 정보를 바탕으로 청소영역에 대한 지도를 생성한다. 또한, 맵생성부(112)는 주행중 획득되는 장애물 정보를 바탕으로, 기 생성된 지도를 갱신한다. The map generator 112 generates a map for the cleaning area based on the obstacle information while driving the cleaning area during the initial operation or when the map for the cleaning area is not stored. In addition, the map generator 112 updates the pre-generated map based on the obstacle information acquired while driving.

맵생성부(112)는 주행 중 장애물인식부(111)를 획득되는 정보를 바탕으로 기초맵을 생성하고, 기초맵으로부터 영역을 구분하여 청소맵을 생성한다. 또한, 맵생성부(112)는 청소맵에 대하여 영역을 정리하고, 영역에 대한 속성을 설정하여 사용자맵과 가이드맵을 생성한다. 기초맵은, 주행을 통해 획득되는 청소영역의 형태가 외곽선으로 표시되는 지도이고, 청소맵은 기초맵에 영역이 구분된 지도이다. 기초맵과 청소맵에는 이동 로봇의 주행 가능한 영역과 장애물정보가 포함된다. 사용자맵은 청소맵의 영역을 단순화하고 외각선의 형태를 정리하여 가공한 것으로 시각적 효과를 가미한 지도이다. 가이드맵은 청소맵과 사용자맵이 중첩된 지도이다. 가이드맵에는 청소맵이 표시되므로, 이동 로봇이 실제 주행할 수 있는 영역을 바탕으로 청소명령이 입력될 수 있다. The map generator 112 generates a base map based on information obtained by the obstacle recognition unit 111 while driving, and generates a cleaning map by dividing an area from the base map. In addition, the map generation unit 112 organizes the area with respect to the cleaning map, and sets properties of the area to generate a user map and a guide map. The base map is a map in which the shape of the cleaning area obtained through driving is displayed as an outline, and the cleaning map is a map in which areas are divided into the base map. The basic map and the cleaning map include the driving area and obstacle information of the mobile robot. The user map is a map that has a visual effect by simplifying the area of the cleaning map and arranging the outlines. The guide map is a superimposed map of the clean map and the user map. Since the cleaning map is displayed on the guide map, a cleaning command may be input based on an area in which the mobile robot can actually travel.

맵생성부(112)는 기초맵 생성 후, 청소영역을 복수의 영역으로 구분하고, 복수의 영역을 연결하는 연결통로를 포함하며, 각 영역 내의 장애물에 대한 정보를 포함하여 지도를 생성한다. 맵생성부(112)는, 지도상의 영역 구분을 위해 소영역을 분리하여 대표영역을 설정하고, 분리된 소영역을 별도의 세부영역으로 설정하여 대표영역에 병합함으로써 영역이 구분된 지도를 생성한다.After generating the base map, the map generation unit 112 divides the cleaning area into a plurality of areas, includes a connection path connecting the plurality of areas, and generates a map including information on obstacles in each area. The map generation unit 112 generates a map in which regions are divided by dividing a small region to set a representative region for distinguishing regions on a map, and setting the separated small region as a separate detailed region and merging them into the representative region. .

맵생성부(112)는 구분된 각 영역에 대하여, 영역의 형태를 가공한다. 맵생성부(112)는 구분된 영역에 대하여 속성을 설정하고, 영역별 속성에 따라 영역의 형태를 가공한다.The map generator 112 processes the shape of the region for each divided region. The map generator 112 sets attributes for the divided regions and processes the shape of the regions according to the attributes for each region.

장애물인식부(111)는 영상획득부(170) 또는 장애물 감지유닛(100)으로부터 입력되는 데이터를 통해 장애물을 판단하고, 맵생성부(112)는 주행구역에 대한 지도를 생성하고, 감지되는 장애물에 대한 정보가 지도에 포함되도록 한다. 또한, 주행제어부(113)는 장애물 정보에 대응하여 이동방향 또는 주행경로를 변경하여 장애물을 통과하거나 또는 장애물을 회피하여 주행하도록 주행부(250)를 제어한다. The obstacle recognition unit 111 determines an obstacle based on data input from the image acquisition unit 170 or the obstacle detection unit 100, and the map generator 112 generates a map of the driving zone and detects the obstacle. Ensure that information about is included on the map. In addition, the driving controller 113 controls the driving unit 250 to change the moving direction or the driving path in response to the obstacle information so as to pass through the obstacle or to avoid the obstacle.

장애물인식부(111)는 장애물 감지유닛(100)으로부터 입력되는 데이터를 분석하여 장애물을 판단한다. 장애물인식부(111)는 장애물 감지유닛의 감지신호, 예를 들어 초음파 또는 레이저 등의 신호에 따라 장애물의 방향 또는 장애물까지의 거리를 산출하고, 또한, 패턴이 포함된 획득영상을 분석하여 패턴을 추출하고 패턴의 형태를 분석하여 장애물을 판단한다. 장애물인식부(111)는 초음파 또는 적외선 신호를 이용하는 경우 장애물과의 거리 또는 장애물의 위치에 따라 수신되는 초음파의 형태, 초음파가 수신되는 시간에 차이가 있으므로 이를 바탕으로 장애물을 판단한다. The obstacle recognition unit 111 determines an obstacle by analyzing data input from the obstacle detection unit 100. The obstacle recognition unit 111 calculates the direction of the obstacle or the distance to the obstacle according to a detection signal of the obstacle detection unit, for example, an ultrasonic or laser signal, and analyzes the acquired image including the pattern to analyze the pattern. The obstacles are determined by extracting and analyzing the shape of the pattern. When the obstacle recognition unit 111 uses an ultrasonic wave or an infrared signal, the obstacle recognition unit 111 determines an obstacle based on the distance between the obstacle or the position of the obstacle, since the shape of the ultrasonic wave is different from the time when the ultrasonic wave is received.

또한, 장애물인식부(111)는 영상획득부(170)에 의해 장애물을 촬영한 영상데이터가 입력되면, 데이터부(180)에 저장한다. 영상획득부(170)는 전방의 장애물을 복수회 촬영하므로, 영상데이터 또한 복수개가 저장된다. 또한, 영상획득부(170)가 주행방향에 대한 영상을 연속 촬영하는 경우, 장애물인식부(111)는 입력되는 동영상을 영상데이터로써 저장하거나 또는 동영상을 프레임 단위로 구분하여 영상데이터로써 저장한다. In addition, the obstacle recognition unit 111 stores the image data photographing the obstacle by the image acquisition unit 170 and stores the data in the data unit 180. Since the image acquisition unit 170 photographs the obstacle in front of the plurality of times, a plurality of image data are also stored. In addition, when the image acquisition unit 170 continuously photographs the image in the driving direction, the obstacle recognition unit 111 stores the input video as image data or divides the video by frame unit as image data.

장애물인식부(111)는 복수의 영상데이터를 분석하여, 촬영된 대상, 즉 장애물을 인식할 수 있는지 여부를 판단한다. 이때 장애물인식부(111)는 영상데이터를 분석하여 영상데이터가 인식 가능한 것인지 아닌지 여부를 판단한다. 예를 들어, 장애물인식부(111)는 흔들린 영상, 초점이 맞지 않는 영상, 어두워서 장애물을 구분할 수 없는 영상을 분리하여 폐기한다. The obstacle recognition unit 111 analyzes the plurality of image data to determine whether the object to be photographed, that is, the obstacle can be recognized. At this time, the obstacle recognition unit 111 analyzes the image data to determine whether or not the image data is recognizable. For example, the obstacle recognition unit 111 separates and discards a shaken image, an out of focus image, and a dark image that cannot distinguish an obstacle.

장애물인식부(111)는 영상데이터를 분석하여 장애물의 특징으로 추출하고, 장애물의 형상(형태), 크기 및 색상 바탕으로 장애물을 판단하고 그 위치를 판단한다. 장애물인식부(111)는 기 촬영된 복수의 영상으로부터 장애물을 분석하고, 장애물이 지정거리에 위치하는 것으로 판단되는 시점을 기준으로 기 설정된 시간 이전에 촬영된 영상을 분석하여 장애물을 판단한다. The obstacle recognition unit 111 analyzes the image data and extracts the characteristics of the obstacle, determines the obstacle based on the shape (shape), size, and color of the obstacle, and determines the location thereof. The obstacle recognition unit 111 analyzes the obstacle from the plurality of images photographed in advance, and analyzes the image photographed before the preset time on the basis of the point of time at which the obstacle is determined to be located at the designated distance, and determines the obstacle.

장애물인식부(111)는 영상데이터로부터 영상의 배경을 제외하고, 기 저장된 장애물데이터를 바탕으로 장애물의 특징을 추출하여 장애물의 종류를 판단할 수 있다. 장애물데이터(181)는 서버로부터 수신되는 새로운 장애물데이터에 의해 갱신된다. 이동 로봇(1)은 감지되는 장애물에 대한 장애물데이터를 저장하고 그외 데이터에 대하여 서버로부터 장애물의 종류에 대한 데이터를 수신할 수 있다. The obstacle recognition unit 111 may determine the type of the obstacle by extracting the feature of the obstacle based on the previously stored obstacle data, excluding the background of the image from the image data. The obstacle data 181 is updated by new obstacle data received from the server. The mobile robot 1 may store obstacle data on the detected obstacle and receive data on the type of obstacle from the server for other data.

장애물인식부(111)는 영상을 구성하는 소정의 픽셀들에 대해 점, 선, 면 등의 특징을 검출 (feature detection)하고, 이렇게 검출된 특징을 바탕으로 장애물을 검출한다. The obstacle recognition unit 111 detects features of points, lines, planes, and the like with respect to predetermined pixels constituting an image, and detects obstacles based on the detected features.

장애물인식부(111)는 장애물의 외곽선을 추출하여 그 형태를 바탕으로 장애물을 인식하여 그 종류를 판단한다. 장애물인식부(111)는 형태를 바탕으로, 장애물의 색상, 크기에 따라 장애물의 종류를 판단할 수 있다. 또한, 장애물인식부(111)는 장애물의 형태와 움직임을 바탕으로 장애물의 종류를 판단할 수 있다. The obstacle recognition unit 111 extracts the outline of the obstacle and recognizes the obstacle based on the shape to determine the type of the obstacle. The obstacle recognition unit 111 may determine the type of obstacle based on the shape and size of the obstacle. In addition, the obstacle recognition unit 111 may determine the type of obstacle based on the shape and movement of the obstacle.

장애물인식부(111)는 장애물 정보를 바탕으로, 사람, 동물, 사물을 구분한다. 장애물인식부(111)는 장애물의 종류를, 일반장애물, 위험장애물, 생체장애물, 바닥장애물로 분류하고, 각 분류에 대하여 세부적인 장애물의 종류를 판단할 수 있다. The obstacle recognition unit 111 classifies a person, an animal, and an object based on the obstacle information. The obstacle recognition unit 111 may classify the types of obstacles into general obstacles, dangerous obstacles, biological obstacles, and floor obstacles, and may determine detailed types of obstacles for each classification.

또한, 장애물인식부(111)는 인식 가능한 영상데이터를 통신부(290)를 통해 서버(90)로 전송하여 장애물의 종류를 판단하도록 한다. 통신부(290)는 적어도 하나의 영상데이터를 서버(90)로 전송한다.In addition, the obstacle recognition unit 111 transmits recognizable image data to the server 90 through the communication unit 290 to determine the type of obstacle. The communication unit 290 transmits at least one image data to the server 90.

서버(90)는 이동 로봇(1)으로부터 영상데이터가 수신되면, 영상데이터를 분석하여 촬영된 대상에 대한 외곽선 또는 형상을 추출하고, 기 저장된 장애물에 대한 데이터와 비교하여, 장애물의 종류를 판단한다. 서버(90)는 유사한 형태 또는 유사한 색상의 장애물을 우선 검색하고, 해당 영상데이터로부터 특징을 추출하여 비교함으로써, 장애물의 종류를 판단한다. When the image data is received from the mobile robot 1, the server 90 analyzes the image data, extracts the outline or shape of the photographed object, and compares the data with the previously stored obstacles to determine the type of the obstacle. . The server 90 first searches for obstacles of a similar shape or color, and extracts and compares features from the corresponding image data to determine the type of obstacle.

서버(90)는 장애물의 종류를 판단한 후, 장애물에 대한 데이터를 이동 로봇(1)으로 전송한다. After determining the type of obstacle, the server 90 transmits data about the obstacle to the mobile robot 1.

장애물인식부(111)는 통신부를 통해 서버로부터 수신되는 장애물에 대한 데이터를 장애물데이터로써 데이터부(180)에 저장한다. 장애물인식부(111)는 서버에 의해 장애물의 종류가 판단되면, 그에 대응하는 동작을 수행하도록 한다. 주행제어부(113)는 장애물의 종류에 대응하여 장애물을 회피하거나, 접근하거나 또는 통과하도록 주행부를 제어하고, 경우에 따라 소정의 효과음 또는 경고음, 음성안내가 스피커를 통해 출력되도록 한다. The obstacle recognition unit 111 stores data on the obstacle received from the server through the communication unit as the obstacle data in the data unit 180. When the obstacle recognition unit 111 determines the type of obstacle by the server, the obstacle recognition unit 111 performs an operation corresponding thereto. The driving controller 113 controls the driving unit to avoid, approach, or pass the obstacle in response to the type of the obstacle, and optionally outputs a predetermined sound effect, warning sound, or voice guidance through the speaker.

장애물인식부(111)는 앞서 설명한 바와 같이, 영상데이터를 인식 가능한지 여부를 판단하고, 저장된 장애물데이터에 따라 영상데이터를 서버로 전송함으로써, 서버의 응답에 따라 장애물의 종류를 인식한다. As described above, the obstacle recognition unit 111 determines whether the image data can be recognized, and transmits the image data to the server according to the stored obstacle data, thereby recognizing the type of the obstacle according to the response of the server.

또한, 장애물 인식부는 복수의 장애물 중 선택된 장애물에 대하여, 장애물 인식을 위한 장애물데이터를 저장함으로써, 서버로 영상데이터를 전송하지 않더라도 장애물인식데이터를 바탕으로, 장애물을 인식할 수 있다. In addition, the obstacle recognition unit may store the obstacle data for obstacle recognition of the selected obstacle among the plurality of obstacles, and may recognize the obstacle based on the obstacle recognition data even if the image data is not transmitted to the server.

주행제어부(113)는 주행부(250)를 제어하여 좌륜 구동모터와 우륜 구동모터의 작동을 독립적으로 제어함으로써 본체(10)가 직진 또는 회전하여 주행하도록 한다. 주행제어부(113)는 청소명령에 따라 주행부(250)와 청소부(260)를 제어하여 본체(10)가 청소영역을 주행하면서 이물질을 흡입하여 청소가 수행되도록 한다. The driving controller 113 controls the driving unit 250 to independently control the operation of the left wheel driving motor and the right wheel driving motor so that the main body 10 travels straight or rotated. The driving controller 113 controls the driving unit 250 and the cleaning unit 260 according to a cleaning command so that the main body 10 sucks foreign substances while driving the cleaning area to perform cleaning.

주행제어부(113)는 영상데이터로부터 주행제어부(113)는 장애물의 종류가 인식되면, 장애물의 종류에 대응하여 주행부(250)를 제어하여, 본체(10)가 소정의 동작을 수행하도록 한다. When the driving controller 113 recognizes the type of the obstacle from the image data, the driving controller 113 controls the driving unit 250 in response to the type of the obstacle so that the main body 10 performs a predetermined operation.

주행제어부(113)는 장애물 감지유닛(100)의 감지신호에 따라 장애물이 소정 거리 내에 위치하는 것으로 판단되면, 감지신호의 종류 또는 형태에 따라 실행 가능한 대응모션에 대하여, 영상데이터를 바탕으로 판단되는 장애물의 종류, 형태 크기에 따라 복수의 대응모션 중 어느 하나를 설정하여 동작을 수행한다. If it is determined that the obstacle is located within a predetermined distance according to the detection signal of the obstacle detecting unit 100, the driving controller 113 is determined based on the image data with respect to the corresponding motion executable according to the type or shape of the detection signal. An operation is performed by setting any one of a plurality of corresponding motions according to the type and shape of the obstacle.

주행제어부(113)는 장애물 감지유닛(100)을 통해 장애물이 지정된 거리 내에 위치하는 경우, 감지신호에 따라 회피, 접근, 접근거리에 대한 설정, 그리고 정지, 감속, 가속, 역주행, 유턴, 주행방향 변경과 같은 복수의 대응모션을 설정하고, 기 촬영된 영상데이터로부터 판단되는 장애물에 따라 어느 하나의 대응모션을 설정하여 주행부를 제어한다. When the obstacle is located within the designated distance through the obstacle detecting unit 100, the driving controller 113 sets the avoidance, approach, and approach distance according to the detection signal, and stops, decelerates, accelerates, reverses, and turns the driving direction. A plurality of corresponding motions, such as a change, are set, and one corresponding motion is set according to an obstacle determined from previously photographed image data to control the driving unit.

주행제어부(113)는 에러를 출력하고, 필요에 따라 소정의 경고음 또는 음성안내를 출력할 수 있다. The driving control unit 113 may output an error and output a predetermined warning sound or voice guidance as necessary.

주행제어부(113)는 주행 중, 새로운 영역에 도달하는 경우, 지도 생성을 위해 해당 영역을 주행하도록 주행부(250)를 제어한다. When the driving control unit 113 reaches a new area while driving, the driving control unit 113 controls the driving unit 250 to travel the corresponding area for generating a map.

주행제어부(113)는 기 저장된 지도로 부터 새로운 영역의 위치를 산출하여, 기 저장된 지도의 끝지점부터 주행을 시작하도록 주행부(250)를 제어할 수 있다. 또한, 주행제어부(113)는 현재 위치로부터 근접한 벽면(또는 장애물)로 이동 한 후, 벽을 따라 이동하며 새로운 영역을 주행하도록 주행부를 제어할 수 있다. The driving controller 113 may control the driving unit 250 to calculate the position of the new area from the pre-stored map and to start driving from the end point of the pre-stored map. In addition, the driving controller 113 may move to a wall (or obstacle) close to the current position, and then move along the wall to control the driving unit to travel a new area.

본체(10)가 주행하는 동안, 장애물인식부(111)는 감지수단, 즉 장애물 감지유닛(100), 영상획득부(170) 및 센서부(150)로부터 입력되는 데이터를 분석하여 주행방향의 장애물을 감지하여 장애물을 인식한다. While the main body 10 is traveling, the obstacle recognition unit 111 analyzes data input from the detection means, that is, the obstacle detection unit 100, the image acquisition unit 170, and the sensor unit 150 to prevent obstacles in the driving direction. Recognize obstacles by detecting them.

맵생성부(112)는 주행 중 이동 로봇의 위치, 주행경로 및 이동거리, 장애물의 위치와 크기 등의 장애물에 대한 정보를 바탕으로 새로운 영역에 대한 지도를 생성한다. The map generator 112 generates a map for a new area based on information on obstacles such as the position of the mobile robot, the driving path and the moving distance, and the position and size of the obstacle while driving.

맵생성부(112)는 본체(10)가 기 저장된 지도의 끝지점부터 주행을 시작하여 새로운 영역을 주행한 경우, 지도의 끝지점으로부터 연결하여 새로운 영역에 대한 지도를 추가로 생성할 수 있다. When the main body 10 starts driving from a pre-stored end point of the map and travels a new area, the map generation unit 112 may additionally generate a map for the new area by connecting from the end point of the map.

한편, 단말은, 데이터를 표시하는 표시부(미도시), 적어도 하나의 키, 터치입력수단을 포함하는 입력부(미도시), 입력부를 통해 입력되는 사용자 입력에 대응하여 어플리케이션을 실행하고, 메뉴화면을 구성하여 표시부를 통해 출력하는 단말제어부(미도시)를 포함한다. 단말은 이동 로봇과 통신하여 데이터를 송수신하는 통신부를 포함한다. 통신부는 복수의 통신모듈을 포함하여 이동 로봇은 물론 소정의 네트워크에 접속하여 서버와 데이터를 송수신한다. Meanwhile, the terminal executes an application in response to a display unit (not shown) for displaying data, at least one key, an input unit (not shown) including touch input means, and a user input input through the input unit, and displays a menu screen. It comprises a terminal control unit (not shown) configured to output through the display unit. The terminal includes a communication unit for communicating with the mobile robot to transmit and receive data. The communication unit includes a plurality of communication modules to connect to a mobile network as well as a predetermined network to transmit and receive data with the server.

단말은 복수의 센서를 포함하여 사용자의 제스처를 인식하고, 진동 또는 단말의 음직임을 감지하며, 음성을 인식하여 그에 대응하는 동작을 실행할 수 있다. 단말은 효과음, 음성안내를 출력하는 스피커를 포함한다. The terminal may include a plurality of sensors to recognize a gesture of a user, detect vibration or sound of the terminal, and recognize a voice to execute an operation corresponding thereto. The terminal includes a speaker for outputting sound effects and voice guidance.

도 4 는 본 발명의 일 실시예에 따른 이동 로봇의 지도를 설명하는데 참조되는 도이다. 4 is a view referred to for explaining a map of a mobile robot according to an embodiment of the present invention.

도 4의 (a)에 도시된 바와 같이, 실내 공간이 제 1 내지 제 3 영역(A1 내지 A3)으로 구분된다. As shown in FIG. 4A, the indoor space is divided into first to third regions A1 to A3.

이동 로봇(1)은 주행 시, 영역에 대한 지도를 생성한다. 주행부(250)에 의해 본체(10)가 각 영역을 주행하면서 감지수단에 의해 감지되는 데이터를 바탕으로 장애물을 인식하고 그에 따라 지도를 생성할 수 있다. The mobile robot 1 generates a map for the area when driving. The driving unit 250 may recognize the obstacle based on the data sensed by the sensing means while the main body 10 travels each area and generate a map accordingly.

지도 생성 시, 제 1 내지 제 3 영역(A1 내지 A3) 중, 제 3 영역의 문이 닫혀 있거나, 제 3 영역(A3)으로 이동 로봇(1)이 진입할 수 없는 경우 제 1, 2 영역에 대한 지도를 생성하게 된다. When the map is generated, if the door of the third area among the first to third areas A1 to A3 is closed or the mobile robot 1 cannot enter the third area A3, It will create a map for you.

제 1, 2 영역(A1, A2)에 대한 지도를 생성한 이동 로봇(1)은 지도를 단말(200)로 전송하고, 단말(200)은 이동 로봇(1)으로부터 수신된 지도를 도 4의 (b)에 도시된 바와 같이, 화면에 표시할 수 있다. The mobile robot 1 that has generated the maps for the first and second areas A1 and A2 transmits the map to the terminal 200, and the terminal 200 transmits the map received from the mobile robot 1 of FIG. 4. As shown in (b), it can be displayed on the screen.

이동 로봇(1)은 제 1 영역 및 제 2 영역만을 인식하여 단말(200)의 청소명령에 따라 지정된 위치로 이동하여 청소를 수행한다. 이동 로봇(1)은 기초맵 또는 청소맵을 바탕으로 주행하며, 지정된 동작을 수행한다. The mobile robot 1 recognizes only the first area and the second area, and moves to the designated position according to the cleaning command of the terminal 200 to perform cleaning. The mobile robot 1 travels based on the base map or the cleaning map, and performs a designated operation.

단말(200)은 이동 로봇(1)으로부터 수신되는 지도(맵)를 화면에 표시한다. 단말(200)의 사용자의 편의에 따라 사용자맵과 가이드맵을 선택적으로 표시할 수 있다. 또한, 단말은 필요에 따라 기초맵, 청소맵, 사용자맵, 가이드맵 중 어느 하나를 표시할 수 있다. The terminal 200 displays a map (map) received from the mobile robot 1 on the screen. The user map and the guide map may be selectively displayed according to the user's convenience of the terminal 200. In addition, the terminal may display any one of a base map, a cleaning map, a user map, and a guide map as necessary.

도 5 는 본 발명의 일 실시예에 따른 이동 로봇의 미탐색영역에 대한 탐색 동작을 설명하는데 참조되는 도이다. 5 is a view referred to for explaining a search operation for the undetected area of the mobile robot according to an embodiment of the present invention.

도 5의 (a)에 도시된 바와 같이, 단말(200)은 지도(281)를 화면(280)에 표시한다. As shown in FIG. 5A, the terminal 200 displays a map 281 on the screen 280.

앞서 설명한 바와 같이, 지도에는 제 1 영역(A1)과 제 2 영역(A2)이 표시된다. 단말(200)은 사용자의 입력에 대응하여, 제 1 영역 또는 제 2 영역에 대한 명령을 이동 로봇(1)으로 전송할 수 있다. 예를 들어 청소명령, 방범모드설정 등에 대한 명령이다. As described above, the first area A1 and the second area A2 are displayed on the map. The terminal 200 may transmit a command for the first area or the second area to the mobile robot 1 in response to a user input. For example, it is a command for cleaning, security mode setting, etc.

단말(200)은 터치, 키입력, 멀티터치, 롱키입력, 터치 후 드래그와 같은 사용자의 조작을 사용자 입력으로 인식하고 그에 대하여 어플리케이션을 실행하고, 특정 메뉴화면을 표시하며, 데이터를 저장하고 전송할 수 있다. The terminal 200 recognizes a user's operation such as touch, key input, multi-touch, long key input, and touch and drag as a user input, executes an application, displays a specific menu screen, and stores and transmits data. have.

단말(200)은 이동 로봇(1)으로부터 이동 로봇(1)의 현재위치에 대한 데이터를 수신하여 화면(280)에 표시된 지도에, 그 위치를 표시한다. 화면에 표시되는 이동 로봇(1) 또한 동일한 도면부호를 기재함을 명시한다. 이동 로봇(1)은 이동 로봇에 대응하는 이미지 또는 아이콘으로 표시될 수 있다. The terminal 200 receives data on the current position of the mobile robot 1 from the mobile robot 1 and displays the location on a map displayed on the screen 280. It is specified that the mobile robot 1 displayed on the screen also denotes the same reference numeral. The mobile robot 1 may be displayed as an image or icon corresponding to the mobile robot.

한편, 사용자에 의해 지도(281) 상의 탐색영역이 아닌 그외의 영역인 미탐색영역(An), 즉 제 1 영역(A1)과 제 2 영역(A2)을 벗어난 영역에서 어느 한 지점, 제 1 지점(P1)이 선택될 수 있다. Meanwhile, any point or first point in the non-search area An, which is another area other than the search area on the map 281, that is, an area outside the first area A1 and the second area A2 by the user. (P1) can be selected.

터치 또는 롱키입력으로 제 1 지점이 선택될 수 있다. The first point may be selected by touch or long key input.

단말(200)은, 지도(281)에서 탐색영역이 아닌 미탐색영역(An)의 어느 한 지점, 즉 제 1 지점(P1)이 선택되면, 도 5의 (b)에 도시된 바와 같이, 사용자 입력에 대응하여 제 1 지점(P1)으로 이동하도록 이동 로봇(1)으로 제어명령을 전송한다.When the terminal 200 selects one point of the non-search area An that is not the search area on the map 281, that is, the first point P1, the terminal 200 displays the user as illustrated in FIG. 5B. The control command is transmitted to the mobile robot 1 to move to the first point P1 in response to the input.

단말(200)은 기 저장된 지도를 바탕으로, 선택된 제 1 지점(P1)에 대한 상대적 위치를 산출하여 이동 로봇(1)으로 전송할 수 있다. The terminal 200 may calculate a relative position with respect to the selected first point P1 based on a previously stored map and transmit the calculated position to the mobile robot 1.

이동 로봇(1)은 단말(200)로부터 수신되는 제어명령에 대응하여, 제 1 지점(P1)에 대응하는 위치로 이동한다. The mobile robot 1 moves to a position corresponding to the first point P1 in response to a control command received from the terminal 200.

이동 로봇(1)은 기 저장된 지도를 바탕으로, 선택된 제 1 지점(P1)이, 제 1 영역 및 제 2 영역이 아닌, 미탐색영역인 것을 판단한다. 이동 로봇(1)은 지도로부터 선택된 제 1 지점에 인접한 위치로 이동하며 감지되는 장애물 정보를 바탕으로 제 1 지점으로 이동한다. The mobile robot 1 determines that the selected first point P1 is an unsearched area, not the first area and the second area, based on the previously stored map. The mobile robot 1 moves to a position adjacent to the first point selected from the map and moves to the first point based on the detected obstacle information.

이동 로봇(1)은 제 1 지점(P1)과 인접한 제 1 영역(A1)으로 이동한 후, 제 1 영역(A1)으로부터 장애물을 감지하며 제 1 지점(P1)에 대응하는 위치로 이동한다. After moving to the first area A1 adjacent to the first point P1, the mobile robot 1 detects an obstacle from the first area A1 and moves to a position corresponding to the first point P1.

예를 들어, 이동 로봇(1)은 단말(200)로부터 수신되는 제 1 지점에 대한 데이터, 즉 현재 지도를 바탕으로 하는 상대적 위치를 산출하여, 제 1 영역(A1)에서 제 1 지점(P1)으로 직선 주행을 시도할 수 있다. For example, the mobile robot 1 calculates data about a first point received from the terminal 200, that is, a relative position based on a current map, and thus, the first point P1 in the first area A1. You can try to travel straight.

제 1 영역(A1)로부터 제 1 지점(P1)으로 이동하는 경우, 이동 로봇(1)은 주행 중, 장애물, 예를 들어 벽을 감지할 수 있다. 이동 로봇(1)은 주행 중 감지되는 장애물에 대응하여 재탐색을 통해 다시 경로를 설정하여 제 1 지점을 향해 주행한다. When moving from the first area A1 to the first point P1, the mobile robot 1 may detect an obstacle, for example, a wall, while driving. The mobile robot 1 travels toward the first point again by rerouting in response to an obstacle detected during driving.

이동 로봇(1)은 주행 중, 제 1 지점(P1)과 제 1 영역(A1)이 연결되는 연결지점(P11)을 탐색하고, 이를 통해 제 1 지점(P1)으로 이동할 수 있다. The mobile robot 1 may search for a connection point P11 to which the first point P1 and the first area A1 are connected, and move to the first point P1 while driving.

이동 로봇은 기 저장된 지도의 영역을 벗어나 선택 지점인 제 1 지점으로 이동하는 경우, 기 저장된 지도의 마지막 지점을 연결지점으로 설정한다. 또한, 이동 로봇은 새로운 영역에 진입한 진입경로를 바탕으로 기 저장된 지도와의 연결지점을 설정할 수 있다. When the mobile robot moves out of the previously stored map area to the first point, which is a selection point, the mobile robot sets the last point of the previously stored map as a connection point. In addition, the mobile robot may set a connection point with a previously stored map based on an entry path entering a new area.

제 1 지점으로 이동하지 못하는 경우 이동 로봇은 에러를 출력할 수 있다. 단말은 제 1 지점으로의 접근 불가를 알리는 안내메시지를 출력할 수 있다. If the robot cannot move to the first point, the mobile robot may output an error. The terminal may output a guide message indicating that access to the first point is not possible.

한편, 도 5의 (c)에 도시된 바와 같이, 단말(200)은 지도상의 미탐색영역(An)이 선택되었음을 알리는 안내 또는 경고를 화면에 출력할 수 있다. On the other hand, as shown in (c) of Figure 5, the terminal 200 may output a guide or warning indicating that the unsearched area (An) on the map is selected on the screen.

예를 들어,'미탐색영역이 선택되었습니다. 다시 한번 확인해 주십시오'와 같은 안내메시지(283)를 화면에 팝업창으로 표시할 수 있다. For example, 'Unnavigation is selected. Please check again 'can be displayed as a pop-up window (283).

안내메시지에 대하여 사용자가 진행키(284)를 선택하는 경우 선택된 지점(제 1 지점)에 대하여 앞서 설명한 바와 같이 이동 로봇(1)으로 제어명령을 전송한다. 경우에 따라 안내메시지를 통해 다시 선택지점이 맞는지 여부를 확인할 수 있다. When the user selects the progress key 284 for the guide message, the control command is transmitted to the mobile robot 1 as described above with respect to the selected point (first point). In some cases, the guide message can confirm whether the selection point is correct again.

취소키(285)가 선택되면 단말(200)은 지점 선택을 취소하면 다시 지도화면으로 복귀한다. When the cancel key 285 is selected, the terminal 200 returns to the map screen again when canceling the point selection.

또한, 사용자 입력에 대응하여, 이동 로봇은 미탐색영역으로 이동하여 미탐색영역에 대한 지도를 생성할 수 있다. In addition, in response to a user input, the mobile robot may move to the unsearched area to generate a map for the unsearched area.

사용자 입력에 따라, 지도(281) 상의 어느 하나의 지점이 터치된 후, 미탐색영역으로 드래그되는 경우, 단말(200)은 미탐색영역에 대한 탐색명령을 이동 로봇(1)으로 전송할 수 있다. In response to a user input, when any point on the map 281 is touched and dragged to the unsearched area, the terminal 200 may transmit a search command for the unsearched area to the mobile robot 1.

단말(200)은 터치된 지점과 드래그된 방향, 드래그된 지점(마지막 지점)에 대한 정보를 포함하여 탐색명령을 이동 로봇으로 전송할 수 있다. The terminal 200 may transmit a search command to the mobile robot, including information about the touched point, the dragged direction, and the dragged point (last point).

이동 로봇(1)은 터치된 지점에 대응하는 지도상의 어느 한 지점으로 이동한 후, 드래그된 방향에 따라 실제 영역을 주행하면서, 미탐색영역으로 진입할 수 있다. After moving to any point on the map corresponding to the touched point, the mobile robot 1 may enter the unsearched area while driving the real area along the dragged direction.

이동 로봇(1)은 드래그된 지점에 대응하는 위치로 이동하고, 지도의 영역(탐색영역)을 벗어나 미탐색영역에 진입하면, 미탐색영역에 대한 지도를 생성할 수 있다. The mobile robot 1 may move to a position corresponding to the dragged point, and generate a map for the unsearched area when entering the unsearched area outside the map area (search area).

도 6 은 도 5의 이동 로봇의 미탐색영역에 대한 지도생성을 설명하는데 참조되는 도이다.  FIG. 6 is a diagram referred to for describing map generation of an unsearched area of the mobile robot of FIG. 5.

또한, 도 6의 (a)에 도시된 바와 같이, 이동 로봇(1)이 제 1 지점(P1)으로 이동하는 중, 단말(200)은 이동 로봇(1)으로부터 위치정보를 수신하여 화면의 지도상에 이동 로봇의 위치를 표시할 수 있다. In addition, as shown in FIG. 6A, while the mobile robot 1 moves to the first point P1, the terminal 200 receives location information from the mobile robot 1 to map the screen. The position of the mobile robot can be displayed on the screen.

이동 로봇(1)이 연결지점(P11)을 통해 제 1 영역(A1)을 벗어나고, 미탐색영역을 주행하는 경우, 단말(200)은 이동 로봇의 현재 위치를 바탕으로 지도(281)에 확장영역(282)을 표시할 수 있다. When the mobile robot 1 leaves the first area A1 through the connection point P11 and travels through the non-search area, the terminal 200 expands the area on the map 281 based on the current location of the mobile robot. 282 may be displayed.

이동 로봇(1)은 제 1 지점(P1)에 도달하면, 새로운 영역으로 인식하여 새로운 영역에 대한 탐색을 수행하고 그에 따라 감지되는 데이터를 바탕으로 지도를 생성한다. When the mobile robot 1 reaches the first point P1, the mobile robot 1 recognizes a new area, searches for a new area, and generates a map based on the detected data.

이동 로봇(1)은 제 3 영역(A3)을 주행하면서, 예를 들어 월팔로윙을 수행하며 제 3 영역(A3)에 대한 지도를 생성한다. The mobile robot 1 travels through the third area A3, for example, performs a monthly follow-up and generates a map for the third area A3.

이때, 주행제어부(113)는 주행부(250)를 제어하여, 새로운 영역에 대한 지도를 생성하기 위해 제 3 영역을 주행하도록 주행부를 제어한다. 주행제어부는 제 3 영역으로 진입한 경로를 바탕으로 제 1 영역과의 연결지점에 대한 데이터를 저장하고, 연결지점을 시작점으로 하여 이동하도록 주행부를 제어할 수 있다. In this case, the driving controller 113 controls the driving unit 250 to control the driving unit to travel the third region to generate a map for the new region. The driving controller may store data about a connection point with the first area based on a path entered into the third area, and control the driving unit to move the connection point as a starting point.

또한, 주행제어부(113)는 현재 위치를 기준으로, 감지수단을 통해 감지되는 데이터를 바탕으로 현재 위치로부터 근접한 벽면을 탐색한 후, 이동하여 벽면을 따라 이동하도록 주행부를 제어할 수 있다. In addition, the driving controller 113 may control the driving unit to move along the wall surface by searching for a wall surface close to the current position based on the data detected by the sensing means based on the current position.

주행 중, 감지수단은 장애물을 감지하고, 장애물인식부(111)는 장애물의 종류를 인식하여 장애물의 위치와 함께 저장하고, 맵생성부(112)는 이동경로, 위치정보, 장애물의 종류, 크기 및 위치에 대한 데이터를 바탕으로 제 3 영역에 대한 지도를 생성한다. 또한, 맵생성부는 연결지점을 바탕으로 기 저장된 지도와 제 3 영역에 대한 지도를 연결하고, 연결지점을 기준으로 제 3 영역을 구분할 수 있다. While driving, the sensing means detects an obstacle, the obstacle recognition unit 111 recognizes the type of the obstacle and stores it together with the location of the obstacle, and the map generator 112 moves the path, location information, the type and size of the obstacle. And generate a map for the third area based on the data on the location. In addition, the map generation unit may connect the pre-stored map and the map for the third area based on the connection point, and may distinguish the third area based on the connection point.

도 6의 (b)에 도시된 바와 같이 이동 로봇(1)은 제 3 영역에 대한 지도가 생성되면, 연결지점(P11)을 기준으로 기 생성된 지도에 새로운 제 3 영역의 지도를 추가하여, 저장된 지도를 갱신한다. 제 1 영역 및 제 2 영역에 대한 지도와 장애물에 대한 데이터는 그대로 유지하고 제 3 영역에 대한 지도만을 추가할 수 있다. As shown in (b) of FIG. 6, when the map for the third region is generated, the mobile robot 1 adds a map of the new third region to the previously generated map based on the connection point P11, Update the saved map. The maps for the first area and the second area and the data about the obstacles may be maintained and only the maps for the third area may be added.

이동 로봇(1)은 갱신된 지도를 단말(200)로 전송한다. The mobile robot 1 transmits the updated map to the terminal 200.

단말(200)은 갱신된 지도를 수신하여 신규 추가된 제 3 영역(A3)이 포함된, 지도를 화면(280)에 표시한다.The terminal 200 receives the updated map and displays the map including the newly added third area A3 on the screen 280.

한편, 이동 로봇(1)은 제 1 영역(A1)을 주행하는 중, 제 3 영역(A3)에 진입할 수 있다. 이동 로봇(1)은 제 3 영역이 지도에 없는 미탐색영역으로, 새로운 영역인 것으로 판단할 수 있다. Meanwhile, the mobile robot 1 may enter the third area A3 while traveling the first area A1. The mobile robot 1 may determine that the third area is a non-search area without a map and is a new area.

그에 따라 이동 로봇(1)은 제 3 영역을 주행하며 제 3 영역에 대한 지도를 생성할 수 있다. 이동 로봇(1)은 앞서 설명한 바와 같이 제 3 영역에 대한 지도를 생성하여, 제 3 영역과 제 1 영역의 연결지점을 기준으로 기 생성된 지도에 제 3 영역에 대한 지도를 추가하여 지도를 갱신하고 단말로 전송한다. Accordingly, the mobile robot 1 may travel in the third area and generate a map for the third area. As described above, the mobile robot 1 generates a map for the third area, and updates the map by adding the map for the third area to the pre-generated map based on the connection point between the third area and the first area. And transmit to the terminal.

단말은 수신되는 갱신된 지도를 화면에 표시한다. The terminal displays the updated map received on the screen.

도 7 은 본 발명의 일 실시예에 따른 이동 로봇의 단말을 이용한 청소명령 설정을 설명하는데 참조되는 예시도이다. 7 is an exemplary diagram referred to for explaining setting of a cleaning command using a terminal of a mobile robot according to an embodiment of the present invention.

도 7의 (a)에 도시된 바와 같이, 단말(200)은 제 3 영역(A3)이 추가된 갱신된 지도를 화면(280)에 표시한다. As shown in FIG. 7A, the terminal 200 displays the updated map to which the third area A3 is added, on the screen 280.

단말(200)은 지도상의 제 1 내지 제 3 영역(A1 내지 A3) 중 적어도 하나의 영역이 선택되면, 선택되는 영역을 다른 영역과 상이하게 표시한다. 예를 들어, 단말(200)은 선택된 영역의 색상을 변경하여 표시할 수 있고, 도시된 바와 같이 'V'로 선택된 영역임을 표시할 수 있다. When at least one of the first to third areas A1 to A3 on the map is selected, the terminal 200 displays the selected area differently from other areas. For example, the terminal 200 may change the color of the selected area and display the selected area, and as shown, may indicate that the area is selected as 'V'.

또한, 단말(200)은 선택된 순서에 따라 번호를 표시할 수 있다. 단말(200)은 각 영역에 대하여 선택된 순서에 따라 청소가 진행되도록 할 수 있다. In addition, the terminal 200 may display the numbers in the selected order. The terminal 200 may allow the cleaning to proceed according to the selected order for each region.

필요에 따라, 단말(200)은 선택된 순서에 관계없이, 별도의 청소순서를 지정할 수 있다. 지도에는 메뉴설정을 통해 청소순서가 지정되는 경우, 청소순서에 따라 번호가 표시된다. If necessary, the terminal 200 may designate a separate cleaning order regardless of the selected order. If the cleaning order is specified through the menu setting, the map displays numbers according to the cleaning order.

단말(200)은 선택된 영역과, 청소순서를 포함하는 청소명령을 이동 로봇(1)으로 전송한다. The terminal 200 transmits a cleaning command including the selected area and the cleaning order to the mobile robot 1.

도 7의 (b)에 도시된 바와 같이, 이동 로봇(1)은 단말(200)로부터 청소명령을 수신한다. As shown in FIG. 7B, the mobile robot 1 receives a cleaning command from the terminal 200.

제 1 영역(A1)의 제 2 지점(P2)에 위치한 충전대에 도킹 된 이동 로봇(1)은, 수신된 청소명령에 따라 영역을 주행하면서 청소를 수행한다. The mobile robot 1 docked at the charging station located at the second point P2 of the first area A1 performs cleaning while traveling in the area according to the received cleaning command.

이동 로봇(1)은, 영역을 주행하는 중에 청소명령을 수신하는 경우, 청소명령에 따라 청소를 수행한다. 필요에 따라 기 설정된 동작을 수행하는 중 청소명령이 수신되는 경우 이동 로봇(1)은 기 설정된 동작을 완료한 후 청소명령을 실행할 수 있다. 또한, 이동 로봇은 기 설정된 동작과 청소명령 중 중요도를 판단하여 기 설정된 동작을 중지하고 청소명령을 우선 수행한 후, 청소명령에 따른 동작을 완료한 후 다시 기 설정된 동작을 수행할 수 있다. When the mobile robot 1 receives a cleaning command while traveling the area, the mobile robot 1 performs cleaning according to the cleaning command. If a cleaning command is received while performing a preset operation as necessary, the mobile robot 1 may execute the cleaning command after completing the preset operation. In addition, the mobile robot may determine the importance among the preset operation and the cleaning command, stop the preset operation, perform the cleaning command first, and then perform the preset operation again after completing the operation according to the cleaning command.

이동 로봇(1)은 청소명령에 포함된, 청소 영역과 청소순서에 따라 각 영역을 이동하면서 청소를 수행한다. The mobile robot 1 performs cleaning while moving each area according to the cleaning area and the cleaning procedure included in the cleaning command.

제 1 내지 제 3 영역이 청소 영역으로 지정되고, 또한 제 3 영역(A3), 제 2 영역(A2) 그리고 제 1 영역(A1)의 순서대로 청소순서가 지정된 경우, 이동 로봇(1)은 지정된 순서에 따라 각 영역을 이동하면서 청소를 수행한다. When the first to third areas are designated as the cleaning area, and the cleaning order is specified in the order of the third area A3, the second area A2 and the first area A1, the mobile robot 1 designates the designated area. Perform cleaning while moving each area in order.

이동 로봇(1)은 제 3 영역으로 이동하여(S1), 제 3 영역을 청소한 후, 제 2 영역으로 이동(S2)할 수 있다. 제 2 영역에 대한 청소가 완료되면 제 1 영역으로 이동하여(S3), 제 1 영역을 청소한다. 도면에는 이동 로봇의 이동 경로가 곡선으로 표시되었으나, 이동 로봇의 실제 주행경로와는 상이함을 명시한다. 이동 로봇은 영역 간에 이동 시 최단 경로를 설정하여 이동할 수 있고 주행방향에 위치하는 장애물에 따라 장애물을 회피하거나 통과하여 주행할 수 있다. The mobile robot 1 may move to the third area (S1), clean the third area, and then move to the second area (S2). When the cleaning of the second area is completed, the process moves to the first area (S3) to clean the first area. In the figure, the movement path of the mobile robot is indicated by a curve, but it is different from the actual driving path of the mobile robot. The mobile robot may move by setting the shortest path when moving between regions, and may move or avoid obstacles according to obstacles located in the driving direction.

한편, 청소순서가 지정되어 있지 않은 경우 이동 로봇(1)은 현재 위치를 기준으로 근접한 영역을 우선하여 청소한 후, 다음 영역으로 이동할 수 있다. On the other hand, when the cleaning order is not specified, the mobile robot 1 may first clean an area close to the current position and then move to the next area.

단말(200)은 이동 로봇(1)으로부터 수신되는 데이터를 바탕으로, 이동 로봇의 현재 위치를 화면의 지도상에 표시할 수 있다. The terminal 200 may display the current position of the mobile robot on a map of the screen based on the data received from the mobile robot 1.

단말(200)은 이동 로봇(1)으로부터 수신되는 데이터를 바탕으로, 각 영역에 대한 청소진행상태를 표시할 수 있다. 단말은 청소가 완료된 영역에 대하여 청소완료로 표시하고, 청소가 진행중인 영역에 대하여 진행율을 표시할 수 있다. 청소완료 및 진행율은 이미지, 그래프, 숫자, 문자 중 적어도 하나의 조합으로 표시될 수 있다. 또한, 단말은 청소완료영역과 진행중인 영역, 아직 청소하지 않은 영역을 각각 상이한 색상으로 표시할 수도 있다. The terminal 200 may display the cleaning progress state for each area based on the data received from the mobile robot 1. The terminal may indicate that the cleaning is completed, as the cleaning completion, and display the progress rate with respect to the area where the cleaning is in progress. The cleaning completion rate and the progress rate may be displayed as a combination of at least one of an image, a graph, a number, and a letter. In addition, the terminal may display the cleaning completed area, the area in progress, and the area not yet cleaned in different colors.

또한, 단말(200)은 화면에 표시된 지도로부터 영역이 선택되면, 사용자 입력에 대응하여 선택된 영역을 수정할 수 있다. 예를 들어 제 2 영역이 선택된 후, 어느 하나의 변이 터치 후 드래그되는 경우, 드래그되는 방향에 대응하여 영역을 확장하거나 또는 축소할 수 있다. In addition, when an area is selected from the map displayed on the screen, the terminal 200 may modify the selected area in response to a user input. For example, when one side is touched and dragged after the second area is selected, the area may be expanded or reduced in correspondence to the dragging direction.

도 8 은 본 발명의 일실시예에 따른 이동 로봇의 주행 패턴을 설명하는데 탐조되는 도이다. 8 is a view for exploring the driving pattern of the mobile robot according to an embodiment of the present invention.

도 8의 (a)에 도시된 바와 같이, 단말(200)은, 이동 로봇(1)에 대한 제어메뉴를 통해 주행패턴(또는 주행패턴)을 입력할 수 있다. 주행패턴은 청소동작에 적용되며, 청소동작 이외의 영역 내의 이동에도 적용될 수 있다. As illustrated in FIG. 8A, the terminal 200 may input a driving pattern (or driving pattern) through a control menu for the mobile robot 1. The traveling pattern is applied to the cleaning operation, and can also be applied to movement in an area other than the cleaning operation.

단말(200)은 터치 및 드래그 되는 방향에 대하여 입력패턴(L1)으로 저장한다. 단말(200)은 터치 후 드래그되어 터치가 종료되는 지점까지의 각 지점의 위치에 대한 정보를 바탕으로 입력패턴을 저장한다. The terminal 200 stores the input pattern L1 with respect to the touched and dragged direction. The terminal 200 stores the input pattern based on the information on the position of each point up to the point where the touch ends by dragging after the touch.

도 8의 (b)에 도시된 바와 같이, 단말(200)은 입력패턴을 분석하여 이동 로봇의 실제 주행에 적용되는 주행패턴을 생성한다. As shown in FIG. 8B, the terminal 200 analyzes the input pattern to generate a driving pattern applied to the actual driving of the mobile robot.

단말(200)은 입력패턴의 특징을 분석하고, 기저장된 패턴데이터로부터 유사한 패턴을 검색할 수 있다. 단말(200)은 유사한 패턴이 존재하는 경우 해당 주행패턴을 등록한다. 또한, 유사한 주행패턴이 존재하지 않는 경우 앞서 설명한 바와 같이, 입력패턴에 따라 주행패턴을 생성한다. The terminal 200 may analyze characteristics of the input pattern and search for similar patterns from previously stored pattern data. The terminal 200 registers a corresponding driving pattern when a similar pattern exists. In addition, when similar driving patterns do not exist, as described above, a driving pattern is generated according to the input pattern.

이동 로봇(1)은 지정된 주행패턴(L2)에 따라 지정된 형태로 영역을 이동할 수 있다. The mobile robot 1 may move the region in a designated form according to the designated driving pattern L2.

단말(200)은 입력패턴(L)에 대응하여, 도 8의 (c)에 도시된 바와 같이, 주행패턴(L3)을 생성할 수 있다. 즉 입력패턴에 따라 그대로 이동하는 것이 아니라, 입력패턴의 주행 원리를 바탕으로 영역의 형태에 맞춰 외곽으로부터 내부로 나선주행하도록 할 수 있다. 그에 따라 이동 로봇(1)은 주행패턴(L3)에 따라 영역(A4)을 주행할 수 있다. The terminal 200 may generate the driving pattern L3 in response to the input pattern L, as illustrated in FIG. 8C. That is, instead of moving according to the input pattern as it is, it is possible to spirally travel from the outside to the inside according to the shape of the area based on the driving principle of the input pattern. Accordingly, the mobile robot 1 may travel the area A4 according to the travel pattern L3.

주행패턴은 청소동작에 적용되며, 청소동작 이외의 영역 내의 이동에도 적용될 수 있다. The traveling pattern is applied to the cleaning operation, and can also be applied to movement in an area other than the cleaning operation.

도 9 는 본 발명의 일실시예에 따른 이동 로봇의 새로운 영역에 대한 지도생성방법을 설명하는데 참조되는 도이다. 9 is a diagram referred to explain a method for generating a map for a new area of a mobile robot according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 이동 로봇(1)은 영역에 대한 지도를 생성하여 저장하고, 생성된 지도를 단말(200)로 전송한다. As shown in FIG. 9, the mobile robot 1 generates and stores a map of an area and transmits the generated map to the terminal 200.

단말(200)은 이동 로봇(1)으로부터 수신되는 지도(맵)를 화면에 표시한다. 단말(200)의 사용자의 편의에 따라 사용자맵과 가이드맵을 선택적으로 표시할 수 있다. 또한, 단말은 필요에 따라 기초맵, 청소맵, 사용자맵, 가이드맵 중 어느 하나를 표시할 수 있다. The terminal 200 displays a map (map) received from the mobile robot 1 on the screen. The user map and the guide map may be selectively displayed according to the user's convenience of the terminal 200. In addition, the terminal may display any one of a base map, a cleaning map, a user map, and a guide map as necessary.

이동 로봇(1)은 청소맵 중 어느 하나를 사용하여 주행하며, 지정된 동작을 수행한다. 이동 로봇(1)은 기초맵을 바탕으로 동작하는 것 또한 가능하다. 사용자맵과 가이드맵은 기초맵과 청소맵에 매칭되므로, 사용자맵 또는 가이드맵을 바탕으로 청소명령이 입력되더라도 그에 따라 동작이 가능하다. The mobile robot 1 travels using any one of the cleaning maps and performs a designated operation. The mobile robot 1 can also operate based on the base map. Since the user map and the guide map match the base map and the cleaning map, even if a cleaning command is input based on the user map or the guide map, the operation can be performed accordingly.

단말(200)은 화면에 표시된 지도에서, 사용자 입력에 대응하여 어느 하나의 영역, 또는 하나의 지점이 선택된다(S320). The terminal 200 selects one region or one point from the map displayed on the screen in response to the user input (S320).

단말(200)은 선택된 영역이 실내영역인지 여부를 판단한다(S330). 즉 단말(200)은 선택된 영역이 실내영역으로, 기 탐색되어 실내 영역으로 구분되어진 탐색영역인지 여부를 판단한다. The terminal 200 determines whether the selected area is an indoor area (S330). That is, the terminal 200 determines whether the selected area is a search area that is previously searched and divided into an indoor area.

단말(200)은 선택된 영역이, 기 탐색된 실내영역 중 어느 하나인 경우, 예를 들어 제 1 영역(A1) 또는 제 2 영역(A2)인 경우, 사용자 입력에 대응하여 영역을 수정할지 여부를 판단한다(S370). When the selected area is one of the previously searched indoor areas, for example, the first area A1 or the second area A2, the terminal 200 determines whether to modify the area in response to a user input. It is determined (S370).

영역을 수정하는 경우, 단말(200)은 사용자 입력에 대응하여, 기 저장된 지도의 크기 또는 형태를 수정할 수 있다(S380). 예를 들어 제 2 영역이 선택된 후, 어느 하나의 변이 선택된 후 드래그 되면, 드래그되는 방향으로 영역을 확장하거나 축소할 수 있다. When the area is corrected, the terminal 200 may modify the size or shape of the pre-stored map in response to the user input (S380). For example, if one side is selected and then dragged after the second region is selected, the region may be expanded or reduced in the dragging direction.

단말(200)은 수정된 지도를 저장하고, 갱신된 지도를 화면에 표시한다(S390). 또한, 단말은 갱신된 지도를 이동 로봇(1)으로 전송한다.The terminal 200 stores the modified map and displays the updated map on the screen (S390). In addition, the terminal transmits the updated map to the mobile robot (1).

영역 수정이 아닌 경우, 사용자 입력에 대응하여 선택된 영역에 대한 청소명령을 설정할 수 있다(S400). If the area is not modified, a cleaning command for the selected area may be set in response to a user input (S400).

단말(200)은 청소명령을 이동 로봇(1)으로 전송하고, 이동 로봇(1)은 청소명령에 대응하여, 지도를 바탕으로 지정된 영역으로 이동하여 지정된 동작을 수행한다. The terminal 200 transmits a cleaning command to the mobile robot 1, and the mobile robot 1 moves to a designated area based on a map to perform a designated operation in response to the cleaning command.

한편, 단말(200)은 실내영역이 아닌 미탐색영역이 선택되는 경우, 이동 로봇으로 탐색명령을 전송할 수 있다. On the other hand, the terminal 200 may transmit a search command to the mobile robot when the non-search area is selected instead of the indoor area.

단말(200)은 기 저장된 지도를 바탕으로 선택 지점에 대한 위치정보를 산출하여 이동 로봇으로 전송한다. The terminal 200 calculates location information on the selected point based on the previously stored map and transmits the location information to the mobile robot.

이때, 단말(200)은 실내영역이 아닌 미탐색영역이 선택되었음을 알리는 안내메시지 또는 경고메시지를 출력할 수 있다. In this case, the terminal 200 may output a guide message or a warning message informing that the non-search area is selected instead of the indoor area.

단말(200)은 미탐색영역의 선택 지점에 대한 데이터를 이동 로봇으로 전송하고, 그에 대응하여 이동 로봇(1)은 선택 지점으로 이동한다(S340). The terminal 200 transmits data on the selection point of the unsearched area to the mobile robot, and the mobile robot 1 moves to the selection point in response to the movement (S340).

이동 로봇(1)은 선택 지점이, 미탐색영역에 위치하는 것을 판단하고, 인접한 영역으로 우선 이동한 후, 선택지점으로의 이동경로를 설정하여 이동할 수 있다. 이동 로봇(1)은 기 저장된 지도를 바탕으로 산출되는 선택 지점에 대한 상대적 위치를 바탕으로 경로를 설정한다. 이동 로봇(1)은 직선으로 주행하되, 장애물에 따라 경로를 변경하여 주행할 수 있다. The mobile robot 1 determines that the selection point is located in the unsearched area, first moves to an adjacent area, and then sets a movement path to the selection point to move. The mobile robot 1 sets a route based on a relative position with respect to a selection point calculated based on a previously stored map. The mobile robot 1 may travel in a straight line, but may change the path according to obstacles to travel.

또한, 이동 로봇(1)은 직선으로 주행하는 경우, 벽 등의 장애물이 위치하므로, 이를 회피하여 주행하며 선택지점으로 이동할 수 있는 경로를 탐색한다. In addition, when the mobile robot 1 travels in a straight line, obstacles such as walls are located, and thus, the mobile robot 1 travels by avoiding this and searches for a path that can move to a selection point.

앞서 설명한 도 4에서 제 3 영역에 대한 지도는 생성되지 않았으나, 제 3 영역은 제 1 영역과 문을 통해 연결되어 있으므로, 이동 로봇은 제 1 영역을 주행하면서 감지되는 장애물 정보를 바탕으로 제 3 영역과의 연결지점인 문을 감지할 수 있다. 이동 로봇(1)은 제 1 영역(A1)의 좌측 벽면을 따라 주행하면서 제 3 영역으로 진압할 수 있는 연결지점을 감지할 수 있다. In FIG. 4, the map of the third area is not generated, but since the third area is connected to the first area through the door, the mobile robot moves to the third area based on the obstacle information detected while driving the first area. Detect the door that is the connection point with The mobile robot 1 may detect a connection point capable of suppressing the third area while traveling along the left wall surface of the first area A1.

이동 로봇(1)은 감지수단, 즉 장애물 감지유닛(100), 영상획득부(170), 및 센서부(150)중 적어도 하나로부터 입력되는 장애물정보를 바탕으로 연결지점을 찾아 이동한다. The mobile robot 1 searches for a connection point based on obstacle information input from at least one of the sensing means, that is, the obstacle detecting unit 100, the image acquisition unit 170, and the sensor unit 150.

이동 로봇은 제 1 영역으로부터 제 3 영역으로 진입하는 지점에 대한 위치정보를 저장하여 연결지점으로 설정하고, 지도 생성 시, 연결지점을 기준으로 영역을 구분한다. The mobile robot stores location information on the point of entry from the first area to the third area, sets the connection point, and classifies the area based on the connection point when generating a map.

이동 로봇(1)은 제 1 영역을 벗어나, 선택지점이 위치한 새로운 영역, 즉 제 3 영역에 도달하면(S350), 새로운 영역을 주행하며 지도를 생성한다(S360). When the mobile robot 1 leaves the first area and reaches a new area in which the selection point is located, that is, the third area (S350), the mobile robot 1 travels the new area and generates a map (S360).

이동 로봇(1)은 새로운 영역인 제 3 영역에 대한 지도를, 기 저장된 지도에 추가하여 지도를 갱신한다. 기 저장된 지도에 포함된 장애물 정보, 영역에 대한 정보, 영역의 청소이력, 영역별 먼지량 정보 등의 데이터를 유지한 채, 연결지점을 기준으로 새로운 영역을 추가할 수 있다. The mobile robot 1 updates a map by adding a map for a third area, which is a new area, to a previously stored map. A new area can be added based on the connection point while maintaining data such as obstacle information, area information, area cleaning history, area dust information, etc. included in the previously stored map.

또한, 단말(200)은 사용자 입력에 대응하여, 어느 하나의 지점이 터치된 후, 미탐색영역으로 드래그되는 경우, 터치된 지점과 드래그되는 방향에 대응하는 위치정보를 산출하여 탐색명령을 이동 로봇으로 전송할 수 있다. In addition, in response to a user input, when a point is touched and then dragged to the non-search area, the terminal 200 calculates location information corresponding to the touched point and the dragging direction and moves the search command. Can be sent.

이동 로봇(1)은 탐색명령에 대응하여, 터치된 지점에 대응하는 위치로 이동한 후, 드래그된 방향에 대응하여 주행방향을 설정하여 미탐색영역으로 이동할 수 있다. 이동 로봇(1)은 터치된 지점에 대응하는 위치와, 드래그된 지점의 위치정보를 바탕으로 드래드된 방향을 바탕으로 주행방향을 설정할 수 있다. The mobile robot 1 may move to a location corresponding to the touched point in response to a search command, and then set a driving direction corresponding to the dragged direction to move to the unsearched area. The mobile robot 1 may set the driving direction based on the position corresponding to the touched point and the dragged direction based on the position information of the dragged point.

이동 로봇(1)은 지도의 영역(탐색영역)으로부터 미탐색영역으로 진입하는 경우, 미탐색영역에 대한 지도를 생성한다. When the mobile robot 1 enters the unsearched area from the map area (search area), the mobile robot 1 generates a map for the unsearched area.

이동 로봇(1)은 갱신된 지도를 단말(200)로 전송하고, 단말(200)은 수신되는 데이터를 바탕으로 기 저장된 지도를 갱신하고, 갱신된 지도를 화면에 표시한다(S390). The mobile robot 1 transmits the updated map to the terminal 200, the terminal 200 updates the previously stored map based on the received data, and displays the updated map on the screen (S390).

도 10 은 본 발명의 일실시예에 따른 이동 로봇의 주행 패턴에 따른 제어방법이 도시된 순서도이다. 10 is a flowchart illustrating a control method according to a traveling pattern of a mobile robot according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 단말(200)은 지도를 표시한다(S410)., As shown in FIG. 10, the terminal 200 displays a map (S410).

지도 중 어느 하나의 영역이 선택되면(S420), 선택된 영역에 대한 청소명령을 입력하거나, 또는 주행패턴을 등록할 수 있다(S430).When any one region of the map is selected (S420), a cleaning command for the selected region may be input or a driving pattern may be registered (S430).

또한, 별도의 메뉴를 통해 주행패턴을 등록할 수 있다. In addition, the driving pattern may be registered through a separate menu.

사용자 입력에 대응하여 주행패턴등록이 선택되면(S430), 단말(200)은 패턴입력화면을 표시한다(S440). If the driving pattern registration is selected in response to the user input (S430), the terminal 200 displays the pattern input screen (S440).

앞서 설명한 도 8과 같이, 선택 영역의 형태를 표시하고, 사용자 입력에 대응하는 패턴을 인식한다(S450). 단말(200)은 표시부가 터치 후 드래그되는 경우, 드래그되는 방향에 대하여 터치된 지점을 시작으로 드래그되는 방향 및 드래그가 종료되는 지점까지의 패턴을 인식한다. As described above with reference to FIG. 8, the shape of the selection area is displayed and a pattern corresponding to a user input is recognized (S450). When the display unit is touched and dragged, the terminal 200 recognizes a pattern from the touched point to the dragging direction and the pattern from which the dragging ends to the dragging direction.

또한, 단말은 지도를 바탕으로 터치 및 드래그되는 각 지점에 대한 위치정보를 산출할 수 있다.In addition, the terminal may calculate location information for each point touched and dragged based on the map.

단말(200)은 입력패턴을 분석하여 주행패턴을 생성한다(S460). The terminal 200 analyzes the input pattern and generates a driving pattern (S460).

단말(200)은 입력패턴을 분석하여 유사한 형태의 주행패턴이 존재하는지 여부를 검색할 수 있다. 필요에 따라 단말(200)은 서버에 접속하여 주행패턴데이터를 수신할 수 있다. The terminal 200 may analyze whether the driving pattern has a similar form by analyzing the input pattern. If necessary, the terminal 200 may access the server and receive the driving pattern data.

단말(200)은, 입력패턴을 지도에 매칭하여 각각 산출된 위치정보를 바탕으로, 이동 로봇이 주행할 수 있도록 주행패턴을 생성할 수 있다. 예를 들어 앞서 설명한 도 8의 (b)와 같이, 입력패턴을 영역에 매칭하여 지정된 경로에 따라 이동 로봇이 주행하도록 주행패턴을 생성한다. The terminal 200 may generate a driving pattern for the mobile robot to travel based on the location information calculated by matching the input pattern to the map. For example, as illustrated in FIG. 8B, the driving pattern is generated to match the input pattern to a region and to move the mobile robot according to a designated path.

또한, 단말(200)은 입력패턴을 분석하여, 해당 영역에 대한 규칙을 추출하여 주행패턴을 생성할 수 있다. 예를 들어 도 8의 (c)와 같이, 입력패턴을 분석하여 영역의 외곽으로부터 영역의 중앙으로 나선형으로 이동하도록 주행패턴을 생성할 수 있다. 이때. 이동 로봇이 원형으로 이동하는 것이 아니라, 영역의 외곽선을 형태를 따라 이동하도록 주행패턴을 생성할 수 있다. In addition, the terminal 200 may generate the driving pattern by analyzing the input pattern and extracting a rule for the corresponding area. For example, as illustrated in FIG. 8C, the driving pattern may be generated to spirally move from the outer edge of the area to the center of the area by analyzing the input pattern. At this time. Instead of moving the robot in a circular shape, the moving robot may generate a driving pattern to move the outline of the area along a shape.

단말(200)은 생성된 주행패턴을 새로운 주행패턴으로 저장하여, 청소명령 입력시 선택 가능하도록 주행패턴을 등록한다(S470). 생성된 주행패턴은 서버 등으로 통해 공유할 수 있다. The terminal 200 stores the generated driving pattern as a new driving pattern, and registers the driving pattern to be selectable when the cleaning command is input (S470). The generated driving pattern may be shared through a server or the like.

단말(200)은 등록된 주행패턴을 적용하여 청소명령을 이동 로봇으로 전송할 수 있다(S490). The terminal 200 may transmit a cleaning command to the mobile robot by applying the registered driving pattern (S490).

또한, 단말(200)은 청소할 영역에 대한 정보와 청소순서 등에 대한 정보를 바탕으로 청소를 설정한다(S480). 단말은 선택된 영역에 대한 주행패턴이 선택된 경우 주행패턴을 포함하여 선택된 영역에 대하여 청소를 설정할 수 있다. In addition, the terminal 200 sets cleaning on the basis of the information on the area to be cleaned and the information on the cleaning order (S480). When the driving pattern for the selected area is selected, the terminal may set cleaning for the selected area including the driving pattern.

단말(200)은 이동 로봇으로 청소명령을 전송할 수 있다(S490). The terminal 200 may transmit a cleaning command to the mobile robot (S490).

그에 따라 이동 로봇(1)은 지정된 영역에 대하여, 주행패턴에 따라 주행하면서 동작을 수행한다. Accordingly, the mobile robot 1 performs an operation while traveling according to the traveling pattern on the designated area.

그에 따라 본 발명은 새로운 영역에 대하여, 탐색을 통해 지도를 생성하되, 기 저장된 지도의 데이터를 유지하며, 새로운 지도를 추가하여 지도를 갱신할 수 있다. 본 발명은 미탐색영역이 선택되거나, 주행 중, 새로운 영역에 진입하는 경우, 기 저장된 지도와의 연결지점을 바탕으로 새로운 영역에 대한 지도를 추가할 수 있다. Accordingly, the present invention can generate a map through a search for a new area, maintain data of a previously stored map, and update the map by adding a new map. According to the present invention, when an unsearched area is selected or when a new area is entered while driving, a map of a new area may be added based on a connection point with a previously stored map.

본 발명은 단말을 통해 사용자 입력에 대응하여 유사한 형태의 주행패턴을 적용하여 이동 로봇이 주행하도록 할 수 있다. 또한, 본 발명은 단말을 통해 입력된 입력패턴을 분석하여 특정 형태의 주행패턴을 등록하고, 그에 따라 이동 로봇이 영역 내에서 지정된 주행패턴에 따라 주행할 수 있다. The present invention may allow a mobile robot to travel by applying a similar driving pattern in response to a user input through a terminal. In addition, the present invention analyzes the input pattern input through the terminal to register a specific type of driving pattern, and thus the mobile robot can travel according to the specified driving pattern in the area.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and changes without departing from the essential characteristics of the present invention.

1: 이동 로봇 10: 본체
100: 장애물 감지유닛 110: 제어부
111: 장애물인식부 113: 주행제어부
120, 130: 패턴조사부 140: 패턴 획득부
150: 센서부 170: 영상획득부
180: 데이터부
250: 주행부 260: 청소부
1: mobile robot 10: main body
100: obstacle detection unit 110: control unit
111: obstacle recognition unit 113: driving control unit
120, 130: pattern irradiation unit 140: pattern acquisition unit
150: sensor unit 170: image acquisition unit
180: data part
250: traveling part 260: cleaning part

Claims (22)

영역을 주행하는 본체;
주행중 장애물을 감지하는 감지수단;
상기 본체를 이동시키는 주행부;
상기 본체의 주행을 제어하고, 상기 감지수단을 통해 감지되는 장애물정보에 대응하여 상기 영역에 대한 지도를 생성하고, 상기 지도 내의 각 영역을 주행하며 청소를 수행하도록 상기 주행부를 제어하는 제어부; 및
상기 지도를 단말로 전송하는 통신부;를 포함하고,
상기 제어부는, 사용자 입력에 대응하여 어느 하나의 영역이 선택되면,
상기 영역이 상기 지도의 탐색영역인 경우, 상기 영역에 설정된 주행패턴에 따라 상기 영역을 주행하며 지정된 동작을 수행하고,
상기 영역이 미탐색영역인 경우, 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하여 기 생성된 상기 지도에 추가하는 것을 특징으로 하는 이동 로봇.
A main body traveling the area;
Sensing means for detecting an obstacle while driving;
A driving unit which moves the main body;
A controller configured to control driving of the main body, to generate a map of the area in response to the obstacle information detected by the sensing means, to drive the respective areas of the map and to perform cleaning; And
Includes; Communication unit for transmitting the map to the terminal,
The controller, if any one region is selected in response to a user input,
When the area is a search area of the map, the area is driven in accordance with a driving pattern set in the area, and a specified operation is performed.
If the area is the unsearched area, the mobile robot driving the unsearched area and generating a map for the unsearched area and adding it to the previously generated map.
제 1 항에 있어서,
상기 제어부는 상기 미탐색영역 중 상기 사용자 입력에 대응하는 어느 한 지점을 목표로 상기 본체가 이동하여 상기 미탐색영역으로 진입하도록 상기 주행부를 제어하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
And the controller controls the driving unit to move the main body to enter the unsearched area by targeting a point corresponding to the user input among the unsearched areas.
제 1 항에 있어서,
상기 제어부는 상기 지도의 탐색영역 중 상기 미탐색영역에 인접한 어느 한 영역으로 이동한 후, 상기 미탐색영역으로 이동하도록 하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The controller moves to any one of the search areas of the map adjacent to the unsearched area, and then moves to the unsearched area.
제 1 항에 있어서,
상기 제어부는 상기 사용자 입력에 의해 터치 후 드래그된 방향 대응하여, 상기 미탐색영역에 대한 주행경로를 설정하여 상기 미탐색영역으로 이동하도록 상기 주행부를 제어하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
And the controller controls the driving unit to move to the unsearched area by setting a driving path for the unsearched area in response to a direction dragged after being touched by the user input.
제 1 항에 있어서,
상기 제어부는 상기 탐색영역을 이탈하여 상기 미탐색영역을 진입하는 시점을 기준으로 상기 미탐색영역에서 감지되는 장애물 정보를 바탕으로 상기 미탐색영역에 대한 지도를 생성하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The controller generates a map for the unsearched area based on obstacle information detected in the unsearched area on the basis of the time point at which the search area enters the unsearched area after leaving the search area.
제 1 항에 있어서,
상기 제어부는 상기 미탐색영역에서의 주행거리에 따라 단계적으로 상기 지도를 갱신하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The control unit is a mobile robot, characterized in that for updating the map in stages according to the mileage in the non-search area.
제 1 항에 있어서,
상기 제어부는 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하고, 상기 탐색영역과 상기 미탐색영역의 연결지점을 매칭하여 상기 지도에 상기 미탐색영역에 대한 지도를 추가하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The controller generates a map for the unsearched area while driving the unsearched area, and adds a map for the unsearched area to the map by matching a connection point between the searched area and the unsearched area. Mobile robot.
제 1 항에 있어서,
상기 제어부는 상기 미탐색영역에 대한 지도가 추가된 갱신된 지도를 상기 통신부를 통해 단말로 전송하고,
상기 단말로부터 상기 사용자 입력을 수신하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The control unit transmits the updated map to which the map for the non-search area is added to the terminal through the communication unit,
Mobile robot, characterized in that for receiving the user input from the terminal.
제 1 항에 있어서,
상기 제어부는 단말에 의해 설정된 상기 주행패턴을 바탕으로 상기 영역을 청소하거나 또는 감시하는 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The control unit is a mobile robot, characterized in that for cleaning or monitoring the area based on the driving pattern set by the terminal.
제 9 항에 있어서,
상기 단말은, 사용자 입력에 대응하여, 터치 후 드래그되는 방향에 따라, 터치된 지점으로부터 드래그가 종료된 지점까지의 위치에 대응하여 상기 주행패턴을 설정하는 것을 특징으로 하는 이동 로봇.
The method of claim 9,
And the terminal sets the driving pattern corresponding to a position from the touched point to the point at which the drag ends, in response to the user input and dragging after the touch.
제 9 항에 있어서,
상기 단말은 상기 단말은, 사용자 입력에 대응하여, 터치 후 드래그되는 방향에 따라, 터치된 지점으로부터 드래그가 종료된 지점까지의 위치변화를 분석하고, 기 저장된 패턴데이터로부터 유사한 패턴을 검색하여 상기 주행패턴을 설정하는 것을 특징으로 하는 이동 로봇.
The method of claim 9,
The terminal, in response to a user input, analyzes the positional change from the touched point to the end point of the drag according to the dragging direction after the touch, searches for a similar pattern from pre-stored pattern data, and drives the driving. A mobile robot characterized by setting a pattern.
본체가 적어도 하나의 영역을 주행하며 지도를 생성하는 단계;
사용자 입력에 대응하여 어느 하나의 영역이 선택되는 단계;
상기 영역이 상기 지도의 탐색영역 중 하나인 경우, 상기 영역에 설정된 주행패턴에 따라 상기 영역을 주행하며 지정된 동작을 수행하는 단계;
상기 영역이 미탐색영역인 경우, 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하는 단계; 및
기 생성된 상기 지도에 상기 미탐색영역에 대한 지도를 추가하는 단계를 포함하는 이동 로봇의 제어방법.
Generating a map while the body travels at least one area;
Selecting one area in response to a user input;
If the area is one of the search areas of the map, driving the area according to a driving pattern set in the area and performing a designated operation;
If the area is the unsearched area, driving the unsearched area and generating a map for the unsearched area; And
And adding a map for the unsearched area to the generated map.
제 12 항에 있어서,
상기 영역이 미탐색영역인 경우, 상기 미탐색영역 중 상기 사용자 입력에 대응하는 어느 한 지점을 목표로 상기 본체가 이동하여 상기 미탐색영역으로 진입하는 단계;를 더 포함하는 이동 로봇의 제어방법.
The method of claim 12,
And moving the main body to the unsearched area by moving to a target point corresponding to the user input among the unsearched areas when the area is the unsearched area.
제 13 항에 있어서,
상기 탐색영역 중 상기 미탐색영역에 인접한 어느 한 영역으로 이동한 후, 상기 미탐색영역으로 이동하는 단계를 더 포함하는 이동 로봇의 제어방법.
The method of claim 13,
And moving to one of the search areas adjacent to the unsearched area and then moving to the unsearched area.
제 12 항에 있어서,
상기 사용자 입력에 의해 터치 후 드래그된 방향 대응하여, 상기 미탐색영역에 대한 주행경로를 설정하여 상기 미탐색영역으로 진입하는 단계를 더 포함하는 이동 로봇의 제어방법.
The method of claim 12,
And setting a driving path for the unsearched area to enter the unsearched area in response to a direction dragged after being touched by the user input.
제 12 항에 있어서,
상기 탐색영역을 이탈하여 상기 미탐색영역에 진입하면, 상기 미탐색영역에서 감지되는 장애물 정보를 바탕으로 상기 미탐색영역에 대한 지도를 생성하는 것을 특징으로 하는 이동 로봇의 제어방법.
The method of claim 12,
And moving away from the search area and entering the unsearched area, generating a map for the unsearched area based on obstacle information detected by the unsearched area.
제 12 항에 있어서,
상기 미탐색영역에서의 주행거리에 따라 단계적으로 상기 지도를 갱신하는 단계를 더 포함하는 이동 로봇의 제어방법.
The method of claim 12,
And updating the map step by step according to the mileage in the unsearched area.
제 12 항에 있어서,
상기 탐색영역과 상기 미탐색영역의 연결지점을 매칭하여 상기 지도에 상기 미탐색영역에 대한 지도를 추가하는 것을 특징으로 하는 이동 로봇의 제어방법.
The method of claim 12,
And a map of the unsearched area is added to the map by matching a connection point between the searched area and the unsearched area.
제 12 항에 있어서,
상기 미탐색영역에 대한 지도가 추가된 상기 지도를 단말로 전송하는 단계; 및
상기 단말이, 상기 지도를 수신하여 화면에 표시하는 단계;를 더 포함하는 이동 로봇의 제어방법.
The method of claim 12,
Transmitting the map to which a map for the non-search area is added to a terminal; And
And receiving, by the terminal, the map and displaying the map on a screen.
제 12 항에 있어서,
사용자 입력에 대응하여 상기 영역에 대한 패턴이 입력되는 단계; 및
상기 패턴의 특징을 분석하여 상기 주행패턴을 설정하는 단계;를 더 포함하는 이동 로봇의 제어방법.
The method of claim 12,
Inputting a pattern for the area in response to a user input; And
And analyzing the characteristics of the pattern to set the driving pattern.
제 12 항에 있어서,
사용자 입력에 대응하여 상기 영역에 대한 패턴이 입력되는 단계; 및
상기 패턴의 특징을 분석하여 기 저장된 패턴데이터로부터 유사한 패턴을 검색하여 상기 주행패턴을 설정하는 단계;를 더 포함하는 이동 로봇의 제어방법.
The method of claim 12,
Inputting a pattern for the area in response to a user input; And
And analyzing the characteristics of the pattern and searching for a similar pattern from previously stored pattern data to set the driving pattern.
제 20 항 또는 제 21 항에 있어서,
상기 사용자 입력에 대응하여, 터치 후 드래그되는 방향에 대응하여, 터치 시작지점으로부터 드래그가 종료된 지점까지의 위치를 저장하는 단계;를 더 포함하는 이동 로봇의 제어방법.


The method of claim 20 or 21,
And storing the position from the touch start point to the point where the drag ends in response to the dragging direction after the touch, in response to the user input.


KR1020180039728A 2018-04-05 2018-04-05 Moving Robot and controlling method KR20190119234A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180039728A KR20190119234A (en) 2018-04-05 2018-04-05 Moving Robot and controlling method
KR1020200101049A KR102500529B1 (en) 2018-04-05 2020-08-12 Moving Robot and controlling method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180039728A KR20190119234A (en) 2018-04-05 2018-04-05 Moving Robot and controlling method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200101049A Division KR102500529B1 (en) 2018-04-05 2020-08-12 Moving Robot and controlling method

Publications (1)

Publication Number Publication Date
KR20190119234A true KR20190119234A (en) 2019-10-22

Family

ID=68420034

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180039728A KR20190119234A (en) 2018-04-05 2018-04-05 Moving Robot and controlling method

Country Status (1)

Country Link
KR (1) KR20190119234A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210106115A (en) 2020-02-20 2021-08-30 한화디펜스 주식회사 Moving search device
WO2021206607A1 (en) * 2020-04-07 2021-10-14 Husqvarna Ab Robotic working tool system and method
WO2022005039A1 (en) * 2020-07-01 2022-01-06 엘지전자 주식회사 Robot cleaner, system for controlling robot cleaner, and method for controlling robot cleaner
WO2022119114A1 (en) * 2020-12-03 2022-06-09 삼성전자주식회사 Robot and method for generating map thereby

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210106115A (en) 2020-02-20 2021-08-30 한화디펜스 주식회사 Moving search device
WO2021206607A1 (en) * 2020-04-07 2021-10-14 Husqvarna Ab Robotic working tool system and method
WO2022005039A1 (en) * 2020-07-01 2022-01-06 엘지전자 주식회사 Robot cleaner, system for controlling robot cleaner, and method for controlling robot cleaner
WO2022119114A1 (en) * 2020-12-03 2022-06-09 삼성전자주식회사 Robot and method for generating map thereby

Similar Documents

Publication Publication Date Title
CN111479662B (en) Artificial intelligent mobile robot for learning obstacle and control method thereof
KR102024092B1 (en) Moving Robot and controlling method
EP3590665B1 (en) Mobile robot and control method therefor
KR102348041B1 (en) Control method of robot system including a plurality of moving robots
KR102235271B1 (en) Moving Robot and controlling method
KR102070067B1 (en) Artificial intelligence Moving Robot and controlling method
US11226633B2 (en) Mobile robot and method of controlling the same
KR102032285B1 (en) Moving Robot and controlling method
KR102275300B1 (en) Moving robot and control method thereof
KR20180082264A (en) Moving Robot and controlling method
KR20190007284A (en) Moving Robot and controlling method
KR20190119234A (en) Moving Robot and controlling method
KR20190103511A (en) Moving Robot and controlling method
KR102330607B1 (en) Artificial intelligence Moving Robot and controlling method
KR102070210B1 (en) Moving robot
US20230091839A1 (en) Moving robot and control method thereof
US20220280007A1 (en) Mobile robot and method of controlling the same
US20220257075A1 (en) Moving robot and method of controlling the same
KR102500529B1 (en) Moving Robot and controlling method
US20210026364A1 (en) Mobile robot and controlling method thereof
KR102300790B1 (en) Moving Robot and controlling method
KR102669126B1 (en) Moving Robot and controlling method for thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
E601 Decision to refuse application
E801 Decision on dismissal of amendment
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2020101002010; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20200812

Effective date: 20210803

E902 Notification of reason for refusal
S601 Decision to reject again after remand of revocation