KR102500529B1 - Moving Robot and controlling method - Google Patents

Moving Robot and controlling method Download PDF

Info

Publication number
KR102500529B1
KR102500529B1 KR1020200101049A KR20200101049A KR102500529B1 KR 102500529 B1 KR102500529 B1 KR 102500529B1 KR 1020200101049 A KR1020200101049 A KR 1020200101049A KR 20200101049 A KR20200101049 A KR 20200101049A KR 102500529 B1 KR102500529 B1 KR 102500529B1
Authority
KR
South Korea
Prior art keywords
area
map
mobile robot
driving
unexplored
Prior art date
Application number
KR1020200101049A
Other languages
Korean (ko)
Other versions
KR20200100019A (en
Inventor
김지웅
천선희
홍민우
조한민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180039728A external-priority patent/KR20190119234A/en
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020200101049A priority Critical patent/KR102500529B1/en
Publication of KR20200100019A publication Critical patent/KR20200100019A/en
Application granted granted Critical
Publication of KR102500529B1 publication Critical patent/KR102500529B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/648Performing a task within a working area or space, e.g. cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/222Remote-control arrangements operated by humans
    • G05D1/224Output arrangements on the remote controller, e.g. displays, haptics or speakers
    • G05D1/2244Optic
    • G05D1/2245Optic providing the operator with a purely computer-generated representation of the environment of the vehicle, e.g. virtual reality
    • G05D1/2246Optic providing the operator with a purely computer-generated representation of the environment of the vehicle, e.g. virtual reality displaying a map of the environment
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2105/00Specific applications of the controlled vehicles
    • G05D2105/10Specific applications of the controlled vehicles for cleaning, vacuuming or polishing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2107/00Specific environments of the controlled vehicles
    • G05D2107/40Indoor domestic environment
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/10Land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명의 이동 로봇 및 그 제어방법은 영역을 주행하며 감지되는 장애물 정보에 대응하여 상기 영역에 대한 지도를 생성하는 이동 로봇 및 상기 이동 로봇으로부터 수신된 상기 지도를 화면에 출력하고, 상기 지도로부터 선택영역에 대한 청소명령을 상기 이동 로봇으로 전송하는 단말을 포함하고, 상기 이동 로봇은 상기 단말에 의해 상기 지도로부터 미탐색영역이 선택되면, 상기 미탐색영역으로 이동하여 상기 미탐색영역에 대한 지도를 생성하여 기 저장된 상기 지도를 갱신함으로써, 기존의 지도에 새로운 영역에 대한 지도를 추가함으로써, 영역 구분 및 각 영역에 대한 청소데이터를 유지하면서 갱신된 지도를 사용할 수 있고, 이동 로봇의 주행패턴을 설정하여 형태가 상이한 각 영역에 대응하는 주행 패턴으로 이동 로봇을 제어할 수 있다. A mobile robot and a control method thereof according to the present invention are a mobile robot generating a map of an area in response to obstacle information detected while driving in an area, and displaying the map received from the mobile robot on a screen and selecting from the map. and a terminal that transmits a cleaning command for an area to the mobile robot, and when an unexplored area is selected from the map by the terminal, the mobile robot moves to the unexplored area and creates a map for the unexplored area. By updating the generated and pre-stored map, by adding a map for a new area to the existing map, the updated map can be used while maintaining the area classification and cleaning data for each area, and the driving pattern of the mobile robot is set. Thus, the mobile robot can be controlled with a driving pattern corresponding to each area having a different shape.

Description

이동 로봇 및 그 제어방법{Moving Robot and controlling method}Mobile robot and its control method {Moving Robot and controlling method}

본 발명은 이동 로봇 및 그 제어방법에 관한 것으로, 청소영역을 주행하는 이동 로봇 및 그 제어방법에 관한 것이다. The present invention relates to a mobile robot and a control method thereof, and more particularly, to a mobile robot traveling in a cleaning area and a control method thereof.

일반적으로 이동 로봇은 사용자의 조작 없이도 청소하고자 하는 구역 내를 스스로 주행하면서 바닥면으로부터 먼지 등의 이물질을 흡입하여 자동으로 청소하는 기기이다.In general, a mobile robot is a device that automatically cleans by sucking foreign substances such as dust from the floor while traveling on its own in an area to be cleaned without a user's manipulation.

이동 로봇은 청소구역 내에 설치된 가구나 사무용품, 벽 등의 장애물까지의 거리를 감지하고, 장애물 회피 동작을 수행한다. 이동 로봇은, 장애물을 감지하기 위한 수단을 구비하여 소정 거리 내의 장애물을 감지하여 장애물을 회피할 수 있다. The mobile robot detects the distance to obstacles such as furniture, office supplies, and walls installed in the cleaning area, and performs an obstacle avoidance operation. The mobile robot may include a means for detecting an obstacle to detect an obstacle within a predetermined distance and avoid the obstacle.

이동 로봇은 영역을 주행하면서 지도를 생성하고, 생성된 지도를 바탕으로 청소를 수행한다. 소정 영역을 청소하도록 지정되는 경우, 지도를 바탕으로 해당 영역으로 이동하여 청소를 수행할 수 있다. The mobile robot creates a map while driving in the area, and performs cleaning based on the generated map. When a predetermined area is designated to be cleaned, cleaning may be performed by moving to the corresponding area based on a map.

이동 로봇은, 지도를 바탕으로 주행하되, 지도에 없는 영역에 도달하는 경우, 미탐색영역으로 판단하여 그에 대한 지도를 생성할 수 있다. The mobile robot drives based on the map, but when it reaches an area not on the map, it can determine it as an unexplored area and create a map for it.

그러나 종래의 이동 로봇은, 미탐색영역에 대한 지도를 생성하는 경우, 기 저장된 지도를 삭제하고, 미탐색영역을 포함하여 새로운 지도를 생성하게 된다. 새로운 영역은 물론 기존의 영역을 포함한 전체 영역을 주행하면서 새로운 지도를 생성한다. However, when creating a map for an unexplored area, a conventional mobile robot deletes a previously stored map and creates a new map including the unexplored area. A new map is created while driving the entire area including the new area as well as the existing area.

이와 같이 새로운 지도를 생성하는 경우, 기존의 영역을 불필요하여 다시 탐색하게 되고, 영역을 새롭게 구분해야하는 문제점이 있다. When a new map is created in this way, there is a problem in that the existing area is searched again because it is unnecessary, and the area must be newly distinguished.

또한, 기존에 청소를 수행했던 영역에 대한 정보, 예를 들어 영역의 구분은 물론, 영역별 청소 횟수, 영역에 위치하는 장애물에 대한 정보가 삭제되거나, 더 이상 사용할 수 없게 된다. In addition, information about areas previously cleaned, such as classification of areas, the number of times of cleaning for each area, and information about obstacles located in the area, are deleted or are no longer available.

또한, 대한민국 공개특허 10-2009-0019459에는 개별 영역에서 각각 지도를 생성하고, 분할된 영역 간의 공통된 특징점을 추출하여 상호 매칭함으로써 개별 영역에 대한 지도를 결합하여 전체영역에 대한 지도를 생성하는 것을 설명하고 있다. 그러나 전체영역의 지도를 생성하기 위해 각각의 영역에 대한 지도를 생성하여 결합하는 방식을 취하는 것으로 생성된 지도를 활용하거나, 기 생성된 지도에 새로운 지도를 추가하는 것에 대해서는 고려하고 있지 않다. In addition, Korean Patent Laid-open Publication No. 10-2009-0019459 describes generating a map for the entire area by combining maps for individual areas by generating maps in individual areas, extracting common feature points between divided areas and matching them with each other. are doing However, in order to create a map of the entire area, maps for each area are created and combined, and it is not considered whether to use the created map or add a new map to the already created map.

본 발명이 해결하고자 하는 과제는, 생성된 지도를, 이동 로봇의 주행환경에 따라 지도를 갱신하여 새로운 영역을 추가하고, 지도를 이용하여 청소를 지시하는 이동 로봇 및 그 제어방법을 제공하는 것이다.An object to be solved by the present invention is to provide a mobile robot and a control method for adding a new area by updating the generated map according to the driving environment of the mobile robot and instructing cleaning using the map.

본 발명의 이동 로봇은, 영역을 주행하는 본체, 주행중 장애물을 감지하는 감지수단, 상기 본체의 주행을 제어하고, 상기 감지수단을 통해 감지되는 장애물정보에 대응하여 상기 영역에 대한 지도를 생성하고, 상기 지도 내의 각 영역을 주행하며 청소를 수행하도록 상기 주행부를 제어하는 제어부 및 상기 지도를 단말로 전송하는 통신부를 포함하고, 상기 제어부는, 사용자 입력에 대응하여 어느 하나의 영역이 선택되면, 상기 영역이 상기 지도의 탐색영역인 경우, 상기 영역에 설정된 주행패턴에 따라 상기 영역을 주행하며 지정된 동작을 수행하고, 상기 영역이 미탐색영역인 경우, 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하여 기 생성된 상기 지도에 추가하는 것을 특징으로 한다. The mobile robot of the present invention controls a main body traveling in an area, a sensing means for detecting an obstacle while driving, and controlling the driving of the main body, and generates a map for the area in response to obstacle information detected through the sensing means, A controller configured to control the driving unit to perform cleaning while traveling in each area within the map, and a communication unit configured to transmit the map to a terminal, wherein the control unit, when one area is selected in response to a user input, the area If this is the search area of the map, it drives in the area according to the driving pattern set in the area and performs a designated operation. If the area is an unexplored area, it drives in the unexplored area It is characterized in that a map is created and added to the previously created map.

상기 제어부는 상기 미탐색영역 중 상기 사용자 입력에 대응하는 어느 한 지점을 목표로 상기 본체가 이동하여 상기 미탐색영역으로 진입하도록 상기 주행부를 제어하는 것을 특징으로 한다. The controller may control the driving unit to move the main body to enter the unexplored area targeting a point corresponding to the user input among the unexplored areas.

상기 제어부는 상기 지도의 탐색영역 중 상기 미탐색영역에 인접한 어느 한 영역으로 이동한 후, 상기 미탐색영역으로 이동하도록 하는 것을 특징으로 한다. The control unit is characterized in that after moving to an area adjacent to the undiscovered area among the search areas of the map, the controller moves to the undiscovered area.

상기 제어부는 상기 사용자 입력에 의해 터치 후 드래그된 방향 대응하여, 상기 미탐색영역으로의 주행경로를 설정하여 상기 미탐색영역으로 이동하도록 상기 주행부를 제어하는 것을 특징으로 한다. The control unit may control the driving unit to set a driving route to the unexplored area and move to the unexplored area in response to the dragged direction after being touched by the user input.

상기 제어부는 상기 미탐색영역에 대한 지도가 추가된 갱신된 지도를 상기 통신부를 통해 단말로 전송하고, 상기 단말로부터 상기 사용자 입력을 수신하는 것을 특징으로 한다. The control unit may transmit an updated map to which the map for the unexplored area is added to a terminal through the communication unit, and receive the user input from the terminal.

또한, 본 발명은, 영역을 주행하는 본체, 주행중 장애물을 감지하는 감지수단, 상기 본체의 주행을 제어하고, 상기 감지수단을 통해 감지되는 장애물정보에 대응하여 상기 영역에 대한 지도를 생성하는 제어부, 상기 지도를 단말로 전송하는 통신부를 포함하고, 상기 제어부는 상기 단말로부터 상기 지도에 포함되지 않는 미탐색영역에 대한 주행명령이 수신되면, 상기 미탐색영역으로 이동하여 상기 미탐색영역에 대한 지도를 생성하여 상기 지도에 추가하는 것을 특징으로 한다. In addition, the present invention includes a main body traveling in an area, sensing means for detecting obstacles during driving, a control unit for controlling driving of the main body and generating a map for the area in response to obstacle information detected through the sensing means, and a communication unit transmitting the map to a terminal, wherein the control unit moves to the unexplored area and, when a driving command for an unexplored area not included in the map is received from the terminal, displays a map for the unexplored area. Characterized in that it is created and added to the map.

상기 단말은 사용자 입력에 대응하여 상기 이동 로봇에 대한 주행패턴을 설정하고, 상기 주행패턴이 적용된 청소명령을 상기 이동 로봇으로 전송하는 것을 특징으로 한다. The terminal may set a driving pattern for the mobile robot in response to a user input, and transmit a cleaning command to which the driving pattern is applied to the mobile robot.

본 발명의 이동 로봇의 제어방법은, 적어도 하나의 영역을 주행하며 지도를 생성하는 단계, 사용자 입력에 대응하여 어느 하나의 영역이 선택되는 단계, 상기 영역이 상기 지도의 탐색영역 중 하나인 경우, 상기 영역에 설정된 주행패턴에 따라 상기 영역을 주행하며 지정된 동작을 수행하는 단계, 상기 영역이 미탐색영역인 경우, 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하는 단계, 및 기 생성된 상기 지도에 상기 미탐색영역에 대한 지도를 추가하는 단계를 포함한다. The method for controlling a mobile robot of the present invention includes generating a map while driving in at least one area, selecting one area in response to a user input, when the area is one of the search areas of the map, Driving in the area and performing a designated operation according to a driving pattern set in the area, driving in the unexplored area if the area is an unexplored area, generating a map for the unexplored area, and and adding a map of the unexplored area to the generated map.

본 발명의 이동 로봇의 제어방법은, 이동 로봇으로부터 수신된 지도가 단말에 표시되는 단계, 상기 지도 중 미탐색영역이 선택되는 단계, 상기 단말이, 상기 미탐색영역으로의 주행명령을 상기 이동 로봇으로 전송하는 단계, 상기 주행명령에 대응하여, 상기 이동 로봇이 상기 미탐색영역으로 이동하는 단계, 상기 지도의 영역을 이탈하여 상기 미탐색영역에 진입하면, 상기 미탐색영역에 대한 지도를 생성하는 단계, 및 상기 지도에 상기 미탐색영역에 대한 지도를 추가하여 상기 지도를 갱신하는 단계를 포함한다. The method for controlling a mobile robot of the present invention includes displaying a map received from the mobile robot on a terminal, selecting an unexplored area from the map, and sending a driving command to the unexplored area by the terminal to the mobile robot. Transmitting to, in response to the driving command, moving the mobile robot to the unexplored area, generating a map for the unexplored area when leaving the area of the map and entering the unexplored area and updating the map by adding a map of the unexplored area to the map.

상기 단말이, 사용자 입력에 대응하여 상기 이동 로봇에 대한 주행패턴을 설정하는 단계 및 상기 주행패턴을 포함하여 상기 청소명령을 전송하는 것을 특징으로 한다. The terminal may set a driving pattern for the mobile robot in response to a user input and transmit the cleaning command including the driving pattern.

본 발명은, 영역을 주행하며 감지되는 장애물 정보에 대응하여 상기 영역에 대한 지도를 생성하는 이동 로봇 및 상기 이동 로봇으로부터 수신된 상기 지도를 화면에 출력하고, 상기 지도로부터 선택된 영역에 대한 청소명령을 상기 이동 로봇으로 전송하는 단말을 포함하고, 상기 이동 로봇은 상기 단말에 의해 상기 지도 중 미탐색영역이 선택되면, 상기 미탐색영역으로 이동하여 상기 미탐색영역에 대한 지도를 생성하여 기 저장된 상기 지도를 갱신하는 것을 특징으로 한다. The present invention provides a mobile robot that generates a map of the region in response to obstacle information detected while driving in an area, outputs the map received from the mobile robot to a screen, and issues a cleaning command for an area selected from the map. and a terminal that transmits information to the mobile robot, and when an unexplored area is selected from the map by the terminal, the mobile robot moves to the unexplored area, creates a map for the unexplored area, and generates a map for the previously stored map. It is characterized by updating.

상기 이동 로봇은, 주행 중, 새로운 영역에 진입하는 경우 새로운 영역으로 인식하여 새로운 영역에 대한 지도를 생성하는 것을 특징으로 한다. When the mobile robot enters a new area while driving, it recognizes the new area as a new area and creates a map for the new area.

상기 이동 로봇은 단말로부터 미탐색영역으로의 주행에 대한 제어명령이 수신되면, 미탐색영역으로 이동하여 미탐색영역에 대한 지도를 생성하는 것을 특징으로 한다. The mobile robot is characterized in that, when a control command for driving into the unexplored area is received from the terminal, it moves to the unexplored area and creates a map of the unexplored area.

상기 이동 로봇은 기 저장된 지도의 영역을 이탈하여 미탐색영역에 진입하는 시점을 기준으로 미탐색영역에 대한 지도를 점진적으로 추가하여 기 저장된 지도를 갱신하는 것을 특징으로 한다. The mobile robot is characterized in that it updates the previously stored map by gradually adding maps for the unexplored area based on the point of time when it leaves the area of the previously stored map and enters the unexplored area.

상기 이동 로봇은, 미탐색영역으로의 주행에 대한 제어명령이 수신되면, 미탐색영역에 인접한 영역으로 이동한 후, 감지되는 장애물 정보를 바탕으로 미탐색영역으로의 이동경로를 설정하는 것을 특징으로 한다. When a control command for driving into the unexplored area is received, the mobile robot moves to an area adjacent to the unexplored area, and then sets a movement path to the unexplored area based on detected obstacle information. do.

상기 단말은 사용자입력에 대응하여, 지도에 지정되지 않은 미탐색영역이 선택되는 경우 선택된 지점으로 이동하여 미탐색영역을 탐색하도록 이동 로봇으로 제어명령을 전송하고, 기 저장된 지도를 바탕으로 선택된 지점의 상대적 위치를 산출하여 이동 로봇으로 전송하는 것을 특징으로 한다. In response to a user input, when an unexplored area not designated on the map is selected, the terminal transmits a control command to the mobile robot to move to the selected point and search the unexplored area, and determines the location of the selected point based on a previously stored map. Characterized in that the relative position is calculated and transmitted to the mobile robot.

상기 단말은, 복수의 영역 중 선택된 영역을 화면에 표시하고, 상기 단말은, 패턴설정화면을 표시하고, 사용자 입력에 대응하여 입력패턴을 분석하여 이동 로봇에 대한 주행패턴을 설정하는 것을 특징으로 한다.The terminal displays a selected area among a plurality of areas on a screen, the terminal displays a pattern setting screen, analyzes an input pattern in response to a user input, and sets a driving pattern for the mobile robot. .

본 발명의 이동 로봇 및 그 제어방법은 영역을 주행하면서 생성된 지도를 바탕으로 영역을 구분하여 청소를 수행하고, 생성된 지도를 단말로 전송함으로써, 지도를 바탕으로 이동 로봇의 동작을 제어할 수 있다. The mobile robot and its control method according to the present invention can control the operation of the mobile robot based on the map by dividing and cleaning the area based on the map generated while driving in the area, and transmitting the generated map to a terminal. there is.

본 발명은 이동 로봇이 새로운 영역에 도달하면, 새로운 영역을 탐색하여 지도를 생성하고, 기존의 지도에 새로운 영역에 대한 지도를 추가함으로써, 영역 구분 및 각 영역에 대한 청소데이터를 유지하면서 갱신된 지도를 사용할 수 있다. According to the present invention, when a mobile robot reaches a new area, a map is generated by searching for the new area, and a map for the new area is added to the existing map, thereby dividing the area and maintaining the cleaning data for each area and updating the map. can be used.

본 발명은 이동 로봇의 주행 패턴을 새로이 등록할 수 있고, 그에 따라 형태가 상이한 각 영역에 대응하는 주행 패턴으로 이동 로봇이 주행할 수 있다. According to the present invention, a driving pattern of the mobile robot can be newly registered, and accordingly, the mobile robot can travel with a driving pattern corresponding to each area having a different shape.

본 발명은 단말을 통해 이동 로봇의 청소 및 주행 상황을 모니터링 할 수 있고, 사용자의 입력에 따라 이동 로봇에 대한 설정을 변경할 수 있다. According to the present invention, cleaning and driving conditions of the mobile robot can be monitored through a terminal, and settings for the mobile robot can be changed according to a user's input.

도 1 은 본 발명의 일 실시예에 따른 이동 로봇의 사시도이다.
도 2 는 도 1의 이동 로봇과 통신하는 단말이 도시된 도이다.
도 3 은 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.
도 4 는 본 발명의 일 실시예에 따른 이동 로봇의 지도를 설명하는데 참조되는 도이다.
도 5 는 본 발명의 일 실시예에 따른 이동 로봇의 미탐색영역에 대한 탐색 동작을 설명하는데 참조되는 도이다.
도 6 은 도 5 의 이동 로봇의 미탐색영역에 대한 지도생성을 설명하는데 참조되는 도이다.
도 7 은 본 발명의 일 실시예에 따른 이동 로봇의 단말을 이용한 청소명령 설정을 설명하는데 참조되는 예시도이다.
도 8 은 본 발명의 일실시예에 따른 이동 로봇의 주행 패턴을 설명하는데 탐조되는 도이다.
도 9 는 본 발명의 일실시예에 따른 이동 로봇의 새로운 영역에 대한 지도생성방법을 설명하는데 참조되는 도이다.
도 10 은 본 발명의 일실시예에 따른 이동 로봇의 주행 패턴에 따른 제어방법이 도시된 순서도이다.
1 is a perspective view of a mobile robot according to an embodiment of the present invention.
2 is a diagram illustrating a terminal communicating with the mobile robot of FIG. 1;
3 is a block diagram showing main parts of a mobile robot according to an embodiment of the present invention.
4 is a diagram referenced for explaining a map of a mobile robot according to an embodiment of the present invention.
5 is a diagram referenced to describe a search operation for an unexplored area of a mobile robot according to an embodiment of the present invention.
FIG. 6 is a reference diagram for explaining map creation for an unexplored area of the mobile robot of FIG. 5 .
7 is an exemplary view referenced to describe setting a cleaning command using a terminal of a mobile robot according to an embodiment of the present invention.
8 is a view for explaining a driving pattern of a mobile robot according to an embodiment of the present invention.
9 is a diagram referenced to explain a method of generating a map for a new area of a mobile robot according to an embodiment of the present invention.
10 is a flowchart illustrating a control method according to a driving pattern of a mobile robot according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 본 발명의 제어구성은 적어도 하나의 프로세서로 구성될 수 있도록 하드웨어로 구성될 수 있다. Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to completely inform the person who has the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification. The control configuration of the present invention may be configured as hardware so as to be configured with at least one processor.

도 1 은 본 발명의 일 실시예에 따른 이동 로봇의 사시도이다. 1 is a perspective view of a mobile robot according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(1)은 영역의 바닥을 따라 이동하며, 바닥 상의 먼지 등의 이물질을 흡입하는 본체(10)와, 본체(10)의 전면에 배치되어 장애물을 감지하는 감지수단을 포함한다. Referring to FIG. 1, a mobile robot 1 according to an embodiment of the present invention has a body 10 that moves along the floor of an area and sucks foreign substances such as dust on the floor, and a front surface of the body 10. It includes a sensing means disposed to detect an obstacle.

본체(10)는 외관을 형성하며 내측으로 본체(10)를 구성하는 부품들이 수납되는 공간을 형성하는 케이싱(11)과, 케이싱(11)에 배치되어 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(미도시)과, 케이싱(11)에 회전 가능하게 구비되는 좌륜(미도시)과 우륜(미도시)을 포함할 수 있다. 좌륜과 우륜이 회전함에 따라 본체(10)가 청소구역의 바닥을 따라 이동되며, 이 과정에서 흡입유닛을 통해 이물질이 흡입된다. The main body 10 forms an exterior and includes a casing 11 that forms a space in which parts constituting the main body 10 are accommodated, and a suction unit disposed in the casing 11 to suck foreign substances such as dust or garbage. (not shown), and a left wheel (not shown) and a right wheel (not shown) rotatably provided in the casing 11 may be included. As the left and right wheels rotate, the main body 10 moves along the floor of the cleaning area, and in this process, foreign substances are sucked in through the suction unit.

흡입유닛은 흡입력을 발생시키는 흡입 팬(미도시)과, 흡입 팬의 회전에 의해 생성된 기류가 흡입되는 흡입구(미도시)를 포함할 수 있다. 흡입유닛은 흡입구를 통해 흡입된 기류 중에서 이물질을 채집하는 필터(미도시)와, 필터에 의해 채집된 이물질들이 축적되는 이물질 채집통(미도시)을 포함할 수 있다. 흡입유닛은 본체(10)의 배면에 배치된다. 경우에 따라 흡입노즐이 본체의 전면에, 배면을 향해 설치될 수 있다. The suction unit may include a suction fan (not shown) generating suction power and a suction port (not shown) through which airflow generated by rotation of the suction fan is sucked. The suction unit may include a filter (not shown) for collecting foreign substances from airflow sucked through the suction port, and a foreign substance collection container (not shown) for accumulating the foreign substances collected by the filter. The suction unit is disposed on the rear surface of the main body 10 . In some cases, the suction nozzle may be installed on the front of the main body, toward the rear.

또한, 본체(10)는 좌륜과 우륜을 구동시키는 주행부를 포함할 수 있다. 주행부는 적어도 하나의 구동모터를 포함할 수 있다. 적어도 하나의 구동모터는 좌륜을 회전시키는 좌륜 구동모터와 우륜을 회전시키는 우륜 구동모터를 포함할 수 있다. In addition, the main body 10 may include a driving part for driving the left wheel and the right wheel. The driving unit may include at least one driving motor. The at least one drive motor may include a left wheel drive motor for rotating a left wheel and a right wheel drive motor for rotating a right wheel.

좌륜 구동모터와 우륜 구동모터는 제어부의 주행제어부에 의해 작동이 독립적으로 제어됨으로써 본체(10)의 직진, 후진 또는 선회가 이루어질 수 있다. 예를들어, 본체(10)가 직진 주행하는 경우에는 좌륜 구동모터와 우륜 구동모터가 같은 방향으로 회전되나, 좌륜 구동모터와 우륜 구동모터가 다른 속도로 회전되거나, 서로 반대 방향으로 회전되는 경우에는 본체(10)의 주행 방향이 전환될 수 있다. 본체(10)의 안정적인 지지를 위한 적어도 하나의 보조륜이 더 구비될 수 있다.The operation of the left wheel drive motor and the right wheel drive motor is independently controlled by the driving control unit of the control unit, so that the main body 10 can go straight, move backward or turn. For example, when the main body 10 travels straight, the left wheel drive motor and the right wheel drive motor rotate in the same direction, but when the left wheel drive motor and the right wheel drive motor rotate at different speeds or in opposite directions, The running direction of the main body 10 may be switched. At least one auxiliary wheel for stably supporting the main body 10 may be further provided.

케이싱(11)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 복수의 브러시(35)가 더 구비될 수 있다. 복수의 브러시(35)의 회전에 의해 청소구역의 바닥으로부터 먼지들이 제거되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구를 통해 흡입되어 채집통에 모인다.A plurality of brushes 35 located on the front side of the bottom surface of the casing 11 and having a brush made of a plurality of radially extending wings may be further provided. Dust is removed from the floor of the cleaning area by the rotation of the plurality of brushes 35, and the dust separated from the floor is sucked through the suction port and collected in the collection container.

케이싱(11)의 상면에는 사용자로부터 이동 로봇(1)의 제어를 위한 각종 명령을 입력받는 조작부(160)를 포함하는 컨트롤 패널이 구비될 수 있다.A control panel including a manipulation unit 160 receiving various commands for controlling the mobile robot 1 from a user may be provided on an upper surface of the casing 11 .

감지수단은, 도 1의 (a)와 같이 복수의 센서를 이용하여 장애물을 감지하는 센서부(150), 영상을 촬영하는 영상획득부(170)를 포함한다. The sensing unit includes a sensor unit 150 that detects an obstacle using a plurality of sensors and an image acquisition unit 170 that captures an image, as shown in FIG. 1 (a).

또한, 감지수단은, 도 1의 (b)와 같이, 본체(10)의 전면에 배치되어, 장애물을 감지하는 장애물 감지유닛(100), 영상을 촬영하는 영상획득부(170)를 포함할 수 있다. 장애물 감지유닛(100)은 광패턴(PT1, PT2)을 조사하고 촬영되는 영상을 통해 장애물을 감지한다. 장애물 감지유닛(100)은 패턴획득부(140)를 포함하고, 또한, 센서부(150)를 포함할 수 있다. In addition, the sensing means may include an obstacle sensing unit 100 disposed on the front of the main body 10 to detect an obstacle and an image acquisition unit 170 to capture an image, as shown in FIG. 1 (b). there is. The obstacle sensing unit 100 irradiates light patterns PT1 and PT2 and detects obstacles through captured images. The obstacle detecting unit 100 may include a pattern acquisition unit 140 and may also include a sensor unit 150 .

영상획득부(170)는 각각 전방을 향하도록 구비되어 주행방향을 촬영하고, 또한, 천장을 향하도록 구비될 수 있다. 경우에 따라 전방과 천장을 향하는 두개의 영상획득부(170)가 구비될 수도 있다. 두개의 영상획득부가 구비되는 경우, 본체의 전면과 상단부에 각각 설치되어 전방과 천장의 영상을 각각 촬영할 수 있으며, 케이싱의 형태 또는 영상획득부의 배치 위치에 따라 전면과 전면의 천장의 일부를 촬영할 수 있다. The image acquisition unit 170 is provided to face forward to take pictures of the driving direction, and may also be provided to face the ceiling. In some cases, two image acquisition units 170 facing the front and the ceiling may be provided. When two image acquisition units are provided, they are installed on the front and top of the main body, respectively, so that images of the front and ceiling can be taken respectively. Depending on the shape of the casing or the location of the image acquisition unit, the front and part of the ceiling can be taken. there is.

장애물 감지유닛(100)은 본체(10)의 전면에 배치될 수 있다. The obstacle detection unit 100 may be disposed on the front of the main body 10 .

장애물 감지유닛(100)은 케이싱(11)의 전면에 고정되고, 제 1 패턴조사부(120), 제 2 패턴조사부(130) 및 패턴획득부(140)를 포함한다. 이때 패턴획득부(140)는 도시된 바와 같이 패턴조사부의 하부에 설치되거나 또는 제 1 및 제 2 패턴조사부 사이에 배치될 수 있다. The obstacle detecting unit 100 is fixed to the front surface of the casing 11 and includes a first pattern irradiation unit 120 , a second pattern irradiation unit 130 and a pattern acquisition unit 140 . In this case, the pattern acquisition unit 140 may be installed below the pattern irradiation unit or disposed between the first and second pattern irradiation units, as shown.

패턴조사부(120)(130)는 소정의 수평조사각을 갖는다. 수평조사각은 수평선의 양단이 패턴조사부(120)(130)와 이루는 각도를 나타내며, 130˚ 내지 140˚ 범위에서 정해지는 것이 바람직하나, 반드시 이에 한정되어야 하는 것은 아니다. The pattern irradiation units 120 and 130 have a predetermined horizontal irradiation angle. The horizontal irradiation angle represents an angle between both ends of the horizontal line and the pattern irradiation units 120 and 130, and is preferably determined in the range of 130˚ to 140˚, but is not necessarily limited thereto.

본체(10)에는 재충전이 가능한 배터리(미도시)가 구비되며, 배터리의 충전 단자가 상용 전원(예를 들어, 가정 내의 전원 콘센트)과 연결되거나, 상용 전원과 연결된 별도의 충전대(40)에 본체(10)가 도킹되어, 충전 단자가 충전대의 단자(410)와의 접촉을 통해 상용 전원과 전기적으로 연결되고, 배터리의 충전이 이루어질 수 있다. 이동 로봇(1)을 구성하는 전장 부품들은 배터리로부터 전원을 공급받을 수 있으며, 따라서, 배터리가 충전된 상태에서 이동 로봇(1)은 상용 전원과 전기적으로 분리된 상태에서 자력 주행이 가능하다.The main body 10 is provided with a rechargeable battery (not shown), and the charging terminal of the battery is connected to a commercial power source (eg, a power outlet in the home), or a separate charging base 40 connected to the commercial power source. (10) is docked, the charging terminal is electrically connected to commercial power through contact with the terminal 410 of the charging station, and the battery can be charged. Electric parts constituting the mobile robot 1 can receive power from a battery, and thus, in a state in which the battery is charged, the mobile robot 1 is capable of self-driving in a state electrically separated from a commercial power source.

도 2 는 도 1의 이동 로봇과 통신하는 단말이 도시된 도이다. 2 is a diagram illustrating a terminal communicating with the mobile robot of FIG. 1;

도 2에 도시된 바와 같이, 이동 로봇(1)은 단말(200)과 통신한다. As shown in FIG. 2 , the mobile robot 1 communicates with the terminal 200 .

이동 로봇(1)은 영역을 주행하며 지도를 생성하고, 생성된 지도를 단말(200)로 전송한다. 단말(200)은 수신되는 지도를 저장하고, 화면에 표시한다. The mobile robot 1 generates a map while driving in an area, and transmits the generated map to the terminal 200 . The terminal 200 stores the received map and displays it on the screen.

단말(200)은 사용자의 입력에 대응하는 청소명령을 이동 로봇(1)으로 전송한다. 그에 따라 이동 로봇은 수신되는 청소명령을 바탕으로 소정 영역을 주행하면서 청소를 수행할 수 있다. The terminal 200 transmits a cleaning command corresponding to the user's input to the mobile robot 1 . Accordingly, the mobile robot may perform cleaning while driving in a predetermined area based on the received cleaning command.

또한, 이동 로봇은, 방범모드 등의 설정을 통해, 지정된 영역을 주행하며 영상을 촬영하여 단말로 전송할 수 있다. 이동 로봇(1)은 주행중 영상을 촬영하여 단말로 전송할 수 있다. In addition, the mobile robot may travel in a designated area by setting a crime prevention mode, etc., take an image, and transmit the image to the terminal. The mobile robot 1 may capture images while driving and transmit the images to the terminal.

단말(200)은 이동 로봇의 현재위치를 화면에 표시하고 이동 로봇(1)으로부터 수신되는 데이터를 화면에 표시할 수 있다. The terminal 200 may display the current location of the mobile robot on the screen and display data received from the mobile robot 1 on the screen.

이동 로봇(1)은 주행 중 촬영되는 영상을 분석하여 장애물의 종류를 판단한다. 이동 로봇(1)은 주행중, 주행방향에 위치하는 적어도 하나의 장애물을 감지하고, 장애물을 인식할 수 있다. The mobile robot 1 determines the type of obstacle by analyzing an image captured while driving. While driving, the mobile robot 1 may detect at least one obstacle located in the driving direction and recognize the obstacle.

패턴조사부(120)(130)는 전방을 향해 패턴을 조사하고, 패턴획득부(140)는 패턴을 촬영한다. 이동 로봇(1)은 패턴의 형태 변화를 바탕으로 장애물을 감지한다. The pattern irradiation units 120 and 130 irradiate the pattern forward, and the pattern acquisition unit 140 photographs the pattern. The mobile robot 1 detects an obstacle based on the shape change of the pattern.

또한, 영상획득부(170)는 주행방향에 대한 영상을 촬영하고, 이동 로봇(1)은 영상을 분석하여 장애물의 특징을 추출하여 장애물의 종류를 인식할 수 있다. In addition, the image acquisition unit 170 captures an image of the driving direction, and the mobile robot 1 analyzes the image to extract features of the obstacle to recognize the type of the obstacle.

또한, 센서부(150)는 초음파, 레이저, 적외선 등의 신호를 바탕으로 일정거리 내에 위치하는 장애물을 감지할 수 있다. In addition, the sensor unit 150 may detect an obstacle located within a certain distance based on signals such as ultrasonic waves, laser beams, and infrared rays.

이동 로봇(1)은 이러한 감지수단을 통해 감지되는 장애물을 바탕으로, 영역에 대한 지도(맵, map)를 생성하고, 지도를 바탕으로 주행하면서 감지수단을 통해 감지되는 장애물을 회피한다. The mobile robot 1 generates a map (map) for an area based on obstacles detected through the sensing means, and avoids the obstacles detected through the sensing means while driving based on the map.

단말(200)은 이동 로봇(1)을 제어하기 위한 어플리케이션을 구비하고, 어플리케이션의 실행을 통해 이동 로봇(1)이 청소할 주행구역에 대한 맵을 표시하고, 맵 상에 특정 영역을 청소하도록 영역을 지정할 수 있다. 또한, 단말(200)은 이동 로봇으로부터 수신되는 데이터를 바탕으로 이동 로봇의 위치를 표시하고, 청소상태에 대한 정보를 표시한다. The terminal 200 has an application for controlling the mobile robot 1, displays a map for a driving area to be cleaned by the mobile robot 1 through the execution of the application, and selects an area on the map to clean a specific area. can be specified. In addition, the terminal 200 displays the location of the mobile robot based on the data received from the mobile robot and displays information about the cleaning state.

단말(200)은 통신모듈이 탑재되어 네트워크 접속이 가능하고 이동 로봇을 제어하기 위한 프로그램, 또는 이동 로봇 제어용 어플리케이션이 설치된 기기로, 컴퓨터, 랩탑, 스마트폰, PDA, 태블릿PC 등의 기기가 사용될 수 있다. 또한, 단말은, 스마트 워치 등의 웨어러블(wearable) 장치 또한 사용될 수 있다. The terminal 200 is a device equipped with a communication module, capable of network access, and installed with a program for controlling the mobile robot or an application for controlling the mobile robot, and devices such as computers, laptops, smart phones, PDAs, and tablet PCs can be used. there is. In addition, a wearable device such as a smart watch may also be used as the terminal.

단말(200)은 이동 로봇과, 가정 내 구축되는 네트워크를 통해 상호 연결될 수 있다. 단말과 이동 로봇은 WIFI로 연결됨은 물론, 블루투스, 적외선통신, 지그비 등의 근거리 무선통신방식을 이용하여 상호 통신할 수 있다. 단말과 이동 로봇의 통신 방식은, 이에 한정되지 않음을 명시한다. The terminal 200 may be interconnected with the mobile robot through a network established in the home. The terminal and the mobile robot can communicate with each other using short-distance wireless communication methods such as Bluetooth, infrared communication, and ZigBee, as well as being connected via WIFI. It is specified that the communication method between the terminal and the mobile robot is not limited thereto.

필요에 따라 이동 로봇(1)은 서버(90)와 통신할 수 있다. The mobile robot 1 may communicate with the server 90 as needed.

서버(미도시)는 소정 네트워크(N)를 통해 접속되는, 이동 로봇(1)으로부터 수신되는 영상데이터를 분석하여 장애물의 종류를 판단하고, 그에 대한 응답을 이동 로봇(1)으로 전송한다. 서버는 단말로부터 요청이 있는 경우 장애물의 종류를 판단하여 응답할 수 있다. A server (not shown) analyzes image data received from the mobile robot 1, which is connected through a predetermined network N, determines the type of obstacle, and transmits a response thereof to the mobile robot 1. When there is a request from the terminal, the server may determine the type of obstacle and respond.

서버는 복수의 이동 로봇(1)으로부터 수신되는 영상데이터를 누적하고 복수의 영상데이터를 분석하여 장애물에 대하여 학습한다. 서버(90)는 복수의 영상데이터를 바탕으로 하는 장애물 인식을 위한 데이터베이스(미도시)를 구비하여, 영상데이터로부터 추출되는 장애물에 대한 특징을 인식하여 장애물의 종류를 판단한다. The server accumulates image data received from a plurality of mobile robots 1 and analyzes the plurality of image data to learn about obstacles. The server 90 includes a database (not shown) for obstacle recognition based on a plurality of image data, recognizes characteristics of the obstacle extracted from the image data, and determines the type of obstacle.

서버는 새로운 장애물 정보를 분석하여, 기 저장된 장애물 정보를 갱신한다. 또한, 서버는 단말(200)에 의해 설정되거나 또는 변경되는 장애물에 대한 이동 로봇의 동작정보를 수신하여 저장하고, 기 저장된 장애물 정보에 매칭하여 장애물에 대한 이동 로봇의 동작에 대한 설정을 갱신한다. The server analyzes new obstacle information and updates pre-stored obstacle information. In addition, the server receives and stores operation information of the mobile robot for the obstacle set or changed by the terminal 200, and matches the pre-stored obstacle information to update the setting for the operation of the mobile robot for the obstacle.

도 3 은 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다. 3 is a block diagram showing main parts of a mobile robot according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 이동 로봇(1)은 장애물 감지유닛(100), 영상획득부(170), 청소부(260), 주행부(250), 데이터부(180), 출력부(190), 조작부(160), 통신부(290) 그리고 동작 전반을 제어하는 제어부(110)를 포함한다. As shown in FIG. 3, the mobile robot 1 includes an obstacle detection unit 100, an image acquisition unit 170, a cleaning unit 260, a driving unit 250, a data unit 180, and an output unit 190. , It includes a control unit 110 that controls the operation unit 160, the communication unit 290 and the overall operation.

조작부(160)는 적어도 하나의 버튼, 스위치, 터치입력수단을 포함하여, 이동 로봇(1)의 작동 전반에 필요한, 온/오프 또는 각종 명령을 입력받아 제어부(110)로 입력한다. The control unit 160 includes at least one button, switch, and touch input means, and receives on/off or various commands necessary for the overall operation of the mobile robot 1 and inputs them to the control unit 110.

출력부(190)는 LED, LCD와 같은 디스플레이를 구비하고, 이동 로봇(1)의 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태 등을 표시한다. 또한, 출력부(190)는 스피커 또는 버저를 구비하여, 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태에 대응하는 소정의 효과음, 경고음 또는 음성안내를 출력한다. The output unit 190 is equipped with a display such as an LED or LCD, and displays the operation mode, reservation information, battery status, operation status, error status, etc. of the mobile robot 1. In addition, the output unit 190 includes a speaker or a buzzer to output predetermined sound effects, warning sounds, or voice guidance corresponding to operation mode, reservation information, battery status, operation status, and error status.

통신부(290)는 지그비, 블루투스 등의 근거리 무선통신뿐 아니라, 와이파이, 와이브로 등의 통신모듈을 포함하여 데이터를 송수신한다. The communication unit 290 transmits and receives data by including communication modules such as Wi-Fi and WiBro as well as short-range wireless communication such as ZigBee and Bluetooth.

통신부(290)는, 무선통신 방식으로 단말(200)과 통신한다. The communication unit 290 communicates with the terminal 200 in a wireless communication method.

통신부(290)는 생성되는 지도를 단말(200)로 전송하고, 단말로부터 청소명령을 수신하며, 이동 로봇의 동작상태, 청소상태에 대한 데이터를 단말로 전송한다. 또한, 통신부(290)는 단말(200)로부터 주행구역 내에 존재하는 장애물에 대한 정보 및 그에 따른 동작정보를 수신하고, 이동 로봇의 동작데이터를 단말(200)로 전송한다. The communication unit 290 transmits the generated map to the terminal 200, receives a cleaning command from the terminal, and transmits data on the operating state and cleaning state of the mobile robot to the terminal. In addition, the communication unit 290 receives information on obstacles existing in the driving area and corresponding operation information from the terminal 200 and transmits operation data of the mobile robot to the terminal 200 .

통신부(290)는 가정 내 네트워크를 통해, 인터넷망에 연결되어, 외부의 서버(90)와 통신할 수 있다. 통신부(290)는 장애물 감지유닛(100)로부터 감지되는 장애물에 대한 정보를 통신부(290)를 통해 서버(90)로 전송하고, 서버로부터 장애물에 대한 데이터를 수신한다. The communication unit 290 may communicate with an external server 90 by being connected to an Internet network through a home network. The communication unit 290 transmits information about obstacles detected by the obstacle detection unit 100 to the server 90 through the communication unit 290 and receives data about obstacles from the server.

통신부(290)는 충전대(40)와 통신하며 충전대 복귀신호를 수신하고 또한 툴분리신호를 수신할 수 있다. 또한, 통신부(290)는, 툴로부터 송신되는 툴 위치신호를 수신할 수 있다. The communication unit 290 communicates with the charging station 40 and may receive a charging station return signal and also receive a tool separation signal. Also, the communication unit 290 may receive a tool position signal transmitted from the tool.

주행부(250)는 적어도 하나의 구동모터를 포함하여 주행제어부(113)의 제어명령에 따라 이동 로봇이 주행하도록 한다. 주행부(250)는 앞서 설명한 바와 같이, 좌륜을 회전시키는 좌륜 구동모터와 우륜을 회전시키는 우륜 구동모터를 포함할 수 있다.The traveling unit 250 includes at least one driving motor so that the mobile robot travels according to a control command of the traveling controller 113 . As described above, the driving unit 250 may include a left wheel drive motor for rotating the left wheel and a right wheel drive motor for rotating the right wheel.

청소부(260)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입유닛을 동작시켜 먼지 또는 이물질을 흡입한다. 청소부(260)는 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(261)에 구비되는 흡입 팬의 동작을 제어하여 먼지가 흡입구를 통해 이물질 채집통(먼지통)에 투입되도록 한다. The cleaning unit 260 operates a brush to make it easy to suck in dust or foreign substances around the mobile robot, and operates a suction unit to suck in dust or foreign substances. The cleaning unit 260 controls the operation of a suction fan provided in the suction unit 261 to suck foreign substances such as dust or garbage so that dust is put into a foreign substance collection container (dust container) through a suction port.

또한, 청소부(260)는 본체의 저면부 후방에 설치되어 바닥면과 접하여 바닥면을 물걸레질하는 물걸레청소부(미도시), 물걸레청소부로 물을 공급하는 물통(미도시)을 더 포함할 수 있다. In addition, the cleaning unit 260 may further include a wet mop cleaning unit (not shown) installed at the rear of the bottom surface of the main body to wet the floor in contact with the floor, and a water tank (not shown) for supplying water to the wet mop cleaning unit. .

배터리(미도시)는 구동 모터뿐만 아니라, 이동 로봇(1)의 작동 전반에 필요한 전원을 공급한다. 배터리가 방전될 시, 이동 로봇(1)은 충전을 위해 충전대(40)로 복귀하는 주행을 할 수 있으며, 이러한 복귀 주행 중, 이동 로봇(1)은 스스로 충전대의 위치를 탐지할 수 있다. 충전대(40)는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되어야하는 것은 아니다.A battery (not shown) supplies not only the driving motor, but also power necessary for the overall operation of the mobile robot 1 . When the battery is discharged, the mobile robot 1 can travel back to the charging station 40 for charging, and during this return driving, the mobile robot 1 can detect the position of the charging station by itself. The charging station 40 may include a signal transmission unit (not shown) that transmits a predetermined return signal. The return signal may be an ultrasonic signal or an infrared signal, but is not necessarily limited thereto.

데이터부(180)에는 장애물 감지유닛(100), 또는 센서부(150)로부터 입력되는 감지신호가 저장되고, 장애물을 판단하기 위한 기준데이터가 저장되며, 감지된 장애물에 대한 장애물정보가 저장된다. The data unit 180 stores detection signals input from the obstacle sensing unit 100 or sensor unit 150, stores reference data for determining obstacles, and stores obstacle information about detected obstacles.

데이터부(180)는 장애물의 종류를 판단하기 위한 장애물데이터(181), 촬영되는 영상이 저장되는 영상데이터(182), 영역에 대한 지도데이터(183)가 저장된다. 지도데이터(183)에는 장애물정보가 포함되며, 이동 로봇에 의해 탐색되는 주행가능한 영역에 대한 다양한 형태의 지도(맵)가 저장된다. 예를 들어, 이동 로봇에 의해 탐색된 주행가능한 영역에 대한 정보가 포함된 기초맵, 기초맵으로부터 영역이 구분된 청소맵, 청소맵의 영역의 형상을 정리하여 사용자가 확인할 수 있도록 생성된 사용자맵, 그리고 청소맵과 사용자맵이 중첩되어 표시되는 가이드맵이 저장될 수 있다. The data unit 180 stores obstacle data 181 for determining the type of obstacle, image data 182 for storing a captured image, and map data 183 for an area. The map data 183 includes obstacle information, and various types of maps (maps) for the drivable area searched by the mobile robot are stored. For example, a basic map containing information on a drivable area searched by a mobile robot, a cleaning map in which areas are separated from the basic map, and a user map created so that the user can check the shape of the cleaning map area. , and a guide map in which the cleaning map and the user map are overlapped and displayed may be stored.

장애물데이터(181)는 장애물 인식 및 장애물의 종류를 판단하기 위한 데이터이고, 인식된 장애물에 대한 이동 로봇의 동작, 예를 들어 주행속도, 주행방향, 회피 여부, 정지 여부 등에 대한 모션정보와, 스피커(173)를 통해 출력되는 효과음, 경고음, 음성안내에 대한 데이터가 포함된다. 영상데이터(182)는 촬영된 영상, 서버로부터 수신된 장애물 인식을 위한 인식정보가 포함된다. The obstacle data 181 is data for recognizing obstacles and determining the type of obstacles, and includes motion information about the operation of the mobile robot with respect to the recognized obstacles, for example, driving speed, driving direction, whether to avoid, whether to stop, etc., and a speaker. Data for sound effects, warning sounds, and voice guidance output through (173) are included. The image data 182 includes a captured image and recognition information for obstacle recognition received from the server.

또한, 데이터부(180)에는 이동 로봇의 동작을 제어하기 위한 제어데이터 및 이동 로봇의 청소모드에 따른 데이터, 센서부(150)에 의한 초음파/레이저 등의 감지신호가 저장된다. In addition, the data unit 180 stores control data for controlling the operation of the mobile robot, data according to the cleaning mode of the mobile robot, and detection signals such as ultrasound/laser by the sensor unit 150.

데이터부(180)는, 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장하는 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치를 포함할 수 있다. The data unit 180 stores data that can be read by a microprocessor, and includes Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, and CD. -Can include ROM, magnetic tape, floppy disk, and optical data storage devices.

장애물 감지유닛(100)은 제 1 패턴조사부(120), 제 2 패턴조사부(130), 그리고 패턴획득부(140)를 포함한다. The obstacle sensing unit 100 includes a first pattern irradiation unit 120 , a second pattern irradiation unit 130 , and a pattern acquisition unit 140 .

영상획득부(170)는 적어도 하나 구비된다. At least one image acquisition unit 170 is provided.

영상획득부(170)는 전방을 향해 설치되어 주행방향의 영상을 촬영하고, 또한, 전방의 천장을 촬영할 수 있다. 경우에 따라 전방을 촬영하는 영상획득부와 천장을 촬영하는 영상획득부가 각각 구비될 수도 있다. The image acquisition unit 170 is installed toward the front to capture images in the driving direction and also to capture the ceiling in front. In some cases, an image acquisition unit for photographing the front and an image acquisition unit for photographing the ceiling may be respectively provided.

또한, 감지수단은 적어도 하나의 센서로 구성된 센서부(150)를 포함할 수 있다. 경우에 따라 장애물 감지유닛(100)은 센서부로 구성될 수 있다. In addition, the sensing means may include a sensor unit 150 composed of at least one sensor. In some cases, the obstacle sensing unit 100 may be configured as a sensor unit.

장애물 감지유닛(100)은 앞서 설명한 바와 같이, 본체(10)의 전면에 설치되어, 이동 로봇의 전방에 제 1 및 제 2 패턴의 광을 조사하고, 조사된 패턴의 광을 촬영하여 패턴이 포함된 영상을 획득한다. 장애물 감지유닛(100)은 획득영상을 장애물 감지신호로써 제어부(110)로 입력한다. As described above, the obstacle detection unit 100 is installed on the front of the main body 10, radiates light of the first and second patterns to the front of the mobile robot, and photographs the light of the irradiated pattern to include the pattern. acquire the image. The obstacle detection unit 100 inputs the obtained image to the control unit 110 as an obstacle detection signal.

장애물 감지유닛(100)의 제 1 및 제 2 패턴조사부(120, 130)는 광원과, 광원으로부터 조사된 광이 투과됨으로써 소정의 패턴을 생성하는 패턴생성자(OPPE: Optical Pattern Projection Element)를 포함할 수 있다. 광원은 레이져 다이오드(Laser Diode, LD), 발광 다이오드(Light Emitteing Diode, LED) 등 일 수 있다. 레이져 광은 단색성, 직진성 및 접속 특성에 있어 다른 광원에 비해 월등해, 정밀한 거리 측정이 가능하며, 특히, 적외선 또는 가시광선은 대상체의 색상과 재질 등의 요인에 따라 거리 측정의 정밀도에 있어서 편차가 크게 발생되는 문제가 있기 때문에, 광원으로는 레이져 다이오드가 바람직하다. 패턴생성자는 렌즈, DOE(Diffractive optical element)를 포함할 수 있다. 각각의 패턴조사부(120, 130)에 구비된 패턴 생성자의 구성에 따라 다양한 패턴의 광이 조사될 수 있다.The first and second pattern irradiators 120 and 130 of the obstacle detection unit 100 may include a light source and an optical pattern projection element (OPPE) that generates a predetermined pattern by transmitting light irradiated from the light source. can The light source may be a laser diode (LD) or a light emitting diode (LED). Laser light is superior to other light sources in terms of monochromaticity, straightness, and connection characteristics, enabling precise distance measurement. Since there is a problem in that a large amount of is generated, a laser diode is preferable as a light source. The pattern generator may include a lens and a diffractive optical element (DOE). Various patterns of light may be irradiated according to the configuration of the pattern creator provided in each of the pattern irradiation units 120 and 130 .

패턴획득부(140)는 본체(10) 전방의 영상을 획득할 수 있다. 특히, 패턴획득부(140)에 의해 획득된 영상(이하, 획득영상이라고 함.)에는 패턴 광(PT1, PT2)이 나타나며, 이하, 획득영상에 나타난 패턴 광(PT1, PT2)의 상을 광 패턴이라고 하고, 이는 실질적으로 실제 공간상에 입사된 패턴 광(PT1, PT2)이 이미지 센서에 맺힌 상이기 때문에, 패턴 광들(PT1, PT2)과 같은 도면 부호를 부여하여, 제 1 패턴 광(PT1) 및 제 2 패턴 광(PT2)과 각각 대응하는 상들을 제 1 광 패턴(PT1) 및 제 2 광 패턴(PT2)이라고 하기로 한다.The pattern acquisition unit 140 may obtain an image of the front of the main body 10 . In particular, pattern lights PT1 and PT2 appear in the image acquired by the pattern acquisition unit 140 (hereinafter, referred to as an acquired image), and hereinafter, the images of the pattern lights PT1 and PT2 appearing in the acquired image are displayed as light. It is called a pattern, and since it is an image of the pattern lights PT1 and PT2 substantially incident on the real space and reflected on the image sensor, the same reference numerals as the pattern lights PT1 and PT2 are given, and the first pattern light PT1 ) and the images corresponding to the second pattern light PT2 are referred to as the first light pattern PT1 and the second light pattern PT2.

패턴조사부가 구비되지 않는 경우, 패턴획득부(140)는 본체 전방의, 패턴광이 포함되지 않은 영상을 획득한다. When the pattern irradiation unit is not provided, the pattern acquisition unit 140 acquires an image of the front of the main body that does not include the pattern light.

패턴획득부(140)는 피사체의 상을 전기적 신호로 변환시킨 후 다시 디지털 신호로 바꿔 메모리소자에 기억시키는 카메라를 포함할 수 있다. 카메라는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.The pattern acquisition unit 140 may include a camera that converts an image of a subject into an electrical signal and then converts it into a digital signal and stores the image in a memory device. A camera includes at least one optical lens, an image sensor (eg, CMOS image sensor) including a plurality of photodiodes (eg, pixels) on which an image is formed by light passing through the optical lens, and It may include a digital signal processor (DSP) that composes an image based on signals output from the diodes. The digital signal processor can create not only still images, but also moving images composed of frames composed of still images.

이미지센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 집적된 칩으로 구성되며, 광 다이오드로는 픽셀(pixel)을 예로 들 수 있다. 렌즈를 통과한 광에 의해 칩에 맺힌 영상에 의해 각각의 픽셀들에 전하가 축적되며, 픽셀에 축적된 전하들은 전기적 신호(예를들어, 전압)로 변환된다. 이미지센서로는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등이 잘 알려져 있다.An image sensor is a device that converts an optical image into an electrical signal, and is composed of a chip in which a plurality of photo diodes are integrated, and a pixel may be exemplified as the photo diode. Charges are accumulated in each pixel by the image projected on the chip by light passing through the lens, and the charges accumulated in the pixels are converted into electrical signals (eg, voltage). As image sensors, CCD (Charge Coupled Device), CMOS (Complementary Metal Oxide Semiconductor), and the like are well known.

영상처리부는 이미지센서로부터 출력된 아날로그 신호를 바탕으로 디지털 영상을 생성한다. 영상처리부는 아날로그 신호를 디지털 신호로 변환하는 AD컨버터와, AD컨버터로부터 출력된 디지털 신호에 따라 일시적으로 디지털 정보(digital data)를 기록하는 버퍼 메모리(buffer memory)와, 버퍼 메모리에 기록된 정보를 처리하여 디지털 영상을 구성하는 디지털 신호처리기(DSP:Digital Signal Processor)를 포함할 수 있다.The image processor generates a digital image based on the analog signal output from the image sensor. The image processing unit includes an AD converter that converts an analog signal into a digital signal, a buffer memory that temporarily records digital data according to the digital signal output from the AD converter, and the information recorded in the buffer memory. It may include a digital signal processor (DSP) that processes and configures a digital image.

장애물 감지유닛(100)은 획득영상을 통해 패턴을 분석하여 패턴의 형태에 따라 장애물을 감지하고, 센서부(150)는 각 센서의 감지거리에 위치하는 장애물을 구비되는 센서를 통해 감지한다. The obstacle sensing unit 100 detects an obstacle according to the shape of the pattern by analyzing the pattern through the obtained image, and the sensor unit 150 detects an obstacle located at a sensing distance of each sensor through a sensor provided.

센서부(150)는 복수의 센서를 포함하여 장애물을 감지한다. 센서부(150)는 레이저, 초음파, 적외선 중 적어도 하나를 이용하여 본체(10)의 전방, 즉 주행방향의 장애물을 감지한다. 또한, 센서부(150)는 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서를 더 포함할 수 있다. 센서부(150)는 송출되는 신호가 반사되어 입사되는 경우, 장애물의 존재 여부 또는 장애물까지의 거리에 대한 정보를 장애물 감지신호로써 제어부(110)로 입력한다. The sensor unit 150 includes a plurality of sensors to detect obstacles. The sensor unit 150 detects an obstacle in front of the main body 10, that is, in the driving direction, using at least one of laser, ultrasonic, and infrared light. In addition, the sensor unit 150 may further include a cliff detection sensor for detecting whether a cliff exists on the floor within the driving area. When the transmitted signal is reflected and incident, the sensor unit 150 inputs information about the existence of an obstacle or the distance to the obstacle to the controller 110 as an obstacle detection signal.

영상획득부(170)는 이동 로봇이 동작하면, 연속적 영상을 촬영한다. 또한, 영상획득부(170)는 소정 주기로 영상을 촬영할 수 있다. 영상획득부(170)는 장애물 감지유닛(100)에 의해 장애물이 감지되지 않는, 주행 또는 청소상태에서도 영상을 촬영한다. The image acquisition unit 170 continuously captures images when the mobile robot operates. Also, the image acquisition unit 170 may capture images at predetermined intervals. The image acquisition unit 170 captures an image even in a driving or cleaning state in which an obstacle is not detected by the obstacle detection unit 100 .

예를 들어 영상획득부(170)는 1회 촬영 후, 동일한 주행방향으로 이동하게 되면, 주행방향이 변경되지 않고 유지되는 동안 1회 촬영된 영상에 촬영된 장애물의 크기가 변화할 뿐 동일한 장애물이 촬영되므로, 주기적으로 영상을 촬영한다. 영상획득부(170)는 소정 시간 또는 소정 거리 단위로 영상을 촬영할 수 있다. 또한, 영상획득부(170)는 주행방향이 변경되는 경우, 새로운 영상을 촬영한다. For example, if the image acquisition unit 170 moves in the same driving direction after taking a picture once, the size of the obstacle photographed in the image taken once changes while the driving direction remains unchanged, but the same obstacle Since it is filmed, images are taken periodically. The image acquisition unit 170 may capture images in units of a predetermined time or a predetermined distance. Also, the image acquisition unit 170 captures a new image when the driving direction is changed.

영상획득부(170)는 이동 로봇의 이동 속도에 따라 촬영 주기를 설정할 수 있다. 또한, 영상획득부(170)는 센서부에 의한 감지거리와 이동 로봇의 이동속도를 고려하여 촬영 주기를 설정할 수 있다. The image acquisition unit 170 may set a photographing cycle according to the moving speed of the mobile robot. In addition, the image acquisition unit 170 may set a photographing period in consideration of the sensing distance by the sensor unit and the moving speed of the mobile robot.

영상획득부(170)는 본체가 주행하는 중에 촬영되는 영상을 영상데이터(182)로써 데이터부(180)에 저장한다. The image acquisition unit 170 stores an image captured while the main body is driving in the data unit 180 as image data 182 .

한편, 장애물 감지유닛(100)은 주행 중에 주행방향에 위치하는 장애물을 감지하여 제어부로 감지신호를 입력한다. 장애물 감지유닛(100)은 감지되는 장애물의 위치 또는 그 움직임에 대한 정보를 제어부(110)로 입력한다. 패턴획득부(140)는 패턴조사부에 의해 조사된 패턴이 포함된 영상을 감지신호로써 제어부로 입력하고, 센서부(150)는 구비되는 센서에 의해 감지되는 장애물에 대한 감지신호를 제어부로 입력한다. Meanwhile, the obstacle detecting unit 100 detects obstacles located in the driving direction during driving and inputs a detection signal to the controller. The obstacle detecting unit 100 inputs information about the position or motion of the detected obstacle to the controller 110 . The pattern acquisition unit 140 inputs an image including the pattern irradiated by the pattern irradiation unit to the control unit as a detection signal, and the sensor unit 150 inputs a detection signal for an obstacle detected by a sensor provided to the control unit. .

제어부(110)는 주행영역 중 지정된 주행구역 내에서, 이동 로봇이 주행하도록 주행부(250)를 제어한다. The controller 110 controls the driving unit 250 so that the mobile robot travels within a designated driving area among driving areas.

제어부(110)는 조작부(160)의 조작에 의해 입력되는 데이터를 처리하여 이동 로봇의 동작모드를 설정하고, 동작상태를 출력부(190)를 통해 출력하며, 동작상태, 에러상태 또는 장애물 감지에 따른 경고음, 효과음, 음성안내가 스피커를 통해 출력되도록 한다. The control unit 110 processes data input by manipulation of the control unit 160 to set the operation mode of the mobile robot, outputs the operation status through the output unit 190, and detects the operation status, error status or obstacle. Warning sounds, effect sounds, and voice guidance are output through the speaker.

제어부(110)는 주행 중, 주행부(250) 및 청소부(260)를 제어하여, 이동 로봇 주변의 먼지 또는 이물질을 흡수하도록 함으로써 주행구역에 대한 청소를 수행한다. 그에 따라 청소부(260)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입장치를 동작시켜 먼지 또는 이물질을 흡입한다. 주행 중에 이물질을 흡입하여 청소를 수행하도록 청소부를 제어한다. The controller 110 cleans the driving area by controlling the driving unit 250 and the cleaning unit 260 to absorb dust or foreign substances around the mobile robot while driving. Accordingly, the cleaning unit 260 operates the brush to make it easy to suck in dust or foreign substances around the mobile robot, and operates the suction device to suck in the dust or foreign substances. The cleaner is controlled to perform cleaning by sucking in foreign substances while driving.

제어부(110)는 배터리의 충전용량을 체크하여 충전대로의 복귀 시기를 결정한다. 제어부(110)는 충전용량이 일정값에 도달하면, 수행중이던 동작을 중지하고, 충전대 복귀를 위해 충전대 탐색을 시작한다. 제어부(110)는 배터리의 충전용량에 대한 알림 및 충전대 복귀에 대한 알림을 출력할 수 있다. The controller 110 checks the charge capacity of the battery and determines when to return to the charging base. When the charging capacity reaches a predetermined value, the controller 110 stops the operation being performed and starts searching for a charging station to return to the charging station. The controller 110 may output a notification about the charging capacity of the battery and a notification about returning to the charging station.

제어부(110)는 영상획득부(170) 또는 장애물 감지유닛(100)로부터 감지되는 장애물에 대하여, 장애물을 인식하고, 장애물에 대응하여 복수의 대응모션중 어느 하나를 설정하여 수행되도록 할 수 있다. 또한, 제어부는 감지신호가 패턴에 포함된 영상인 경우 패턴의 형태에 따라 상이한 감지신호로써 판단할 수 있고, 감지신호, 즉 패턴의 형태에 따라 장애물을 구분할 수 있다. The control unit 110 may recognize an obstacle with respect to an obstacle detected by the image acquisition unit 170 or the obstacle detection unit 100, and set any one of a plurality of corresponding motions in response to the obstacle to be performed. In addition, when the detection signal is an image included in a pattern, the control unit may determine the detection signal as a different detection signal according to the shape of the pattern, and may distinguish an obstacle according to the detection signal, that is, the shape of the pattern.

제어부(110)는 통신부(290)를 통해 생성된 지도를 단말(200)로 전송하고, 단말(200)로부터 수신되는 데이터에 대응하여 지정된 영역으로 이동하여 청소를 수행한다. The controller 110 transmits the map generated through the communication unit 290 to the terminal 200 and moves to a designated area in response to data received from the terminal 200 to perform cleaning.

한편, 제어부(110)는 단말(200)에 의해 지정된 영역이 지도에 존재하지 않는 새로운 영역인 경우, 미탐색영역으로 판단하여 새로운 지도를 작성할 수 있다. On the other hand, if the area designated by the terminal 200 is a new area that does not exist on the map, the controller 110 may create a new map by determining it as an unexplored area.

제어부(110)는 새로운 영역에 도달하는 경우, 기 생성된 지도는 유지하되, 새로운 영역이 기존의 영역과 연결되어 있는 경우, 새로운 영역에 대한 지도를 생성하여 기 생성된 지도에 추가할 수 있다. When a new area is reached, the controller 110 maintains a previously generated map, but when the new area is connected to an existing area, the controller 110 may create a map for the new area and add it to the previously created map.

또한, 제어부는 본체의 이동 정도에 따라 지도를 갱신할 수 있다. 즉 새로운 영역 전체에 대한 지도를 생성하기 전, 본체의 이동에 따라 감지되는 정보를 바탕으로 점진적으로 새로운 영역에 대한 지도를 추가할 수 있다. In addition, the controller may update the map according to the degree of movement of the main body. That is, before generating a map for the entire new area, a map for a new area may be gradually added based on information detected as the main body moves.

제어부는 미탐색영역에 대한 지도를 점진적으로 추가하여 기 저장된 지도를 갱신하며, 미탐색영역에서의 주행거리에 따라 단계적으로 상기 지도를 갱신할 수 있다. The control unit may gradually add a map for an unexplored area to update a pre-stored map, and may update the map step by step according to a driving distance in the unexplored area.

제어부(110)는 기 저장된 지도를 기반으로 지정된 영역의 위치를 판단하고, 기 저장된 지도의 어느 한 지점으로부터 새로운 영역에 대한 탐색을 시작하도록 주행부(250)를 제어한다. 제어부(110)는 지정된 영역과 지도의 상대적 거리 및 위치를 산출하여 주행부(250)를 제어한다. 제어부(110)는 장애물 감지유닛(100), 영상획득부(170), 그리고 센서부(150)로부터 입력되는 데이터를 저장하고 분석하여 주행방향에 위치하는 장애물을 감지하고, 지정된 위치를 기준으로 주변을 확장하여 미탐색영역에 대한 지도를 생성할 수 있다. The controller 110 determines the location of a designated area based on a pre-stored map, and controls the driving unit 250 to start searching for a new area from a certain point on the pre-stored map. The control unit 110 controls the driving unit 250 by calculating the relative distance and position between the designated area and the map. The control unit 110 stores and analyzes data input from the obstacle detection unit 100, the image acquisition unit 170, and the sensor unit 150 to detect obstacles located in the driving direction, and to detect obstacles located in the surrounding area based on the designated position. can be expanded to create a map of the unexplored area.

제어부(110)는 새로운 영역이 추가된 지도를 단말(200)로 전송한다. The controller 110 transmits the map to which the new area is added to the terminal 200 .

제어부(110)는 장애물인식부(111), 맵생성부(112), 주행제어부(113)를 포함한다. The control unit 110 includes an obstacle recognition unit 111, a map generator 112, and a driving control unit 113.

맵생성부(112)는 초기 동작 시, 또는 청소영역에 대한 지도가 저장되어 있지 않은 경우, 청소영역을 주행하면서 장애물 정보를 바탕으로 청소영역에 대한 지도를 생성한다. 또한, 맵생성부(112)는 주행중 획득되는 장애물 정보를 바탕으로, 기 생성된 지도를 갱신한다. The map generator 112 generates a map of the cleaning area based on obstacle information while driving in the cleaning area during an initial operation or when a map of the cleaning area is not stored. In addition, the map generator 112 updates a pre-generated map based on obstacle information acquired while driving.

맵생성부(112)는 주행 중 장애물인식부(111)를 획득되는 정보를 바탕으로 기초맵을 생성하고, 기초맵으로부터 영역을 구분하여 청소맵을 생성한다. 또한, 맵생성부(112)는 청소맵에 대하여 영역을 정리하고, 영역에 대한 속성을 설정하여 사용자맵과 가이드맵을 생성한다. 기초맵은, 주행을 통해 획득되는 청소영역의 형태가 외곽선으로 표시되는 지도이고, 청소맵은 기초맵에 영역이 구분된 지도이다. 기초맵과 청소맵에는 이동 로봇의 주행 가능한 영역과 장애물정보가 포함된다. 사용자맵은 청소맵의 영역을 단순화하고 외곽선의 형태를 정리하여 가공한 것으로 시각적 효과를 가미한 지도이다. 가이드맵은 청소맵과 사용자맵이 중첩된 지도이다. 가이드맵에는 청소맵이 표시되므로, 이동 로봇이 실제 주행할 수 있는 영역을 바탕으로 청소명령이 입력될 수 있다. The map generator 112 generates a basic map based on information acquired by the obstacle recognizing unit 111 while driving, and separates areas from the basic map to generate a cleaning map. In addition, the map generator 112 organizes the area for the cleaning map and sets properties for the area to create a user map and a guide map. The basic map is a map in which the shape of a cleaning area obtained through driving is displayed as an outline, and the cleaning map is a map in which areas are divided on the basic map. The basic map and the cleaning map include information on the driving area of the mobile robot and obstacles. The user map is a map to which visual effects are added by simplifying the area of the cleaning map and arranging and processing the shape of the outline. A guide map is a map in which a cleaning map and a user map are overlapped. Since a cleaning map is displayed on the guide map, a cleaning command may be input based on an area in which the mobile robot can actually drive.

맵생성부(112)는 기초맵 생성 후, 청소영역을 복수의 영역으로 구분하고, 복수의 영역을 연결하는 연결통로를 포함하며, 각 영역 내의 장애물에 대한 정보를 포함하여 지도를 생성한다. 맵생성부(112)는, 지도상의 영역 구분을 위해 소영역을 분리하여 대표영역을 설정하고, 분리된 소영역을 별도의 세부영역으로 설정하여 대표영역에 병합함으로써 영역이 구분된 지도를 생성한다.After generating the basic map, the map generator 112 divides the cleaning area into a plurality of areas, includes a connection passage connecting the plurality of areas, and generates a map including information about obstacles in each area. The map generator 112 separates small areas to set a representative area to classify areas on the map, sets the separated small areas as separate detailed areas, and merges them into the representative area to create a map in which areas are divided. .

맵생성부(112)는 구분된 각 영역에 대하여, 영역의 형태를 가공한다. 맵생성부(112)는 구분된 영역에 대하여 속성을 설정하고, 영역별 속성에 따라 영역의 형태를 가공한다.The map generator 112 processes the shape of each divided area. The map generator 112 sets properties for the divided areas and processes the shape of the areas according to the properties for each area.

장애물인식부(111)는 영상획득부(170) 또는 장애물 감지유닛(100)으로부터 입력되는 데이터를 통해 장애물을 판단하고, 맵생성부(112)는 주행구역에 대한 지도를 생성하고, 감지되는 장애물에 대한 정보가 지도에 포함되도록 한다. 또한, 주행제어부(113)는 장애물 정보에 대응하여 이동방향 또는 주행경로를 변경하여 장애물을 통과하거나 또는 장애물을 회피하여 주행하도록 주행부(250)를 제어한다. The obstacle recognition unit 111 determines obstacles through data input from the image acquisition unit 170 or the obstacle detection unit 100, and the map generator 112 creates a map of the driving area and detects obstacles. information about is included in the map. In addition, the driving control unit 113 controls the driving unit 250 to pass through obstacles or avoid obstacles by changing a moving direction or a driving path in response to obstacle information.

장애물인식부(111)는 장애물 감지유닛(100)으로부터 입력되는 데이터를 분석하여 장애물을 판단한다. 장애물인식부(111)는 장애물 감지유닛의 감지신호, 예를 들어 초음파 또는 레이저 등의 신호에 따라 장애물의 방향 또는 장애물까지의 거리를 산출하고, 또한, 패턴이 포함된 획득영상을 분석하여 패턴을 추출하고 패턴의 형태를 분석하여 장애물을 판단한다. 장애물인식부(111)는 초음파 또는 적외선 신호를 이용하는 경우 장애물과의 거리 또는 장애물의 위치에 따라 수신되는 초음파의 형태, 초음파가 수신되는 시간에 차이가 있으므로 이를 바탕으로 장애물을 판단한다. The obstacle recognizing unit 111 determines an obstacle by analyzing data input from the obstacle detection unit 100 . The obstacle recognizing unit 111 calculates the direction of the obstacle or the distance to the obstacle according to the detection signal of the obstacle detection unit, for example, a signal such as ultrasonic wave or laser, and also analyzes the acquired image including the pattern to determine the pattern. Extract and analyze the shape of the pattern to determine the obstacle. When ultrasonic or infrared signals are used, the obstacle recognizing unit 111 determines the obstacle based on the difference in the type of ultrasonic waves received and the time at which ultrasonic waves are received depending on the distance from the obstacle or the position of the obstacle.

또한, 장애물인식부(111)는 영상획득부(170)에 의해 장애물을 촬영한 영상데이터가 입력되면, 데이터부(180)에 저장한다. 영상획득부(170)는 전방의 장애물을 복수회 촬영하므로, 영상데이터 또한 복수개가 저장된다. 또한, 영상획득부(170)가 주행방향에 대한 영상을 연속 촬영하는 경우, 장애물인식부(111)는 입력되는 동영상을 영상데이터로써 저장하거나 또는 동영상을 프레임 단위로 구분하여 영상데이터로써 저장한다. In addition, the obstacle recognizing unit 111 stores the image data captured by the image acquiring unit 170 in the data unit 180 when image data is input. Since the image acquisition unit 170 photographs the front obstacle multiple times, a plurality of image data is also stored. In addition, when the image acquisition unit 170 continuously captures images of the driving direction, the obstacle recognizing unit 111 stores the input video as image data or divides the video into frames and stores the video as image data.

장애물인식부(111)는 복수의 영상데이터를 분석하여, 촬영된 대상, 즉 장애물을 인식할 수 있는지 여부를 판단한다. 이때 장애물인식부(111)는 영상데이터를 분석하여 영상데이터가 인식 가능한 것인지 아닌지 여부를 판단한다. 예를 들어, 장애물인식부(111)는 흔들린 영상, 초점이 맞지 않는 영상, 어두워서 장애물을 구분할 수 없는 영상을 분리하여 폐기한다. The obstacle recognizing unit 111 analyzes a plurality of image data and determines whether or not a photographed object, that is, an obstacle can be recognized. At this time, the obstacle recognition unit 111 analyzes the image data and determines whether the image data is recognizable or not. For example, the obstacle recognizing unit 111 separates and discards a shaken image, an image that is out of focus, and an image in which an obstacle cannot be distinguished because it is dark.

장애물인식부(111)는 영상데이터를 분석하여 장애물의 특징으로 추출하고, 장애물의 형상(형태), 크기 및 색상 바탕으로 장애물을 판단하고 그 위치를 판단한다. 장애물인식부(111)는 기 촬영된 복수의 영상으로부터 장애물을 분석하고, 장애물이 지정거리에 위치하는 것으로 판단되는 시점을 기준으로 기 설정된 시간 이전에 촬영된 영상을 분석하여 장애물을 판단한다. The obstacle recognizing unit 111 analyzes image data, extracts features of the obstacle, determines the obstacle based on the shape (form), size, and color of the obstacle, and determines its location. The obstacle recognizing unit 111 analyzes obstacles from a plurality of pre-photographed images and determines obstacles by analyzing images captured before a predetermined time based on the point in time when it is determined that the obstacle is located at a designated distance.

장애물인식부(111)는 영상데이터로부터 영상의 배경을 제외하고, 기 저장된 장애물데이터를 바탕으로 장애물의 특징을 추출하여 장애물의 종류를 판단할 수 있다. 장애물데이터(181)는 서버로부터 수신되는 새로운 장애물데이터에 의해 갱신된다. 이동 로봇(1)은 감지되는 장애물에 대한 장애물데이터를 저장하고 그 외 데이터에 대하여 서버로부터 장애물의 종류에 대한 데이터를 수신할 수 있다. The obstacle recognizing unit 111 may exclude the background of the image from the image data and extract characteristics of the obstacle based on pre-stored obstacle data to determine the type of the obstacle. The obstacle data 181 is updated by new obstacle data received from the server. The mobile robot 1 may store obstacle data for detected obstacles and receive data on the types of obstacles from the server for other data.

장애물인식부(111)는 영상을 구성하는 소정의 픽셀들에 대해 점, 선, 면 등의 특징을 검출 (feature detection)하고, 이렇게 검출된 특징을 바탕으로 장애물을 검출한다. The obstacle recognizing unit 111 detects features such as points, lines, and planes of predetermined pixels constituting an image, and detects obstacles based on the detected features.

장애물인식부(111)는 장애물의 외곽선을 추출하여 그 형태를 바탕으로 장애물을 인식하여 그 종류를 판단한다. 장애물인식부(111)는 형태를 바탕으로, 장애물의 색상, 크기에 따라 장애물의 종류를 판단할 수 있다. 또한, 장애물인식부(111)는 장애물의 형태와 움직임을 바탕으로 장애물의 종류를 판단할 수 있다. The obstacle recognizing unit 111 extracts the outline of the obstacle, recognizes the obstacle based on its shape, and determines the type. The obstacle recognizing unit 111 may determine the type of obstacle based on the shape and color and size of the obstacle. In addition, the obstacle recognizing unit 111 may determine the type of obstacle based on the shape and motion of the obstacle.

장애물인식부(111)는 장애물 정보를 바탕으로, 사람, 동물, 사물을 구분한다. 장애물인식부(111)는 장애물의 종류를, 일반장애물, 위험장애물, 생체장애물, 바닥장애물로 분류하고, 각 분류에 대하여 세부적인 장애물의 종류를 판단할 수 있다. The obstacle recognizing unit 111 classifies people, animals, and objects based on obstacle information. The obstacle recognizing unit 111 classifies the types of obstacles into general obstacles, dangerous obstacles, biological obstacles, and floor obstacles, and can determine detailed obstacle types for each classification.

또한, 장애물인식부(111)는 인식 가능한 영상데이터를 통신부(290)를 통해 서버(90)로 전송하여 장애물의 종류를 판단하도록 한다. 통신부(290)는 적어도 하나의 영상데이터를 서버(90)로 전송한다.In addition, the obstacle recognizing unit 111 transmits recognizable image data to the server 90 through the communication unit 290 to determine the type of obstacle. The communication unit 290 transmits at least one image data to the server 90 .

서버(90)는 이동 로봇(1)으로부터 영상데이터가 수신되면, 영상데이터를 분석하여 촬영된 대상에 대한 외곽선 또는 형상을 추출하고, 기 저장된 장애물에 대한 데이터와 비교하여, 장애물의 종류를 판단한다. 서버(90)는 유사한 형태 또는 유사한 색상의 장애물을 우선 검색하고, 해당 영상데이터로부터 특징을 추출하여 비교함으로써, 장애물의 종류를 판단한다. When image data is received from the mobile robot 1, the server 90 analyzes the image data to extract the outline or shape of the captured object, compares it with pre-stored data on obstacles, and determines the type of obstacle. . The server 90 first searches for obstacles of a similar shape or color, extracts features from corresponding image data, and compares them to determine the types of obstacles.

서버(90)는 장애물의 종류를 판단한 후, 장애물에 대한 데이터를 이동 로봇(1)으로 전송한다. After determining the type of obstacle, the server 90 transmits data about the obstacle to the mobile robot 1 .

장애물인식부(111)는 통신부를 통해 서버로부터 수신되는 장애물에 대한 데이터를 장애물데이터로써 데이터부(180)에 저장한다. 장애물인식부(111)는 서버에 의해 장애물의 종류가 판단되면, 그에 대응하는 동작을 수행하도록 한다. 주행제어부(113)는 장애물의 종류에 대응하여 장애물을 회피하거나, 접근하거나 또는 통과하도록 주행부를 제어하고, 경우에 따라 소정의 효과음 또는 경고음, 음성안내가 스피커를 통해 출력되도록 한다. The obstacle recognizing unit 111 stores obstacle data received from the server through the communication unit in the data unit 180 as obstacle data. When the type of obstacle is determined by the server, the obstacle recognizing unit 111 performs an operation corresponding thereto. The driving control unit 113 controls the driving unit to avoid, approach, or pass through the obstacle in response to the type of obstacle, and outputs a predetermined sound effect, warning sound, or voice guidance through a speaker in some cases.

장애물인식부(111)는 앞서 설명한 바와 같이, 영상데이터를 인식 가능한지 여부를 판단하고, 저장된 장애물데이터에 따라 영상데이터를 서버로 전송함으로써, 서버의 응답에 따라 장애물의 종류를 인식한다. As described above, the obstacle recognizing unit 111 determines whether image data can be recognized, transmits the image data to the server according to the stored obstacle data, and recognizes the type of obstacle according to the server's response.

또한, 장애물 인식부는 복수의 장애물 중 선택된 장애물에 대하여, 장애물 인식을 위한 장애물데이터를 저장함으로써, 서버로 영상데이터를 전송하지 않더라도 장애물인식데이터를 바탕으로, 장애물을 인식할 수 있다. In addition, the obstacle recognizing unit may recognize the obstacle based on the obstacle recognition data without transmitting image data to the server by storing obstacle data for obstacle recognition for a selected obstacle among a plurality of obstacles.

주행제어부(113)는 주행부(250)를 제어하여 좌륜 구동모터와 우륜 구동모터의 작동을 독립적으로 제어함으로써 본체(10)가 직진 또는 회전하여 주행하도록 한다. 주행제어부(113)는 청소명령에 따라 주행부(250)와 청소부(260)를 제어하여 본체(10)가 청소영역을 주행하면서 이물질을 흡입하여 청소가 수행되도록 한다. The driving control unit 113 controls the driving unit 250 to independently control the operation of the left wheel driving motor and the right wheel driving motor so that the main body 10 travels straight or rotates. The driving controller 113 controls the driving unit 250 and the cleaning unit 260 according to a cleaning command so that the main body 10 travels in the cleaning area and sucks in foreign substances to perform cleaning.

주행제어부(113)는 영상데이터로부터 주행제어부(113)는 장애물의 종류가 인식되면, 장애물의 종류에 대응하여 주행부(250)를 제어하여, 본체(10)가 소정의 동작을 수행하도록 한다. When the driving control unit 113 recognizes the type of obstacle from the image data, the driving control unit 113 controls the driving unit 250 in response to the type of obstacle so that the main body 10 performs a predetermined operation.

주행제어부(113)는 장애물 감지유닛(100)의 감지신호에 따라 장애물이 소정 거리 내에 위치하는 것으로 판단되면, 감지신호의 종류 또는 형태에 따라 실행 가능한 대응모션에 대하여, 영상데이터를 바탕으로 판단되는 장애물의 종류, 형태 크기에 따라 복수의 대응모션 중 어느 하나를 설정하여 동작을 수행한다. When the driving control unit 113 determines that an obstacle is located within a predetermined distance according to the detection signal of the obstacle detection unit 100, the corresponding motion that can be executed according to the type or form of the detection signal is determined based on the image data. According to the type and size of the obstacle, one of a plurality of corresponding motions is set and the operation is performed.

주행제어부(113)는 장애물 감지유닛(100)을 통해 장애물이 지정된 거리 내에 위치하는 경우, 감지신호에 따라 회피, 접근, 접근거리에 대한 설정, 그리고 정지, 감속, 가속, 역주행, 유턴, 주행방향 변경과 같은 복수의 대응모션을 설정하고, 기 촬영된 영상데이터로부터 판단되는 장애물에 따라 어느 하나의 대응모션을 설정하여 주행부를 제어한다. When an obstacle is located within a designated distance through the obstacle sensing unit 113, the driving control unit 113 sets avoidance, approach, approach distance, stop, deceleration, acceleration, reverse travel, U-turn, and travel direction according to the detection signal. A plurality of corresponding motions such as change are set, and one corresponding motion is set according to an obstacle determined from pre-photographed image data to control the traveling unit.

주행제어부(113)는 에러를 출력하고, 필요에 따라 소정의 경고음 또는 음성안내를 출력할 수 있다. The driving control unit 113 may output an error and, if necessary, output a predetermined warning sound or voice guide.

주행제어부(113)는 주행 중, 새로운 영역에 도달하는 경우, 지도 생성을 위해 해당 영역을 주행하도록 주행부(250)를 제어한다. When a new area is reached during driving, the driving controller 113 controls the driving unit 250 to drive in the corresponding area to create a map.

주행제어부(113)는 기 저장된 지도로 부터 새로운 영역의 위치를 산출하여, 기 저장된 지도의 끝지점부터 주행을 시작하도록 주행부(250)를 제어할 수 있다. 또한, 주행제어부(113)는 현재 위치로부터 근접한 벽면(또는 장애물)으로 이동한 후, 벽을 따라 이동하며 새로운 영역을 주행하도록 주행부를 제어할 수 있다. The driving controller 113 may calculate the location of a new area from a previously stored map and control the driving unit 250 to start driving from an end point of the previously stored map. In addition, the driving controller 113 may control the driving unit to move from the current position to a nearby wall (or obstacle) and then move along the wall to drive in a new area.

본체(10)가 주행하는 동안, 장애물인식부(111)는 감지수단, 즉 장애물 감지유닛(100), 영상획득부(170) 및 센서부(150)로부터 입력되는 데이터를 분석하여 주행방향의 장애물을 감지하여 장애물을 인식한다. While the main body 10 is driving, the obstacle recognizing unit 111 analyzes the data input from the sensing means, that is, the obstacle sensing unit 100, the image acquisition unit 170, and the sensor unit 150 to analyze the obstacles in the driving direction. to detect obstacles.

맵생성부(112)는 주행 중 이동 로봇의 위치, 주행경로 및 이동거리, 장애물의 위치와 크기 등의 장애물에 대한 정보를 바탕으로 새로운 영역에 대한 지도를 생성한다. The map generator 112 creates a map for a new area based on information about obstacles such as the position of the mobile robot during driving, the driving route and moving distance, and the position and size of obstacles.

맵생성부(112)는 본체(10)가 기 저장된 지도의 끝지점부터 주행을 시작하여 새로운 영역을 주행한 경우, 지도의 끝지점으로부터 연결하여 새로운 영역에 대한 지도를 추가로 생성할 수 있다. When the main body 10 starts driving from the end point of a pre-stored map and travels in a new area, the map generator 112 may additionally create a map for the new area by connecting from the end point of the map.

한편, 단말은, 데이터를 표시하는 표시부(미도시), 적어도 하나의 키, 터치입력수단을 포함하는 입력부(미도시), 입력부를 통해 입력되는 사용자 입력에 대응하여 어플리케이션을 실행하고, 메뉴화면을 구성하여 표시부를 통해 출력하는 단말제어부(미도시)를 포함한다. 단말은 이동 로봇과 통신하여 데이터를 송수신하는 통신부를 포함한다. 통신부는 복수의 통신모듈을 포함하여 이동 로봇은 물론 소정의 네트워크에 접속하여 서버와 데이터를 송수신한다. Meanwhile, the terminal executes an application in response to a user input input through a display unit (not shown) displaying data, an input unit (not shown) including at least one key and a touch input means, and a menu screen. It includes a terminal control unit (not shown) configured and outputted through the display unit. The terminal includes a communication unit for transmitting and receiving data by communicating with the mobile robot. The communication unit includes a plurality of communication modules and transmits/receives data to and from the server by accessing the mobile robot as well as a predetermined network.

단말은 복수의 센서를 포함하여 사용자의 제스처를 인식하고, 진동 또는 단말의 움직임을 감지하며, 음성을 인식하여 그에 대응하는 동작을 실행할 수 있다. 단말은 효과음, 음성안내를 출력하는 스피커를 포함한다. The terminal includes a plurality of sensors to recognize a user's gesture, detect vibration or movement of the terminal, recognize voice, and execute a corresponding operation. The terminal includes a speaker that outputs sound effects and voice guidance.

도 4 는 본 발명의 일 실시예에 따른 이동 로봇의 지도를 설명하는데 참조되는 도이다. 4 is a diagram referenced for explaining a map of a mobile robot according to an embodiment of the present invention.

도 4의 (a)에 도시된 바와 같이, 실내 공간이 제 1 내지 제 3 영역(A1 내지 A3)으로 구분된다. As shown in (a) of FIG. 4 , the indoor space is divided into first to third areas A1 to A3.

이동 로봇(1)은 주행 시, 영역에 대한 지도를 생성한다. 주행부(250)에 의해 본체(10)가 각 영역을 주행하면서 감지수단에 의해 감지되는 데이터를 바탕으로 장애물을 인식하고 그에 따라 지도를 생성할 수 있다. The mobile robot 1 creates a map for an area while driving. While the main body 10 travels in each area by the driving unit 250, obstacles may be recognized based on data sensed by the sensing means, and a map may be generated accordingly.

지도 생성 시, 제 1 내지 제 3 영역(A1 내지 A3) 중, 제 3 영역의 문이 닫혀 있거나, 제 3 영역(A3)으로 이동 로봇(1)이 진입할 수 없는 경우 제 1, 2 영역에 대한 지도를 생성하게 된다. When creating a map, among the first to third areas A1 to A3, if the door to the third area is closed or the mobile robot 1 cannot enter the third area A3, the first and second areas to create a map for

제 1, 2 영역(A1, A2)에 대한 지도를 생성한 이동 로봇(1)은 지도를 단말(200)로 전송하고, 단말(200)은 이동 로봇(1)으로부터 수신된 지도를 도 4의 (b)에 도시된 바와 같이, 화면에 표시할 수 있다. The mobile robot 1 that generated the map for the first and second areas A1 and A2 transmits the map to the terminal 200, and the terminal 200 displays the map received from the mobile robot 1 as shown in FIG. As shown in (b), it can be displayed on the screen.

이동 로봇(1)은 제 1 영역 및 제 2 영역만을 인식하여 단말(200)의 청소명령에 따라 지정된 위치로 이동하여 청소를 수행한다. 이동 로봇(1)은 기초맵 또는 청소맵을 바탕으로 주행하며, 지정된 동작을 수행한다. The mobile robot 1 recognizes only the first area and the second area, moves to a designated location according to the cleaning command of the terminal 200, and performs cleaning. The mobile robot 1 travels based on a basic map or a cleaning map and performs a designated operation.

단말(200)은 이동 로봇(1)으로부터 수신되는 지도(맵)를 화면에 표시한다. 단말(200)의 사용자의 편의에 따라 사용자맵과 가이드맵을 선택적으로 표시할 수 있다. 또한, 단말은 필요에 따라 기초맵, 청소맵, 사용자맵, 가이드맵 중 어느 하나를 표시할 수 있다. The terminal 200 displays a map (map) received from the mobile robot 1 on the screen. Depending on the convenience of the user of the terminal 200, a user map and a guide map may be selectively displayed. In addition, the terminal may display any one of a basic map, a cleaning map, a user map, and a guide map as needed.

도 5 는 본 발명의 일 실시예에 따른 이동 로봇의 미탐색영역에 대한 탐색 동작을 설명하는데 참조되는 도이다. 5 is a diagram referenced to describe a search operation for an unexplored area of a mobile robot according to an embodiment of the present invention.

도 5의 (a)에 도시된 바와 같이, 단말(200)은 지도(281)를 화면(280)에 표시한다. As shown in (a) of FIG. 5 , the terminal 200 displays a map 281 on a screen 280 .

앞서 설명한 바와 같이, 지도에는 제 1 영역(A1)과 제 2 영역(A2)이 표시된다. 단말(200)은 사용자의 입력에 대응하여, 제 1 영역 또는 제 2 영역에 대한 명령을 이동 로봇(1)으로 전송할 수 있다. 예를 들어 청소명령, 방범모드설정 등에 대한 명령이다. As described above, the first area A1 and the second area A2 are displayed on the map. The terminal 200 may transmit a command for the first area or the second area to the mobile robot 1 in response to a user's input. For example, it is a command for a cleaning command, crime prevention mode setting, and the like.

단말(200)은 터치, 키입력, 멀티터치, 롱키입력, 터치 후 드래그와 같은 사용자의 조작을 사용자 입력으로 인식하고 그에 대하여 어플리케이션을 실행하고, 특정 메뉴화면을 표시하며, 데이터를 저장하고 전송할 수 있다. The terminal 200 can recognize user manipulations such as touch, key input, multi-touch, long key input, and touch-and-drag as user input, execute an application, display a specific menu screen, and store and transmit data. there is.

단말(200)은 이동 로봇(1)으로부터 이동 로봇(1)의 현재위치에 대한 데이터를 수신하여 화면(280)에 표시된 지도에, 그 위치를 표시한다. 화면에 표시되는 이동 로봇(1) 또한 동일한 도면부호를 기재함을 명시한다. 이동 로봇(1)은 이동 로봇에 대응하는 이미지 또는 아이콘으로 표시될 수 있다. The terminal 200 receives data on the current location of the mobile robot 1 from the mobile robot 1 and displays the location on a map displayed on the screen 280 . It is specified that the mobile robot 1 displayed on the screen also has the same reference numerals. The mobile robot 1 may be displayed as an image or icon corresponding to the mobile robot.

한편, 사용자에 의해 지도(281) 상의 탐색영역이 아닌 그 외의 영역인 미탐색영역(An), 즉 제 1 영역(A1)과 제 2 영역(A2)을 벗어난 영역에서 어느 한 지점, 제 1 지점(P1)이 선택될 수 있다. On the other hand, a first point, any one point in the unsearched area An, which is an area other than the search area on the map 281 by the user, that is, an area outside the first area A1 and the second area A2 (P1) can be selected.

터치 또는 롱키입력으로 제 1 지점이 선택될 수 있다. The first point may be selected by touch or long key input.

단말(200)은, 지도(281)에서 탐색영역이 아닌 미탐색영역(An)의 어느 한 지점, 즉 제 1 지점(P1)이 선택되면, 도 5의 (b)에 도시된 바와 같이, 사용자 입력에 대응하여 제 1 지점(P1)으로 이동하도록 이동 로봇(1)으로 제어명령을 전송한다.When the terminal 200 selects a point in the unsearched area An, not the searched area on the map 281, that is, the first point P1, as shown in FIG. 5(b), the user In response to the input, a control command is transmitted to the mobile robot 1 to move to the first point P1.

단말(200)은 기 저장된 지도를 바탕으로, 선택된 제 1 지점(P1)에 대한 상대적 위치를 산출하여 이동 로봇(1)으로 전송할 수 있다. The terminal 200 may calculate a relative position with respect to the selected first point P1 based on a pre-stored map and transmit it to the mobile robot 1 .

이동 로봇(1)은 단말(200)로부터 수신되는 제어명령에 대응하여, 제 1 지점(P1)에 대응하는 위치로 이동한다. The mobile robot 1 moves to a position corresponding to the first point P1 in response to a control command received from the terminal 200 .

이동 로봇(1)은 기 저장된 지도를 바탕으로, 선택된 제 1 지점(P1)이, 제 1 영역 및 제 2 영역이 아닌, 미탐색영역인 것을 판단한다. 이동 로봇(1)은 지도로부터 선택된 제 1 지점에 인접한 위치로 이동하며 감지되는 장애물 정보를 바탕으로 제 1 지점으로 이동한다. Based on the pre-stored map, the mobile robot 1 determines that the selected first point P1 is an unexplored area, not the first and second areas. The mobile robot 1 moves to a location adjacent to a first point selected from the map and moves to the first point based on detected obstacle information.

이동 로봇(1)은 제 1 지점(P1)과 인접한 제 1 영역(A1)으로 이동한 후, 제 1 영역(A1)으로부터 장애물을 감지하며 제 1 지점(P1)에 대응하는 위치로 이동한다. After moving to the first area A1 adjacent to the first point P1, the mobile robot 1 detects an obstacle from the first area A1 and moves to a position corresponding to the first point P1.

예를 들어, 이동 로봇(1)은 단말(200)로부터 수신되는 제 1 지점에 대한 데이터, 즉 현재 지도를 바탕으로 하는 상대적 위치를 산출하여, 제 1 영역(A1)에서 제 1 지점(P1)으로 직선 주행을 시도할 수 있다. For example, the mobile robot 1 calculates the data for the first point received from the terminal 200, that is, the relative position based on the current map, and calculates the first point P1 in the first area A1. You can try driving in a straight line.

제 1 영역(A1)로부터 제 1 지점(P1)으로 이동하는 경우, 이동 로봇(1)은 주행 중, 장애물, 예를 들어 벽을 감지할 수 있다. 이동 로봇(1)은 주행 중 감지되는 장애물에 대응하여 재탐색을 통해 다시 경로를 설정하여 제 1 지점을 향해 주행한다. When moving from the first area A1 to the first point P1, the mobile robot 1 may detect an obstacle, for example, a wall, while driving. The mobile robot 1 travels toward the first point by setting a route again through re-search in response to an obstacle detected during driving.

이동 로봇(1)은 주행 중, 제 1 지점(P1)과 제 1 영역(A1)이 연결되는 연결지점(P11)을 탐색하고, 이를 통해 제 1 지점(P1)으로 이동할 수 있다. While driving, the mobile robot 1 may search for a connection point P11 where the first point P1 and the first area A1 are connected, and move to the first point P1 through this search.

이동 로봇은 기 저장된 지도의 영역을 벗어나 선택 지점인 제 1 지점으로 이동하는 경우, 기 저장된 지도의 마지막 지점을 연결지점으로 설정한다. 또한, 이동 로봇은 새로운 영역에 진입한 진입경로를 바탕으로 기 저장된 지도와의 연결지점을 설정할 수 있다. When the mobile robot moves out of the area of the pre-stored map and moves to the first point, which is the selection point, the last point of the pre-stored map is set as the connection point. In addition, the mobile robot may set a connection point with a pre-stored map based on an entry route into a new area.

제 1 지점으로 이동하지 못하는 경우 이동 로봇은 에러를 출력할 수 있다. 단말은 제 1 지점으로의 접근 불가를 알리는 안내메시지를 출력할 수 있다. When unable to move to the first point, the mobile robot may output an error. The terminal may output a guide message informing that access to the first point is impossible.

한편, 도 5의 (c)에 도시된 바와 같이, 단말(200)은 지도상의 미탐색영역(An)이 선택되었음을 알리는 안내 또는 경고를 화면에 출력할 수 있다. Meanwhile, as shown in (c) of FIG. 5 , the terminal 200 may output a guide or warning notifying that the unexplored area An on the map is selected on the screen.

예를 들어, '미 탐색영역이 선택되었습니다. 다시 한번 확인해 주십시오.'와 같은 안내메시지(283)를 화면에 팝업창으로 표시할 수 있다. For example, 'Unexplored area selected. Please check again.' may be displayed as a pop-up window on the screen.

안내메시지에 대하여 사용자가 진행키(284)를 선택하는 경우 선택된 지점(제 1 지점)에 대하여 앞서 설명한 바와 같이 이동 로봇(1)으로 제어명령을 전송한다. 경우에 따라 안내메시지를 통해 다시 선택지점이 맞는지 여부를 확인할 수 있다. When the user selects the progress key 284 with respect to the guide message, a control command is transmitted to the mobile robot 1 as described above for the selected point (first point). In some cases, it is possible to check again whether the selected point is correct or not through a guide message.

취소키(285)가 선택되면 단말(200)은 지점 선택을 취소하면 다시 지도화면으로 복귀한다. When the cancel key 285 is selected, the terminal 200 returns to the map screen again when canceling the point selection.

또한, 사용자 입력에 대응하여, 이동 로봇은 미탐색영역으로 이동하여 미탐색영역에 대한 지도를 생성할 수 있다. Also, in response to a user input, the mobile robot may move to an unexplored area and create a map of the unexplored area.

사용자 입력에 따라, 지도(281) 상의 어느 하나의 지점이 터치된 후, 미탐색영역으로 드래그되는 경우, 단말(200)은 미탐색영역에 대한 탐색명령을 이동 로봇(1)으로 전송할 수 있다. When a point on the map 281 is touched according to a user input and then dragged to an unexplored area, the terminal 200 may transmit a search command for the unexplored area to the mobile robot 1 .

단말(200)은 터치된 지점과 드래그된 방향, 드래그된 지점(마지막 지점)에 대한 정보를 포함하여 탐색명령을 이동 로봇으로 전송할 수 있다. The terminal 200 may transmit a search command including information on the touched point, the dragged direction, and the dragged point (last point) to the mobile robot.

이동 로봇(1)은 터치된 지점에 대응하는 지도상의 어느 한 지점으로 이동한 후, 드래그된 방향에 따라 실제 영역을 주행하면서, 미탐색영역으로 진입할 수 있다. After moving to a point on the map corresponding to the touched point, the mobile robot 1 may enter the unexplored area while driving in the actual area according to the dragged direction.

이동 로봇(1)은 드래그된 지점에 대응하는 위치로 이동하고, 지도의 영역(탐색영역)을 벗어나 미탐색영역에 진입하면, 미탐색영역에 대한 지도를 생성할 수 있다. When the mobile robot 1 moves to a position corresponding to the dragged point and enters the unexplored area beyond the area of the map (search area), it can create a map for the unexplored area.

도 6 은 도 5의 이동 로봇의 미탐색영역에 대한 지도생성을 설명하는데 참조되는 도이다. FIG. 6 is a diagram referenced to explain map generation for an unexplored area of the mobile robot of FIG. 5 .

또한, 도 6의 (a)에 도시된 바와 같이, 이동 로봇(1)이 제 1 지점(P1)으로 이동하는 중, 단말(200)은 이동 로봇(1)으로부터 위치정보를 수신하여 화면의 지도상에 이동 로봇의 위치를 표시할 수 있다. In addition, as shown in (a) of FIG. 6, while the mobile robot 1 is moving to the first point P1, the terminal 200 receives location information from the mobile robot 1 and maps the screen. The location of the mobile robot can be displayed on the screen.

이동 로봇(1)이 연결지점(P11)을 통해 제 1 영역(A1)을 벗어나고, 미탐색영역을 주행하는 경우, 단말(200)은 이동 로봇의 현재 위치를 바탕으로 지도(281)에 확장영역(282)을 표시할 수 있다. When the mobile robot 1 leaves the first area A1 through the connection point P11 and travels in an unexplored area, the terminal 200 displays an extended area on the map 281 based on the current location of the mobile robot. (282) can be displayed.

이동 로봇(1)은 제 1 지점(P1)에 도달하면, 새로운 영역으로 인식하여 새로운 영역에 대한 탐색을 수행하고 그에 따라 감지되는 데이터를 바탕으로 지도를 생성한다. When the mobile robot 1 reaches the first point P1, it recognizes it as a new area, searches for the new area, and creates a map based on data sensed accordingly.

이동 로봇(1)은 제 3 영역(A3)을 주행하면서, 예를 들어 월팔로윙을 수행하며 제 3 영역(A3)에 대한 지도를 생성한다. The mobile robot 1 creates a map for the third area A3 while driving in the third area A3, for example, performing wall-following.

이때, 주행제어부(113)는 주행부(250)를 제어하여, 새로운 영역에 대한 지도를 생성하기 위해 제 3 영역을 주행하도록 주행부를 제어한다. 주행제어부는 제 3 영역으로 진입한 경로를 바탕으로 제 1 영역과의 연결지점에 대한 데이터를 저장하고, 연결지점을 시작점으로 하여 이동하도록 주행부를 제어할 수 있다. At this time, the driving control unit 113 controls the driving unit 250 to drive the third area to create a map for a new area. The driving control unit may store data on a connection point with the first area based on a route entering the third area, and control the driving unit to move with the connection point as a starting point.

또한, 주행제어부(113)는 현재 위치를 기준으로, 감지수단을 통해 감지되는 데이터를 바탕으로 현재 위치로부터 근접한 벽면을 탐색한 후, 이동하여 벽면을 따라 이동하도록 주행부를 제어할 수 있다. In addition, the driving control unit 113 may control the driving unit to move along the wall surface after searching for a wall surface close to the current position based on the data sensed by the sensing unit based on the current position.

주행 중, 감지수단은 장애물을 감지하고, 장애물인식부(111)는 장애물의 종류를 인식하여 장애물의 위치와 함께 저장하고, 맵생성부(112)는 이동경로, 위치정보, 장애물의 종류, 크기 및 위치에 대한 데이터를 바탕으로 제 3 영역에 대해 지도를 생성한다. 또한, 맵생성부는 연결지점을 바탕으로 기 저장된 지도와 제 3 영역에 대한 지도를 연결하고, 연결지점을 기준으로 제 3 영역을 구분할 수 있다. During driving, the sensing unit detects an obstacle, the obstacle recognizing unit 111 recognizes the type of obstacle and stores it together with the location of the obstacle, and the map generator 112 provides movement route, location information, type and size of the obstacle And based on the location data, a map is generated for the third area. In addition, the map generator may connect a pre-stored map and a map of the third area based on the connection point, and divide the third area based on the connection point.

도 6의 (b)에 도시된 바와 같이 이동 로봇(1)은 제 3 영역에 대한 지도가 생성되면, 연결지점(P11)을 기준으로 기 생성된 지도에 새로운 제 3 영역의 지도를 추가하여, 저장된 지도를 갱신한다. 제 1 영역 및 제 2 영역에 대한 지도와 장애물에 대한 데이터는 그대로 유지하고 제 3 영역에 대한 지도만을 추가할 수 있다. As shown in (b) of FIG. 6, when a map of the third area is created, the mobile robot 1 adds a new map of the third area to the previously created map based on the connection point P11, Update the saved map. Maps for the first and second areas and data on obstacles may be maintained and only maps for the third area may be added.

이동 로봇(1)은 갱신된 지도를 단말(200)로 전송한다. The mobile robot 1 transmits the updated map to the terminal 200.

단말(200)은 갱신된 지도를 수신하여 신규 추가된 제 3 영역(A3)이 포함된, 지도를 화면(280)에 표시한다.The terminal 200 receives the updated map and displays the map including the newly added third area A3 on the screen 280 .

한편, 이동 로봇(1)은 제 1 영역(A1)을 주행하는 중, 제 3 영역(A3)에 진입할 수 있다. 이동 로봇(1)은 제 3 영역이 지도에 없는 미탐색영역으로, 새로운 영역인 것으로 판단할 수 있다. Meanwhile, the mobile robot 1 may enter the third area A3 while traveling in the first area A1. The mobile robot 1 may determine that the third area is a new area as it is an unexplored area not on the map.

그에 따라 이동 로봇(1)은 제 3 영역을 주행하며 제 3 영역에 대한 지도를 생성할 수 있다. 이동 로봇(1)은 앞서 설명한 바와 같이 제 3 영역에 대한 지도를 생성하여, 제 3 영역과 제 1 영역의 연결지점을 기준으로 기 생성된 지도에 제 3 영역에 대한 지도를 추가하여 지도를 갱신하고 단말로 전송한다. Accordingly, the mobile robot 1 may generate a map for the third area while driving in the third area. As described above, the mobile robot 1 creates a map for the third area, and updates the map by adding a map for the third area to the pre-created map based on the connection point between the third area and the first area. and send it to the terminal.

단말은 수신되는 갱신된 지도를 화면에 표시한다. The terminal displays the received updated map on the screen.

도 7 은 본 발명의 일 실시예에 따른 이동 로봇의 단말을 이용한 청소명령 설정을 설명하는데 참조되는 예시도이다. 7 is an exemplary view referenced to describe setting a cleaning command using a terminal of a mobile robot according to an embodiment of the present invention.

도 7의 (a)에 도시된 바와 같이, 단말(200)은 제 3 영역(A3)이 추가된 갱신된 지도를 화면(280)에 표시한다. As shown in (a) of FIG. 7 , the terminal 200 displays the updated map to which the third area A3 is added on the screen 280 .

단말(200)은 지도상의 제 1 내지 제 3 영역(A1 내지 A3) 중 적어도 하나의 영역이 선택되면, 선택되는 영역을 다른 영역과 상이하게 표시한다. 예를 들어, 단말(200)은 선택된 영역의 색상을 변경하여 표시할 수 있고, 도시된 바와 같이 'V'로 선택된 영역임을 표시할 수 있다. When at least one of the first to third areas A1 to A3 on the map is selected, the terminal 200 displays the selected area differently from other areas. For example, the terminal 200 may change and display the color of the selected area, and may indicate the selected area as 'V' as shown.

또한, 단말(200)은 선택된 순서에 따라 번호를 표시할 수 있다. 단말(200)은 각 영역에 대하여 선택된 순서에 따라 청소가 진행되도록 할 수 있다. Also, the terminal 200 may display numbers according to the selected order. The terminal 200 may allow cleaning to be performed according to the order selected for each area.

필요에 따라, 단말(200)은 선택된 순서에 관계없이, 별도의 청소순서를 지정할 수 있다. 지도에는 메뉴설정을 통해 청소순서가 지정되는 경우, 청소순서에 따라 번호가 표시된다. If necessary, the terminal 200 may designate a separate cleaning order regardless of the selected order. If the cleaning order is specified through the menu setting, numbers are displayed according to the cleaning order on the map.

단말(200)은 선택된 영역과, 청소순서를 포함하는 청소명령을 이동 로봇(1)으로 전송한다. The terminal 200 transmits a cleaning command including the selected area and a cleaning sequence to the mobile robot 1 .

도 7의 (b)에 도시된 바와 같이, 이동 로봇(1)은 단말(200)로부터 청소명령을 수신한다. As shown in (b) of FIG. 7 , the mobile robot 1 receives a cleaning command from the terminal 200 .

제 1 영역(A1)의 제 2 지점(P2)에 위치한 충전대에 도킹 된 이동 로봇(1)은, 수신된 청소명령에 따라 영역을 주행하면서 청소를 수행한다. The mobile robot 1 docked at the charging stand located at the second point P2 of the first area A1 performs cleaning while traveling in the area according to the received cleaning command.

이동 로봇(1)은, 영역을 주행하는 중에 청소명령을 수신하는 경우, 청소명령에 따라 청소를 수행한다. 필요에 따라 기 설정된 동작을 수행하는 중 청소명령이 수신되는 경우 이동 로봇(1)은 기 설정된 동작을 완료한 후 청소명령을 실행할 수 있다. 또한, 이동 로봇은 기 설정된 동작과 청소명령 중 중요도를 판단하여 기 설정된 동작을 중지하고 청소명령을 우선 수행한 후, 청소명령에 따른 동작을 완료한 후 다시 기 설정된 동작을 수행할 수 있다. When the mobile robot 1 receives a cleaning command while traveling in an area, it performs cleaning according to the cleaning command. When a cleaning command is received while performing a preset operation as needed, the mobile robot 1 may execute the cleaning command after completing the preset operation. In addition, the mobile robot may determine the importance of the preset operation and the cleaning command, stop the preset operation, perform the cleaning command first, complete the operation according to the cleaning command, and then perform the preset operation again.

이동 로봇(1)은 청소명령에 포함된, 청소 영역과 청소순서에 따라 각 영역을 이동하면서 청소를 수행한다. The mobile robot 1 performs cleaning while moving through each area according to the cleaning area and cleaning order included in the cleaning command.

제 1 내지 제 3 영역이 청소 영역으로 지정되고, 또한 제 3 영역(A3), 제 2 영역(A2) 그리고 제 1 영역(A1)의 순서대로 청소순서가 지정된 경우, 이동 로봇(1)은 지정된 순서에 따라 각 영역을 이동하면서 청소를 수행한다. When the first to third areas are designated as cleaning areas, and the cleaning order is designated in the order of the third area A3, second area A2 and first area A1, the mobile robot 1 Cleaning is performed while moving through each area in sequence.

이동 로봇(1)은 제 3 영역으로 이동하여(S1), 제 3 영역을 청소한 후, 제 2 영역으로 이동(S2)할 수 있다. 제 2 영역에 대한 청소가 완료되면 제 1 영역으로 이동하여(S3), 제 1 영역을 청소한다. 도면에는 이동 로봇의 이동 경로가 곡선으로 표시되었으나, 이동 로봇의 실제 주행경로와는 상이함을 명시한다. 이동 로봇은 영역 간에 이동 시 최단 경로를 설정하여 이동할 수 있고 주행방향에 위치하는 장애물에 따라 장애물을 회피하거나 통과하여 주행할 수 있다. The mobile robot 1 may move to the third area (S1), clean the third area, and then move to the second area (S2). When the cleaning of the second area is completed, it moves to the first area (S3) and cleans the first area. Although the moving path of the mobile robot is shown as a curve in the drawing, it is specified that it is different from the actual traveling path of the mobile robot. When moving between areas, the mobile robot can move by setting the shortest path and can avoid or pass through obstacles according to obstacles located in the driving direction.

한편, 청소순서가 지정되어 있지 않은 경우 이동 로봇(1)은 현재 위치를 기준으로 근접한 영역을 우선하여 청소한 후, 다음 영역으로 이동할 수 있다. On the other hand, if the cleaning order is not specified, the mobile robot 1 may prioritize cleaning an area close to the current location and then move to the next area.

단말(200)은 이동 로봇(1)으로부터 수신되는 데이터를 바탕으로, 이동 로봇의 현재 위치를 화면의 지도상에 표시할 수 있다. The terminal 200 may display the current location of the mobile robot on a map on the screen based on data received from the mobile robot 1 .

단말(200)은 이동 로봇(1)으로부터 수신되는 데이터를 바탕으로, 각 영역에 대한 청소진행상태를 표시할 수 있다. 단말은 청소가 완료된 영역에 대하여 청소완료로 표시하고, 청소가 진행중인 영역에 대하여 진행율을 표시할 수 있다. 청소완료 및 진행율은 이미지, 그래프, 숫자, 문자 중 적어도 하나의 조합으로 표시될 수 있다. 또한, 단말은 청소완료영역과 진행중인 영역, 아직 청소하지 않은 영역을 각각 상이한 색상으로 표시할 수도 있다. The terminal 200 may display a cleaning progress status for each area based on data received from the mobile robot 1 . The terminal may display cleaning complete for an area where cleaning is completed, and display a progress rate for an area in progress of cleaning. The cleaning completion and progress rate may be displayed as a combination of at least one of images, graphs, numbers, and text. In addition, the terminal may display the cleaning completed area, the area in progress, and the area not yet cleaned in different colors, respectively.

또한, 단말(200)은 화면에 표시된 지도로부터 영역이 선택되면, 사용자 입력에 대응하여 선택된 영역을 수정할 수 있다. 예를 들어 제 2 영역이 선택된 후, 어느 하나의 변이 터치 후 드래그되는 경우, 드래그되는 방향에 대응하여 영역을 확장하거나 또는 축소할 수 있다. Also, when an area is selected from a map displayed on the screen, the terminal 200 may correct the selected area in response to a user input. For example, if any one side is touched and then dragged after the second area is selected, the area may be expanded or reduced in accordance with the dragged direction.

도 8 은 본 발명의 일실시예에 따른 이동 로봇의 주행 패턴을 설명하는데 탐조되는 도이다. 8 is a view for explaining a driving pattern of a mobile robot according to an embodiment of the present invention.

도 8의 (a)에 도시된 바와 같이, 단말(200)은, 이동 로봇(1)에 대한 제어메뉴를 통해 주행패턴(또는 주행패턴)을 입력할 수 있다. 주행패턴은 청소동작에 적용되며, 청소동작 이외의 영역 내의 이동에도 적용될 수 있다. As shown in (a) of FIG. 8 , the terminal 200 may input a driving pattern (or driving pattern) through a control menu for the mobile robot 1 . The driving pattern is applied to the cleaning operation, and may also be applied to movement within an area other than the cleaning operation.

단말(200)은 터치 및 드래그 되는 방향에 대하여 입력패턴(L1)으로 저장한다. 단말(200)은 터치 후 드래그되어 터치가 종료되는 지점까지의 각 지점의 위치에 대한 정보를 바탕으로 입력패턴을 저장한다. The terminal 200 stores the touch and drag direction as an input pattern L1. The terminal 200 stores the input pattern based on information about the position of each point up to the point where the touch ends after the touch is dragged.

도 8의 (b)에 도시된 바와 같이, 단말(200)은 입력패턴을 분석하여 이동 로봇의 실제 주행에 적용되는 주행패턴을 생성한다. As shown in (b) of FIG. 8, the terminal 200 analyzes the input pattern and generates a driving pattern applied to the actual driving of the mobile robot.

단말(200)은 입력패턴의 특징을 분석하고, 기저장된 패턴데이터로부터 유사한 패턴을 검색할 수 있다. 단말(200)은 유사한 패턴이 존재하는 경우 해당 주행패턴을 등록한다. 또한, 유사한 주행패턴이 존재하지 않는 경우 앞서 설명한 바와 같이, 입력패턴에 따라 주행패턴을 생성한다. The terminal 200 may analyze the characteristics of the input pattern and search for a similar pattern from pre-stored pattern data. When a similar pattern exists, the terminal 200 registers the corresponding driving pattern. In addition, when a similar driving pattern does not exist, a driving pattern is generated according to the input pattern as described above.

이동 로봇(1)은 지정된 주행패턴(L2)에 따라 지정된 형태로 영역을 이동할 수 있다. The mobile robot 1 may move an area in a designated form according to a designated driving pattern L2.

단말(200)은 입력패턴(L)에 대응하여, 도 8의 (c)에 도시된 바와 같이, 주행패턴(L3)을 생성할 수 있다. 즉 입력패턴에 따라 그대로 이동하는 것이 아니라, 입력패턴의 주행 원리를 바탕으로 영역의 형태에 맞춰 외곽으로부터 내부로 나선주행하도록 할 수 있다. 그에 따라 이동 로봇(1)은 주행패턴(L3)에 따라 영역(A4)을 주행할 수 있다. The terminal 200 may generate a driving pattern L3 in response to the input pattern L, as shown in (c) of FIG. 8 . That is, instead of moving as it is according to the input pattern, based on the driving principle of the input pattern, it can spirally run from the outside to the inside according to the shape of the area. Accordingly, the mobile robot 1 may travel in the area A4 according to the driving pattern L3.

주행패턴은 청소동작에 적용되며, 청소동작 이외의 영역 내의 이동에도 적용될 수 있다. The driving pattern is applied to the cleaning operation, and may also be applied to movement within an area other than the cleaning operation.

도 9 는 본 발명의 일실시예에 따른 이동 로봇의 새로운 영역에 대한 지도생성방법을 설명하는데 참조되는 도이다. 9 is a reference diagram for explaining a method of generating a map for a new area of a mobile robot according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 이동 로봇(1)은 영역에 대한 지도를 생성하여 저장하고, 생성된 지도를 단말(200)로 전송한다. As shown in FIG. 9 , the mobile robot 1 generates and stores a map of an area and transmits the generated map to the terminal 200 .

단말(200)은 이동 로봇(1)으로부터 수신되는 지도(맵)를 화면에 표시한다. 단말(200)의 사용자의 편의에 따라 사용자맵과 가이드맵을 선택적으로 표시할 수 있다. 또한, 단말은 필요에 따라 기초맵, 청소맵, 사용자맵, 가이드맵 중 어느 하나를 표시할 수 있다. The terminal 200 displays a map (map) received from the mobile robot 1 on the screen. Depending on the convenience of the user of the terminal 200, a user map and a guide map may be selectively displayed. In addition, the terminal may display any one of a basic map, a cleaning map, a user map, and a guide map as needed.

이동 로봇(1)은 청소맵 중 어느 하나를 사용하여 주행하며, 지정된 동작을 수행한다. 이동 로봇(1)은 기초맵을 바탕으로 동작하는 것 또한 가능하다. 사용자맵과 가이드맵은 기초맵과 청소맵에 매칭되므로, 사용자맵 또는 가이드맵을 바탕으로 청소명령이 입력되더라도 그에 따라 동작이 가능하다. The mobile robot 1 travels using one of the cleaning maps and performs a designated operation. The mobile robot 1 can also operate based on a basic map. Since the user map and the guide map are matched with the basic map and the cleaning map, even if a cleaning command is input based on the user map or the guide map, an operation is possible accordingly.

단말(200)은 화면에 표시된 지도에서, 사용자 입력에 대응하여 어느 하나의 영역, 또는 하나의 지점이 선택된다(S320). The terminal 200 selects one area or one point in response to a user input from the map displayed on the screen (S320).

단말(200)은 선택된 영역이 실내영역인지 여부를 판단한다(S330). 즉 단말(200)은 선택된 영역이 실내영역으로, 기 탐색되어 실내 영역으로 구분되어진 탐색영역인지 여부를 판단한다. The terminal 200 determines whether the selected area is an indoor area (S330). That is, the terminal 200 determines whether the selected area is an indoor area and is a search area previously searched and divided into indoor areas.

단말(200)은 선택된 영역이, 기 탐색된 실내영역 중 어느 하나인 경우, 예를 들어 제 1 영역(A1) 또는 제 2 영역(A2)인 경우, 사용자 입력에 대응하여 영역을 수정할지 여부를 판단한다(S370). When the selected area is one of previously searched indoor areas, for example, the first area A1 or the second area A2, the terminal 200 determines whether to modify the area in response to a user input. It is judged (S370).

영역을 수정하는 경우, 단말(200)은 사용자 입력에 대응하여, 기 저장된 지도의 크기 또는 형태를 수정할 수 있다(S380). 예를 들어 제 2 영역이 선택된 후, 어느 하나의 변이 선택된 후 드래그 되면, 드래그되는 방향으로 영역을 확장하거나 축소할 수 있다. When modifying the area, the terminal 200 may modify the size or shape of a pre-stored map in response to a user input (S380). For example, if a side is selected and dragged after the second region is selected, the region can be expanded or reduced in the direction of the drag.

단말(200)은 수정된 지도를 저장하고, 갱신된 지도를 화면에 표시한다(S390). 또한, 단말은 갱신된 지도를 이동 로봇(1)으로 전송한다.The terminal 200 stores the modified map and displays the updated map on the screen (S390). In addition, the terminal transmits the updated map to the mobile robot 1.

영역 수정이 아닌 경우, 사용자 입력에 대응하여 선택된 영역에 대한 청소명령을 설정할 수 있다(S400). If the region is not modified, a cleaning command for the selected region may be set in response to a user input (S400).

단말(200)은 청소명령을 이동 로봇(1)으로 전송하고, 이동 로봇(1)은 청소명령에 대응하여, 지도를 바탕으로 지정된 영역으로 이동하여 지정된 동작을 수행한다. The terminal 200 transmits a cleaning command to the mobile robot 1, and the mobile robot 1 moves to a designated area based on a map and performs a designated operation in response to the cleaning command.

한편, 단말(200)은 실내영역이 아닌 미탐색영역이 선택되는 경우, 이동 로봇으로 탐색명령을 전송할 수 있다. Meanwhile, the terminal 200 may transmit a search command to the mobile robot when an unexplored area other than an indoor area is selected.

단말(200)은 기 저장된 지도를 바탕으로 선택 지점에 대한 위치정보를 산출하여 이동 로봇으로 전송한다. The terminal 200 calculates location information for a selected point based on a pre-stored map and transmits it to the mobile robot.

이때, 단말(200)은 실내영역이 아닌 미탐색영역이 선택되었음을 알리는 안내메시지 또는 경고메시지를 출력할 수 있다. At this time, the terminal 200 may output a guide message or a warning message informing that an unexplored area other than the indoor area has been selected.

단말(200)은 미탐색영역의 선택 지점에 대한 데이터를 이동 로봇으로 전송하고, 그에 대응하여 이동 로봇(1)은 선택 지점으로 이동한다(S340). The terminal 200 transmits data on the selected point in the unexplored area to the mobile robot, and in response thereto, the mobile robot 1 moves to the selected point (S340).

이동 로봇(1)은 선택 지점이, 미탐색영역에 위치하는 것을 판단하고, 인접한 영역으로 우선 이동한 후, 선택지점으로의 이동경로를 설정하여 이동할 수 있다. 이동 로봇(1)은 기 저장된 지도를 바탕으로 산출되는 선택 지점에 대한 상대적 위치를 바탕으로 경로를 설정한다. 이동 로봇(1)은 직선으로 주행하되, 장애물에 따라 경로를 변경하여 주행할 수 있다. The mobile robot 1 may determine that the selected point is located in an unexplored area, first move to an adjacent area, and then set a movement path to the selected point to move. The mobile robot 1 sets a route based on a relative position to a selected point calculated based on a pre-stored map. The mobile robot 1 may travel in a straight line, but may change its path according to an obstacle.

또한, 이동 로봇(1)은 직선으로 주행하는 경우, 벽 등의 장애물이 위치하므로, 이를 회피하여 주행하며 선택지점으로 이동할 수 있는 경로를 탐색한다. In addition, when the mobile robot 1 travels in a straight line, since an obstacle such as a wall is located, the mobile robot 1 avoids the obstacle and searches for a path that can move to the selected point.

앞서 설명한 도 4에서 제 3 영역에 대한 지도는 생성되지 않았으나, 제 3 영역은 제 1 영역과 문을 통해 연결되어 있으므로, 이동 로봇은 제 1 영역을 주행하면서 감지되는 장애물 정보를 바탕으로 제 3 영역과의 연결지점인 문을 감지할 수 있다. 이동 로봇(1)은 제 1 영역(A1)의 좌측 벽면을 따라 주행하면서 제 3 영역으로 진압할 수 있는 연결지점을 감지할 수 있다. Although the map for the third area is not created in FIG. 4 described above, since the third area is connected to the first area through a door, the mobile robot can map the third area based on obstacle information detected while driving in the first area. You can detect the door that is the connection point to the . The mobile robot 1 may detect a connection point capable of suppressing the pressure to the third area while traveling along the left wall of the first area A1.

이동 로봇(1)은 감지수단, 즉 장애물 감지유닛(100), 영상획득부(170), 및 센서부(150)중 적어도 하나로부터 입력되는 장애물정보를 바탕으로 연결지점을 찾아 이동한다. The mobile robot 1 finds and moves to a connection point based on obstacle information input from at least one of the sensing means, that is, the obstacle sensing unit 100, the image acquisition unit 170, and the sensor unit 150.

이동 로봇은 제 1 영역으로부터 제 3 영역으로 진입하는 지점에 대한 위치정보를 저장하여 연결지점으로 설정하고, 지도 생성 시, 연결지점을 기준으로 영역을 구분한다. The mobile robot stores location information about a point entering the third area from the first area, sets it as a connection point, and divides the area based on the connection point when creating a map.

이동 로봇(1)은 제 1 영역을 벗어나, 선택지점이 위치한 새로운 영역, 즉 제 3 영역에 도달하면(S350), 새로운 영역을 주행하며 지도를 생성한다(S360). When the mobile robot 1 leaves the first area and reaches a new area where the selection point is located (S350), it creates a map while driving in the new area (S360).

이동 로봇(1)은 새로운 영역인 제 3 영역에 대한 지도를, 기 저장된 지도에 추가하여 지도를 갱신한다. 기 저장된 지도에 포함된 장애물 정보, 영역에 대한 정보, 영역의 청소이력, 영역별 먼지량 정보 등의 데이터를 유지한 채, 연결지점을 기준으로 새로운 영역을 추가할 수 있다. The mobile robot 1 updates the map by adding a map of the third area, which is a new area, to a pre-stored map. A new area can be added based on a connection point while maintaining data such as obstacle information, area information, area cleaning history, and dust amount information for each area included in a pre-stored map.

또한, 단말(200)은 사용자 입력에 대응하여, 어느 하나의 지점이 터치된 후, 미탐색영역으로 드래그되는 경우, 터치된 지점과 드래그되는 방향에 대응하는 위치정보를 산출하여 탐색명령을 이동 로봇으로 전송할 수 있다. In addition, in response to a user input, when a point is touched and then dragged to an unexplored area, the terminal 200 calculates location information corresponding to the touched point and the dragged direction, and sends a search command to the mobile robot. can be sent to

이동 로봇(1)은 탐색명령에 대응하여, 터치된 지점에 대응하는 위치로 이동한 후, 드래그된 방향에 대응하여 주행방향을 설정하여 미탐색영역으로 이동할 수 있다. 이동 로봇(1)은 터치된 지점에 대응하는 위치와, 드래그된 지점의 위치정보를 바탕으로 드래드된 방향을 바탕으로 주행방향을 설정할 수 있다. The mobile robot 1 may move to a location corresponding to the touched point in response to a search command, set a driving direction corresponding to the dragged direction, and move to an unexplored area. The mobile robot 1 may set the driving direction based on the dragged direction based on the position corresponding to the touched point and the location information of the dragged point.

이동 로봇(1)은 지도의 영역(탐색영역)으로부터 미탐색영역으로 진입하는 경우, 미탐색영역에 대한 지도를 생성한다. When the mobile robot 1 enters the unexplored area from the map area (search area), it creates a map for the unexplored area.

이동 로봇(1)은 갱신된 지도를 단말(200)로 전송하고, 단말(200)은 수신되는 데이터를 바탕으로 기 저장된 지도를 갱신하고, 갱신된 지도를 화면에 표시한다(S390). The mobile robot 1 transmits the updated map to the terminal 200, and the terminal 200 updates the previously stored map based on the received data and displays the updated map on the screen (S390).

도 10 은 본 발명의 일실시예에 따른 이동 로봇의 주행 패턴에 따른 제어방법이 도시된 순서도이다. 10 is a flowchart illustrating a control method according to a driving pattern of a mobile robot according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 단말(200)은 지도를 표시한다(S410)., As shown in FIG. 10, the terminal 200 displays a map (S410).

지도 중 어느 하나의 영역이 선택되면(S420), 선택된 영역에 대한 청소명령을 입력하거나, 또는 주행패턴을 등록할 수 있다(S430).When any one area of the map is selected (S420), a cleaning command for the selected area may be input or a driving pattern may be registered (S430).

또한, 별도의 메뉴를 통해 주행패턴을 등록할 수 있다. In addition, a driving pattern may be registered through a separate menu.

사용자 입력에 대응하여 주행패턴등록이 선택되면(S430), 단말(200)은 패턴입력화면을 표시한다(S440). When driving pattern registration is selected in response to a user input (S430), the terminal 200 displays a pattern input screen (S440).

앞서 설명한 도 8과 같이, 선택 영역의 형태를 표시하고, 사용자 입력에 대응하는 패턴을 인식한다(S450). 단말(200)은 표시부가 터치 후 드래그되는 경우, 드래그되는 방향에 대하여 터치된 지점을 시작으로 드래그되는 방향 및 드래그가 종료되는 지점까지의 패턴을 인식한다. As shown in FIG. 8 described above, the shape of the selection area is displayed and a pattern corresponding to the user input is recognized (S450). When the display unit 200 is touched and then dragged, the terminal 200 recognizes a pattern from the touched point in the dragged direction to the dragged direction and the dragged end point.

또한, 단말은 지도를 바탕으로 터치 및 드래그되는 각 지점에 대한 위치정보를 산출할 수 있다.In addition, the terminal may calculate location information for each point touched and dragged based on the map.

단말(200)은 입력패턴을 분석하여 주행패턴을 생성한다(S460). The terminal 200 generates a driving pattern by analyzing the input pattern (S460).

단말(200)은 입력패턴을 분석하여 유사한 형태의 주행패턴이 존재하는지 여부를 검색할 수 있다. 필요에 따라 단말(200)은 서버에 접속하여 주행패턴데이터를 수신할 수 있다. The terminal 200 may analyze the input pattern and search whether a driving pattern of a similar type exists. If necessary, the terminal 200 may access the server and receive driving pattern data.

단말(200)은, 입력패턴을 지도에 매칭하여 각각 산출된 위치정보를 바탕으로, 이동 로봇이 주행할 수 있도록 주행패턴을 생성할 수 있다. 예를 들어 앞서 설명한 도 8의 (b)와 같이, 입력패턴을 영역에 매칭하여 지정된 경로에 따라 이동 로봇이 주행하도록 주행패턴을 생성한다. The terminal 200 may generate a driving pattern so that the mobile robot can drive, based on location information calculated by matching the input pattern to the map. For example, as shown in (b) of FIG. 8 described above, a driving pattern is generated so that the mobile robot travels along a designated path by matching an input pattern to an area.

또한, 단말(200)은 입력패턴을 분석하여, 해당 영역에 대한 규칙을 추출하여 주행패턴을 생성할 수 있다. 예를 들어 도 8의 (c)와 같이, 입력패턴을 분석하여 영역의 외곽으로부터 영역의 중앙으로 나선형으로 이동하도록 주행패턴을 생성할 수 있다. 이때. 이동 로봇이 원형으로 이동하는 것이 아니라, 영역의 외곽선을 형태를 따라 이동하도록 주행패턴을 생성할 수 있다. In addition, the terminal 200 may generate a driving pattern by analyzing an input pattern and extracting a rule for a corresponding area. For example, as shown in (c) of FIG. 8 , an input pattern may be analyzed and a driving pattern may be generated to spirally move from the periphery of the region to the center of the region. At this time. A driving pattern may be created so that the mobile robot does not move in a circular shape, but moves along the outline of an area.

단말(200)은 생성된 주행패턴을 새로운 주행패턴으로 저장하여, 청소명령 입력시 선택 가능하도록 주행패턴을 등록한다(S470). 생성된 주행패턴은 서버 등으로 통해 공유할 수 있다. The terminal 200 stores the generated driving pattern as a new driving pattern and registers the driving pattern so that it can be selected when a cleaning command is input (S470). The created driving pattern can be shared through a server or the like.

단말(200)은 등록된 주행패턴을 적용하여 청소명령을 이동 로봇으로 전송할 수 있다(S490). The terminal 200 may transmit a cleaning command to the mobile robot by applying the registered driving pattern (S490).

또한, 단말(200)은 청소할 영역에 대한 정보와 청소순서 등에 대한 정보를 바탕으로 청소를 설정한다(S480). 단말은 선택된 영역에 대한 주행패턴이 선택된 경우 주행패턴을 포함하여 선택된 영역에 대하여 청소를 설정할 수 있다. In addition, the terminal 200 sets cleaning based on information about the area to be cleaned and information about the cleaning order (S480). When a driving pattern for the selected area is selected, the terminal may set cleaning for the selected area including the driving pattern.

단말(200)은 이동 로봇으로 청소명령을 전송할 수 있다(S490). The terminal 200 may transmit a cleaning command to the mobile robot (S490).

그에 따라 이동 로봇(1)은 지정된 영역에 대하여, 주행패턴에 따라 주행하면서 동작을 수행한다. Accordingly, the mobile robot 1 performs an operation while traveling according to a driving pattern in a designated area.

그에 따라 본 발명은 새로운 영역에 대하여, 탐색을 통해 지도를 생성하되, 기 저장된 지도의 데이터를 유지하며, 새로운 지도를 추가하여 지도를 갱신할 수 있다. 본 발명은 미탐색영역이 선택되거나, 주행 중, 새로운 영역에 진입하는 경우, 기 저장된 지도와의 연결지점을 바탕으로 새로운 영역에 대한 지도를 추가할 수 있다. Accordingly, in the present invention, a map may be created through search for a new area, but the map may be updated by maintaining previously stored map data and adding a new map. In the present invention, when an unexplored area is selected or a new area is entered while driving, a map for a new area may be added based on a connection point with a pre-stored map.

본 발명은 단말을 통해 사용자 입력에 대응하여 유사한 형태의 주행패턴을 적용하여 이동 로봇이 주행하도록 할 수 있다. 또한, 본 발명은 단말을 통해 입력된 입력패턴을 분석하여 특정 형태의 주행패턴을 등록하고, 그에 따라 이동 로봇이 영역 내에서 지정된 주행패턴에 따라 주행할 수 있다. According to the present invention, a mobile robot may be driven by applying a driving pattern of a similar form in response to a user input through a terminal. In addition, the present invention analyzes the input pattern input through the terminal to register a specific type of driving pattern, and accordingly, the mobile robot can drive according to the designated driving pattern within an area.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.The above description is merely an example of the technical idea of the present invention, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present invention.

1: 이동 로봇 10: 본체
100: 장애물 감지유닛 110: 제어부
111: 장애물인식부 113: 주행제어부
120, 130: 패턴조사부 140: 패턴 획득부
150: 센서부 170: 영상획득부
180: 데이터부
250: 주행부 260: 청소부
1: mobile robot 10: body
100: obstacle detection unit 110: control unit
111: obstacle recognition unit 113: driving control unit
120, 130: pattern investigation unit 140: pattern acquisition unit
150: sensor unit 170: image acquisition unit
180: data unit
250: driving unit 260: cleaning unit

Claims (22)

영역을 주행하는 본체;
주행중 장애물을 감지하는 감지수단;
상기 본체를 이동시키는 주행부; 및
상기 본체의 주행을 제어하고, 상기 감지수단을 통해 감지되는 장애물정보에 대응하여 상기 영역에 대한 지도를 생성하고, 상기 지도 내의 각 영역을 주행하며 청소를 수행하도록 상기 주행부를 제어하는 제어부; 를 포함하고
상기 제어부는, 사용자 입력에 대응하여 어느 하나의 영역이 선택되면, 선택된 상기 영역이 상기 지도의 탐색영역인 경우, 상기 영역에 설정된 주행패턴에 따라 상기 영역을 주행하며 지정된 동작을 수행하고,
선택된 상기 영역이 상기 지도 밖의 미탐색 영역인 경우, 상기 지도의 탐색영역 중 상기 영역과 인접한 제1 영역으로 이동한 후, 상기 탐색영역을 이탈하여 상기 미탐색영역을 진입하는 시점을 기준으로, 상기 제 1 영역에서의 마지막 지점인 연결지점을 탐색하여, 상기 연결지점을 통해 상기 미탐색 영역으로 이동하여 월 팔로잉(wall following)을 통해 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하며, 기 생성된 상기 지도를 그대로 유지하면서 상기 연결지점을 기준으로 상기 미탐색영역에 대한 지도를 연결하는 것을 특징으로 하는 이동 로봇.
a body that travels the area;
sensing means for detecting an obstacle while driving;
a driving unit for moving the main body; and
a control unit for controlling driving of the main body, generating a map of the area in response to obstacle information detected through the sensing means, and controlling the driving unit to drive and clean each area in the map; and
When an area is selected in response to a user input, the control unit drives the area according to a driving pattern set in the area and performs a designated operation when the selected area is a search area of the map;
If the selected area is an unexplored area outside the map, after moving to a first area adjacent to the area among the search areas of the map, the Searching for a connection point that is the last point in the first area, moving to the unexplored area through the connection point, driving through the unexplored area through wall following, and drawing a map of the unexplored area and connecting the map for the unexplored area based on the connection point while maintaining the previously generated map as it is.
제 1 항에 있어서,
상기 제어부는 상기 미탐색영역 중 상기 사용자 입력에 대응하는 어느 한 지점을 목표로 상기 본체가 이동하여 상기 미탐색영역으로 진입하도록 상기 주행부를 제어하는 것을 특징으로 하는 이동 로봇.
According to claim 1,
The mobile robot according to claim 1 , wherein the control unit controls the driving unit so that the main body moves to enter the unexplored area targeting a point corresponding to the user input among the unexplored areas.
제 1 항에 있어서,
상기 제어부는 상기 사용자 입력에 의해 터치 후 드래그된 방향 대응하여, 상기 미탐색영역에 대한 주행경로를 설정하여 상기 미탐색영역으로 이동하도록 상기 주행부를 제어하는 것을 특징으로 하는 이동 로봇.
According to claim 1,
The mobile robot according to claim 1 , wherein the control unit controls the driving unit to move to the unexplored area by setting a driving path for the unexplored area in response to a direction touched and dragged by the user input.
제 1 항에 있어서,
상기 제어부는 상기 탐색영역을 이탈하여 상기 미탐색영역을 진입하는 시점을 기준으로 상기 미탐색영역에서 감지되는 장애물 정보를 바탕으로 상기 미탐색영역에 대한 지도를 생성하는 것을 특징으로 하는 이동 로봇.
According to claim 1,
The mobile robot according to claim 1 , wherein the control unit creates a map of the unexplored area based on obstacle information detected in the unexplored area based on a time point of leaving the search area and entering the unexplored area.
제 1 항에 있어서,
상기 제어부는 상기 미탐색영역에서의 주행거리에 따라 단계적으로 상기 지도를 갱신하는 것을 특징으로 하는 이동 로봇.
According to claim 1,
The mobile robot, characterized in that the control unit updates the map step by step according to the travel distance in the unexplored area.
삭제delete 제 1 항에 있어서,
상기 지도를 단말로 전송하는 통신부;를 더 포함하고,
상기 제어부는 상기 미탐색영역에 대한 지도가 추가된 갱신된 지도를 상기 통신부를 통해 단말로 전송하고,
상기 단말로부터 상기 사용자 입력을 수신하는 것을 특징으로 하는 이동 로봇.
According to claim 1,
Further comprising a communication unit for transmitting the map to a terminal;
The control unit transmits an updated map to which the map for the unexplored area is added to the terminal through the communication unit;
Mobile robot characterized in that for receiving the user input from the terminal.
제 1 항에 있어서,
상기 제어부는 단말에 의해 설정된 상기 주행패턴을 바탕으로 상기 영역을 청소하거나 또는 감시하는 것을 특징으로 하는 이동 로봇.
According to claim 1,
The mobile robot, characterized in that the control unit cleans or monitors the area based on the driving pattern set by the terminal.
제 8 항에 있어서,
상기 단말은, 사용자 입력에 대응하여, 터치 후 드래그되는 방향에 따라, 터치된 지점으로부터 드래그가 종료된 지점까지의 위치에 대응하여 상기 주행패턴을 설정하는 것을 특징으로 하는 이동 로봇.
According to claim 8,
The mobile robot, characterized in that, in response to a user input, the driving pattern is set in correspondence with a position from a touched point to a dragged point according to a dragged direction after a touch.
제 8 항에 있어서,
상기 단말은 상기 단말은, 사용자 입력에 대응하여, 터치 후 드래그되는 방향에 따라, 터치된 지점으로부터 드래그가 종료된 지점까지의 위치변화를 분석하고, 기 저장된 패턴데이터로부터 유사한 패턴을 검색하여 상기 주행패턴을 설정하는 것을 특징으로 하는 이동 로봇.
According to claim 8,
The terminal analyzes the positional change from the touched point to the dragged end point in response to a user input, according to the direction in which the drag is touched, and searches for a similar pattern from pre-stored pattern data to perform the driving. A mobile robot characterized by setting a pattern.
본체가 적어도 하나의 영역을 주행하며 지도를 생성하는 단계;
사용자 입력에 대응하여 어느 하나의 영역이 선택되는 단계;
선택된 상기 영역이 상기 지도의 탐색영역 중 하나인 경우, 상기 영역에 설정된 주행패턴에 따라 상기 영역을 주행하며 지정된 동작을 수행하는 단계;
선택된 상기 영역이 상기 지도 밖의 미탐색 영역인 경우, 상기 지도의 탐색영역 중 상기 영역과 인접한 제1 영역으로 이동한 후, 상기 탐색영역을 이탈하여 상기 미탐색영역을 진입하는 시점을 기준으로, 상기 제 1 영역에서의 마지막 지점인 연결지점을 탐색하여, 상기 연결지점을 통해 상기 미탐색 영역으로 이동하여 월 팔로잉(wall following)을 통해 상기 미탐색영역을 주행하며 상기 미탐색영역에 대한 지도를 생성하는 단계; 및
기 생성된 상기 지도를 그대로 유지하면서 상기 연결지점을 기준으로 상기 미탐색영역에 대한 지도를 연결하는 단계를 포함하는 이동 로봇의 제어방법.
generating a map while the main body travels in at least one area;
selecting one area in response to a user input;
if the selected area is one of the search areas of the map, driving in the area according to a driving pattern set in the area and performing a designated operation;
If the selected area is an unexplored area outside the map, after moving to a first area adjacent to the area among the search areas of the map, the Searching for a connection point that is the last point in the first area, moving to the unexplored area through the connection point, driving through the unexplored area through wall following, and drawing a map of the unexplored area generating; and
and connecting a map of the unexplored area based on the connection point while maintaining the previously created map as it is.
제 11 항에 있어서,
상기 영역이 미탐색영역인 경우, 상기 미탐색영역 중 상기 사용자 입력에 대응하는 어느 한 지점을 목표로 상기 본체가 이동하여 상기 미탐색영역으로 진입하는 단계;를 더 포함하는 이동 로봇의 제어방법.
According to claim 11,
and if the area is an unexplored area, moving the main body aiming at a point corresponding to the user input among the unexplored areas to enter the unexplored area.
제 11 항에 있어서,
상기 사용자 입력에 의해 터치 후 드래그된 방향 대응하여, 상기 미탐색영역에 대한 주행경로를 설정하여 상기 미탐색영역으로 진입하는 단계를 더 포함하는 이동 로봇의 제어방법.
According to claim 11,
The control method of the mobile robot further comprising the step of entering into the unexplored area by setting a driving path for the unexplored area in response to the direction of the touch and drag by the user input.
제 11 항에 있어서,
상기 탐색영역을 이탈하여 상기 미탐색영역에 진입하면, 상기 미탐색영역에서 감지되는 장애물 정보를 바탕으로 상기 미탐색영역에 대한 지도를 생성하는 것을 특징으로 하는 이동 로봇의 제어방법.
According to claim 11,
and generating a map for the unexplored area based on obstacle information detected in the unexplored area when entering the unexplored area after leaving the search area.
제 11 항에 있어서,
상기 미탐색영역에서의 주행거리에 따라 단계적으로 상기 지도를 갱신하는 단계를 더 포함하는 이동 로봇의 제어방법.
According to claim 11,
The control method of the mobile robot further comprising updating the map step by step according to the mileage in the unexplored area.
삭제delete 제 11 항에 있어서,
상기 미탐색영역에 대한 지도가 추가된 상기 지도를 단말로 전송하는 단계; 및
상기 단말이, 상기 지도를 수신하여 화면에 표시하는 단계;를 더 포함하는 이동 로봇의 제어방법.
According to claim 11,
transmitting the map to which the map for the unexplored area is added to a terminal; and
The method of controlling a mobile robot further comprising receiving and displaying the map on a screen by the terminal.
제 11 항에 있어서,
사용자 입력에 대응하여 상기 영역에 대한 패턴이 입력되는 단계; 및
상기 패턴의 특징을 분석하여 기 저장된 패턴데이터로부터 유사한 패턴을 검색하여 상기 주행패턴을 설정하는 단계;를 더 포함하는 이동 로봇의 제어방법.
According to claim 11,
inputting a pattern for the region in response to a user input; and
The control method of the mobile robot further comprising the step of analyzing the characteristics of the pattern and searching for a similar pattern from pre-stored pattern data to set the driving pattern.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020200101049A 2018-04-05 2020-08-12 Moving Robot and controlling method KR102500529B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200101049A KR102500529B1 (en) 2018-04-05 2020-08-12 Moving Robot and controlling method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180039728A KR20190119234A (en) 2018-04-05 2018-04-05 Moving Robot and controlling method
KR1020200101049A KR102500529B1 (en) 2018-04-05 2020-08-12 Moving Robot and controlling method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180039728A Division KR20190119234A (en) 2018-04-05 2018-04-05 Moving Robot and controlling method

Publications (2)

Publication Number Publication Date
KR20200100019A KR20200100019A (en) 2020-08-25
KR102500529B1 true KR102500529B1 (en) 2023-02-15

Family

ID=85223342

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200101049A KR102500529B1 (en) 2018-04-05 2020-08-12 Moving Robot and controlling method

Country Status (1)

Country Link
KR (1) KR102500529B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12007785B2 (en) 2021-08-31 2024-06-11 Samsung Electronics Co., Ltd. Cleaning robot capable of obtaining map of indoor space and operating method thereof
KR20230032705A (en) * 2021-08-31 2023-03-07 삼성전자주식회사 The cleaning robot for obtaining the map of indoor space and the method for operating the same
CN114224232B (en) * 2021-12-22 2023-04-07 珠海格力电器股份有限公司 Map updating method and device, sweeping robot and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013211025A (en) * 2009-11-06 2013-10-10 Hitachi Ltd Mobile robot system and map generation device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102183012B1 (en) * 2014-05-28 2020-11-25 삼성전자주식회사 Mobile device, robot cleaner and method for controlling the same
KR101941060B1 (en) * 2016-01-20 2019-01-22 주식회사 유진로봇 Signal Processing Method and Apparatus for Performing Communication with Mobile Robot
KR101634522B1 (en) * 2016-05-10 2016-06-28 엘지전자 주식회사 Robot cleaner and controlling method of the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013211025A (en) * 2009-11-06 2013-10-10 Hitachi Ltd Mobile robot system and map generation device

Also Published As

Publication number Publication date
KR20200100019A (en) 2020-08-25

Similar Documents

Publication Publication Date Title
CN111479662B (en) Artificial intelligent mobile robot for learning obstacle and control method thereof
US11846950B2 (en) Mobile robot and control method thereof
US11226633B2 (en) Mobile robot and method of controlling the same
KR102024092B1 (en) Moving Robot and controlling method
KR102275300B1 (en) Moving robot and control method thereof
KR102500529B1 (en) Moving Robot and controlling method
KR102235271B1 (en) Moving Robot and controlling method
KR102070067B1 (en) Artificial intelligence Moving Robot and controlling method
EP3428762A1 (en) Moving robot and controlling method
KR20190119234A (en) Moving Robot and controlling method
KR20190103511A (en) Moving Robot and controlling method
US20220280007A1 (en) Mobile robot and method of controlling the same
KR102330607B1 (en) Artificial intelligence Moving Robot and controlling method
US20220257075A1 (en) Moving robot and method of controlling the same
KR102152731B1 (en) Moving Robot and controlling method
KR102300790B1 (en) Moving Robot and controlling method
KR102364623B1 (en) Moving Robot and controlling method
KR20230134800A (en) A robot cleaner and control method thereof
JP2022163754A (en) Vacuum cleaner management device and program
KR20210004679A (en) Moving Robot and controlling method

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant