KR102350934B1 - Moving robot - Google Patents

Moving robot Download PDF

Info

Publication number
KR102350934B1
KR102350934B1 KR1020170034837A KR20170034837A KR102350934B1 KR 102350934 B1 KR102350934 B1 KR 102350934B1 KR 1020170034837 A KR1020170034837 A KR 1020170034837A KR 20170034837 A KR20170034837 A KR 20170034837A KR 102350934 B1 KR102350934 B1 KR 102350934B1
Authority
KR
South Korea
Prior art keywords
mobile robot
information
head
cleaning
display
Prior art date
Application number
KR1020170034837A
Other languages
Korean (ko)
Other versions
KR20180106472A (en
Inventor
박신영
김규희
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020170034837A priority Critical patent/KR102350934B1/en
Publication of KR20180106472A publication Critical patent/KR20180106472A/en
Application granted granted Critical
Publication of KR102350934B1 publication Critical patent/KR102350934B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Abstract

본 발명의 일 측면에 따른 이동 로봇은, 개폐 가능한 헤드(head)를 포함하는 본체, 본체를 이동시키는 주행부, 지문이 입력되는 지문 입력부, 등록 지문 정보를 저장하는 저장부, 및, 지문 입력부를 통하여 입력된 지문 정보를 저장부에 기저장된 등록 지문 정보와 비교하고, 입력된 지문 정보와 상응하는 등록 지문 정보가 있는 경우, 헤드를 열 수 있도록 잠금 설정을 해제하는 제어부를 포함함으로써, 공공장소에서 안전하게 운용할 수 있다.A mobile robot according to an aspect of the present invention includes a main body including an openable and openable head, a traveling unit for moving the main body, a fingerprint input unit for inputting a fingerprint, a storage unit for storing registered fingerprint information, and a fingerprint input unit By including a control unit that compares the input fingerprint information with the registered fingerprint information stored in the storage unit, and releases the lock setting so that the head can be opened when there is registered fingerprint information corresponding to the input fingerprint information, in a public place It can be operated safely.

Description

이동 로봇{Moving robot}Moving robot

본 발명은 이동 로봇에 관한 것으로서, 더욱 상세하게는 사용자가 안전하고 편리하게 정보를 확인하고 제어할 수 있는 이동 로봇에 관한 것이다. The present invention relates to a mobile robot, and more particularly, to a mobile robot in which a user can safely and conveniently check and control information.

로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다. 이러한 로봇 중에서 자력으로 주행이 가능한 것을 이동 로봇이라고 한다. Robots have been developed for industrial use and have been a part of factory automation. In recent years, the field of application of robots has been further expanded, and medical robots and aerospace robots have been developed, and household robots that can be used in general households are also being made. Among these robots, those capable of driving by their own power are called mobile robots.

이동 로봇의 대표적인 예는 로봇 청소기로, 로봇 청소기는 일정 영역을 스스로 주행하면서, 주변의 먼지 또는 이물질을 흡입함으로써, 해당 영역을 청소하는 기기이다. A representative example of the mobile robot is a robot cleaner, which is a device that cleans a corresponding area by sucking dust or foreign substances around it while driving in a certain area by itself.

종래기술(공개번호 제10-2013-0092729호)에 개시된 로봇 청소기는, 주행유닛을 구비하는 본체와 본체에 마련되어 청소할 지역의 정보를 인식하는 인식유닛과 본체에 마련되어 청소할 지역의 정보를 저장하는 저장유닛과 본체에 마련되어 청소 관련 정보를 표시하는 디스플레이 유닛과 기 저장된 청소영역에 관한 정보와 현재 청소 영역에 관한 정보를 인식하고, 이를 비교하되, 현재의 청소 진행 상태가 디스플레이 유닛에 표시되도록 제어하는 제어부를 포함한다.The robot cleaner disclosed in the prior art (Publication No. 10-2013-0092729) includes a main body having a traveling unit, a recognition unit provided in the main body to recognize information on an area to be cleaned, and a storage provided in the main body to store information on an area to be cleaned A display unit provided in the unit and main body to display cleaning-related information, and a control unit for recognizing and comparing information about a pre-stored cleaning area with information about a current cleaning area, and controlling the current cleaning progress state to be displayed on the display unit includes

종래기술에 개시된 로봇 청소기가 바닥에 놓여진 상태이기 때문에, 사용자가 현재의 청소 진행 상태를 확인하기 위하여 사용자가 허리를 굽힌 상태에서 디스플레이 유닛을 확인해야 하고, 디스플레이 유닛 자체의 크기 제한으로 인하여 사용자가 디스플레이 유닛에 표시되는 정보를 직관적으로 쉽게 보기 어려운 문제가 있다.Since the robot cleaner disclosed in the prior art is placed on the floor, the user has to check the display unit in a state in which the user bends the waist in order to check the current cleaning progress, and due to the size limitation of the display unit itself, the user can display There is a problem in that it is difficult to intuitively and easily view the information displayed on the unit.

한편, 다수의 사람들이 체류하거나 이동하는 공항, 기차역, 백화점, 항만 등 공공장소에서 운용되는 이동 로봇은 안전 사고의 위험에 더 많이 노출되거나 안전 사고를 일으킬 수 있다.On the other hand, mobile robots operated in public places such as airports, train stations, department stores, and ports where a large number of people stay or move may be more exposed to the risk of safety accidents or may cause safety accidents.

공공장소에서 호기심 많은 외부 인원이 이동 로봇을 만지면서 조작을 시도하는 경우에도 안전 사고가 발생할 수 있다.A safety accident may also occur when curious outside personnel try to manipulate the mobile robot while touching it in a public place.

따라서, 공공장소에서 운용되는 이동 로봇으로 인한 안전 사고를 방지할 수 있는 방안이 요구된다. Accordingly, there is a need for a method for preventing safety accidents caused by mobile robots operating in public places.

또한, 공공장소에서 운용되는 이동 로봇 또는 이동 로봇 내의 부품에 대한 도난 사고도 방지할 수 있는 방안이 요구된다.In addition, there is a need for a method capable of preventing theft of a mobile robot operated in a public place or parts in the mobile robot.

1. 공개특허공보 제10-2013-0092729호(공개일 2013.08.21.)1. Publication No. 10-2013-0092729 (published on August 21, 2013)

본 발명의 목적은, 공공장소에서 안전하게 운용할 수 있는 이동 로봇을 제공함에 있다.An object of the present invention is to provide a mobile robot that can be safely operated in a public place.

본 발명의 목적은, 특정 상황에서 사용자 인터페이스 화면을 제공함으로써, 사람과 이동 로봇의 사고 발생 위험을 감소시킬 수 있는 이동 로봇을 제공함에 있다.An object of the present invention is to provide a mobile robot capable of reducing the risk of accidents between humans and mobile robots by providing a user interface screen in a specific situation.

본 발명의 목적은, 사용자가 편리하게 정보를 확인하고 제어할 수 있는 이동 로봇을 제공함에 있다.An object of the present invention is to provide a mobile robot that allows a user to conveniently check and control information.

본 발명의 목적은, 사용자를 식별하여 사용자의 권한에 따른 사용자 인터페이스 화면을 제공할 수 있는 이동 로봇을 제공함에 있다.An object of the present invention is to provide a mobile robot capable of identifying a user and providing a user interface screen according to the user's authority.

상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇은, 개폐 가능한 헤드(head)를 포함하는 본체, 본체를 이동시키는 주행부, 지문이 입력되는 지문 입력부, 등록 지문 정보를 저장하는 저장부, 및, 지문 입력부를 통하여 입력된 지문 정보를 저장부에 기저장된 등록 지문 정보와 비교하고, 입력된 지문 정보와 상응하는 등록 지문 정보가 있는 경우, 헤드를 열 수 있도록 잠금 설정을 해제하는 제어부를 포함함으로써, 공공장소에서 안전하게 운용할 수 있다.In order to achieve the above or other object, a mobile robot according to an aspect of the present invention includes a main body including an openable and openable head, a traveling unit for moving the main body, a fingerprint input unit to which a fingerprint is input, and a method for storing registered fingerprint information. Comparing the fingerprint information input through the storage unit and the fingerprint input unit with the registered fingerprint information stored in the storage unit, and if there is registered fingerprint information corresponding to the input fingerprint information, unlocking the lock setting to open the head By including a control unit, it can be safely operated in a public place.

상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇은, 개폐 가능한 헤드(head)와 헤드의 하단에 위치하고 개폐 가능한 커버를 구비하는 바디부(body)를 포함하는 본체, 본체의 후면에 구비되는 잠금장치(lock), 및, 본체를 이동시키는 주행부를 포함하고, 잠금장치에 기설정된 조작이 수행되면, 헤드 및 커버의 잠금 설정을 해제할 수 있다.In order to achieve the above or other objects, a mobile robot according to an aspect of the present invention includes a main body including an openable and openable head and a body portion located at the lower end of the head and having an openable and openable cover, the rear surface of the main body It includes a lock provided in the lock, and a driving unit for moving the main body, and when a preset operation is performed on the locking device, the lock setting of the head and the cover can be released.

본 발명의 실시 예들 중 적어도 하나에 의하면, 공공장소에서 안전하게 운용할 수 있는 이동 로봇을 제공할 수 있다.According to at least one of the embodiments of the present invention, it is possible to provide a mobile robot that can be safely operated in a public place.

또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 특정 상황에서 사용자 인터페이스 화면을 제공함으로써, 사람과 이동 로봇의 사고 발생 위험을 감소시킬 수 있다는 장점이 있다.In addition, according to at least one of the embodiments of the present invention, by providing a user interface screen in a specific situation, there is an advantage in that it is possible to reduce the risk of accidents between humans and mobile robots.

또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 다양한 사용자 인터페이스 화면을 제공함으로써 사용자의 이용 편의성을 향상시킬 수 있다.In addition, according to at least one of the embodiments of the present invention, it is possible to improve user convenience by providing various user interface screens.

또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 사용자를 식별하여 사용자의 권한에 따른 사용자 인터페이스 화면을 제공할 수 있는 이동 로봇을 제공할 수 있다.In addition, according to at least one of the embodiments of the present invention, it is possible to provide a mobile robot capable of identifying a user and providing a user interface screen according to the user's authority.

한편, 그 외의 다양한 효과는 후술될 본 발명의 실시 예에 따른 상세한 설명에서 직접적 또는 암시적으로 개시될 것이다.On the other hand, various other effects will be disclosed directly or implicitly in the detailed description according to the embodiment of the present invention to be described later.

도 1은 본 발명의 일 실시예에 따른 이동 로봇의 정면부를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 이동 로봇의 후면부를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 이동 로봇의 주요 구성들 간의 제어관계를 도시한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 이동 로봇의 정면부를 도시한 도면이다.
도 5 내지 도 7은 본 발명의 일 실시예에 따른 이동 로봇의 헤드(head)가 열린 상태를 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 이동 로봇의 헤드(head)가 열린 상태를 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 지문 인식과 그에 대응하는 이동 로봇의 동작에 관한 설명에 참조되는 도면이다.
도 10과 도 11은 본 발명의 일 실시예에 따른 이동 로봇이 제공하는 인터페이스 화면을 예시하는 도면이다.
도 12는 본 발명의 실시예에 따른 잠금장치를 포함하는 이동 로봇에 관한 설명에 참조되는 도면이다.
도 13과 도 14는 본 발명의 일 실시예에 따른 잠금 설정 해제에 관한 설명에 참조되는 도면이다.
1 is a view showing a front part of a mobile robot according to an embodiment of the present invention.
2 is a view showing a rear portion of a mobile robot according to an embodiment of the present invention.
3 is a block diagram illustrating a control relationship between main components of a mobile robot according to an embodiment of the present invention.
4 is a view showing a front part of a mobile robot according to an embodiment of the present invention.
5 to 7 are views showing an open state of the head of the mobile robot according to an embodiment of the present invention.
8 is a view showing an open state of the head of the mobile robot according to an embodiment of the present invention.
9 is a diagram referenced in the description of fingerprint recognition and the corresponding operation of the mobile robot according to an embodiment of the present invention.
10 and 11 are diagrams illustrating an interface screen provided by a mobile robot according to an embodiment of the present invention.
12 is a diagram referenced in the description of a mobile robot including a locking device according to an embodiment of the present invention.
13 and 14 are diagrams referenced in the description of unlocking the lock setting according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나 본 발명이 이러한 실시예에 한정되는 것은 아니며 다양한 형태로 변형될 수 있음은 물론이다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, it goes without saying that the present invention is not limited to these embodiments and may be modified in various forms.

도면에서는 본 발명을 명확하고 간략하게 설명하기 위하여 설명과 관계없는 부분의 도시를 생략하였으며, 명세서 전체를 통하여 동일 또는 극히 유사한 부분에 대해서는 동일한 도면 참조부호를 사용한다. In the drawings, in order to clearly and briefly describe the present invention, the illustration of parts irrelevant to the description is omitted, and the same reference numerals are used for the same or extremely similar parts throughout the specification.

한편, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.On the other hand, the suffixes "module" and "part" for the components used in the following description are given simply in consideration of the ease of writing the present specification, and do not give a particularly important meaning or role by themselves. Accordingly, the terms “module” and “unit” may be used interchangeably.

본 발명의 일 실시예에 따른 이동 로봇(100)은 바퀴 등을 이용하여 스스로 이동이 가능한 로봇을 의미하고, 로봇 청소기 등이 해당될 수 있다. 이하에서는, 도면들을 참조하여, 이동 로봇 중 청소 기능을 가지는 로봇 청소기를 예로 들어 설명하나, 본 발명은 이에 한정되지 않는다.The mobile robot 100 according to an embodiment of the present invention means a robot capable of moving by itself using wheels, etc., and may be a robot cleaner or the like. Hereinafter, a robot cleaner having a cleaning function among mobile robots will be described as an example with reference to the drawings, but the present invention is not limited thereto.

도 1은 본 발명의 일 실시예에 따른 이동 로봇의 정면부를 도시한 도면이고, 도 2는 본 발명의 일 실시예에 따른 이동 로봇의 후면부를 도시한 도면이다.FIG. 1 is a view showing a front part of a mobile robot according to an embodiment of the present invention, and FIG. 2 is a view showing a rear part of the mobile robot according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 이동 로봇의 주요 구성들 간의 제어관계를 도시한 블록도이다.3 is a block diagram illustrating a control relationship between main components of a mobile robot according to an embodiment of the present invention.

도 1 내지 도 3을 참조하면, 이동 로봇(100)은, 본체(101)와, 본체(101)를 이동시키는 주행부(160)를 포함할 수 있다. 1 to 3 , the mobile robot 100 may include a main body 101 and a traveling unit 160 that moves the main body 101 .

이하, 본체(101)의 각 부분을 정의함에 있어서, 주행구역 내의 천장을 향하는 부분을 상면부로 정의하고, 주행구역 내의 바닥을 향하는 부분을 저면부로 정의하며, 상면부와 저면부 사이에서 본체(101)의 둘레를 이루는 부분 중 주행방향을 향하는 부분을 정면부라고 정의하고, 상기 정면부의 반대 방향을 향하는 부분을 후면부로 정의한다. Hereinafter, in defining each part of the main body 101, the portion facing the ceiling in the traveling area is defined as the upper surface portion, the portion facing the floor in the traveling area is defined as the bottom surface portion, and the body 101 is located between the upper surface portion and the bottom surface portion. ), a portion facing the driving direction is defined as a front portion, and a portion facing the opposite direction of the front portion is defined as a rear portion.

이동 로봇(100)은 본체(101)를 이동시키는 주행부(160)를 포함한다. 주행부(160)는 본체(101)를 이동시키는 적어도 하나의 구동 바퀴(136)를 포함한다. 주행부(160)는 구동 바퀴(136)에 연결되어 구동 바퀴를 회전시키는 구동 모터(미도시)를 포함한다. 구동 바퀴(136)는 본체(101)의 좌, 우 측에 각각 구비될 수 있으며, 이하, 각각 좌륜과 우륜이라고 한다.The mobile robot 100 includes a traveling unit 160 that moves the main body 101 . The driving unit 160 includes at least one driving wheel 136 for moving the main body 101 . The driving unit 160 includes a driving motor (not shown) connected to the driving wheel 136 to rotate the driving wheel. The driving wheels 136 may be provided on the left and right sides of the main body 101, respectively, hereinafter referred to as a left wheel and a right wheel, respectively.

좌륜과 우륜은 하나의 구동 모터에 의해 구동될 수도 있으나, 필요에 따라 좌륜을 구동시키는 좌륜 구동 모터와 우륜을 구동시키는 우륜 구동 모터가 각각 구비될 수도 있다. 좌륜과 우륜의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체(101)의 주행방향을 전환할 수 있다.The left wheel and the right wheel may be driven by one driving motor, but if necessary, a left wheel driving motor for driving the left wheel and a right wheel driving motor for driving the right wheel may be provided, respectively. The traveling direction of the main body 101 can be switched to the left or right by making a difference in the rotation speeds of the left and right wheels.

본체(101)의 저면부에는 공기의 흡입이 이루어지는 흡입구(미도시)가 형성될 수 있으며, 본체(101) 내에는 흡입구를 통해 공기가 흡입될 수 있도록 흡입력을 제공하는 흡입장치(미도시)와, 흡입구를 통해 공기와 함께 흡입된 먼지를 집진하는 먼지통(미도시)이 구비될 수 있다. 또한, 상기 먼지통에는 내부의 먼지를 버릴 수 있도록 먼지통 커버(미도시)가 구비될 수 있다.A suction port (not shown) through which air is sucked may be formed at the bottom of the main body 101, and a suction device (not shown) that provides suction power so that air can be sucked through the suction port in the body 101; , a dust container (not shown) for collecting dust sucked together with air through the suction port may be provided. In addition, the dust bin may be provided with a dust bin cover (not shown) to dispose of internal dust.

본체(101)는 이동 로봇(100)을 구성하는 각종 부품들이 수용되는 공간을 형성하는 바디부(102)와 상기 바디부(102)의 상측에 개폐 가능하도록 배치되는 헤드부(110)를 포함할 수 있다. The main body 101 may include a body portion 102 forming a space in which various parts constituting the mobile robot 100 are accommodated, and a head portion 110 disposed on the upper side of the body portion 102 to be opened and closed. can

상기 헤드부(110)는 개폐 가능한 헤드(head, 111)와 상기 헤드(111)가 개폐가능하도록 결합되는 체결부(112)를 포함할 수 있다.The head unit 110 may include an openable and openable head 111 and a coupling unit 112 to which the head 111 is opened and closed.

또한, 실시예에 따라서는, 상기 헤드(111) 및/또는 체결부(112)에는 상기 헤드(111)의 개폐 여부를 감지하는 스위치 또는 센서가 배치될 수 있다.In addition, depending on the embodiment, a switch or sensor for detecting whether the head 111 is opened or closed may be disposed on the head 111 and/or the fastening part 112 .

또한, 이동 로봇(100)은 본체(101) 내부에 수납되는 디스플레이(182)를 포함할 수 있다. In addition, the mobile robot 100 may include a display 182 accommodated in the body 101 .

사용자는 상기 헤드(111)를 열어 상기 본체(101) 내부에 상기 먼지통의 삽입과 탈거가 가능하다.A user can open the head 111 to insert and remove the dust container from the inside of the main body 101 .

실시예에 따라서는, 상기 헤드부(110)는 복수의 방식으로 개폐 가능하거나 하나 이상의 개폐 기구 구조를 포함할 수 있다.Depending on the embodiment, the head unit 110 may be opened and closed in a plurality of ways or may include one or more opening/closing mechanism structures.

예를 들어, 상기 헤드(111)를 들어올려 상기 헤드(111)를 열거나, 상기 헤드부(110)에 버튼이 구비되고, 사용자가 버튼을 누르면 사용자 측을 향하여 소정 커버가 열리는 개폐 기구 구조로 구현될 수 있다. For example, the head 111 is opened by lifting the head 111, or a button is provided on the head part 110, and when the user presses the button, a predetermined cover is opened toward the user side. can be implemented.

이 경우에, 상기 디스플레이(182)를 내부 수납 공간 중 구획된 소정 영역에 배치하고, 사용자의 버튼 조작으로 열리는 개폐 기구 구조는 상기 디스플레이(182)가 배치되는 영역의 전용 개폐 구조로 구성될 수 있다. 이에 따라, 사용자가 버튼을 누르면 상기 디스플레이(182)가 사용자 측을 향하여 돌출되도록 구성할 수 있다.In this case, the display 182 is disposed in a partitioned predetermined area of the internal storage space, and the opening/closing mechanism opened by the user's button operation may be configured as a dedicated opening/closing structure of the area in which the display 182 is disposed. . Accordingly, when the user presses the button, the display 182 may be configured to protrude toward the user.

한편, 이동 로봇(100)은 흡입구를 통해 노출되는 솔들을 갖는 롤형의 메인 브러시(미도시)와, 본체(101)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 보조 브러시(135)가 구비할 수 있다. 이들 브러시들의 회전에 의해 주행구역 내 바닥으로부터 먼지들이 분리되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구를 통해 흡입되어 먼지통에 모인다.On the other hand, the mobile robot 100 includes a roll-type main brush (not shown) having brushes exposed through the suction port, and a brush located on the front side of the bottom surface of the main body 101 and composed of a plurality of radially extending wings. An auxiliary brush 135 having an auxiliary brush may be provided. The rotation of these brushes separates the dust from the floor in the driving area, and the dust separated from the floor is sucked through the suction port and collected in the dust bin.

한편, 이동 로봇(100)은 충전 가능한 배터리(미도시)를 구비하여 이동 로봇(100) 내로 전원을 공급하는 전원 공급부(미도시)를 포함할 수 있다.Meanwhile, the mobile robot 100 may include a power supply unit (not shown) that includes a rechargeable battery (not shown) and supplies power to the mobile robot 100 .

상기 전원 공급부는 이동 로봇(100)의 각 구성 요소들에 구동 전원과, 동작 전원을 공급하며, 전원 잔량이 부족하면 충전대(미도시)에서 충전 전류를 공급받아 충전될 수 있다. The power supply unit supplies driving power and operating power to each component of the mobile robot 100, and when the remaining power is insufficient, the power supply may be charged by receiving a charging current from a charging stand (not shown).

이동 로봇(100)은 배터리(미도시)의 충전 상태를 감지하고, 감지 결과를 제어부(140)에 전송하는 배터리 감지부(미도시)를 더 포함할 수 있다. 배터리는 배터리 감지부와 연결되어 배터리 잔량 및 충전 상태가 제어부(140)에 전달된다. 배터리 잔량은 출력부(180)의 디스플레이(182)에 표시될 수 있다.The mobile robot 100 may further include a battery detecting unit (not shown) that detects the state of charge of the battery (not shown) and transmits the detection result to the controller 140 . The battery is connected to the battery detection unit, and the remaining battery amount and charging state are transmitted to the control unit 140 . The remaining battery level may be displayed on the display 182 of the output unit 180 .

배터리(미도시)는 구동 모터뿐만 아니라, 이동 로봇(100)의 작동 전반에 필요한 전원을 공급한다. 상기 바디부(102)는 배터리 점검 및/또는 교체를 위한 개폐 가능한 커버(103)를 포함할 수 있다. 사용자는 상기 커버(103)를 열어 배터리 상태를 점검하거나 교체할 수 있다.The battery (not shown) supplies power required for the overall operation of the mobile robot 100 as well as the driving motor. The body portion 102 may include an openable and openable cover 103 for battery inspection and/or replacement. The user may open the cover 103 to check or replace the battery state.

또한, 상기 바디부(102)는 조작에 따라 배터리 전기코드가 출납되는 배터리 전기코드 수납부(193)가 포함할 수 있고, 배터리 전기코드 수납부(193)를 조작하는 버튼은 상기 커버(103)에 구비될 수 있다.In addition, the body portion 102 may include a battery electric cord accommodating unit 193 through which the battery electric cord is put in and out according to the operation, and the button for operating the battery electric cord accommodating unit 193 is the cover 103 . can be provided in

배터리가 방전될 시, 이동 로봇(100)은 충전을 위해 충전대(미도시)로 복귀하는 주행을 실시할 수 있으며, 이러한 복귀 주행 중, 이동 로봇(100)은 스스로 충전대의 위치를 탐지할 수 있다.When the battery is discharged, the mobile robot 100 may travel to return to the charging station (not shown) for charging, and during this return driving, the mobile robot 100 may detect the position of the charging station by itself. .

충전대는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되는 것은 아니다.The charging station may include a signal transmitting unit (not shown) for transmitting a predetermined return signal. The return signal may be an ultrasonic signal or an infrared signal, but is not limited thereto.

이동 로봇(100)은 복귀 신호를 수신하는 신호 감지부(미도시)를 포함할 수 있다. 충전대는 신호 송출부를 통해 적외선 신호를 송출하고, 신호 감지부는 적외선 신호를 감지하는 적외선 센서를 포함할 수 있다. 이동 로봇(100)은 충전대로부터 송출된 적외선 신호에 따라 충전대의 위치로 이동하여 충전대와 도킹(docking)한다. 이러한 도킹에 의해 이동 로봇(100)의 충전 단자(미도시)와 충전대의 충전 단자(미도시) 간에 충전에 이루어진다.The mobile robot 100 may include a signal detector (not shown) for receiving a return signal. The charging base may transmit an infrared signal through the signal transmitter, and the signal detector may include an infrared sensor for detecting the infrared signal. The mobile robot 100 moves to the location of the charging station according to the infrared signal transmitted from the charging station and docks with the charging station. Charging is performed between the charging terminal (not shown) of the mobile robot 100 and the charging terminal (not shown) of the charging stand by this docking.

영상획득부(120)는 본체(101) 주변, 주행구역, 외부 환경 등을 촬영하는 것으로, 카메라 모듈을 포함할 수 있다. 상기 카메라 모듈은 디지털 카메라를 포함할 수 있다. 디지털 카메라는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를 들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.The image acquisition unit 120 captures the surroundings of the main body 101, a driving area, an external environment, and the like, and may include a camera module. The camera module may include a digital camera. A digital camera includes at least one optical lens and an image sensor (eg, CMOS image sensor) including a plurality of photodiodes (eg, pixels) that are imaged by light passing through the optical lens; It may include a digital signal processor (DSP) that configures an image based on signals output from the photodiodes. The digital signal processor may generate a still image as well as a moving picture composed of frames composed of still images.

이러한 카메라는 촬영 효율을 위해 각 부위별로 여러 개가 설치될 수도 있다. 예를 들어, 영상획득부(120)는, 본체(101) 전방의 상측을 촬영하여 주행구역 내의 천장에 대한 영상을 획득하는 상부 카메라, 본체(101) 전방의 영상을 획득하도록 구비되는 전면 카메라, 뎁스(depth) 카메라를 포함할 수 있다. 하지만, 영상획득부(120)가 구비하는 카메라의 개수, 배치, 종류, 촬영범위가 반드시 이에 한정되어야 하는 것은 아니다. A plurality of such cameras may be installed for each part for photographing efficiency. For example, the image acquisition unit 120 includes an upper camera that captures the upper side of the front of the main body 101 to obtain an image of the ceiling in the driving zone, a front camera that is provided to acquire an image of the front of the main body 101, It may include a depth camera. However, the number, arrangement, type, and shooting range of the cameras included in the image acquisition unit 120 are not necessarily limited thereto.

카메라에 의해 촬상된 영상은 해당 공간에 존재하는 먼지, 머리카락, 바닥 등과 같은 물질의 종류 인식, 청소 여부, 또는 청소 시점을 확인하는데 사용할 수 있다.The image captured by the camera may be used to recognize the type of material such as dust, hair, floor, etc. present in the space, whether to clean it, or to check the cleaning time.

상기 영상획득부(120)는 본체(101) 주변을 촬영하여 영상을 획득할 수 있고, 획득된 영상은 저장부(130)에 저장될 수 있다.The image acquisition unit 120 may acquire an image by photographing the periphery of the main body 101 , and the acquired image may be stored in the storage unit 130 .

또한, 이동 로봇(100)은 이동 로봇의 동작, 상태와 관련된 각종 데이터를 센싱하는 센서들을 포함하는 센서부(170)를 포함할 수 있다.In addition, the mobile robot 100 may include a sensor unit 170 including sensors for sensing various data related to the operation and state of the mobile robot.

예를 들어, 상기 헤드(111)의 개폐 여부를 감지하는 센서(미도시)를 포함할 수 있다. 상기 헤드(111)의 개폐 여부를 감지하는 센서는 공지된 다양한 방식의 센서를 이용할 수 있다.For example, a sensor (not shown) for detecting whether the head 111 is opened or closed may be included. As a sensor for detecting whether the head 111 is opened or closed, various known sensors may be used.

한편, 상기 센서부(170)는 전방의 장애물을 감지하는 장애물 감지 센서(131)를 포함할 수 있다. 또한, 상기 센서부(170)는 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서(미도시)와, 바닥의 영상을 획득하는 하부 카메라 센서(미도시)를 더 포함할 수 있다. Meanwhile, the sensor unit 170 may include an obstacle detection sensor 131 that detects an obstacle in front. In addition, the sensor unit 170 may further include a cliff detection sensor (not shown) for detecting the presence of a cliff on the floor in the driving zone, and a lower camera sensor (not shown) for acquiring an image of the floor.

실시예에 따라서는, 상기 장애물 감지 센서(131)는 이동 로봇(100)의 외주면에 일정 간격으로 설치되는 복수의 센서를 포함할 수 있다. According to an embodiment, the obstacle detecting sensor 131 may include a plurality of sensors installed on the outer peripheral surface of the mobile robot 100 at regular intervals.

예를 들어, 상기 센서부(170)는, 상기 본체(101)의 전면에 좌, 우로 이격되도록 배치되는 제1 센서 및 제2 센서를 포함할 수 있다.For example, the sensor unit 170 may include a first sensor and a second sensor disposed to be spaced apart left and right on the front surface of the main body 101 .

상기 장애물 감지 센서(131)는, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서, PSD(Position Sensitive Device) 센서 등을 포함할 수 있다.The obstacle detection sensor 131 may include an infrared sensor, an ultrasonic sensor, an RF sensor, a geomagnetic sensor, a Position Sensitive Device (PSD) sensor, and the like.

한편, 상기 장애물 감지 센서(131)에 포함되는 센서의 위치와 종류는 이동 로봇의 기종에 따라 달라질 수 있고, 상기 장애물 감지 센서(131)는 더 다양한 센서를 포함할 수 있다.On the other hand, the position and type of the sensor included in the obstacle detection sensor 131 may vary depending on the model of the mobile robot, and the obstacle detection sensor 131 may include more various sensors.

또한, 상기 센서부(170)는 라이다(light detection and ranging: Lidar, 132a, 132b)를 포함할 수 있다.Also, the sensor unit 170 may include a light detection and ranging (Lidar, 132a, 132b).

라이다(132a, 132b)는, 레이저(Laser) 광을 매개로, 송신 신호와 수신 신호의 TOF(Time of Flight) 또는 송신 신호와 수신 신호의 위상차(phase difference)를 기초로, 장애물 등 오브젝트를 검출할 수 있다.The lidar (132a, 132b) is an object such as an obstacle, based on a laser light as a medium, a time of flight (TOF) of a transmission signal and a reception signal or a phase difference between a transmission signal and a reception signal, can be detected.

상기 라이다(132a, 132b)는, 복수개로 구비될 수 있다. 예를 들면, 상기 라이다(132a, 132b)는, 이동 로봇(100)의 전방에 위치하는 오브젝트를 검출하는 제1 라이다(132a) 및 이동 로봇(100)의 후방에 위치하는 오브젝트를 검출하는 제2 라이다(132b)를 포함할 수 있다. The lidars 132a and 132b may be provided in plurality. For example, the lidar (132a, 132b) is a first lidar (132a) for detecting an object located in front of the mobile robot 100, and detecting an object located in the rear of the mobile robot (100) It may include a second lidar (132b).

또한, 상기 라이다(132a, 132b)는, 오브젝트와의 거리, 오브젝트와의 상대 속도 및 오브젝트의 위치를 검출할 수 있다.Also, the lidars 132a and 132b may detect a distance to an object, a relative speed to the object, and a position of the object.

상기 라이다(132a, 132b)는, 상기 장애물 감지 센서(131)의 구성 중 일부로써 구비될 수 있다.The lidar (132a, 132b) may be provided as a part of the configuration of the obstacle detection sensor (131).

또한, 상기 라이다(132a, 132b)는, 맵(map) 작성을 위한 센서로써 구비될 수도 있다.In addition, the lidar (132a, 132b) may be provided as a sensor for creating a map (map).

예를 들어, 지도생성모듈(143)은 주행구역의 맵을 생성할 수 있다. 지도생성모듈(143)은, 영상획득부(120)를 통해 획득한 영상을 처리하여 맵을 작성할 수 있고, 이에 보충적으로 또는 독립적으로 상기 라이다(132a, 132b)의 센싱 데이터에 기초하여 맵을 작성할 수 있다.For example, the map generation module 143 may generate a map of the driving area. The map generation module 143 may create a map by processing the image acquired through the image acquisition unit 120, and supplementally or independently create a map based on the sensing data of the lidar 132a, 132b. can write

상기 장애물 감지 센서(131)는 이동 로봇의 주행(이동) 방향에 존재하는 물체, 특히 장애물을 감지하여 장애물 정보를 제어부(140)에 전달한다. 즉, 상기 장애물 감지 센서(131)는, 이동 로봇(100)의 이동 경로, 전방이나 측면에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어 유닛에 전달할 수 있다. The obstacle detection sensor 131 detects an object, particularly an obstacle, existing in the driving (moving) direction of the mobile robot, and transmits obstacle information to the controller 140 . That is, the obstacle detection sensor 131 may detect the movement path of the mobile robot 100, protrusions existing in front or on the side, household appliances, furniture, wall surfaces, wall corners, etc., and transmit the information to the control unit. have.

이때, 제어부(140)는 초음파 센서를 통해 수신된 적어도 2 이상의 신호에 기초하여 장애물의 위치를 감지하고, 감지된 장애물의 위치에 따라 이동 로봇(100)의 움직임을 제어할 수 있다.In this case, the controller 140 may detect the position of the obstacle based on at least two or more signals received through the ultrasonic sensor, and may control the movement of the mobile robot 100 according to the detected position of the obstacle.

실시예에 따라서는, 본체(101)의 외측면에 구비되는 장애물 감지 센서(131)는 발신부와 수신부를 포함하여 구성될 수 있다. According to an embodiment, the obstacle detection sensor 131 provided on the outer surface of the main body 101 may include a transmitter and a receiver.

예를 들어, 초음파 센서는 적어도 하나 이상의 발신부 및 적어도 2 이상의 수신부가 서로 엇갈리도록 구비될 수 있다. 또한, 다양한 각도로 신호를 방사하고, 장애물에 반사된 신호를 다양한 각도에서 수신할 수 있다.For example, in the ultrasonic sensor, at least one transmitter and at least two receivers may be provided to cross each other. In addition, it is possible to radiate a signal at various angles and receive a signal reflected by an obstacle at various angles.

실시예에 따라서는, 장애물 감지 센서(131)에서 수신된 신호는, 증폭, 필터링 등의 신호 처리 과정을 거칠 수 있고, 이후 장애물까지의 거리 및 방향이 산출될 수 있다.According to an embodiment, the signal received by the obstacle detection sensor 131 may be subjected to signal processing such as amplification and filtering, and then the distance and direction to the obstacle may be calculated.

한편, 상기 센서부(170)는 본체(101)의 구동에 따른 이동 로봇(100)의 동작을 감지하고 동작 정보를 출력하는 동작 감지 센서를 더 포함할 수 있다. 예를 들어, 동작 감지 센서로는, 자이로 센서(Gyro Sensor), 휠 센서(Wheel Sensor), 가속도 센서(Acceleration Sensor) 등을 사용할 수 있다.Meanwhile, the sensor unit 170 may further include a motion detection sensor that detects the motion of the mobile robot 100 according to the driving of the main body 101 and outputs motion information. For example, as the motion detection sensor, a gyro sensor, a wheel sensor, an acceleration sensor, or the like may be used.

자이로 센서는, 이동 로봇(100)이 운전 모드에 따라 움직일 때 회전 방향을 감지하고 회전각을 검출한다. 자이로 센서는, 이동 로봇(100)의 각속도를 검출하여 각속도에 비례하는 전압 값을 출력한다. 제어부(140)는 자이로 센서로부터 출력되는 전압 값을 이용하여 회전 방향 및 회전각을 산출한다.The gyro sensor detects a rotation direction and a rotation angle when the mobile robot 100 moves according to a driving mode. The gyro sensor detects the angular velocity of the mobile robot 100 and outputs a voltage value proportional to the angular velocity. The controller 140 calculates a rotation direction and a rotation angle by using a voltage value output from the gyro sensor.

휠 센서는, 좌륜과 우륜에 연결되어 바퀴의 회전수를 감지한다. 여기서, 휠 센서는 로터리 엔코더(Rotary Encoder)일 수 있다. 로터리 엔코더는 좌륜과 우륜의 회전수를 감지하여 출력한다. The wheel sensor is connected to the left wheel and the right wheel to sense the number of rotations of the wheel. Here, the wheel sensor may be a rotary encoder. The rotary encoder detects and outputs the number of rotations of the left and right wheels.

제어부(140)는 회전수를 이용하여 좌, 우측 바퀴의 회전 속도를 연산할 수 있다. 또한, 제어부(140)는 좌륜과 우륜의 회전수 차이를 이용하여 회전각을 연산할 수 있다.The controller 140 may calculate the rotation speed of the left and right wheels using the rotation speed. Also, the controller 140 may calculate the rotation angle using a difference in rotation speed between the left wheel and the right wheel.

가속도 센서는, 이동 로봇(100)의 속도 변화, 예를 들어, 출발, 정지, 방향 전환, 물체와의 충돌 등에 따른 이동 로봇(100)의 변화를 감지한다. 가속도 센서는 주 바퀴나 보조바퀴의 인접 위치에 부착되어, 바퀴의 미끄러짐이나 공회전을 검출할 수 있다.The acceleration sensor detects a change in speed of the mobile robot 100 , for example, a change in the mobile robot 100 according to start, stop, direction change, collision with an object, and the like. The acceleration sensor may be attached to a position adjacent to the main wheel or the auxiliary wheel to detect slippage or idling of the wheel.

또한, 가속도 센서는 제어부(140)에 내장되어 이동 로봇(100)의 속도 변화를 감지할 수 있다. 즉, 가속도 센서는 속도 변화에 따른 충격량을 검출하여 이에 대응하는 전압 값을 출력한다. 따라서, 가속도 센서는 전자식 범퍼의 기능을 수행할 수 있다.Also, the acceleration sensor may be embedded in the controller 140 to detect a change in speed of the mobile robot 100 . That is, the acceleration sensor detects the amount of impact according to the speed change and outputs a voltage value corresponding thereto. Accordingly, the acceleration sensor may function as an electronic bumper.

제어부(140)는 동작 감지 센서로부터 출력된 동작 정보에 기초하여 이동 로봇(100)의 위치 변화를 산출할 수 있다. 이러한 위치는 영상 정보를 이용한 절대 위치에 대응하여 상대 위치가 된다. 이동 로봇은 이러한 상대 위치 인식을 통해 영상 정보와 장애물 정보를 이용한 위치 인식의 성능을 향상시킬 수 있다. The controller 140 may calculate a change in the position of the mobile robot 100 based on the motion information output from the motion detection sensor. This position becomes a relative position corresponding to the absolute position using the image information. The mobile robot can improve the performance of position recognition using image information and obstacle information through such relative position recognition.

또한, 이동 로봇(100)은 출력부(180)를 포함하여, 예약 정보, 배터리 상태, 동작모드, 동작상태, 에러상태 등을 이미지로 표시하거나 음향으로 출력할 수 있다. In addition, the mobile robot 100 may include the output unit 180 to display reservation information, battery state, operation mode, operation state, error state, etc. as an image or output the sound.

출력부(180)는 예약 정보, 배터리 상태, 동작모드, 동작상태, 에러상태 등 사용자 인터페이스 화면을 이미지로 표시하는 디스플레이(182)를 포함할 수 있다.The output unit 180 may include a display 182 that displays a user interface screen such as reservation information, battery state, operation mode, operation state, and error state as an image.

실시예에 따라서는, 헤드(111)가 열리면, 상기 디스플레이(182)는 전면으로 슬라이딩(sliding) 또는 푸쉬(push)됨으로써, 디스플레이(182)를 통해서 제공되는 사용자 인터페이스 화면을 사용자가 더 쉽게 인식하도록 할 수 있다.According to an embodiment, when the head 111 is opened, the display 182 is slid or pushed to the front, so that the user can more easily recognize the user interface screen provided through the display 182 . can do.

또한, 상기 디스플레이(182)는 터치패드와 상호 레이어 구조를 이루어 터치스크린으로 구성될 수 있다. 이 경우에, 상기 디스플레이(182)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다. In addition, the display 182 may be configured as a touch screen by forming a layer structure with the touch pad. In this case, the display 182 may be used as an input device capable of inputting information by a user's touch in addition to an output device.

또한, 출력부(180)는 오디오 신호를 출력하는 음향 출력부(181)를 더 포함할 수 있다. 음향 출력부(181)는 제어부(140)의 제어에 따라 경고음, 동작모드, 동작상태, 에러상태 등의 알림 메시지 등을 음향으로 출력할 수 있다. 상기 음향 출력부(181)는, 제어부(140)로부터의 전기 신호를 오디오 신호로 변환하여 출력할 수 있다. 이를 위해, 음향 출력부(181)는, 스피커 등을 구비할 수 있다.Also, the output unit 180 may further include a sound output unit 181 for outputting an audio signal. The sound output unit 181 may output a notification message such as a warning sound, an operation mode, an operation state, an error state, etc. in sound according to the control of the controller 140 . The sound output unit 181 may convert the electrical signal from the control unit 140 into an audio signal and output it. To this end, the sound output unit 181 may include a speaker or the like.

도 3을 참조하면, 이동 로봇(100)은 현재 위치를 인식하는 등 각종 정보를 처리하고 판단하는 제어부(140), 및 각종 데이터를 저장하는 저장부(130)를 포함한다. 또한, 이동 로봇(100)은 기설정된 외부 기기와 신호를 송수신하는 통신부(190)를 더 포함할 수 있다. Referring to FIG. 3 , the mobile robot 100 includes a control unit 140 that processes and determines various types of information such as recognizing a current location, and a storage unit 130 that stores various data. In addition, the mobile robot 100 may further include a communication unit 190 for transmitting and receiving a signal to and from a preset external device.

예를 들어, 통신부(190)는 기설정된 휴대 단말기와 데이터를 송수신할 수 있다.For example, the communication unit 190 may transmit/receive data to and from a preset portable terminal.

휴대 단말기는 이동 로봇(100)을 제어하기 위한 애플리케이션을 구비하고, 애플리케이션의 실행을 통해 이동 로봇(100)이 청소할 주행구역에 대한 맵을 표시하고, 맵 상에 특정 영역을 청소하도록 영역을 지정할 수 있다. 휴대 단말기는 맵 설정을 위한 애플리케이션(application)이 탑재된 리모콘, PDA, 랩탑(laptop), 스마트 폰, 태블릿 등을 예로 들 수 있다. The mobile terminal has an application for controlling the mobile robot 100, displays a map for the driving area to be cleaned by the mobile robot 100 through execution of the application, and designates an area to clean a specific area on the map have. The mobile terminal may include, for example, a remote controller, a PDA, a laptop, a smart phone, a tablet, etc. equipped with an application for setting a map.

휴대 단말기는 이동 로봇(100)과 통신하여, 맵과 함께 이동 로봇의 현재 위치를 표시할 수 있으며, 복수의 영역에 대한 정보가 표시될 수 있다. 또한, 휴대 단말기는 이동 로봇의 주행에 따라 그 위치를 갱신하여 표시한다. The mobile terminal may communicate with the mobile robot 100 to display the current location of the mobile robot together with a map, and information on a plurality of areas may be displayed. In addition, the mobile terminal updates and displays the position according to the movement of the mobile robot.

또한, 통신부(190)는 기설정된 서버와 데이터를 송수신할 수 있다. 이에 따라, 이동 로봇(100)은 서버로부터 제어 신호, 공공장소 전반에 관한 정보 등을 수신할 수 있고, 네트워크에 연결된 다른 이동 로봇들에 대한 정보도 수신할 수 있다.Also, the communication unit 190 may transmit/receive data to/from a preset server. Accordingly, the mobile robot 100 may receive a control signal, general information about public places, and the like from the server, and may also receive information about other mobile robots connected to the network.

제어부(140)는 이동 로봇(100)을 구성하는 영상획득부(120), 주행부(160), 디스플레이(182) 등을 제어하여, 이동 로봇(100)의 동작 전반을 제어한다. The controller 140 controls the overall operation of the mobile robot 100 by controlling the image acquisition unit 120 , the traveling unit 160 , the display 182 , and the like constituting the mobile robot 100 .

저장부(130)는 이동 로봇(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 기록 매체는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.The storage unit 130 records various types of information necessary for controlling the mobile robot 100 , and may include a volatile or nonvolatile recording medium. A recording medium stores data that can be read by a microprocessor, such as HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic may include tapes, floppy disks, optical data storage devices, and the like.

또한, 저장부(130)에는 주행구역에 대한 맵(Map)이 저장될 수 있다. 맵은 이동 로봇(100)과 유선 또는 무선 통신을 통해 정보를 교환할 수 있는 휴대 단말기, 서버 등에 의해 입력된 것일 수도 있고, 이동 로봇(100)이 스스로 생성한 것일 수도 있다. In addition, the storage unit 130 may store a map (Map) for the driving area. The map may be input by a mobile terminal or server capable of exchanging information with the mobile robot 100 through wired or wireless communication, or may be generated by the mobile robot 100 by itself.

맵에는 주행구역 내의 방들의 위치가 표시될 수 있다. 또한, 이동 로봇(100)의 현재 위치가 맵 상에 표시될 수 있으며, 맵 상에서의 이동 로봇(100)의 현재의 위치는 주행 과정에서 갱신될 수 있다. 휴대 단말기는 저장부(130)에 저장된 맵과 동일한 맵을 저장할 수 있다. The map may display the locations of the rooms in the driving area. In addition, the current position of the mobile robot 100 may be displayed on the map, and the current position of the mobile robot 100 on the map may be updated during the driving process. The mobile terminal may store the same map as the map stored in the storage unit 130 .

상기 저장부(130)는 청소 이력 정보를 저장할 수 있다. 이러한 청소 이력 정보는 청소를 수행할 때마다 생성될 수 있다.The storage unit 130 may store cleaning history information. Such cleaning history information may be generated whenever cleaning is performed.

상기 저장부(130)에 저장되는 주행구역에 대한 맵은, 청소 중 주행에 사용되는 내비게이션 맵(Navigation map), 위치 인식에 사용되는 SLAM(Simultaneous localization and mapping) 맵, 장애물 등에 부딪히면 해당 정보를 저장하여 학습 청소시 사용하는 학습 맵, 전역 위치 인식에 사용되는 전역 위치 맵, 인식된 장애물에 관한 정보가 기록되는 장애물 인식 맵 등일 수 있다. The map for the driving area stored in the storage unit 130 is a navigation map used for driving while cleaning, a Simultaneous localization and mapping (SLAM) map used for location recognition, and an obstacle. Thus, it may be a learning map used for learning cleaning, a global location map used for global location recognition, an obstacle recognition map in which information on recognized obstacles is recorded, and the like.

한편, 상술한 바와 같이 용도별로 상기 저장부(130)에 맵들을 구분하여 저장, 관리할 수 있지만, 맵이 용도별로 명확히 구분되지 않을 수도 있다. 예를 들어, 적어도 2 이상의 용도로 사용할 수 있도록 하나의 맵에 복수의 정보를 저장할 수도 있다.Meanwhile, as described above, although maps can be stored and managed in the storage unit 130 by use, the maps may not be clearly classified by use. For example, a plurality of pieces of information may be stored in one map to be used for at least two or more purposes.

제어부(140)는 주행제어모듈(141), 위치인식모듈(142), 지도생성모듈(143) 및 장애물인식모듈(144)을 포함할 수 있다. The control unit 140 may include a driving control module 141 , a location recognition module 142 , a map generation module 143 , and an obstacle recognition module 144 .

도 1 내지 도 3을 참조하면, 주행제어모듈(141)은 이동 로봇(100)의 주행을 제어하는 것으로, 주행 설정에 따라 주행부(160)의 구동을 제어한다. 또한, 주행제어모듈(141)은 주행부(160)의 동작을 바탕으로 이동 로봇(100)의 주행경로를 파악할 수 있다. 예를 들어, 주행제어모듈(141)은 구동 바퀴(136)의 회전속도를 바탕으로 이동 로봇(100)의 현재 또는 과거의 이동속도, 주행한 거리 등을 파악할 수 있으며, 각 구동 바퀴의 회전 방향에 따라 현재 또는 과거의 방향 전환 과정 또한 파악할 수 있다. 이렇게 파악된 이동 로봇(100)의 주행 정보를 바탕으로, 맵 상에서 이동 로봇(100)의 위치가 갱신될 수 있다. 1 to 3 , the driving control module 141 controls the driving of the mobile robot 100 and controls the driving of the driving unit 160 according to the driving setting. Also, the driving control module 141 may determine the driving route of the mobile robot 100 based on the operation of the driving unit 160 . For example, the driving control module 141 may determine the current or past moving speed and distance traveled of the mobile robot 100 based on the rotation speed of the driving wheel 136 , and the rotation direction of each driving wheel. Accordingly, the current or past direction change process can also be identified. The position of the mobile robot 100 on the map may be updated based on the detected driving information of the mobile robot 100 .

지도생성모듈(143)은 주행구역의 맵을 생성할 수 있다. 지도생성모듈(143)은 영상획득부(120)를 통해 획득한 영상을 처리하여 맵을 작성할 수 있다. 즉, 청소 영역과 대응되는 청소 맵을 작성할 수 있다.The map generation module 143 may generate a map of the driving area. The map generation module 143 may create a map by processing the image acquired through the image acquisition unit 120 . That is, a cleaning map corresponding to the cleaning area may be created.

또한, 지도생성모듈(143)은 각 위치에서 영상획득부(120)를 통해 획득한 영상을 처리하여 맵과 연계시켜 전역위치를 인식할 수 있다.In addition, the map generation module 143 may process the image acquired through the image acquisition unit 120 at each location and link it with the map to recognize the global location.

위치인식모듈(142)은 현재 위치를 추정하여 인식한다. 위치인식모듈(142)은 영상획득부(120)의 영상 정보를 이용하여 지도생성모듈(143)과 연계하여 위치를 파악함으로써, 이동 로봇(100)의 위치가 갑자기 변경되는 경우에도 현재 위치를 추정하여 인식할 수 있다.The location recognition module 142 estimates and recognizes the current location. The position recognition module 142 uses the image information of the image acquisition unit 120 to determine the position in connection with the map generation module 143, thereby estimating the current position even when the position of the mobile robot 100 is suddenly changed. can be recognized by

이동 로봇(100)은 위치인식모듈(142)을 통해 연속적인 주행 중에 위치 인식이 가능하고 또한, 위치인식모듈(142) 없이 지도생성모듈(143) 및 장애물인식모듈(144)을 통해, 맵을 학습하고 현재 위치를 추정할 수 있다. The mobile robot 100 can recognize a position during continuous driving through the position recognition module 142, and, through the map generation module 143 and the obstacle recognition module 144 without the position recognition module 142, create a map. It can learn and estimate its current location.

이동 로봇(100)이 주행하는 중에, 영상획득부(120)는 이동 로봇(100) 주변의 영상들을 획득한다. 이하, 영상획득부(120)에 의해 획득된 영상을 '획득영상'이라고 정의한다. While the mobile robot 100 is running, the image acquisition unit 120 acquires images around the mobile robot 100 . Hereinafter, an image acquired by the image acquisition unit 120 is defined as an 'acquired image'.

획득영상에는 천장에 위치하는 조명들, 경계(edge), 코너(corner), 얼룩(blob), 굴곡(ridge) 등의 여러가지 특징(feature)들이 포함된다. The acquired image includes various features such as lights located on the ceiling, edges, corners, blobs, and ridges.

지도생성모듈(143)은 획득영상들 각각으로부터 특징을 검출한다. 컴퓨터 비전(Computer Vision) 기술 분야에서 영상으로부터 특징을 검출하는 다양한 방법(Feature Detection)이 잘 알려져 있다. 이들 특징의 검출에 적합한 여러 특징검출기(feature detector)들이 알려져 있다. 예를 들어, Canny, Sobel, Harris&Stephens/Plessey, SUSAN, Shi&Tomasi, Level curve curvature, FAST, Laplacian of Gaussian, Difference of Gaussians, Determinant of Hessian, MSER, PCBR, Grey-level blobs 검출기 등이 있다.The map generation module 143 detects a feature from each of the acquired images. In the field of computer vision technology, various methods for detecting features from an image (Feature Detection) are well known. Several feature detectors suitable for the detection of these features are known. For example, Canny, Sobel, Harris&Stephens/Plessey, SUSAN, Shi&Tomasi, Level curve curvature, FAST, Laplacian of Gaussian, Difference of Gaussians, Determinant of Hessian, MSER, PCBR, Gray-level blobs detector, and the like.

지도생성모듈(143)은 각 특징점을 근거로 디스크립터를 산출한다. 지도생성모듈(143)은 특징 검출을 위해 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 특징점을 디스크립터(descriptor)로 변환할 수 있다. 디스크립터는 n차원 벡터(vector)로 표기될 수 있다.The map generation module 143 calculates a descriptor based on each feature point. The map generation module 143 may convert a feature point into a descriptor by using a scale invariant feature transform (SIFT) technique for feature detection. The descriptor may be expressed as an n-dimensional vector.

SIFT는 촬영 대상의 스케일(scale), 회전, 밝기변화에 대해서 불변하는 특징을 검출할 수 있어, 같은 영역을 이동 로봇(100)의 자세를 달리하며 촬영하더라도 불변하는(즉, 회전 불변한(Rotation-invariant)) 특징을 검출할 수 있다. 물론, 이에 한정되지 않고 다른 다양한 기법(예를 들어, HOG: Histogram of Oriented Gradient, Haar feature, Fems, LBP:Local Binary Pattern, MCT:Modified Census Transform)들이 적용될 수도 있다.SIFT can detect features that are invariant with respect to changes in scale, rotation, and brightness of an object to be photographed, so that even if the same area is photographed with different postures of the moving robot 100 (that is, rotation is invariant) -invariant)) feature can be detected. Of course, the present invention is not limited thereto, and various other techniques (eg, HOG: Histogram of Oriented Gradient, Haar feature, Fems, LBP: Local Binary Pattern, MCT: Modified Census Transform) may be applied.

지도생성모듈(143)은 각 위치의 획득영상을 통해 얻은 디스크립터 정보를 바탕으로, 획득영상마다 적어도 하나의 디스크립터를 소정 하위 분류규칙에 따라 복수의 군으로 분류하고, 소정 하위 대표규칙에 따라 같은 군에 포함된 디스크립터들을 각각 하위 대표 디스크립터로 변환할 수 있다.The map generation module 143 classifies at least one descriptor for each acquired image into a plurality of groups according to a predetermined sub-classification rule based on descriptor information obtained through the acquired image of each location, and classifies the same group according to a predetermined sub-representative rule. Each of the descriptors included in ? can be converted into a sub-representative descriptor.

다른 예로, 실(room)과 같이 소정 구역내의 획득영상 들로부터 모인 모든 디스크립터를 소정 하위 분류규칙에 따라 복수의 군으로 분류하여 상기 소정 하위 대표규칙에 따라 같은 군에 포함된 디스크립터들을 각각 하위 대표 디스크립터로 변환할 수도 있다. As another example, all descriptors collected from acquired images within a predetermined area, such as a room, are classified into a plurality of groups according to a predetermined sub-classification rule, and descriptors included in the same group according to the predetermined sub-representative rule are respectively classified as sub-representative descriptors. can also be converted to

지도생성모듈(143)은 이 같은 과정을 거쳐, 각 위치의 특징분포를 구할 수 있다. 각 위치 특징분포는 히스토그램 또는 n차원 벡터로 표현될 수 있다. 또 다른 예로, 지도생성모듈(143)은 소정 하위 분류규칙 및 소정 하위 대표규칙을 거치지 않고, 각 특징점으로부터 산출된 디스크립터를 바탕으로 미지의 현재위치를 추정할 수 있다. The map generation module 143 may obtain the feature distribution of each location through this process. Each location feature distribution may be expressed as a histogram or an n-dimensional vector. As another example, the map generating module 143 may estimate an unknown current location based on descriptors calculated from each feature point without going through a predetermined sub-classification rule and a predetermined sub-representative rule.

또한, 위치 도약 등의 이유로 이동 로봇(100)의 현재 위치가 미지의 상태가 된 경우에, 기 저장된 디스크립터 또는 하위 대표 디스크립터 등의 데이터를 근거로 현재 위치를 추정할 수 있다. In addition, when the current position of the mobile robot 100 becomes unknown due to a position jump or the like, the current position may be estimated based on data such as a pre-stored descriptor or a sub-representative descriptor.

이동 로봇(100)은, 미지의 현재 위치에서 영상획득부(120)를 통해 획득영상을 획득한다. 영상을 통해 천장에 위치하는 조명들, 경계(edge), 코너(corner), 얼룩(blob), 굴곡(ridge) 등의 여러가지 특징(feature)들이 확인된다.The mobile robot 100 acquires an acquired image through the image acquisition unit 120 at an unknown current position. Various features such as lights located on the ceiling, edges, corners, blobs, and ridges are identified through the image.

위치인식모듈(142)은 획득영상으로부터 특징들을 검출한다. 컴퓨터 비전 기술 분야에서 영상으로부터 특징을 검출하는 다양한 방법 및 이들 특징의 검출에 적합한 여러 특징검출기들에 대한 설명은 상기한 바와 같다.The location recognition module 142 detects features from the acquired image. Descriptions of various methods for detecting features from an image in the field of computer vision technology and various feature detectors suitable for detecting these features have been described above.

위치인식모듈(142)은 각 인식 특징점을 근거로 인식 디스크립터 산출단계를 거쳐 인식 디스크립터를 산출한다. 이때 인식 특징점 및 인식 디스크립터는 위치인식모듈(142)에서 수행하는 과정을 설명하기 위한 것으로 지도생성모듈(143)에서 수행하는 과정을 설명하는 용어와 구분하기 위한 것이다. 다만, 이동 로봇(100)의 외부 세계의 특징이 각각 다른 용어로 정의되는 것에 불과하다. The location recognition module 142 calculates a recognition descriptor through a recognition descriptor calculation step based on each recognition feature point. In this case, the recognition feature point and the recognition descriptor are for describing the process performed by the location recognition module 142 and are to be distinguished from terms describing the process performed by the map generation module 143 . However, the characteristics of the external world of the mobile robot 100 are merely defined by different terms.

위치인식모듈(142)은 본 특징 검출을 위해 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 인식 특징점을 인식 디스크립터로 변환할 수 있다. 인식 디스크립터는 n차원 벡터(vector)로 표기될 수 있다. The location recognition module 142 may convert the recognition feature point into a recognition descriptor by using a Scale Invariant Feature Transform (SIFT) technique to detect the present feature. The recognition descriptor may be expressed as an n-dimensional vector (vector).

SIFT는 앞서 설명한 바와 같이, 획득영상에서 코너점 등 식별이 용이한 특징점을 선택한 후, 각 특징점 주변의 일정한 구역에 속한 픽셀들의 밝기 구배(gradient)의 분포 특성(밝기 변화의 방향 및 변화의 급격한 정도)에 대해, 각 방향에 대한 변화의 급격한 정도를 각 차원에 대한 수치로 하는 n차원 벡터(vector)를 구하는 영상인식기법이다. As described above, SIFT selects a feature point that is easy to identify, such as a corner point, from an acquired image, and then selects a feature point that is easy to identify, and then the distribution characteristics of the brightness gradient of pixels belonging to a certain area around each feature point (direction of change in brightness and degree of abrupt change) ), it is an image recognition technique that obtains an n-dimensional vector in which the degree of abrupt change in each direction is a numerical value for each dimension.

위치인식모듈(142)은 미지의 현재 위치의 획득영상을 통해 얻은 적어도 하나의 인식 디스크립터 정보를 근거로, 소정 하위 변환규칙에 따라 비교대상이 되는 위치 정보(예를 들면, 각 위치의 특징분포)와 비교 가능한 정보(하위 인식 특징분포)로 변환한다.The location recognition module 142 is based on at least one piece of recognition descriptor information obtained through the acquired image of an unknown current location, location information to be compared according to a predetermined sub-conversion rule (eg, feature distribution of each location) and information that can be compared with (lower recognition feature distribution).

소정 하위 비교규칙에 따라, 각각의 위치 특징분포를 각각의 인식 특징분포와 비교하여 각각의 유사도를 산출할 수 있다. 각각의 위치에 해당하는 상기 위치 별로 유사도(확률)를 산출하고, 그 중 가장 큰 확률이 산출되는 위치를 현재위치로 결정할 수 있다.According to a predetermined sub-comparison rule, each positional feature distribution may be compared with each recognized feature distribution to calculate each similarity. A degree of similarity (probability) may be calculated for each location corresponding to each location, and a location from which the greatest probability is calculated may be determined as the current location.

이와 같이, 제어부(140)는 주행구역을 구분하고 복수의 영역으로 구성된 맵을 생성하거나, 기저장된 맵을 바탕으로 본체(101)의 현재 위치를 인식할 수 있다. In this way, the controller 140 may divide the driving zone and generate a map composed of a plurality of areas, or recognize the current location of the main body 101 based on a pre-stored map.

제어부(140)는 맵이 생성되면, 생성된 맵을 통신부(190)를 통해 휴대 단말기, 서버 등으로 전송할 수 있다. 또한, 제어부(140)는 앞서 설명한 바와 같이, 휴대 단말기, 서버 등으로부터 맵이 수신되면, 저장부에 저장할 수 있다. When the map is generated, the controller 140 may transmit the generated map to a mobile terminal, a server, or the like through the communication unit 190 . Also, as described above, when a map is received from a mobile terminal, a server, or the like, the controller 140 may store the map in the storage unit.

또한 제어부(140)는 주행 중 맵이 갱신되는 경우 갱신된 정보를 휴대 단말기로 전송하여 휴대 단말기와 이동 로봇(100)에 저장되는 맵이 동일하도록 한다. 휴대 단말기와 이동 로봇(100)에 저장된 맵이 동일하게 유지됨에 따라 이동 단말기로부터의 청소명령에 대하여, 이동 로봇(100)이 지정된 영역을 청소할 수 있으며, 또한, 휴대 단말기에 이동 로봇의 현재 위치가 표시될 수 있도록 하기 위함이다. Also, when the map is updated while driving, the controller 140 transmits the updated information to the portable terminal so that the map stored in the portable terminal and the mobile robot 100 is the same. As the maps stored in the mobile terminal and the mobile robot 100 are kept the same, the mobile robot 100 can clean the designated area in response to a cleaning command from the mobile terminal, and the current location of the mobile robot is displayed in the mobile terminal. in order to be displayed.

이때, 맵은 청소 영역을 복수의 영역으로 구분되고, 복수의 영역을 연결하는 연결통로가 포함하며, 영역 내의 장애물에 대한 정보를 포함할 수 있다. In this case, the map may divide the cleaning area into a plurality of areas, may include a connection passage connecting the plurality of areas, and may include information on obstacles in the area.

제어부(140)는 청소명령이 입력되면, 맵 상의 위치와 이동 로봇의 현재위치가 일치하는지 여부를 판단한다. 청소명령은 리모컨, 디스플레이 또는 휴대 단말기로부터 입력될 수 있다. When a cleaning command is input, the control unit 140 determines whether the location on the map matches the current location of the mobile robot. The cleaning command may be input from a remote control, a display, or a portable terminal.

제어부(140)는 현재 위치가 맵 상의 위치와 일치하지 않는 경우, 또는 현재 위치를 확인할 수 없는 경우, 현재 위치를 인식하여 이동 로봇(100)의 현재 위치를 복구한 한 후, 현재 위치를 바탕으로 지정영역으로 이동하도록 주행부(160)를 제어할 수 있다. When the current location does not match the location on the map, or when the current location cannot be confirmed, the controller 140 recognizes the current location and restores the current location of the mobile robot 100, and then based on the current location The driving unit 160 may be controlled to move to a designated area.

현재 위치가 맵 상의 위치와 일치하지 않는 경우 또는 현재 위치를 확인 할 수 없는 경우, 위치인식모듈(142)은 영상획득부(120)로부터 입력되는 획득영상을 분석하여 맵을 바탕으로 현재 위치를 추정할 수 있다. 또한, 장애물인식모듈(144) 또는 지도생성모듈(143) 또한, 같은 방식으로 현재 위치를 인식할 수 있다. When the current location does not match the location on the map or when the current location cannot be confirmed, the location recognition module 142 analyzes the acquired image input from the image acquisition unit 120 to estimate the current location based on the map can do. In addition, the obstacle recognition module 144 or the map generation module 143 may also recognize the current location in the same way.

위치를 인식하여 이동 로봇(100)의 현재 위치를 복구한 후, 주행제어모듈(141)은 현재 위치로부터 지정영역으로 주행경로를 산출하고 주행부(160)를 제어하여 지정영역으로 이동한다. After recognizing the position and restoring the current position of the mobile robot 100, the driving control module 141 calculates a driving route from the current position to the designated area, and controls the driving unit 160 to move to the designated area.

서버로부터 청소 패턴 정보를 수신하는 경우, 주행제어모듈(141)은 수신한 청소 패턴 정보에 따라, 전체 주행구역을 복수의 영역으로 나누고, 하나 이상의 영역을 지정영역으로 설정할 수 있다.When receiving the cleaning pattern information from the server, the driving control module 141 may divide the entire driving zone into a plurality of regions according to the received cleaning pattern information, and may set one or more regions as a designated region.

또한, 주행제어모듈(141)은 수신한 청소 패턴 정보에 따라 주행경로를 산출하고, 주행경로를 따라 주행하며, 청소를 수행할 수 있다. In addition, the driving control module 141 may calculate a driving route according to the received cleaning pattern information, travel along the driving route, and perform cleaning.

제어부(140)는 설정된 지정영역에 대한 청소가 완료되면, 청소기록을 저장부(130)에 저장할 수 있다. When cleaning of the set designated area is completed, the controller 140 may store the cleaning record in the storage unit 130 .

또한, 제어부(140)는 통신부(190)를 통해 이동 로봇(100)의 동작상태 또는 청소상태를 소정 주기로 휴대 단말기, 서버로 전송할 수 있다. In addition, the control unit 140 may transmit the operation state or the cleaning state of the mobile robot 100 to the mobile terminal or the server at a predetermined cycle through the communication unit 190 .

그에 따라 휴대 단말기는 수신되는 데이터를 바탕으로, 실행중인 애플리케이션의 화면상에 맵과 함께 이동 로봇의 위치를 표시하고, 또한 청소 상태에 대한 정보를 출력한다.Accordingly, the mobile terminal displays the location of the mobile robot along with a map on the screen of the running application based on the received data, and also outputs information on the cleaning status.

본 발명의 실시예에 따른 이동 로봇(100)은 일방향으로 장애물이나 벽면이 감지될 때까지 이동하다가, 센서부(170) 및 장애물인식모듈(144)을 통하여 장애물이 인식되면, 인식된 장애물의 속성에 따라 직진, 회전 등 주행 패턴을 결정할 수 있다.The mobile robot 100 according to an embodiment of the present invention moves in one direction until an obstacle or a wall is detected, and when the obstacle is recognized through the sensor unit 170 and the obstacle recognition module 144, the recognized obstacle properties According to this, a driving pattern such as going straight or turning can be determined.

예를 들어, 인식된 장애물의 속성이 넘어갈 수 있는 종류의 장애물이면, 이동 로봇(100)은 계속 직진할 수 있다. 또는, 인식된 장애물의 속성이 넘어갈 수 없는 종류의 장애물이면, 이동 로봇(100)은 회전하여 일정거리 이동하고, 다시 최초 이동 방향의 반대방향으로 장애물이 감지되는 거리까지 이동하여 지그재그(zigzag) 형태로 주행할 수 있다.For example, if the recognized obstacle is a type of obstacle that can be overcome, the mobile robot 100 may continue to move straight. Alternatively, if the property of the recognized obstacle is a type of obstacle that cannot be crossed, the mobile robot 100 rotates and moves a certain distance, and then moves to a distance where the obstacle is detected in the opposite direction to the initial movement direction to form a zigzag can drive with

본 발명의 실시예에 따른 이동 로봇(100)은, 머신 러닝(machine learning) 기반의 장애물 인식 및 회피를 수행할 수 있다. The mobile robot 100 according to an embodiment of the present invention may perform machine learning-based obstacle recognition and avoidance.

상기 제어부(140)는, 입력 영상에서 머신 러닝(machine learning)으로 기학습된 장애물을 인식하는 장애물인식모듈(144)과 상기 인식된 장애물의 속성에 기초하여, 상기 주행부(160)의 구동을 제어하는 주행제어모듈(141)을 포함할 수 있다.The control unit 140 controls the driving of the driving unit 160 based on the obstacle recognition module 144 for recognizing an obstacle previously learned by machine learning from the input image and the properties of the recognized obstacle. It may include a driving control module 141 to control.

본 발명의 실시예에 따른 이동 로봇(100)은, 머신 러닝으로 장애물의 속성이 학습된 장애물인식모듈(144)을 포함할 수 있다.The mobile robot 100 according to an embodiment of the present invention may include an obstacle recognition module 144 in which the properties of obstacles are learned by machine learning.

머신 러닝은 컴퓨터에게 사람이 직접 로직(Logic)을 지시하지 않아도 데이터를 통해 컴퓨터가 학습을 하고 이를 통해 컴퓨터가 알아서 문제를 해결하게 하는 것을 의미한다.Machine learning means that a computer learns from data without a human instructing the computer to directly instruct logic, and allows the computer to solve problems on its own.

딥러닝(Deep Learning)은. 인공지능을 구성하기 위한 인공신경망(Artificial Neural Networks: ANN)에 기반으로 해 컴퓨터에게 사람의 사고방식을 가르치는 방법으로 사람이 가르치지 않아도 컴퓨터가 스스로 사람처럼 학습할 수 있는 인공지능 기술이다.Deep Learning is. Based on Artificial Neural Networks (ANN) for constructing artificial intelligence, it is a method of teaching a human way of thinking to a computer.

상기 인공신경망(ANN)은 소프트웨어 형태로 구현되거나 칩(chip) 등 하드웨어 형태로 구현될 수 있다.The artificial neural network (ANN) may be implemented in the form of software or hardware such as a chip.

장애물인식모듈(144)은 장애물의 속성이 학습된 소프트웨어 또는 하드웨어 형태의 인공신경망(ANN)을 포함할 수 있다. The obstacle recognition module 144 may include an artificial neural network (ANN) in the form of software or hardware in which properties of obstacles are learned.

예를 들어, 장애물인식모듈(144)은 딥러닝(Deep Learning)으로 학습된 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등 심층신경망(Deep Neural Network: DNN)을 포함할 수 있다.For example, the obstacle recognition module 144 is a deep neural network (DNN) such as a Convolutional Neural Network (CNN), a Recurrent Neural Network (RNN), and a Deep Belief Network (DBN) trained by deep learning. may include

장애물인식모듈(144)은 상기 심층신경망(DNN)에 포함된 노드들 사이의 가중치(weight)들에 기초하여 입력되는 영상 데이터에 포함되는 장애물의 속성을 판별할 수 있다.The obstacle recognition module 144 may determine the property of an obstacle included in the input image data based on weights between nodes included in the deep neural network (DNN).

상기 영상획득부(120)는 상기 이동 로봇(100)의 이동 방향에서 소정 각도 범위 내의 영상을 획득할 수 있고, 상기 장애물인식모듈(144)은 영상획득부(120)가 획득한 영상에서 머신 러닝(machine learning)으로 기학습된 데이터에 기초하여 장애물을 인식할 수 있다.The image acquisition unit 120 may acquire an image within a predetermined angular range in the moving direction of the mobile robot 100 , and the obstacle recognition module 144 performs machine learning from the image acquired by the image acquisition unit 120 . (machine learning) can recognize obstacles based on previously learned data.

도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(100)은, 사람들에게 이동 로봇(100)의 주행 상태를 알리기 위한 신호 기능을 가지는 다양한 램프들을 구비하는 램프부(150)를 포함할 수 있다.1 to 3 , the mobile robot 100 according to an embodiment of the present invention includes a lamp unit 150 having various lamps having a signal function to notify people of the driving state of the mobile robot 100 . ) may be included.

상기 램프부(150)는, 이동 로봇(100)의 현재 상태를 나타내는 광을 출력하는 상태 알림등(151), 상기 본체(101)의 전면에 배치되고, 상기 이동 로봇(100)의 주행 방향에 따라 켜지는 전방 방향 지시등(152), 및, 상기 본체(101)의 후면에 배치되고, 상기 이동 로봇(100)의 주행 방향에 따라 켜지는 후방 방향 지시등(153)을 포함할 수 있다.The lamp unit 150 includes a status notification light 151 , which outputs light indicating the current state of the mobile robot 100 , is disposed on the front of the main body 101 , and is positioned in the traveling direction of the mobile robot 100 . It may include a forward direction indicator light 152 that is turned on according to the direction, and a rear direction indicator light 153 that is disposed on the rear side of the main body 101 and is turned on according to the traveling direction of the mobile robot 100 .

상기 램프부(150)의 램프들(151, 152, 153)은, 각각 하나 이상의 광원을 포함할 수 있다. 예를 들어, 상기 상태 알림등(151), 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)은, 각각 하나 이상의 발광다이오드(Light Emitting Diode, LED)를 포함할 수 있다.The lamps 151 , 152 , and 153 of the lamp unit 150 may each include one or more light sources. For example, the status notification light 151 , the front direction indicator light 152 , and the rear direction indicator light 153 may each include one or more light emitting diodes (LEDs).

기존의 아날로그 방식의 조명은 조도를 정밀하게 제어하는데 한계가 있었으나, 발광다이오드(LED)는 인가되는 전류량과 구동펄스의 폭을 조절하여 조도를 정밀하게 조절할 수 있다. 또한, R, G, B 색상의 발광다이오드(LED)들이 조합되어 설치된 경우, 특정 색상의 광을 제공할 수 있고, 색 온도의 조절을 용이하게 할 수 있다.Existing analog lighting has a limitation in precisely controlling the illuminance, but the light emitting diode (LED) can precisely control the illuminance by adjusting the amount of applied current and the width of the driving pulse. In addition, when light emitting diodes (LEDs) of R, G, and B colors are installed in combination, light of a specific color may be provided and color temperature may be easily adjusted.

발광다이오드(LED)는 적색(Red), 청색(Blue), 녹색(Green), 및 백색(White) 등의 단색 발광다이오드(LED)일 수도 있다. 실시예에 따라서는 발광다이오드(LED)는 복수의 색상 재현이 가능한 다색 발광다이오드(LED)일 수도 있다. The light emitting diode (LED) may be a single color light emitting diode (LED) such as red, blue, green, and white. According to an embodiment, the light emitting diode (LED) may be a multi-color light emitting diode (LED) capable of reproducing a plurality of colors.

또한, 상기 상태 알림등(151)은 복수의 발광다이오드(LED)를 포함할 수 있고, 복수의 발광다이오드(LED)는 모두 백색광을 발광하여 백색의 조명을 제공할 수 있고, 적색(Red), 청색(Blue), 녹색(Green) 발광다이오드(LED)들을 조합하여 특정 색상의 조명 또는 백색의 조명을 제공할 수 있다.In addition, the status notification light 151 may include a plurality of light emitting diodes (LEDs), all of the plurality of light emitting diodes (LED) may emit white light to provide white illumination, red (Red), By combining blue and green light emitting diodes (LEDs), it is possible to provide illumination of a specific color or light of white color.

예를 들어, 상기 상태 알림등(151)은, 대기/정지 상태를 나타내는 제1 색상(Yellowish White), 청소 진행 중 상태를 나타내는 제2 색상(Blueish Green), 일시 정지, 에러 상태를 나타내는 제3 색상(Red)의 광을 출력할 수 있다.For example, the status notification light 151 includes a first color (Yellowish White) indicating a standby/stop state, a second color (Blueish Green) indicating a cleaning in progress state, and a third color indicating a pause and an error state. It is possible to output light of color (Red).

한편, 상기 상태 알림등(151)은, 대기/정지 상태를 나타내는 제1 색상의 광을 출력한 후, 소정 시간 후 꺼질 수 있다.Meanwhile, the status notification light 151 may output light of a first color indicating a standby/stop state, and then may be turned off after a predetermined time.

상기 상태 알림등(151)이 복수의 발광다이오드를 포함하는 경우에, 복수의 발광다이오드가 일제히 켜진 후, 복수의 발광다이오드가 순차적으로 일정한 간격을 두고 꺼질 수 있다.When the status notification light 151 includes a plurality of light emitting diodes, after the plurality of light emitting diodes are turned on all at once, the plurality of light emitting diodes may be sequentially turned off at regular intervals.

또한, 최초 청소 시작 시 상기 상태 알림등(151)의 모든 발광다이오드가 동시에 한 번 깜박이고, 청소 진행 중 상태를 나타내는 제2 색상의 광을 출력할 수 있다.In addition, when the first cleaning starts, all the light emitting diodes of the status notification light 151 may blink once at the same time, and the light of the second color indicating the cleaning in progress state may be output.

상기 상태 알림등(151)은, 출력하는 광을 색상을 통해 현 진행 상태를 표시하고, 인체 회피를 위한 정지, 회피, 상태 변경을 알리는 일종의 신호등 역할을 수행할 수 있다.The status notification light 151 may serve as a kind of traffic light to indicate the current progress status through the color of the output light, and to notify the stop, avoidance, and status change for avoiding the human body.

예를 들어, 일시 정지/에러 시, 상기 상태 알림등(151)은 빨간색 광을 제공하할 수 있다.For example, in case of a pause/error, the status notification light 151 may provide a red light.

또한, 인체를 감지하여 회피 시, 상기 상태 알림등(151)은 특정 색상의 광을 점멸시켜 회피 주행을 사람들에게 알릴 수 있다.In addition, when avoiding by detecting a human body, the state notification light 151 may flicker a light of a specific color to inform people of evasive driving.

본 발명의 실시예에 따른 이동 로봇(100)은, 인체 감지 시 즉시 회피 주행하거나, 소정 시간 대기 후 사람의 이동 여부에 따라 회피 주행하도록 설정될 수 있다. 어떻게 설정되는 경우라도 상기 상태 알림등(151)은 회피 주행을 하기 전과 회피 주행 중에 소정 색상의 광을 소정 시간 일정하게 출력하거나 점멸할 수 있다.The mobile robot 100 according to an embodiment of the present invention may be set to avoid running immediately upon detecting a human body, or to avoid running depending on whether a person moves after waiting a predetermined time. In any case, the state notification light 151 may constantly output or flicker light of a predetermined color for a predetermined time before and during the avoidance driving.

또한, 인체 감지시, 음향 출력부(181)는“잠시만 비켜주세요."등의 음성 알림을 사람들에게 출력, 제공할 수 있다.Also, upon detecting a human body, the sound output unit 181 may output and provide a voice notification such as “Please move away for a moment” to people.

상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)은 방향지시, 비상정지를 표시할 수 있다. The front direction indicator light 152 and the rear direction indicator light 153 may display a direction indication and an emergency stop.

상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)은 상기 이동 로봇(100)의 주행 방향에 따라 켜지고 점멸할 수 있다. 또한, 상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)은 상호 동기화되어 함께 켜지거나 점멸할 수 있다.The front direction indicator light 152 and the rear direction indicator light 153 may be turned on and flashed according to the traveling direction of the mobile robot 100 . In addition, the front turn indicator light 152 and the rear turn indicator light 153 may be turned on or flashed together in synchronization with each other.

상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)은, 각각 좌측과 우측 방향에 대응하는 지시등을 포함할 수 있다.The front turn indicator light 152 and the rear turn indicator light 153 may include indicator lights corresponding to left and right directions, respectively.

도 2를 참조하면, 후방 방향 지시등(153)은 좌측 방향 지시등(153L), 우측 방향 지시등(153R)을 포함할 수 있고, 이동 로봇(100)이 주행 중 좌우로 방향 전환할 때, 방향 전환하려는 방향에 대응하는 방향 지시등(153L, 153R)이 켜지거나 점멸할 수 있다.Referring to FIG. 2 , the rear turn indicator light 153 may include a left turn indicator light 153L and a right turn indicator light 153R, and when the mobile robot 100 turns left and right while driving, the direction to change The direction indicator lights 153L and 153R corresponding to the direction may be turned on or flashed.

도 1을 참조하면, 전방 방향 지시등(152)은 인접하여 배치된 좌측 방향에 대응하는 지시등과 우측 방향에 대응하는 지시등을 포함할 수 있다.Referring to FIG. 1 , the forward direction indicator light 152 may include an indicator light corresponding to a left direction and an indicator light corresponding to a right direction disposed adjacently.

또는, 전방 방향 지시등(152)도 좌측 방향에 대응하는 지시등과 우측 방향에 대응하는 지시등이 소정 거리 이격되어 배치될 수도 있다.Alternatively, in the forward direction indicator light 152 , the indicator light corresponding to the left direction and the indicator light corresponding to the right direction may be disposed to be spaced apart from each other by a predetermined distance.

예를 들어, 상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)은 좌/우 회전시 회전 방향에 대응하여 소정 색상, 예를 들어, 오렌지(Orange) 색상의 광을 출력할 수 있다.For example, the front turn indicator 152 and the rear turn indicator 153 may output light of a predetermined color, for example, an orange color, corresponding to the rotation direction when rotating left/right.

또한, 실시예에 따라서는, 상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)도 여러 색상의 광을 출력할 수 있도록 구성될 수 있다.In addition, depending on the embodiment, the front turn indicator light 152 and the rear turn indicator light 153 may also be configured to output light of various colors.

이 경우에, 상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)도 일시 정지/에러 시, 빨간색 광을 출력할 수 있다.In this case, the front turn indicator light 152 and the rear turn indicator light 153 may also output red light when a pause/error occurs.

또한, 회피 주행시 상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)에서도 영역 이탈을 비상깜박이로 알릴 수 있다.In addition, during evasive driving, the front turn indicator 152 and the rear turn indicator 153 may also notify the departure of the area with emergency flashing.

또한, 제어부(140)는 램프부(150)를 제어할 수 있다.Also, the control unit 140 may control the lamp unit 150 .

예를 들어, 상기 제어부(140)는, 이동 로봇(100)의 현재 상태에 따라 상기 상태 알림등(151)이 다른 색상의 광을 출력하도록 제어할 수 있다. 또한, 상기 제어부(140)는, 상기 상태 알림등(151)이 소정 시간 동안 소정 주기로 점멸하도록 제어할 수 있다.For example, the controller 140 may control the status notification light 151 to output different colors of light according to the current state of the mobile robot 100 . In addition, the controller 140 may control the status notification light 151 to blink at a predetermined cycle for a predetermined time.

또한, 상기 제어부(140)는, 상기 이동 로봇(100)의 주행 방향에 따라 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)이 켜지도록 제어할 수 있다. 또한, 상기 제어부(140)는, 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)이 소정 시간 동안 소정 주기로 점멸하도록 제어할 수 있다.Also, the controller 140 may control the front direction indicator light 152 and the rear direction indicator light 153 to turn on according to the traveling direction of the mobile robot 100 . In addition, the control unit 140 may control the front direction indicator light 152 and the rear direction indicator light 153 to blink at a predetermined period for a predetermined time period.

한편, 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)은 동기화되어 구동될 수 있다. Meanwhile, the front turn indicator light 152 and the rear turn indicator light 153 may be driven in synchronization.

즉, 제어부(140)는 좌/우 회전시 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)이 동일하게 켜지거나 점멸하도록 제어할 수 있다.That is, the control unit 140 may control the front direction indicator light 152 and the rear direction indicator light 153 to turn on or blink in the same way when turning left/right.

실시예에 따라서는, 상기 제어부(140)는 특정 상황에서 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)이 상기 상태 알림등(151)이 출력하는 광과 동일한 색상의 광을 출력하도록 제어할 수 있다.According to an embodiment, the control unit 140 controls the front direction indicator light 152 and the rear direction indicator light 153 to output light of the same color as the light output from the status notification light 151 in a specific situation. can be controlled

한편, 도 1을 참조하면, 상기 상태 알림등(151)은 원형 링(ring) 형상일 수 있다. 또한, 상기 상태 알림등(151)은 영상획득부(120)에 포함되는 카메라 중 하나의 전면 외곽부를 따라 배치되는 원형 링(ring) 형상일 수 있다.Meanwhile, referring to FIG. 1 , the status notification light 151 may have a circular ring shape. Also, the status notification light 151 may have a circular ring shape disposed along the front outer portion of one of the cameras included in the image acquisition unit 120 .

한편, 상술한 것과 같이, 상기 제어부(140)는, 상기 영상획득부(120)가 획득하는 영상에 기초하여 장애물의 속성을 인식할 수 있다.Meanwhile, as described above, the controller 140 may recognize the property of the obstacle based on the image acquired by the image acquisition unit 120 .

또한, 상기 제어부(140)는, 상기 인식된 장애물의 속성에 기초하여, 상기 주행부(160)의 구동을 제어할 수 있다.Also, the controller 140 may control the driving of the driving unit 160 based on the recognized attribute of the obstacle.

예를 들어, 상기 제어부(140)는, 상기 인식된 장애물의 속성이 사람의 신체 중 적어도 일부인 경우, 상기 본체(101)의 이동을 정지하도록 제어할 수 있다. For example, the controller 140 may control the movement of the main body 101 to stop when the recognized obstacle is at least a part of a human body.

이 경우에, 상기 제어부(140)는, 소정 대기 시간 이내에 상기 인식된 신체의 이동이 감지되면, 기존의 이동을 재개하도록 제어할 수 있다. 또한, 상기 제어부(140)는, 소정 대기 시간 이내에 상기 인식된 신체의 이동이 감지되지 않으면, 상기 인식된 신체에 대한 회피 주행을 수행하도록 제어할 수 있다.In this case, when the recognized movement of the body is detected within a predetermined waiting time, the controller 140 may control to resume the existing movement. Also, if the recognized body movement is not detected within a predetermined waiting time, the controller 140 may control to perform avoidance driving on the recognized body.

또한, 상기 제어부(140)는, 상기 인식된 장애물의 속성이 사람의 신체 중 적어도 일부인 경우, 기설정된 음향을 출력하도록 음향 출력부(181)를 제어할 수 있다.In addition, the controller 140 may control the sound output unit 181 to output a preset sound when the attribute of the recognized obstacle is at least a part of a human body.

이동 로봇(100)이 이동(주행)하면서 청소할 때, 사용자가 정보 확인, 설정 입력, 기타 조작을 위해 이동 로봇(100)에 근접하거나, 어린이 등이 호기심에 이동 로봇(100)을 만질 때에도, 이동 로봇(100)이 계속 주행하면 충돌 등 안전 사고가 발생할 수 있다.When the mobile robot 100 cleans while moving (driving), even when a user approaches the mobile robot 100 for information confirmation, setting input, and other manipulations, or when a child or the like touches the mobile robot 100 out of curiosity, it moves If the robot 100 continues to run, a safety accident such as a collision may occur.

특히, 공항, 기차역, 터미널, 백화점, 마트 등의 공공장소는 유동 인구가 많고, 그에 따른 돌발 변수도 많아 안전 사고 발생 위험이 더 크다.In particular, public places such as airports, train stations, terminals, department stores, and marts have a large floating population and many unexpected variables, which increases the risk of safety accidents.

따라서, 본 발명에 따른 이동 로봇(100)은, 공공장소에서 청소 작업 시, 전면 상태 알림등(151)을 통하여, 이동 로봇(100)의 현재 상태를 나타내는 광을 출력함으로써, 공공장소에 존재하는 다수의 사람들이 이동 로봇(100)의 현재 상태를 쉽게 알 수 있게 하는 신호 정보를 제공할 수 있다.Therefore, the mobile robot 100 according to the present invention outputs a light indicating the current state of the mobile robot 100 through the front state notification light 151 during cleaning work in a public place, thereby Signal information that allows a plurality of people to easily know the current state of the mobile robot 100 may be provided.

또한, 이동 로봇(100)의 회전 주행, 회피 주행에 따라 상태 알림등(151), 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)이 소정 색상의 광을 출력하여, 회전 여부, 회전 방향, 회피 주행 여부 등에 관한 알림 정보를 사람들에게 제공할 수 있다.In addition, according to the rotational driving and avoidance driving of the mobile robot 100, the status notification lamp 151, the forward direction indicator light 152, and the rear direction indicator lamp 153 output light of a predetermined color to determine whether to rotate or not. It is possible to provide people with notification information regarding the direction and whether to avoid driving.

이에 따라 공공장소에서 사람과 이동 로봇(100) 간의 사고 가능성을 저감시킬 수 있다.Accordingly, it is possible to reduce the possibility of an accident between a person and the mobile robot 100 in a public place.

본 발명의 일 실시예에 따른 이동 로봇(100)은, 공공장소에서 허락되지 않은 사람이 이동 로봇(100)을 조작하거나 분해, 도난하는 것을 방지하기 위하여 소정 잠금장치(lock)를 포함할 수 있다.The mobile robot 100 according to an embodiment of the present invention may include a predetermined lock to prevent unauthorized persons from operating, disassembling, or stealing the mobile robot 100 in a public place. .

예를 들어, 소정 잠금장치는 등록된 지문에 대해서만 잠금 설정을 해제하는 지문 인식기일 수 있다.For example, the predetermined locking device may be a fingerprint reader that unlocks only a registered fingerprint.

도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(100)은, 개폐 가능한 헤드(111)를 포함하는 본체(101), 상기 본체(101)를 이동시키는 주행부(160), 지문이 입력되는 지문 입력부(210), 등록 지문 정보를 저장하는 저장부(130), 및, 상기 지문 입력부(210)를 통하여 입력된 지문 정보를 상기 저장부에 기저장된 등록 지문 정보와 비교하고, 상기 입력된 지문 정보와 상응하는 등록 지문 정보가 있는 경우, 상기 헤드(111)를 열 수 있도록 잠금 설정을 해제하는 제어부(140)를 포함할 수 있다.1 to 3 , a mobile robot 100 according to an embodiment of the present invention includes a main body 101 including an openable and openable head 111 , and a driving unit 160 for moving the main body 101 . ), a fingerprint input unit 210 to which a fingerprint is input, a storage unit 130 for storing registered fingerprint information, and comparing the fingerprint information input through the fingerprint input unit 210 with the registered fingerprint information pre-stored in the storage unit and, when there is registered fingerprint information corresponding to the input fingerprint information, the controller 140 may include a control unit 140 for releasing the lock setting to open the head 111 .

상기 본체(101)는 사용자의 지문을 입력받을 수 있는 지문 입력부(210)를 구비할 수 있다. 예를 들어, 상기 헤드(111) 또는 체결부(112)의 후면에 상기 지문 입력부(210)를 구비할 수 있다.The main body 101 may include a fingerprint input unit 210 for receiving a user's fingerprint. For example, the fingerprint input unit 210 may be provided on the rear surface of the head 111 or the fastening unit 112 .

지문 인식 기술은 사람마다 고유의 특성 차이를 나타내는 손가락 지문을 활용해 사람들을 구별할 수 있는 기술이다. 지문 인식은 이러한 지문 정보를 이용해 개인에 대한 인증 및 개인 간의 차이를 식별할 수 있는 기술로 비밀번호나 카드 등에서 발생할 수 있는 분실, 도용 등의 위험이 없으며, 그 신뢰성이 뛰어나고 편의성 또한 높아 차세대 보안기술로서 다양한 응용분야에서 활용되고 있다.Fingerprint recognition technology is a technology that can distinguish people by using fingerprints that indicate the unique characteristics of each person. Fingerprint recognition is a technology that can authenticate individuals and identify differences between individuals using such fingerprint information. There is no risk of loss or theft that may occur in passwords or cards, etc. It is used in various fields of application.

지문은 표피 면에서 위로 돌출되어 있는 융선(ridge)과 융선 사이의 공간인 골(valley)로 구성되어 있어 개인별로 지문의 융선과 골의 패턴이 각기 다르며, 이러한 패턴의 고유성 및 차이를 이용하여 지문 인식을 수행하게 된다. 보다 자세히는 지문에서 융선을 감지하여 2차원 영상데이터로 변환을 해주는 소자인 지문 센서등을 통해 인식하게 된다.Fingerprints are composed of ridges that protrude upward from the epidermis and valleys, which are the spaces between the ridges, so the pattern of ridges and valleys of the fingerprint is different for each individual. recognition is performed. In more detail, it is recognized through a fingerprint sensor, which is a device that detects ridges in a fingerprint and converts it into two-dimensional image data.

본 발명은 지문 인식 방법을 한정하지 않으므로, 다양한 지문 인식 방법을 이용할 수 있다. 지문 정보는 광학식, 정전 용량이나 전기 전도를 감지하는 반도체 소자 방식, 초음파 방식, 열감지 방식, 비접촉식, 또는 상기 방식들의 조합 등 다양한 방법으로 획득될 수 있다.Since the present invention does not limit the fingerprint recognition method, various fingerprint recognition methods may be used. Fingerprint information may be obtained by various methods, such as an optical method, a semiconductor device method for sensing capacitance or electrical conduction, an ultrasonic method, a heat sensing method, a non-contact method, or a combination of the above methods.

예를 들어, 지문 입력은, 강한 빛을 플래튼(platen)에 쏘아 플래튼에 얹혀진 손끝의 지문 형태를 반사하게 되고, 이 반사된 지문 이미지는 고굴절 렌즈를 통과하여 빛을 전기로 변환시켜 판독될 수 있도록 만든 장치인 CCD(Charge-Coupled Device)에 입력하는 광학식 지문 입력 방식, 피부의 전기 전도 특성을 이용해 실리콘 칩 표면에 직접적으로 손끝을 접촉시키면 칩 표면에 접촉된 지문의 특수한 모양을 전기 신호로 읽어 들이는 반도체식 지문 입력 방식등으로 이루어질 수 있다.For example, fingerprint input reflects the shape of a fingertip placed on the platen by projecting strong light onto the platen, and the reflected fingerprint image passes through a high refractive lens and converts light into electricity to be read. An optical fingerprint input method that inputs to the CCD (Charge-Coupled Device), which is a device made to allow users It can be made by a semiconductor-type fingerprint input method that reads.

이후, 사람의 손에 있는 땀, 수분, 기타 기름, 먼지 같은 불순물이나 입력 장치의 감도에 따라 생길 수 있는 노이즈 성분을 제거하는 처리 과정을 더 포함할 수 있다.Thereafter, the process may further include a process of removing impurities such as sweat, moisture, other oil, and dust on the human hand, or noise components that may be generated according to the sensitivity of the input device.

한편, 인식된 지문에 기초하여 지문 돌기의 분기점·끝점 또는 끊어진 점 등으로 구성되는 특징점의 위치와 속성을 포함하는 지문 정보를 생성, 저장, 등록하여 이후의 인증 과정에서 활용할 수 있다. 즉, 지문 정보는 인식된 지문의 영상 데이터, 상기 영상 데이터가 부호화된 데이터, 특징점의 위치와 속성 중 적어도 하나를 포함할 수 있다.On the other hand, based on the recognized fingerprint, fingerprint information including the location and properties of a feature point consisting of a branching point, an end point, or a broken point of the fingerprint protrusion can be generated, stored, and registered to be utilized in the subsequent authentication process. That is, the fingerprint information may include at least one of image data of the recognized fingerprint, coded data of the image data, and positions and properties of feature points.

제어부(140)는 입력되는 지문 정보를 저장부(130)에 기저장된 등록 지문 정보와 비교한다. 등록 지문 정보는 적어도 사용자의 등급 정보를 포함할 수 있다. 또한, 등록 지문 정보는 사용자의 이름, 등록된 지문의 영상 데이터, 상기 영상 데이터가 부호화된 데이터, 특징점의 위치와 속성 중 적어도 하나를 포함할 수 있다.The controller 140 compares the input fingerprint information with the registered fingerprint information pre-stored in the storage unit 130 . The enrolled fingerprint information may include at least the user's level information. Also, the registered fingerprint information may include at least one of a user's name, image data of a registered fingerprint, data obtained by encoding the image data, and positions and properties of feature points.

제어부(140)는 상기 입력된 지문 정보와 상응하는 등록 지문 정보가 있는 경우, 상기 헤드(111)를 열 수 있도록 잠금 설정을 해제할 수 있다.When there is registered fingerprint information corresponding to the input fingerprint information, the controller 140 may release the lock setting to open the head 111 .

이에 따라, 권한 없는 사람이 이동 로봇(100)의 헤드(111)를 여는 것을 방지할 수 있어, 안전 사고 및 도난 사고를 방지할 수 있다.Accordingly, it is possible to prevent an unauthorized person from opening the head 111 of the mobile robot 100, thereby preventing safety accidents and theft accidents.

한편, 상술한 바와 같이, 본 발명의 일 실시예에 따른 이동 로봇(100)은, 상기 본체(101) 내부에 수납되는 디스플레이(181)를 더 포함할 수 있다.Meanwhile, as described above, the mobile robot 100 according to an embodiment of the present invention may further include a display 181 accommodated in the main body 101 .

이 경우에, 상기 제어부(140)는, 상기 상응하는 등록 지문 정보에 대응하는 사용자 인터페이스 화면이 상기 디스플레이(182)에 표시되도록 제어할 수 있다.In this case, the controller 140 may control the user interface screen corresponding to the corresponding registered fingerprint information to be displayed on the display 182 .

예를 들어, 사용자 권한이 등급별로 관리되는 경우에, 상기 제어부(140)는, 상기 상응하는 등록 지문 정보에 대응하는 사용자 등급에 따른 사용자 인터페이스 화면이 상기 디스플레이(182)에 표시되도록 제어할 수 있다.For example, when user rights are managed by grade, the controller 140 may control a user interface screen according to a user grade corresponding to the corresponding registered fingerprint information to be displayed on the display 182 . .

상기 제어부(140)는, 상기 상응하는 등록 지문 정보가 복수의 이동 로봇에 대한 관리 권한이 있는 관리자 등급에 해당하는 경우에, 상기 복수의 이동 로봇에 대한 정보를 포함하는 사용자 인터페이스 화면이 상기 디스플레이(182)에 표시되도록 제어할 수 있다.When the corresponding registered fingerprint information corresponds to an administrator level with management authority for the plurality of mobile robots, the controller 140 may display a user interface screen including information on the plurality of mobile robots on the display ( 182) can be controlled to be displayed.

여기서, 상기 복수의 이동 로봇에 대한 정보를 포함하는 사용자 인터페이스 화면은, 상기 복수의 이동 로봇의 현재 상태 정보 및 동작 이력 정보를 포함할 수 있다.Here, the user interface screen including information on the plurality of mobile robots may include current state information and operation history information of the plurality of mobile robots.

즉, 관리자 등급에 해당하는 사용자는 복수의 이동 로봇 중 어느 하나의 이동 로봇(100)의 헤드(111)를 열면, 디스플레이(182)에 표시되는 복수의 이동 로봇에 대한 정보를 확인할 수 있다.That is, when the user corresponding to the manager level opens the head 111 of one of the plurality of mobile robots 100 , the user can check information on the plurality of mobile robots displayed on the display 182 .

따라서, 관리자 등급에 해당하는 사용자는 일일이 모든 복수의 이동 로봇의 헤드를 열 필요가 없고, 가까운 위치에 있는 이동 로봇의 헤드를 열기만 하면, 복수의 이동 로봇에 대한 정보를 모두 확인할 수 있다.Accordingly, the user corresponding to the manager level does not need to open the heads of all the plurality of mobile robots one by one, and can check all information on the plurality of mobile robots by simply opening the heads of the mobile robots in a nearby location.

또한, 특정 이동 로봇에 대한 작업, 확인이 필요하여, 특정 이동 로봇의 헤드를 연 경우에도, 다른 이동 로봇에 대한 정보를 확인할 수 있다는 장점이 있다.In addition, there is an advantage in that information on other mobile robots can be checked even when the head of a specific mobile robot is opened because work and confirmation of a specific mobile robot are required.

또한, 사용자 권한이 개인별로 관리되는 경우에, 상기 제어부(140)는, 상기 상응하는 등록 지문 정보에 대응하는 사용자에 따라 개인화된 사용자 인터페이스 화면이 상기 디스플레이(182)에 표시되도록 제어할 수 있다.In addition, when user rights are managed individually, the controller 140 may control a user interface screen personalized according to a user corresponding to the corresponding registered fingerprint information to be displayed on the display 182 .

상기 제어부(140)는, 상기 상응하는 등록 지문 정보가 일반 사용자 등급에 해당하는 경우에, 상기 상응하는 등록 지문 정보에 대응하는 사용자의 이용 내역 또는 일반 사용자 등급에 포함되는 복수의 사용자들의 이용 내역에 기초하는 사용자 인터페이스 화면이 상기 디스플레이에 표시되도록 제어할 수 있다.The control unit 140, when the corresponding registered fingerprint information corresponds to the general user level, to the usage history of the user corresponding to the corresponding registered fingerprint information or the usage history of a plurality of users included in the general user level It is possible to control a user interface screen based on the display to be displayed on the display.

즉, 인증된 사용자가 포함되는 사용자 등급에 따른 사용자 인터페이스 화면을 제공하거나, 인증된 사용자에 개인화된 사용자 인터페이스 화면을 제공할 수 있다.That is, a user interface screen according to a user level including the authenticated user may be provided, or a personalized user interface screen may be provided to the authenticated user.

한편, 사용자 인터페이스 화면은, 상기 이동 로봇의 상태 정보를 포함하는 상태 정보 영역, 복수의 메인 메뉴 항목들을 포함하는 메인 메뉴 영역들을 포함하고, 상기 메인 메뉴 영역은, 청소 수행 명령을 입력할 수 있는 청소 시작 항목, 지정된 장소로의 이동 명령을 입력할 수 있는 복귀 항목, 청소 영역 및 청소 모드에 관한 입력을 수행할 수 있는 청소 설정 항목을 포함할 수 있다.Meanwhile, the user interface screen includes a status information area including status information of the mobile robot and a main menu area including a plurality of main menu items, wherein the main menu area includes a cleaning command for inputting a cleaning execution command. It may include a start item, a return item for inputting a movement command to a designated place, and a cleaning setting item for performing an input regarding a cleaning area and a cleaning mode.

이 경우에, 상기 제어부(140)는, 상기 메인 메뉴 영역에 포함되는 항목들 중 어느 하나에 대한 선택 입력이 수신되면, 선택 입력이 수신된 항목에 대응하는 상세 화면이 상기 디스플레이(182)에 표시되도록 제어할 수 있다.In this case, when a selection input for any one of the items included in the main menu area is received, the controller 140 displays a detailed screen corresponding to the item for which the selection input is received on the display 182 can be controlled as much as possible.

사용자 인터페이스 화면에 대해서는, 도 9 내지 도 11을 참조하여 상세히 후술한다.The user interface screen will be described later in detail with reference to FIGS. 9 to 11 .

실시예에 따라서는, 상기 제어부(140)는, 상기 헤드(111)가 열리면, 상기 디스플레이(182)가 온(on)되도록 제어함으로써, 상기 디스플레이(182)가 불필요하게 구동되는 것을 방지하고 전력 소모량을 줄일 수 있다.In some embodiments, the control unit 140 controls the display 182 to be turned on when the head 111 is opened, thereby preventing the display 182 from being unnecessarily driven and reducing power consumption. can reduce

한편, 상기 본체(101)는, 상기 헤드(111)의 잠금 설정 해제에 연동하여, 잠금 해제되는 커버(cover, 103)를 구비하는 바디부(body, 102)를 더 포함할 수 있다.Meanwhile, the main body 101 may further include a body 102 having a cover 103 that is unlocked by interlocking with the unlocking of the head 111 .

또한, 상기 본체(101)는, 상기 헤드(111)의 잠금 설정 해제에 연동하여, 잠금 해제되는 배터리 전기코드 수납부(195)를 더 포함할 수 있다.In addition, the main body 101 may further include a battery electric cord accommodating part 195 that is unlocked by interlocking with the unlocking of the head 111 .

즉, 본 발명에 따른 이동 로봇(100)은 지문을 통하여 사용자가 인증되면, 헤드(111), 커버(103), 배터리 전기코드 수납부(195) 등 개폐 가능한 수단에 대한 잠금 설정을 일괄 해제할 수 있다.That is, when a user is authenticated through a fingerprint, the mobile robot 100 according to the present invention releases the lock settings for the opening and closing means such as the head 111, the cover 103, and the battery electric cord receiving unit 195 at once. can

도 4는 본 발명의 일 실시예에 따른 이동 로봇의 정면부를 도시한 도면이다.4 is a view showing a front part of a mobile robot according to an embodiment of the present invention.

도 4에서 예시된 이동 로봇은 전체적으로 도 1에서 예시된 이동 로봇의 정면과 유사하므로 차이점을 위주로 설명한다.Since the mobile robot illustrated in FIG. 4 is similar to the front of the mobile robot illustrated in FIG. 1 as a whole, differences will be mainly described.

도 4를 참조하면, 전방 방향 지시등(152)은 소정 거리 이격되어 배치되는 좌측 방향 지시등(152L), 우측 방향 지시등(152R)을 포함할 수 있고, 이동 로봇(100)이 주행 중 좌우로 방향 전환할 때, 방향 전환하려는 방향에 대응하는 방향 지시등(152L, 152R)이 켜지거나 점멸할 수 있다.Referring to FIG. 4 , the forward turn indicator 152 may include a left turn indicator 152L and a right turn indicator 152R that are disposed to be spaced apart from each other by a predetermined distance, and the mobile robot 100 turns left and right while driving. When doing so, the turn indicators 152L and 152R corresponding to the direction to be changed may be turned on or flashed.

도 1에서 예시된 이동 로봇(100)의 전방 방향 지시등(152)은, 소정 패널 내에 인접하여 배치된 좌측 방향에 대응하는 지시등과 우측 방향에 대응하는 지시등을 포함한다.The forward direction indicator light 152 of the mobile robot 100 illustrated in FIG. 1 includes an indicator light corresponding to the left direction and an indicator light corresponding to the right direction disposed adjacently in a predetermined panel.

도 1에서 예시된 이동 로봇(100)의 전방 방향 지시등(152)도 소정 패널 내에서, 전방 방향 지시등(152)도 좌측 방향에 대응하는 지시등과 우측 방향에 대응하는 지시등이 이격되어 배치될 수도 있다.The forward direction indicator light 152 of the mobile robot 100 illustrated in FIG. 1 is also located within a predetermined panel, and the forward direction indicator light 152 also has an indicator light corresponding to the left direction and an indicator light corresponding to the right direction spaced apart from each other. .

또한, 도 4를 참조하면, 영상획득부(120)는, 본체(101) 전방의 상측을 촬영하여 주행구역 내의 천장에 대한 영상을 획득하는 상부 카메라(120a), 본체(101) 전방의 영상을 획득하도록 구비되는 전면 카메라(120b), 뎁스(depth) 카메라(120c)를 포함할 수 있다. 하지만, 영상획득부(120)가 구비하는 카메라의 개수, 배치, 종류, 촬영범위가 반드시 이에 한정되어야 하는 것은 아니다. In addition, referring to FIG. 4 , the image acquisition unit 120 captures the upper side of the front of the main body 101 to obtain an image of the ceiling in the driving area. It may include a front camera 120b and a depth camera 120c that are provided to acquire. However, the number, arrangement, type, and shooting range of the cameras included in the image acquisition unit 120 are not necessarily limited thereto.

상부 카메라(120a)는, 주행구역 내의 천장에 대한 영상을 획득할 수 있고, 이동 로봇(100)은 상기 상부 카메라(120a)가 획득하는 영상을 SLAM(Simultaneous localization and mapping)에 이용할 수 있다.The upper camera 120a may acquire an image of the ceiling in the driving zone, and the mobile robot 100 may use the image acquired by the upper camera 120a for simultaneous localization and mapping (SLAM).

전면 카메라(120b)는 이동 로봇(100)의 주행 방향 전면에 존재하는 장애물 또는 청소 영역의 상황, 사용자 인식용 영상을 촬영할 수 있다.The front camera 120b may capture an image for user recognition and a situation of an obstacle or a cleaning area existing in front of the mobile robot 100 in the traveling direction.

이 경우에, 본 발명의 일 실시예에 따른 상태 알림등(151)은 상기 상부 카메라(120a)의 주위를 감싸는 원형 링 형상으로 구현될 수 있다.In this case, the status notification light 151 according to an embodiment of the present invention may be implemented in a circular ring shape surrounding the upper camera 120a.

한편, 도 1에서는 전면 카메라(120b)와 뎁스(depth) 카메라(120c)를 도시하지 않았지만, 상태 알림등(152)이 배치되는 소정 패널 내에 전면 카메라(120b)와 뎁스(depth) 카메라(120c)가 구비되는 것도 가능하다.On the other hand, although the front camera 120b and the depth camera 120c are not shown in FIG. 1 , the front camera 120b and the depth camera 120c in a predetermined panel on which the status notification light 152 is disposed. It is also possible to be provided.

도 2와 도 4를 참조하면, 이동 로봇(100)의 전후방 좌우측에 전방 방향 지시등(152L, 152R)과 후방 방향 지시등(153L, 153R)이 배치되어, 이동 로봇(100)이 회전하는 경우, 점멸됨으로써, 공공장소 내 사람들에게 이동 로봇(100)의 주행 방향 변경을 알려줄 수 있다.2 and 4 , front and rear direction indicator lights 152L, 152R and rear direction indicator lights 153L and 153R are disposed on the front and rear left and right sides of the mobile robot 100. When the mobile robot 100 rotates, it flickers. Accordingly, it is possible to inform people in a public place of a change in the driving direction of the mobile robot 100 .

이에 따라, 공공장소 내 사람들이 이동 로봇(100)의 주행 방향 변경을 알고 대비하도록 함으로써 충돌 사고 발생을 방지할 수 있다.Accordingly, it is possible to prevent the occurrence of a collision accident by having people in a public place know and prepare for a change in the driving direction of the mobile robot 100 .

도 5 내지 도 7은 본 발명의 일 실시예에 따른 이동 로봇의 헤드(head)가 열린 상태를 도시한 도면이다.5 to 7 are views showing an open state of the head of the mobile robot according to an embodiment of the present invention.

도 5 내지 도 7을 참조하면, 이동 로봇(100)은 본체(101) 내부에 수납되는 디스플레이(182)를 포함할 수 있고, 헤드(111)를 열어 상기 디스플레이(182)를 확인할 수 있다. 5 to 7 , the mobile robot 100 may include the display 182 accommodated in the body 101 , and the display 182 may be checked by opening the head 111 .

또한, 본체(101)의 저면부에 위치하는 브러쉬와 흡입구를 통해 흡입되는 먼지들은 먼지통(115)에 모이고, 사용자는 상기 헤드(111)를 열어 상기 본체(101) 내부에 먼지통(115)의 삽입과 탈거가 가능하다.In addition, dust that is sucked through the brush and suction port located on the bottom of the main body 101 is collected in the dust container 115 , and the user opens the head 111 to insert the dust container 115 into the main body 101 . and can be removed.

도 5와 도 6을 참조하면, 상기 디스플레이(182)는 상기 먼지통 커버(116)에 배치될 수 있다.5 and 6 , the display 182 may be disposed on the dust container cover 116 .

또는, 도 7을 참조하면, 상기 디스플레이(182)는 상기 먼지통(115)과는 별도로 구비될 수 있다. Alternatively, referring to FIG. 7 , the display 182 may be provided separately from the dust container 115 .

실시예에 따라서는, 헤드(111)가 열리면, 상기 디스플레이(182)는 전면으로 슬라이딩(sliding) 또는 푸쉬(push)됨으로써, 디스플레이(182)를 통해서 제공되는 사용자 인터페이스 화면을 사용자가 더 쉽게 인식하도록 할 수 있다.According to an embodiment, when the head 111 is opened, the display 182 is slid or pushed to the front, so that the user can more easily recognize the user interface screen provided through the display 182 . can do.

또한, 상기 디스플레이(182)는 터치패드와 상호 레이어 구조를 이루어 터치스크린으로 구성될 수 있다. 이 경우에, 상기 디스플레이(182)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다.In addition, the display 182 may be configured as a touch screen by forming a layer structure with the touch pad. In this case, the display 182 may be used as an input device capable of inputting information by a user's touch in addition to an output device.

실시예에 따라서는, 헤드부(110)는 복수의 방식으로 개폐 가능하거나 하나 이상의 개폐 기구 구조를 포함할 수 있다.Depending on the embodiment, the head unit 110 may be opened and closed in a plurality of ways or may include one or more opening/closing mechanism structures.

예를 들어, 상기 헤드(111)를 들어올려 상기 헤드(111)를 열거나, 상기 헤드부(110)에 버튼이 구비되고, 사용자가 버튼을 누르면 사용자 측을 향하여 소정 커버가 열리는 개폐 기구 구조로 구현될 수 있다. For example, the head 111 is opened by lifting the head 111, or a button is provided on the head part 110, and when the user presses the button, a predetermined cover is opened toward the user side. can be implemented.

도 8은 본 발명의 일 실시예에 따른 이동 로봇의 헤드(head)가 열린 상태를 도시한 도면이다.8 is a view showing an open state of the head of the mobile robot according to an embodiment of the present invention.

도 8을 참조하면, 상기 디스플레이(182)를 내부 수납 공간 중 구획된 소정 영역에 배치하고, 사용자의 버튼 조작으로 열리는 개폐 기구 구조는 상기 디스플레이(182)가 배치되는 영역의 디스플레이 전용 커버(112a)로 구성될 수 있다. 이에 따라, 사용자가 버튼을 누르면 디스플레이 전용 커버(112a)가 열리고, 상기 디스플레이(182)가 사용자 측을 향하여 노출되도록 구성할 수 있다.Referring to FIG. 8 , the display 182 is disposed in a predetermined area partitioned in the internal storage space, and the opening/closing mechanism structure opened by the user's button operation is a display-only cover 112a in the area where the display 182 is disposed. can be composed of Accordingly, when the user presses the button, the display-only cover 112a is opened, and the display 182 can be configured to be exposed toward the user.

도 9는 본 발명의 일 실시예에 따른 지문 인식과 그에 대응하는 이동 로봇의 동작에 관한 설명에 참조되는 도면으로, 도 9의 (a)는 지문 인식 과정을 예시하고, 도 9의 (b)는 인증된 사용자가 최고 관리자일 경우, 보여지는 화면을 예시한다.9 is a diagram referenced in the description of the operation of the mobile robot corresponding to the fingerprint recognition according to an embodiment of the present invention. shows the screen displayed when the authenticated user is the super administrator.

사람들이 많은 지역에서 운용되는 이동 로봇(100)은 많은 사람들에 대해서 노출 빈도가 매우 높고, 호기심 많은 외부 인원이 접근했을 때, 잠금을 풀고 조작할 때는 여러 위험 요소가 있다. The mobile robot 100 operated in an area with many people has a very high exposure frequency for many people, and there are several risk factors when a curious external person approaches, unlocks, and operates the robot 100 .

따라서, 본 발명은 권한 있는 관리 책임자 이외는 접근할 수 없도록 로봇 헤드 잠금 장치를 제공한다.Accordingly, the present invention provides a robot head locking device that cannot be accessed by anyone other than an authorized management person.

도 9의 (a)를 참조하면, 관리자 또는 미화원, 실무자(일반 사용자)는 지문 입력부(210)를 통하여 자신의 지문을 입력하고, 제어부(140)는 입력된 지문을 인식할 수 있다. Referring to (a) of FIG. 9 , an administrator, a cleaning service worker, or a worker (general user) inputs his/her fingerprint through the fingerprint input unit 210 , and the controller 140 may recognize the input fingerprint.

제어부(140)는, 입력된 지문 정보를 저장부(130)에 기저장된 등록 지문 정보와 비교하고, 상기 입력된 지문 정보와 상응하는 등록 지문 정보가 있는 경우, 헤드(111)를 열 수 있도록 잠금 설정을 해제할 수 있다.The control unit 140 compares the input fingerprint information with the registered fingerprint information pre-stored in the storage unit 130, and when there is registered fingerprint information corresponding to the input fingerprint information, lock the head 111 to open it. setting can be turned off.

상기 제어부(140)는, 상기 헤드(111)가 열리면, 상기 디스플레이(182)가 온(on)되도록 제어함으로써, 상기 디스플레이(182)가 불필요하게 구동되는 것을 방지하고 전력 소모량을 줄일 수 있다.When the head 111 is opened, the controller 140 controls the display 182 to be turned on, thereby preventing the display 182 from being unnecessarily driven and reducing power consumption.

또한, 제어부(140)는, 상기 헤드(111)가 열리면, 상기 디스플레이(182)가 소정 인터페이스 화면을 표시하도록 제어할 수 있다.Also, when the head 111 is opened, the controller 140 may control the display 182 to display a predetermined interface screen.

여러 지문이 등록된 경우, 상기 인터페이스 화면에는 관리자/미화원(일반 사용자) 지문에 따라 구별되어 기능이 보여진다.When multiple fingerprints are registered, functions are displayed on the interface screen by being differentiated according to the fingerprints of the administrator/cleaner (general user).

즉, 상기 제어부(140)는, 상기 상응하는 등록 지문 정보에 대응하는 사용자 인터페이스 화면이 상기 디스플레이(182)에 표시되도록 제어할 수 있다.That is, the controller 140 may control the user interface screen corresponding to the corresponding registered fingerprint information to be displayed on the display 182 .

예를 들어, 사용자 권한이 등급별로 관리되는 경우에, 상기 제어부(140)는, 상기 상응하는 등록 지문 정보에 대응하는 사용자 등급에 따른 사용자 인터페이스 화면이 상기 디스플레이(182)에 표시되도록 제어할 수 있다.For example, when user rights are managed by grade, the controller 140 may control a user interface screen according to a user grade corresponding to the corresponding registered fingerprint information to be displayed on the display 182 . .

도 9의 (b)를 참조하면, 상기 제어부(140)는, 상기 상응하는 등록 지문 정보가 복수의 이동 로봇에 대한 관리 권한이 있는 관리자 등급에 해당하는 경우에, 상기 복수의 이동 로봇에 대한 정보를 포함하는 사용자 인터페이스 화면(900)이 상기 디스플레이(182)에 표시되도록 제어할 수 있다.Referring to FIG. 9B , when the corresponding registered fingerprint information corresponds to an administrator level having management authority for the plurality of mobile robots, the controller 140 provides information on the plurality of mobile robots. The user interface screen 900 including the may be controlled to be displayed on the display 182 .

여기서, 상기 복수의 이동 로봇에 대한 정보를 포함하는 사용자 인터페이스 화면(900)은, 상기 복수의 이동 로봇의 현재 상태 정보 및 동작 이력 정보를 포함할 수 있다.Here, the user interface screen 900 including information on the plurality of mobile robots may include current state information and operation history information of the plurality of mobile robots.

도 9의 (b)를 참조하면, 디스플레이(182)를 통하여 제공되는 관리자 등급 사용자 인터페이스 화면(900)은 이동 로봇(100)의 상태 정보를 포함하는 상태 정보 영역(910), 복수의 메인 메뉴 항목들을 포함하는 메인 메뉴 영역(920), 및, 복수의 이동 로봇의 현재 상태 정보 및 동작 이력 정보를 포함하는 관리 영역(930)을 포함할 수 있다.Referring to FIG. 9B , the manager level user interface screen 900 provided through the display 182 includes a status information area 910 including status information of the mobile robot 100 , and a plurality of main menu items. It may include a main menu area 920 including the , and a management area 930 including current state information and operation history information of a plurality of mobile robots.

상기 상태 정보 영역(910)은 바 타입(type)으로 구현되어 화면 상단에 배치되는 상태 바(Status bar)를 포함할 수 있다. 상기 상태 정보 영역(910)에 표시되는 상기 상태 정보는, 현재 시간 정보, 배터리 상태 정보, 부품교체 정보, 에러 정보 중 적어도 하나를 포함할 수 있다.The status information area 910 may include a status bar implemented as a bar type and disposed at the top of the screen. The status information displayed in the status information area 910 may include at least one of current time information, battery status information, parts replacement information, and error information.

상기 메인 메뉴 영역(920)은, 메인 메뉴를 표시하는 영역으로서, 청소 수행 명령을 입력할 수 있는 청소 시작 항목, 지정된 장소로의 이동 명령을 입력할 수 있는 복귀 항목, 청소 영역 및 청소 모드에 관한 입력을 수행할 수 있는 청소 설정 항목을 포함할 수 있다.The main menu area 920 is an area for displaying the main menu, and relates to a cleaning start item for inputting a cleaning execution command, a return item for inputting a movement command to a designated place, a cleaning area and a cleaning mode It may include a cleaning setting item capable of performing an input.

제어부(140)는, 상기 메인 메뉴 영역(920)에 포함되는 항목들 중 어느 하나에 대한 선택 입력이 수신되면, 선택 입력이 수신된 항목에 대응하는 상세 화면이 상기 디스플레이(182)에 표시되도록 제어할 수 있다.When a selection input for any one of the items included in the main menu area 920 is received, the controller 140 controls the display 182 to display a detailed screen corresponding to the item for which the selection input is received. can do.

또한, 상기 관리 영역(930)에는 복수의 로봇, 예를 들어, 토마스 로봇, 알렉스 로봇의 최근 청소 점검 내역, 주간 점검 내역, 배터리 잔량 정보가 표시될 수 있다.In addition, in the management area 930 , recent cleaning and inspection details, weekly inspection details, and remaining battery amount information of a plurality of robots, for example, the Thomas robot and the Alex robot may be displayed.

또한, 최고 관리자 또는 높은 등급의 관리자 지문이 인식되면, 유저 인터페이스 화면의 관리 영역(930)에는, 청소 장비 고장 진단, 소모품 교체 주기, 청소 이력, 충전 상태 등 총괄 관리 내역이 제공될 수 있다.In addition, when the fingerprint of the top administrator or high-level administrator is recognized, general management details such as cleaning equipment failure diagnosis, consumable replacement cycle, cleaning history, and charging state may be provided in the management area 930 of the user interface screen.

즉, 관리자 등급에 해당하는 사용자는 복수의 이동 로봇 중 어느 하나의 이동 로봇(100)의 헤드(111)를 열면, 디스플레이(182)에 표시되는 복수의 이동 로봇에 대한 정보를 확인할 수 있다.That is, when the user corresponding to the manager level opens the head 111 of one of the plurality of mobile robots 100 , the user can check information on the plurality of mobile robots displayed on the display 182 .

따라서, 관리자 등급에 해당하는 사용자는 일일이 모든 복수의 이동 로봇의 헤드를 열 필요가 없고, 가까운 위치에 있는 이동 로봇의 헤드를 열기만 하면, 복수의 이동 로봇에 대한 정보를 모두 확인할 수 있다.Accordingly, the user corresponding to the manager level does not need to open the heads of all the plurality of mobile robots one by one, and can check all information on the plurality of mobile robots by simply opening the heads of the mobile robots in a nearby location.

또한, 특정 이동 로봇에 대한 작업, 확인이 필요하여, 특정 이동 로봇의 헤드를 연 경우에도, 다른 이동 로봇에 대한 정보를 확인할 수 있다는 장점이 있다.In addition, there is an advantage in that information on other mobile robots can be checked even when the head of a specific mobile robot is opened because work and confirmation of a specific mobile robot are required.

또한, 사용자 권한이 개인별로 관리되는 경우에, 상기 제어부(140)는, 상기 상응하는 등록 지문 정보에 대응하는 사용자에 따라 개인화된 사용자 인터페이스 화면이 상기 디스플레이(182)에 표시되도록 제어할 수 있다.In addition, when user rights are managed individually, the controller 140 may control a user interface screen personalized according to a user corresponding to the corresponding registered fingerprint information to be displayed on the display 182 .

상기 제어부(140)는, 상기 상응하는 등록 지문 정보가 일반 사용자 등급에 해당하는 경우에, 상기 상응하는 등록 지문 정보에 대응하는 사용자의 이용 내역 또는 일반 사용자 등급에 포함되는 복수의 사용자들의 이용 내역에 기초하는 사용자 인터페이스 화면이 상기 디스플레이에 표시되도록 제어할 수 있다.The control unit 140, when the corresponding registered fingerprint information corresponds to the general user level, to the usage history of the user corresponding to the corresponding registered fingerprint information or the usage history of a plurality of users included in the general user level It is possible to control a user interface screen based on the display to be displayed on the display.

즉, 인증된 사용자가 포함되는 사용자 등급에 따른 사용자 인터페이스 화면을 제공하거나, 인증된 사용자에 개인화된 사용자 인터페이스 화면을 제공할 수 있다.That is, a user interface screen according to a user level including the authenticated user may be provided, or a personalized user interface screen may be provided to the authenticated user.

예를 들어, 미화원의 지문이 인식되면 제공되는 유저 인터페이스 화면에는 마지막 사용했던 또는 자주 쓰는 기능이 사용자에 따라 우선 배치될 수 있다.For example, a last used or frequently used function may be prioritized according to a user on a user interface screen provided when a fingerprint of a hairdresser is recognized.

도 10과 도 11은 본 발명의 일 실시예에 따른 이동 로봇이 제공하는 인터페이스 화면을 예시하는 도면으로, 일반 사용자 등급의 사용자들에게 제공되는 인터페이스 화면을 예시한다.10 and 11 are diagrams illustrating an interface screen provided by the mobile robot according to an embodiment of the present invention, illustrating an interface screen provided to users of general user level.

도 10은 이동 로봇(100)에 구비되는 디스플레이(182)를 통하여 제공되는 사용자 인터페이스 화면을 예시한 것이고, 도 11은 휴대 단말기(미도시)에 구비되는 디스플레이 수단을 통하여 제공되는 사용자 인터페이스 화면을 예시한 것이다.10 illustrates a user interface screen provided through a display 182 provided in the mobile robot 100, and FIG. 11 illustrates a user interface screen provided through a display unit provided in a portable terminal (not shown). did it

도 10과 도 11에서 예시된 사용자 인터페이스 화면은 상위 뎁스(depth)의 메인 메뉴 항목들을 포함하는 화면으로써, 홈 사용자 인터페이스 화면 또는 홈 화면 또는 메인 화면 등으로 명명될 수 있다.The user interface screen illustrated in FIGS. 10 and 11 is a screen including main menu items of higher depth, and may be called a home user interface screen, a home screen, or a main screen.

도 10을 참조하면, 디스플레이(182)를 통하여 제공되는 홈 사용자 인터페이스 화면(1000)은 이동 로봇(100)의 상태 정보를 포함하는 상태 정보 영역(1010), 복수의 메인 메뉴 항목들을 포함하는 메인 메뉴 영역(1020), 및, 동작 예약 정보와 동작 이력 정보를 포함하는 관리 영역(1030)을 포함할 수 있다.Referring to FIG. 10 , the home user interface screen 1000 provided through the display 182 includes a status information area 1010 including status information of the mobile robot 100 and a main menu including a plurality of main menu items. It may include an area 1020 and a management area 1030 including operation reservation information and operation history information.

상기 상태 정보 영역(1010)에 표시되는 상기 상태 정보는, 현재 시간 정보, 배터리 상태 정보, 부품교체 정보, 에러 정보 중 적어도 하나를 포함할 수 있다.The status information displayed in the status information area 1010 may include at least one of current time information, battery status information, parts replacement information, and error information.

상기 메인 메뉴 영역(1020)은, 메인 메뉴를 표시하는 영역으로서, 청소 수행 명령을 입력할 수 있는 청소 시작 항목, 지정된 장소로의 이동 명령을 입력할 수 있는 복귀 항목, 청소 영역 및 청소 모드에 관한 입력을 수행할 수 있는 청소 설정 항목을 포함할 수 있다.The main menu area 1020 is an area for displaying the main menu, and relates to a cleaning start item for inputting a cleaning execution command, a return item for inputting a movement command to a designated place, a cleaning area, and a cleaning mode It may include a cleaning setting item capable of performing an input.

제어부(140)는, 상기 메인 메뉴 영역(1020)에 포함되는 항목들 중 어느 하나에 대한 선택 입력이 수신되면, 선택 입력이 수신된 항목에 대응하는 상세 화면이 상기 디스플레이(182)에 표시되도록 제어할 수 있다.When a selection input for any one of the items included in the main menu area 1020 is received, the controller 140 controls the display 182 to display a detailed screen corresponding to the item for which the selection input is received. can do.

또한, 제어부(140)는, 상기 상세 화면을 통하여 소정 명령이 입력되면, 상기 디스플레이(182)에 상기 헤드(111)를 닫을 것을 안내하는 팝업(pop-up)이 더 표시되도록 제어할 수 있다.In addition, when a predetermined command is input through the detailed screen, the controller 140 may control to further display a pop-up instructing to close the head 111 on the display 182 .

이후, 사용자가 상기 헤드(111)를 닫으면, 상기 제어부(140)는, 소정 명령에 대응하는 동작을 수행하도록 제어할 수 있다.Thereafter, when the user closes the head 111 , the controller 140 may control to perform an operation corresponding to a predetermined command.

관리 영역(1030)은, 동작 예약 정보와 동작 이력 정보를 포함할 수 있다.The management area 1030 may include operation reservation information and operation history information.

도 10을 참조하면, 상기 관리 영역(1030)은, 설정된 예약 일정 정보와 예약 일정을 추가할 수 있는 예약 추가 버튼을 포함할 수 있고, 가장 최근의 청소 이력에 대한 정보 및 복수의 청소 이력 정보를 호출할 수 있는 청소 이력 버튼을 포함할 수 있다.Referring to FIG. 10 , the management area 1030 may include a set reservation schedule information and a reservation add button for adding a reservation schedule, and information on the most recent cleaning history and a plurality of cleaning history information. It may include a cleaning history button that can be called.

실시예에 따라서는, 상기 관리 영역(1030)은, 가장 최근의 청소 이력을 맵(map) 상에서 표시할 수 있는 항목을 더 포함할 수 있고, 사용자는 가장 최근의 청소 이력을 맵(map) 상에서 표시할 수 있는 항목을 선택하여, 가장 최근의 청소 이력을 지도상에서 재생할 수 있다.According to an embodiment, the management area 1030 may further include an item capable of displaying the most recent cleaning history on a map, and the user may display the most recent cleaning history on the map. By selecting the items that can be displayed, the most recent cleaning history can be played on the map.

한편, 설정에 따라서는, 가장 최근의 청소 이력을 맵(map) 상에서 표시할 수 있는 항목은 이동 로봇(100)의 디스플레이(182)를 통하여 제공되는 사용자 인터페이스 화면에만 포함될 수 있다.On the other hand, depending on the setting, items capable of displaying the most recent cleaning history on a map may be included only in the user interface screen provided through the display 182 of the mobile robot 100 .

한편, 상기 관리 영역(1030)은, 예약 관리를 나타내는 영역(1031)과 청소 이력 관리를 나타내는 영역(1032)으로 나누어질 수 있다.Meanwhile, the management area 1030 may be divided into an area 1031 representing reservation management and an area 1032 representing cleaning history management.

이 경우에, 상기 예약 관리를 나타내는 영역(1031)은 예약 시간/요일을 카드 타입으로 표시하는 예약일정 항목과 예약 추가 버튼을 포함할 수 있다.In this case, the area 1031 representing the reservation management may include a reservation schedule item displaying reservation time/day of the week by card type and a reservation addition button.

또한, 상기 청소 이력 관리를 나타내는 영역(1032)은, 마지막 청소 날짜/시간 정보를 포함하는 최근 청소 이력, 청소 이력 버튼, 청소 영역 지도 표시 항목 및 2배속/4배속/8배속 재생 버튼을 포함할 수 있다.In addition, the area 1032 representing the cleaning history management may include a recent cleaning history including last cleaning date/time information, a cleaning history button, a cleaning area map display item, and a 2x/4x/8x playback button. can

도 11을 참조하면, 휴대 단말기를 통하여 제공되는 홈 사용자 인터페이스 화면(1100)은 이동 로봇(100)의 상태 정보를 포함하는 상태 정보 영역(1110), 복수의 메인 메뉴 항목들을 포함하는 메인 메뉴 영역(1120), 및, 동작 예약 정보와 이동 로봇 조작 메뉴를 포함하는 관리 영역(1130)을 포함할 수 있다.Referring to FIG. 11 , the home user interface screen 1100 provided through the portable terminal includes a status information area 1110 including status information of the mobile robot 100 and a main menu area including a plurality of main menu items ( 1120 ), and a management area 1130 including operation reservation information and a mobile robot operation menu.

상기 상태 정보 영역(1110)에 표시되는 상기 상태 정보는, 현재 시간 정보, 배터리 상태 정보, 부품교체 정보, 에러 정보 중 적어도 하나를 포함할 수 있다.The status information displayed in the status information area 1110 may include at least one of current time information, battery status information, parts replacement information, and error information.

상기 메인 메뉴 영역(1120)은, 메인 메뉴를 표시하는 영역으로서, 청소 수행 명령을 입력할 수 있는 청소 시작 항목, 지정된 장소로의 이동 명령을 입력할 수 있는 복귀 항목, 청소 영역 및 청소 모드에 관한 입력을 수행할 수 있는 청소 설정 항목을 포함할 수 있다.The main menu area 1120 is an area for displaying the main menu, and relates to a cleaning start item for inputting a cleaning execution command, a return item for inputting a movement command to a designated place, a cleaning area, and a cleaning mode It may include a cleaning setting item capable of performing an input.

사용자는 휴대 단말기를 조작하여, 상기 메인 메뉴 영역(1120)에 포함되는 항목들 중 어느 하나에 대하여 선택하거나 소정 명령을 입력할 수 있고, 휴대 단말기는 소정 명령을 포함하는 제어 신호를 이동 로봇(100)으로 전송할 수 있다.The user may operate the mobile terminal to select any one of the items included in the main menu area 1120 or input a predetermined command, and the mobile terminal may transmit a control signal including the predetermined command to the mobile robot 100 ) can be transmitted.

제어부(140)는 소정 명령이 통신부(190)를 통하여 수신되면, 헤드(111)가 닫혔는지 판별할 수 있다.When a predetermined command is received through the communication unit 190 , the control unit 140 may determine whether the head 111 is closed.

만약 헤드(111)가 닫힌 상태가 아니라면, 제어부(140)는 통신부(190)를 통하여 휴대 단말기로 헤드(111)가 열려있음을 알리는 신호를 전송할 수 있다.If the head 111 is not in the closed state, the control unit 140 may transmit a signal indicating that the head 111 is open to the portable terminal through the communication unit 190 .

휴대 단말기는 헤드(111)를 닫으라는 메시지를 표시할 수 있다.The portable terminal may display a message to close the head 111 .

이후, 사용자가 상기 헤드(111)를 닫으면, 상기 제어부(140)는, 소정 명령에 대응하는 동작을 수행하도록 제어할 수 있다.Thereafter, when the user closes the head 111 , the controller 140 may control to perform an operation corresponding to a predetermined command.

한편, 관리 영역(1130)은, 동작 예약 정보와 이동 로봇 조작 메뉴를 포함할 수 있다.Meanwhile, the management area 1130 may include operation reservation information and a mobile robot operation menu.

상기 관리 영역(1130)은, 예약 관리를 나타내는 영역(1131)과 로봇 조작 영역(1132)으로 나누어질 수 있다.The management area 1130 may be divided into an area 1131 indicating reservation management and a robot operation area 1132 .

이 경우에, 상기 예약 관리를 나타내는 영역(1031)은 예약 시간/요일을 카드 타입으로 표시하는 예약일정 항목, 예약 삭제 버튼(X 버튼)과 예약 추가 버튼을 포함할 수 있다.In this case, the area 1031 representing the reservation management may include a reservation schedule item for displaying reservation time/day of the week by card type, a reservation delete button (X button), and a reservation add button.

또한, 상기 로봇 조작 영역(1132)은, 로봇을 조작하는 영역으로 로봇 운정 4방향키 및 정지 버튼, 흡입 켜짐/꺼짐 버튼 등을 포함할 수 있다.In addition, the robot manipulation area 1132 is an area for manipulating the robot and may include a robot operation 4 direction key, a stop button, a suction on/off button, and the like.

한편, 설정에 따라서는, 상기 로봇 조작 영역(1132)은, 휴대 단말기를 통하여 제공되는 사용자 인터페이스 화면에만 포함될 수 있다.Meanwhile, depending on the setting, the robot manipulation area 1132 may be included only in the user interface screen provided through the portable terminal.

한편, 상기 메인 메뉴 영역(1020, 1120)에 포함되는 항목들 중 어느 하나에 대한 선택 입력이 수신되면, 선택 입력이 수신된 항목에 대응하는 상세 화면이 상기 디스플레이(182) 또는 상기 휴대 단말기를 통하여 제공될 수 있다.On the other hand, when a selection input for any one of the items included in the main menu areas 1020 and 1120 is received, a detailed screen corresponding to the item for which the selection input is received is displayed through the display 182 or the mobile terminal. can be provided.

도 12는 본 발명의 실시예에 따른 잠금장치를 포함하는 이동 로봇에 관한 설명에 참조되는 도면이다.12 is a diagram referenced in the description of a mobile robot including a locking device according to an embodiment of the present invention.

도 12에 예시된 이동 로봇은 헤드 하드웨어 잠금 장치의 물리적 조작에 따라 잠금 설정이 해제되고, 도 1 내지 도 11을 참조하여 설명한 이동 로봇은 지문 인식을 이용하는 차이점 외에는 동일하다.The mobile robot illustrated in FIG. 12 is unlocked according to the physical manipulation of the head hardware locking device, and the mobile robot described with reference to FIGS. 1 to 11 is the same except for the difference that fingerprint recognition is used.

따라서, 잠금 장치 이외의 특징들은 도 12에서 명기하지 않았더라도 상술한 실시예와 동일하게 적용할 수 있다.Accordingly, features other than the locking device may be applied in the same manner as in the above-described embodiment even if not specified in FIG. 12 .

도 12 등을 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(100)은, 개폐 가능한 헤드(111)와 상기 헤드(111)의 하단에 위치하고 개폐 가능한 커버(103)를 구비하는 바디부(body, 102)를 포함하는 본체(101), 상기 본체의 후면에 구비되는 잠금장치(lock, 220, 230)와 상기 본체(101)를 이동시키는 주행부(160)를 포함할 수 있다.Referring to FIG. 12 , the mobile robot 100 according to an embodiment of the present invention includes an openable and openable head 111 and a body portion ( It may include a main body 101 including a body 102 , locks 220 and 230 provided on the rear surface of the main body, and a traveling unit 160 for moving the main body 101 .

도 12의 (a)와 같이, 잠금장치(lock)는, 다이얼(dial)을 회전시켜 기설정된 비밀번호로 맞추는 조작에 의해서 잠금 설정이 해제되는 다이얼 타입 잠금 장치(220)일 수 있다.As shown in (a) of FIG. 12 , the lock may be a dial-type locking device 220 in which the lock setting is released by an operation of rotating a dial to match a preset password.

또는, 도 12의 (b)와 같이, 잠금장치(lock)는, 키패드에 구비된 버튼을 통하여 기설정된 암호를 입력하는 조작에 의해서 잠금 설정이 해제되는 키패드 타입 잠금 장치(230)일 수 있다.Alternatively, as shown in (b) of FIG. 12 , the lock may be a keypad-type locking device 230 in which the lock setting is released by an operation of inputting a preset password through a button provided on the keypad.

따라서, 본 발명의 실시예에 따른 이동 로봇(100)은 상기 잠금장치(220, 230)에 기설정된 조작이 수행되면, 상기 헤드(111) 및 상기 커버(102)의 잠금 설정을 해제할 수 있다.Accordingly, the mobile robot 100 according to an embodiment of the present invention can release the lock settings of the head 111 and the cover 102 when a preset operation is performed on the locking devices 220 and 230 . .

이에 따라, 권한 없는 사람이 이동 로봇(100)의 헤드(111) 및 커버(102)를 여는 것을 방지할 수 있어, 안전 사고 및 도난 사고를 방지할 수 있다.Accordingly, it is possible to prevent an unauthorized person from opening the head 111 and the cover 102 of the mobile robot 100, thereby preventing safety accidents and theft accidents.

또한, 상기 본체(101)는, 상기 헤드(111)의 잠금 설정 해제에 연동하여, 잠금 해제되는 배터리 전기코드 수납부(195)를 더 포함할 수 있다.In addition, the main body 101 may further include a battery electric cord accommodating part 195 that is unlocked by interlocking with the unlocking of the head 111 .

즉, 본 발명에 따른 이동 로봇(100)은 지문을 통하여 사용자가 인증되면, 헤드(111), 커버(103), 배터리 전기코드 수납부(195) 등 개폐 가능한 수단에 대한 잠금 설정을 일괄 해제할 수 있다.That is, when a user is authenticated through a fingerprint, the mobile robot 100 according to the present invention releases the lock settings for the opening and closing means such as the head 111, the cover 103, and the battery electric cord receiving unit 195 at once. can

한편, 상술한 바와 같이, 본 발명의 일 실시예에 따른 이동 로봇(100)은, 상기 본체(101) 내부에 수납되는 디스플레이(181)를 더 포함할 수 있다.Meanwhile, as described above, the mobile robot 100 according to an embodiment of the present invention may further include a display 181 accommodated in the main body 101 .

이 경우에, 상기 제어부(140)는, 소정 사용자 인터페이스 화면이 상기 디스플레이(182)에 표시되도록 제어할 수 있다.In this case, the controller 140 may control a predetermined user interface screen to be displayed on the display 182 .

예를 들어, 사용자 인터페이스 화면은, 상기 이동 로봇의 상태 정보를 포함하는 상태 정보 영역, 복수의 메인 메뉴 항목들을 포함하는 메인 메뉴 영역들을 포함하고, 상기 메인 메뉴 영역은, 청소 수행 명령을 입력할 수 있는 청소 시작 항목, 지정된 장소로의 이동 명령을 입력할 수 있는 복귀 항목, 청소 영역 및 청소 모드에 관한 입력을 수행할 수 있는 청소 설정 항목을 포함할 수 있다.For example, the user interface screen includes a status information area including status information of the mobile robot and a main menu area including a plurality of main menu items, and the main menu area may input a cleaning execution command. It may include a cleaning start item, a return item capable of inputting a movement command to a designated place, and a cleaning setting item capable of performing an input regarding a cleaning area and a cleaning mode.

이 경우에, 상기 제어부(140)는, 상기 메인 메뉴 영역에 포함되는 항목들 중 어느 하나에 대한 선택 입력이 수신되면, 선택 입력이 수신된 항목에 대응하는 상세 화면이 상기 디스플레이(182)에 표시되도록 제어할 수 있다.In this case, when a selection input for any one of the items included in the main menu area is received, the controller 140 displays a detailed screen corresponding to the item for which the selection input is received on the display 182 can be controlled as much as possible.

실시예에 따라서는, 상기 제어부(140)는, 상기 헤드(111)가 열리면, 상기 디스플레이(182)가 온(on)되도록 제어함으로써, 상기 디스플레이(182)가 불필요하게 구동되는 것을 방지하고 전력 소모량을 줄일 수 있다.In some embodiments, the control unit 140 controls the display 182 to be turned on when the head 111 is opened, thereby preventing the display 182 from being unnecessarily driven and reducing power consumption. can reduce

도 13과 도 14는 본 발명의 일 실시예에 따른 잠금 설정 해제에 관한 설명에 참조되는 도면이다.13 and 14 are diagrams referenced in the description of unlocking the lock setting according to an embodiment of the present invention.

도 13과 도 14를 참조하면, 지문 입력부(210)를 통하여 적법한 지문이 입력되거나, 잠금장치(220, 230)의 물리적 조작에 따라 적법한 조작 입력이 있으면, 바디(102)의 커버(103), 배터리 전기코드 수납부(195)에 대한 잠금 설정이 해제될 수 있다.13 and 14, if a legal fingerprint is input through the fingerprint input unit 210, or there is a legal operation input according to physical manipulation of the locking device 220, 230, the cover 103 of the body 102, The lock setting for the battery electric cord accommodating part 195 may be released.

사용자는 상기 커버(103)를 열어, 세제통, 기어모듈, 배터리 등을 탈거하거나 교체할 수 있다.A user may open the cover 103 to remove or replace a detergent container, a gear module, a battery, and the like.

또한, 사용자는 상기 배터리 전기코드 수납부(195)를 열어 배터리를 충전하기 위한 전기코드를 빼내 콘센트 등에 연결하여 배터리를 충전할 수 있다.In addition, the user can charge the battery by opening the battery electric cord accommodating part 195 , taking out an electric cord for charging the battery, and connecting it to an outlet.

한편, 지문 입력부(210)를 통하여 적법한 지문이 입력되거나, 잠금장치(220, 230)의 물리적 조작에 따라 적법한 조작 입력이 있으면, 도 5 내지 도 7 등을 설명한 것과 같이, 헤드(111)를 열 수 있다. On the other hand, if a legal fingerprint is input through the fingerprint input unit 210 or a legal operation input is received according to physical manipulation of the locking device 220 or 230, as described in FIGS. 5 to 7, the head 111 is opened. can

본 발명의 실시 예들 중 적어도 하나에 의하면, 공공장소에서 안전하게 운용할 수 있는 이동 로봇을 제공할 수 있다.According to at least one of the embodiments of the present invention, it is possible to provide a mobile robot that can be safely operated in a public place.

또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 특정 상황에서 사용자 인터페이스 화면을 제공함으로써, 사람과 이동 로봇의 사고 발생 위험을 감소시킬 수 있다는 장점이 있다.In addition, according to at least one of the embodiments of the present invention, by providing a user interface screen in a specific situation, there is an advantage in that it is possible to reduce the risk of accidents between humans and mobile robots.

또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 다양한 사용자 인터페이스 화면을 제공함으로써 사용자의 이용 편의성을 향상시킬 수 있다.In addition, according to at least one of the embodiments of the present invention, it is possible to improve user convenience by providing various user interface screens.

또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 사용자를 식별하여 사용자의 권한에 따른 사용자 인터페이스 화면을 제공할 수 있는 이동 로봇을 제공할 수 있다.In addition, according to at least one of the embodiments of the present invention, it is possible to provide a mobile robot capable of identifying a user and providing a user interface screen according to the user's authority.

본 발명에 따른 이동 로봇은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.In the mobile robot according to the present invention, the configuration and method of the described embodiments are not limitedly applicable, but all or part of each embodiment is selectively combined so that various modifications can be made. may be configured.

한편, 본 발명의 실시예에 따른 이동 로봇의 제어방법은, 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the method for controlling a mobile robot according to an embodiment of the present invention can be implemented as a processor-readable code on a processor-readable recording medium. The processor-readable recording medium includes all types of recording devices in which data readable by the processor is stored. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., and also includes those implemented in the form of carrier waves such as transmission over the Internet . In addition, the processor-readable recording medium is distributed in a computer system connected to a network, so that the processor-readable code can be stored and executed in a distributed manner.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the claims Various modifications may be made by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

이동 로봇: 100
본체: 101
헤드: 111
제어부: 140
주행부: 160
디스플레이: 182
통신부: 190
지문 입력부: 210
잠금장치: 220, 230
Mobile Robot: 100
Body: 101
Head: 111
Controls: 140
Driving part: 160
Display: 182
Communications Department: 190
Fingerprint input unit: 210
Lock: 220, 230

Claims (15)

개폐 가능한 헤드(head)를 포함하는 본체;
상기 본체를 이동시키는 주행부;
지문이 입력되는 지문 입력부;
등록 지문 정보를 저장하는 저장부;
상기 지문 입력부를 통하여 입력된 지문 정보를 상기 저장부에 기저장된 등록 지문 정보와 비교하고, 상기 입력된 지문 정보와 상응하는 등록 지문 정보가 있는 경우, 상기 헤드를 열 수 있도록 잠금 설정을 해제하는 제어부; 및,
상기 본체 내부에 수납되는 디스플레이;를 포함하고,
상기 헤드가 열리면, 상기 디스플레이는, 전면으로 슬라이딩(sliding) 또는 푸쉬(push)되고, 온(on)되어, 상기 상응하는 등록 지문 정보에 대응하는 사용자 인터페이스 화면을 표시하는 이동 로봇.
.
a body including an openable and openable head;
a driving unit for moving the body;
a fingerprint input unit to which a fingerprint is input;
a storage unit for storing registered fingerprint information;
A control unit that compares the fingerprint information input through the fingerprint input unit with the registered fingerprint information pre-stored in the storage unit, and releases the lock setting so that the head can be opened when there is registered fingerprint information corresponding to the input fingerprint information ; and,
Including; a display accommodated inside the main body;
When the head is opened, the display is slid or pushed to the front, and is turned on to display a user interface screen corresponding to the corresponding registered fingerprint information.
.
삭제delete 제1항에 있어서,
상기 제어부는, 상기 상응하는 등록 지문 정보가 복수의 이동 로봇에 대한 관리 권한이 있는 관리자 등급에 해당하는 경우에, 상기 복수의 이동 로봇에 대한 정보를 포함하는 사용자 인터페이스 화면이 상기 디스플레이에 표시되도록 제어하는 것을 특징으로 이동 로봇.
According to claim 1,
When the corresponding registered fingerprint information corresponds to an administrator level with management authority for the plurality of mobile robots, the control unit controls so that a user interface screen including information on the plurality of mobile robots is displayed on the display A mobile robot characterized in that.
제3항에 있어서,
상기 복수의 이동 로봇에 대한 정보를 포함하는 사용자 인터페이스 화면은, 상기 복수의 이동 로봇의 현재 상태 정보 및 동작 이력 정보를 포함하는 것을 특징으로 이동 로봇.
4. The method of claim 3,
The user interface screen including information on the plurality of mobile robots includes current state information and operation history information of the plurality of mobile robots.
제1항에 있어서,
상기 제어부는, 상기 상응하는 등록 지문 정보가 일반 사용자 등급에 해당하는 경우에, 상기 상응하는 등록 지문 정보에 대응하는 사용자의 이용 내역 또는 일반 사용자 등급에 포함되는 복수의 사용자들의 이용 내역에 기초하는 사용자 인터페이스 화면이 상기 디스플레이에 표시되도록 제어하는 것을 특징으로 이동 로봇.
According to claim 1,
The control unit, when the corresponding registered fingerprint information corresponds to a general user grade, a user based on a usage history of a user corresponding to the corresponding registered fingerprint information or a usage history of a plurality of users included in the general user grade A mobile robot, characterized in that the interface screen is controlled to be displayed on the display.
제1항에 있어서,
상기 사용자 인터페이스 화면은, 상기 이동 로봇의 상태 정보를 포함하는 상태 정보 영역, 복수의 메인 메뉴 항목들을 포함하는 메인 메뉴 영역들을 포함하고,
상기 메인 메뉴 영역은, 청소 수행 명령을 입력할 수 있는 청소 시작 항목, 지정된 장소로의 이동 명령을 입력할 수 있는 복귀 항목, 청소 영역 및 청소 모드에 관한 입력을 수행할 수 있는 청소 설정 항목을 포함하는 것을 특징으로 하는 이동 로봇.
According to claim 1,
The user interface screen includes a status information area including status information of the mobile robot, and main menu areas including a plurality of main menu items,
The main menu area includes a cleaning start item for inputting a cleaning execution command, a return item for inputting a command to move to a designated place, and a cleaning setting item for performing an input regarding a cleaning area and a cleaning mode Mobile robot, characterized in that.
삭제delete 제1항에 있어서,
상기 본체는, 상기 헤드의 잠금 설정 해제에 연동하여, 잠금 해제되는 커버(cover)를 구비하는 바디부(body)를 더 포함하는 것을 특징으로 하는 이동 로봇.
According to claim 1,
The main body, the mobile robot characterized in that it further comprises a body portion (body) provided with a cover (cover) unlocked by interlocking with the unlocking setting of the head.
제1항에 있어서,
상기 본체는, 상기 헤드의 잠금 설정 해제에 연동하여, 잠금 해제되는 배터리 전기코드 수납부를 더 포함하는 것을 특징으로 하는 이동 로봇.
According to claim 1,
The main body, the mobile robot characterized in that it further comprises a battery electric cord receiving unit unlocked in association with the unlocking of the lock setting of the head.
삭제delete 개폐 가능한 헤드(head)와 상기 헤드의 하단에 위치하고 개폐 가능한 커버를 구비하는 바디부(body)를 포함하는 본체;
상기 본체의 후면에 구비되는 잠금장치(lock);
상기 본체를 이동시키는 주행부;
상기 본체 내부에 수납되는 디스플레이; 및,
상기 헤드가 열리면, 소정 사용자 인터페이스 화면이 상기 디스플레이에 표시되도록 제어하는 제어부;를 포함하고,
상기 잠금장치에 기설정된 조작이 수행되면, 상기 헤드 및 상기 커버의 잠금 설정을 해제하며,
상기 헤드가 열리면, 상기 디스플레이는, 전면으로 슬라이딩(sliding) 또는 푸쉬(push)되고, 온(on)되는 이동 로봇.
a body including an openable and openable head and a body located at a lower end of the head and having an openable and openable cover;
a lock provided on the rear surface of the main body;
a driving unit for moving the body;
a display accommodated in the body; and,
a control unit for controlling a predetermined user interface screen to be displayed on the display when the head is opened;
When a preset operation is performed on the locking device, the lock setting of the head and the cover is released,
When the head is opened, the display is slid or pushed to the front, and the mobile robot is turned on.
제11항에 있어서,
상기 본체는, 상기 헤드의 잠금 설정 해제에 연동하여, 잠금 해제되는 배터리 전기코드 수납부를 더 포함하는 것을 특징으로 하는 이동 로봇.
12. The method of claim 11,
The main body, the mobile robot characterized in that it further comprises a battery electric cord receiving unit unlocked in association with the unlocking of the lock setting of the head.
삭제delete 제11항에 있어서,
상기 사용자 인터페이스 화면은, 상기 이동 로봇의 상태 정보를 포함하는 상태 정보 영역, 복수의 메인 메뉴 항목들을 포함하는 메인 메뉴 영역들을 포함하고,
상기 메인 메뉴 영역은, 청소 수행 명령을 입력할 수 있는 청소 시작 항목, 지정된 장소로의 이동 명령을 입력할 수 있는 복귀 항목, 청소 영역 및 청소 모드에 관한 입력을 수행할 수 있는 청소 설정 항목을 포함하는 것을 특징으로 하는 이동 로봇.
12. The method of claim 11,
The user interface screen includes a status information area including status information of the mobile robot, and main menu areas including a plurality of main menu items,
The main menu area includes a cleaning start item for inputting a cleaning execution command, a return item for inputting a command to move to a designated place, and a cleaning setting item for performing an input regarding a cleaning area and a cleaning mode Mobile robot, characterized in that.
삭제delete
KR1020170034837A 2017-03-20 2017-03-20 Moving robot KR102350934B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170034837A KR102350934B1 (en) 2017-03-20 2017-03-20 Moving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170034837A KR102350934B1 (en) 2017-03-20 2017-03-20 Moving robot

Publications (2)

Publication Number Publication Date
KR20180106472A KR20180106472A (en) 2018-10-01
KR102350934B1 true KR102350934B1 (en) 2022-01-12

Family

ID=63876983

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170034837A KR102350934B1 (en) 2017-03-20 2017-03-20 Moving robot

Country Status (1)

Country Link
KR (1) KR102350934B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102224157B1 (en) 2019-02-20 2021-03-08 엘지전자 주식회사 Moving robot system comprising moving robot and charging station
KR102063891B1 (en) * 2019-06-04 2020-01-08 영남대학교 산학협력단 Following robot control method and system and computing device for executing the system
KR102511034B1 (en) * 2021-10-19 2023-03-17 옥재윤 Artificial intelligence based service robot

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001287183A (en) * 2000-01-31 2001-10-16 Matsushita Electric Works Ltd Automatic conveyance robot
KR100629119B1 (en) * 2005-04-20 2006-09-27 주식회사 유진로봇 Device for opening and closing lcd folder of robot and method for control the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101976462B1 (en) 2012-02-13 2019-08-28 엘지전자 주식회사 A robot cleaner a control method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001287183A (en) * 2000-01-31 2001-10-16 Matsushita Electric Works Ltd Automatic conveyance robot
KR100629119B1 (en) * 2005-04-20 2006-09-27 주식회사 유진로봇 Device for opening and closing lcd folder of robot and method for control the same

Also Published As

Publication number Publication date
KR20180106472A (en) 2018-10-01

Similar Documents

Publication Publication Date Title
KR102348041B1 (en) Control method of robot system including a plurality of moving robots
EP3950234B1 (en) Mobile robot and control method thereof
CN109890576B (en) Mobile robot and control method thereof
US10717193B2 (en) Artificial intelligence moving robot and control method thereof
EP3428761B1 (en) Moving robot and controlling method
KR102235271B1 (en) Moving Robot and controlling method
KR20180087798A (en) Moving robot and control method therof
US11700989B2 (en) Mobile robot using artificial intelligence and controlling method thereof
KR102070210B1 (en) Moving robot
KR20180023301A (en) Moving robot and control method thereof
KR102350934B1 (en) Moving robot
KR20180023302A (en) Moving robot and control method thereof
KR20180098040A (en) Moving robot and control method thereof
KR20190003118A (en) Robot system including Mobile robot and Moving terminal
KR20180023303A (en) Moving robot and control method thereof
KR20180089660A (en) Lighting control system
KR20190003120A (en) Robot system including a plurality of moving robots and Mobile terminal
KR20180048088A (en) Robot cleaner and control method thereof
KR20180037516A (en) Moving robot and control method thereof
KR20190003119A (en) Mobile terminal and Moving robot including the same therein
KR102500525B1 (en) Moving robot
Shoani Face Recognition Based Security Robot Incorporating Omnidirectional Vision

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant