KR20200091110A - Moving Robot and controlling method thereof - Google Patents

Moving Robot and controlling method thereof Download PDF

Info

Publication number
KR20200091110A
KR20200091110A KR1020190007925A KR20190007925A KR20200091110A KR 20200091110 A KR20200091110 A KR 20200091110A KR 1020190007925 A KR1020190007925 A KR 1020190007925A KR 20190007925 A KR20190007925 A KR 20190007925A KR 20200091110 A KR20200091110 A KR 20200091110A
Authority
KR
South Korea
Prior art keywords
mobile robot
driving
unit
mobile terminal
main body
Prior art date
Application number
KR1020190007925A
Other languages
Korean (ko)
Inventor
김동현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020190007925A priority Critical patent/KR20200091110A/en
Publication of KR20200091110A publication Critical patent/KR20200091110A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/061Safety devices with audible signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

The present invention relates to a mobile robot which comprises a traveling unit moving a main body and a cleaning unit performing a cleaning function through traveling; and a control method thereof which designates a location to which the main body is to be moved, enables an alarm signal to be output when the main body moves to the designated location through the traveling unit, and performs cleaning while outputting an alarm signal at the time designated by a user. In addition, the control method may include: an input step of receiving designated movement location information; a traveling step of traveling toward the designated location; and an output step of outputting the alarm signal upon arrival at the designated location.

Description

이동 로봇 및 그 제어 방법{Moving Robot and controlling method thereof}Mobile robot and its control method

본 발명은 이동 로봇 및 그 제어 방법에 관한 것으로서, 구체적으로 알람 신호를 출력하는 이동 로봇 및 그 제어 방법에 관한 것이다.The present invention relates to a mobile robot and a control method thereof, specifically, to a mobile robot outputting an alarm signal and a control method thereof.

로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다. 이러한 로봇 중에서 자력으로 주행이 가능한 것을 이동 로봇이라고 한다. 가정에서 사용되는 이동 로봇의 대표적인 예는 로봇 청소기이다.Robots have been developed for industrial use and have been responsible for part of factory automation. In recent years, the field of application of robots has been further expanded, medical robots, aerospace robots, etc. have been developed, and home robots that can be used in general homes are also being made. Among these robots, a mobile robot capable of driving by itself is called a mobile robot. A representative example of a mobile robot used at home is a robot cleaner.

이동 로봇이 스스로 주행 구역을 학습하여 맵핑하고, 맵 상에서 현재 위치를 파악하는 기술들이 알려져 있다.Techniques are known in which a mobile robot learns and maps a driving area by itself and grasps a current location on the map.

또한, 이동 로봇을 이용한 각종 스마트 기능들이 알려져 있다. 알람기능과 관련하여는, US07751284B1에서, 움직임을 통해 알람을 울리는 셀프무빙 알람시계가 개시되어 있다. 그러나 사용자가 원하는 위치에서 알람이 울리도록 하기 어려운 문제점이 있다.In addition, various smart functions using a mobile robot are known. Regarding the alarm function, US07751284B1 discloses a self-moving alarm clock that sounds an alarm through movement. However, there is a problem in that it is difficult for the user to sound an alarm at a desired location.

본 발명의 해결하려고 하는 제1 과제는 사용자가 원하는 위치에서 알람이 울리도록 하는 이동 로봇을 제공하는 것이다.The first problem to be solved of the present invention is to provide a mobile robot that allows an alarm to sound at a location desired by a user.

본 발명의 제2 과제는 사용자가 원하는 시간에 알람이 울리도록 하는 이동 봇을 제공하는 것이다.The second object of the present invention is to provide a mobile bot that allows an alarm to sound at a desired time.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 실현하기 위한 본 발명에 따른 이동 로봇 및 그 제어 방법은, 본체를 이동시키는 주행부, 주행을 통해 청소 기능을 수행하는 청소부를 포함하고, 본체가 이동할 위치를 지정하고, 본체가 주행부를 통해 지정된 위치로 이동시 알람 신호가 출력되도록 할 수 있고, 사용자가 지정한 시간에 알람 신호가 출력되며 청소를 수행할 수 있다. 또한 지정된 이동 위치 정보를 입력 받는 입력 단계, 지정 위치를 향해 주행하는 주행 단계, 지정 위치에 도착시 알람 신호를 출력하는 출력 단계를 포함할 수 있다.A mobile robot and a control method thereof according to the present invention for realizing the above-mentioned subject include a traveling part for moving the main body, a cleaning part for performing a cleaning function through traveling, designating a position to which the main body is to be moved, and the main body for the traveling part Through this, an alarm signal can be output when moving to a designated location, and an alarm signal is output at a user-specified time to perform cleaning. In addition, it may include an input step for receiving the specified movement position information, a driving step for driving toward the specified position, and an output step for outputting an alarm signal upon arrival at the specified position.

사용자는 이동 단말기에 저장된 주행 구역에 대한 맵을 통해 상기 이동 위치를 지정할 수 있다.The user may designate the moving position through a map of the driving area stored in the mobile terminal.

이동 단말기와 송수신 가능한 통신부를 더 포함하고, 통신부를 통해 사용자가 지정한 이동 위치 정보를 수신할 수 있다.Further comprising a communication unit capable of transmitting and receiving a mobile terminal, it is possible to receive mobile location information specified by the user through the communication unit.

이동 단말기로부터 발생하는 음향을 수신할 시, 이동 단말기의 위치로 이동하여 알람 신호를 출력할 수 있다.When receiving sound generated from the mobile terminal, it may move to a location of the mobile terminal and output an alarm signal.

음향을 수신하는 입력부를 더 포함할 수 있다.It may further include an input unit for receiving sound.

이동 단말기와 송수신 가능한 통신부를 더 포함하고, 통신부를 통해 이동 단말기의 위치 정보를 수신할 수 있다.Further comprising a communication unit capable of transmitting and receiving a mobile terminal, it is possible to receive the location information of the mobile terminal through the communication unit.

알람 신호를 발생하는 출력부를 더 포함할 수 있다.An output unit generating an alarm signal may be further included.

사용자는 이동 단말기를 통해 지정 시간을 입력할 수 있고, 통신부를 통해 사용자가 입력한 시간 정보를 수신할 수 있다.The user may input a designated time through the mobile terminal, and receive time information input by the user through the communication unit.

본 발명에 따른 이동 로봇은, 사용자가 원하는 위치에서 알람을 울리게 함으로써 사용자가 효과적으로 알람을 인지할 수 있다.The mobile robot according to the present invention allows the user to effectively recognize the alarm by causing the user to sound an alarm at a desired location.

또한 본 발명에 따른 이동 로봇은, 사용자가 원하는 시간에 알람을 울리게 함으로써 사용자가 필요한 시간에 알람을 인지할 수 있다.In addition, the mobile robot according to the present invention can recognize an alarm at a time required by the user by making an alarm sound at a desired time.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일 실시예에 따른 이동 로봇 및 이동 로봇을 충전시키는 충전대를 도시한 사시도이다.
도 2는 본 발명의 일 실시예에 따른 이동 로봇의 상면부를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 이동 로봇의 정면부를 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 이동 로봇의 저면부를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 이동 로봇의 구성 요소를 설명하기 위한 블록도이다.
도 6은 본 발명의 일 실시예에 따른 스마트 알람 기능을 설명하기 위한 도면이다.
도 7은 본 발명의 다른 실시예에 따른 스마트 알람 기능을 설명하기 위한 도면이다.
도 8은 본 발명의 또 다른 실시예에 따른 스마트 알람 기능을 설명하기 위한 도면이다.
1 is a perspective view showing a mobile robot and a charging stand for charging the mobile robot according to an embodiment of the present invention.
2 is a view showing an upper surface of a mobile robot according to an embodiment of the present invention.
3 is a view showing a front portion of a mobile robot according to an embodiment of the present invention.
4 is a view showing a bottom surface of a mobile robot according to an embodiment of the present invention.
5 is a block diagram illustrating components of a mobile robot according to an embodiment of the present invention.
6 is a view for explaining a smart alarm function according to an embodiment of the present invention.
7 is a view for explaining a smart alarm function according to another embodiment of the present invention.
8 is a view for explaining a smart alarm function according to another embodiment of the present invention.

도 1 내지 도 4에 도시된 바와 같이, 이동 로봇(100)은 본체(110)와, 본체(110) 주변의 영상을 획득하는 영상 획득부(120)를 포함한다. 이하, 본체(110)의 각 부분을 정의함에 있어서, 주행구역 내의 천장을 향하는 부분을 상면부(도 2 참조)로 정의하고, 주행구역 내의 바닥을 향하는 부분을 저면부(도 4 참조)로 정의하며, 상면부와 저면부 사이에서 본체(110)의 둘레를 이루는 부분 중 주행방향을 향하는 부분을 정면부(도 3 참조)라고 정의한다. 1 to 4, the mobile robot 100 includes a main body 110 and an image acquiring unit 120 that acquires an image around the main body 110. Hereinafter, in defining each part of the main body 110, a part facing the ceiling in the driving area is defined as an upper surface part (see FIG. 2), and a part facing a floor in the driving area is defined as a bottom part (refer to FIG. 4). It is defined as a front portion (refer to FIG. 3), a portion facing the driving direction among the portions forming the circumference of the main body 110 between the upper and lower portions.

이동 로봇(100)은 본체(110)를 이동시키는 주행부(160)를 포함한다. 주행부(160)는 본체(110)를 이동시키는 적어도 하나의 구동 바퀴(136)를 포함한다. 주행부(160)는 구동 바퀴(136)에 연결되어 구동 바퀴를 회전시키는 구동 모터(미도시)를 포함하다. 구동 바퀴(136)는 본체(110)의 좌, 우 측에 각각 구비될 수 있으며, 이하, 각각 좌륜(136(L))과 우륜(136(R))이라고 한다. The mobile robot 100 includes a driving unit 160 that moves the main body 110. The driving unit 160 includes at least one driving wheel 136 that moves the main body 110. The driving unit 160 includes a driving motor (not shown) connected to the driving wheel 136 to rotate the driving wheel. The driving wheels 136 may be provided on the left and right sides of the main body 110, respectively, hereinafter referred to as the left wheel 136(L) and the right wheel 136(R).

좌륜(136(L))과 우륜(136(R))은 하나의 구동 모터에 의해 구동될 수도 있으나, 필요에 따라 좌륜(136(L))을 구동시키는 좌륜 구동 모터와 우륜(136(R))을 구동시키는 우륜 구동 모터가 각각 구비될 수도 있다. 좌륜(136(L))과 우륜(136(R))의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체(110)의 주행방향을 전환할 수 있다. The left wheel 136(L) and the right wheel 136(R) may be driven by one driving motor, but if necessary, the left wheel driving motor and the right wheel 136(R) driving the left wheel 136(L). ) May be provided with a right-wheel drive motor, respectively. The driving direction of the main body 110 can be switched to the left or right side by making a difference in the rotational speeds of the left wheel 136 (L) and the right wheel 136 (R).

본체(110)의 저면부에는 공기의 흡입이 이루어지는 흡입구(110h)가 형성될 수 있으며, 본체(110) 내에는 흡입구(110h)를 통해 공기가 흡입될 수 있도록 흡입력을 제공하는 흡입장치(미도시)와, 흡입구(110h)를 통해 공기와 함께 흡입된 먼지를 집진하는 먼지통(미도시)이 구비될 수 있다. An intake port 110h in which air is sucked may be formed on the bottom surface of the main body 110, and an inhalation device (not shown) that provides suction power to allow air to be sucked through the intake port 110h in the main body 110 ) And a dust container (not shown) for collecting dust sucked together with air through the suction port 110h may be provided.

본체(110)는 이동 로봇(100)을 구성하는 각종 부품들이 수용되는 공간을 형성하는 케이스(111)를 포함할 수 있다. 케이스(111)에는 상기 먼지통의 삽입과 탈거를 위한 개구부가 형성될 수 있고, 개구부를 여닫는 먼지통 커버(112)가 케이스(111)에 대해 회전 가능하게 구비될 수 있다. The body 110 may include a case 111 forming a space in which various components constituting the mobile robot 100 are accommodated. An opening for inserting and removing the dust container may be formed in the case 111, and a dust container cover 112 that opens and closes the opening may be rotatably provided with respect to the case 111.

흡입구(110h)를 통해 노출되는 솔들을 갖는 롤형의 메인 브러시(134)와, 본체(110)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 보조 브러시(135)가 구비될 수 있다. 이들 브러시(134, 135)들의 회전에 의해 주행구역 내 바닥으로부터 먼지들이 분리되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구(110h)를 통해 흡입되어 먼지통에 모인다.A roll-type main brush 134 having brushes exposed through the suction port 110h, and an auxiliary brush 135 located on the front side of the bottom surface of the body 110 and having a brush made of a plurality of wings extending radially May be provided. The dust is separated from the floor in the driving area by the rotation of these brushes 134 and 135, and the dust separated from the floor is sucked through the suction port 110h and collected in the dust container.

배터리(138)는 구동 모터뿐만 아니라, 이동 로봇(100)의 작동 전반에 필요한 전원을 공급한다. 배터리(138)가 방전될 시, 이동 로봇(100)은 충전을 위해 충전대(200)로 복귀하는 주행을 실시할 수 있으며, 이러한 복귀 주행 중, 이동 로봇(100)은 스스로 충전대(200)의 위치를 탐지할 수 있다.The battery 138 supplies not only a driving motor, but also power required for the overall operation of the mobile robot 100. When the battery 138 is discharged, the mobile robot 100 may perform driving to return to the charging stand 200 for charging, and during such return driving, the mobile robot 100 itself positions the charging stand 200 Can detect

충전대(200)는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되어야하는 것은 아니다.The charging base 200 may include a signal transmission unit (not shown) that transmits a predetermined return signal. The return signal may be an ultrasonic signal or an infrared signal, but is not limited thereto.

이동 로봇(100)은 복귀 신호를 수신하는 신호 감지부(미도시)를 포함할 수 있다. 충전대(200)는 신호 송출부를 통해 적외선 신호를 송출하고, 신호 감지부는 적외선 신호를 감지하는 적외선 센서를 포함할 수 있다. 이동 로봇(100)은 충전대(200)로부터 송출된 적외선 신호에 따라 충전대(200)의 위치로 이동하여 충전대(200)와 도킹(docking)한다. 이러한 도킹에 의해 이동 로봇(100)의 충전 단자(133)와 충전대(200)의 충전 단자(210) 간에 충전에 이루어진다.The mobile robot 100 may include a signal detector (not shown) that receives a return signal. The charging base 200 may transmit an infrared signal through the signal transmission unit, and the signal detection unit may include an infrared sensor that detects the infrared signal. The mobile robot 100 moves to the position of the charging stand 200 according to the infrared signal transmitted from the charging stand 200 and docks the charging stand 200. By the docking, charging is performed between the charging terminal 133 of the mobile robot 100 and the charging terminal 210 of the charging table 200.

영상획득부(120)는 주행구역을 촬영하는 것으로, 디지털 카메라를 포함할 수 있다. 디지털 카메라는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를들어, pixel)를 포함하여 구성된 이미지센서(예를들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.The image acquisition unit 120 photographs a driving area, and may include a digital camera. The digital camera includes at least one optical lens and an image sensor (eg, CMOS image sensor) comprising a plurality of photodiodes (eg, pixels) formed by light passing through the optical lens, A digital signal processor (DSP) that composes an image based on the signal output from the photodiodes may be included. The digital signal processor can generate not only a still image but also a moving image composed of frames composed of still images.

바람직하게, 영상획득부(120)는 본체(110)의 상면부에 구비되어, 주행구역 내의 천장에 대한 영상을 획득하나, 영상획득부(120)의 위치와 촬영범위가 반드시 이에 한정되어야 하는 것은 아니다. 예를들어, 영상획득부(120)는 본체(110) 전방의 영상을 획득하도록 구비될 수도 있다.Preferably, the image acquisition unit 120 is provided on the upper surface of the main body 110 to acquire an image of the ceiling in the driving area, but the location and the shooting range of the image acquisition unit 120 must be limited to this no. For example, the image acquisition unit 120 may be provided to acquire an image in front of the main body 110.

또한, 이동 로봇(100)은 전방의 장애물을 감지하는 장애물 감지센서(131)를 더 포함할 수 있다. 이동 로봇(100)은 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서(132)와, 바닥의 영상을 획득하는 하부 카메라 센서(139)를 더 포함할 수 있다. In addition, the mobile robot 100 may further include an obstacle detection sensor 131 for detecting an obstacle ahead. The mobile robot 100 may further include a cliff detection sensor 132 that detects the presence of a cliff on the floor in the driving area, and a lower camera sensor 139 that acquires an image of the floor.

또한, 이동 로봇(100)은 On/Off 또는 각종 명령을 입력할 수 있는 입력부(137)를 포함한다. 입력부(137)를 통해 이동 로봇(100)의 작동 전반에 필요한 각종 제어명령 및 음향 등을 입력받을 수 있다. 또한, 이동 로봇(100)은 출력부(180)를 포함하여, 예약 정보, 배터리 상태, 동작모드, 동작상태, 에러상태 등을 표시할 수 있다. In addition, the mobile robot 100 includes an input unit 137 capable of inputting On/Off or various commands. Through the input unit 137, various control commands and sounds required for the overall operation of the mobile robot 100 can be received. In addition, the mobile robot 100 may include an output unit 180, display reservation information, battery status, operation mode, operation status, error status, and the like.

도 5는 본 발명의 일 실시예에 따른 이동 로봇의 구성 요소를 설명하기 위한 블록도이다.5 is a block diagram illustrating components of a mobile robot according to an embodiment of the present invention.

도 5를 참조하면, 이동 로봇(100)은, 영상획득부(120), 입력부(137), 제어부(140), 저장부(150), 주행부(160), 청소부(170), 출력부(180), 및 통신부(190)를 포함할 수 있다.5, the mobile robot 100 includes an image acquisition unit 120, an input unit 137, a control unit 140, a storage unit 150, a driving unit 160, a cleaning unit 170, an output unit ( 180), and a communication unit 190.

이동 로봇(100)은, 통신부(190)를 통하여, 리모컨(미도시) 또는 이동 단말기(미도시)가 전송하는 동작에 대한 명령을 수신할 수 있다. The mobile robot 100 may receive a command for an operation transmitted by a remote controller (not shown) or a mobile terminal (not shown) through the communication unit 190.

이동 단말기는 이동 로봇(100)을 제어하기 위한 어플리케이션을 구비하고, 어플리케이션의 실행을 통해 이동 로봇(100)이 청소할 주행구역에 대한 맵을 표시하고, 맵 상에 특정 영역을 청소하도록 영역을 지정할 수 있다. 이동 단말기는 맵 설정을 위한 어플리케이션(application)이 탑재된 리모콘, PDA, 랩탑(laptop), 스마트 폰, 태블릿 등을 예로 들 수 있다.The mobile terminal has an application for controlling the mobile robot 100, and through execution of the application, the mobile robot 100 displays a map for a driving area to be cleaned, and designates an area to clean a specific area on the map. have. The mobile terminal may be, for example, a remote control, PDA, laptop, smart phone, tablet, etc., which are equipped with an application for setting a map.

이동 단말기는 이동 로봇(100)과 통신하여, 맵과 함께 이동 로봇의 현재 위치를 표시할 수 있으며, 복수의 영역에 대한 정보가 표시될 수 있다. 또한, 이동 단말기는 이동 로봇의 주행에 따라 그 위치를 갱신하여 표시한다.The mobile terminal may communicate with the mobile robot 100 to display the current location of the mobile robot together with a map, and information on a plurality of areas may be displayed. In addition, the mobile terminal updates and displays its position according to the movement of the mobile robot.

제어부(140)는 이동 로봇(100)을 구성하는 영상획득부(120), 입력부(137), 주행부(160)를 제어하여, 이동 로봇(100)의 동작 전반을 제어한다. The control unit 140 controls the image acquisition unit 120, the input unit 137, and the driving unit 160 constituting the mobile robot 100 to control the overall operation of the mobile robot 100.

저장부(150)는 이동 로봇(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 기록 매체는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.The storage unit 150 records various information necessary for the control of the mobile robot 100, and may include a volatile or nonvolatile recording medium. The recording medium stores data that can be read by a microprocessor, and includes a hard disk drive (HDD), solid state disk (SSD), silicon disk drive (SDD), ROM, RAM, CD-ROM, magnetic Tapes, floppy disks, optical data storage devices, and the like.

저장부(150)에는 주행구역에 대한 맵(Map)이 저장될 수 있다. 맵은 이동 로봇(100)과 유선 또는 무선 통신을 통해 정보를 교환할 수 있는 이동 단말기에 의해 입력된 것일 수도 있고, 이동 로봇(100)이 스스로 학습을 하여 생성한 것일 수도 있다. A map for the driving area may be stored in the storage unit 150. The map may be input by a mobile terminal capable of exchanging information with the mobile robot 100 through wired or wireless communication, or may be generated by the mobile robot 100 learning by itself.

맵에는 주행구역 내의 방들의 위치가 표시될 수 있다. 또한, 이동 로봇(100)의 현재 위치가 맵 상에 표시될 수 있으며, 맵 상에서의 이동 로봇(100)의 현재의 위치는 주행 과정에서 갱신될 수 있다. 이동 단말기는 저장부(150)에 저장된 맵과 동일한 맵을 저장한다. The location of the rooms in the driving zone may be displayed on the map. In addition, the current position of the mobile robot 100 may be displayed on the map, and the current position of the mobile robot 100 on the map may be updated in the driving process. The mobile terminal stores the same map as the map stored in the storage unit 150.

제어부(140)는, 이동 로봇(100)의 주행 제어 중, 청소부(170)를 가동시킴으로써, 이동 로봇(100) 주변의 먼지 또는 이물질이 흡수되도록 할 수 있다. 이 경우, 청소부(170)에 구비된 브러쉬(미도시)가 구동되어 이동 로봇(100) 주변의 먼지 또는 이물질을 흡입되기 용이한 상태로 만들수 있다. 청소부(170)에 구비된 흡입장치(미도시)는 먼지 또는 이물질을 흡입할 수 있다.The control unit 140 may allow dust or foreign substances around the mobile robot 100 to be absorbed by operating the cleaning unit 170 during the travel control of the mobile robot 100. In this case, a brush (not shown) provided in the cleaning unit 170 may be driven to make dust or foreign substances around the mobile robot 100 easily inhaled. A suction device (not shown) provided in the cleaning unit 170 may suck dust or foreign substances.

제어부(140)는, 이동 로봇(100)이 주행부(160)에 의하여 특정 영역으로 이동하면서 청소를 수행하도록 제어할 수 있다.The control unit 140 may control the mobile robot 100 to perform cleaning while moving to a specific area by the driving unit 160.

제어부(140)는 주행제어모듈(141), 구역구분모듈(142), 학습모듈(143) 및 인식모듈(144)을 포함할 수 있다.The control unit 140 may include a driving control module 141, a zone classification module 142, a learning module 143, and a recognition module 144.

주행제어모듈(141)은 이동 로봇(100)의 주행을 제어하는 것으로, 주행 설정에 따라 주행부(160)의 구동을 제어한다. 또한, 주행제어모듈(141)은 주행부(160)의 동작을 바탕으로 이동 로봇(100)의 이동 경로를 파악할 수 있다. 예를 들어, 주행제어모듈(141)은 구동 바퀴(136)의 회전속도를 바탕으로 이동 로봇(100)의 현재 또는 과거의 이동속도, 주행한 거리 등을 파악할 수 있으며, 각 구동 바퀴(136(L), 136(R))의 회전 방향에 따라 현재 또는 과거의 방향 전환 과정 또한 파악할 수 있다. 이렇게 파악된 이동 로봇(100)의 주행 정보를 바탕으로, 맵 상에서 이동 로봇(100)의 위치가 갱신될 수 있다. The driving control module 141 controls driving of the mobile robot 100 and controls driving of the driving unit 160 according to the driving setting. In addition, the driving control module 141 may grasp the movement path of the mobile robot 100 based on the operation of the driving unit 160. For example, the driving control module 141 may determine the current or past moving speed of the mobile robot 100, the distance traveled, etc., based on the rotational speed of the driving wheel 136, and each driving wheel 136 ( L), 136 (R)) according to the rotation direction of the current or past direction change process can also be grasped. Based on the driving information of the mobile robot 100 thus identified, the location of the mobile robot 100 on the map may be updated.

구역구분모듈(142)은 소정 기준에 따라 주행구역을 복수의 구역으로 구분할 수 있다. 주행구역은 이동 로봇(100)이 주행 경험이 있는 모든 평면상의 구역 및 현재 주행하고 있는 평면상의 구역을 모두 합한 범위로 정의될 수 있다. The zone classification module 142 may divide the driving zone into a plurality of zones according to a predetermined criterion. The driving area may be defined as a range in which all the areas on the plane where the mobile robot 100 has experienced driving and the areas on the plane currently running are summed.

구역구분모듈(142)은 주행구역을 복수의 소구역으로 구분하며, 소구역은 주행구역 내의 각 실(방)을 근거로 구분될 수 있다. 또한, 구역구분모듈(142)은 주행구역을 주행능력상 서로 분리된 복수의 대구역으로 구분할 수 있다. 예를 들면, 서로 동선상 완전히 분리된 두개의 실내공간은 각각 두개의 대구역으로 구분될 수 있다. 다른 예로, 같은 실내 공간이라 하더라도, 상기 대구역은 주행구역 내의 각 층을 근거로 구분될 수 있다. The zone classification module 142 divides the driving zone into a plurality of small zones, and the small zone can be divided based on each room (room) in the driving zone. In addition, the zone classification module 142 may divide the driving zone into a plurality of large zones separated from each other due to driving capability. For example, two interior spaces completely separated from each other can be divided into two large areas. As another example, even in the same indoor space, the large area may be classified based on each floor in the driving area.

학습모듈(143)은 주행구역의 맵을 생성할 수 있다. 또한, 학습모듈(143)은 각 위치에서 영상획득부(120)를 통해 획득한 영상을 처리하여 맵과 연계시켜 전역위치를 인식한다.The learning module 143 may generate a map of the driving area. In addition, the learning module 143 processes the image acquired through the image acquisition unit 120 at each location and recognizes the global location in association with the map.

인식모듈(144)은 현재 위치를 추정하여 인식한다. 인식모듈(144)은 영상획득부(120)의 영상 정보를 이용하여 학습모듈(143)과 연계하여 위치를 파악함으로써, 이동 로봇(100)의 위치가 갑자기 변경되는 경우에도 현재 위치를 추정하여 인식할 수 있다.The recognition module 144 estimates and recognizes the current location. The recognition module 144 uses the image information of the image acquisition unit 120 to grasp the position in connection with the learning module 143, thereby estimating and recognizing the current position even when the position of the mobile robot 100 suddenly changes. can do.

이동 로봇(100)은 구역구분모듈(142)을 통해 연속적인 주행 중에 위치 인식이 가능하고 또한, 구역구분모듈(142) 없이 학습모듈(143) 및 인식모듈(144)을 통해, 맵을 학습하고 현재 위치를 추정할 수 있다. The mobile robot 100 can recognize the position during continuous driving through the zone classification module 142, and also learns the map through the learning module 143 and the recognition module 144 without the zone classification module 142. You can estimate your current location.

이동 로봇(100)이 주행하는 중에, 영상획득부(120)는 이동 로봇(100) 주변의 영상들을 획득한다. 이하, 영상획득부(120)에 의해 획득된 영상을 '획득영상'이라고 정의한다. 획득영상에는 천장에 위치하는 조명들, 경계(edge), 코너(corner), 얼룩(blob), 굴곡(ridge) 등의 여러가지 특징(feature)들이 포함된다. While the mobile robot 100 is running, the image acquisition unit 120 acquires images around the mobile robot 100. Hereinafter, an image acquired by the image acquisition unit 120 is defined as an'acquisition image'. The acquired image includes various features such as lights located on the ceiling, edges, corners, blobs, and ridges.

학습모듈(143)은 획득영상들 각각으로부터 특징을 검출한다. 컴퓨터 비전(Computer Vision) 기술 분야에서 영상으로부터 특징을 검출하는 다양한 방법(Feature Detection)이 잘 알려져 있다. 이들 특징의 검출에 적합한 여러 특징검출기(feature detector)들이 알려져 있다. 예를들어, Canny, Sobel, Harris&Stephens/Plessey, SUSAN, Shi&Tomasi, Level curve curvature, FAST, Laplacian of Gaussian, Difference of Gaussians, Determinant of Hessian, MSER, PCBR, Grey-level blobs 검출기 등이 있다.The learning module 143 detects features from each of the acquired images. In the field of computer vision, various methods of detecting features from an image are well known. Several feature detectors suitable for the detection of these features are known. Examples include Canny, Sobel, Harris&Stephens/Plessey, SUSAN, Shi&Tomasi, Level curve curvature, FAST, Laplacian of Gaussian, Difference of Gaussians, Determinant of Hessian, MSER, PCBR, Grey-level blobs detectors.

학습모듈(143)은 각 특징점을 근거로 디스크립터를 산출한다. 학습모듈(143)은 특징 검출을 위해 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 특징점을 디스크립터(descriptor)로 변환할 수 있다. 디스크립터는 n차원 벡터(vector)로 표기될 수 있다.The learning module 143 calculates a descriptor based on each feature point. The learning module 143 may transform a feature point into a descriptor using a Scale Invariant Feature Transform (SIFT) technique for feature detection. The descriptor may be expressed as an n-dimensional vector.

SIFT는 촬영 대상의 스케일(scale), 회전, 밝기변화에 대해서 불변하는 특징을 검출할 수 있어, 같은 영역을 이동 로봇(100)의 자세를 달리하며 촬영하더라도 불변하는(즉, 회전 불변한(Rotation-invariant)) 특징을 검출할 수 있다. 물론, 이에 한정되지 않고 다른 다양한 기법(예를들어, HOG: Histogram of Oriented Gradient, Haar feature, Fems, LBP:Local Binary Pattern, MCT:Modified Census Transform)들이 적용될 수도 있다.SIFT can detect characteristics that are invariant with respect to scale, rotation, and brightness changes of the object to be photographed. -invariant)) feature. Of course, it is not limited thereto, and various other techniques (for example, Histogram of Oriented Gradient, Haar feature, Fems, LBP:Local Binary Pattern, MCT:Modified Census Transform) may be applied.

학습모듈(143)은 각 위치의 획득영상을 통해 얻은 디스크립터 정보를 바탕으로, 획득영상마다 적어도 하나의 디스크립터를 소정 하위 분류규칙에 따라 복수의 군으로 분류하고, 소정 하위 대표규칙에 따라 같은 군에 포함된 디스크립터들을 각각 하위 대표 디스크립터로 변환할 수 있다.The learning module 143 classifies at least one descriptor for each acquired image into a plurality of groups according to predetermined sub-classification rules based on descriptor information obtained through the acquired images of each location, and to the same group according to predetermined sub-representation rules. The included descriptors can be converted into sub-representative descriptors, respectively.

다른 예로, 실(room)과 같이 소정 구역내의 획득영상 들로부터 모인 모든 디스크립터를 소정 하위 분류규칙에 따라 복수의 군으로 분류하여 상기 소정 하위 대표규칙에 따라 같은 군에 포함된 디스크립터들을 각각 하위 대표 디스크립터로 변환할 수도 있다. As another example, all descriptors collected from acquired images in a predetermined region such as a room are classified into a plurality of groups according to a predetermined sub-classification rule, and the descriptors included in the same group are sub-representative descriptors according to the predetermined sub-representation rule. You can also convert to

학습모듈(143)은 이 같은 과정을 거쳐, 각 위치의 특징분포를 구할 수 있다. 각 위치 특징분포는 히스토그램 또는 n차원 벡터로 표현될 수 있다. 또 다른 예로, 학습모듈(143)은 소정 하위 분류규칙 및 소정 하위 대표규칙을 거치지 않고, 각 특징점으로부터 산출된 디스크립터를 바탕으로 미지의 현재위치를 추정할 수 있다. The learning module 143 may obtain the feature distribution of each location through this process. Each location feature distribution can be expressed as a histogram or an n-dimensional vector. As another example, the learning module 143 may estimate an unknown current location based on a descriptor calculated from each feature point without going through a predetermined sub-classification rule and a predetermined sub-representation rule.

학습모듈(143)은 위치 도약 등의 이유로 이동 로봇(100)의 현재 위치가 미지의 상태가 된 경우에, 기 저장된 디스크립터 또는 하위 대표 디스크립터 등의 데이터를 근거로 현재 위치를 추정할 수 있다. The learning module 143 may estimate the current position based on data such as a previously stored descriptor or a sub-representative descriptor when the current position of the mobile robot 100 is unknown due to a location jump or the like.

이동 로봇(100)은, 미지의 현재 위치에서 영상획득부(120)를 통해 획득영상을 획득한다. 영상을 통해 천장에 위치하는 조명들, 경계(edge), 코너(corner), 얼룩(blob), 굴곡(ridge) 등의 여러가지 특징(feature)들이 확인된다.The mobile robot 100 acquires the acquired image through the image acquisition unit 120 at an unknown current location. Through the image, various features such as lights, edges, corners, blobs, and ridges located on the ceiling are identified.

인식모듈(144)은 획득영상으로부터 특징들을 검출한다. 컴퓨터 비전 기술 분야에서 영상으로부터 특징을 검출하는 다양한 방법 및 이들 특징의 검출에 적합한 여러 특징검출기들에 대한 설명은 상기한 바와 같다.The recognition module 144 detects features from the acquired image. Descriptions of various methods for detecting features from an image in the field of computer vision technology and various feature detectors suitable for detecting these features are as described above.

인식모듈(144)은 각 인식 특징점을 근거로 인식 디스크립터 산출단계를 거쳐 인식 디스크립터를 산출한다. 이때 인식 특징점 및 인식 디스크립터는 인식모듈(144)에서 수행하는 과정을 설명하기 위한 것으로 학습모듈(143)에서 수행하는 과정을 설명하는 용어와 구분하기 위한 것이다. 다만, 이동 로봇(100)의 외부 세계의 특징이 각각 다른 용어로 정의되는 것에 불과하다. The recognition module 144 calculates a recognition descriptor through a recognition descriptor calculation step based on each recognition feature point. At this time, the recognition feature points and the recognition descriptor are for explaining the process performed by the recognition module 144 and are to be distinguished from terms describing the process performed by the learning module 143. However, the characteristics of the external world of the mobile robot 100 are only defined in different terms.

인식모듈(144)은 본 특징 검출을 위해 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 인식 특징점을 인식 디스크립터로 변환할 수 있다. 인식 디스크립터는 n차원 벡터(vector)로 표기될 수 있다. The recognition module 144 may convert a recognition feature point into a recognition descriptor by using a Scale Invariant Feature Transform (SIFT) technique for detecting this feature. The recognition descriptor may be expressed as an n-dimensional vector.

SIFT는 앞서 설명한 바와 같이, 획득영상에서 코너점 등 식별이 용이한 특징점을 선택한 후, 각 특징점 주변의 일정한 구역에 속한 픽셀들의 밝기 구배(gradient)의 분포 특성(밝기 변화의 방향 및 변화의 급격한 정도)에 대해, 각 방향에 대한 변화의 급격한 정도를 각 차원에 대한 수치로 하는 n차원 벡터(vector)를 구하는 영상인식기법이다. As described above, SIFT selects feature points that are easily identified, such as corner points, in the acquired image, and then distribution characteristics of the brightness gradient of pixels belonging to a certain area around each feature point (direction of change and direction of change in brightness) ), it is an image recognition technique that finds an n-dimensional vector whose steepness of change in each direction is a numerical value for each dimension.

인식모듈(144)은 미지의 현재 위치의 획득영상을 통해 얻은 적어도 하나의 인식 디스크립터 정보를 근거로, 소정 하위 변환규칙에 따라 비교대상이 되는 위치 정보(예를 들면, 각 위치의 특징분포)와 비교 가능한 정보(하위 인식 특징분포)로 변환한다.The recognition module 144 is based on at least one recognition descriptor information obtained through the acquired image of the unknown current location, and location information (for example, feature distribution of each location) to be compared according to a predetermined sub-conversion rule. Convert to comparable information (sub-recognition feature distribution).

소정 하위 비교규칙에 따라, 각각의 위치 특징분포를 각각의 인식 특징분포와 비교하여 각각의 유사도를 산출할 수 있다. 각각의 위치에 해당하는 상기 위치 별로 유사도(확률)를 산출하고, 그 중 가장 큰 확률이 산출되는 위치를 현재위치로 결정할 수 있다.According to a predetermined sub-comparison rule, each location feature distribution can be compared with each recognition feature distribution to calculate each degree of similarity. Similarity (probability) may be calculated for each location corresponding to each location, and a location in which the greatest probability is calculated may be determined as the current location.

이와 같이, 제어부(140)는 주행구역을 구분하고 복수의 영역으로 구성된 맵을 생성하거나, 기 저장된 맵을 바탕으로 본체(110)의 현재 위치를 인식할 수 있다. As such, the control unit 140 may classify the driving area and generate a map composed of a plurality of regions, or recognize the current location of the main body 110 based on the pre-stored map.

제어부(140)는 맵이 생성되면, 생성된 맵을 통신부(190)를 통해 이동 단말기로 전송한다. 또한, 제어부(140)는 앞서 설명한 바와 같이, 이동 단말기로부터 맵이 수신되면, 저장부(150)에 저장할 수 있다. When the map is generated, the control unit 140 transmits the generated map to the mobile terminal through the communication unit 190. In addition, as described above, the control unit 140 may store the map in the storage unit 150 when a map is received from the mobile terminal.

또한 제어부(140)는 주행 중 맵이 갱신되는 경우 갱신된 정보를 후술할 이동 단말기(200)로 전송하여 이동 단말기(200)와 이동 로봇(100)에 저장되는 맵이 동일하도록 한다. 이동 단말기와 이동 로봇(100)에 저장된 맵이 동일하게 유지됨에 따라 이동 단말기로부터의 청소명령에 대하여, 이동 로봇(100)이 지정된 영역을 청소할 수 있으며, 또한, 이동 단말기(200)에 이동 로봇의 현재 위치가 표시될 수 있도록 하기 위함이다. In addition, when the map is updated while driving, the controller 140 transmits the updated information to the mobile terminal 200 to be described later so that the map stored in the mobile terminal 200 and the mobile robot 100 are the same. As the map stored in the mobile terminal and the mobile robot 100 remains the same, the mobile robot 100 can clean the designated area with respect to the cleaning command from the mobile terminal. This is to enable the current location to be displayed.

이때, 맵은 청소 영역을 복수의 영역으로 구분되고, 복수의 영역을 연결하는 연결통로가 포함하며, 영역 내의 장애물에 대한 정보를 포함한다. 청소 영역에 대한 구분은, 앞서 설명한 바와 같이 구역구분모듈(142)에 의해 소영역 및 대영역으로 구분된다. At this time, the map is divided into a plurality of areas, the cleaning area includes a connection passage connecting the plurality of areas, and includes information on obstacles in the area. The division of the cleaning area is divided into a small area and a large area by the area classification module 142 as described above.

제어부(140)는 청소명령이 입력되면, 맵 상의 위치와 이동 로봇의 현재위치가 일치하는지 여부를 판단한다. 청소명령은 리모컨, 입력부 또는 이동 단말기로부터 입력될 수 있다. When a cleaning command is input, the control unit 140 determines whether the location on the map and the current location of the mobile robot match. The cleaning command may be input from a remote control, an input unit or a mobile terminal.

제어부(140)는 현재 위치가 맵 상의 위치와 일치하지 않는 경우, 또는 현재 위치를 확인할 수 없는 경우, 현재 위치를 인식하여 이동 로봇(100)의 현재 위치를 복구한 한 후, 현재 위치를 바탕으로 지정영역으로 이동하도록 주행한다. If the current location does not match the location on the map, or if it is not possible to check the current location, the controller 140 recognizes the current location and restores the current location of the mobile robot 100, based on the current location Drive to move to the designated area.

현재 위치가 맵 상의 위치와 일치하지 않는 경우 또는 현재 위치를 확인할 수 없는 경우, 인식모듈(144)은 영상획득부(120)로부터 입력되는 획득영상을 분석하여 맵을 바탕으로 현재 위치를 추정할 수 있다. 또한, 구역구분모듈(142) 또는 학습모듈(143) 또한, 앞서 설명한 바와 같이 현재 위치를 인식할 수 있다. If the current location does not match the location on the map or if the current location cannot be confirmed, the recognition module 144 may analyze the acquired image input from the image acquisition unit 120 to estimate the current location based on the map. have. In addition, the zone classification module 142 or the learning module 143 may also recognize the current location as described above.

위치를 인식하여 이동 로봇(100)의 현재 위치를 복구한 후, 주행제어모듈(141)은 현재 위치로부터 지정영역으로 이동 경로를 산출하고 주행부(160)를 제어하여 지정영역으로 이동한다.After recognizing the position and restoring the current position of the mobile robot 100, the driving control module 141 calculates a movement path from the current position to the designated area and controls the driving unit 160 to move to the designated area.

이동 단말기로부터 복수의 영역 중, 적어도 하나의 영역이 선택되는 경우, 주행제어모듈(141)은 선택된 영역을 지정영역으로 설정하고, 이동 경로를 산출한다. 주행제어모듈(141)은 지정영역 이동 후, 청소를 수행한다. When at least one area is selected from a plurality of areas from the mobile terminal, the driving control module 141 sets the selected area as a designated area and calculates a movement route. The driving control module 141 performs cleaning after moving the designated area.

한편, 복수의 영역이 지정영역으로 선택된 경우, 주행제어모듈(141)은 복수의 영역 중 우선영역이 설정되었는지 여부 또는 선택된 복수의 지정영역에 대한 청소순서가 설정되었는지 여부를 판단한 후, 지정영역으로 이동하여 청소를 수행한다. On the other hand, when a plurality of areas are selected as the designated area, the driving control module 141 determines whether a priority area is set among the plurality of areas or whether a cleaning order for the selected plurality of areas is set, and then moves to the designated area. Move to perform cleaning.

주행제어모듈(141)은 복수의 지정영역 중 어느 하나가 우선영역으로 설정된 경우, 복수의 지정영역 중 우선영역으로 이동하여, 우선영역을 제일 먼저 청소한 후 나머지 지정영역으로 이동하여 청소하도록 한다. 또한, 지정영역에 대한 청소순서가 설정된 경우 주행제어모듈(141)은 지정된 청소순서에 따라 지정영역을 순차적으로 이동하면서 청소를 수행한다. When any one of the plurality of designated areas is set as the priority area, the driving control module 141 moves to the priority area among the plurality of designated areas, cleans the priority area first, and then moves to the remaining designated areas for cleaning. In addition, when the cleaning order for the designated area is set, the driving control module 141 performs cleaning while sequentially moving the designated area according to the specified cleaning order.

또한, 주행제어모듈(141)은 맵 상의 복수의 영역에 대한 구분에 관계없이 새롭게 임의의 영역이 설정되는 경우, 설정된 지정영역으로 이동하여 청소를 수행하도록 한다. Also, the driving control module 141 moves to the designated designated area and performs cleaning when a new random area is set regardless of the division of a plurality of areas on the map.

제어부(140)는 설정된 지정영역에 대한 청소가 완료되면, 청소기록을 저장부(150)에 저장한다. When the cleaning of the set designated area is completed, the control unit 140 stores the cleaning record in the storage unit 150.

제어부(140)는 통신부(190)를 통해 이동 로봇(100)의 동작상태 또는 청소상태를 소정 주기로 이동 단말기로 전송한다. 그에 따라 이동 단말기는 수신되는 데이터를 바탕으로, 실행중인 어플리케이션의 화면상에 맵과 함게 이동 로봇의 위치를 표시하고, 또한 청소상태에 대한 정보를 출력한다.The control unit 140 transmits the operation state or the cleaning state of the mobile robot 100 to the mobile terminal at a predetermined cycle through the communication unit 190. Accordingly, the mobile terminal displays the location of the mobile robot along with the map on the screen of the running application based on the received data, and also outputs information about the cleaning state.

이동 단말기(200)의 제어부는, 이동 단말기(200)에 포함된 각종 유닛을 제어할 수 있다. 상기 이동 단말기(200)의 제어부는, 통신부를 통하여 이동하면서 청소를 수행하는 이동 로봇(100)과 통신을 수행할 수 있다. 이동 단말기(200)는 이동 로봇(100)과 블루투스, 와이파이, Zigbee, 등과 같은 무선 통신 방식, 또는 케이블 연결을 통한 유선 통신 방식으로 통신을 수행할 수 있다. The control unit of the mobile terminal 200 may control various units included in the mobile terminal 200. The control unit of the mobile terminal 200 may communicate with the mobile robot 100 that performs cleaning while moving through the communication unit. The mobile terminal 200 may communicate with the mobile robot 100 using a wireless communication method such as Bluetooth, Wi-Fi, Zigbee, or a wired communication method through a cable connection.

제어부는, 입력부 및 출력부를 통하여, 사용자의 입력을 수신하고, 각종 영상 및 음향을 출력할 수 있다. 이동 단말기(200)는 입력부와 출력부를 겸용할 수 있는 터치스크린을 구비할 수 있다.The control unit may receive a user input through the input unit and the output unit, and output various images and sounds. The mobile terminal 200 may be provided with a touch screen that can be used as an input unit and an output unit.

입력부(137)는, 외부의 다양한 음향을 수신할 수 있다. 사용자의 음성을 인식하여 이를 바탕으로 이동 로봇(100)을 제어할 수 있으며, 이동 단말기(200)에서 발생하는 다양한 음향을 인식하고, 이를 바탕으로 이동 단말기(200)의 위치를 판단하여 이동 단말기 위치로 이동할 수 있다. 이러한 음성 인식 및 이동 기능은 이동 단말기에 제한되지 않으며, 송수신 가능한 기타 다양한 장비들에서 출력되는 음성을 인식하고, 장비들의 위치를 파악한 뒤, 상기 장비의 설치 위치로 이동하도록 할 수도 있다.The input unit 137 may receive various external sounds. Based on this, the mobile robot 100 can be controlled by recognizing a user's voice, and various sounds generated by the mobile terminal 200 are recognized, and the location of the mobile terminal 200 is determined based on the sound. Can move to The voice recognition and movement function is not limited to a mobile terminal, and may recognize a voice output from various other devices that can be transmitted and received, identify a location of the equipment, and then move to an installation location of the equipment.

통신부(190)는, 이동 단말기(200)와의 송수신을 통해, 사용자가 이동 단말기(200)를 통한 이동 로봇(100)의 제어를 가능케 한다. 또한 이동 로봇(100)이 가지고 있는 맵 정보 및 기타 이동 로봇(100)의 청소부, 주행부의 기능 수행에 대하여 저장부(150)에 저장되었던 데이터를 이동 단말기(200)로 송신함으로써, 사용자가 이동 단말기(200)를 통해 이동 로봇(100)의 주행, 청소, 기타 이동 로봇의 기능과 관련된 전반적인 내용을 확인하고, 제어할 수 있도록 한다.The communication unit 190 enables a user to control the mobile robot 100 through the mobile terminal 200 through transmission and reception with the mobile terminal 200. In addition, by transmitting the data stored in the storage unit 150 for performing the functions of the cleaning unit and the traveling unit of the mobile robot 100 and other map information possessed by the mobile robot 100, the user can move the mobile terminal 200. Through 200, it is possible to check and control the overall contents related to the driving, cleaning, and other functions of the mobile robot 100.

출력부(180)는, 영상을 출력하는 디스플레이부(미도시) 및 음향을 출력하는 음향 출력부(180)를 포함할 수 있다. 예를 들어, 음향 출력부(180)는 스피커일 수 있다.The output unit 180 may include a display unit (not shown) for outputting an image and an audio output unit 180 for outputting sound. For example, the sound output unit 180 may be a speaker.

제어부(140)는, 출력부(180)를 통하여 다양한 알람 음향을 출력할 수 있다. 이 경우, 사용자는, 음향 출력부(180)를 통하여 출력되는 알람 음향을 들을 수 있다. The control unit 140 may output various alarm sounds through the output unit 180. In this case, the user can hear the alarm sound output through the sound output unit 180.

이때 출력부(180)를 통해 출력되는 알람 음향은 사람의 음성으로 표현될 수도 있고, 다양한 장르의 음악 및 멜로디로 표현될 수도 있다.At this time, the alarm sound output through the output unit 180 may be expressed as a human voice, or may be expressed as music and melody of various genres.

사용자는, 이동 로봇의 출력부(180)를 통해 출력되는 알람 신호의 음향 종류를 선택할 수 있다. 이동 로봇(100)은, 음향을 변경하기 위하여 사용자가 입력하는 변경 명령 및 저장부(150)에 저장된 음향 데이터에 기초하여, 자동으로 알람 신호 음향을 변경할 수 있다.The user can select the type of sound of the alarm signal output through the output unit 180 of the mobile robot. The mobile robot 100 may automatically change the alarm signal sound based on a change command input by a user to change the sound and sound data stored in the storage unit 150.

이동 단말기(200)의 제어부는, 이동 로봇(100)을 제어하기 위한 어플리케이션을 구비할 수 있다. 이동 단말기(200)의 제어부는, 이동 로봇(100)을 제어하기 위한 어플리케이션이 실행되는 경우, 이동 단말기(200)의 입력부를 통하여 이동 로봇(100)을 제어하기 위한 각종 사용자의 명령을 수신할 수 있다. The control unit of the mobile terminal 200 may include an application for controlling the mobile robot 100. When the application for controlling the mobile robot 100 is executed, the control unit of the mobile terminal 200 may receive various user commands for controlling the mobile robot 100 through the input unit of the mobile terminal 200. have.

본 발명의 일 실시예에 따라 도 6을 참조하면, 이동 로봇(100)의 제어부(140)는, 통신부(190)를 통하여, 이동 단말기(200)가 전송하는 맵 정보를 수신할 수 있다. 제어부(140)가 주행 구역을 구분하고 복수의 영역으로 구성된 맵을 생성하거나, 저장된 맵에 대한 정보를 통신부(190)를 통해 이동 단말기(200)로 송신하면, 사용자는 상기 이동 단말기(200)를 통해 확인할 수 있는 상기 전송된 맵 정보를 바탕으로 사용자가 원하는 위치를 지정할 수 있다.Referring to FIG. 6 according to an embodiment of the present invention, the control unit 140 of the mobile robot 100 may receive map information transmitted by the mobile terminal 200 through the communication unit 190. When the control unit 140 divides the driving area and generates a map composed of a plurality of regions, or transmits information about the stored map to the mobile terminal 200 through the communication unit 190, the user sends the mobile terminal 200. Based on the transmitted map information that can be checked through, a user may designate a desired location.

사용자가 지정한 위치 정보는, 이동 로봇(100)의 통신부(190)를 통해 이동 로봇(100)으로 전달되고, 상기 이동 로봇(100)은, 기 저장된 맵 정보를 바탕으로, 사용자가 이동 단말기(200)를 통해 지정한 위치로 이동할 수 있다. 사용자가 지정한 위치로 이동한 후, 이동 로봇(100)은, 출력부(180)를 통하여 알람 신호를 출력할 수 있다.The location information specified by the user is transmitted to the mobile robot 100 through the communication unit 190 of the mobile robot 100, and the mobile robot 100 is based on the pre-stored map information, so that the user can move the mobile terminal 200. ) To move to the specified location. After moving to the location designated by the user, the mobile robot 100 may output an alarm signal through the output unit 180.

이동 로봇(100)의 입력부(137)는, 외부의 다양한 음향을 인식할 수 있다. 본 발명의 다른 실시예에 따라 도 7을 참조하면, 사용자가 이동 단말기(200)를 통한 알람을 설정한 후, 사용자가 지정한 시간에 이동 단말기(200)로부터 알람 신호가 출력될 수 있다. 이때, 이동 로봇(100)의 입력부(137)는 상기 이동 단말기(200)로부터 출력되는 알람 신호를 인식하고, 기 저장된 맵 정보를 바탕으로 통신부(190)를 통해 상기 이동 단말기(200)의 현재 위치 정보를 전달받을 수 있다. The input unit 137 of the mobile robot 100 may recognize various external sounds. Referring to FIG. 7 according to another embodiment of the present invention, after a user sets an alarm through the mobile terminal 200, an alarm signal may be output from the mobile terminal 200 at a time specified by the user. At this time, the input unit 137 of the mobile robot 100 recognizes the alarm signal output from the mobile terminal 200, and the current location of the mobile terminal 200 through the communication unit 190 based on pre-stored map information. Information can be delivered.

이를 통해, 이동 로봇(100)은 상기 이동 단말기(200)가 위치한 장소로 이동한 후, 이동 단말기(200)와 함께 알람 신호를 출력하여, 사용자가, 평상시 사용자의 옷이나 가방 기타 사용자와 가까운 위치에서 기능하는 이동 단말기(200)의 알람 기능과 함께 다양한 루트를 통해 알람 신호를 전달받을 수 있다. Through this, the mobile robot 100 moves to the place where the mobile terminal 200 is located, and outputs an alarm signal together with the mobile terminal 200, so that the user is normally close to the user's clothes, bags, or other users. In addition to the alarm function of the mobile terminal 200 functioning in the alarm signal may be transmitted through various routes.

또한 사용자가 이동 단말기(200)를 소지하고 이동할 시에도, 이동 로봇(100)이 이동 단말기(200)의 위치를 파악하고, 이를 통해 사용자의 위치 또한 알수 있으므로, 이동 로봇(100)이 사용자가 위치하는 장소로 이동 후 독자적으로 알람 신호를 출력하여, 사용자가 알람 신호를 인식하도록 할 수 있다.Also, even when the user carries the mobile terminal 200 and moves, the mobile robot 100 recognizes the location of the mobile terminal 200 and through this, the user's location is also known, so that the mobile robot 100 is positioned by the user. After moving to a place, an alarm signal can be independently output to allow the user to recognize the alarm signal.

본 발명의 또 다른 실시예에 따라 도 8을 참조하면, 사용자는 이동 로봇(100)의 입력부(137)를 통해 알람이 필요한 시간을 입력할 수 있다. 지정 시간이 입력된 후, 이동 로봇(100)은 청소부(170)를 통한 청소 수행 중 사용자가 입력한 지정 시간이 되면 알람신호를 출력할 수 있다.Referring to FIG. 8 according to another embodiment of the present invention, a user may input a time required for an alarm through the input unit 137 of the mobile robot 100. After the designated time is input, the mobile robot 100 may output an alarm signal when the designated time input by the user is performed during cleaning through the cleaning unit 170.

또한 청소부(170)를 통한 청소가 실시되지 않을 시에도 사용자는 지정 시간에 알람을 설정하여, 이동 로봇(100)을 통해 사용자가 필요한 시기에 알람 신호가 출력되도록 할 수 있다.In addition, even when the cleaning through the cleaning unit 170 is not performed, the user can set an alarm at a designated time, so that an alarm signal is output at a time required by the user through the mobile robot 100.

상기 여러 실시예들을 통해 본 바와 같이, 본 발명을 통하여, 이동 로봇(100) 및 이동 단말기(200)를 활용한 다양한 스마트 알람 기능을 구현할 수 있다.As seen through the various embodiments, various smart alarm functions using the mobile robot 100 and the mobile terminal 200 may be implemented through the present invention.

첨부된 도면은 본 명세서에 기재된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해하여야 한다.The accompanying drawings are only for easy understanding of the embodiments described in the present specification, and the technical spirit disclosed in the specification is not limited by the accompanying drawings, and all changes and equivalents included in the spirit and technical scope of the present invention It should be understood to include water to substitutes.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention claimed in the claims. In addition, various modifications can be implemented by those having ordinary knowledge in the course, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

100 : 이동 로봇 200 : 이동 단말기100: mobile robot 200: mobile terminal

Claims (11)

본체;
상기 본체를 이동시키는 주행부;
상기 본체가 이동할 위치를 지정하고, 상기 본체가 상기 주행부를 통해 상기 지정된 위치로 이동시 알람 신호가 출력되도록 하는 제어부를 포함하는 이동 로봇.
main body;
A driving unit for moving the main body;
A mobile robot including a control unit that designates a position to which the main body is to be moved, and outputs an alarm signal when the main body is moved to the designated position through the driving unit.
제 1항에 있어서,
사용자는 이동 단말기에 저장된 주행 구역에 대한 맵을 통해 상기 이동 위치를 지정하는 이동 로봇.
According to claim 1,
The user designates the moving position through a map for the driving area stored in the mobile terminal.
제 2항에 있어서,
상기 이동 단말기와 송수신 가능한 통신부를 더 포함하고,
상기 통신부를 통해 사용자가 지정한 이동 위치 정보를 수신하는 이동 로봇.
According to claim 2,
Further comprising a communication unit capable of transmitting and receiving with the mobile terminal,
A mobile robot that receives movement location information designated by a user through the communication unit.
제 1항에 있어서,
이동 단말기로부터 발생하는 음향을 수신할 시, 상기 이동 단말기의 위치로 이동하여 알람 신호를 출력하는 이동 로봇.
According to claim 1,
When receiving the sound generated from the mobile terminal, the mobile robot moves to the location of the mobile terminal and outputs an alarm signal.
제 4항에 있어서,
상기 음향을 수신하는 입력부를 더 포함하는 이동 로봇.
The method of claim 4,
A mobile robot further comprising an input unit that receives the sound.
제 4항에 있어서,
상기 이동 단말기와 송수신 가능한 통신부를 더 포함하고,
상기 통신부를 통해 상기 이동 단말기의 위치 정보를 수신하는 이동 로봇.
The method of claim 4,
Further comprising a communication unit capable of transmitting and receiving with the mobile terminal,
A mobile robot that receives location information of the mobile terminal through the communication unit.
제 1항에 있어서,
상기 알람 신호를 발생하는 출력부를 더 포함하는 이동 로봇.
According to claim 1,
A mobile robot further comprising an output unit for generating the alarm signal.
본체;
상기 본체를 이동시키는 주행부;
주행을 통해 청소 기능을 수행하는 청소부;
지정된 시간에 알람 신호가 출력되며 청소하도록 하는 제어부를 포함하는 이동 로봇.
main body;
A driving unit for moving the main body;
A cleaning unit performing a cleaning function through driving;
An alarm signal is output at a specified time, and a mobile robot including a control unit for cleaning.
제 8항에 있어서,
사용자는 이동 단말기를 통해 지정 시간을 입력하는 이동 로봇.
The method of claim 8,
A mobile robot in which a user inputs a designated time through a mobile terminal.
제 9항에 있어서,
상기 이동 단말기와 송수신 가능한 통신부를 더 포함하고,
상기 통신부를 통해 사용자가 입력한 시간 정보를 수신하는 이동 로봇.
The method of claim 9,
Further comprising a communication unit capable of transmitting and receiving with the mobile terminal,
A mobile robot that receives time information input by a user through the communication unit.
지정된 이동 위치 정보를 입력 받는 입력 단계;
상기 지정 위치를 향해 주행하는 주행 단계;
상기 지정 위치에 도착시 알람 신호를 출력하는 출력 단계를 포함하는 이동 로봇의 제어방법.
An input step of receiving designated movement position information;
A driving step of driving toward the designated position;
And an output step of outputting an alarm signal upon arrival at the designated position.
KR1020190007925A 2019-01-22 2019-01-22 Moving Robot and controlling method thereof KR20200091110A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190007925A KR20200091110A (en) 2019-01-22 2019-01-22 Moving Robot and controlling method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190007925A KR20200091110A (en) 2019-01-22 2019-01-22 Moving Robot and controlling method thereof

Publications (1)

Publication Number Publication Date
KR20200091110A true KR20200091110A (en) 2020-07-30

Family

ID=71839217

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190007925A KR20200091110A (en) 2019-01-22 2019-01-22 Moving Robot and controlling method thereof

Country Status (1)

Country Link
KR (1) KR20200091110A (en)

Similar Documents

Publication Publication Date Title
KR102314539B1 (en) Controlling method for Artificial intelligence Moving robot
AU2017316089B2 (en) Mobile robot and control method therefor
KR102000067B1 (en) Moving Robot
KR101976424B1 (en) Moving Robot
KR101629649B1 (en) A robot cleaner and control method thereof
US11547261B2 (en) Moving robot and control method thereof
KR20180087798A (en) Moving robot and control method therof
KR102203434B1 (en) A robot cleaner and control method thereof
KR20190007285A (en) Moving Robot and controlling method
KR102548936B1 (en) Artificial intelligence Moving robot and control method thereof
KR20180021595A (en) Moving Robot and controlling method
KR20180098891A (en) Moving Robot and controlling method
KR20190035377A (en) Moving Robot and controlling method
US11348276B2 (en) Mobile robot control method
KR20180023302A (en) Moving robot and control method thereof
KR102070210B1 (en) Moving robot
KR20180023303A (en) Moving robot and control method thereof
KR102669126B1 (en) Moving Robot and controlling method for thereof
KR102478283B1 (en) Moving Robot and controlling method
KR102147210B1 (en) Controlling method for Artificial intelligence Moving robot
KR101922953B1 (en) Moving Robot and controlling method
KR20180082242A (en) Moving Robot and controlling method thereof
KR20180037516A (en) Moving robot and control method thereof
KR20180048088A (en) Robot cleaner and control method thereof
KR20200091110A (en) Moving Robot and controlling method thereof

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination