KR20180089234A - Cleaner - Google Patents

Cleaner Download PDF

Info

Publication number
KR20180089234A
KR20180089234A KR1020170014092A KR20170014092A KR20180089234A KR 20180089234 A KR20180089234 A KR 20180089234A KR 1020170014092 A KR1020170014092 A KR 1020170014092A KR 20170014092 A KR20170014092 A KR 20170014092A KR 20180089234 A KR20180089234 A KR 20180089234A
Authority
KR
South Korea
Prior art keywords
user
cleaner
main body
processor
vacuum cleaner
Prior art date
Application number
KR1020170014092A
Other languages
Korean (ko)
Inventor
이정현
박성길
신동명
전형신
최혁두
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020170014092A priority Critical patent/KR20180089234A/en
Publication of KR20180089234A publication Critical patent/KR20180089234A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • G06K9/00335
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Abstract

According to one embodiment of the present invention, provided is a cleaner, which comprises: a cleaner main body; a suction nozzle sucking dust of a bottom surface; and a suction hose transferring the dust delivered from the suction nozzle to the cleaner main body. Moreover, the cleaner main body can comprise: a driving operation unit moving the cleaner main body; a depth sensor obtaining image information of an object around the cleaner main body; and a processor extracting both foot sole areas of a user based on the obtained image information, obtaining a movement route of the user based on the extracted both foot sole areas, and controlling the driving operation unit to enable the cleaner main body to be driven along the obtained movement route of the user.

Description

청소기{CLEANER}Cleaner {CLEANER}

본 발명은 청소기에 관한 것으로, 보다 상세하게는 사람을 자동으로 추종할 수 있는 청소기에 관한 발명이다.The present invention relates to a vacuum cleaner, and more particularly, to a vacuum cleaner capable of automatically following a person.

일반적으로 청소기는 본체 내부에 장착되는 흡입 모터에 의하여 발생되는 흡입력을 이용하여, 먼지가 포함된 공기를 흡입한 다음, 본체 내부에서 먼지를 필터링하는 장치이다.Generally, a vacuum cleaner sucks dust-containing air using a suction force generated by a suction motor mounted inside the main body, and then filters dust inside the main body.

이러한, 청소기는 수동 청소기와 자동 청소기로 구분된다. 수동 청소기는 사용자가 직접 청소기를 이동시켜, 청소를 수행하여야 하는 청소기이고, 자동 청소기는 스스로 주행하면서 청소를 수행하는 청소기이다.Such a vacuum cleaner is divided into a manual vacuum cleaner and an automatic vacuum cleaner. The manual vacuum cleaner is a vacuum cleaner for the user to carry out cleaning by moving the vacuum cleaner, and the vacuum cleaner is a vacuum cleaner that performs cleaning while traveling on its own.

수동 청소기는, 흡입 노즐이 청소기 본체와는 별도로 구비되어 연장관에 의해 연결되는 캐니스터 방식과, 흡입 노즐이 본체와 결합되는 업라이트 방식으로 구별할 수 있다.The manual cleaner can be distinguished by a canister type in which the suction nozzle is provided separately from the cleaner main body and connected by an extension pipe, and an upright type in which the suction nozzle is coupled to the main body.

이러한, 종래의 수동 청소기는 사용자가 힘을 주어 끌어야 하므로, 손목이나 허리에 부담이 간다.Such a conventional manual vacuum cleaner must be pulled by the user, which places a strain on the wrist or the back.

또한, 사용자가 핸들을 통해 흡입 호스와 연결된 청소기 본체를 억지로 끌어 당기면, 흡입 호스가 청소기 본체로부터 분리되는 문제가 있었다.Further, when the user forcibly pulls the cleaner main body connected to the suction hose through the handle, the suction hose is detached from the cleaner main body.

이러한, 문제를 해결하기 위해 청소기가 자동으로 사람을 추종하는 기술들이 개발되었다.To solve these problems, technologies were developed that automatically follow the person in the vacuum cleaner.

종래에는 초음파 센서를 이용하여, 청소기 본체와 사용자 간의 거리 및 방향만을 인식하여, 사용자를 추종하였다. Conventionally, an ultrasonic sensor is used to recognize only the distance and direction between the main body of the cleaner and the user, and the user is followed.

그러나, 이 경우, 청소기 본체가 추종 지점으로 최단 경로를 따라 이동하므로, 청소기 본체가 사용자와 충돌하거나, 흡입 호스가 꼬이거나, 장애물과의 충돌 위험이 있었다.However, in this case, since the cleaner main body moves along the shortest path to the follow-up point, there is a risk that the cleaner main body collides with the user, the suction hose becomes twisted, or collides with the obstacle.

본 발명은 사용자의 이동 경로를 기억하여, 이동 경로에 따라 사용자를 추종하되, 일정 거리를 유지하면서 사용자를 추종할 수 있는 청소기를 제공하는 것을 그 목적으로 한다.An object of the present invention is to provide a vacuum cleaner capable of keeping track of a user's movement path, following a user along a movement path, and following a user while maintaining a certain distance.

본 발명은 사용자의 이동 경로를 보다 정확하게 파악하고자 하는 청소기의 제공을 목적으로 한다.The present invention aims at providing a vacuum cleaner which can more precisely grasp a moving path of a user.

본 발명은 청소기 본체 전면에 위치한 사용자와 장애물을 구분하고, 사용자의 움직임 궤적을 파악할 수 있는 청소기의 제공을 목적으로 한다.An object of the present invention is to provide a vacuum cleaner capable of distinguishing an obstacle from a user located on the front of the cleaner body and grasping a motion trajectory of the user.

본 발명은 사용자의 이동 경로를 따라 사용자를 추종하는 중, 장애물을 회피할 수 있는 청소기의 제공을 목적으로 한다.An object of the present invention is to provide a cleaner capable of avoiding an obstacle while following a user along a movement path of a user.

본 발명은 사용자의 이동 속도에 따라 청소기 본체의 추종 속도를 조절할 수 있는 청소기의 제공을 목적으로 한다.An object of the present invention is to provide a vacuum cleaner capable of adjusting a follow-up speed of a cleaner main body according to a moving speed of a user.

본 발명의 실시 예에 따른 청소기는 깊이 센서로부터 획득된 영상 정보를 이용하여, 사용자의 이동 경로를 획득하고, 사용자와의 거리가 일정 거리 이상인 경우, 획득된 이동 경로로 청소기 본체를 주행시킬 수 있다.The vacuum cleaner according to the embodiment of the present invention can acquire the movement route of the user by using the image information obtained from the depth sensor and can drive the cleaner main body by the obtained movement route when the distance to the user is more than a certain distance .

본 발명의 실시 예에 따른 청소기는 발바닥 쌍 영역에 포함된 좌 발바닥 영역과 우 발바닥 영역 간의 상대적 위치를 이용하여, 사용자의 위치를 파악할 수 있다.The cleaner according to the embodiment of the present invention can grasp the position of the user by using the relative position between the left foot area and the right foot area included in the plantar pair area.

본 발명의 실시 예에 따른 청소기의 깊이 센서는 청소기 본체의 상단 전면에 장착되어, 하방을 향해 광원을 조사할 수 있다.The depth sensor of the vacuum cleaner according to the embodiment of the present invention is mounted on the upper surface of the upper part of the main body of the vacuum cleaner and can irradiate the light source downward.

본 발명의 실시 예에 따른 청소기는 사용자의 이동 경로 상에 장애물을 검출하고, 검출된 장애물을 회피한 후, 다시 청소기 본체를 이동 경로로 복귀시킬 수 있다.The cleaner according to the embodiment of the present invention can detect the obstacle on the movement path of the user, avoid the detected obstacle, and then return the cleaner main body to the movement path again.

본 발명의 실시 예에 따른 청소기는 사용자의 이동 속도에 따라 청소기 본체의 주행 속도를 조절하기 위해 주행 구동부의 모터를 제어할 수 있다.The cleaner according to the embodiment of the present invention can control the motor of the traveling driving unit to adjust the traveling speed of the cleaner body according to the moving speed of the user.

본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.Further scope of applicability of the present invention will become apparent from the following detailed description. It should be understood, however, that the detailed description and specific examples, such as the preferred embodiments of the invention, are given by way of illustration only, since various changes and modifications within the spirit and scope of the invention will become apparent to those skilled in the art.

본 발명의 실시 예에 따르면, 청소기 본체가 사용자 간의 거리가 안정적으로 유지되어, 사용자가 청소기 본체에 충돌되는 것이 방지될 수 있고, 흡입 호스가 꼬이는 것이 방지될 수 있다.According to the embodiment of the present invention, the distance between the users can be stably maintained in the cleaner main body, the user can be prevented from colliding with the cleaner main body, and the suction hose can be prevented from being twisted.

본 발명의 실시 예에 따르면, 사용자의 위치가 정확히 파악되어, 청소기 본체가 사용자를 안정적으로 추종할 수 있다.According to the embodiment of the present invention, the position of the user is accurately grasped, and the cleaner main body can follow the user stably.

본 발명의 실시 예에 따르면, 전면 상단에 구비된 깊이 센서의 구비로 인해, 사람과 장애물을 명확히 구분할 수 있고, 사람의 위치를 정확히 파악할 수 있다.According to the embodiment of the present invention, since the depth sensor provided at the upper part of the front surface is provided, it is possible to clearly distinguish between the person and the obstacle, and the position of the person can be accurately grasped.

본 발명의 실시 예에 따르면, 청소기 본체가 사용자의 이동 경로를 추종하는 중, 장애물의 충돌이 방지될 수 있다.According to the embodiment of the present invention, the collision of the obstacle can be prevented while the cleaner main body follows the movement route of the user.

본 발명의 실시 예에 따르면, 청소기 본체는 사용자의 이동 속도에 맞게 사용자를 추종하여, 사용자와의 충돌이 미연에 방지될 수 있다.According to the embodiment of the present invention, the cleaner main body follows the user in accordance with the moving speed of the user, so that collision with the user can be prevented in advance.

도 1a는 본 발명의 일 실시 예에 따른 청소기의 구성을 설명하기 위한 블록도이다.
도 1b는 본 발명의 일 실시 예에 따른 캐니스터 타입의 청소기를 설명하는 도면이다.
도 1c 및 1d는 본 발명의 일 실시 예에 따른 로봇 타입의 청소기를 설명하는 도면이다.
도 1e 및 도 1f는 본 발명의 일 실시 예에 따른 깊이 센서의 구조 및 영상 정보를 획득하는 원리를 설명하는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 청소기의 동작 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시 예에 따라 획득된 영상 정보에 기초하여, 사람 후보 영역을 추출하는 과정을 설명하는 흐름도이다.
도 4는 본 발명의 일 실시 예에 따라 획득된 영상 정보에 기초하여, 전경 영역과 배경 영역을 분리하는 예를 설명하는 도면이다.
도 5는 본 발명의 일 실시 예에 따라 메모리에 저장된 3차원 사람 모델의 예시를 보여준다.
도 6은 본 발명의 일 실시 예에 따라 획득된 사람 영역으로부터 청소기의 이동 지점을 획득하는 예를 설명하는 흐름도이다.
도 7은 본 발명의 일 실시 예에 따라 다리 영역 간의 거리에 기초하여, 동일한 사람의 다리 쌍인지를 판단하는 예를 설명하는 도면이다.
도 8 및 도 9는 본 발명의 일 실시 예에 따라 청소기가 추종 대상으로 선정한 다리 쌍을 바닥 평면에 투사시켜, 투사된 발바닥 영역을 획득하는 과정을 설명하는 도면이다.
도 10은 본 발명의 일 실시 예에 따라 발바닥 영역들의 상대적 위치에 기초하여, 사용자의 이동 경로를 획득하는 예를 설명하는 도면이다.
도 11은 본 발명의 일 실시 예에 따라 사용자와 청소기 본체 간의 거리를 측정하는 방법을 설명하는 도면이다.
도 12는 사용자의 이동 경로에 따라 청소기 본체가 주행하는 실시 예를 설명하는 도면이고, 도 13은 사용자의 이동 경로 상에 장애물이 검출된 경우, 장애물을 회피 한 후, 이동 경로로 복귀하는 예를 설명하는 도면이다.
도 14는 본 발명의 일 실시 예에 따라 실제 사용자와 캐니스터 타입 청소기의 청소기 본체가 사용자의 이동 경로를 추종하는 모습을 설명하는 도면이다.
FIG. 1A is a block diagram illustrating a configuration of a vacuum cleaner according to an embodiment of the present invention.
1B is a view illustrating a canister-type cleaner according to an embodiment of the present invention.
1C and 1D are diagrams illustrating a robot type cleaner according to an embodiment of the present invention.
1E and 1F are views for explaining the structure of a depth sensor and the principle of acquiring image information according to an embodiment of the present invention.
2 is a flowchart illustrating an operation method of a vacuum cleaner according to an embodiment of the present invention.
3 is a flowchart illustrating a process of extracting a human candidate region based on image information obtained according to an embodiment of the present invention.
4 is a diagram for explaining an example of separating a foreground region and a background region based on image information obtained according to an embodiment of the present invention.
Figure 5 illustrates an example of a three-dimensional human model stored in memory in accordance with one embodiment of the present invention.
6 is a flowchart illustrating an example of obtaining a moving point of a cleaner from a person area obtained according to an embodiment of the present invention.
Fig. 7 is a diagram for explaining an example of judging whether a pair of legs is the same person based on the distance between leg regions according to an embodiment of the present invention. Fig.
FIGS. 8 and 9 are views illustrating a process of projecting a projected foot area by projecting a pair of legs selected as a subject to be monitored by a cleaner on a floor plane according to an embodiment of the present invention.
10 is a view for explaining an example of acquiring a movement path of a user based on the relative positions of plantar regions according to an embodiment of the present invention.
11 is a view for explaining a method of measuring a distance between a user and a cleaner main body according to an embodiment of the present invention.
FIG. 12 is a view for explaining an embodiment in which the cleaner main body travels according to the movement path of the user. FIG. 13 shows an example of returning to the movement path after avoiding an obstacle when an obstacle is detected on the movement path of the user Fig.
14 is a view for explaining how an actual user and a cleaner main body of a canister type cleaner follow a user's movement path according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

도 1a는 본 발명의 일 실시 예에 따른 청소기의 구성을 설명하기 위한 블록도이다.FIG. 1A is a block diagram illustrating a configuration of a vacuum cleaner according to an embodiment of the present invention.

도 1a에 도시된 청소기(100)는 흡입 호스를 포함하는 캐니스터 타입의 청소기, 흡입 호스를 포함하지 않는 로봇 타입의 청소기에 모두 적용될 수 있다. 이에 대해서는 후술한다.The vacuum cleaner 100 shown in FIG. 1A can be applied to both a vacuum cleaner of a canister type including a suction hose, and a vacuum cleaner of a robot type that does not include a suction hose. This will be described later.

도 1a를 참조하면, 본 발명의 일 실시 예에 따른 청소기(100)는 영상 정보 획득부(110), 장애물 감지부(130), 메모리(150), 주행 구동부(170) 및 프로세서(190)를 포함할 수 있다.1A, a vacuum cleaner 100 according to an embodiment of the present invention includes an image information obtaining unit 110, an obstacle detecting unit 130, a memory 150, a travel driving unit 170, and a processor 190 .

영상 정보 획득부(110)는 청소기(100) 주위의 영상에 대한 정보인 영상 정보를 획득할 수 있다.The image information obtaining unit 110 may obtain image information, which is information on the image around the cleaner 100.

영상 정보 획득부(110)는 깊이 센서(111) 및 RGB 센서(113) 중 하나 이상을 포함할 수 있다.The image information obtaining unit 110 may include at least one of a depth sensor 111 and an RGB sensor 113.

깊이 센서(111)는 발광부(미도시)로부터 조사된 빛이 사물에 반사되어 돌아옴을 감지할 수 있다. 깊이 센서(111)는 돌아온 빛을 감지한 시간 차이, 돌아온 빛의 양 등에 기초하여, 사물과의 거리를 측정할 수 있다.The depth sensor 111 can sense that the light emitted from the light emitting unit (not shown) is reflected by the object and returns. The depth sensor 111 can measure the distance from the object based on the time difference between the time when the returned light is detected and the amount of returned light.

깊이 센서(111)는 측정된 사물 간의 거리에 기초하여, 청소기(100) 주위에 대한 2차원 영상 정보 또는 3차원 영상 정보를 획득할 수 있다. The depth sensor 111 can obtain two-dimensional image information or three-dimensional image information about the cleaner 100 based on the distance between the measured objects.

RGB 센서(113)는 청소기(100) 주위의 사물에 대한 컬러 영상 정보를 획득할 수 있다. 컬러 영상 정보는 사물의 촬영 영상일 수 있다. RGB 센서(113)는 RGB 카메라로 명명될 수 있다.The RGB sensor 113 can acquire color image information about an object around the cleaner 100. The color image information may be a captured image of an object. The RGB sensor 113 may be called an RGB camera.

영상 정보 획득부(110)에 대해서는 자세히 후술한다. The image information obtaining unit 110 will be described later in detail.

장애물 감지부(130)는 청소기(200)의 주위에 배치된 장애물을 감지할 수 있다.The obstacle sensing unit 130 may sense obstacles disposed around the cleaner 200.

장애물 감지부(130)는 초음파 센서, 적외선 센서, 레이져 센서 및/또는 비젼 카메라 등을 포함할 수 있다. 장애물 감지부(210)는 레이져 센서에 의해 레이져가 조사된 청소 구역을 촬영하여 영상을 획득하는 카메라를 포함할 수 있다.The obstacle sensing unit 130 may include an ultrasonic sensor, an infrared sensor, a laser sensor, and / or a vision camera. The obstacle detection unit 210 may include a camera for photographing a cleaning area irradiated with a laser by a laser sensor and acquiring an image.

프로세서(190)는 카메라를 통해 획득된 영상으로부터 레이져 광 패턴을 추출하고, 영상에서의 상기 패턴의 위치와, 형태, 자세 등의 변화를 바탕으로 청소 구역 내의 장애물 상황과 청소 구역의 지도를 생성할 수 있다.The processor 190 extracts the laser light pattern from the image obtained through the camera and generates a map of the obstacle situation and the cleaning area in the cleaning area based on the change of the position, shape, and posture of the pattern in the image .

도 1a에서 장애물 감지부(130)와 영상 정보 획득부(110)는 별개의 구성으로 설명되었으나, 이에 한정될 필요는 없다. 즉, 장애물 감지부(130)는 영상 정보 획득부(110)의 구성에 포함될 수도 있고, 청소기(100)의 구성에 포함되지 않을 수 있다. 이 경우, 영상 정보 획득부(110)가 장애물 감지를 대체한다.In FIG. 1A, the obstacle sensing unit 130 and the image information acquiring unit 110 are described as separate components. However, the present invention is not limited thereto. That is, the obstacle detecting unit 130 may be included in the configuration of the image information obtaining unit 110 or may not be included in the configuration of the cleaner 100. In this case, the image information obtaining unit 110 replaces the obstacle detection.

메모리(150)는 다리 형상을 포함하는 복수의 사람 모델을 저장하고 있을 수 있다. 복수의 사람 모델은 2차원 또는 3차원 사람 모델일 수 있다.The memory 150 may store a plurality of human models including a leg shape. The plurality of person models may be a two-dimensional or three-dimensional person model.

주행 구동부(170)는 청소기(100)를 특정 방향으로 또는 특정 거리만큼 이동시킬 수 있다. 주행 구동부(170)는 청소기(100)의 좌륜을 구동시키는 좌륜 구동부(171) 및 우륜을 구동시키는 우륜 구동부(173)를 포함할 수 있다.The driving drive unit 170 can move the cleaner 100 in a specific direction or by a certain distance. The travel driving part 170 may include a left wheel driving part 171 for driving the left wheel of the cleaner 100 and a right wheel driving part 173 for driving the right wheel.

좌륜 구동부(171)는 좌륜을 구동시키기 위한 모터를 포함할 수 있고, 우륜 구동부(173)는 우륜을 구동시키기 위한 모터를 포함할 수 있다.The left wheel driving portion 171 may include a motor for driving the left wheel, and the right wheel driving portion 173 may include a motor for driving the right wheel.

도 1a에서는 주행 구동부(170)가 좌륜 구동부(171) 및 우륜 구동부(173)를 포함하는 것을 예로 들어 설명하였으나, 이에 한정될 필요는 없고, 휠이 하나인 경우, 하나의 구동부만이 구비될 수도 있다.In FIG. 1A, the travel driving unit 170 includes the left wheel driving unit 171 and the right wheel driving unit 173, but the present invention is not limited thereto. In the case of one wheel, only one driving unit may be provided have.

프로세서(190)는 청소기(100)의 동작을 전반적으로 제어할 수 있다.The processor 190 may control overall operation of the vacuum cleaner 100.

프로세서(190)는 영상 정보 획득부(110)가 획득한 영상 정보에 기초하여, 하나 이상의 사람 후보 영역을 추출할 수 있다.The processor 190 may extract one or more person candidate regions based on the image information obtained by the image information obtaining unit 110. [

프로세서(190)는 추출된 하나 이상의 사람 후보 영역 중 사람 영역을 추출하고, 추출된 사람 영역에 기초하여, 사람의 위치 및 자세를 판단할 수 있다. The processor 190 can extract a human region from among the extracted one or more human candidate regions, and determine the position and posture of a person based on the extracted human region.

프로세서(190)는 판단된 사람의 위치 및 자세에 기초하여, 청소기(100)가 자동으로 이동할 이동 지점을 선정할 수 있다.The processor 190 can select a movement point at which the vacuum cleaner 100 will automatically move based on the determined position and posture of the person.

프로세서(190)는 선정된 이동 지점으로 청소기(100)가 이동하도록 주행 구동부(170)를 제어할 수 있다.The processor 190 may control the travel driving unit 170 to move the vacuum cleaner 100 to a predetermined moving point.

이에 따라, 청소기(100)는 사람과 일정 거리만큼 떨어진 지점으로, 사람을 추종할 수 있다.Accordingly, the cleaner 100 can follow a person at a position separated by a certain distance from the person.

프로세서(190)는 좌륜 구동부(171)와 우륜 구동부(173)의 작동을 독립적으로 제어할 수 있다. 이에 따라 청소기(100)의 직진, 후진 또는 선회가 이루어 진다.The processor 190 can independently control the operation of the left wheel drive section 171 and the right wheel drive section 173. [ Thus, the vacuum cleaner 100 is advanced, retracted, or turned.

도 1a의 실시 예에 따른 청소기(100)는 캐니스터 타입 또는 로봇 타입의 청소기에 적용될 수 있다.The cleaner 100 according to the embodiment of FIG. 1A can be applied to a cleaner of a canister type or a robot type.

도 1b는 본 발명의 일 실시 예에 따른 캐니스터 타입의 청소기를 설명하는 도면이다.1B is a view illustrating a canister-type cleaner according to an embodiment of the present invention.

캐니스터 타입의 청소기(100-1)는 청소기 본체(10) 및 흡입 장치(20)를 포함할 수 있다.The canister type cleaner 100-1 may include a cleaner body 10 and a suction device 20. [

청소기 본체(10)는 도 1에서 설명한 청소기(100)의 구성 요소들을 모두 포함할 수 있다.The cleaner main body 10 may include all the components of the cleaner 100 described with reference to FIG.

청소기 본체(10)는 흡입 장치(20)에서 흡입된 공기와 먼지를 서로 분리시키는 먼지 분리부(미도시)와, 먼지 분리부에서 분리된 먼지를 저장하는 먼지통(101)을 더 포함할 수 있다. The cleaner main body 10 may further include a dust separator (not shown) for separating the air and dust from the suction device 20 and a dust container 101 for storing dust separated from the dust separator .

먼지통(101)은 청소기 본체(10)에 분리 가능하게 장착될 수 있다. 먼지 분리부는 먼지통(101)과 별도의 물품으로 제조되거나, 먼지통(101)과 하나의 모듈을 이룰 수 있다.The dust container 101 can be detachably mounted on the cleaner body 10. [ The dust separator may be manufactured as a separate article from the dust container 101, or may form one module with the dust container 101.

흡입 장치(20)는 청소기 본체(10)와 연결되어, 청소기 본체(10)로 먼지를 포함한 공기를 안내할 수 있다.The suction device 20 is connected to the cleaner main body 10 and can guide air containing dust to the cleaner main body 10. [

흡입 장치(20)는 바닥 면의 먼지와 공기를 흡입하기 위한 흡입 노즐(21) 및 흡입 노즐(21)를 청소기 본체(10)에 연결시키기 위한 연결부(22, 23, 24)를 포함할 수 있다.The suction device 20 may include suction nozzles 21 for sucking dust on the floor and air and connecting portions 22, 23 and 24 for connecting the suction nozzles 21 to the cleaner main body 10 .

연결부(22, 23, 24)는 흡입 노즐(21)에 연결되는 연장관(24), 연장관(24)에 연결되는 핸들(22) 및 핸들(22)을 청소기 본체(10)에 연결시키는 흡입 호스(23)를 포함할 수 있다.The connecting portions 22, 23 and 24 are provided with an extension pipe 24 connected to the suction nozzle 21, a handle 22 connected to the extension pipe 24 and a suction hose 22 connecting the handle 22 to the cleaner body 10 23).

청소기 본체(10)는 영상 정보 획득부(110)를 포함할 수 있다. 영상 정보 획득부(110)는 청소기 본체(10)의 상단 전면에 배치될 수 있다.The cleaner main body 10 may include an image information obtaining unit 110. The image information obtaining unit 110 may be disposed on the upper surface of the upper end of the cleaner main body 10.

청소기 본체(10)는 일정한 높이를 가질 수 있다. 일정한 높이는 15cm 내지 30cm 의 범위에 속할 수 있으나, 이는 예시에 불과하다.The cleaner main body 10 may have a constant height. The constant height can range from 15 cm to 30 cm, but this is only an example.

깊이 센서(111)가 청소기 본체(10)의 상단 전면에 배치된 경우, 하방으로, 광원이 조사될 수 있어, 바닥 면의 위에 놓여진 사람의 무릎 아래의 영상에 대한 정보가 정확히 추출될 수 있다.When the depth sensor 111 is disposed on the upper surface of the upper end of the cleaner body 10, the light source can be irradiated downward, so that information on the image below the knee of the person lying on the floor surface can be accurately extracted.

다음으로, 로봇 타입의 청소기를 설명한다.Next, a robot type vacuum cleaner will be described.

도 1c 및 1d는 본 발명의 일 실시 예에 따른 로봇 타입의 청소기를 설명하는 도면이다.1C and 1D are diagrams illustrating a robot type cleaner according to an embodiment of the present invention.

도 1c 및 도 1d를 참조하면, 로봇 타입의 청소기(100-2)는 청소기 본체(50), 좌륜(61a), 우륜(61b) 및 흡입부(70)를 포함할 수 있다.1C and 1D, the robot type vacuum cleaner 100-2 may include a cleaner main body 50, a left wheel 61a, a right wheel 61b, and a suction portion 70. [

청소기 본체(50)는 도 1에서 설명한 청소기(100)의 구성 요소들을 모두 포함할 수 있다.The cleaner main body 50 may include all the components of the cleaner 100 described with reference to FIG.

특히, 로봇 타입 청소기(100-2)의 전면 상단에는 깊이 센서(111)를 포함하는 영상 정보 획득부(110)가 구비될 수 있다. 물론, 추가적으로, RGB 센서(113)도 구비될 수 있다.Particularly, the image information obtaining unit 110 including the depth sensor 111 may be provided on the front upper surface of the robot type vacuum cleaner 100-2. Of course, an RGB sensor 113 may also be provided.

좌륜(61a) 및 우륜(61b)은 청소기 본체(50)를 주행시킬 수 있다. 좌륜(61a) 및 우륜(61b)이 주행 구동부(170)에 의해 회전됨에 따라, 흡입부(70)를 통해 먼지나 쓰레기 등의 이물질이 흡입될 수 있다.The left wheel 61a and the right wheel 61b can make the cleaner main body 50 run. As the left wheel 61a and the right wheel 61b are rotated by the travel driving unit 170, foreign substances such as dust and trash can be sucked through the suction unit 70. [

흡입부(70)는 청소기 본체(50)에 구비되어 바닥 면의 먼지를 흡입할 수 있다. The suction unit 70 is provided in the cleaner main body 50 to suck dust on the floor surface.

흡입부(70)는 흡입된 기류 중에서 이물질을 채집하는 필터(미도시)와, 상기 필터에 의해 채집된 이물질들이 축적되는 이물질 수용기(미도시)를 더 포함할 수 있다.The suction unit 70 may further include a filter (not shown) for collecting foreign substances in the sucked air stream and a foreign matter receiver (not shown) in which foreign substances collected by the filter are accumulated.

도 1e 및 도 1f는 본 발명의 일 실시 예에 따른 깊이 센서의 구조 및 영상 정보를 획득하는 원리를 설명하는 도면이다.1E and 1F are views for explaining the structure of a depth sensor and the principle of acquiring image information according to an embodiment of the present invention.

도 1e 및 도 1f에서 깊이 센서는 TOF(Time Of Flight) 타입의 깊이 센서임을 가정하여 설명하나, 이는 예시에 불과하다.1E and 1F, it is assumed that the depth sensor is a TOF (Time Of Flight) type depth sensor, but this is merely an example.

TOF 타입의 깊이 센서(111)는 빛을 조사하여, 반사되어 오는 시간을 측정하여, 사물과의 거리를 측정할 수 있다.The depth sensor 111 of the TOF type can measure the reflected time by irradiating light and measure the distance to the object.

TOF 타입의 깊이 센서(111)는 반사된 빛의 양을 이용하여, 사물과의 거리를 측정할 수 있다.The depth sensor 111 of the TOF type can measure the distance to an object using the amount of reflected light.

TOF 타입의 깊이 센서(111)는 TOF 방식을 이용하여, 도 1e에 도시된 바와 같이, 실제 사물(91)에 대해 depth 이미지(93)를 포함하는 영상 정보를 출력할 수 있다.The depth sensor 111 of the TOF type can output image information including the depth image 93 to the real object 91, as shown in Fig. 1E, using the TOF method.

도 1f는 TOF 타입의 깊이 센서의 예를 보여준다.Fig. 1F shows an example of a TOF type depth sensor.

TOF 타입의 깊이 센서(111)는 도 1f에서와 같이, 발광부(미도시) 및 발광부로부터 나온 빛이 반사되어 오는 빛을 감지하는 복수의 셀(95)들을 포함할 수 있다.The TOF-type depth sensor 111 may include a plurality of cells 95 for sensing light emitted from a light emitting unit and light emitted from the light emitting unit, as shown in FIG. 1F.

발광부는 일정 시간 간격으로, 빛을 외부로 조사할 수 있다. 일정 시간 은 발광부의 점멸 간격을 나타낼 수 있다.The light emitting portion can irradiate light to the outside at a predetermined time interval. The predetermined time may indicate the blinking interval of the light emitting portion.

복수의 셀들 각각(95)은 제1 수신기(95a) 및 제2 수신기(95b)를 포함할 수 있다.Each of the plurality of cells 95 may include a first receiver 95a and a second receiver 95b.

제1 수신기(95a)는 발광부에서 빛을 조사하는 동안, 활성화될 수 있고, 활성화된 상태에서, 반사되어 돌아오는 빛을 수신할 수 있다.The first receiver 95a can be activated while irradiating light in the light emitting portion, and can receive reflected light returning from the activated state.

제2 수신기(95b)는 발광부에서 빛을 조사하지 않는 동안, 활성화될 수 있고, 활성화된 상태에서, 반사되어 돌아오는 빛을 수신할 수 있다.The second receiver 95b can be activated while not emitting light in the light emitting portion, and can receive the reflected and returning light in the activated state.

제1 수신기(95a) 및 제2 수신기(95b) 각각이 서로 시간 차를 두고, 활성화되면, 사물과의 거리에 따라 각 수신기에 누적되는 빛의 양에 차이가 발생한다.When the first receiver 95a and the second receiver 95b are activated with a time difference from each other, a difference occurs in the amount of light accumulated in each receiver depending on the distance from the object.

이러한, 빛의 양의 차이를 비교하여, 사물과의 거리가 측정될 수 있다.By comparing the difference in the amount of light, the distance to the object can be measured.

TOF 타입의 깊이 센서(111)는 실제 사물(91)을 측정된 거리에 따라 도 1e에 도시된 깊이 이미지(93)로 변환하여, 출력할 수 있다.The depth sensor 111 of the TOF type can convert the actual object 91 into the depth image 93 shown in Fig. 1E according to the measured distance, and output it.

변환된 깊이 이미지(93)를 이용하여, 사람 후보 영역을 추출하는데 사용될 수 있다.Can be used to extract a human candidate region using the converted depth image (93).

도 2는 본 발명의 일 실시 예에 따른 청소기의 동작 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating an operation method of a vacuum cleaner according to an embodiment of the present invention.

이하에서는 도 2의 실시 예에 따른 청소기의 동작 방법을 도 1의 실시 예에 결부시켜 설명한다.Hereinafter, an operation method of the vacuum cleaner according to the embodiment of FIG. 2 will be described in connection with the embodiment of FIG.

청소기(100)의 영상 정보 획득부(110)는 청소기(100) 주위에 위치한 영상에 대한 정보인 영상 정보를 획득한다(S201).The image information obtaining unit 110 of the cleaner 100 obtains image information that is information about the image located around the cleaner 100 (S201).

일 실시 예에서 영상 정보 획득부(110)는 깊이 센서(111) 및 RGB 센서(113) 중 하나 이상을 포함할 수 있다. In one embodiment, the image information obtaining unit 110 may include at least one of the depth sensor 111 and the RGB sensor 113.

깊이 센서(111)는 픽셀 단위로 조사된 광이 반사된 경우, 반사된 광을 감지하여, 깊이 센서와 사물 간의 거리 데이터를 획득할 수 있다. The depth sensor 111 can sense the reflected light when the light irradiated on a pixel-by-pixel basis is reflected, and obtain the distance data between the depth sensor and the object.

프로세서(190)는 깊이 센서(111)에 의해 획득된 거리 데이터에 기초하여, 3차원 영상 정보를 획득할 수 있다. 3차원 영상 정보는 추후, 사람 후보 영역을 추출하는데 사용될 수 있다.The processor 190 may obtain three-dimensional image information based on the distance data obtained by the depth sensor 111. [ The 3D image information can be used later to extract a human candidate region.

본 발명의 또 다른 실시 예에 따르면, 영상 정보를 획득하기 위해, RGB 센서(113)가 추가적으로 사용될 수 있다. RGB 센서(113)는 청소기(100) 주위의 사물에 대한 컬러 영상 정보를 획득할 수 있다. According to another embodiment of the present invention, in order to acquire image information, an RGB sensor 113 may additionally be used. The RGB sensor 113 can acquire color image information about an object around the cleaner 100.

RGB 센서(113)는 깊이 센서(111)가 획득된 영상 정보를 통해 사람 후보 영역이 추출되지 못한 경우, 사용될 수 있다. 즉, RGB 센서(113)는 깊이 센서(113)를 보완하는 역할을 수행할 수 있다.The RGB sensor 113 can be used when the depth sensor 111 fails to extract a human candidate region through the acquired image information. In other words, the RGB sensor 113 can serve as a complement to the depth sensor 113.

즉, 프로세서(190)는 깊이 센서(111)가 획득한 영상 정보를 통해 사람 후보 영역이 추출되지 못한 경우, RGB 센서(113)가 획득한 컬러 영상 정보를 이용하여, 사람 후보 영역을 추출할 수 있다.That is, when the human candidate region can not be extracted through the image information acquired by the depth sensor 111, the processor 190 may extract the human candidate region using the color image information acquired by the RGB sensor 113 have.

깊이 센서(111)가 사람 후보 영역을 추출하지 못하는 경우란, 태양광을 비롯한 외부 광원이 깊이 센서(111)의 발광부에 직접 조사되는 경우일 수 있다.The case where the depth sensor 111 can not extract the human candidate region may be a case where an external light source including sunlight is directly irradiated to the light emitting portion of the depth sensor 111. [

또 다른 예로, 깊이 센서(111)가 사람 후보 영역을 추출하지 못하는 경우란, 깊이 센서(111)와의 사물 간의 거리가 매우 가깝거나, 사물의 반사도가 심해, 광 포화(light saturation) 현상이 발생되는 경우일 수 있다.As another example, when the depth sensor 111 can not extract a human candidate region, the distance between the object and the depth sensor 111 is very close, the reflectivity of the object is high, and a light saturation phenomenon occurs .

깊이 센서(111)가 활용 불가능한 외부 환경 변화에 상관 없이, RGB 센서(113)를 통해 사람 후보 영역이 추출될 수 있다.The human candidate region can be extracted through the RGB sensor 113 regardless of the external environment change in which the depth sensor 111 is not available.

반대로, 프로세서(190)는 RGB 센서(113)가 획득한 컬러 영상 정보를 통해 사람 후보 영역이 추출되지 못한 경우, 깊이 센서(111)가 획득한 거리 데이터에 기초하여, 사람 후보 영역을 추출할 수 있다.Conversely, when the human candidate region can not be extracted through the color image information acquired by the RGB sensor 113, the processor 190 may extract the human candidate region based on the distance data acquired by the depth sensor 111 have.

RGB 센서(113)가 획득한 컬러 영상 정보를 통해 사람 후보 영역이 추출되지 못한 경우란, 불이 꺼져 있는 것과 같이, 주위의 조도가 기 설정된 조도 미만이어서, 촬영에 의해 사람 후보 영역을 추출할 수 없는 경우일 수 있다.The case where the human candidate region can not be extracted through the color image information acquired by the RGB sensor 113 means that the surrounding illumination is less than the predetermined illumination as in the case where the light is not lit so that the human candidate region can be extracted It may be absent.

영상 정보 획득을 위해 깊이 센서(111) 및 RGB 센서(113)가 모두 이용되는 경우, 어느 하나의 센서는 다른 하나의 센서를 보완하므로, 사람 후보 영역의 검출 능력이 향상될 수 있다.When both the depth sensor 111 and the RGB sensor 113 are used for acquiring image information, any one of the sensors can complement the other sensor, so that the detection capability of the human candidate region can be improved.

청소기(100)의 프로세서(190)는 획득한 영상 정보에 기초하여, 하나 이상의 사람 후보 영역을 추출한다(S203).The processor 190 of the cleaner 100 extracts one or more human candidate regions based on the acquired image information (S203).

프로세서(190)는 획득한 영상 정보에 기초하여, 전경 영역으로부터 배경 영역을 분리하여, 사람 후보 영역을 추출할 수 있다.The processor 190 can extract the human candidate region by separating the background region from the foreground region based on the acquired image information.

또 다른 실시 예에서 프로세서(190)는 분리된 전경 영역으로부터 바닥 평면 영역을 제거하여, 사람 후보 영역을 추출할 수 있다. In yet another embodiment, the processor 190 may remove the bottom planar region from the isolated foreground region and extract the human candidate region.

또 다른 실시 예에서 프로세서(190)는 획득한 영상 정보에 RGB 정보가 포함되어 있는 경우, HOG(Histogram of Oriented Gradient) 기반 사람 인식 알고리즘을 이용하여, 사람 후보 영역을 추출할 수 있다.In another embodiment, when the acquired image information includes RGB information, the processor 190 may extract a human candidate region using a Histogram of Oriented Gradient (HOG) based human recognition algorithm.

RGB 정보는 RGB 센서(113)가 획득한 컬러 영상일 수 있다.The RGB information may be a color image acquired by the RGB sensor 113. [

HOG 기반 사람 인식 알고리즘은 컬러 영상을 분할한 복수의 셀들 중 엣지(edge) 픽셀들의 방향에 대해 히스토그램을 획득하여, 컬러 영상에 포함된 사람 영역을 인식하는 알고리즘 기법이다. 여기서, 엣지 픽셀은 기울기 크기가 일정 크기 이상인 픽셀이다.The HOG-based human recognition algorithm is an algorithm technique for acquiring a histogram of the direction of edge pixels among a plurality of cells in which a color image is divided and recognizing a human region included in the color image. Here, the edge pixel is a pixel whose slope size is equal to or larger than a certain size.

프로세서(190)는 획득한 영상 정보를 이용하여, 최소 2개 이상의 사람 후보 영역을 추출할 수 있다.The processor 190 can extract at least two candidate candidate regions using the acquired image information.

단계 S203에 대해서는 이하의 도면을 참조하여 설명한다.Step S203 will be described with reference to the following drawings.

도 3은 본 발명의 일 실시 예에 따라 획득된 영상 정보에 기초하여, 사람 후보 영역을 추출하는 과정을 설명하는 흐름도이다.3 is a flowchart illustrating a process of extracting a human candidate region based on image information obtained according to an embodiment of the present invention.

특히, 도 3은 도 2의 단계 S203을 구체화한 도면이다.Particularly, FIG. 3 is a diagram embodying step S203 of FIG.

도 3을 참조하면, 프로세서(190)는 획득된 영상 정보에 RGB 정보가 포함되어 있는지를 판단한다(S301). Referring to FIG. 3, the processor 190 determines whether RGB information is included in the acquired image information (S301).

프로세서(190)는 획득된 영상 정보에 RGB 정보가 포함되어 있지 않은 경우, 획득된 영상 정보에 기초하여, 전경 영역으로부터 배경 영역을 분리한다(S303).If RGB information is not included in the obtained image information, the processor 190 separates the background area from the foreground area based on the acquired image information (S303).

이 경우, 프로세서(190)는 깊이 센서만을 이용하여, 사람 후보 영역을 추출할 수 있다. 즉, 영상 정보에 RGB 정보가 포함되지 않은 경우, 해당 영상 정보는 깊이 센서를 통해 감지된 깊이 정보일 수 있다.In this case, the processor 190 can extract the human candidate region using only the depth sensor. That is, when RGB information is not included in the image information, the image information may be depth information sensed by the depth sensor.

깊이 정보는 깊이 센서와 주변 사물 간의 거리를 나타내는 거리 데이터를 포함할 수 있다.The depth information may include distance data indicating the distance between the depth sensor and the surrounding objects.

단계 S303에 대해서는 도 4를 참조하여 설명한다.Step S303 will be described with reference to FIG.

도 4는 본 발명의 일 실시 예에 따라 획득된 영상 정보에 기초하여, 전경 영역과 배경 영역을 분리하는 예를 설명하는 도면이다.4 is a diagram for explaining an example of separating a foreground region and a background region based on image information obtained according to an embodiment of the present invention.

도 4를 참조하면, 청소기(100)의 전면에 위치한 실제 영상(400)이 도시되어 있다.Referring to FIG. 4, an actual image 400 positioned on the front surface of the cleaner 100 is shown.

영상 정보 획득부(110)의 깊이 센서는 실제 영상(400)에 대응하는 영상 정보를 획득할 수 있다. The depth sensor of the image information acquiring unit 110 may acquire image information corresponding to the real image 400.

프로세서(190)에 포함된 전처리부(미도시)는 획득된 영상 정보를 전처리 하여, 실제 영상(400)의 전체에 대응하는 전경 영역(410)을 획득할 수 있다. 이 과정에서, 전처리부는 영상 정보에서 노이즈를 제거할 수 있고, 노이즈가 제거된 전경 영역(410)을 획득할 수 있다.The preprocessing unit (not shown) included in the processor 190 preprocesses the acquired image information to acquire the foreground region 410 corresponding to the entire real image 400. [ In this process, the preprocessor can remove the noise from the image information and acquire the foreground region 410 from which noise has been removed.

전경 영역(410)은 사물 영역들(413, 415)을 포함하지 않은 배경 영역(411)을 포함할 수 있다. 전처리부는 전경 영역(410)으로부터 사물 영역들(413, 415)을 포함하지 않은 배경 영역(411)을 분리할 수 있다.The foreground region 410 may include a background region 411 that does not include the object regions 413 and 415. The preprocessor may separate the background area 411 not including the object areas 413 and 415 from the foreground area 410.

다시 도 3을 설명한다.3 will be described again.

프로세서(190)는 배경 영역이 분리된 전경 영역 중 움직임이 있는 영역 또는 전경 영역 중 바닥 평면 영역을 제거한 영역을 사람 후보 영역으로 추출한다(S305).The processor 190 extracts, as a human candidate region, a region in which a background region has been removed and a bottom plane region of the foreground region is removed (S305).

일 실시 예에서, 프로세서(190)는 배경 영역이 분리된 상태의 전경 영역 내에 움직임이 있는 영역들을 사람 후보 영역으로 추출할 수 있다. In one embodiment, the processor 190 may extract regions of motion within the foreground region with the background region in a separate state into a human candidate region.

도 4를 참조하면, 프로세서(190)는 배경 영역(411)이 분리된 상태의 전경 영역(410) 내에 움직임이 존재하는 사물 영역들(413, 415)을 추출할 수 있다.Referring to FIG. 4, the processor 190 may extract object regions 413 and 415 in which motion exists in the foreground region 410 where the background region 411 is separated.

프로세서(190)는 제1 시점에서 획득된 제1 영상 정보 및 제2 시점에서 획득된 제2 영상 정보에 기초하여, 사물 영역들(413, 415) 각각이 이동된 경우, 영역들(413, 415) 각각을 사람 후보 영역으로 추출할 수 있다. 여기서, 제2 시점은 제1 시점보다 더 늦은 시점일 수 있다.When each of the object areas 413 and 415 is moved based on the first image information obtained at the first time point and the second image information obtained at the second time point, ) Can be extracted as human candidate regions. Here, the second time point may be later than the first time point.

만약, 사물 영역들(413, 415) 중 어느 하나의 영역이 제1 시점 및 제2 시점에서 동일한 위치에 있는 경우, 프로세서(190)는 해당 영역을 사람 후보 영역으로 추출하지 않을 수 있다.If any one of the object areas 413 and 415 is located at the same position at the first view point and the second view point, the processor 190 may not extract the corresponding area as a human candidate area.

또 다른 실시 예에서 배경 영역이 바닥 평면 영역으로 한정된 경우, 프로세서(190)는 전경 영역 내에서 바닥 평면 영역을 분리하고, 분리된 바닥 평면 영역을 제거할 수 있다.In another embodiment, if the background region is defined as a bottom plane region, the processor 190 may separate the bottom plane region within the foreground region and remove the separated bottom plane region.

프로세서(190)는 바닥 평면 영역을 제거한 후, 남아 있는 영역에서, 움직임이 존재하는 영역을 사람 후보 영역으로 추출할 수 있다.The processor 190 may remove the bottom planar region and then extract, in the remaining region, the region in which the motion is present, into the human candidate region.

한편, 프로세서(190)는 획득된 영상 정보에 RGB 정보가 포함된 경우, HOG 기반 사람 인식 알고리즘을 수행하고(S307), 수행 결과에 따라 사람 후보 영역을 추출한다(S309).If the acquired image information includes RGB information, the processor 190 performs a HOG-based human recognition algorithm (S307), and extracts a human candidate region according to the execution result (S309).

프로세서(190)는 RGB 센서를 통해 획득된 RGB 정보를 이용하여, HOG 기반 사람 인식 알고리즘을 수행할 수 있다.The processor 190 may perform the HOG-based human recognition algorithm using the RGB information obtained through the RGB sensor.

HOG 기반 사람 인식 알고리즘은 위에서 설명한 바대로, RGB 정보에 대응하는 영상 영역을 분할한 복수의 셀들 중 엣지(edge) 픽셀들의 방향에 대해 히스토그램을 획득하여, 대상 영역에 포함된 사람 영역을 인식하는 알고리즘 기법이다.As described above, the HOG-based human recognition algorithm obtains a histogram of the direction of edge pixels among a plurality of cells obtained by dividing an image region corresponding to RGB information, and performs an algorithm for recognizing a human region included in the target region Technique.

단계 S301 내지 S307에 따라, 프로세서(190)는 최소 2개 이상의 사람 후보 영역들을 추출할 수 있다. 2개 이상의 사람 후보 영역들이 추출됨에 따라 사람 영역이 보다 정확하게 추출될 수 있다.According to steps S301 to S307, the processor 190 may extract a minimum of two or more candidate regions. As the two or more candidate regions are extracted, the human region can be extracted more accurately.

다시 도 2를 설명한다.Fig. 2 will be described again.

프로세서(190)는 추출된 하나 이상의 사람 후보 영역 중 사람으로 판단되는 영역이 있는지를 판단하고(S205), 판단 결과에 따라 사람 영역을 획득한다(S207).The processor 190 determines whether there is a human candidate region among the extracted one or more candidate regions (S205), and acquires a human region according to the determination result (S207).

일 실시 예에서 프로세서(190)는 추출된 사람 후보 영역을 3차원 좌표로 변환하여, 3차원 사람 후보 영역을 획득할 수 있다.In one embodiment, the processor 190 may convert the extracted person candidate region into three-dimensional coordinates to obtain a three-dimensional human candidate region.

프로세서(190)는 메모리(150)에 저장된 3차원 사람 모델과 3차원 사람 후보 영역 간을 매칭시켜, 3차원 사람 후보 영역이 사람 영역인지를 판단할 수 있다.The processor 190 may match the three-dimensional human model and the three-dimensional human candidate region stored in the memory 150 to determine whether the three-dimensional human candidate region is a human region.

3차원 사람 모델은 사람의 다리 형상을 포함하는 모델일 수 있다.The three-dimensional human model may be a model including a human leg shape.

메모리(150)는 다양한 다리 형상들에 대응하는 3차원 사람 모델들을 저장하고 있을 수 있다.The memory 150 may store three-dimensional human models corresponding to various leg shapes.

프로세서(190)는 매칭 결과, 3차원 사람 후보 영역이 3차원 사람 모델과 매칭된 경우, 해당 사람 후보 영역이 사람 영역인 것으로 판단할 수 있다.The processor 190 may determine that the person candidate region is a human region when the three-dimensional human candidate region matches the three-dimensional human model as a result of the matching.

3차원 사람 모델에 대해서는 도 5를 참조하여 설명한다.The three-dimensional human model will be described with reference to Fig.

한편, 추출된 하나 이상의 사람 후보 영역 중 사람으로 판단되지 않은 영역이 있는 경우, 프로세서(190)는 해당 사람 후보 영역을 장애물 영역으로 간주하고, 장애물 영역을 회피하기 위해 주행 구동부를 제어한다(S206).On the other hand, if there is an area that is not judged as a person among the extracted one or more person candidate areas, the processor 190 regards the person candidate area as an obstacle area and controls the driving part to avoid the obstacle area (S206) .

프로세서(190)는 매칭 결과, 3차원 사람 후보 영역이 3차원 사람 모델과 매칭되지 않은 경우, 해당 사람 후보 영역을 사람 영역이 아닌 장애물로 판단할 수 있다. As a result of the matching, if the three-dimensional human candidate region is not matched with the three-dimensional human model, the processor 190 can determine the corresponding human candidate region as an obstacle rather than a human region.

사람 후보 영역이 장애물로 판단된 경우, 프로세서(190)는 장애물을 회피하도록 청소기(100)의 주행을 제어할 수 있다.If the candidate candidate region is determined to be an obstacle, the processor 190 may control the traveling of the cleaner 100 to avoid an obstacle.

도 5는 본 발명의 일 실시 예에 따라 메모리에 저장된 3차원 사람 모델의 예시를 보여준다.Figure 5 illustrates an example of a three-dimensional human model stored in memory in accordance with one embodiment of the present invention.

청소기(100)의 메모리(150)는 복수의 3차원 사람 모델들(510, 530, 550)을 저장하고 있을 수 있다. 각 차원 사람 모델은 사람의 뒷 모습에 대응하는 다리 쌍을 포함하는 형상을 가질 수 있다.The memory 150 of the cleaner 100 may store a plurality of three-dimensional human models 510, 530, and 550. Each dimensional human model may have a shape that includes a pair of legs corresponding to the back of a person.

프로세서(190)는 추출된 사람 후보 영역과 메모리(150)에 저장된 복수의 3차원 사람 모델들(510, 530, 550) 각각을 비교할 수 있다.The processor 190 may compare each of the extracted three-dimensional human models 510, 530, and 550 stored in the memory 150 with the extracted human candidate region.

프로세서(190)는 추출된 사람 후보 영역과 기 저장된 3차원 사람 모델 간의 매칭율이 기 설정된 매칭율 이상인 경우, 추출된 사람 후보 영역을 사람 영역으로 판단할 수 있다.The processor 190 may determine the extracted human candidate region as a human region when the matching rate between the extracted human candidate region and the previously stored three-dimensional human model is equal to or greater than a predetermined matching rate.

프로세서(190)는 사람 후보 영역이 사람 영역이 아닌 것으로 판단된 경우, 사람 후보 영역을 장애물 영역으로 인식할 수 있다. The processor 190 can recognize the human candidate region as an obstacle region when it is determined that the human candidate region is not a human region.

다시 도 2를 설명한다.Fig. 2 will be described again.

프로세서(190)는 획득된 사람 영역의 이동 경로를 획득하고(209), 획득된 이동 경로를 메모리(150)에 저장한다(S211).The processor 190 obtains the movement path of the acquired human area (209), and stores the obtained movement path in the memory 150 (S211).

일 실시 예에서 프로세서(190)는 획득된 사람 영역으로부터 하나 이상의 다리 쌍을 추출할 수 있다. In one embodiment, the processor 190 may extract one or more pairs of legs from the acquired human region.

프로세서(190)는 하나 이상의 추출된 다리 쌍들 중 어느 하나의 다리 쌍을 청소기 본체가 추종해야 할 대상으로 선정할 수 있다.The processor 190 may select one of the pair of extracted leg pairs as an object to which the cleaner main body should follow.

프로세서(190)는 선정된 추종 대상(선정된 다리 쌍에 대응하는 사용자)의 위치를 실시간으로 획득할 수 있다.The processor 190 can obtain the position of the selected follow subject (the user corresponding to the selected leg pair) in real time.

프로세서(190)는 실시간으로 획득된 사용자의 위치에 기초하여, 사용자의 이동 경로를 획득할 수 있다.The processor 190 may obtain the user's travel route based on the location of the user obtained in real time.

획득된 사용자의 이동 경로는 청소기 본체가 주행해야 될 이동 경로일 수 있다.The obtained travel route of the user may be a travel route on which the cleaner main body should travel.

이하에서는, 사람 영역으로부터 추종 대상을 선정하고, 선정된 추종 대상의 이동 경로를 획득하는 과정을 설명한다.Hereinafter, a process of selecting a tracking target from a human region and acquiring a movement route of the selected tracking target will be described.

도 6은 본 발명의 일 실시 예에 따라 획득된 사람 영역으로부터 추종 대상을 선정하고, 선정된 추종 대상의 이동 경로를 획득하는 과정을 설명하는 흐름도이다.FIG. 6 is a flowchart illustrating a process of selecting a tracking target from a human region obtained according to an embodiment of the present invention and obtaining a movement route of the selected tracking target.

도 6을 참조하면, 프로세서(190)는 획득된 사람 영역으로부터 하나 이상의 다리 쌍들을 추출한다(S601). Referring to FIG. 6, the processor 190 extracts one or more pairs of legs from the acquired human region (S601).

일 실시 예에서, 획득된 사람 영역은 사람의 전체 영역을 포함할 수도 있고, 다리 영역을 포함하는 사람의 일부 영역만을 포함할 수 있다.In one embodiment, the acquired human region may include the entire region of a person, and may include only a portion of a person's region including a leg region.

프로세서(190)는 추출된 각 다리 쌍에 포함된 다리 영역 간의 거리가 일정 거리 이내인지를 판단한다(S603).The processor 190 determines whether the distance between the leg regions included in each extracted pair of legs is within a predetermined distance (S603).

만약, 다리 쌍에 포함된 다리 영역 간의 거리가 일정 거리 이내인 경우, 프로세서(190)는 해당 다리 쌍이 동일한 사람의 다리 쌍인 것으로 인식할 수 있다.If the distance between the leg regions included in the pair of legs is within a certain distance, the processor 190 can recognize that the pair of legs is a pair of legs of the same person.

만약, 다리 쌍에 포함된 다리 영역 간의 거리가 일정 거리를 초과하는 경우, 해당 다리 쌍은 동일한 사람의 다리 쌍이 아닌 것으로 인식한다(S604).If the distance between the leg regions included in the pair of legs exceeds a certain distance, it is recognized that the pair of legs is not a leg pair of the same person (S604).

여기서, 일정 거리는 80cm 일 수 있으나, 이는 예시에 불과한 수치이다.Here, the predetermined distance may be 80 cm, but this is only an example.

도 7은 본 발명의 일 실시 예에 따라 다리 영역 간의 거리에 기초하여, 동일한 사람의 다리 쌍인지를 판단하는 예를 설명하는 도면이다.Fig. 7 is a diagram for explaining an example of judging whether a pair of legs is the same person based on the distance between leg regions according to an embodiment of the present invention. Fig.

도 7을 참조하면, 하나의 사람 영역으로부터 추출된 다리 쌍들(710, 720)이 도시되어 있다.Referring to FIG. 7, leg pairs 710, 720 extracted from one human region are shown.

제1 다리 쌍(710)은 제1 다리 영역(711) 및 제2 다리 영역(713)을 포함할 수 있다.The first pair of legs 710 may include a first leg region 711 and a second leg region 713.

제2 다리 쌍(720)은 제3 다리 영역(721) 및 제4 다리 영역(732)을 포함할 수 있다.The second pair of legs 720 may include a third leg region 721 and a fourth leg region 732.

프로세서(190)는 제1 다리 영역(711) 및 제2 다리 영역(713) 간의 제1 거리(d1)가 일정 거리 이내에 있는지를 판단한다. 일정 거리는 80cm일 수 있다.The processor 190 determines whether the first distance d1 between the first leg region 711 and the second leg region 713 is within a certain distance. The distance may be 80 cm.

프로세서(190)는 제1 거리(d1)가 80cm 이내인 경우, 제1 다리 쌍(710)을 동일한 사람의 다리 쌍인 것으로 판단할 수 있다.The processor 190 may determine that the first leg pair 710 is a leg pair of the same person when the first distance d1 is within 80 cm.

한편, 프로세서(190)는 제3 다리 영역(721) 및 제4 다리 영역(723) 간의 제2 거리(d2)가 일정 거리 이내에 있는지를 판단한다. Meanwhile, the processor 190 determines whether the second distance d2 between the third leg region 721 and the fourth leg region 723 is within a certain distance.

프로세서(190)는 제2 거리(d2)가 일정 거리를 초과하는 경우, 제2 다리 쌍(720)을 동일한 사람의 다리 쌍이 아닌 것으로 인식할 수 있다. 프로세서(190)는 동일한 사람의 다리 쌍이 아닌 것으로 인식된 제2 다리 쌍(720)을 제거할 수 있다.The processor 190 may recognize that the second leg pair 720 is not a leg pair of the same person if the second distance d2 exceeds a certain distance. The processor 190 may remove the second pair of legs 720 that are recognized as not the same person's leg pair.

이 과정에 따라, 청소기(100)가 추종해야 할 추종 대상이 명확해 질 수 있다.According to this process, the subject to be followed by the cleaner 100 can be clarified.

다시 도 6을 설명한다.6 will be described again.

프로세서(190)는 다리 영역 간의 거리가 일정 거리 이내인 다리 쌍을 추출하고, 추출된 다리 쌍이 2개 이상인지를 판단한다(S605).The processor 190 extracts a pair of legs whose distance between the leg regions is within a predetermined distance, and determines whether there are two or more pairs of extracted legs (S605).

프로세서(190)는 추출된 다리 쌍이 2개 이상인 경우, 영상 정보 획득부(110)에 포함된 깊이 센서(111)와 가장 가까운 거리에 위치한 다리 쌍을 추종 대상으로 선정한다(S607).If there are two or more extracted leg pairs, the processor 190 selects a pair of legs located closest to the depth sensor 111 included in the image information obtaining unit 110 as a follow subject (S607).

일 실시 예에서 프로세서(190)는 추출된 다리 쌍들 각각과 깊이 센서(111)간의 거리 데이터를 획득할 수 있다.In one embodiment, the processor 190 may obtain distance data between each of the extracted leg pairs and the depth sensor 111.

프로세서(190)는 도 2의 단계 S201에서 깊이 센서(111)를 통해 사물의 깊이 정보에 포함된 거리 데이터를 이용하여, 다리 쌍들 각각과 깊이 센서(111) 간의 거리를 획득할 수 있다.The processor 190 can obtain the distance between each pair of legs and the depth sensor 111 using the distance data included in the depth information of the object through the depth sensor 111 in step S201 of FIG.

프로세서(190)는 다리 쌍들 각각과 깊이 센서(111) 간의 거리 중 깊이 센서(111)와 가장 가까운 거리에 위치한 다리 쌍을 청소기(100)가 추종할 대상으로 선정할 수 있다.The processor 190 can select a pair of legs located at a distance closest to the depth sensor 111 among the distances between each pair of legs and the depth sensor 111 to be followed by the vacuum cleaner 100. [

프로세서(190)는 추종 대상으로 선정된 다리 쌍을 바닥 평면에 투사한다(S609).The processor 190 projects the selected pair of legs to the floor plane (S609).

도 8 및 도 9는 본 발명의 일 실시 예에 따라 청소기가 추종 대상으로 선정한 다리 쌍을 바닥 평면에 투사시켜, 투사된 발바닥 영역을 획득하는 과정을 설명하는 도면이다.FIGS. 8 and 9 are views illustrating a process of projecting a projected foot area by projecting a pair of legs selected as a subject to be monitored by a cleaner on a floor plane according to an embodiment of the present invention.

도 8은 제1 시점에서 획득된 발바닥 영역을 설명하는 도면이고, 도 9는 제1 시점에서 일정 시점이 경과한, 제2 시점에서 획득된 발바닥 영역을 설명하는 도면이다.FIG. 8 is a view for explaining a sole region obtained at a first time point, and FIG. 9 is a view for explaining a sole region obtained at a second time point at a predetermined time point at a first time point.

프로세서(190)는 추종 대상으로 선정된 제1 다리 쌍(810)을 바닥 평면(830)에 투사시킬 수 있다. 이에 따라, 제1 발바닥 쌍 영역(850)이 획득될 수 있다. 제1 발바닥 쌍 영역(850)은 추후, 청소기(100)가 추종을 위한 사용자의 이동 경로를 획득하는데 사용될 수 있다.The processor 190 may project the first pair of legs 810 selected as the object of tracking to the bottom plane 830. [ Accordingly, the first sole pair region 850 can be obtained. The first sole pair region 850 may be used later by the cleaner 100 to obtain the user's path of travel for follow-up.

마찬가지로, 청소기(100)의 추종 대상인 사람이 이동한 경우, 프로세서(190)는 추종 대상으로 선정된 제2 다리 쌍(910)을 바닥 평면(930)에 투사시킬 수 있다. 이에 따라, 제2 발바닥 쌍 영역(950)이 획득될 수 있다. Likewise, when the person to be monitored of the cleaner 100 moves, the processor 190 may project the second pair of legs 910 selected as the subject to be watched on the floor plane 930. Accordingly, a second sole pair region 950 can be obtained.

제2 발바닥 쌍 영역(950)은 추후, 청소기(100)가 추종을 위한 사용자의 이동 경로를 획득하는데 사용될 수 있다.The second sole pair region 950 may be used later by the cleaner 100 to obtain the user's path of travel for follow-up.

다시 도 6을 설명한다.6 will be described again.

프로세서(190)는 투사에 의해 얻어진 다리 쌍에 대응하는 발바닥 쌍 영역을 이용하여, 사용자의 위치를 실시간으로 획득한다(S611).The processor 190 obtains the position of the user in real time using the sole pair region corresponding to the pair of legs obtained by projection (S611).

일 실시 예에서 프로세서(190)는 발바닥 쌍 영역을 구성하는 발바닥 영역들 간의 상대적 위치를 이용하여, 사용자의 위치를 실시간으로 획득할 수 있다.In one embodiment, the processor 190 may obtain the position of the user in real time using the relative position between the plantar regions that make up the plantar pair region.

발바닥 영역들 간의 상대적 위치는 좌 발바닥 영역의 중심과 우 발바닥 영역의 중심을 이은 선분의 중심점일 수 있다.The relative position between the plantar regions may be the center point of the line segment between the center of the left foot region and the center of the right foot region.

프로세서(190)는 획득된 사용자의 위치를 이용하여, 사용자의 이동 경로를 획득한다(S613).The processor 190 acquires the movement path of the user using the acquired position of the user (S613).

프로세서(190)는 실시간으로 획득된 사용자의 위치를 이용하여, 일정 시간 간격으로, 사용자의 이동 경로를 획득할 수 있다. 일정 시간 간격은 1초일 수 있으나, 이는 예시에 불과한 수치이다.The processor 190 can acquire the movement path of the user at predetermined time intervals using the position of the user obtained in real time. The time interval may be one second, but this is only an example.

이하에서는 사용자의 위치를 기반으로, 사용자의 이동 경로를 획득하는 예를 설명한다.Hereinafter, an example of acquiring the movement route of the user based on the location of the user will be described.

도 10은 본 발명의 일 실시 예에 따라 발바닥 영역들의 상대적 위치에 기초하여, 사용자의 이동 경로를 획득하는 예를 설명하는 도면이다.10 is a view for explaining an example of acquiring a movement path of a user based on the relative positions of plantar regions according to an embodiment of the present invention.

도 10은 특히, 사용자가 곡선 궤적을 그리며, 움직일 시, 사용자의 이동 경로를 획득하는 과정을 설명한다.10 illustrates a process in which a user draws a curved trajectory and acquires a movement path of the user when the user draws a curved trajectory.

도 10에서는 설명의 편의상, 흡입 노즐(21) 및 흡입 호스(23)의 구성은 생략되었다.In FIG. 10, the constitution of the suction nozzle 21 and the suction hose 23 is omitted for convenience of explanation.

도 10을 참조하면, 발바닥 쌍 영역(1000)이 도시되어 있다. Referring to Fig. 10, a sole pair region 1000 is shown.

발바닥 쌍 영역(1000)은 추종 대상으로 선정된 다리 쌍을 투사시켜 얻어진 영역일 수 있다.The sole pair region 1000 may be an area obtained by projecting a pair of legs selected as a subject to be tracked.

발바닥 쌍 영역(1000)은 좌 발바닥 영역(1010) 및 우 발바닥 영역(1030)을 포함할 수 있다.The sole pair region 1000 may include a left foot region 1010 and a right foot region 1030.

프로세서(190)는 좌 발바닥 영역(1010)의 중심점(1011)과 우 발바닥 영역(1030)의 중심점(1031)을 이은 선분의 중심점(1050)을 획득할 수 있다.The processor 190 may obtain the center point 1050 of the line segment between the center point 1011 of the left foot area 1010 and the center point 1031 of the right foot area 1030. [

프로세서(190)는 선분의 중심점(1050)을 사용자의 위치로 인식할 수 있다. The processor 190 may recognize the center point 1050 of the line segment as the position of the user.

프로세서(190)는 좌 발바닥 영역(1010)의 중심점(1011)과 우 발바닥 영역(1030)의 중심점(1031)을 이은 선분의 중심점(1050)을 실시간으로 획득할 수 있다. The processor 190 can acquire the center point 1011 of the left foot area 1010 and the center point 1050 of the line segment between the center point 1031 of the right foot area 1030 in real time.

일 실시 예에서, 사용자가 직선 궤적을 그리며, 움직이는 경우, 중심점(1050) 또한, 직선 궤적을 그릴 수 있다.In one embodiment, when the user draws a straight line trajectory, and moves, the center point 1050 can also draw a straight line trajectory.

또 다른 실시 예에서 도 10에 도시된 바와 같이, 사용자가 곡선 궤적을 그리며, 움직이는 경우, 중심점(1050) 또한, 곡선 궤적을 그릴 수 있다.In another embodiment, as shown in FIG. 10, when the user draws a curved trajectory, the center point 1050 can also draw a curved trajectory.

프로세서(190)는 실시간으로 획득된 중심점(1050)의 곡선 궤적(1070)을 청소기 본체(10)가 추종해야 할 사용자의 이동 경로로 획득할 수 있다.The processor 190 can obtain the curved trajectory 1070 of the center point 1050 obtained in real time by the movement path of the user to which the cleaner main body 10 should follow.

이 과정에 따라, 사용자의 움직임 궤적이 보다 정확히 추출될 수 있고, 청소기 본체(10)는 추종 대상을 정확하게 추종할 수 있다.According to this process, the movement trajectory of the user can be extracted more accurately, and the cleaner main body 10 can accurately follow the target to be followed.

다시 도 2를 설명한다.Fig. 2 will be described again.

프로세서(190)는 획득된 사용자의 이동 경로에 기초하여, 청소기 본체(10)와 사용자 간의 거리가 일정 거리 이상인지를 판단한다(S213).The processor 190 determines whether the distance between the cleaner main body 10 and the user is equal to or greater than a predetermined distance, based on the acquired travel path of the user (S213).

일 실시 예에서 청소기 본체(10)와 사용자 간의 거리는 청소기 본체(10)에 구비된 깊이 센서(111)와 도 10에서 설명한 선분의 중심점(1050) 간의 거리일 수 있다.In one embodiment, the distance between the cleaner body 10 and the user may be the distance between the depth sensor 111 provided in the cleaner body 10 and the center point 1050 of the line segment described in FIG.

이에 대해서는 도 11을 참조하여, 설명한다.This will be described with reference to FIG.

도 11은 본 발명의 일 실시 예에 따라 사용자와 청소기 본체 간의 거리를 측정하는 방법을 설명하는 도면이다.11 is a view for explaining a method of measuring a distance between a user and a cleaner main body according to an embodiment of the present invention.

도 11의 설명을 위해 도 10의 내용의 일부를 차용한다.For the explanation of FIG. 11, a part of the contents of FIG. 10 is borrowed.

도 11을 참조하면, 좌 발바닥 영역(1010)의 중심(1011)과 우 발바닥 영역(1030)의 중심(1031)을 이은 선분의 중심점(1050)이 사용자의 현재 위치로 판단될 수 있다.11, the center point 1050 of the line segment between the center 1011 of the left foot area 1010 and the center 1031 of the right foot area 1030 can be determined as the current position of the user.

사용자와 청소기 본체(10) 간의 거리는 선분의 중심점(1050)과 청소기 본체(10)에 구비된 깊이 센서(111)간의 거리일 수 있다.The distance between the user and the cleaner main body 10 may be the distance between the center point 1050 of the line segment and the depth sensor 111 provided in the cleaner main body 10. [

프로세서(190)는 깊이 센서(111)와 선분의 중심점(1050) 간의 떨어진 거리에 기초하여, 청소기 본체(10)가 사용자를 추종할지 여부를 결정할 수 있다.The processor 190 may determine whether the cleaner body 10 follows the user based on the distance between the depth sensor 111 and the center point 1050 of the line segment.

청소기 본체(10)와 사용자 간의 거리가 일정 거리 이상인지 판단하는 이유는, 청소기 본체(10)가 사용자와 일정 거리를 유지하면서, 사용자를 추종하기 위함이다.The reason why the distance between the cleaner main body 10 and the user is greater than a predetermined distance is that the cleaner main body 10 keeps a certain distance from the user and follows the user.

다시 도 2를 설명한다.Fig. 2 will be described again.

프로세서(190)는 청소기 본체(10)와 사용자 간 거리가 일정 거리 이상인 경우, 청소기 본체(10)가 저장된 이동 경로를 따라 주행하도록 주행 구동부(170)를 제어한다(S215).The processor 190 controls the travel driving unit 170 to travel along the travel route on which the cleaner main body 10 is stored when the distance between the cleaner main body 10 and the user is equal to or greater than a certain distance (S215).

프로세서(190)는 사용자의 현재 위치가 아닌 사용자가 과거에 이동했던 이동 궤적을 따라 청소기 본체(10)가 주행하도록 주행 구동부(170)를 제어할 수 있다.The processor 190 may control the travel driving unit 170 so that the cleaner main body 10 travels along the movement trajectory in which the user has moved in the past rather than the current position of the user.

프로세서(190)는 청소기 본체(10)가 사용자의 위치로부터 일정 거리 이상 떨어진 거리에 위치하도록 주행 구동부(170)를 제어할 수 있다. The processor 190 may control the travel driving unit 170 such that the cleaner main body 10 is located at a distance of a certain distance or more from the user's position.

이에 따라, 사용자는 청소기 본체(10)로 인해, 청소 행위를 방해 받지 않을 수 있다.Accordingly, the user may not be disturbed by the cleaner body 10 due to the cleaning operation.

일 실시 예에서 프로세서(190)는 사용자의 이동 속도에 기초하여, 주행 구동부(170)에 포함된 모터의 회전 수를 조절할 수 있다.In one embodiment, the processor 190 may adjust the number of revolutions of the motor included in the travel driving unit 170 based on the moving speed of the user.

예를 들어, 프로세서(190)는 사용자의 이동 속도가 증가하는 경우, 주행 구동부(170)에 포함된 모터의 회전 수를 증가시킬 수 있다. For example, the processor 190 may increase the number of revolutions of the motor included in the travel driving unit 170 when the moving speed of the user increases.

사용자가 빨리 이동하면서 청소를 수행하는 경우, 청소기 본체(10)는 상대적으로, 느린 속도로 이동 경로를 주행할 수 있다. 이 경우, 사용자는 흡입 호스를 당겨서 청소기 본체(10)를 끌어야 하는 불편함이 있다. 사용자의 불편함을 해소하기 위해, 프로세서(190)는 이동 경로를 빠르게 주행하도록 주행 구동부(170)에 포함된 모터의 회전 수를 증가시킬 수 있다.When the user performs the cleaning while moving quickly, the cleaner main body 10 can travel on the movement path at a relatively slow speed. In this case, the user has to draw the suction hose to draw the cleaner main body 10 inconveniently. In order to solve the inconvenience of the user, the processor 190 may increase the number of revolutions of the motor included in the travel driving unit 170 so as to rapidly travel the moving route.

사용자의 이동 속도는 일정 시간 대비 사용자의 위치 변화량이 커질수록 증가될 수 있다. The moving speed of the user can be increased as the positional variation of the user is larger than the predetermined time.

사용자의 위치 변화량은 도 10에서 설명된 좌 발바닥 영역(1010) 및 우 발바닥 영역(1030) 사이에 위치한 중심점(1050)의 이동 거리를 나타낼 수 있다.The amount of change in the position of the user may indicate the moving distance of the center point 1050 located between the left foot area 1010 and the right foot area 1030 illustrated in FIG.

중심점(1050)의 이동 거리는 사용자의 이동 거리에 대응될 수 있다.The moving distance of the center point 1050 may correspond to the moving distance of the user.

프로세서(190)는 일정 시간 대비 사용자의 이동 거리를 측정하여, 사용자의 이동 속도를 산출할 수 있다. The processor 190 may calculate the moving speed of the user by measuring the moving distance of the user with respect to a predetermined time.

프로세서(190)는 산출된 사용자의 이동 속도에 따라 주행 구동부(170)에 포함된 모터의 회전 수를 조절할 수 있다.The processor 190 may adjust the rotation speed of the motor included in the travel driving unit 170 according to the calculated movement speed of the user.

프로세서(190)는 청소기 본체를 이동 경로를 따라 주행시키는 도중, 장애물이 검출되었는지를 판단한다(S217).The processor 190 determines whether an obstacle is detected during traveling the cleaner main body along the movement path (S217).

일 실시 예에서 프로세서(190)는 깊이 센서(111)를 이용하여, 이동 경로장애물상에 존재하는 검출할 수 있다. 이에 대해서는 단계 S206에서 설명된 내용으로 대체한다.In one embodiment, the processor 190 may use the depth sensor 111 to detect that it is present on a pathway obstacle. This is replaced with the contents described in step S206.

또 다른 실시 예에서 프로세서(190)는 도 1에서 설명된 장애물 감지부(130)를 이용하여, 장애물을 검출할 수 있다.In another embodiment, the processor 190 can detect an obstacle using the obstacle sensing unit 130 described in FIG.

프로세서(190)는 장애물이 검출된 경우, 장애물을 회피한 후, 사용자의 이동 경로로 복귀하도록 주행 구동부(170)를 제어한다(S219).When an obstacle is detected, the processor 190 controls the driving driving unit 170 to return to the moving path of the user after avoiding the obstacle (S219).

단계 S215 내지 S219에 대해서는 도 12 및 도 13을 참조하여 설명한다.Steps S215 to S219 will be described with reference to Figs. 12 and 13. Fig.

도 12는 사용자의 이동 경로에 따라 청소기 본체가 주행하는 실시 예를 설명하는 도면이고, 도 13은 사용자의 이동 경로 상에 장애물이 검출된 경우, 장애물을 회피 한 후, 이동 경로로 복귀하는 예를 설명하는 도면이다.FIG. 12 is a view for explaining an embodiment in which the cleaner main body travels according to the movement path of the user. FIG. 13 shows an example of returning to the movement path after avoiding an obstacle when an obstacle is detected on the movement path of the user Fig.

도 12 및 도 13에서는 설명의 편의상, 흡입 노즐(21) 및 흡입 호스(23)의 구성은 생략되었다.12 and 13, the constitution of the suction nozzle 21 and the suction hose 23 is omitted for convenience of explanation.

도 12를 참조하면, 프로세서(190)는 메모리(150)에 저장된 사용자의 이동 경로(1070)를 이용하여, 청소기 본체(10)가 이동 경로(1070)에 따라 주행하도록 주행 구동부(170)를 제어할 수 있다.12, the processor 190 controls the travel driving unit 170 so that the cleaner main body 10 travels along the travel route 1070 using the user's travel route 1070 stored in the memory 150 can do.

이에 따라, 청소기 본체(10)는 사용자의 현재 위치로 바로 이동하는 것이 아닌, 과거 사용자의 이동 궤적에 따라 이동될 수 있다.Accordingly, the cleaner main body 10 can be moved according to the movement trajectory of the past user, rather than moving directly to the current position of the user.

도 13을 참조하면, 이동 경로(1070) 상에는 장애물(1300)이 존재할 수 있다.Referring to FIG. 13, an obstacle 1300 may exist on the movement path 1070.

프로세서(190)는 이동 경로(1070) 상에 장애물(1300)이 존재함을 검출한 경우, 장애물(1300)을 회피하기 위한 임시 이동 경로(1310)에 따라 청소기 본체(10)가 이동하도록 주행 구동부(170)를 제어할 수 있다.When the processor 190 detects that the obstacle 1300 is present on the movement route 1070, the processor 190 moves the cleaner main body 10 in accordance with the temporary movement route 1310 for avoiding the obstacle 1300, (170).

장애물이 회피된 후, 프로세서(190)는 원래의 이동 경로(1070)로 복귀하도록 주행 구동부(1070)를 제어할 수 있다.After the obstacle is avoided, the processor 190 may control the travel driving section 1070 to return to the original travel route 1070. [

이에 따라, 청소기 본체(10)는 사용자의 이동 경로를 따라 주행하더라도 장애물과 충돌되는 것이 방지될 수 있다.Accordingly, the cleaner main body 10 can be prevented from colliding with the obstacle even when traveling along the movement route of the user.

한편, 프로세서(190)는 청소기 본체와 사용자 간 거리가 일정 거리 미만인 경우, 단계 S211을 수행한다. 즉, 이 경우, 프로세서(190)는 청소기 본체와 사용자 간의 거리가 일정 거리가 될 때까지 청소기 본체를 주행시키지 않을 수 있다.On the other hand, if the distance between the main body of the cleaner and the user is less than a predetermined distance, the processor 190 performs step S211. That is, in this case, the processor 190 may not run the cleaner main body until the distance between the cleaner main body and the user becomes a certain distance.

이는, 청소기 본체(10)가 사용자에 너무 가까이 다가가면, 사용자와 충돌을 일으킬 수 있기 때문이다.This is because, if the cleaner main body 10 comes too close to the user, it may cause a collision with the user.

사용자와 청소기 본체(10) 간의 거리가 일정 거리를 유지함에 따라 사용자는 청소 수행 중 청소기 본체(10)의 방해를 받지 않게 된다.As the distance between the user and the cleaner main body 10 maintains a certain distance, the user is not disturbed by the cleaner main body 10 during cleaning.

도 14는 본 발명의 일 실시 예에 따라 실제 사용자와 캐니스터 타입 청소기의 청소기 본체가 사용자의 이동 경로를 추종하는 모습을 설명하는 도면이다.14 is a view for explaining how an actual user and a cleaner main body of a canister type cleaner follow a user's movement path according to an embodiment of the present invention.

도 14를 참조하면, 사용자는 캐니스터 타입 청소기의 핸들(22)을 잡고, 곡선 궤적을 그리며, 청소 구역을 청소하고 있다.Referring to FIG. 14, the user grips the handle 22 of the canister type cleaner, draws a curved trajectory, and cleans the cleaning area.

캐니스터 타입 청소기의 청소기 본체(10)는 메모리(150)에 저장된 사용자의 곡선 경로(1400)를 따라 사용자를 추종하고 있다.The cleaner body 10 of the canister type cleaner follows the user along the curved path 1400 of the user stored in the memory 150.

기존에는 사용자가 곡선 경로(1400)를 따라 이동한 경우, 청소기 본체(10)는 곡선 경로(1400)가 아닌, 사용자로부터 일정 거리만큼 떨어진 추종 지점(1410)을 추종 위치로 선정했었다.Conventionally, when the user moves along the curved path 1400, the cleaner main body 10 has selected the following point 1410 as a follow-up position, which is not a curved path 1400 but a distance from the user.

이 경우, 청소기 본체(10)는 최단 직선 경로(1420)를 따라 추종 지점(1410)으로 바로 이동되어, 청소기 본체(10)가 사용자와 충돌하거나, 흡입 호스(23)가 꼬이는 문제가 있었다. In this case, the cleaner main body 10 is directly moved to the follow-up point 1410 along the shortest straight path 1420, causing the cleaner main body 10 to collide with the user or the suction hose 23 to be twisted.

또한, 청소기 본체(10)가 직선 경로(1420)를 따라 이동되면, 직선 경로(1420) 상에 존재하는 장애물에 충돌할 수 있는 문제도 있었다.Further, when the cleaner main body 10 is moved along the straight path 1420, there is a problem that the cleaner main body 10 may collide with an obstacle existing on the straight path 1420. [

본 발명의 실시 예에 따르면, 청소기 본체(10)가 최단 직선 경로(1420)가 아닌 사용자의 움직임 궤적인 곡선 궤적(1400)을 따라 이동되므로, 사용자와 충돌할 염려도 없고, 흡입 호스(23)가 꼬이는 문제도 방지될 수 있다.According to the embodiment of the present invention, since the cleaner main body 10 is moved along the curved trajectory 1400, which is the movement trajectory of the user, rather than the shortest straight path 1420, The problem of twisting can also be prevented.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. The present invention described above can be embodied as computer-readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, .

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The foregoing detailed description should not be construed in all aspects as limiting and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

Claims (15)

청소기에 있어서,
청소기 본체;
바닥 면의 먼지를 흡입하는 흡입 노즐;
상기 흡입 노즐로부터 전달된 먼지를 상기 청소기 본체로 전달하는 흡입 호스를 포함하고,
상기 청소기 본체는
상기 청소기 본체를 주행시키는 주행 구동부,
상기 청소기 본체 주위의 사물에 대한 영상 정보를 획득하는 깊이 센서 및
획득된 영상 정보에 기초하여, 사용자의 발바닥 쌍 영역을 추출하고,
추출된 발바닥 쌍 영역에 기초하여, 상기 사용자의 이동 경로를 획득하고,
상기 사용자와 상기 깊이 센서 간의 거리가 일정 거리 이상인 경우, 획득된 사용자의 이동 경로를 따라 상기 청소기 본체를 주행시키도록 상기 주행 구동부를 제어하는 프로세서를 포함하는
청소기.
In the vacuum cleaner,
A cleaner main body;
A suction nozzle for sucking dust on the floor surface;
And a suction hose for transmitting the dust transferred from the suction nozzle to the cleaner main body,
The cleaner main body
A traveling drive unit for traveling the cleaner main body,
A depth sensor for acquiring image information about an object around the cleaner main body;
Extracts the user's sole pair region based on the acquired image information,
Acquiring a movement route of the user based on the extracted sole pair region,
And a processor for controlling the travel driving unit to travel the cleaner main body along the travel path of the user when the distance between the user and the depth sensor is equal to or greater than a predetermined distance
vacuum cleaner.
제1항에 있어서,
상기 프로세서는
상기 발바닥 쌍 영역에 포함된 좌 발바닥 영역과 우 발바닥 영역 간의 상대적 위치를 이용하여, 상기 사용자의 위치를 실시간으로 획득하고,
실시간으로 획득된 사용자의 위치를 이용하여, 상기 사용자의 이동 경로를 획득하는
청소기.
The method according to claim 1,
The processor
The position of the user is obtained in real time using the relative position between the left foot area and the right foot area included in the plantar pair area,
And acquires the movement route of the user using the position of the user obtained in real time
vacuum cleaner.
제2항에 있어서,
상기 프로세서는
상기 좌 발바닥 영역의 중심과 상기 우 발바닥 영역의 중심을 이은 선분의 중심을 상기 사용자의 위치로 획득하는
청소기.
3. The method of claim 2,
The processor
The center of the line segment between the center of the left foot area and the center of the right foot area is obtained as the position of the user
vacuum cleaner.
제1항에 있어서,
상기 깊이 센서는
상기 청소기 본체의 상단 전면에 배치되고, 하방을 향해 광원을 조사하여, 상기 영상 정보를 획득하는
청소기.
The method according to claim 1,
The depth sensor
The vacuum cleaner body is disposed on the upper surface of the upper end of the cleaner main body, and irradiates the light source toward the lower side to acquire the image information
vacuum cleaner.
제1항에 있어서,
상기 프로세서는
상기 사용자의 이동 경로 상에 존재하는 장애물이 검출된 경우, 상기 청소기 본체가 상기 장애물을 회피하도록 상기 주행 구동부를 제어하고,
상기 장애물이 회피된 후, 상기 이동 경로로 복귀하도록 상기 주행 구동부를 제어하는
청소기.
The method according to claim 1,
The processor
Wherein when the obstacle present on the moving path of the user is detected, the cleaner main body controls the traveling driving unit to avoid the obstacle,
After the obstacle is avoided, the traveling driving unit is controlled to return to the traveling route
vacuum cleaner.
제1항에 있어서,
상기 프로세서는
상기 획득된 영상 정보에 기초하여, 하나 이상의 사람 후보 영역들을 추출하고,
상기 하나 이상의 사람 후보 영역들 중 다리 형상을 포함하는 영역을 사람 영역으로 추출하고,
추출된 사람 영역의 다리 쌍을 바닥 면에 투사시켜, 상기 발바닥 쌍 영역을 추출하는
청소기.
The method according to claim 1,
The processor
Extracting one or more person candidate regions based on the obtained image information,
Extracting a region including a leg shape among the one or more candidate regions as a human region,
Projecting the pair of legs of the extracted human region onto the floor surface, extracting the plantar-pair region
vacuum cleaner.
제3항에 있어서,
상기 프로세서는
상기 사용자의 위치에 기초하여, 상기 사용자의 이동 속도를 측정하고,
상기 청소기 본체의 주행 시, 측정된 사용자의 이동 속도에 따라 상기 주행 구동부에 포함된 모터의 회전 속도를 조절하는
청소기.
The method of claim 3,
The processor
Measuring a moving speed of the user based on the position of the user,
The controller controls the rotational speed of the motor included in the traveling driving unit according to the measured traveling speed of the user during traveling of the cleaner main body
vacuum cleaner.
제1항에 있어서,
상기 청소기 본체는
상기 사용자의 이동 경로를 저장하는 메모리를 더 포함하는
청소기.
The method according to claim 1,
The cleaner main body
Further comprising a memory for storing the movement path of the user
vacuum cleaner.
청소기에 있어서,
바닥 면의 먼지를 흡입하는 흡입부;
상기 청소기를 주행시키는 주행 구동부;
상기 청소기 주위의 사물에 대한 영상 정보를 획득하는 깊이 센서 및
획득된 영상 정보에 기초하여, 사용자의 발바닥 쌍 영역을 추출하고, 추출된 발바닥 쌍 영역에 기초하여, 상기 사용자의 이동 경로를 획득하고, 상기 사용자와 상기 깊이 센서 간의 거리가 일정 거리 이상인 경우, 획득된 사용자의 이동 경로를 따라 상기 청소기를 주행시키도록 상기 주행 구동부를 제어하는 프로세서를 포함하는
청소기.
In the vacuum cleaner,
A suction unit for sucking dust on the bottom surface;
A traveling driving unit for traveling the cleaner;
A depth sensor for acquiring image information about an object around the cleaner;
Extracting a region of the sole pair of the user based on the acquired image information, acquiring a movement route of the user based on the extracted region of the sole pair, and acquiring, when the distance between the user and the depth sensor is a certain distance or more, And controlling the traveling driving unit to travel the cleaner along a traveling path of the user
vacuum cleaner.
제9항에 있어서,
상기 프로세서는
상기 발바닥 쌍 영역에 포함된 좌 발바닥 영역과 우 발바닥 영역 간의 상대적 위치를 이용하여, 상기 사용자의 위치를 실시간으로 획득하고,
실시간으로 획득된 사용자의 위치를 이용하여, 상기 사용자의 이동 경로를 획득하는
청소기.
10. The method of claim 9,
The processor
The position of the user is obtained in real time using the relative position between the left foot area and the right foot area included in the plantar pair area,
And acquires the movement route of the user using the position of the user obtained in real time
vacuum cleaner.
제10항에 있어서,
상기 프로세서는
상기 좌 발바닥 영역의 중심과 상기 우 발바닥 영역의 중심을 이은 선분의 중심을 상기 사용자의 위치로 획득하는
청소기.
11. The method of claim 10,
The processor
The center of the line segment between the center of the left foot area and the center of the right foot area is obtained as the position of the user
vacuum cleaner.
제9항에 있어서,
상기 깊이 센서는
상기 청소기 본체의 상단 전면에 배치되고, 하방을 향해 광원을 조사하여, 상기 영상 정보를 획득하는
청소기.
10. The method of claim 9,
The depth sensor
The vacuum cleaner body is disposed on the upper surface of the upper end of the cleaner main body, and irradiates the light source toward the lower side to acquire the image information
vacuum cleaner.
제9항에 있어서,
상기 프로세서는
상기 사용자의 이동 경로 상에 존재하는 장애물이 검출된 경우, 상기 청소기 본체가 상기 장애물을 회피하도록 상기 주행 구동부를 제어하고,
상기 장애물이 회피된 후, 상기 이동 경로로 복귀하도록 상기 주행 구동부를 제어하는
청소기.
10. The method of claim 9,
The processor
Wherein when the obstacle present on the moving path of the user is detected, the cleaner main body controls the traveling driving unit to avoid the obstacle,
After the obstacle is avoided, the traveling driving unit is controlled to return to the traveling route
vacuum cleaner.
제9항에 있어서,
상기 프로세서는
상기 획득된 영상 정보에 기초하여, 하나 이상의 사람 후보 영역들을 추출하고,
상기 하나 이상의 사람 후보 영역들 중 다리 형상을 포함하는 영역을 사람 영역으로 추출하고,
추출된 사람 영역의 다리 쌍을 바닥 면에 투사시켜, 상기 발바닥 쌍 영역을 추출하는
청소기.
10. The method of claim 9,
The processor
Extracting one or more person candidate regions based on the obtained image information,
Extracting a region including a leg shape among the one or more candidate regions as a human region,
Projecting the pair of legs of the extracted human region onto the floor surface, extracting the plantar-pair region
vacuum cleaner.
제11항에 있어서,
상기 프로세서는
상기 사용자의 위치에 기초하여, 상기 사용자의 이동 속도를 측정하고,
상기 청소기 본체의 주행 시, 측정된 사용자의 이동 속도에 따라 상기 주행 구동부에 포함된 모터의 회전 속도를 조절하는
청소기.
12. The method of claim 11,
The processor
Measuring a moving speed of the user based on the position of the user,
The controller controls the rotational speed of the motor included in the traveling driving unit according to the measured traveling speed of the user during traveling of the cleaner main body
vacuum cleaner.
KR1020170014092A 2017-01-31 2017-01-31 Cleaner KR20180089234A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170014092A KR20180089234A (en) 2017-01-31 2017-01-31 Cleaner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170014092A KR20180089234A (en) 2017-01-31 2017-01-31 Cleaner

Publications (1)

Publication Number Publication Date
KR20180089234A true KR20180089234A (en) 2018-08-08

Family

ID=63230017

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170014092A KR20180089234A (en) 2017-01-31 2017-01-31 Cleaner

Country Status (1)

Country Link
KR (1) KR20180089234A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110301864A (en) * 2019-05-05 2019-10-08 珠海格力电器股份有限公司 A kind of intellective dust collector system and its follower method based on millimetre-wave radar

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110301864A (en) * 2019-05-05 2019-10-08 珠海格力电器股份有限公司 A kind of intellective dust collector system and its follower method based on millimetre-wave radar

Similar Documents

Publication Publication Date Title
US10517456B2 (en) Mobile robot and method of controlling the same
US10349798B2 (en) Mobile robot and method of controlling the same
US10656656B2 (en) Mobile robot and method for controlling and detecting inclination using pattern light
CN111035327B (en) Cleaning robot, carpet detection method, and computer-readable storage medium
US11605244B2 (en) Robot for automatically following a person
EP3104194B1 (en) Robot positioning system
US20200237169A1 (en) Cleaning Robot
KR101637359B1 (en) Cleaner
KR20180085309A (en) Moving Robot and controlling method
KR20210131290A (en) Robot Cleaner and Controlling method for the same
KR102147208B1 (en) Moving Robot and controlling method
KR20180024326A (en) Moving Robot and controlling method
KR20190093800A (en) a Moving robot and Controlling method for the moving robot
TWI748534B (en) Robot cleaner and method for controlling the same
US10765284B2 (en) Cleaning robot
KR20220025250A (en) Method of detecting a difference in level of a surface in front of a robotic cleaning device
KR102167898B1 (en) Moving Robot and controlling method
US20220257075A1 (en) Moving robot and method of controlling the same
KR20180089234A (en) Cleaner
KR101854337B1 (en) Cleaner and controlling method
KR20180080877A (en) Robot cleaner
KR102553289B1 (en) Cleaner
KR20190003847A (en) Moving Robot and controlling method
KR102318756B1 (en) Robot cleaner and method for controlling the same
KR20190003846A (en) Moving Robot and controlling method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
WITB Written withdrawal of application