WO2022019398A1 - 로봇 청소기 및 이의 제어방법 - Google Patents

로봇 청소기 및 이의 제어방법 Download PDF

Info

Publication number
WO2022019398A1
WO2022019398A1 PCT/KR2020/017639 KR2020017639W WO2022019398A1 WO 2022019398 A1 WO2022019398 A1 WO 2022019398A1 KR 2020017639 W KR2020017639 W KR 2020017639W WO 2022019398 A1 WO2022019398 A1 WO 2022019398A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
robot cleaner
light amount
obstacle
maps
Prior art date
Application number
PCT/KR2020/017639
Other languages
English (en)
French (fr)
Inventor
이창현
박희구
함승록
최가형
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2022019398A1 publication Critical patent/WO2022019398A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • A47L9/2826Parameters or conditions being sensed the condition of the floor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/06Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning

Definitions

  • the present invention relates to a control method of a robot cleaner.
  • Dust or foreign matter sinks to the floor by gravity. Therefore, in order to clean, people bend or sit down to clean, so it is easy to strain the back or joints.
  • vacuum cleaners that help people clean have appeared.
  • the types of vacuum cleaners may be roughly classified into a hand-stick cleaner, a bar-type cleaner, a robot cleaner, and the like.
  • the robot vacuum cleaner cleans the space on behalf of the user in a specific space such as home or office.
  • a robot vacuum cleaner generally performs cleaning by sucking in the dust in the area to be cleaned.
  • Korean Patent Application Laid-Open No. 10-2013-0091879 a process of generating a map including information on a space to be cleaned, a process of setting a cleaning path using the map, and a process of performing cleaning using the process are disclosed.
  • content such as performing cleaning by analyzing the shape or depth of the floor surface or that sensing is possible regardless of the distance of the floor surface or obstacles.
  • an object of the present invention is to provide a control method of a robot cleaner capable of generating a map by using a depth camera and simultaneously generating a long-distance obstacle and a short-distance obstacle as one map to avoid the obstacle.
  • Another object of the present invention is to provide a control method of a robot cleaner capable of generating an efficient map by fusing a plurality of maps while varying the light amount of the depth camera.
  • an object of the present invention is to provide a control method for a robot cleaner that can effectively detect obstacles that are difficult to detect with a depth camera using multiple maps captured by varying the amount of light.
  • each obstacle map is generated by varying the light amount of the depth camera to a minimum value, a maximum value, and an intermediate value between the minimum and maximum values, and the obstacles detected in each obstacle map are fused to form one obstacle. It provides a control method of a robot cleaner that is created with a map.
  • a control method of a robot cleaner that generates an obstacle map by varying the amount of light at a speed faster than the minimum obstacle detection speed required for driving.
  • an object of the present invention is to provide a control method of a robot cleaner that can be used to generate a driving path or determine a cleaning method by reflecting a plurality of maps generated by varying the amount of light regardless of the distance of the obstacle to the fusion map.
  • the map generating step of generating a plurality of maps by varying the light amount of the depth camera while the driving step is performed and the map generating step It provides a control method of a robot cleaner including a map fusion step of generating a fusion map by fusing a plurality of captured maps.
  • the map generating step provides a control method of a robot cleaner that generates a map photographed based on at least two different light amounts.
  • a first map generating step of generating a first map photographed with a first light amount with a minimum light amount of the depth camera and a second map photographed with a second light amount with a maximum light amount of the depth camera are generated It provides a control method of a robot cleaner including a second map generating step.
  • the time required for the second map generation step or the first map generation step to be performed is less than the time required for detecting an obstacle so as not to interfere with driving
  • a method for controlling a robot cleaner is provided.
  • the map fusion step is a step in which an arbitrary area is specified in the first map or the second map, and corresponds to the arbitrary area or the arbitrary area in at least one of the first map and the second map
  • a control method of the robot cleaner is provided which is reflected in the fusion map.
  • the map generating step provides a control method of a robot cleaner including a third map generating step of generating a third map photographed with a third light amount that is an intermediate value between the maximum and the minimum light amount of the depth camera.
  • a control method of a robot cleaner in which the first map generating step, the second map generating step, and the third map generating step are all performed for less than the time required for detecting an obstacle so that driving is not disturbed.
  • the map fusion step may include specifying an arbitrary area in any one of the first map, the second map, and the third map, and at least one of the first map, the second map, and the third map. If it is determined that there is an obstacle in the arbitrary area or in the area corresponding to the arbitrary area, the control method of the robot cleaner is reflected in the fusion map.
  • the main body forming the exterior, the suction unit coupled to the main body and cleaning the floor, the driving unit coupled to the main body and provided so that the main body can be moved, the distance of the object to be photographed is measured a depth camera for calculating, a sensing unit disposed on the body and a control unit for processing information collected by the sensing unit, wherein the sensing unit adjusts the amount of light and generates a plurality of maps,
  • a robot cleaner controlled to generate a fusion map by fusing a plurality of maps.
  • a robot cleaner in which at least two or more of the plurality of maps are generated, and each of the plurality of maps is generated based on a different amount of light.
  • the plurality of maps provides a robot cleaner including a first map generated in a state in which the light amount of the depth camera is minimum and a second map generated in a state in which the light amount of the depth camera is maximum.
  • An arbitrary area is specified in any one of the first map and the second map, and that there is an obstacle in the arbitrary area or an area corresponding to the arbitrary area in at least one of the first map and the second map If it is determined, a robot cleaner that is reflected in the fusion map is provided.
  • the plurality of maps includes a third map photographed with a third light amount that is an intermediate value between a maximum and a minimum light amount of the depth camera, and in any one of the first map, the second map, and the third map
  • a third map photographed with a third light amount that is an intermediate value between a maximum and a minimum light amount of the depth camera, and in any one of the first map, the second map, and the third map
  • a robot cleaner in which the obstacle is reflected in a fusion map.
  • a robot cleaner that takes less time for the amount of light to change when the plurality of maps are generated than the time required to detect an obstacle so that driving is not disturbed.
  • obstacles that are not detected by the obstacle map photographed based on the amount of light may be detected to obtain a map more similar to the real one.
  • the map is generated by adjusting the intensity of light, black, transparent materials, glass, etc. can be detected to make the map richer.
  • the robot cleaner it is possible for the robot cleaner to efficiently create a path through a fusion map in which obstacles detected from a plurality of maps are reflected.
  • FIG. 1 is a view showing a robot cleaner according to an embodiment
  • FIG. 2 is a view illustrating a part of a bottom surface of a robot cleaner according to an embodiment
  • FIG. 3 is a block diagram showing the configuration of a robot cleaner according to an embodiment
  • FIG. 4 is a view showing a control method of a robot cleaner according to an embodiment
  • FIG. 5 is a diagram illustrating a map generation step according to an embodiment
  • FIG. 6 is a diagram illustrating a map fusion step according to an embodiment
  • FIG. 1 is a view showing a robot cleaner according to an embodiment
  • FIG. 2 is a view showing a part of a bottom surface of the robot cleaner according to an embodiment
  • FIG. 3 is a diagram showing the configuration of the robot cleaner according to an embodiment It is a block diagram.
  • the robot cleaner 1 performs a function of cleaning the floor while traveling on its own in a predetermined area.
  • the cleaning of the floor referred to herein includes sucking in dust (including foreign matter) on the floor or mopping the floor.
  • the robot cleaner 1 includes a cleaner body 10 , a suction unit 20 , a sensing unit 60 , and a dust collecting unit 40 .
  • the main body 10 is a part that forms the exterior of the robot cleaner. Various electrical components may be provided inside the main body 10 so that the robot cleaner can be operated.
  • the main body 10 may be provided with an input unit 11 for receiving a user's command.
  • the cleaner body 10 includes a controller 90 for controlling the robot cleaner 1 and a driving part 30 for driving the robot cleaner 1 .
  • the robot cleaner 1 may be moved or rotated forward, backward, left and right by the driving unit 30 .
  • the driving unit 30 includes a main wheel 31 and an auxiliary wheel 32 .
  • the main wheel 31 is provided on both sides of the main body 10, and is configured to be rotatable in one direction or the other according to a control signal of the controller.
  • Each of the main wheels 31 may be configured to be driven independently of each other.
  • each of the main wheels 31 may be driven by different motors.
  • the auxiliary wheel 32 supports the main body 10 together with the main wheel 31 , and is configured to assist the driving of the robot cleaner 1 by the main wheel 31 .
  • This auxiliary wheel 32 may also be provided in the suction unit 20 to be described later.
  • the controller controls the driving of the driving unit 30 , the robot cleaner 1 autonomously travels on the floor.
  • a battery (not shown) for supplying power to the robot cleaner 1 is mounted on the main body 10 .
  • the battery is provided to be rechargeable, and may be detachably configured on one surface of the body 10 .
  • the suction unit 20 is provided on one side of the body 10 to suck air containing dust.
  • the suction unit 20 may be detachably coupled to the body 10 or may be formed integrally with the body 10 .
  • the water cleaning module 70 may be detachably coupled to the main body 10 to replace the separated suction unit 20 . Accordingly, when the user wants to remove dust from the floor, the suction unit 20 is mounted on the main body 10 , and when the user wants to wipe the floor, the water cleaning module can be mounted on the main body 10 .
  • the present invention is not limited thereto, and the robot cleaner according to an embodiment may have a form in which both the suction unit 20 and the water cleaning module 70 are integrally formed.
  • the dust collecting part 40 is a part that provides a suction force to suck dust from the suction part 20 .
  • the dust collecting unit 40 may serve to separate dust from the sucked air, store the dust, and discharge clean air back to the outside of the robot cleaner.
  • the suction unit 20 may increase or decrease the suction power according to the control of the controller. Specifically, the suction power of the suction unit 20 may be adjusted based on information on the floor surface on which the robot cleaner travels.
  • the dust collecting unit 40 may include a driving motor (not shown). A negative pressure may be generated inside the robot cleaner through a driving motor provided in the dust collecting unit 40 , so that dust or foreign substances may be introduced into the robot cleaner.
  • the suction unit 20 may be provided with a stirring unit 21 .
  • the stirring unit 21 may be provided for effective dust removal.
  • the stirring unit 21 may be rotated on the running surface to scatter dust on the floor.
  • the dust may be easily introduced into the robot cleaner by the suction force of the dust collecting unit 40 .
  • the operation of the stirring unit 21 may be controlled through a stirring motor (not shown) disposed in the suction unit 20 .
  • the degree of rotation of the stirring unit 21 may vary depending on the type and material of the bottom surface.
  • a sensing unit 60 is disposed on the body 10 . As shown, the sensing unit 60 may be disposed on one side of the main body 10 on which the suction unit 20 is located, that is, the front side of the main body 10 . This may be to prevent a collision with an obstacle when the robot cleaner 1 is driven.
  • the sensing unit 60 may be provided to additionally perform a sensing function other than the sensing function.
  • the sensing unit 60 may include a camera 63 .
  • the camera may mean a two-dimensional camera sensor.
  • the camera 63 is provided on one surface of the robot cleaner and acquires image information related to the periphery of the main body while moving.
  • An image input from an image sensor provided in the camera 63 is converted to generate image data in a predetermined format.
  • the generated image data may be stored in the memory 12 .
  • the sensing unit 60 may include a robot cleaner and a depth camera for calculating the distance between the object to be photographed.
  • the depth camera may capture a 2D image related to the circumference of the body, and may generate a plurality of 3D coordinate information corresponding to the captured 2D image.
  • the depth camera includes a light source 61 emitting light and a sensor 62 receiving light received from the light source 61, and by analyzing the image received from the sensor 62, the robot cleaner and The distance between the subjects to be photographed may be measured.
  • a three-dimensional camera sensor may be a three-dimensional camera sensor of a time of flight (TOF) method.
  • TOF time of flight
  • a plurality of light sources and sensors may be provided.
  • the depth camera may include a light source 61 for irradiating an infrared pattern together with the sensor 62 , that is, an infrared pattern emitting unit.
  • the sensor 62 may measure the distance between the robot cleaner and the object to be photographed by capturing a shape in which the infrared pattern irradiated from the infrared pattern emitting unit is projected onto the object to be photographed.
  • the 3D camera sensor may be an IR (Infrared Red) type 3D camera sensor.
  • the depth camera includes two or more cameras for acquiring an existing two-dimensional image, and combining two or more images acquired from the two or more cameras to generate three-dimensional coordinate information. can be formed with
  • the robot cleaner 1 may include a side brush module 50 .
  • the side brush module 50 may serve to scatter the dust on the floor, like the agitator 21 described above.
  • the side brush module 50 may be coupled to the body 10 , and a plurality of side brush modules 50 may be provided in the body 10 .
  • the side brush module 50 is preferably positioned adjacent to the suction unit 20 as shown in FIG. 2 .
  • FIG. 4 is a diagram illustrating a control method of a robot cleaner according to an embodiment.
  • the control method of the robot cleaner may include a driving step (S1), a map generation step (S2), a map fusion step (S3), and a storage step (S4).
  • the running step ( S1 ) may be a step in which the robot cleaner starts running.
  • the robot vacuum cleaner moves the cleaning target area by itself and is controlled to clean the cleaning target area. Accordingly, the driving step S1 may be preceded and performed for mapping.
  • the map generating step S2 may be a step of generating a plurality of maps by varying the light amount of the depth camera while the driving step S1 is performed.
  • the map generated in the map generation step S2 may include various types of information.
  • the reason for collecting a plurality of maps by varying the amount of light is that there may be a floor or an obstacle that is not sensed depending on the amount of light.
  • a black bottom surface it may not be detected when the amount of light is small, but can be sensed by the depth camera when the amount of light is increased.
  • detection is not simply determined by color, but a near obstacle may not be detected when the amount of light increases, and an obstacle at a distance may be detected better when the amount of light increases.
  • the amount of light suitable for sensing may vary depending on the situation, the type of obstacle, and the distance between the obstacle and the robot cleaner. Therefore, it is necessary to drive with a variable amount of light for efficient driving.
  • the map generation step S2 may be performed to identify obstacles in the area to be cleaned while the robot cleaner is driven.
  • the map generation step S2 may be performed in order for the robot cleaner to stably clean.
  • the cleaning target area is highly likely to be an indoor space such as a home or office.
  • various types of obstacles may exist in the cleaning target area.
  • electronic products, electric wires, furniture, and the like may be disposed in the home.
  • the robot cleaner may be controlled so as not to be disturbed by such obstacles through the map generation step S2.
  • the map fusion step S3 may be a step of generating a fusion map by fusing a plurality of maps photographed in the map generating step.
  • a map of the cleaning target area captured by the depth camera with various light amounts is generated. Since different obstacles may be sensed in a plurality of maps, a map more similar to reality may be obtained by merging them.
  • the storage step (S4) when the fusion map is generated, it may be stored in a memory in the robot cleaner or an external server. Of course, it may be stored in the robot cleaner's memory and an external server at the same time.
  • the fusion map can be saved and used for the next robot vacuum run. Therefore, since mapping is not repeatedly performed, efficient cleaning is possible.
  • the fusion map can check a map of the area to be cleaned by time, including information on time.
  • FIG. 5 is a diagram illustrating a map generation step according to an embodiment.
  • the map generating step S2 may be a step of generating a map photographed based on at least two different light amounts.
  • the first light amount is described
  • the light amount of the depth camera is the maximum
  • the second light amount is described
  • the third light amount is an intermediate value between the minimum and the maximum
  • a map photographed with the first light amount will be described as a first map
  • a map photographed with a second light amount will be described as a second map
  • a map photographed with a third light amount will be described as a third map.
  • the first to third light amounts and the first to third maps are to be distinguished from each other, and may not necessarily be named in the above order.
  • the map generation step (S2) includes a first map generation step (S22) of generating a first map photographed with a first light amount with a minimum light amount of the depth camera, and a second light amount with a maximum light amount of the depth camera. It may include a second map generation step (S24) of generating the photographed second map.
  • the robot cleaner may sense the cleaning target area by varying the light amount of the depth camera.
  • the map generation step (S2) may be performed.
  • the robot vacuum cleaner runs, and the depth camera can change the amount of light to take pictures of the area to be cleaned.
  • a first light amount adjusting step S21 in which the light amount of the depth camera is set to a minimum may be performed.
  • the first map generation step S22 of photographing the area to be cleaned may be performed. Through this process, the robot cleaner may acquire the first map.
  • a second light amount adjusting step S23 in which the light amount of the depth camera is set to the maximum may be performed.
  • a second map generation step S24 of photographing the area to be cleaned may be performed. Through this process, the robot cleaner may acquire the second map.
  • a third light amount adjusting step ( S25 ) of setting the light amount of the depth camera to the third light amount may be performed.
  • a third map generation step (S26) of photographing the cleaning target area may be performed. Through this process, the robot cleaner may acquire the third map.
  • the order of acquiring the first map to the third map may be different.
  • FIG. 5 shows a first light amount control step (S21), a first map generation step (S22), a second light amount control step (S23), a second map generation step (S24), a third light amount control step (S25), and a third
  • the map generating step (S26) is performed in order, the first light amount adjusting step (S21), the first map generating step (S22), the second light amount adjusting step (S23), and the second map generating step (S24)
  • the order of the third light amount adjusting step S25 and the third map generating step S26 may be different.
  • the third light amount adjusting step S25 and the third map generating step S26 may be omitted depending on the embodiment.
  • the first light amount adjusting step (S21), the first map generating step (S22), and the second light amount adjusting step (S23) and the time required for the second map generation step (S24) to be performed may be less than the time required for detecting an obstacle so as not to interfere with the driving of the robot cleaner.
  • An obstacle detection time (hereinafter, referred to as an obstacle detection request time) required to prevent the robot cleaner from being disturbed may be set differently according to specific performance of the robot cleaner.
  • the obstacle detection request time may be a time for a portion in which a plurality of maps generated while the robot cleaner travels in the area to be cleaned and overlaps each other has a size greater than or equal to a predetermined size.
  • the robot cleaner since the robot cleaner performs the map generation step S2 during the driving step S1, there may be different parts of the maps captured by the depth camera. Therefore, in order not to interfere with the driving even when the robot cleaner generates a map and runs, it is preferable that the same portion of the plurality of maps exist in a size greater than or equal to a predetermined size. This is because the larger the overlapping or identical parts are, the more stable the robot cleaner can run. Therefore, it is preferable to change the light amount of the depth camera faster than the obstacle detection request time.
  • the first map generating step S22 and the second map generating step S24 are performed.
  • the required time may be less than the obstacle detection request time (the obstacle detection time required not to interfere with the driving of the robot cleaner).
  • the time required for the first map generation step S22 and the second map generation step S24 is the obstacle detection required time It may take less time than (obstacle detection time required to prevent the robot vacuum from interfering).
  • the time required for the first map generating step (S22) to the third map generating step (S26) is the obstacle detection request time ( It may take less time than the obstacle detection time required to prevent the robot cleaner from being disturbed).
  • the total time to change the light amount may take less time than the obstacle detection time for not obstructing the driving of the robot cleaner.
  • FIG. 6 is a diagram illustrating a map fusion step according to an embodiment.
  • the map fusion step (S3) may include an arbitrary region specifying step (S31), a detection step (S32, S33, S34), a specifying step (S35), and a fusion map reflection step (S36).
  • S31 arbitrary region specifying step
  • S32, S33, S34 detection step
  • S35 specifying step
  • S36 fusion map reflection step
  • the arbitrary region specifying step S31 is a step in which a specific region is selected from among the first to third maps when there is a first map, a second map, or a third map.
  • the arbitrary region specifying step S31 does not mean that the region is specified and stored separately.
  • the detecting steps ( S32 , S33 , and S34 ) is a step of determining whether an obstacle or a floor surface is detected in at least one of the first map to the third map. As described above, when the first map and the second map are generated, it may be determined whether the first map and the second map are detected in at least one of the first map and the second map.
  • areas corresponding to the arbitrary area specified in the first map may be determined in the second map and the third map, and the area corresponding to the arbitrary area in the map different from the arbitrary area may be determined. It is possible to determine whether an obstacle or a floor is detected in only one of the regions by comparing the regions.
  • the fusion map reflection step (S36) of reflecting in the fusion map may be performed.
  • the robot cleaner effectively detects the floor or furniture through one run and registers it on the map, enabling efficient cleaning.
  • the black bottom surface may not be detected in the first map and may be detected in the second map. Also, a nearby obstacle may be detected in the first map, but may not be detected in the second map.
  • the robot cleaner can use this fusion map to set a cleaning route to perform efficient cleaning.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

본 발명의 일 실시예에 따르면, 로봇 청소기가 청소대상지역을 주행하는 주행단계, 상기 주행단계가 수행되는 동안 뎁스 카메라의 광량을 가변하여 복수 개의 맵을 생성하는 맵 생성단계 및 상기 맵 생성단계에서 촬영된 복수 개의 맵을 융합하여 융합 맵을 생성하는 맵 융합단계를 포함하는 로봇 청소기의 제어방법을 제공한다. 일 실시예에 따르면, 뎁스 카메라를 이용하여 장애물의 거리, 장애물 및 바닥면의 색상 등에 관계없이 실질적인 정보를 포함하는 융합 맵을 작성하여 효율적인 청소 경로를 생성할 수 있다.

Description

로봇 청소기 및 이의 제어방법
본 발명은 로봇 청소기의 제어방법에 관한 것이다.
인간은 위생과 청결을 위해 자신이 생활하는 공간을 청소한다. 청소를 하는 이유는 여러 가지가 있을 수 있다. 예를 들어, 질병으로부터 신체를 보호하거나 기관지의 손상을 막기 위해 청소를 하기도 하고, 자신이 있는 공간을 청결하고 이용하기 위함과 같이 삶의 질을 위해 청소를 하기도 한다.
먼지나 이물질은 중력에 의해 바닥에 가라앉는다. 따라서, 청소를 하기 위해서 사람들은 허리를 숙이거나 앉아서 청소를 수행하므로 허리나 관절에 무리가 가기 쉽다.
이를 위해 근래에는 사람의 청소를 도와주는 청소기들이 등장하고 있다. 청소기의 종류는 대략적으로 핸디스틱 청소기, 바형 청소기 또는 로봇 청소기 등으로 분류될 수 있다.
이 중 로봇 청소기는 가정 또는 사무실 등 특정 공간에서 사용자 대신 공간을 청소한다. 로봇 청소기는 일반적으로 청소대상영역의 먼지를 흡입하며 청소를 수행한다.
한국공개특허공보 제10-2013-0091879호를 참조하면, 청소할 공간에 대한 정보를 포함하는 맵을 생성하는 과정, 이를 이용하여 청소 경로를 설정하는 과정 및 이를 이용하여 청소를 수행하는 과정에 대해서 개시하고 있으나, 바닥면의 형태나 심도를 분석하여 청소를 수행하는 등의 내용 또는 바닥면이나 장애물의 거리에 관계없이 센싱 가능하다는 내용이 개시되어 있지 않다.
일 실시예에 따르면, 뎁스 카메라(Depth camera)를 활용하여 맵을 생성하고 원거리 장애물과 근거리 장애물을 동시에 하나의 맵으로 생성하여 장애물을 회피할 수 있는 로봇 청소기의 제어방법을 제공하고자 한다.
또한, 뎁스 카메라의 광량을 가변하며 복수 개의 맵을 융합하여 효율적인 맵을 생성할 수 있는 로봇 청소기의 제어방법을 제공하고자 한다.
구체적으로 뎁스 카메라로 검출하기 어려운 장애물들도 광량을 가변하여 촬영한 복수 맵을 이용하여 효과적으로 검출할 수 있는 로봇 청소기의 제어방법을 제공하고자 한다.
상술한 과제를 해결하기 위한 일례로, 뎁스 카메라의 광량을 최소, 최대 및 최소와 최대의 중간값으로 가변하여 각각의 장애물 맵을 생성하고, 각각의 장애물 맵에서 검출된 장애물들을 융합하여 하나의 장애물 맵으로 생성하는 로봇 청소기의 제어방법을 제공한다.
또한, 주행에서 필요로 하는 최소의 장애물 검출 속도보다 빠른 속도로 광량을 가변하여 장애물 맵을 생성하는 로봇 청소기의 제어방법을 제공한다.
또한, 장애물의 거리에 관계없이 광량을 가변하여 생성된 복수 개의 맵을 융합 맵에 반영하여 주행의 경로 생성이나 청소 방식을 결정하는데 활용할 수 있는 로봇 청소기의 제어방법을 제공하고자 한다.
보다 구체적으로, 일 실시예에 따르면 로봇 청소기가 청소대상지역을 주행하는 주행단계, 상기 주행단계가 수행되는 동안 뎁스 카메라의 광량을 가변하여 복수 개의 맵을 생성하는 맵 생성단계 및 상기 맵 생성단계에서 촬영된 복수 개의 맵을 융합하여 융합 맵을 생성하는 맵 융합단계를 포함하는 로봇 청소기의 제어방법를 제공한다.
또한, 상기 맵 생성단계는 적어도 서로 다른 2개의 광량을 기준으로 촬영되는 맵을 생성하는 로봇 청소기의 제어방법를 제공한다.
또한, 상기 맵 생성단계는 뎁스 카메라의 광량이 최소인 제1 광량으로 촬영된 제1 맵을 생성하는 제1 맵 생성단계 및 뎁스 카메라의 광량이 최대인 제2 광량으로 촬영된 제2 맵을 생성하는 제2 맵 생성단계를 포함하는 로봇 청소기의 제어방법를 제공한다.
또한. 상기 제1 맵 생성 단계 또는 상기 제2 맵 생성단계가 수행된 후 제2 맵 생성단계 또는 상기 제1 맵 생성단계가 수행되는 시간은 주행이 방해되지 않기 위해 필요한 장애물 검출 시간보다 적게 소요되도록 수행되는 로봇 청소기의 제어방법를 제공한다.
또한, 상기 맵 융합단계는, 상기 제1 맵 또는 상기 제2 맵에서 임의의 영역이 특정되는 단계, 상기 제1 맵 및 상기 제2 맵 중 적어도 하나에서 상기 임의의 영역 또는 상기 임의의 영역에 대응되는 영역에 장애물이 있다고 판단되면 상기 융합 맵에 반영하는 로봇 청소기의 제어방법를 제공한다.
또한, 상기 맵 생성단계는 뎁스 카메라의 광량이 최대와 최소의 중간값인 제3 광량으로 촬영된 제3 맵을 생성하는 제3 맵 생성단계를 포함하는 로봇 청소기의 제어방법를 제공한다.
또한, 제1 맵 생성단계, 제2 맵 생성단계 및 제3 맵 생성단계가 모두 수행되는 시간은 주행이 방해되지 않기 위해 필요한 장애물 검출 시간보다 적게 수행되는 로봇 청소기의 제어방법를 제공한다.
또한, 맵 융합단계는, 상기 제1 맵, 상기 제2 맵 및 상기 제3 맵 중 어느 하나에서 임의의 영역이 특정되는 단계, 상기 제1 맵, 상기 제2 맵 및 상기 제3 맵 중 적어도 하나에서 상기 임의의 영역 또는 상기 임의의 영역에 대응되는 영역에 장애물이 있다고 판단되면 상기 융합 맵에 반영하는 로봇 청소기의 제어방법를 제공한다.
또한, 다른 실시예에 따르면, 외관을 형성하는 본체, 상기 본체에 결합되며 바닥면을 청소하는 흡입부, 상기 본체에 결합되며 상기 본체가 이동될 수 있도록 구비되는 구동부, 피촬영 대상체의 원근거리를 산출하는 뎁스 카메라(Depth Camera)를 포함하며 상기 본체에 배치되는 센싱부 및 상기 센싱부에 의해 수집된 정보를 처리하는 제어부를 포함하고, 상기 센싱부는 광량이 조절되며 복수 개의 맵을 생성하고, 상기 복수 개의 맵이 융합하여 융합 맵을 생성하도록 제어되는 로봇 청소기를 제공한다.
또한. 상기 복수 개의 맵은 적어도 2개 이상 생성되고, 상기 복수 개의 맵 각각은 서로 다른 광량을 기준으로 생성되는 로봇 청소기를 제공한다.
또한, 상기 복수 개의 맵은 상기 뎁스 카메라의 광량이 최소인 상태에서 생성되는 제1 맵 및 상기 뎁스 카메라의 광량이 최대인 상태에서 생성되는 제2 맵을 포함하는 로봇 청소기를 제공한다.
또한. 상기 제1 맵 및 상기 제2 맵 중 어느 하나에 임의의 영역이 특정되고, 상기 제1 맵 및 상기 제2 맵 중 적어도 하나에서 상기 임의의 영역 또는 상기 임의의 영역에 대응되는 영역에 장애물이 있다고 판단되면 상기 융합 맵에 반영하는 로봇 청소기를 제공한다.
또한, 상기 복수 개의 맵은 뎁스 카메라의 광량이 최대와 최소의 중간값인 제3 광량으로 촬영된 제3 맵을 포함하고, 상기 제1 맵, 상기 제2 맵 및 상기 제3 맵 중 어느 하나에서 임의의 영역이 특정되고, 상기 제1 맵, 상기 제2 맵 및 상기 제3 맵 중 적어도 하나에서 상기 임의의 영역 또는 상기 임의의 영역에 대응되는 영역에 장애물이 있다고 판단되면 상기 융합 맵에 반영하는 로봇 청소기를 제공한다.
또한. 상기 복수 개의 맵 중 적어도 하나에서 장애물이 검출되면 융합 맵에 상기 장애물이 반영되는 로봇 청소기를 제공한다.
또한, 상기 복수 개의 맵이 생성될 때 광량이 가변되는 시간은 주행이 방해되지 않기 위해 필요한 장애물 검출 시간보다 적게 소요되는 로봇 청소기를 제공한다.
본 발명의 실시예들에 따르면, 1개의 광량을 기준으로 촬영된 장애물 맵이 검출하지 못하는 장애물들을 검출하여 더욱 실제와 유사한 맵을 획득할 수 있다.
또한, 광량의 세기를 조절하며 맵을 생성하므로 검은색, 투명한 재질, 유리 등도 검출되어 맵이 더욱 풍부해질 수 있다.
또한, 로봇 청소기가 복수 개의 맵에서 검출된 장애물이 반영된 융합 맵을 통해 효율적인 경로 생성이 가능하다.
도 1은 일 실시예에 따른 로봇 청소기를 도시한 도면
도 2는 일 실시예에 따른 로봇 청소기의 저면의 일부를 도시한 도면
도 3은 일 실시예에 따른 로봇 청소기의 구성을 나타낸 블록도
도 4는 일 실시예에 따른 로봇 청소기의 제어방법을 나타낸 도면
도 5는 일 실시예에 따른 맵 생성단계를 나타낸 도면
도 6은 일 실시예에 따른 맵 융합단계를 나타낸 도면
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
도 1은 일 실시예에 따른 로봇 청소기를 도시한 도면이고, 도 2는 일 실시예에 따른 로봇 청소기의 저면의 일부를 도시한 도면이고, 도 3은 일 실시예에 따른 로봇 청소기의 구성을 나타낸 블록도이다.
도 1 내지 도 3을 참조하면, 로봇 청소기(1)는 일정 영역을 스스로 주행하면서 바닥을 청소하는 기능을 수행한다. 여기서 말하는 바닥의 청소에는, 바닥의 먼지(이물질을 포함한다)를 흡입하거나 바닥을 걸레질하는 것이 포함된다.
로봇 청소기(1)는 청소기 본체(10), 흡입부(20), 센싱부(60) 및 집진부(40)을 포함한다.
본체(10)는 로봇 청소기의 외관을 형성하는 부분이다. 본체(10)의 내부에는 로봇 청소기가 작동될 수 있도록 여러 전장품이 구비될 수 있다.
본체(10)에는 사용자의 명령을 입력받을 수 있는 입력부(11)가 구비될 수 있다.
청소기 본체(10)에는 로봇 청소기(1)의 제어를 위한 제어부(90) 및 로봇 청소기(1)의 주행을 위한 구동부(30)가 구비된다. 구동부(30)에 의해 로봇 청소기(1)는 전후좌우로 이동되거나 회전될 수 있다.
구동부(30)은 메인 휠(31) 및 보조 휠(32)을 포함한다.
메인 휠(31)은 본체(10)의 양측에 각각 구비되어, 제어부의 제어 신호에 따라 일 방향 또는 타 방향으로 회전 가능하게 구성된다. 각각의 메인 휠(31)은 서로 독립적으로 구동 가능하게 구성될 수 있다. 예를 들어, 각각의 메인 휠(31)은 서로 다른 모터에 의해서 구동될 수 있다.
보조 휠(32)은 메인 휠(31)과 함께 본체(10)를 지지하며, 메인 휠(31)에 의한 로봇 청소기(1)의 주행을 보조하도록 이루어진다. 이러한 보조 휠(32)은 후술하는 흡입부(20)에도 구비될 수 있다.
살펴본 바와 같이, 제어부가 구동부(30)의 구동을 제어함으로써, 로봇 청소기(1)는 바닥을 자율 주행하도록 이루어진다.
한편, 본체(10)에는 로봇 청소기(1)에 전원을 공급하는 배터리(미도시)가 장착된다. 배터리는 충전가능하게 구비되며, 본체(10)의 일면에 착탈 가능하게 구성될 수 있다.
흡입부(20)은 본체(10)의 일측에 구비되어 먼지가 포함된 공기를 흡입하도록 이루어진다.
흡입부(20)은 본체(10)에 착탈 가능하게 결합되는 형태 또는 본체(10)와 일체로 형성될 수 있다. 흡입부(20)이 본체(10)로 분리되면, 분리된 흡입부(20)을 대체하여 물청소 모듈(70)이 본체(10)에 착탈 가능하게 결합될 수 있다. 따라서, 사용자는 바닥의 먼지를 제거하고자 하는 경우에는 본체(10)에 흡입부(20)을 장착하고, 바닥을 닦고자 하는 경우에는 본체(10)에 물청소 모듈을 장착할 수 있다.
다만, 이에 제한되는 것은 아니고 일 실시예에 따른 로봇 청소기는 흡입부(20)와 물청소 모듈(70) 모두가 일체로 형성된 형태를 띨 수 있다.
집진부(40)는 흡입부(20)에서 먼지를 흡입할 수 있도록 흡입력을 제공하는 부분이다. 집진부(40)는 흡입된 공기에서 먼지를 분리하여 먼지를 저장하고 깨끗한 공기를 다시 로봇 청소기의 외부로 토출시키는 역할을 수행할 수 있다. 흡입부(20)는 제어부의 제어에 따라 흡입력이 커지거나 작아질 수 있다. 구체적으로 로봇 청소기가 주행하는 바닥면에 대한 정보를 기초로 흡입부(20)의 흡입력이 조절될 수 있다.
집진부(40)는 구동모터(미도시)를 포함할 수 있다. 집진부(40) 내에 마련된 구동모터를 통해 로봇 청소기 내부에 음압이 발생하여 먼지나 이물질 등이 로봇 청소기 내부로 유입될 수 있다.
흡입부(20)에는 교반부(21)가 구비될 수 있다. 무게가 무겁거나 먼지의 종류에 따라 집진부(40)의 흡입력만으로는 먼지의 제거가 어려울 수 있다. 따라서 효과적인 먼지의 제거를 위해 교반부(21)가 구비될 수 있다.
구체적으로 교반부(21)는 주행면에서 회전되어 바닥에 있는 먼지를 비산시킬 수 있다. 먼지가 비산되면 집진부(40)의 흡입력에 의해 먼지가 쉽게 로봇 청소기 내부로 유입될 수 있다.
교반부(21)는 흡입부(20) 내에 배치되는 교반모터(미도시)를 통해 작동이 제어될 수 있다. 바닥면의 종류 및 재질에 따라 교반부(21)가 회전되는 정도는 달라질 수 있다.
본체(10)에는 센싱부(60)이 배치된다. 도시된 바와 같이, 센싱부(60)은 흡입부(20)이 위치하는 본체(10)의 일측, 즉 본체(10)의 전방측에 배치될 수 있다. 이는 로봇 청소기(1)가 주행할 때 장애물과의 충돌을 방지하기 위함일 수 있다.
센싱부(60)은 이러한 감지 기능 외의 다른 센싱 기능을 추가로 수행하도록 구비될 수 있다.
상기 센싱부(60)는 카메라(63)를 포함할 수 있다. 이때 카메라는 2차원 카메라 센서를 의미하는 것이 가능하다. 카메라(63)는, 로봇 청소기의 일면에 구비되어, 이동 중 본체 주변과 관련된 이미지 정보를 획득한다.
카메라(63)에 구비된 이미지 센서로부터 입력되는 영상을 변환하여 소정 형식의 영상 데이터를 생성한다. 생성된 영상 데이터는 메모리(12)에 저장될 수 있다.
한편 센싱부(60)는 로봇 청소기와 피촬영 대상체의 원근거리를 산출하는 뎁스 카메라(Depth Camera)를 포함할 수 있다.
구체적으로, 뎁스 카메라는 본체의 주위와 관련된 2차원 영상을 촬영할 수 있으며, 촬영된 2차원 영상에 대응되는 복수의 3차원 좌표 정보를 생성할 수 있다.
일 실시예에서 뎁스 카메라는 빛을 방출하는 광원(61)과 광원(61)에서 수신된 빛을 수신하는 센서(62)를 포함하고, 센서(62)에서 수신된 영상을 분석함으로써, 로봇 청소기와 피촬영 대상체 사이의 거리를 측정할 수 있다. 이러한 3차원 카메라 센서는 TOF(Time of Flight) 방식의 3차원 카메라 센서일 수 있다. 이때 광원과 센서는 복수 개 구비될 수 있다.
다른 실시예에서 뎁스 카메라는 센서(62)와 함께 적외선 패턴을 조사하는 광원(61) 즉, 적외선 패턴 방출부를 구비하는 것이 가능하다. 센서(62)는 적외선 패턴 방출부에서 조사된 적외선 패턴이 피촬영 대상체에 투영된 모양을 캡쳐함으로써, 로봇 청소기와 피촬영 대상체 사이의 거리를 측정할 수 있다. 이러한 3차원 카메라 센서는 IR(Infrared Red) 방식의 3차원 카메라 센서일 수 있다.
또 다른 실시예에서 뎁스 카메라는 기존의 2차원 영상을 획득하는 카메라를 2개 이상 구비하여, 상기 2개 이상의 카메라에서 획득되는 2개 이상의 영상을 조합하여, 3차원 좌표 정보를 생성하는 스테레오 비전 방식으로 형성될 수 있다.
로봇 청소기(1)는 사이드 브러쉬 모듈(50)을 포함할 수 있다. 사이드 브러쉬 모듈(50)은 상술한 교반부(21)와 같이 바닥면의 먼지를 비산시키는 역할을 수행할 수 있다.
사이드 브러쉬 모듈(50)은 본체(10)에 결합될 수 있고, 본체(10)에 복수 개 구비될 수 있다.
또한 사이드 브러쉬 모듈(50)은 도 2에 나타난 바와 같이 흡입부(20)와 인접하게 위치하는 것이 바람직하다.
바닥면의 먼지를 비산시키는 것을 효율적으로 먼지를 제거하기 위함이다. 따라서 흡입부(20)와 상당한 거리가 있도록 배치되는 경우 청소효율에 큰 영향을 미칠 수 없기 때문에 바람직하지 않다.
도 4는 일 실시예에 따른 로봇 청소기의 제어방법을 나타낸 도면이다.
일 실시예에 따른 로봇 청소기의 제어방법은 주행단계(S1), 맵 생성단계(S2), 맵 융합단계(S3) 및 저장단계(S4)를 포함할 수 있다.
주행단계(S1)는 로봇 청소기가 주행을 시작하는 단계일 수 있다. 로봇 청소기는 청소대상지역을 스스로 움직이며 청소대상지역을 청소하도록 제어된다. 따라서, 맵핑을 위해 주행단계(S1)가 선행되어 수행될 수 있다.
맵 생성단계(S2)는 주행단계(S1)가 수행되는 동안 뎁스 카메라의 광량을 가변하여 복수 개의 맵을 생성하는 단계일 수 있다. 맵 생성단계(S2)에서 생성되는 맵은 다양한 정보를 포함할 수 있다.
바닥면과 바닥면에 배치된 장애물을 파악하여 로봇 청소기의 경로 결정 또는 작동방식에 영향을 줄 수 있다. 광량을 가변하여 복수 개의 맵을 수집하는 이유는 광량에 따라 센싱되지 않는 바닥 또는 장애물이 존재할 수 있기 때문이다.
예를 들면, 검은색의 바닥면의 경우 광량이 작을때는 검출되지 않을 수 있으나, 광량을 크게 하면 뎁스 카메라로 센싱될 수 있다. 또한, 단순히 색에 의해 검출여부가 결정되는 것이 아니라 근거리 장애물은 광량이 커지면 검출되지 않을 수 있고, 원거리에 있는 장애물은 광량이 커질 경우 검출이 더 잘될 수 있다.
즉, 상황이나 장애물의 종류, 장애물과 로봇 청소기의 거리에 따라 센싱에 적절한 광량이 다를 수 있다. 따라서 효율적인 주행을 위해 광량이 가변되며 주행되는 것이 필요하다.
맵 생성단계(S2)는 로봇 청소기가 주행하며 청소대상지역에 있는 장애물을 식별하기 위해 수행될 수 있다. 맵 생성단계(S2)는 로봇 청소기가 안정적으로 청소를 수행하기 위해 수행될 수 있다.
청소대상지역은 가정 또는 사무실 등 실내의 공간이 선택될 가능성이 크다. 그리고, 청소대상지역에는 다양한 형태의 장애물이 존재할 수 있다. 예를 들면, 가정 내에서는 전자제품, 전선, 가구 등이 배치될 수 있다. 로봇 청소기는 맵 생성단계(S2)를 통해 이러한 장애물에 의해 주행을 방해받지 않도록 제어될 수 있다.
맵 융합단계(S3)는 맵 생성단계에서 촬영된 복수 개의 맵을 융합하여 융합 맵을 생성하는 단계일 수 있다.
상술한 바와 같이 맵 생성단계(S2)에서는 뎁스 카메라가 여러 광량으로 촬영한 청소대상지역의 맵을 생성한다. 복수 개의 맵은 서로 다른 장애물이 센싱될 수 있으므로 이를 융합하여 더욱 실제와 유사한 맵을 획득할 수 있다.
즉, 맵 융합단계(S3)를 통해 근거리 장애물, 원거리 장애물뿐만 아니라 바닥면의 색과는 관계없이 실질적인 맵을 획득할 수 있다.
저장단계(S4)는 융합 맵이 생성되면 로봇 청소기 내의 메모리 또는 외부의 서버에 저장될 수 있다. 물론 로봇 청소기의 메모리와 외부의 서버에 동시에 저장될 수도 있다.
융합 맵은 저장되어 다음 로봇 청소기 주행에 사용될 수 있다. 따라서 반복적으로 맵핑을 수행하지 않으므로 효율적인 청소가 가능하다.
또한, 융합맵은 시간에 관한 정보를 포함하여 시간대 별 청소대상지역의 맵을 확인할 수 있다.
도 5는 일 실시예에 따른 맵 생성단계를 나타낸 도면이다.
이하에서는 맵 생성단계(S2)에 대해 상세히 설명한다.
맵 생성단계(S2)는 적어도 서로 다른 2개의 광량을 기준으로 촬영되는 맵을 생성하는 단계일 수 있다.
이하에서는 뎁스 카메라의 광량이 최소인 경우 제1 광량으로 설명하고, 뎁스 카메라의 광량이 최대인 경우 제2 광량으로 설명하고, 뎁스 카메라의 광량이 최소와 최대의 중간값인 경우를 제3 광량으로 설명한다.
또한, 제1 광량으로 촬영된 맵을 제1 맵, 제2 광량으로 촬영된 맵을 제2 맵, 제3 광량으로 촬영된 맵을 제3 맵으로 설명한다.
제1 광량 내지 제3 광량 및 제1 맵 내지 제3 맵은 서로 구분하기 위한 것이고, 반드시 상기의 순서대로 명명되지 않아도 무방하다.
구체적으로 설명하면 맵 생성단계(S2)는 뎁스 카메라의 광량이 최소인 제1 광량으로 촬영된 제1 맵을 생성하는 제1 맵 생성단계(S22) 및 뎁스 카메라의 광량이 최대인 제2 광량으로 촬영된 제2 맵을 생성하는 제2 맵 생성단계(S24)를 포함할 수 있다.
상술한 바와 같이 뎁스 카메라의 광량에 따라 센싱되지 않는 부분이 발생할 수 있으므로, 로봇 청소기는 뎁스 카메라의 광량이 가변되며 청소대상지역을 센싱할 수 있다.
더욱 구체적으로 설명하면, 로봇 청소기가 주행되는 주행단계(S1)가 수행되는 도중 맵 생성단계(S2)가 수행될 수 있다. 로봇 청소기가 주행하며 뎁스 카메라의 광량을 가변하여 청소대상지역을 촬영할 수 있다.
뎁스 카메라의 광량이 최소로 설정되는 제1 광량조절단계(S21)가 수행될 수 있다. 뎁스 카메라가 제1 광량으로 설정되면 청소대상지역을 촬영하는 제1 맵 생성단계(S22)가 수행될 수 있다. 이러한 과정을 통해 로봇 청소기는 제1 맵을 획득할 수 있다.
제1 맵을 획득하면, 뎁스 카메라의 광량이 최대로 설정되는 제2 광량 조절단계(S23)가 수행될 수 있다. 뎁스 카메라가 제2 광량으로 설정되면 청소대상지역을 촬영하는 제2 맵 생성단계(S24)가 수행될 수 있다. 이러한 과정을 통해 로봇 청소기는 제2 맵을 획득할 수 있다.
또한, 다른 실시예로, 제2 맵을 획득하면, 뎁스 카메라의 광량이 제3 광량으로 설정되는 제3 광량조절단계(S25)가 수행될 수 있다. 뎁스 카메라가 제3 광량으로 설정되면 청소대상지역을 촬영하는 제3 맵 생성단계(S26)가 수행될 수 있다. 이러한 과정을 통해 로봇 청소기는 제3 맵을 획득할 수 있다.
제1 맵 내지 제3 맵을 획득하는 순서는 달라질 수도 있다.
도 5에는 제1 광량조절단계(S21), 제1 맵 생성단계(S22), 제2 광량조절단계(S23), 제2 맵 생성단계(S24), 제3 광량조절단계(S25) 및 제3 맵 생성단계(S26)가 순서대로 수행된다고 도시되어 있지만, 제1 광량조절단계(S21)와 제1 맵 생성단계(S22), 제2 광량조절단계(S23)와 제2 맵 생성단계(S24), 제3 광량조절단계(S25)와 제3 맵 생성단계(S26)의 순서는 달라질 수 있다.
또한, 제3 광량조절단계(S25)와 제3 맵 생성단계(S26)는 실시예에 따라 생략될 수도 있다.
제3 광량조절단계(S25)와 제3 맵 생성단계(S26)가 생략된 실시예의 경우, 제1 광량조절단계(S21)와 제1 맵 생성단계(S22), 제2 광량조절단계(S23)와 제2 맵 생성단계(S24)가 수행되는 시간은 로봇 청소기의 주행이 방해되지 않기 위해 필요한 장애물 검출시간보다 적게 소요될 수 있다.
로봇 청소기의 주행이 방해되지 않기 위해 필요한 장애물 검출시간(이하 장애물 검출 요구시간으로 설명)은 로봇 청소기의 구체적인 성능에 따라 달리 설정될 수 있다. 장애물 검출 요구시간은 청소대상지역 내를 로봇 청소기가 주행하며 생성하는 복수 개의 맵이 서로 겹쳐지는 부분이 기 결정된 크기 이상의 크기를 갖도록 하는 시간일 수 있다.
구체적으로 다시 설명하면, 로봇 청소기는 주행단계(S1) 중에 맵 생성단계(S2)를 수행하므로 뎁스 카메라가 촬영하는 맵들이 서로 상이한 부분이 존재할 수 있다. 따라서, 로봇 청소기가 맵을 생성하며 주행을 하더라도 주행에 방해가 되지 않기 위해서는 복수 개의 맵들이 서로 동일한 부분이 기 결정된 크기 이상으로 존재하는 것이 바람직하다. 서로 겹쳐지거나 동일한 부분이 큰 부분이 클수록 로봇 청소기는 주행을 안정적으로 할 수 있기 때문이다. 따라서 장애물 검출 요구시간보다 뎁스 카메라의 광량을 빠르게 가변하는 것이 바람직하다.
실시예를 예로 들어 설명하면, 제1 맵 생성단계(S22)가 수행되고 제2 맵 생성단계(S24)가 수행되는 경우, 제1 맵 생성단계(S22) 및 제2 맵 생성단계(S24)에 소요되는 시간은 장애물 검출 요구 시간(로봇 청소기의 주행이 방해되지 않기 위해 필요한 장애물 검출시간)보다 적게 소요될 수 있다.
제2 맵 생성단계(S24)가 수행되고 제1 맵 생성단계(S22)가 수행되는 경우에도 제1 맵 생성단계(S22) 및 제2 맵 생성단계(S24)에 소요되는 시간은 장애물 검출 요구 시간(로봇 청소기의 주행이 방해되지 않기 위해 필요한 장애물 검출시간)보다 적게 소요될 수 있다.
제1 맵 생성단계(S22) 내지 제3 맵 생성단계(S26)가 모두 수행되는 경우, 제1 맵 생성단계(S22) 내지 제3 맵 생성단계(S26)에 소요되는 시간은 장애물 검출 요구 시간(로봇 청소기의 주행이 방해되지 않기 위해 필요한 장애물 검출시간)보다 적게 소요될 수 있다.
마찬가지로 서로 다른 광량이 3개 이상되는 경우에도 광량을 가변하는 총 시간은 로봇 청소기의 주행이 방해되지 않기 위한 장애물 검출 시간보다 적게 소요될 수 있다.
도 6은 일 실시예에 따른 맵 융합단계를 나타낸 도면이다.
맵 융합단계(S3)는 임의영역 특정단계(S31), 검출단계(S32, S33, S34), 특정단계(S35), 융합 맵 반영단계(S36)를 포함할 수 있다. 이하에서는 제3 맵까지 생성된 경우를 예로 들어 설명한다. 다만, 제2 맵까지 생성될 수도 있고, 3개 이상의 맵이 생성될 수도 있다.
임의 영역 특정단계(S31)는 제1 맵 또는 제2 맵, 제3 맵이 있는 경우 제1 맵 내지 제3 맵 중 특정 영역이 선택되는 단계이다. 임의 영역 특정 단계(S31)는 영역이 특정되어 별도로 저장되는 것을 의미하는 것은 아니다.
검출단계(S32, S33, S34)는 제1 맵 내지 제3 맵 중 적어도 하나의 맵에서 장애물이나 바닥면이 검출되었는지 판단하는 단계이다. 상술한 바와 같이 제1 맵과 제2 맵이 생성된 경우에는 제1 맵과 제2 맵 중 적어도 하나에서 검출되었는지를 판단할 수 있다.
예를 들어 제1 맵에서 임의의 영역이 특정되면 제2 맵 및 제3 맵에서 제1 맵에서 특정된 임의영역과 대응되는 영역이 결정될 수 있고, 임의영역과 다른 맵에서의 임의영역에 대응되는 영역을 비교하여 어느 하나에만 장애물이나 바닥이 검출되었는지를 판단할 수 있다.
임의영역과 임의영역에 대응되는 영역 중 어느 하나에서 장애물이 검출되면 융합 맵에 반영하는 융합 맵 반영단계(S36)가 수행될 수 있다.
이로써, 광량에 따라 검출이 되지 않는 장애물이나 로봇 청소기와의 거리에 의해 특정 광량에서는 검출이 되지 않은 장애물도 한번에 파악할 수 있다.
또한, 바닥이 검은색이거나 유리로 된 가구 들이 배치되어 있는 경우에도 로봇 청소기가 한번의 주행을 통해 효과적으로 바닥이나 가구들을 감지하여 맵에 등록함으로써 효율적인 청소를 가능하게 한다.
상술한 실시예를 예로 들어 설명하면, 검은색의 바닥면의 경우 제1 맵에서는 검출되지 않고, 제2 맵에서는 검출될 수 있다. 또한, 근거리의 장애물은 제1 맵에서는 검출될 수 있으나 제2 맵에서는 검출되지 않을 수 있다.
그럼에도 불구하고 검은 색의 바닥면과 근거리의 장애물은 모두 융합 맵에 반영될 수 있다.
융합 맵에 장애물과 바닥면이 반영되면 로봇 청소기는 이러한 융합 맵을 사용하여 청소 경로를 설정하여 효율적인 청소를 수행할 수 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (15)

  1. 로봇 청소기가 청소대상지역을 주행하는 주행단계;
    상기 주행단계가 수행되는 동안 뎁스 카메라의 광량을 가변하여 복수 개의 맵을 생성하는 맵 생성단계; 및
    상기 맵 생성단계에서 촬영된 복수 개의 맵을 융합하여 융합 맵을 생성하는 맵 융합단계;를 포함하는 로봇 청소기의 제어방법.
  2. 제1항에 있어서,
    상기 맵 생성단계는 적어도 서로 다른 2개의 광량을 기준으로 촬영되는 맵을 생성하는 로봇 청소기의 제어방법.
  3. 제2항에 있어서,
    상기 맵 생성단계는 뎁스 카메라의 광량이 최소인 제1 광량으로 촬영된 제1 맵을 생성하는 제1 맵 생성단계 및 뎁스 카메라의 광량이 최대인 제2 광량으로 촬영된 제2 맵을 생성하는 제2 맵 생성단계를 포함하는 로봇 청소기의 제어방법.
  4. 제3항에 있어서,
    상기 제1 맵 생성단계 또는 상기 제2 맵 생성단계가 수행된 후 제2 맵 생성단계 또는 상기 제1 맵 생성단계가 수행되는 시간은 주행이 방해되지 않기 위해 필요한 장애물 검출 시간보다 적게 소요되도록 수행되는 로봇 청소기의 제어방법.
  5. 제3항에 있어서,
    상기 맵 융합단계는,
    상기 제1 맵 또는 상기 제2 맵에서 임의의 영역이 특정되는 단계;
    상기 제1 맵 및 상기 제2 맵 중 적어도 하나에서 상기 임의의 영역 또는 상기 임의의 영역에 대응되는 영역에 장애물이 있다고 판단되면 상기 융합 맵에 반영하는 로봇 청소기의 제어방법.
  6. 제3항에 있어서,
    상기 맵 생성단계는 뎁스 카메라의 광량이 최대와 최소의 중간값인 제3 광량으로 촬영된 제3 맵을 생성하는 제3 맵 생성단계를 더 포함하는 로봇 청소기의 제어방법.
  7. 제6항에 있어서,
    제1 맵 생성단계, 제2 맵 생성단계 및 제3 맵 생성단계가 모두 수행되는 시간은 주행이 방해되지 않기 위해 필요한 장애물 검출 시간보다 적게 수행되는 로봇 청소기의 제어방법.
  8. 제3항에 있어서,
    상기 맵 융합단계는,
    상기 제1 맵, 상기 제2 맵 및 상기 제3 맵 중 어느 하나에서 임의의 영역이 특정되는 단계;
    상기 제1 맵, 상기 제2 맵 및 상기 제3 맵 중 적어도 하나에서 상기 임의의 영역 또는 상기 임의의 영역에 대응되는 영역에 장애물이 있다고 판단되면 상기 융합 맵에 반영하는 로봇 청소기의 제어방법.
  9. 외관을 형성하는 본체;
    상기 본체에 결합되며 바닥면을 청소하는 흡입부;
    상기 본체에 결합되며 상기 본체가 이동될 수 있도록 구비되는 구동부;
    피촬영 대상체의 원근거리를 산출하는 뎁스 카메라(Depth Camera)를 포함하며 상기 본체에 배치되는 센싱부; 및
    상기 센싱부에 의해 수집된 정보를 처리하는 제어부;를 포함하고,
    상기 센싱부는 광량이 조절되며 복수 개의 맵을 생성하고, 상기 복수 개의 맵을 융합하여 융합 맵을 생성하도록 제어되는 로봇 청소기.
  10. 제9항에 있어서,
    상기 복수 개의 맵은 적어도 2개 이상 생성되고,
    상기 복수 개의 맵 각각은 서로 다른 광량을 기준으로 생성되는 로봇 청소기.
  11. 제10항에 있어서,
    상기 복수 개의 맵은 상기 뎁스 카메라의 광량이 최소인 상태에서 생성되는 제1 맵 및 상기 뎁스 카메라의 광량이 최대인 상태에서 생성되는 제2 맵을 포함하는 로봇 청소기.
  12. 제11항에 있어서,
    상기 제1 맵 및 상기 제2 맵 중 어느 하나에 임의의 영역이 특정되고,
    상기 제1 맵 및 상기 제2 맵 중 적어도 하나에서 상기 임의의 영역 또는 상기 임의의 영역에 대응되는 영역에 장애물이 있다고 판단되면 상기 융합 맵에 반영하는 로봇 청소기.
  13. 제11항에 있어서,
    상기 복수 개의 맵은 뎁스 카메라의 광량이 최대와 최소의 중간값인 제3 광량으로 촬영된 제3 맵을 더 포함하고,
    상기 제1 맵, 상기 제2 맵 및 상기 제3 맵 중 어느 하나에서 임의의 영역이 특정되고,
    상기 제1 맵, 상기 제2 맵 및 상기 제3 맵 중 적어도 하나에서 상기 임의의 영역 또는 상기 임의의 영역에 대응되는 영역에 장애물이 있다고 판단되면 상기 융합 맵에 반영하는 로봇 청소기.
  14. 제10항에 있어서,
    상기 복수 개의 맵 중 적어도 하나에서 장애물이 검출되면 융합 맵에 상기 장애물이 반영되는 로봇 청소기.
  15. 제10항에 있어서,
    상기 복수 개의 맵이 생성될 때 광량이 가변되는 시간은 주행이 방해되지 않기 위해 필요한 장애물 검출 시간보다 적게 소요되는 로봇 청소기.
PCT/KR2020/017639 2020-07-22 2020-12-04 로봇 청소기 및 이의 제어방법 WO2022019398A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0090976 2020-07-22
KR1020200090976A KR20220012001A (ko) 2020-07-22 2020-07-22 로봇 청소기 및 이의 제어방법

Publications (1)

Publication Number Publication Date
WO2022019398A1 true WO2022019398A1 (ko) 2022-01-27

Family

ID=79729209

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/017639 WO2022019398A1 (ko) 2020-07-22 2020-12-04 로봇 청소기 및 이의 제어방법

Country Status (2)

Country Link
KR (1) KR20220012001A (ko)
WO (1) WO2022019398A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023160428A1 (zh) * 2022-02-28 2023-08-31 追觅创新科技(苏州)有限公司 自移动设备的地图生成方法、自移动设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100877072B1 (ko) * 2007-06-28 2009-01-07 삼성전자주식회사 이동 로봇을 위한 맵 생성 및 청소를 동시에 수행하는 방법및 장치
KR20090061462A (ko) * 2007-12-11 2009-06-16 엘지전자 주식회사 로봇 청소기의 감지 장치
KR20120118818A (ko) * 2011-04-19 2012-10-29 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR20150095121A (ko) * 2014-02-12 2015-08-20 엘지전자 주식회사 로봇 청소기 및 이의 제어방법
US20180113467A1 (en) * 2016-10-25 2018-04-26 Lg Electronics Inc. Cleaner and controlling method thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101984214B1 (ko) 2012-02-09 2019-05-30 삼성전자주식회사 로봇 청소기의 청소 작업을 제어하기 위한 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100877072B1 (ko) * 2007-06-28 2009-01-07 삼성전자주식회사 이동 로봇을 위한 맵 생성 및 청소를 동시에 수행하는 방법및 장치
KR20090061462A (ko) * 2007-12-11 2009-06-16 엘지전자 주식회사 로봇 청소기의 감지 장치
KR20120118818A (ko) * 2011-04-19 2012-10-29 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR20150095121A (ko) * 2014-02-12 2015-08-20 엘지전자 주식회사 로봇 청소기 및 이의 제어방법
US20180113467A1 (en) * 2016-10-25 2018-04-26 Lg Electronics Inc. Cleaner and controlling method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023160428A1 (zh) * 2022-02-28 2023-08-31 追觅创新科技(苏州)有限公司 自移动设备的地图生成方法、自移动设备及存储介质

Also Published As

Publication number Publication date
KR20220012001A (ko) 2022-02-03

Similar Documents

Publication Publication Date Title
WO2019124913A1 (en) Robot cleaners and controlling method thereof
WO2018160035A1 (ko) 이동 로봇 및 그 제어방법
WO2017018848A1 (en) Mobile robot and control method thereof
WO2017200305A1 (ko) 로봇 청소기
WO2015008874A1 (ko) 로봇 청소기 및 그 로봇 청소기의 3d 센서 자가 교정 방법
WO2018052204A1 (ko) 공항 로봇 및 그를 포함하는 공항 로봇 시스템
WO2018070686A1 (ko) 공항용 안내 로봇 및 그의 동작 방법
WO2010114235A1 (en) Mobile robot with single camera and method for recognizing 3d surroundings of the same
WO2015186944A1 (ko) 로봇 청소기 및 그의 제어 방법
WO2016047935A1 (ko) 먼지 센서, 먼지 측정 장치, 로봇 청소기 및 그들의 제어 방법
WO2019151753A1 (en) Cleaner
WO2022019398A1 (ko) 로봇 청소기 및 이의 제어방법
WO2021015411A1 (en) Robot cleaner and method for controlling the same
WO2021145525A1 (en) Robot cleaner and method for controlling the same
WO2021006674A2 (ko) 이동 로봇 및 그 제어방법
WO2020251274A1 (en) Robot cleaner using artificial intelligence and control method thereof
JP2006061439A (ja) 自走式掃除機
WO2021020911A1 (en) Mobile robot
WO2021182694A1 (en) Robot cleaner and method for controlling the same
WO2016144064A1 (en) Vacuum cleaner and method for controlling the same
WO2021045260A1 (ko) 로봇 청소기 및 제어방법
WO2022004949A1 (ko) 로봇 청소기의 제어 방법
WO2019199098A1 (en) Robot cleaner
WO2022019399A1 (ko) 로봇 청소기 및 이의 제어방법
WO2020197119A1 (ko) 로봇 청소기

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20945868

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20945868

Country of ref document: EP

Kind code of ref document: A1