WO2020017943A1 - 복수의 로봇 청소기 및 그 제어방법 - Google Patents

복수의 로봇 청소기 및 그 제어방법 Download PDF

Info

Publication number
WO2020017943A1
WO2020017943A1 PCT/KR2019/009019 KR2019009019W WO2020017943A1 WO 2020017943 A1 WO2020017943 A1 WO 2020017943A1 KR 2019009019 W KR2019009019 W KR 2019009019W WO 2020017943 A1 WO2020017943 A1 WO 2020017943A1
Authority
WO
WIPO (PCT)
Prior art keywords
cleaner
image
driving
ceiling
robot
Prior art date
Application number
PCT/KR2019/009019
Other languages
English (en)
French (fr)
Inventor
이성훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2020017943A1 publication Critical patent/WO2020017943A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • A47L9/281Parameters or conditions being sensed the amount or condition of incoming dirt or dust
    • A47L9/2815Parameters or conditions being sensed the amount or condition of incoming dirt or dust using optical detectors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0293Convoy travelling
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0295Fleet control by at least one leading vehicle of the fleet
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Definitions

  • the present invention relates to a plurality of robot cleaners that can perform cleaning in cooperation.
  • a cleaner is a device that performs a cleaning function by inhaling dust and foreign matter or by mopping.
  • the cleaner performs a cleaning function for the floor, and the cleaner includes a wheel for movement.
  • the wheel is rolled by an external force applied to the cleaner body to move the cleaner body relative to the floor.
  • robot cleaners such as a robot cleaner that performs cleaning while driving by the user without a user's operation and a cleaner that moves itself along a nozzle that is moved by the user's operation has been actively conducted.
  • Such a robot cleaner may include a rechargeable battery and include an obstacle sensor that may avoid obstacles while driving, and may clean and run on its own.
  • an obstacle sensor that may avoid obstacles while driving, and may clean and run on its own.
  • several robot cleaners may be used at the same time.
  • each position sensor must be provided to exchange signals with each other through network communication.
  • location information for collaboration cannot be shared when the network connection or the network connection is lost.
  • an object of the present invention is that a plurality of robot cleaners may be equipped with a preceding robot cleaner and a following robot cleaner even in an environment in which the sensors are not mounted or sensors are mounted but network communication is not supported.
  • the present invention provides a plurality of robot cleaners and a control method thereof capable of performing efficient tracking / collaborative cleaning by recognizing a position of a preceding robot cleaner without reversing.
  • the present invention provides a plurality of robot cleaners and their control methods capable of performing the alignment.
  • the robot cleaner according to an embodiment of the present invention is a plurality of robot cleaners including a first cleaner and a second cleaner, the robot cleaner including an optical module and emitting light signals related to driving from the optical module to project onto a ceiling.
  • the optical module is located above the first cleaner, characterized in that made of a plurality of laser or a plurality of LEDs.
  • the image corresponding to the optical signal may be a predetermined image including information related to at least one of the driving state and the driving direction of the first cleaner.
  • the second cleaner may store a driving state and a driving direction corresponding to the image corresponding to the optical signal in advance in a memory, and the driving state matches the image acquired through the upper camera. And information related to at least one of the driving directions is detected from the memory.
  • the driving speed of the first cleaner may be displayed based on at least one of a light emission interval and a light emission range of the optical signal forming the image.
  • the optical signal corresponding to the stop command may be projected onto the ceiling.
  • the first cleaner when the driving line of the first cleaner is changed, the first cleaner operates the optical module to project the image related to the change of direction on the ceiling and stops the driving of the first cleaner for a predetermined time. It is characterized by.
  • the second vacuum cleaner rotates based on the acquired image and the previous image to change the driving direction, and the first cleaner may elapse according to the elapse of the predetermined time.
  • the driving apparatus may be adjusted by adjusting the position of the second cleaner so that the image related to the change of direction is at the center of the angle of view range.
  • the second image corresponding to the stop command is projected from the optical module provided in the second cleaner to the ceiling, and The driving stop is performed based on the second image obtained by using the upper camera provided in the first cleaner.
  • the first cleaner stops driving until projection of the second image is stopped, and when projection of the second image is stopped according to completion of the change of direction of the first cleaner, the first cleaner The cleaner may follow the first cleaner and travel in a direction corresponding to the first image.
  • the second cleaner when the driving of the second cleaner starts in a direction corresponding to the first image, projects the third image onto the ceiling to perform alignment with the first image emitted from the first cleaner. It is characterized by.
  • a plurality of robot cleaners may not be equipped with sensors for locating each other, or even in an environment in which a sensor is mounted but network communication is not supported.
  • the preceding robot cleaner and the following robot cleaner can recognize the position of the preceding robot cleaner without performing backward and reverse, and perform efficient following / collaborative cleaning. .
  • FIG. 1 is a perspective view showing an example of a robot cleaner according to the present invention.
  • FIG. 2 is a plan view of the robot cleaner shown in FIG. 1.
  • FIG. 3 is a side view of the robot cleaner shown in FIG. 1.
  • FIG. 4 is a block diagram illustrating exemplary components of a robot cleaner according to an embodiment of the present invention.
  • FIG. 5A is a conceptual diagram illustrating a vision network between a plurality of robot cleaners according to an embodiment of the present invention
  • FIG. 5B is a conceptual diagram illustrating another example related to network communication of FIG. 5A.
  • 5C is a view for explaining tracking control between a plurality of robot cleaners according to an exemplary embodiment.
  • FIG. 6 is a conceptual view illustrating a method of recognizing a position of a preceding cleaner based on an image corresponding to an optical signal projected on a ceiling by a plurality of robot cleaners according to an embodiment of the present invention.
  • FIG. 7 is a representative flowchart for explaining the conceptual diagram illustrated in FIG. 6 in detail.
  • 8A to 8F are examples of various projection images related to the driving state projected by the preceding cleaner in relation to the running command of the trailing cleaner.
  • 9 and 10 are flowcharts illustrating different examples of operations associated with changing a driving direction of a preceding cleaner in a plurality of robot cleaners according to an exemplary embodiment of the present invention.
  • 11A through 11F are exemplary conceptual diagrams of operations for describing the flowchart illustrated in FIG. 10 in more detail.
  • FIG. 1 is a perspective view showing an example of a robot cleaner 100 according to the present invention
  • FIG. 2 is a plan view of the robot cleaner 100 shown in FIG. 1
  • FIG. 3 is a robot cleaner 100 shown in FIG. 1. Side view.
  • a mobile robot, a robot cleaner, and a cleaner performing autonomous driving may be used in the same sense.
  • the plurality of cleaners may include at least some of the components shown in FIGS. 1 to 3.
  • the robot cleaner 100 performs a function of cleaning a floor while driving a certain area by itself. Cleaning of the floor here includes suctioning dust (including foreign matter) from the floor or mopping the floor.
  • the robot cleaner 100 may include a cleaner body 110, a cleaning unit 120, a sensing unit 130, and a dust bin 140.
  • the cleaner main body 110 includes various components, including a controller (not shown) for controlling the robot cleaner 100.
  • the cleaner body 110 is provided with a wheel unit 111 for driving the robot cleaner 100.
  • the robot cleaner 100 may be moved back, forth, left, and right by the wheel unit 111 or rotated.
  • the wheel unit 111 includes a main wheel 111a and a sub wheel 111b.
  • the main wheels 111a are provided at both sides of the cleaner body 110, and are configured to be rotatable in one direction or the other direction according to the control signal of the controller.
  • Each main wheel 111a may be configured to be driven independently of each other.
  • each main wheel 111a may be driven by different motors. Or, it may be driven by a plurality of different shafts provided in one motor.
  • the sub wheel 111b supports the cleaner body 110 together with the main wheel 111a, and is configured to assist the robot cleaner 100 by the main wheel 111a.
  • the sub wheel 111b may also be provided in the cleaning unit 120 described later.
  • the controller controls the driving of the wheel unit 111, so that the robot cleaner 100 autonomously runs on the floor.
  • the cleaner body 110 is equipped with a battery (not shown) for supplying power to the robot cleaner (100).
  • the battery may be configured to be chargeable, and may be configured to be detachably attached to the bottom of the cleaner body 110.
  • the cleaning unit 120 may be disposed to protrude from one side of the cleaner body 110 to suck or mop air containing dust.
  • the one side may be a side in which the cleaner body 110 travels in the forward direction F, that is, the front side of the cleaner body 110.
  • the cleaning unit 120 is shown to have a form protruding in both the front and left and right sides from one side of the cleaner body 110. Specifically, the front end portion of the cleaning unit 120 is disposed at a position spaced forward from one side of the cleaner body 110, the left and right both ends of the cleaning unit 120 are spaced apart from one side of the cleaner body 110 to both left and right sides, respectively. Is placed in a closed position.
  • the cleaner body 110 As the cleaner body 110 is formed in a circular shape, and both rear ends of the cleaning unit 120 protrude from the cleaner body 110 to left and right sides, respectively, the cleaner body 110 and the cleaning unit 120 may be empty. Spaces, ie gaps can be formed.
  • the empty space is a space between the left and right ends of the cleaner body 110 and the left and right ends of the cleaning unit 120 and is recessed inwardly of the robot cleaner 100.
  • the robot cleaner 100 may be caught in an obstacle and may not move.
  • the cover member 129 may be disposed to cover at least a portion of the empty space.
  • the cover member 129 may be provided in the cleaner body 110 or the cleaning unit 120.
  • the cover members 129 are protruded from both rear ends of the cleaning unit 120, respectively, to cover the outer circumferential surface of the cleaner body 110.
  • the cover member 129 is disposed to fill at least a part of the empty space, that is, the empty space between the cleaner body 110 and the cleaning unit 120. Therefore, the obstacle may be prevented from being pinched in the empty space, or a structure may be easily separated from the obstacle even if the obstacle is pinched in the empty space.
  • the cover member 129 protruding from the cleaning unit 120 may be supported on the outer circumferential surface of the cleaner body 110.
  • the cover member 129 protrudes from the cleaner body 110, the cover member 129 may be supported on the rear portion of the cleaning unit 120. According to the above structure, when the cleaning unit 120 is impacted by hitting an obstacle, a part of the shock may be transmitted to the cleaner main body 110 to distribute the impact.
  • the cleaning unit 120 may be detachably coupled to the cleaner body 110.
  • the mop module (not shown) may be detachably coupled to the cleaner body 110 in place of the separated cleaning unit 120.
  • the user may mount the cleaning unit 120 on the cleaner main body 110 to remove dust from the floor, and may install a mop module on the cleaner main body 110 to clean the floor.
  • the mounting may be guided by the cover member 129 described above. That is, since the cover member 129 is disposed to cover the outer circumferential surface of the cleaner body 110, the relative position of the cleaning unit 120 with respect to the cleaner body 110 may be determined.
  • the cleaning unit 120 may be provided with a caster 123.
  • the caster 123 assists the robot cleaner 100 in driving and also supports the robot cleaner 100.
  • the sensing unit 130 is disposed on the cleaner body 110. As shown, the sensing unit 130 may be disposed on one side of the cleaner body 110 in which the cleaning unit 120 is located, that is, in front of the cleaner body 110.
  • the sensing unit 130 may be disposed to overlap the cleaning unit 120 in the vertical direction of the cleaner body 110.
  • the sensing unit 130 is disposed above the cleaning unit 120 to detect an obstacle or a feature in front of the robot cleaner 100 so that the cleaning unit 120 located in front of the robot cleaner 100 does not collide with the obstacle.
  • the sensing unit 130 may be configured to additionally perform other sensing functions in addition to the sensing function.
  • the sensing unit 130 may include a camera 131 for acquiring the surrounding image.
  • the camera 131 may include a lens and an image sensor.
  • the camera 131 may convert an image around the cleaner body 110 into an electrical signal that can be processed by the controller, and may transmit, for example, an electrical signal corresponding to the upper image to the controller.
  • the electrical signal corresponding to the upper image may be used by the controller to detect the position of the cleaner body 110.
  • the sensing unit 130 may detect obstacles such as walls, furniture, and a cliff on the driving surface or the driving path of the robot cleaner 100. In addition, the sensing unit 130 may detect the presence of a docking device that performs battery charging. In addition, the sensing unit 130 may detect the ceiling information to map the driving area or the cleaning area of the robot cleaner 100.
  • the vacuum cleaner body 110 is detachably coupled to a dust container 140 that separates and collects dust in sucked air.
  • the dust container 140 is provided with a dust container cover 150 covering the dust container 140.
  • the dust container cover 150 is hinged to the cleaner body 110 may be configured to be rotatable.
  • the dust container cover 150 may be fixed to the dust container 140 or the cleaner body 110 to maintain a state covering the upper surface of the dust container 140. In a state where the dust container cover 150 is disposed to cover the upper surface of the dust container 140, the dust container 140 may be prevented from being separated from the cleaner body 110 by the dust container cover 150.
  • a part of the dust container 140 is accommodated in the dust container accommodating part 113, but the other part of the dust container 140 protrudes toward the rear of the cleaner body 110 (that is, the reverse direction R opposite to the forward direction F). Can be formed.
  • the dust container 140 has an inlet through which the air containing dust is introduced and an outlet through which the dust separated air is discharged, and when the dust container 140 is mounted on the cleaner body 110, the inlet and the outlet are the main body 110. It is configured to communicate through the opening 155 formed in the inner wall of the. As a result, the intake flow passage and the exhaust flow passage inside the cleaner body 110 may be formed.
  • the air containing the dust introduced through the cleaning unit 120 is introduced into the dust container 140 through the intake flow path inside the cleaner body 110, the filter or cyclone of the dust container 140 As it passes, air and dust separate from each other.
  • the dust is collected in the dust container 140, and the air is discharged from the dust container 140 and finally discharged to the outside through the exhaust port 112 through the exhaust flow path inside the cleaner body 110.
  • Robot cleaner 100 or a mobile robot according to an embodiment of the present invention, the communication unit 1100, the input unit 1200, the traveling unit 1300, the sensing unit 1400, the output unit 1500, the power supply unit 1600 , At least one of the memory 1700, the controller 1800, and the cleaner 1900, or a combination thereof.
  • the components shown in FIG. 4 are not essential, and thus, a robot cleaner having more or fewer components may be implemented.
  • the plurality of robot cleaners described in the present invention may include only the same components as some of the components described below. That is, the plurality of robot cleaners may be formed of different components, respectively.
  • the power supply unit 1600 includes a battery that can be charged by an external commercial power supply and supplies power to the mobile robot.
  • the power supply unit 1600 may supply driving power to each of the components included in the mobile robot, thereby supplying operation power required for the mobile robot to travel or perform a specific function.
  • the controller 1800 may detect the remaining power of the battery, and if the remaining power is insufficient to control to move to the charging station connected to the external commercial power, the battery can be charged by receiving a charging current from the charging stand.
  • the battery may be connected to the battery detector so that the battery remaining amount and the charging state may be transmitted to the controller 1800.
  • the output unit 1500 may display the battery remaining amount on the output unit 1500 by a control unit.
  • the battery may be located at the bottom of the center of the robot cleaner, or may be located at either the left or the right. In the latter case, the mobile robot may further comprise a counterweight to eliminate the weight bias of the battery.
  • the controller 1800 may be configured to process information based on artificial intelligence, and may include one or more modules that perform at least one of learning information, inferring information, perceiving information, and processing natural language. Can be.
  • the controller 1800 uses a machine running technology to learn a large amount of information (big data) such as information stored in a cleaner, environment information around a mobile terminal, and information stored in an external storage that can be communicated with. At least one of inference and processing may be performed. The controller 1800 predicts (or infers) at least one action of the at least one cleaner that is executable by using the information learned using the machine learning technique, and has the highest feasibility among the at least one predicted actions. The cleaner may be controlled to execute an operation.
  • big data big data
  • big data such as information stored in a cleaner, environment information around a mobile terminal, and information stored in an external storage that can be communicated with. At least one of inference and processing may be performed.
  • the controller 1800 predicts (or infers) at least one action of the at least one cleaner that is executable by using the information learned using the machine learning technique, and has the highest feasibility among the at least one predicted actions.
  • the cleaner may be controlled to execute an operation.
  • Machine learning technology is a technology that collects and learns a large amount of information based on at least one algorithm, and determines and predicts information based on the learned information.
  • Learning information is an operation of grasping characteristics, rules, and judgment criteria of information, quantifying the relationship between information, and predicting new data using the quantized pattern.
  • the algorithms used by machine learning technology can be algorithms based on statistics, for example, decision trees that use tree structure forms as predictive models, artificial neural networks that mimic the structure and function of neural networks of living things. (neural network), genetic programming based on biological evolution algorithms, clustering that distributes observed examples into subsets of clusters, and Monte Carlo methods that compute function values randomly from randomly extracted random numbers. (Monter carlo method) and the like.
  • deep learning technology is a technology that performs at least one of learning, determining, and processing information by using a Deap Neuron Network (DNN) algorithm.
  • the artificial neural network (DNN) may have a structure that connects between layers and transfers data between layers.
  • Such deep learning technology can learn a huge amount of information through an artificial neural network (DNN) using a graphic processing unit (GPU) optimized for parallel computing.
  • GPU graphic processing unit
  • the controller 1800 may use a training engine stored in an external server or memory and may include a learning engine that detects a feature for recognizing a predetermined object.
  • the feature for recognizing the object may include the size, shape and shadow of the object.
  • the learning engine may recognize at least one object or life included in the input image.
  • the controller 1800 may recognize whether obstacles such as a chair leg, a fan, and a balcony balcony of a specific shape that hinder the running of the cleaner are present around the cleaner. The efficiency and reliability of running the cleaner can be improved.
  • the learning engine as described above may be mounted on the controller 1800, or may be mounted on an external server.
  • the controller 1800 may control the communication unit 1100 to transmit at least one image to be analyzed to the external server.
  • the external server may recognize at least one object or life included in the image by inputting the image received from the cleaner to the learning engine.
  • the external server may transmit information related to the recognition result back to the cleaner.
  • the information related to the recognition result may include the number of objects included in the image to be analyzed and information related to the name of each object.
  • the driving unit 1300 is provided with a motor, by driving the motor, by rotating the left and right main wheels in both directions can rotate or move the main body.
  • the left and right main wheels may move independently.
  • the driving unit 1300 may move the main body of the mobile robot back, front, left, and right, curve the vehicle, or rotate it in place.
  • the input unit 1200 receives various control commands for the robot cleaner from the user.
  • the input unit 1200 may include one or more buttons.
  • the input unit 1200 may include a confirmation button, a setting button, and the like.
  • the confirmation button is a button for receiving a command for confirming detection information, obstacle information, location information, map information from the user
  • the setting button is a button for receiving a command for setting the information from the user.
  • the input unit 1200 may cancel a previous user input and input a reset button for receiving user input again, a delete button for deleting a preset user input, a button for setting or changing an operation mode, and a command for returning to the charging station. It may include a button for receiving an input.
  • the input unit 1200 may be installed on the upper part of the mobile robot using a hard key, a soft key, a touch pad, or the like.
  • the input unit 1200 may have a form of a touch screen together with the output unit 1500.
  • the output unit 1500 may be installed on the upper portion of the mobile robot.
  • the installation location or installation form may vary.
  • the output unit 1500 may display a battery state or a driving method on a screen.
  • the output unit 1500 may output state information inside the mobile robot detected by the sensing unit 1400, for example, current states of respective components included in the mobile robot.
  • the output unit 1500 may display external state information, obstacle information, location information, map information, etc. detected by the sensing unit 1400 on the screen.
  • the output unit 1500 may be any one of a light emitting diode (LED), a liquid crystal display (LCD), a plasma display panel, and an organic light emitting diode (OLED). It can be formed as an element of.
  • the output unit 1500 may further include sound output means for audibly outputting an operation process or an operation result of the mobile robot performed by the controller 1800.
  • the output unit 1500 may output a warning sound to the outside according to the warning signal generated by the controller 1800.
  • the sound output means may be a means for outputting sounds such as a beeper and a speaker
  • the output unit 1500 may include audio data or message data having a predetermined pattern stored in the memory 1700. It can be output to the outside through the sound output means using.
  • the mobile robot may output the environmental information about the driving area on the screen or output the sound through the output unit 1500.
  • the mobile robot may transmit map information or environmental information to the terminal device through the communication unit 1100 such that the terminal device outputs a screen or sound to be output through the output unit 1500.
  • the memory 1700 stores a control program for controlling or driving the robot cleaner and data corresponding thereto.
  • the memory 1700 may store audio information, image information, obstacle information, location information, map information, and the like.
  • the memory 1700 may store information related to a driving pattern.
  • the memory 1700 mainly uses a nonvolatile memory.
  • the non-volatile memory (NVM, NVRAM) is a storage device that can maintain stored information even when power is not supplied.
  • NVM non-volatile memory
  • ROM read-only memory
  • flash memory a storage device that can maintain stored information even when power is not supplied.
  • Storage devices eg, hard disks, diskette drives, magnetic tapes), optical disk drives, magnetic RAMs, PRAMs, and the like.
  • the sensing unit 1400 may include at least one of an external signal sensor, a front sensor, a cliff sensor, a 2D camera sensor, and a 3D camera sensor.
  • the external signal sensor may detect an external signal of the mobile robot.
  • the external signal detection sensor may be, for example, an infrared ray sensor, an ultrasonic sensor, an RF sensor, or the like.
  • the mobile robot can check the position and direction of the charging station by receiving a guide signal generated by the charging station using an external signal detection sensor.
  • the charging station may transmit a guide signal indicating the direction and distance so that the mobile robot can return. That is, the mobile robot may receive a signal from the charging station to determine the current position and set the direction of movement to return to the charging station.
  • the front sensor may be installed at a predetermined interval along the front of the mobile robot, specifically, the side outer peripheral surface of the mobile robot.
  • the front sensor is located on at least one side of the mobile robot, and detects an obstacle in front of the mobile robot, the front sensor detects an object in the moving direction of the mobile robot, in particular obstacles to detect the detection information to the controller 1800. I can deliver it. That is, the front sensor may detect the protrusions, the household appliances, the furniture, the wall, the wall edges, and the like existing on the moving path of the mobile robot and transmit the information to the controller 1800.
  • the front sensing sensor may be, for example, an infrared sensor, an ultrasonic sensor, an RF sensor, a geomagnetic sensor, and the like, and the mobile robot may use one type of sensor as the front sensing sensor or two or more types of sensors as needed. have.
  • the ultrasonic sensor may generally be mainly used to detect a long distance obstacle.
  • the ultrasonic sensor includes a transmitter and a receiver, and the controller 1800 determines whether the obstacle is present by whether the ultrasonic wave radiated through the transmitter is reflected by an obstacle or the like and is received by the receiver. It can be used to calculate the distance to the obstacle.
  • the controller 1800 may detect the information related to the size of the obstacle by comparing the ultrasound emitted from the transmitter and the ultrasound received from the receiver. For example, the controller 1800 may determine that the larger the obstacle is, the more ultrasonic waves are received in the receiver.
  • a plurality (eg, five) ultrasonic sensors may be installed along the outer circumferential surface of the front side of the mobile robot.
  • the ultrasonic sensor may be installed on the front of the mobile robot alternately the transmitter and the receiver.
  • the transmitter may be disposed to be spaced apart from the center of the front of the main body to the left and right, and one or more transmitters may be disposed between the receivers to form a reception area of the ultrasonic signal reflected from an obstacle or the like.
  • This arrangement allows the receiving area to be extended while reducing the number of sensors.
  • the transmission angle of the ultrasonic waves may maintain an angle in a range that does not affect the different signals to prevent crosstalk.
  • the reception sensitivity of the receivers may be set differently.
  • the ultrasonic sensor may be installed upward by a predetermined angle so that the ultrasonic wave transmitted from the ultrasonic sensor is output upward, and may further include a predetermined blocking member to prevent the ultrasonic wave from being radiated downward.
  • the front sensor may use two or more types of sensors together, and accordingly, the front sensor may use any one type of sensor, such as an infrared sensor, an ultrasonic sensor, or an RF sensor. .
  • the front sensing sensor may include an infrared sensor as another type of sensor in addition to the ultrasonic sensor.
  • the infrared sensor may be installed on the outer circumferential surface of the mobile robot together with the ultrasonic sensor.
  • the infrared sensor may also detect obstacles present in the front or side and transmit the obstacle information to the controller 1800. That is, the infrared sensor detects protrusions, household appliances, furniture, walls, wall edges, and the like existing on the moving path of the mobile robot and transmits the information to the controller 1800. Therefore, the mobile robot can move the main body within a specific area without colliding with an obstacle.
  • the cliff detection sensor (or the cliff sensor) may mainly detect various obstacles on the floor supporting the main body of the mobile robot by using various types of optical sensors.
  • the cliff detection sensor is installed on the back of the mobile robot on the floor, of course, may be installed in different positions according to the type of mobile robot.
  • the cliff detection sensor is located on the back of the mobile robot and is used to detect obstacles on the floor.
  • the cliff detection sensor is an infrared sensor, a light emitting unit and a light receiving unit, an ultrasonic sensor, an RF sensor, and a PSD (Position). Sensitive Detector) sensor or the like.
  • one of the cliff detection sensors may be installed at the front of the mobile robot, and the other two cliff detection sensors may be installed at the rear.
  • the cliff detection sensor may be a PSD sensor but may be configured of a plurality of different types of sensors.
  • the PSD sensor uses a semiconductor surface resistance to detect the short and long distance positions of incident light by one p-n junction.
  • the PSD sensor includes a one-dimensional PSD sensor that detects light in only one axis direction and a two-dimensional PSD sensor that can detect a light position on a plane, and both may have a pin photodiode structure.
  • PSD sensor is a type of infrared sensor, and uses infrared light to measure the distance by measuring the angle of the infrared ray reflected from the obstacle after transmitting the infrared ray. That is, the PSD sensor calculates the distance to the obstacle by using a triangulation method.
  • the PSD sensor includes a light emitting unit for emitting infrared rays to an obstacle and a light receiving unit for receiving infrared rays reflected from the obstacle and is generally configured in a module form.
  • a stable measurement value can be obtained regardless of the difference in reflectance and color of the obstacle.
  • the cleaning unit 1900 cleans the designated cleaning area according to a control command transmitted from the control unit 1800.
  • the cleaning unit 1900 scatters the surrounding dust through a brush (not shown) that scatters the dust of the designated cleaning area, and then drives the suction fan and the suction motor to suck the scattered dust.
  • the cleaning unit 1900 may mop the designated cleaning area according to the replacement of the configuration.
  • the controller 1800 may measure a cliff and analyze the depth of the cliff by measuring an infrared angle between the infrared light emitted by the cliff detection sensor and the reflected signal received by the obstacle.
  • the controller 1800 may determine whether or not the passage of the cliff according to the ground condition of the cliff detected using the cliff detection sensor, and may determine whether the cliff passes. For example, the controller 1800 determines whether the cliff is present and the depth of the cliff through the cliff detection sensor, and then passes the cliff only when the reflection signal is detected by the cliff detection sensor.
  • the controller 1800 may determine the lifting phenomenon of the mobile robot using the cliff detection sensor.
  • the two-dimensional camera sensor is provided on one surface of the mobile robot, and acquires image information related to the surroundings of the main body during movement.
  • An optical flow sensor converts a downward image input from an image sensor provided in the sensor to generate image data of a predetermined format.
  • the generated image data may be stored in the memory 1700.
  • one or more light sources may be installed adjacent to the optical flow sensor.
  • the one or more light sources irradiate light to a predetermined area of the bottom surface photographed by the image sensor. That is, when the mobile robot moves a specific area along the bottom surface, if the bottom surface is flat, a constant distance is maintained between the image sensor and the bottom surface. On the other hand, when the mobile robot moves the bottom surface of the non-uniform surface, the robot moves away by a certain distance due to irregularities and obstacles on the bottom surface.
  • one or more light sources may be controlled by the controller 1800 to adjust the amount of light to be irradiated.
  • the light source may be a light emitting device capable of adjusting light quantity, for example, a light emitting diode (LED) or the like.
  • the controller 1800 may detect the position of the mobile robot regardless of the sliding of the mobile robot.
  • the controller 1800 may calculate the moving distance and the moving direction by comparing and analyzing the image data photographed by the optical flow sensor according to time, and may calculate the position of the mobile robot based on this.
  • the controller 1800 can correct the sliding against the position of the mobile robot calculated by other means.
  • the 3D camera sensor may be attached to one side or a part of the main body of the mobile robot to generate 3D coordinate information related to the periphery of the main body.
  • the 3D camera sensor may be a 3D depth camera that calculates a distance between the mobile robot and the object to be photographed.
  • the 3D camera sensor may capture a 2D image related to the circumference of the main body, and generate a plurality of 3D coordinate information corresponding to the captured 2D image.
  • the three-dimensional camera sensor includes two or more cameras for acquiring a conventional two-dimensional image, and combines two or more images obtained from the two or more cameras to generate three-dimensional coordinate information. Can be formed in a manner.
  • the three-dimensional camera sensor is a first pattern irradiation unit for irradiating the first pattern of light downward toward the front of the main body, and to irradiate the second pattern of light upward toward the front of the main body It may include a second pattern irradiation unit and an image acquisition unit for obtaining an image of the front of the main body.
  • the image acquisition unit may acquire an image of a region where light of the first pattern and light of the second pattern are incident.
  • the three-dimensional camera sensor includes an infrared pattern emitter for irradiating an infrared pattern with a single camera, and captures a shape in which the infrared pattern emitted from the infrared pattern emitter is projected onto the object to be photographed. The distance between the sensor and the object to be photographed may be measured.
  • the 3D camera sensor may be an IR (Infra Red) type 3D camera sensor.
  • the three-dimensional camera sensor includes a light emitting unit that emits light together with a single camera, receives a portion of the laser emitted from the light emitting unit reflected from the object to be photographed, and analyzes the received laser to generate a three-dimensional camera.
  • the distance between the camera sensor and the object to be photographed may be measured.
  • the 3D camera sensor may be a 3D camera sensor of a time of flight (TOF) method.
  • TOF time of flight
  • the laser of the three-dimensional camera sensor as described above is configured to irradiate the laser of the form extending in at least one direction.
  • the three-dimensional camera sensor may be provided with a first and a second laser, the first laser is irradiated with a straight laser cross each other, the second laser is irradiated with a single straight laser laser can do.
  • the bottom laser is used to detect obstacles at the bottom
  • the top laser is used to detect obstacles at the top
  • the middle laser between the bottom laser and the top laser is used to detect obstacles in the middle. Used for
  • the communication unit 1100 is connected to the terminal device and / or other devices located in a specific area (in this specification will be mixed with the term "home appliance") in one of the wired, wireless, satellite communication methods To transmit and receive signals and data.
  • the communication unit 1100 may transmit / receive data with other devices located in a specific area.
  • any other device may be any device capable of transmitting and receiving data by connecting to a network.
  • the other device may be a device such as an air conditioner, a heating device, an air purifying device, a lamp, a TV, a car, and the like.
  • the other device may be a device for controlling a door, a window, a water valve, a gas valve, or the like.
  • the other device may be a sensor for detecting temperature, humidity, barometric pressure, gas, or the like.
  • the communication unit 1100 may communicate with another robot cleaner 100 located within a specific area or a predetermined range.
  • the robot cleaner, autonomous driving cleaner, cleaner can all be used in the same meaning.
  • the first cleaner and the second cleaner mean a first robot cleaner and a second robot cleaner, respectively.
  • the first cleaner 100a and the second cleaner 100b performing autonomous driving may exchange data with each other through the network communication 50.
  • the first cleaner 100a and / or the second cleaner 100b which performs autonomous driving may perform a cleaning related operation by a control command received from the terminal 300 through the network communication 50 or another communication. Alternatively, the corresponding operation may be performed.
  • the plurality of cleaners 100a and 100b performing autonomous driving communicate with the terminal 300 through the first network communication, and communicate with each other through the second network communication. Can be done.
  • the network communication 50 may include a wireless LAN (WLAN), a wireless personal area network (WPAN), wireless-fidelity (Wi-Fi), wireless fidelity (Wi-Fi), digital living network alliance (DLNA), and WiBro.
  • WLAN wireless LAN
  • Wi-Fi wireless personal area network
  • Wi-Fi wireless-fidelity
  • Wi-Fi wireless fidelity
  • DLNA digital living network alliance
  • WiBro WiBro
  • WiMAX World Interoperability for Microwave Access
  • Zigbee Zigbee
  • Z-wave Blue-Tooth
  • Radio Frequency Identification RFID
  • IrDA Infrared Data Association
  • UWB Ultra-Band
  • Wireless USB may refer to short-range communication using at least one of wireless communication technologies such as a wireless universal serial bus.
  • the illustrated network communication 50 may vary depending on what is the communication method of the robot cleaner to communicate with each other.
  • the first cleaner 100a and / or the second cleaner 100b performing autonomous driving may provide the terminal 300 with information sensed through each sensing unit through the network communication 50. Can be.
  • the terminal 300 may transmit a control command generated based on the received information to the first cleaner 100a and / or the second cleaner 100b through the network communication 50.
  • the first cleaner 100a and the second cleaner 100b may perform a vision network to share location information and information related to driving conditions.
  • the vision network refers to an image projected on the ceiling through an optical module provided in the first cleaner 100a and / or the second cleaner 100b in an environment in which network communication environment is not supported. This means that the cleaner 100b and / or the first cleaner 100a recognizes the upper camera and visually shares location information and information related to the driving state.
  • the second cleaner 100b grasps the position and the driving direction of the first cleaner 100a based on the image projected from the first cleaner 100a and performs driving along the first cleaner 100a. can do.
  • the first cleaner 100a is a master and the second cleaner 100b is a slave.
  • the second cleaner 100b follows the first cleaner 100a.
  • a cleaning system may include a plurality of cleaners 100a and 100b that perform autonomous driving, a network communication 50, a server 500, and a plurality of terminals 300a, respectively. 300b).
  • the plurality of cleaners 100a and 100b, the network communication 50, and the at least one terminal 300a are disposed in the building 10, and the other terminal 300b and the server 500 are the building 10. It can be located outside.
  • the plurality of cleaners 100a and 100b may be self-driving and self-cleaning, and may perform autonomous driving and autonomous cleaning.
  • the plurality of cleaners 100a and 100b, the server 500, and the plurality of terminals 300a and 300b may be connected to each other through a network communication 50 to exchange data with each other.
  • it may further include a wireless router such as an access point (AP) device.
  • AP access point
  • the terminal 300a located in the internal network may be connected to at least one of the plurality of cleaners 100a and 100b through the AP device to perform monitoring, remote control, or the like of the cleaner.
  • the terminal 300b located in the external network may also be connected to at least one of the plurality of cleaners 100a and 100b through the AP device to perform monitoring and remote control of the cleaner.
  • the server 500 may be directly wirelessly connected through the mobile terminal 300b. Alternatively, the server 500 may be connected to at least one of the plurality of cleaners 100a and 100b without passing through the mobile terminal 300b.
  • the server 500 may include a processor capable of program processing, and may include various algorithms.
  • server 500 may have algorithms associated with performing machine learning and / or data mining.
  • the server 500 may include a speech recognition algorithm. In such a case, when the voice data is received, the received voice data can be converted into text data and output.
  • the server 500 may store firmware information and driving information (course information, etc.) for the plurality of cleaners 100a and 100b and register product information for the plurality of cleaners 100a and 100b.
  • server 500 may be a server operated by a cleaner manufacturer or a server operated by a published application store operator.
  • the server 500 may be a home server provided in the internal network 10 to store state information about home devices or to store content shared by the home devices.
  • the server 500 is a home server, information related to a foreign matter, for example, an image of a foreign matter may be stored.
  • any one of the plurality of cleaners 100a and 100b may be the master cleaner 100a and the other may be the slave cleaner 100b.
  • the first cleaner 100a may be a dry cleaner that sucks dust from the cleaning floor
  • the second cleaner 100b may be a wet cleaner that mops the floor cleaned by the first cleaner 100a.
  • the structures and specifications of the first vacuum cleaner 100a and the second vacuum cleaner 100b may be different from each other.
  • the first cleaner 100a may provide information for inducing the driving and cleaning of the second cleaner 100b.
  • the second cleaner 100b may run and clean while following the first cleaner 100a.
  • the fact that the second cleaner 100b follows the first cleaner 100a means that the second cleaner 100b runs along the first cleaner 100a while maintaining an appropriate distance from the first cleaner 100a. Means to carry out cleaning.
  • the second cleaner 100b may follow the first cleaner 100a and perform cleaning.
  • the first cleaner 100a may be provided with an optical module 1410 including a plurality of light sources on one side, for example, and the second cleaner 100b following the first cleaner 100a.
  • the upper camera 1420 may be provided.
  • the second cleaner 100b analyzes the specific image acquired by the upper camera 1420. Based on the position and / or the driving state of the first cleaner 100a, a driving command that follows the first cleaner 100a may be generated.
  • the distance between the first vacuum cleaner (100a) and the second vacuum cleaner (100b) is a range in which a specific image projected from the first vacuum cleaner (100a) is within the angle of view of the upper camera 1420 of the second vacuum cleaner (100b). You will have to keep it.
  • vision network vision network
  • the information provided by the specific image projected onto the ceiling through the optical module 1410 of the first cleaner 100a may vary. That is, the specific image includes location information of the first vacuum cleaner 100a and / or information related to the driving state.
  • the current position and driving direction of the first cleaner 100a not only the current position and driving direction of the first cleaner 100a but also various information related to driving conditions such as driving stop, driving speed, and obstacle detection may be provided through image projection. Furthermore, such various information may be based on the current position and the current driving state of the first cleaner 100a, or may be based on map information stored in the first cleaner 100a.
  • the second cleaner 100b performs cleaning while traveling along the travel path of the first cleaner 100a.
  • the traveling directions of the first cleaner 100a and the second cleaner 100b do not always coincide.
  • the current traveling direction is It can be different.
  • traveling speed Va of the first vacuum cleaner 100a and the traveling speed Vb of the second vacuum cleaner 100b may be different from each other.
  • the traveling speed Vb of the first cleaner 100a and / or the second cleaner 100b may be varied in consideration of the vision network communication distance.
  • the traveling speed Vb of the second cleaner 100b may be controlled to be faster than before. Can be.
  • the traveling speed Vb of the second cleaner 100b is controlled to be slower than before, or predetermined Control to stop time.
  • FIG. 6 is a conceptual diagram illustrating a method of recognizing a position of a preceding cleaner based on an image corresponding to an optical signal projected on a ceiling by a plurality of robot cleaners according to an embodiment of the present invention. to be.
  • the trailing cleaner 100b may be configured to recognize the position of the preceding cleaner 100a through a vision network.
  • an optical module 1410 including a plurality of light sources is provided above the first cleaner 100a to operate to emit light signals associated with driving toward the ceiling while the first cleaner 100a is traveling.
  • a camera 1420 is provided above the second cleaner 100b to acquire an image 601 corresponding to the light signal emitted from the first cleaner 100a and projected on the ceiling, thereby to determine whether the vehicle is traveling and the driving direction. Determine.
  • an image 601 may be acquired by the second cleaner 100b only when the projection area R1 of the first cleaner 100a is positioned within the angle of view range R2 of the second cleaner 100b. Therefore, the vision network communication distance is determined in consideration of the range of the projection area R1 of the first cleaner 100a and the angle of view range R2 of the second cleaner 100b, which is an optical module of the first cleaner 100a. It may be determined differently depending on the type of and the type of the upper camera of the second cleaner (100b).
  • the widths of the projection area R1 and the angle of view range R2 are the height H of the ceiling, that is, the height h1 of the ceiling from the top surface of the first cleaner 100a and the top surface of the second cleaner 100b. From the height h2 of the ceiling. For example, it may be said that the widths of the projection area R1 and the angle of view range R2 generally increase further when the height H of the ceiling is high. However, in this case, since the sharpness of the projected image 601 is reversely reduced, the second cleaner 100b may calculate the height H of the ceiling based on the size and the sharpness of the projected image 601. There will be.
  • a plurality of robot cleaners are not equipped with sensors for locating each other, or even in an environment in which the sensors are mounted but network communication is not supported, the preceding robot cleaner and the following robot cleaner are not reversed.
  • Follow-up / collaborative cleaning can be performed.
  • the first vacuum cleaner emits an optical signal related to its driving on a ceiling
  • the second vacuum cleaner acquires and analyzes an image corresponding to the optical signal identified within an angle of view of the upper camera, thereby obtaining a first image.
  • a driving command that follows the first cleaner may be generated.
  • the optical module is located above the first cleaner, and a plurality of lasers or a plurality of LEDs may be formed in a dense form, for example.
  • the optical module may be arranged such that a plurality of lasers or a plurality of LEDs form a specific image.
  • the optical module is not limited to this shape and may be arranged in other forms.
  • the optical module may be provided on the side surface or the bottom surface in addition to (or alternatively) to project the image corresponding to the optical signal onto the wall or the bottom surface.
  • the optical module may include a plurality of transmitters and receivers.
  • the upper camera provided in the second camera may adjust the angle of view range differently according to the position of the projection image within the angle of view range. For example, when only a part of the projection image is located in the field of view range, the view angle range may be increased, and when the projection image is close to the center of the field of view range, the view angle range may be narrowed and the sharpness may be increased.
  • the second cleaner may adjust the traveling direction or the traveling speed of the second cleaner differently according to the position of the projection image within the angle of view range.
  • the traveling speed of the second cleaner may be increased in consideration of the vision network communication distance.
  • the second cleaner may move out of the driving line of the first cleaner and may adjust the driving direction appropriately.
  • the projection image is located at the center of the angle of view range or in a direction opposite to the driving direction, the separation distance between the second cleaner and the first cleaner may be considered to be close, and the driving speed of the second cleaner may be reduced.
  • whether the optical module of the first cleaner 100a is emitted and the interval may be differently determined according to the driving state of the first cleaner.
  • the radiation of the optical module 1410 of the first cleaner 100a may be operated to be performed only when the first cleaner stops traveling or changes the driving direction.
  • the upper camera 1420 of the second cleaner 100b may be implemented to be automatically activated when the first cleaner 100a runs for the first time. That is, the upper camera 1420 may be first switched to the activated state before the second cleaner 100b starts driving. In addition, the upper camera 1420 of the second cleaner 100b may acquire an image projected onto the ceiling through the preview image without an actual photographing operation.
  • FIG. 7 is a representative flowchart for explaining in detail the conceptual diagram illustrated in FIG. 6.
  • an operation according to the present invention is started by first driving the first cleaner (S10).
  • the second vacuum cleaners are in contact with each other or are adjacent or very close to each other before the first vacuum cleaner starts to travel. That is, it is assumed that the first vacuum cleaner and the second vacuum cleaner are located within a vision network communication distance from the beginning.
  • the driving direction or the target direction of the first cleaner may be determined based on stored map information or a control command received from an external device.
  • the second cleaner performs the driving following the driving of the first cleaner without sharing such map information.
  • the specific image corresponding to the optical signal indicates a predetermined image including information related to at least one of the driving state and the driving direction of the first cleaner.
  • the specific image may include a dot, a line, an arrow, a mark, or other promised symbols or patterns, and may be formed by varying at least one of the number of emission, the number of emission, and the emission interval of the plurality of light sources. It may include all of the predetermined shape.
  • the second cleaner acquires a specific image corresponding to the light signal projected on the ceiling by using the upper camera of the second cleaner (S30).
  • the upward camera remains active at or before step S10 and acquires a specific image projected onto the ceiling through the preview image.
  • the second cleaner recognizes the position of the first cleaner based on the acquired image (S40).
  • recognizing the position of the first cleaner may mean estimating the current estimated position based on the driving direction of the first cleaner.
  • the first cleaner when the first cleaner travels forward, since the first cleaner will travel forward while projecting an image corresponding to the front, in the second cleaner, the first cleaner is based on the projected image and thus the vision network communication distance.
  • the position can be estimated by running forward from within.
  • the timing at which the first cleaner projects the actual optical signal and the timing at which the second cleaner acquires the image corresponding to the optical signal are somewhat different, so the estimated position of the first cleaner and the current position of the first cleaner are somewhat different.
  • the second cleaner may perform an algorithm for correcting such a time difference in the background to more accurately calculate the relative position of the first cleaner.
  • the second cleaner may further recognize the driving state of the first cleaner based on the acquired image. For example, when the first vacuum cleaner stops traveling, the image related to the driving stop may be projected through the optical module, and the second vacuum cleaner may recognize the driving stop of the first vacuum by acquiring such an image. will be. Alternatively, when the first cleaner changes the driving direction, the optical module may project an image related to the changed driving direction, and the second cleaner may acquire the image to recognize the change in the driving direction of the first cleaner. .
  • the driving related information matching the image or shape corresponding to the optical signal emitted from the first cleaner may be stored in advance in the memory of the second cleaner.
  • the second cleaner information related to the driving state and the driving direction that match the image corresponding to the optical signal is stored in advance in the memory, and at least one of the driving state and the driving direction that matches the image acquired through the upper camera.
  • the driving condition of the first cleaner may be recognized in such a manner that information related to the is detected from the memory.
  • the driving direction of the first cleaner at the time when the first cleaner emits the optical signal and the driving direction of the first cleaner at the inspection in which the second cleaner recognizes the image corresponding to the optical signal may be different. Therefore, it can be said that it actually means the driving state before several milliseconds (ms) or several microseconds (us).
  • the image projected on the ceiling may further provide information related to the traveling speed of the first cleaner.
  • the traveling speed of the first vacuum cleaner may be displayed based on at least one of the light emission interval and the light emission range of the optical signal of the first vacuum cleaner forming the projection image.
  • the image projected on the ceiling may additionally provide the second cleaner with information related to the obstacle / non-entry detected by the first cleaner. Specifically, when it is detected that the second cleaner is not allowed to enter the area while the first cleaner is running, the second cleaner may be prevented from entering by projecting an optical signal corresponding to the stop command onto the ceiling.
  • the first cleaner may enter, but the second cleaner may not enter.
  • the first vacuum cleaner since it is assumed that there is no general network communication between the first vacuum cleaner and the second vacuum cleaner, a state in which the first vacuum cleaner recognizes the specifications of the second vacuum cleaner in advance and recognizes that only the second vacuum cleaner is inaccessible. In this case, the light signal corresponding to the stop command may be projected onto the ceiling.
  • the inaccessible area due to the height of the main body of the second cleaner, it may be estimated whether the inaccessible area is based on the sharpness of the image projected by the first cleaner on the ceiling.
  • first image indicative of the driving direction of the first cleaner it may be possible to project a first image indicative of the driving direction of the first cleaner, followed by sequentially projecting a second image representing the traveling speed of the first cleaner.
  • a driving command of the second cleaner may be generated based on the recognized position of the first cleaner (S50).
  • the driving command of the second cleaner may mean a control command associated with following the first cleaner.
  • the stop cleaner may generate the stop command in consideration of the vision network communication distance.
  • the second cleaner may generate a driving command to follow the driving direction before the predetermined time and follow the changed driving direction after the predetermined time.
  • the predetermined time may be determined in consideration of the traveling speed of the first cleaner, the vision network communication distance (view angle range of the second cleaner), the projection time of the first cleaner, and the image acquisition time of the second cleaner.
  • 8A to 8F illustrate examples of various projection images related to the driving state projected by the preceding cleaner in relation to the running command of the trailing cleaner. These various projection images may be implemented differently according to the position and arrangement of the optical module.
  • the preceding first vacuum cleaner may project an arrow image 801 indicating the driving direction of the first vacuum cleaner, as shown in FIG. 8A.
  • an arrow image 801 indicating the driving direction of the first vacuum cleaner
  • FIG. 8B it is possible to project a promised image 802 indicating stop driving.
  • the information on the driving direction of the first cleaner may be projected as a promised numeric image.
  • the projected image 803 representing the number '4' represents the 'west direction' and after a few seconds, the projected image 804 representing the changed number '8' may represent the 'south direction'.
  • arrow images projecting original images 805 and 806 having different arc lengths or having different thickness / thickness By projecting 807, 808, it is possible to inform the change of the traveling speed of the first cleaner. For example, when the first cleaner running forward in FIG. 8E increases only the driving speed while maintaining the driving direction, light may be output to the thicker arrow image 808 after t seconds.
  • the front cleaner of the first cleaner ⁇ A series of driving movements of rotation may be recognized by the second vacuum cleaner.
  • the preceding first cleaner travels forward, and for example, may perform rotation and reverse travel to change the cleaning line.
  • FIGS. 9 and 10 illustrate different exemplary operations for maintaining the front and rear of the preceding robot cleaner and the following robot cleaner even when reverse driving is performed according to a line change in the preceding cleaner.
  • an optical signal related to a change of direction is projected on the ceiling in the preceding first cleaner (S910). Subsequently, the first vacuum cleaner stops driving itself (S920).
  • the driving stop timing of the first cleaner may be determined in consideration of the timing of recognizing the image related to the change of direction in the following second cleaner. In this manner, the first cleaner stops traveling by itself, thereby preventing the trailing second cleaner from moving out of the vision network communication distance while turning for redirection.
  • the second cleaner performs an operation of changing the driving direction of the second cleaner based on the image corresponding to the light signal projected on the ceiling by using the upper camera (S930).
  • the second cleaner rotates based on the obtained image and the previous image to change the driving direction.
  • the second vacuum cleaner maintains the driving direction corresponding to the previous image until the obstacle is detected.
  • the obstacle may include not only fixed obstacles such as walls, furniture, and household appliances and moving moving obstacles, which protrude from the bottom of the cleaning area to prevent the cleaner from running, but also a cliff.
  • driving is performed to follow the changed driving direction projected by the first cleaner through the rotation and movement of the driving wheel.
  • the first cleaner resumes driving and projects an optical signal associated with the current driving onto the ceiling (S940). Then, the second vacuum cleaner can continue the cleaning while following / cooperating the current running of the first vacuum cleaner in which the cleaning line has been changed without reversing the order.
  • the second cleaner when the second cleaner starts running of the first cleaner as the predetermined time elapses, the second cleaner causes the image related to the change of direction to be at the center (or a predetermined area) of the angle of view range of the second cleaner. 2 You can drive by adjusting the position of the vacuum cleaner. Such an action may be referred to as an 'align action'. Through this aligning operation, the second cleaner travels in the same manner as the driving path passed by the first cleaner.
  • the optical modules 1410a and 1410b and the upper cameras 1420a and 1420b are provided in both the preceding first cleaner 100a and the following second cleaner 100b, respectively. It will be explained on the premise.
  • both the first image IM1 projected by the first vacuum cleaner 100a and the second image IM2 projected by the second vacuum cleaner 100b are stored in the first vacuum cleaner 100a and the second vacuum cleaner 100b.
  • the vision network communication distance may mean an overlapping area between an angle of view range of the upper camera 1420a provided in the first cleaner 100a and an angle of view range of the upper camera 1420b provided in the second cleaner 100b. Can be.
  • the first image IM1 and the second image IM2 are independently projected and may be projected simultaneously or only one of them.
  • whether or not the second image IM2 is projected may be changed in response to the projection of the first image IM1, or whether or not the first image IM1 is projected in response to the projection of the second image IM2. have.
  • the first light signal associated with the change of direction in the preceding first cleaner is projected onto the ceiling (S1010).
  • the first cleaner drives forward while projecting the front image 1101
  • the first vacuum cleaner contacts the wall obstacle 50 and changes the line through rotation and redirection
  • the first cleaner The cleaner projects the rear image 1102 based on the second cleaner. Accordingly, the second cleaner may recognize through the two images 1101, 1102 within the time t that the redirection has been made in the first cleaner.
  • the second cleaner projects the second optical signal associated with the stop command on the ceiling (S1020).
  • the first vacuum cleaner and the second vacuum cleaner may recognize both the image projected by the first cleaner and the image projected by the counterpart. Accordingly, the first vacuum cleaner stops driving based on the still image 1103 emitted by the second vacuum cleaner, and the second vacuum cleaner prepares to change the driving direction soon with the rear image 1102 emitted by the first vacuum cleaner. do.
  • the first vacuum cleaner travels based on a previously projected image, and when an obstacle is detected, the second vacuum cleaner changes the driving direction based on the image corresponding to the first optical signal, that is, the rear image 1102. Perform (S1040).
  • the second vacuum cleaner travels along the front image 1101 previously emitted by the first cleaner, and when the wall obstacle 50 is detected, the rear image last emitted by the first cleaner ( The driving is performed to rotate and move with 1102 as the target direction and the target position.
  • the second cleaner While the second cleaner performs turning, the second cleaner maintains the emission of the still image 1103, and the first cleaner continuously emits the rear image 1102 that was last emitted in the stopped state. do.
  • the second cleaner stops the projection of the second optical signal related to the stop command (S1050).
  • the second cleaner stops the projection of the second optical signal related to the stop command (S1050).
  • the first cleaner resumes driving and controls the optical module to project the optical signal related to the current driving on the ceiling (S1060). Therefore, in the second vacuum cleaner, even if the first vacuum cleaner travels in the opposite direction as before, the second vacuum cleaner can naturally run following the back of the vehicle without being reversed.
  • the second cleaner may perform the above-described 'align operation' to follow the driving line of the first cleaner as it is. However, in the alignment operation here, an operation in which the second cleaner emits the third image is added.
  • the second cleaner may align the first image emitted from the first cleaner by projecting the third image onto the ceiling.
  • the traveling line of the first cleaner and the running line of the second cleaner are adjusted.
  • the third image may be the same image as the rear image 1102.
  • the first vacuum cleaner may be provided with one or more receivers around the optical module.
  • the first vacuum cleaner may project an optical signal corresponding to a specific image through the optical module, and at the same time, the reflective signal may be returned to the ceiling by the receiver.
  • the receiver By receiving, it is also possible to calculate the altitude information of the ceiling. Accordingly, it may be further determined whether the altitude of the ceiling is low enough for the second cleaner to enter.
  • the first vacuum cleaner receives an optical signal corresponding to the image indicating that the first vacuum cleaner cannot enter. By projecting, it will be possible to prevent the second cleaner from entering and hitting.
  • the first cleaner may share the map map information with the second cleaner by inserting the card map image into the ceiling and projecting it on the ceiling.
  • an accommodating space for accommodating a map map card may be provided at an upper side of the first cleaner, specifically, in front of the optical module.
  • the first vacuum cleaner and / or the second vacuum cleaner may change the pattern of the optical signal differently according to the ambient light, or may notify the difficulty of performing the vision network.
  • the cleaner may output a signal or control a trailing cleaner to stop at the current position.
  • the second vacuum cleaner may simultaneously acquire a first image corresponding to the first optical module and a second image corresponding to the second optical module, and adjust driving to overlap the first image and the second image. Following / collaborative cleaning can be performed while aligning with the preceding first vacuum cleaner.
  • a plurality of robot cleaners may not be equipped with sensors for locating each other, or even in an environment in which a sensor is mounted but network communication is not supported.
  • the preceding robot cleaner and the following robot cleaner can recognize the position of the preceding robot cleaner without performing backward and reverse, and perform efficient following / collaborative cleaning.
  • the driving of the cleaner so that the image projected on the ceiling is at a specific position of the angle of view range, or by adjusting the driving of the cleaner so that a plurality of different images projected on the ceiling overlap each other, matching the traveling path of the preceding cleaner. Can follow.
  • the present invention described above can be embodied as computer readable codes on a medium on which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAM, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes those implemented in the form of carrier waves (eg, transmission over the Internet).
  • the computer may include a controller 1800. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

복수의 로봇 청소기 및 그것의 제어방법이 개시된다. 본 발명은 제1청소기와 제2청소기를 포함하는 복수의 로봇 청소기로서, 제1청소기는 광 모듈을 구비하고, 광 모듈로부터 주행과 관련된 광 신호를 방사하여 천장에 투사하며, 제2청소기는 본체에 구비된 상방 카메라를 이용하여 천장에 투사된 광 신호에 대응되는 이미지를 획득하고, 획득된 이미지를 기초로 제1 청소기의 위치를 인식하여 주행명령을 생성함으로써, 복수의 로봇 청소기가 협업/추종 청소를 수행할 수 있다.

Description

복수의 로봇 청소기 및 그 제어방법
본 발명은 협업하여 청소를 수행할 수 있는 복수의 로봇 청소기에 관한 것이다.
청소기는 먼지와 이물질을 흡입하거나 걸레질을 통하여 청소 기능을 수행하는 장치이다. 일반적으로 청소기는 바닥에 대한 청소 기능을 수행하게 되며, 청소기는 이동을 위한 휠을 포함한다. 일반적으로 휠은 청소기 본체에 가해지는 외력에 의해 굴림되어 청소기 본체를 바닥에 대하여 이동시키도록 이루어진다.
최근에는 사용자의 조작 없이 스스로 주행하면서 청소를 수행하는 로봇 청소기, 사용자의 조작에 의해 이동되는 노즐을 따라 스스로 이동하는 청소기 등과 같은 로봇 청소기에 대한 연구가 활발해졌다.
이러한 로봇 청소기는 충전 가능한 배터리를 구비하고, 주행 중에 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소할 수 있다. 한편, 청소 영역이 넓은 경우 또는 기능이 서로 상이한 경우(예, 먼지 또는 이물질 흡입을 수행하는 건식 청소기, 걸레질만 수행하는 습식 청소기)에는 여러 대의 로봇 청소기를 동시에 사용할 수 있다.
이와 같이 여러 대의 로봇 청소기를 이용한 협업 청소가 효율적으로 이루어지는 위해서는, 복수의 로봇 청소기가 각각 서로의 위치를 파악하고 있어야 할 것이다. 이를 위해, 각각 위치 센서를 구비하여 네트워크 통신 등을 통해 서로 신호를 주고받아야 한다. 하지만, 네트워크 연결이 되지 않는 환경이나 네트워크 연결이 끊어진 경우에는 협업을 위한 위치 정보를 공유할 수 없다는 문제가 있다.
또한, 복수의 로봇 청소기가 각각 서로 다른 역할을 수행하여 어느 하나가 다른 하나를 추종하며 청소해야 하는 경우(예, 먼지흡입 후 물걸레 청소), 선행하는 로봇 청소기와 후행하는 로봇 청소기가 선후 뒤바뀜 없이 청소해야하는데, 서로의 위치를 놓치게 되면, 네트워크가 다시 연결되더라도 선후 순서가 뒤바뀔 수 있는 문제점도 있다.
이에, 본 발명의 일 목적은, 복수의 로봇 청소기가 서로의 위치를 파악하기 위한 센서를 탑재하지 않고 또는 센서가 탑재되었으나 네트워크 통신이 지원되지 않는 환경에서도, 선행하는 로봇 청소기와 후행하는 로봇 청소기가 선후 뒤바뀜 없이, 선행하는 로봇 청소기의 위치를 인식하여 효율적인 추종/협업 청소를 수행할 수 있는 복수의 로봇 청소기 및 그 제어방법을 제공하는데 있다.
또한, 본 발명의 또 다른 목적은, 선행하는 로봇 청소기가 청소라인을 변경하여 주행하는 경우에도 후행하는 로봇 청소기가 이를 놓치지 않고 추종할 수 있고, 청소라인의 변경 후 효율적인 청소를 위해 복수의 로봇 청소기들의 얼라인 수행이 가능한 복수의 로봇 청소기 및 그 제어방법을 제공하는데 있다.
본 발명의 일 실시 예에 따른 로봇 청소기는, 제1 청소기와 제2 청소기를 포함하는 복수의 로봇 청소기로서, 광 모듈을 구비하고, 상기 광 모듈로부터 주행과 관련된 광 신호를 방사하여 천장에 투사하는 제1 청소기; 및 본체에 구비된 상방 카메라를 이용하여 상기 천장에 투사된 광 신호에 대응되는 이미지를 획득하고, 획득된 이미지를 기초로 상기 제1 청소기의 위치를 인식하여 주행명령을 생성하는 제2청소기를 포함하는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 광 모듈은 상기 제1 청소기의 상방에 위치하고, 복수의 레이저 또는 복수의 LED 로 이루어지는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 광 신호에 대응되는 이미지는 상기 제1 청소기의 주행 상태 및 주행 방향 중 적어도 하나와 관련된 정보를 포함하는 정해진 이미지인 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제2 청소기에는 상기 광 신호에 대응되는 이미지에 매치되는 주행 상태 및 주행 방향과 관련된 정보가 메모리에 미리 저장되고, 상기 상방 카메라를 통해 획득된 이미지에 매치되는 주행 상태 및 주행 방향 중 적어도 하나와 관련된 정보가 메모리로부터 검출되는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 이미지를 형성하는 광 신호의 발광 간격 및 발광 범위 중 적어도 하나를 기초로 상기 제1청소기의 주행속도가 표시되는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제1청소기의 주행 중 상기 제2청소기가 진입 불가 영역에 진입한 것이 감지되면, 정지명령에 대응되는 광 신호를 천장에 투사하는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제1청소기의 주행라인 변경시, 상기 제1청소기에서는 방향전환과 관련된 이미지가 천장에 투사되도록 상기 광 모듈을 동작하고 소정 시간 동안 상기 제1청소기의 주행을 정지하는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제2청소기는 상기 방향전환과 관련된 이미지가 획득되면, 획득된 이미지와 이전의 이미지를 기초로 회전하여 주행방향을 변경하고, 상기 소정 시간의 경과에 따라 상기 제1청소기의 주행이 개시되면, 상기 방향전환과 관련된 이미지가 화각범위의 중심에 오도록 상기 제2청소기의 위치를 조절하여 주행하는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제1청소기에서 방향전환과 관련된 제1이미지가 천장에 투사되면, 상기 제2청소기에 구비된 광 모듈로부터 정지명령에 대응되는 제2이미지를 천장에 투사하고, 상기 제1청소기에 구비된 상방 카메라를 이용하여 획득된 상기 제2이미지를 기초로 주행정지를 수행하는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제1청소기는 상기 제2이미지의 투사가 중단될 때까지 주행을 정지하고, 상기 제1청소기의 방향전환 완료에 따라 상기 제2이미지의 투사가 중단되면, 상기 제2청소기가 상기 제1청소기를 추종하며 상기 제1이미지에 대응되는 방향으로 주행하는 것을 특징으로 한다.
또한, 일 실시 예에서, 상기 제2청소기는, 상기 제1이미지에 대응되는 방향으로 주행이 개시되면 제3이미지를 천장에 투사하여 상기 제1청소기에서 방사되는 제1이미지와 얼라인을 수행하는 것을 특징으로 한다.
이상에서 살펴본 바와 같이, 본 발명의 실시 예에 따른 복수의 로봇 청소기에 의하면, 복수의 로봇 청소기가 서로의 위치를 파악하기 위한 센서를 탑재하지 않고 또는 센서가 탑재되었으나 네트워크 통신이 지원되지 않는 환경에서도, 천장에 투사된 광 신호에 대응되는 이미지를 획득 및 분석함으로써, 선행하는 로봇 청소기와 후행하는 로봇 청소기가 선후 뒤바뀜 없이, 선행하는 로봇 청소기의 위치를 인식하여 효율적인 추종/협업 청소를 수행할 수 있다.
또한, 천장에 투사되는 이미지가 화각범위의 특정 위치에 오도록 청소기의 주행을 조절하거나 또는 천장에 투사되는 복수의 서로 다른 이미지들이 서로 중첩되도록 청소기의 주행을 조절함으로써, 선행하는 청소기의 주행경로를 일치되게 추종할 수 있다.
도 1은 본 발명에 따른 로봇 청소기의 일 예를 보인 사시도이다.
도 2는 도 1에 도시된 로봇 청소기의 평면도이다.
도 3은 도 1에 도시된 로봇 청소기의 측면도이다.
도 4는 본 발명의 일 실시예에 따른 로봇 청소기의 예시 구성요소를 나타내는 블록도이다.
도 5a는 본 발명의 일 실시예에 따른 복수의 로봇 청소기 간의 비젼 네트워크(vision network)를 도시한 개념도이고, 도 5b는 도 5a의 네트워크 통신와 관련된 다른 예를 도시한 개념도이다.
도 5c는 본 발명의 일 실시예에 따른 복수의 로봇 청소기 간의 추종 제어를 설명하기 위한 도면이다.
도 6은, 본 발명의 일 실시예에 따른 복수의 로봇 청소기가 협업/추종 청소를 위해 천장에 투사된 광 신호에 대응되는 이미지를 기초로 선행 청소기의 위치를 인식하는 방법을 설명하기 개념도이다.
도 7은 도 6에 도시된 개념도를 구체적으로 설명하기 위한 대표 흐름도이다.
도 8a 내지 도 8f는 후행 청소기의 주행명령과 관련하여, 선행 청소기에서 투사되는 주행 상태와 관련된 다양한 투사 이미지들의 예시이다.
도 9 및 도 10는 본 발명의 일 실시예에 따른 복수의 로봇 청소기에서, 선행 청소기에서 주행방향 변경시와 관련된 동작들의 서로 다른 예시를 보여주는 흐름도들이다.
도 11a 내지 11f는 도 10에 도시된 흐름도를 보다 구체적으로 설명하기 위한 동작들의 예시 개념도들이다.
이하, 본 발명에 관련된 로봇 청소기에 대하여 도면을 참조하여 보다 상세하게 설명한다.
첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 명세서에 개시된 기술의 사상을 한정하려는 의도가 아님을 유의해야 한다.
도 1은 본 발명에 따른 로봇 청소기(100)의 일 예를 보인 사시도이고, 도 2는 도 1에 도시된 로봇 청소기(100)의 평면도이며, 도 3은 도 1에 도시된 로봇 청소기(100)의 측면도이다.
본 명세서에서 이동 로봇, 로봇 청소기 및 자율 주행을 수행하는 청소기가 동일한 의미로 사용될 수 있다. 또한, 본 명세서에서 복수의 청소기는 이하 도 1 내지 도 3에 도시된 구성 중 적어도 일부를 포함하여 이루어질 수 있다.
도 1 내지 도 3을 참조하면, 로봇 청소기(100)는 일정 영역을 스스로 주행하면서 바닥을 청소하는 기능을 수행한다. 여기서 말하는 바닥의 청소에는, 바닥의 먼지(이물질을 포함한다)를 흡입하거나 바닥을 걸레질하는 것이 포함된다.
로봇 청소기(100)는 청소기 본체(110), 청소 유닛(120), 센싱 유닛(130) 및 먼지통(140)을 포함할 수 있다.
청소기 본체(110)에는 로봇 청소기(100)의 제어를 위한 제어부(미도시)를 포함하여 각종 부품들이 내장 또는 장착된다. 또한, 청소기 본체(110)에는 로봇 청소기(100)의 주행을 위한 휠 유닛(111)이 구비된다. 휠 유닛(111)에 의해 로봇 청소기(100)는 전후좌우로 이동되거나 회전될 수 있다.
도 3을 참조하면, 휠 유닛(111)은 메인 휠(111a) 및 서브 휠(111b)을 포함한다.
메인 휠(111a)은 청소기 본체(110)의 양측에 각각 구비되어, 제어부의 제어 신호에 따라 일 방향 또는 타 방향으로 회전 가능하게 구성된다. 각각의 메인 휠(111a)은 서로 독립적으로 구동 가능하게 구성될 수 있다. 예를 들어, 각각의 메인 휠(111a)은 서로 다른 모터에 의해서 구동될 수 있다. 또는, 하나의 모터에 구비된 복수의 서로 다른 축에 의해서 구동될 수 있다.
서브 휠(111b)은 메인 휠(111a)과 함께 청소기 본체(110)를 지지하며, 메인 휠(111a)에 의한 로봇 청소기(100)의 주행을 보조하도록 이루어진다. 이러한 서브 휠(111b)은 후술하는 청소 유닛(120)에도 구비될 수 있다.
제어부는 휠 유닛(111)의 구동을 제어함으로써, 로봇 청소기(100)는 바닥을 자율 주행하도록 이루어진다.
한편, 청소기 본체(110)에는 로봇 청소기(100)에 전원을 공급하는 배터리(미도시)가 장착된다. 배터리는 충전 가능하게 구성되며, 청소기 본체(110)의 저면부에 착탈 가능하게 구성될 수 있다.
도 1에서, 청소 유닛(120)은 청소기 본체(110)의 일측으로부터 돌출된 형태로 배치되어, 먼지가 포함된 공기를 흡입하거나 또는 걸레질을 할 수 있다. 상기 일측은 상기 청소기 본체(110)가 정방향(F)으로 주행하는 측, 즉 청소기 본체(110)의 앞쪽이 될 수 있다.
본 도면에서는, 청소 유닛(120)이 청소기 본체(110)의 일측에서 전방 및 좌우 양측방으로 모두 돌출된 형태를 가지는 것을 보이고 있다. 구체적으로, 청소 유닛(120)의 전단부는 청소기 본체(110)의 일측으로부터 전방으로 이격된 위치에 배치되고, 청소 유닛(120)의 좌우 양단부는 청소기 본체(110)의 일측으로부터 좌우 양측으로 각각 이격된 위치에 배치된다.
청소기 본체(110)가 원형으로 형성되고, 청소 유닛(120)의 후단부 양측이 청소기 본체(110)로부터 좌우 양측으로 각각 돌출 형성됨에 따라, 청소기 본체(110)와 청소 유닛(120) 사이에는 빈 공간, 즉 틈이 형성될 수 있다. 상기 빈 공간은 청소기 본체(110)의 좌우 양단부와 청소 유닛(120)의 좌우 양단부 사이의 공간으로서, 로봇 청소기(100)의 내측으로 리세스된 형태를 가진다.
상기 빈 공간에 장애물이 끼이는 경우, 로봇 청소기(100)가 장애물에 걸려 움직이지 못하는 문제가 초래될 수 있다. 이를 방지하기 위하여, 커버부재(129)가 상기 빈 공간의 적어도 일부를 덮도록 배치될 수 있다.
커버부재(129)는 청소기 본체(110) 또는 청소 유닛(120)에 구비될 수 있다. 본 실시예에서는, 청소 유닛(120)의 후단부 양측에 각각 커버부재(129)가 돌출 형성되어, 청소기 본체(110)의 외주면을 덮도록 배치된 것을 보이고 있다.
커버부재(129)는 상기 빈 공간, 즉 청소기 본체(110)와 청소 유닛(120) 간의 빈 공간의 적어도 일부를 메우도록 배치된다. 따라서, 상기 빈 공간에 장애물이 끼이는 것이 방지되거나, 상기 빈 공간에 장애물이 끼이더라도 장애물로부터 용이하게 이탈 가능한 구조가 구현될 수 있다.
청소 유닛(120)에서 돌출 형성된 커버부재(129)는 청소기 본체(110)의 외주면에 지지될 수 있다.
만일, 커버부재(129)가 청소기 본체(110)에서 돌출 형성되는 경우라면, 커버부재(129)는 청소 유닛(120)의 후면부에 지지될 수 있다. 상기 구조에 따르면, 청소 유닛(120)이 장애물과 부딪혀 충격을 받았을 때, 그 충격의 일부가 청소기 본체(110)로 전달되어 충격이 분산될 수 있다.
청소 유닛(120)은 청소기 본체(110)에 착탈 가능하게 결합될 수 있다. 청소 유닛(120)이 청소기 본체(110)로 분리되면, 분리된 청소 유닛(120)을 대체하여 걸레 모듈(미도시)이 청소기 본체(110)에 착탈 가능하게 결합될 수 있다.
따라서, 사용자는 바닥의 먼지를 제거하고자 하는 경우에는 청소기 본체(110)에 청소 유닛(120)을 장착하고, 바닥을 닦고자 하는 경우에는 청소기 본체(110)에 걸레 모듈을 장착할 수 있다.
청소 유닛(120)이 청소기 본체(110)에 장착시, 상술한 커버부재(129)에 의해 상기 장착이 가이드될 수 있다. 즉, 커버부재(129)가 청소기 본체(110)의 외주면을 덮도록 배치됨으로써, 청소기 본체(110)에 대한 청소 유닛(120)의 상대적 위치가 결정될 수 있다.
청소 유닛(120)에는 캐스터(castor, 123)가 구비될 수 있다. 캐스터(123)는 로봇 청소기(100)의 주행을 보조하고, 또한 로봇 청소기(100)를 지지하도록 이루어진다.
청소기 본체(110)에는 센싱 유닛(130)이 배치된다. 도시된 바와 같이, 센싱 유닛(130)은 청소 유닛(120)이 위치하는 청소기 본체(110)의 일측, 즉 청소기 본체(110)의 앞쪽에 배치될 수 있다.
센싱 유닛(130)은 청소기 본체(110)의 상하 방향으로 청소 유닛(120)과 오버랩되도록 배치될 수 있다. 센싱 유닛(130)은 청소 유닛(120)의 상부에 배치되어, 로봇 청소기(100)의 가장 앞쪽에 위치하는 청소 유닛(120)이 장애물과 부딪히지 않도록 전방의 장애물이나 지형지물 등을 감지하도록 이루어진다.
센싱 유닛(130)은 이러한 감지 기능 외의 다른 센싱 기능을 추가로 수행하도록 구성될 수 있다.
예로써, 센싱 유닛(130)은 주변의 영상을 획득하기 위한 카메라(131)를 포함할 수 있다. 카메라(131)는 렌즈와 영상 센서(image sensor)를 포함할 수 있다. 또한, 카메라(131)는 청소기 본체(110) 주변의 영상을 제어부가 처리할 수 있는 전기적 신호로 변환하며, 예를 들어 상방 영상에 대응되는 전기적 신호를 제어부에 전달할 수 있다. 상방 영상에 대응되는 전기적 신호는 상기 제어부가 청소기 본체(110)의 위치를 검출하는데 사용될 수 있다.
또한, 센싱 유닛(130)은 로봇 청소기(100)의 주행 면상 또는 주행 경로 상의 벽체, 가구, 및 낭떠러지 등의 장애물을 감지할 수 있다. 또한, 센싱 유닛(130)은 배터리 충전을 수행하는 도킹 기기의 존재를 감지할 수 있다. 또한, 센싱 유닛(130)은 천장 정보를 감지하여서, 로봇 청소기(100)의 주행 구역 또는 청소 구역을 맵핑(Mapping)할 수 있다.
청소기 본체(110)에는 흡입된 공기 중의 먼지를 분리하여 집진하는 먼지통(140)이 착탈 가능하게 결합된다.
또한, 먼지통(140)에는 먼지통(140)을 덮는 먼지통 덮개(150)가 구비된다. 일 실시예로, 먼지통 덮개(150)는 청소기 본체(110)에 힌지 결합되어 회동 가능하게 구성될 수 있다. 먼지통 덮개(150)는 먼지통(140) 또는 청소기 본체(110)에 고정되어 먼지통(140)의 상면을 덮은 상태를 유지할 수 있다. 먼지통 덮개(150)가 먼지통(140)의 상면을 덮도록 배치된 상태에서는, 먼지통 덮개(150)에 의해 먼지통(140)이 청소기 본체(110)로부터 분리되는 것이 방지될 수 있다.
먼지통(140)의 일부는 먼지통 수용부(113)에 수용되되, 먼지통(140)의 다른 일부는 청소기 본체(110)의 후방(즉, 정방향(F)에 반대되는 역방향(R))을 향하여 돌출되게 형성될 수 있다.
먼지통(140)에는 먼지가 포함된 공기가 유입되는 입구와 먼지가 분리된 공기가 배출되는 출구가 형성되며, 청소기 본체(110)에 먼지통(140)의 장착시 상기 입구와 출구는 본체(110)의 내측벽에 형성된 개구(155)를 통해 연통되도록 구성된다. 이에 의하여, 청소기 본체(110) 내부의 흡기유로와 배기유로가 형성될 수 있다.
이러한 연결관계에 따라, 청소 유닛(120)을 통하여 유입된 먼지가 포함된 공기는 청소기 본체(110) 내부의 흡기유로를 거쳐, 먼지통(140)으로 유입되고, 먼지통(140)의 필터 내지는 사이클론을 거치면서 공기와 먼지가 상호 분리된다. 먼지는 먼지통(140)에 집진되며, 공기는 먼지통(140)에서 배출된 후 청소기 본체(110) 내부의 배기유로를 거쳐 최종적으로 배기구(112)를 통하여 외부로 배출된다.
이하의 도 4에서는 로봇 청소기(100)의 구성요소와 관련된 일 실시예가 설명된다.
본 발명의 일 실시 예에 따른 로봇 청소기(100) 또는 이동 로봇은, 통신부(1100), 입력부(1200), 주행부(1300), 센싱부(1400), 출력부(1500), 전원부(1600), 메모리(1700), 제어부(1800), 청소부(1900) 중 적어도 하나 또는 이들의 조합을 포함할 수 있다.
이때, 도 4에 도시한 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 로봇 청소기가 구현될 수 있음은 물론이다. 또한, 전술한 바와 같이, 본 발명에서 설명되는 복수의 로봇 청소기는 이하에서 설명된 구성요소들 중 일부만 동일한 구성요소를 포함할 수 있다. 즉, 복수의 로봇 청소기가 각각 서로 다른 구성요소로 이루어질 수 있다.
이하, 각 구성요소들에 대해 살펴보기로 한다.
우선, 전원부(1600)는 외부 상용 전원에 의해 충전 가능한 배터리를 구비하여 이동 로봇 내로 전원을 공급한다. 전원부(1600)는 이동 로봇에 포함된 각 구성들에 구동 전원을 공급하여, 이동 로봇이 주행하거나 특정 기능을 수행하는데 요구되는 동작 전원을 공급할 수 있다.
이때, 제어부(1800)는 배터리의 전원 잔량을 감지하고, 전원 잔량이 부족하면 외부 상용 전원과 연결된 충전대로 이동하도록 제어하여, 충전대로부터 충전 전류를 공급받아 배터리를 충전할 수 있다. 배터리는 배터리 감지부와 연결되어 배터리 잔량 및 충전 상태가 제어부(1800)에 전달될 수 있다. 출력부(1500)은 제어부에 의해 상기 배터리 잔량을 출력부(1500)에 표시할 수 있다.
배터리는 로봇 청소기 중앙의 하부에 위치할 수도 있고, 좌, 우측 중 어느 한쪽에 위치할 수도 있다. 후자의 경우, 이동 로봇은 배터리의 무게 편중을 해소하기 위해 균형추를 더 구비할 수 있다.
제어부(1800)는, 인공 지능 기술에 기반하여 정보들을 처리하는 역할을 수행하는 것으로, 정보의 학습, 정보의 추론, 정보의 지각, 자연 언어의 처리 중 적어도 하나를 수행하는 하나 이상의 모듈을 포함할 수 있다.
제어부(1800)는 머신 러닝(machine running) 기술을 이용하여, 청소기 내에 저장된 정보, 이동 단말기 주변의 환경 정보, 통신 가능한 외부 저장소에 저장된 정보 등 방대한 양의 정보(빅데이터, big data)를 학습, 추론, 처리 중 적어도 하나를 수행할 수 있다. 그리고, 제어부(1800)는 상기 머신 러닝 기술을 이용하여 학습된 정보들을 이용하여, 실행 가능한 적어도 하나의 청소기의 동작을 예측(또는 추론)하고, 상기 적어도 하나의 예측된 동작들 중 실현성이 가장 높은 동작이 실행되도록 청소기를 제어할 수 있다.
머신 러닝 기술은 적어도 하나의 알고리즘에 근거하여, 대규모의 정보들을 수집 및 학습하고, 학습된 정보를 바탕으로 정보를 판단 및 예측하는 기술이다. 정보의 학습이란 정보들의 특징, 규칙, 판단 기준 등을 파악하여, 정보와 정보 사이의 관계를 정량화하고, 정량화된 패턴을 이용하여 새로운 데이터들을 예측하는 동작이다.
머신 러닝 기술이 사용하는 알고리즘은 통계학에 기반한 알고리즘이 될 수 있으며, 예를 들어, 트리 구조 형태를 예측 모델로 사용하는 의사 결정 나무(decision tree), 생물의 신경 네트워크 구조와 기능을 모방하는 인공 신경망(neural network), 생물의 진화 알고리즘에 기반한 유전자 프로그래밍(genetic programming), 관측된 예를 군집이라는 부분집합으로 분배하는 군집화(Clustering), 무작위로 추출된 난수를 통해 함수값을 확률로 계산하는 몬테카를로 방법(Monter carlo method) 등이 될 수 있다.
머신 러닝 기술의 한 분야로써, 딥러닝 기술은 인공 신경망(Deap Neuron Network, DNN) 알고리즘을 이용하여, 정보들을 학습, 판단, 처리 중 적어도 하나를 수행하는 기술이다. 인공 신경망(DNN)은 레이어와 레이어 사이를 연결하고, 레이어와 레이어 사이의 데이터를 전달하는 구조를 가질 수 있다. 이러한 딥러닝 기술은 병렬 연산에 최적화된 GPU(graphic processing unit)를 이용하여 인공 신경망(DNN)을 통하여 방대한 양의 정보를 학습할 수 있다.
제어부(1800)는 외부의 서버 또는 메모리에 저장된 트레이닝 데이터를 이용하며, 소정의 물체를 인식하기 위한 특징을 검출하는 학습 엔진을 탑재할 수 있다. 이때, 물체를 인식하기 위한 특징에는 물체의 크기, 형태 및 음영 등을 포함할 수 있다.
구체적으로, 제어부(1800)는 청소기에 구비된 카메라를 통해 획득된 영상 중 일부를 학습 엔진에 입력하면, 상기 학습 엔진은 입력된 영상에 포함된 적어도 하나의 사물 또는 생명체를 인식할 수 있다.
이와 같이, 학습 엔진을 청소기의 주행에 적용하는 경우, 제어부(1800)는 청소기의 주행에 방해되는 의자 다리, 선풍기, 특정 형태의 발코니 틈과 같은 장애물이 청소기 주변에 존재하는지 여부를 인식할 수 있으므로, 청소기 주행의 효율 및 신뢰도를 높일 수 있다.
한편, 위와 같은 학습 엔진은 제어부(1800)에 탑재될 수도 있고, 외부 서버에 탑재될 수도 있다. 학습 엔진이 외부 서버에 탑재된 경우, 제어부(1800)는 분석의 대상인 적어도 하나의 영상을 상기 외부 서버로 전송하도록 통신부(1100)를 제어할 수 있다.
외부 서버는 청소기로부터 전송받은 영상을 학습 엔진에 입력함으로서, 해당 영상에 포함된 적어도 하나의 사물 또는 생명체를 인식할 수 있다. 아울러, 외부 서버는 인식결과와 관련된 정보를 다시 청소기로 전송할 수 있다. 이때, 인식결과와 관련된 정보는 분석의 대상인 영상에 포함된 객체의 개수, 각 개체의 이름과 관련된 정보를 포함할 수 있다.
한편, 주행부(1300)는 모터를 구비하여, 상기 모터를 구동함으로써, 좌, 우측 주바퀴를 양 방향으로 회전시켜 본체를 회전 또는 이동시킬 수 있다. 이때, 상기 좌, 우측 주바퀴는 독립적으로 움직일 수 있다. 주행부(1300)는 이동 로봇의 본체를 전후좌우로 진행시키거나, 곡선주행시키거나, 제자리 회전시킬 수 있다.
한편, 입력부(1200)는 사용자로부터 로봇 청소기에 대한 각종 제어 명령을 입력받는다. 입력부(1200)는 하나 이상의 버튼을 포함할 수 있고, 예를 들어, 입력부(1200)는 확인버튼, 설정버튼 등을 포함할 수 있다. 확인버튼은 감지 정보, 장애물 정보, 위치 정보, 맵 정보를 확인하는 명령을 사용자로부터 입력받기 위한 버튼이고, 설정버튼은 상기 정보들을 설정하는 명령을 사용자로부터 입력받기 위한 버튼이다.
또한, 입력부(1200)는 이전 사용자 입력을 취소하고 다시 사용자 입력을 받기 위한 입력재설정버튼, 기 설정된 사용자 입력을 삭제하기 위한 삭제버튼, 작동 모드를 설정하거나 변경하는 버튼, 충전대로 복귀하도록 하는 명령을 입력받는 버튼 등을 포함할 수 있다.
또한, 입력부(1200)는 하드 키나 소프트 키, 터치패드 등으로 이동 로봇의 상부에 설치될 수 있다. 또, 입력부(1200)는 출력부(1500)와 함께 터치 스크린의 형태를 가질 수 있다.
한편, 출력부(1500)는, 이동 로봇의 상부에 설치될 수 있다. 물론 설치 위치나 설치 형태는 달라질 수 있다. 예를 들어, 출력부(1500)는 배터리 상태 또는 주행 방식 등을 화면에 표시할 수 있다.
또한, 출력부(1500)는, 센싱부(1400)가 검출한 이동 로봇 내부의 상태 정보, 예를 들어 이동 로봇에 포함된 각 구성들의 현재 상태를 출력할 수 있다. 또, 출력부(1500)는 센싱부(1400)가 검출한 외부의 상태 정보, 장애물 정보, 위치 정보, 지도 정보 등을 화면에 디스플레이할 수 있다. 출력부(1500)는 발광 다이오드(Light Emitting Diode; LED), 액정 표시 장치(Liquid Crystal Display; LCD), 플라즈마 표시 패널(Plasma Display Panel), 유기 발광 다이오드(Organic Light Emitting Diode; OLED) 중 어느 하나의 소자로 형성될 수 있다.
출력부(1500)는, 제어부(1800)에 의해 수행되는 이동 로봇의 동작 과정 또는 동작 결과를 청각적으로 출력하는 음향 출력 수단을 더 포함할 수 있다. 예를 들어, 출력부(1500)는 제어부(1800)에 의해 생성된 경고 신호에 따라 외부에 경고음을 출력할 수 있다.
이때, 음향 출력 수단(미도시)은 비퍼(beeper), 스피커 등의 음향을 출력하는 수단일 수 있고, 출력부(1500)는 메모리(1700)에 저장된 소정의 패턴을 가진 오디오 데이터 또는 메시지 데이터 등을 이용하여 음향 출력 수단을 통해 외부로 출력할 수 있다.
따라서, 본 발명의 일 실시예에 따른 이동 로봇은, 출력부(1500)를 통해 주행 영역에 대한 환경 정보를 화면에 출력하거나 음향으로 출력할 수 있다. 또 다른 실시예에 따라, 이동 로봇은 출력부(1500)를 통해 출력할 화면이나 음향을 단말 장치가 출력하도록, 지도 정보 또는 환경 정보를 통신부(1100)릍 통해 단말 장치에 전송할 수 있다.
메모리(1700)는 로봇 청소기를 제어 또는 구동하는 제어 프로그램 및 그에 따른 데이터를 저장한다. 메모리(1700)는 오디오 정보, 영상 정보, 장애물 정보, 위치 정보, 지도 정보 등을 저장할 수 있다. 또, 메모리(1700)는 주행 패턴과 관련된 정보를 저장할 수 있다.
상기 메모리(1700)는 비휘발성 메모리를 주로 사용한다. 여기서, 상기 비휘발성 메모리(Non-Volatile Memory, NVM, NVRAM)는 전원이 공급되지 않아도 저장된 정보를 계속 유지할 수 있는 저장 장치로서, 일 예로, 롬(ROM), 플래시 메모리(Flash Memory), 마그네틱 컴퓨터 기억 장치(예를 들어, 하드 디스크, 디스켓 드라이브, 마그네틱 테이프), 광디스크 드라이브, 마그네틱 RAM, PRAM 등일 수 있다.
한편, 센싱부(1400)는, 외부 신호 감지 센서, 전방 감지 센서, 낭떠러지 감지 센서, 2차원 카메라 센서 및 3차원 카메라 센서 중 적어도 하나를 포함할 수 있다.
외부 신호 감지 센서는 이동 로봇의 외부 신호를 감지할 수 있다. 외부 신호 감지 센서는, 일 예로, 적외선 센서(Infrared Ray Sensor), 초음파 센서(Ultra Sonic Sensor), RF 센서(Radio Frequency Sensor) 등일 수 있다.
이동 로봇은 외부 신호 감지 센서를 이용하여 충전대가 발생하는 안내 신호를 수신하여 충전대의 위치 및 방향을 확인할 수 있다. 이때, 충전대는 이동 로봇이 복귀 가능하도록 방향 및 거리를 지시하는 안내 신호를 발신할 수 있다. 즉, 이동 로봇은 충전대로부터 발신되는 신호를 수신하여 현재의 위치를 판단하고 이동 방향을 설정하여 충전대로 복귀할 수 있다.
한편, 전방 감지 센서는, 이동 로봇의 전방, 구체적으로 이동 로봇의 측면 외주면을 따라 일정 간격으로 설치될 수 있다. 전방 감지 센서는 이동 로봇의 적어도 일 측면에 위치하여, 전방의 장애물을 감지하기 위한 것으로서, 전방 감지 센서는 이동 로봇의 이동 방향에 존재하는 물체, 특히 장애물을 감지하여 검출 정보를 제어부(1800)에 전달할 수 있다. 즉, 전방 감지 센서는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어부(1800)에 전달할 수 있다.
전방 감지 센서는, 일 예로, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서 등일 수 있고, 이동 로봇은 전방 감지 센서로 한 가지 종류의 센서를 사용하거나 필요에 따라 두 가지 종류 이상의 센서를 함께 사용할 수 있다.
일 예로, 초음파 센서는 일반적으로 원거리의 장애물을 감지하는 데에 주로 사용될 수 있다. 초음파 센서는 발신부와 수신부를 구비하여, 제어부(1800)는 발신부를 통해 방사된 초음파가 장애물 등에 의해 반사되어 수신부에 수신되는 지의 여부로 장애물의 존부를 판단하고, 초음파 방사 시간과 초음파 수신 시간을 이용하여 장애물과의 거리를 산출할 수 있다.
또한, 제어부(1800)는 발신부에서 방사된 초음파와, 수신부에 수신되는 초음파를 비교하여, 장애물의 크기와 관련된 정보를 검출할 수 있다. 예를 들어, 제어부(1800)는 수신부에 더 많은 초음파가 수신될수록, 장애물의 크기가 큰 것으로 판단할 수 있다.
일 실시 예에서, 복수(일 예로, 5개)의 초음파 센서가 이동 로봇의 전방 측면에 외주면을 따라 설치될 수 있다. 이때, 바람직하게 초음파 센서는 발신부와 수신부가 교대로 이동 로봇의 전면에 설치될 수 있다.
즉, 발신부는 본체의 전면 중앙으로부터 좌, 우측에 이격되도록 배치될 수 있고, 수신부의 사이에 하나 또는 둘 이상의 발신부가 배치되어 장애물 등으로부터 반사된 초음파 신호의 수신 영역을 형성할 수 있다. 이와 같은 배치로 센서의 수를 줄이면서 수신 영역을 확장할 수 있다. 초음파의 발신 각도는 크로스토크(crosstalk) 현상을 방지하도록 서로 다른 신호에 영향을 미치지 아니하는 범위의 각을 유지할 수 있다. 또한, 수신부들의 수신 감도는 서로 다르게 설정될 수 있다.
또한, 초음파 센서에서 발신되는 초음파가 상향으로 출력되도록 초음파 센서는 일정 각도만큼 상향으로 설치될 수 있고, 이때, 초음파가 하향으로 방사되는 것을 방지하기 위해 소정의 차단 부재를 더 포함할 수 있다.
한편, 전방 감지 센서는, 전술한 바와 같이, 두 가지 종류 이상의 센서를 함께 사용할 수 있고, 이에 따라, 전방 감지 센서는 적외선 센서, 초음파 센서, RF 센서 등 중 어느 한 가지 종류의 센서를 사용할 수 있다.
일 예로, 전방 감지 센서는 초음파 센서 이외에 다른 종류의 센서로 적외선 센서를 포함할 수 있다.
적외선 센서는 초음파 센서와 함께 이동 로봇의 외주면에 설치될 수 있다. 적외선 센서 역시, 전방이나 측면에 존재하는 장애물을 감지하여 장애물 정보를 제어부(1800)에 전달할 수 있다. 즉, 적외선 센서는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어부(1800)에 전달한다. 따라서, 이동 로봇은 본체가 장애물과의 충돌없이 특정 영역 내에서 이동할 수 있다.
한편, 낭떠러지 감지 센서(또는 클리프 센서(Cliff Sensor))는, 다양한 형태의 광 센서를 주로 이용하여, 이동 로봇의 본체를 지지하는 바닥의 장애물을 감지할 수 있다.
즉, 낭떠러지 감지 센서는, 바닥의 이동 로봇의 배면에 설치되되, 이동 로봇의 종류에 따라 다른 위치에 설치될 수 있음은 물론이다. 낭떠러지 감지 센서는 이동 로봇의 배면에 위치하여, 바닥의 장애물을 감지하기 위한 것으로서, 낭떠러지 감지 센서는 상기 장애물 감지 센서와 같이 발광부와 수광부를 구비한 적외선 센서, 초음파 센서, RF 센서, PSD(Position Sensitive Detector) 센서 등일 수 있다.
일 예로, 낭떠러지 감지 센서 중 어느 하나는 이동 로봇의 전방에 설치되고, 다른 두 개의 낭떠러지 감지 센서는 상대적으로 뒤쪽에 설치될 수 있다.
예를 들어, 낭떠러지 감지 센서는 PSD 센서일 수 있으나, 복수의 서로 다른 종류의 센서로 구성될 수도 있다.
PSD 센서는 반도체 표면저항을 이용해서 1개의 p-n접합으로 입사광의 단장거리 위치를 검출한다. PSD 센서에는 일축 방향만의 광을 검출하는 1차원 PSD 센서와, 평면상의 광위치를 검출할 수 있는 2차원 PSD 센서가 있으며, 모두 pin 포토 다이오드 구조를 가질 수 있다. PSD 센서는 적외선 센서의 일종으로서, 적외선을 이용하여, 적외선을 송신한 후 장애물에서 반사되어 돌아오는 적외선의 각도를 측정하여 거리를 측정한다. 즉, PSD 센서는 삼각측량방식을 이용하여, 장애물과의 거리를 산출한다.
PSD 센서는 장애물에 적외선을 발광하는 발광부와, 장애물로부터 반사되어 돌아오는 적외선을 수광하는 수광부를 구비하되, 일반적으로 모듈 형태로 구성된다. PSD 센서를 이용하여, 장애물을 감지하는 경우, 장애물의 반사율, 색의 차이에 상관없이 안정적인 측정값을 얻을 수 있다.
청소부(1900)는 제어부(1800)로부터 전달되는 제어명령에 따라, 지정된 청소 영역을 청소한다. 청소부(1900)는 지정된 청소 영역의 먼지를 비산시키는 브러쉬(미도시)를 통해 주변의 먼지를 비산시킨 다음, 흡입 팬 및 흡입 모터를 구동하여 비산된 먼지를 흡입한다. 또한, 청소부(1900)는 구성의 교체에 따라 지정된 청소 영역에 걸레질을 수행할 수도 있다.
또한, 제어부(1800)는 낭떠러지 감지 센서가 지면을 향해 발광한 적외선의 발광신호와 장애물에 의해 반사되어 수신되는 반사신호 간의 적외선 각도를 측정하여, 낭떠러지를 감지하고 그 깊이를 분석할 수 있다.
한편, 제어부(1800)는 낭떠러지 감지 센서를 이용하여 감지한 낭떠러지의 지면 상태에 따라 통과 여부를 판단할 수 있고, 판단 결과에 따라 낭떠러지의 통과 여부를 결정할 수 있다. 예를 들어, 제어부(1800)은 낭떠러지 감지 센서를 통해 낭떠러지의 존재 여부 및 낭떠러지 깊이를 판단한 다음, 낭떠러지 감지 센서를 통해 반사 신호를 감지한 경우에만 낭떠러지를 통과하도록 한다.
다른 예로, 제어부(1800)은 낭떠러지 감지 센서를 이용하여 이동 로봇의 들림 현상을 판단할 수도 있다.
한편, 2차원 카메라 센서는, 이동 로봇의 일면에 구비되어, 이동 중 본체 주변과 관련된 이미지 정보를 획득한다.
옵티컬 플로우 센서(Optical Flow Sensor)는, 센서 내에 구비된 이미지 센서로부터 입력되는 하방 영상을 변환하여 소정 형식의 영상 데이터를 생성한다. 생성된 영상 데이터는 메모리(1700)에 저장될 수 있다.
또한, 하나 이상의 광원이 옵티컬 플로우 센서에 인접하여 설치될 수 있다. 하나 이상의 광원은, 이미지 센서에 의해 촬영되는 바닥면의 소정 영역에 빛을 조사한다. 즉, 이동 로봇이 바닥면을 따라 특정 영역을 이동하는 경우에, 바닥면이 평탄하면 이미지 센서와 바닥면 사이에는 일정한 거리가 유지된다. 반면, 이동 로봇이 불균일한 표면의 바닥면을 이동하는 경우에는 바닥면의 요철 및 장애물에 의해 일정 거리 이상 멀어지게 된다. 이때 하나 이상의 광원은 조사되는 빛의 양을 조절하도록 제어부(1800)에 의해 제어될 수 있다. 상기 광원은 광량 조절이 가능한 발광 소자, 예를 들어 LED(Light Emitting Diode) 등일 수 있다.
옵티컬 플로우 센서를 이용하여, 제어부(1800)는 이동 로봇의 미끄러짐과 무관하게 이동 로봇의 위치를 검출할 수 있다. 제어부(1800)은 옵티컬 플로우 센서에 의해 촬영된 영상 데이터를 시간에 따라 비교 분석하여 이동 거리 및 이동 방향을 산출하고, 이를 근거로 이동 로봇의 위치를 산출할 수 있다. 옵티컬 플로우 센서를 이용하여 이동 로봇의 하방에 대한 이미지 정보를 이용함으로써, 제어부(1800)는 다른 수단에 의해 산출한 이동 로봇의 위치에 대하여 미끄러짐에 강인한 보정을 할 수 있다.
3차원 카메라 센서는 이동 로봇의 본체 일면 또는 일부분에 부착되어, 상기 본체의 주위와 관련된 3차원 좌표 정보를 생성할 수 있다.
즉, 3차원 카메라 센서는 이동 로봇과 피촬영 대상체의 원근거리를 산출하는 3차원 뎁스 카메라(3D Depth Camera)일 수 있다.
구체적으로, 3차원 카메라 센서는 본체의 주위와 관련된 2차원 영상을 촬영할 수 있으며, 촬영된 2차원 영상에 대응되는 복수의 3차원 좌표 정보를 생성할 수 있다.
일 실시예에서 3차원 카메라 센서는 기존의 2차원 영상을 획득하는 카메라를 2개 이상 구비하여, 상기 2개 이상의 카메라에서 획득되는 2개 이상의 영상을 조합하여, 3차원 좌표 정보를 생성하는 스테레오 비전 방식으로 형성될 수 있다.
구체적으로, 상기 실시예에 따른 3차원 카메라 센서는 본체의 전방을 향해 하측으로 제1 패턴의 광을 조사하는 제1 패턴 조사부와, 상기 본체의 전방을 향해 상측으로 제2 패턴의 광을 조사하는 제2 패턴 조사부 및 본체의 전방의 영상을 획득하는 영상 획득부를 포함할 수 있다. 이로써, 상기 영상 획득부는 상기 제1 패턴의 광과 상기 제2 패턴의 광이 입사된 영역의 영상을 획득할 수 있다.
또 다른 실시예에서 3차원 카메라 센서는 단일 카메라와 함께 적외선 패턴을 조사하는 적외선 패턴 방출부를 구비하고, 적외선 패턴 방출부에서 조사된 적외선 패턴이 피촬영 대상체에 투영된 모양을 캡쳐함으로써, 3차원 카메라 센서와 피촬영 대상체 사이의 거리를 측정할 수 있다. 이러한 3차원 카메라 센서는 IR(Infra Red) 방식의 3차원 카메라 센서일 수 있다.
또 다른 실시예에서 3차원 카메라 센서는 단일 카메라와 함께 빛을 방출하는 발광부를 구비하고, 발광부에서 방출되는 레이저 중 피촬영 대상체로부터 반사되는 일부를 수신하며, 수신된 레이저를 분석함으로써, 3차원 카메라 센서와 피촬영 대상체 사이의 거리를 측정할 수 있다. 이러한 3차원 카메라 센서는 TOF(Time of Flight) 방식의 3차원 카메라 센서일 수 있다.
구체적으로, 위와 같은 3차원 카메라 센서의 레이저는 적어도 일방향으로 연장된 형태의 레이저를 조사하도록 구성된다. 일 예에서, 상기 3차원 카메라 센서는 제1 및 제2 레이저를 구비할 수 있으며, 상기 제1 레이저는 서로 교차하는 직선 형태의 레이저를 조사하고, 제2 레이저는 단일의 직선 형태의 레이저를 조사할 수 있다. 이에 따르면, 최하단 레이저는 바닥 부분의 장애물을 감지하는 데에 이용되고, 최상단 레이저는 상부의 장애물을 감지하는 데에 이용되며, 최하단 레이저와 최상단 레이저 사이의 중간 레이저는 중간 부분의 장애물을 감지하는 데에 이용된다.
한편, 통신부(1100)는 단말 장치 및/또는 특정 영역 내 위치한 타 기기(본 명세서에서는 "가전 기기"라는 용어와 혼용하기로 한다)와 유선, 무선, 위성 통신 방식들 중 하나의 통신 방식으로 연결되어 신호와 데이터를 송수신한다.
통신부(1100)는 특정 영역 내에 위치한 타 기기와 데이터를 송수신할 수 있다. 이때, 타 기기는 네트워크에 연결하여 데이터를 송수신할 수 있는 장치이면 어느 것이어도 무방하며, 일 예로, 공기 조화 장치, 난방 장치, 공기 정화 장치, 전등, TV, 자동차 등과 같은 장치일 수 있다. 또한, 상기 타 기기는, 문, 창문, 수도 밸브, 가스 밸브 등을 제어하는 장치 등일 수 있다. 또한, 상기 타 기기는, 온도, 습도, 기압, 가스 등을 감지하는 센서 등일 수 있다.
또한, 통신부(1100)는 특정 영역 또는 일정 범위 내에 위치한 다른 로봇 청소기(100)와 통신할 수 있다.
한편, 본 발명에서는, 로봇 청소기, 자율주행 청소기, 청소기는 모두 동일한 의미로 사용될 수 있음을 밝혀둔다. 따라서, 제1 청소기와 제2 청소기는 각각 제1 로봇 청소기와 제2 로봇 청소기를 의미한다.
도 5a 및 도 5b를 참조하면, 자율주행을 수행하는 제1 청소기(100a)와 제2 청소기(100b)는 네트워크 통신(50)을 통해 서로 데이터를 주고 받을 수 있다. 또한, 자율주행을 수행하는 제1 청소기(100a) 및/또는 제2 청소기(100b)는 네트워크 통신(50) 또는 다른 통신을 통해 단말기(300)로부터 수신되는 제어명령에 의해 청소 관련 동작을 수행하거나 또는 대응되는 동작을 수행할 수 있다.
즉, 비록 도시되지는 않았지만, 자율주행을 수행하는 복수의 청소기(100a, 100b)가 제1 네트워크 통신을 통해서는 단말기(300)와 통신을 수행하고, 제2 네트워크 통신을 통해서는 상호간에 통신을 수행할 수 있다.
여기에서, 네트워크 통신(50)은 WLAN(Wireless LAN), WPAN(Wireless Personal Area Network), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), Zigbee, Z-wave, Blue-Tooth, RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultrawide-Band), Wireless USB(Wireless Universal Serial Bus) 등과 같은 무선 통신 기술 중 적어도 하나를 이용한 근거리 통신을 의미할 수 있다.
도시된 네트워크 통신(50)은 서로 통신하고자 하는 로봇 청소기의 통신방식이 무엇인지에 따라 달라질 수 있다.
도 5a에서, 자율주행을 수행하는 제1 청소기(100a)의 및/또는 제2 청소기(100b)는 각각의 센싱 유닛을 통해 센싱된 정보를 네트워크 통신(50)을 통해 단말기(300)에 제공할 수 있다. 또한, 단말기(300)는 수신된 정보를 기초로 생성된 제어명령을 네트워크 통신(50)을 통해 제1 청소기(100a)의 및/또는 제2 청소기(100b)에 전달할 수 있다.
또한, 도 5a에서, 제1 청소기(100a)와 제2 청소기(100b)는 비젼 네트워크(vision network)를 수행하여, 위치 정보 및 주행 상태와 관련된 정보를 공유할 수 있다. 여기에서, 비젼 네트워크(vision network)란, 네트워크 통신 환경이 지원되지 않는 환경에서 제1 청소기(100a) 및/또는 제2 청소기(100b)에 구비된 광 모듈을 통해 천장에 투사된 이미지를 제2 청소기(100b) 및/또는 제1 청소기(100a)가 상방 카메라를 통해 인식하여, 시각적으로 위치 정보 및 주행 상태와 관련된 정보를 공유하는 것을 의미한다.
일 예에서, 제2 청소기(100b)는 제1 청소기(100a)로부터 투사되는 이미지를 기초로 제1 청소기(100a)의 위치 및 주행방향을 파악하여, 제1 청소기(100a)를 따라 주행을 수행할 수 있다. 이러한 경우, 제1 청소기(100a)는 마스터로, 제2 청소기(100b)는 슬레이브로 동작한다고 말할 수 있다. 또는, 제2 청소기(100b)는 제1 청소기(100a)를 추종한다고 말할 수 있다. 또는, 경우에 따라서는 제1 청소기(100a)와 제2청소기(100b)가 서로 협업한다고 말할 수도 있다.
이하 도 5b에서는 본 발명의 일 실시예에 따른 자율주행을 수행하는 복수의 청소기(100a, 100b)를 포함하는 시스템이 설명된다.
도 5b를 참조하면, 본 발명의 일 실시예에 따른 청소 시스템은, 자율 주행을 수행하는 복수의 청소기(100a, 100b), 네트워크 통신(50), 서버(500), 및 복수의 단말기(300a, 300b)을 포함할 수 있다.
이 중 복수의 청소기(100a, 100b)와, 네트워크 통신(50), 그리고 적어도 하나의 단말기(300a)는 건물(10) 내에 배치되고, 다른 단말기(300b)와 서버(500)는 건물(10) 외부에 위치할 수 있다.
복수의 청소기(100a, 100b)는, 스스로 주행하며 청소를 수행하는 청소기로서, 자율 주행 및 자율 청소를 수행할 수 있다.
한편, 네트워크 통신이 지원되는 환경하에서는, 다음과 같은 동작도 가능하다.
복수의 청소기(100a, 100b), 서버(500), 및 복수의 단말기(300a, 300b)는 네트워크 통신(50)를 통해 서로 연결되어 서로 데이터를 교환할 수 있다. 이를 위해, 비록 도시되지는 않았지만, AP(access point; AP) 장치 등의 무선 공유기를 더 포함할 수 있다. 이러한 경우, 내부 네트워크 내에 위치한 단말기(300a)는, 상기 AP 장치를 통해 복수의 청소기(100a, 100b) 중 적어도 하나와 접속함으로써, 청소기에 대한 모니터링, 원격제어 등을 수행할 수 있다. 또한, 외부 네트워크에 위치한 단말기(300b)도, 상기 AP 장치를 통해 복수의 청소기(100a, 100b) 중 적어도 하나와 접속함으로써, 청소기에 대한 모니터링, 원격제어 등을 수행할 수 있게 된다.
서버(500)는 이동 단말기(300b)를 통해서 직접 무선 연결될 수 있다. 또는, 서버(500)는 이동 단말기(300b)를 통하지 않고 복수의 청소기(100a, 100b) 중 적어도 하나와 연결될 수도 있다.
서버(500)는 프로그램 처리가능한 프로세서를 포함할 수 있으며, 각종 알고리즘을 구비할 수 있다. 예로서, 서버(500)는 머신 러닝(machine learning) 및/또는 데이터 마이닝(data mining)의 수행과 관련된 알고리즘을 구비할 수 있다. 또 예로써, 서버(500)는, 음성 인식 알고리즘을 구비할 수 있다. 이러한 경우, 음성 데이터 수신시, 수신되는 음성 데이터를, 텍스트 형식의 데이터로 변환하여, 출력할 수 있다.
서버(500)는, 복수의 청소기(100a, 100b)에 대한 펌웨어 정보, 운전 정보(코스 정보 등)를 저장하고, 복수의 청소기(100a, 100b)에 대한 제품 정보를 등록할 수 있다. 예를 들어, 서버(500)는, 청소기 제조자가 운영하는 서버이거나 또는 공개된 애플리케이션 스토어 운영자가 운영하는 서버일 수 있다.
다른 예에서, 상기 서버(500)는 내부 네트워크(10) 내에 구비되어, 홈 기기들에 대한 상태 정보를 저장하거나, 홈 기기에서 공유되는 컨텐츠를 저장하는 홈 서버일 수도 있다. 서버(500)가 홈 서버인 경우, 이물질과 관련된 정보, 예를 들어, 이물질 이미지 등을 저장할 수 있다.
한편, 복수의 청소기(100a, 100b) 중 어느 하나는 마스터 청소기(100a)가 되고, 다른 하나는 슬레이브 청소기(100b)가 될 수 있다. 예로써, 제1청소기(100a)는 청소 바닥의 먼지를 흡입하는 건식 청소기이고, 제2청소기(100b)는 제1청소기(100a)가 청소한 바닥을 걸레질하는 습식 청소기일 수 있다. 또한, 제1청소기(100a)와 제2청소기(100b)의 구조 및 사양은 서로 상이할 수 있다.
이러한 경우, 제1청소기(100a)가 제2청소기(100b)의 주행 및 청소를 동작을 유도하는 정보를 제공해줄 수 있다. 또, 제2청소기(100b)는 제1청소기(100a)를 추종하며 주행 및 청소를 수행할 수 있다. 여기에서, 제2청소기(100b)가 제1청소기(100a)를 추종한다는 것은, 제2청소기(100b)가 제1청소기(100a)와 적절한 거리를 유지하면서 제1청소기(100a)를 좇아서 주행 및 청소를 수행하는 것을 의미한다.
도 5c를 참조하면, 제2청소기(100b)가 제1청소기(100a)를 추종하며 청소를 수행할 수 있다.
이를 위해, 제1청소기(100a)에는 일측, 예를 들어 상방에는 복수의 광원을 포함하는 광 모듈(1410)이 구비될 수 있고, 제1청소기(100a)를 추종하는 제2청소기(100b)에는 상방 카메라(1420)가 구비될 수 있다.
구체적으로, 제1청소기(100a)가 광 모듈(1410)을 통해 천장에 특정 이미지가 나타나도록 광을 조사하면, 제2청소기(100b)에서는 상방 카메라(1420)를 통해 획득된 특정 이미지를 분석하여, 제1청소기(100a)의 위치 및/또는 주행 상태를 기반으로, 제1청소기(100a)를 추종하는 주행명령을 생성할 수 있다. 이때에, 제1청소기(100a)와 제2청소기(100b)의 이격거리는, 제1청소기(100a)에서 투사되는 특정 이미지가 제2청소기(100b)의 상방 카메라(1420)의 화각범위 내에 들어오는 범위를 유지해야 할 것이다.
이하에서는, 이러한 이격거리를, "비전 네트워크(vision network) 통신 거리"로 명명하기로 한다.
또한, 제1청소기(100a)의 광 모듈(1410)을 통해 천장에 투사되는 특정 이미지가 제공하는 정보는 매우 다양할 수 있다. 즉, 상기 특정 이미지는 제1청소기(100a)의 위치 정보 및/또는 주행 상태와 관련된 정보를 포함한다.
또한, 제1청소기(100a)의 현재 위치 및 주행방향뿐만 아니라, 주행정지, 주행속도, 장애물 감지 등의 주행 상태와 관련된 다양한 정보를 이미지 투사를 통해 제공할 수 있다. 나아가, 이러한 다양한 정보는 제1청소기(100a)의 현재 위치 및 현재 주행 상태에 기반할 수도 있고, 제1청소기(100a)에 저장된 맵 정보에 기반할 수도 있을 것이다.
제2청소기(100b)는 제1청소기(100a)의 주행 경로를 따라 주행하면서 청소를 수행한다. 다만, 제1청소기(100a)와 제2청소기(100b)의 진행방향이 항상 일치하지는 않는다. 예를 들어, 제1청소기(100a)가 상/하/좌/우로 이동하거나 회전하는 경우, 제2청소기(100b)는 소정 시간 후에 상/하/좌/우로 이동하거나 회전하므로, 현재 진행방향이 서로 달라질 수 있다.
또한, 제1청소기(100a)의 주행 속도(Va)와 제2청소기(100b)의 주행 속도(Vb)는 서로 다를 수 있다.
이러한 경우, 비젼 네트워크 통신 거리를 고려하여, 제1청소기(100a) 및/또는 제2청소기(100b)의 주행 속도(Vb)를 가변할 수 있다. 예로써, 투사된 이미지의 분석에 따라 제1청소기(100a)와 제2청소기(100b)가 일정 거리 이상으로 멀어지면, 제2청소기(100b)의 주행 속도(Vb)가 이전보다 빨라지도록 제어할 수 있다. 또, 투사된 이미지의 분석에 따라 제1청소기(100a)와 제2청소기(100b)가 일정 거리 이상으로 가까워지면 제2청소기(100b)의 주행 속도(Vb)가 이전보다 느리도록 제어하거나 또는 소정 시간 정지하도록 제어할 수 있다. 이를 통해, 비젼 네트워크 통신 거리를 적절히 유지하면서, 제2청소기(100b)가 제1청소기(100a)를 계속 추종하며 청소를 수행할 수 있다.
이하, 도 6은, 본 발명의 일 실시예에 따른 복수의 로봇 청소기가 협업/추종 청소를 위해 천장에 투사된 광 신호에 대응되는 이미지를 기초로 선행 청소기의 위치를 인식하는 방법을 설명하기 개념도이다.
즉, 본 발명에서는 추종/협업 청소를 수행하는 제1청소기(100a)와 제2청소기(100b) 간에 상대 위치를 감지할 수 있는 추가 센서가 없거나(자신의 위치를 감지하는 센서는 있음) 또는 네트워트 통신이 지원되지 않는 환경에서, 비젼 네트워크(vision network)를 통해, 적어도 후행 청소기(100b)가 선행 청소기(100a)의 위치를 인식할 수 있도록 구현되었다.
도 6에서, 제1청소기(100a)의 상방에는 복수의 광원으로 이루어진 광 모듈(1410)이 구비되어, 제1청소기(100a)가 주행하는 동안 주행과 관련된 광 신호를 천장을 향해 방사하도록 동작한다. 또한, 제2청소기(100b)의 상방에는 카메라(1420)가 구비되어, 제1청소기(100a)로부터 방사되어 천장에 투사된 광 신호에 대응되는 이미지(601)를 획득하여, 주행 여부 및 주행방향을 결정한다.
이때, 제1청소기(100a)의 투사영역(R1)이 제2청소기(100b)의 화각범위(R2) 내에 위치해야만, 제2청소기(100b)에서 이미지(601)를 획득할 수 있다. 따라서, 제1청소기(100a)의 투사영역(R1)의 범위와 제2청소기(100b)의 화각범위(R2)를 고려하여 비젼 네트워크 통신 거리가 결정되며, 이는 제1청소기(100a)의 광 모듈의 종류와 제2청소기(100b)의 상방 카메라의 종류에 따라 다르게 결정될 수 있다.
한편, 투사영역(R1)과 화각범위(R2)의 너비는 천장의 높이(H), 즉 제1청소기(100a)의 상부면으로부터 천장의 높이(h1)와 제2청소기(100b)의 상부면으로부터 천장의 높이(h2)의 평균에 따라 달라질 수 있다. 예를 들어, 투사영역(R1)과 화각범위(R2)의 너비는 일반적으로 천장의 높이(H)가 높으면 더 증가한다고 말할 수 있다. 다만, 이러한 경우 투사된 이미지(601)의 선명도는 반대로 감소되므로, 제2청소기(100b)에서는 투사된 이미지(601)의 크기(size)와 선명도를 기초로 천장의 높이(H)를 산출할 수 있을 것이다.
이와 같이 본 발명에서는, 복수의 로봇 청소기가 서로의 위치를 파악하기 위한 센서를 탑재하지 않고 또는 센서가 탑재되었으나 네트워크 통신이 지원되지 않는 환경에서도, 선행하는 로봇 청소기와 후행하는 로봇 청소기가 선후 뒤바뀜 없이 추종/협업 청소를 수행할 수 있다.
구체적으로, 제1청소기에서 자신의 주행과 관련된 광 신호를 천장에 방사하고, 제2청소기는 자신의 상방 카메라의 화각범위 내에서 확인되는 상기 광 신호에 대응되는 이미지를 획득 및 분석하여, 제1청소기의 위치를 인식한 다음 제1청소기를 추종하는 주행명령을 생성할 수 있다.
여기에서, 상기 광 모듈은 상기 제1 청소기의 상방에 위치하고, 복수의 레이저 또는 복수의 LED 가 예를 들어 밀집된 형태로 이루어질 수 있다. 또는, 상기 광 모듈은 복수의 레이저 또는 복수의 LED 가 정해진 특정 이미지를 형성하도록 배치될 수 있으며, 다만 이러한 형상에 제한되는 것은 아니며 다른 형태의 배치도 얼마든지 가능하다.
예를 들어, 상기 광 모듈은 상방 이외에(또는 대체하여), 측면 또는 하부면에 구비되어 광 신호에 대응되는 이미지를 벽면 또는 바닥면에 투사할 수도 있다. 또한, 상기 광 모듈은 복수의 발신기와 수신기를 포함하여 이루어질 수 있다.
또한, 제2카메라에 구비된 상방 카메라는, 화각범위 내의 투사 이미지의 위치에 따라 화각범위를 다르게 조절할 수 있다. 예를 들어, 투사 이미지의 일부만이 화각범위에 위치한 경우이면 화각범위를 늘리고, 투사 이미지가 화각범위의 중앙에 가까우면 화각범위를 좁히고 선명도를 증가시킬 수 있다.
또한, 관련된 예로써, 제2청소기는 화각범위 내의 투사 이미지의 위치에 따라 제2청소기의 주행방향 또는 주행속도를 다르게 조절할 수도 있다.
구체적인 예로, 투사 이미지의 윗부분이 잘리고 나머지부분이 화각범위에 위치한 경우이면 비젼 네트워크 통신 거리를 고려하여 제2청소기의 주행속도를 증가시킬 수 있다. 또는, 투사 이미지의 측면부분이 잘리고 나머지부분이 화각범위에 위치한 경우이면 제2청소기가 제1청소기의 주행라인을 벗어나려는 것으로 보고 주행방향을 적절히 조절할 수 있을 것이다. 또는, 투사 이미지가 화각범위의 중앙 또는 주행방향과 대향되는 방향 쪽에 위치한 경우이면 제2청소기와 제1청소기의 이격거리가 가까운 것으로 보고 제2청소기의 주행속도를 감소시킬 수 있을 것이다.
또한, 도 6에서 제1청소기(100a)의 광 모듈의 방사 여부 및 간격은 제1청소기의 주행 상태에 따라 다르게 결정될 수 있다. 예로써, 제1청소기(100a)의 광 모듈(1410)의 방사는 제1청소기가 주행 정지하거나 또는 주행방향을 변경하는 경우에만 수행하도록 동작할 수 있다.
또한, 도 6에서 제2청소기(100b)의 상방 카메라(1420)는 제1청소기(100a)의 최초 주행 시에 자동으로 활성화되도록 구현될 수 있다. 즉, 제2청소기(100b)가 주행을 개시하기 전에 상방 카메라(1420)가 먼저 활성화 상태로 전환될 수 있다. 또한, 제2청소기(100b)의 상방 카메라(1420)는 실제 촬영 동작 없이 프리뷰 이미지를 통해, 천장에 투사되는 이미지를 획득될 수 있다.
이하, 도 7은 도 6에 도시된 개념도를 구체적으로 설명하기 위한 대표 흐름도이다.
도 7을 참조하면, 먼저 선행하는 제1청소기가 주행을 시작하는 것으로 본 발명에 따른 동작이 개시된다(S10).
이때, 제2청소기는 제1청소기의 주행이 개시되기 전, 서로 접촉하거나 또는 인접하거나 매우 가까운 거리에 있는 것을 전제로 한다. 즉, 제1청소기와 제2청소기는 처음부터 비젼 네트워크(vision network) 통신 거리 내에 위치한 것을 전제로 한다.
또한, 제1청소기의 주행방향 또는 목표방향은 저장된 자신의 맵(map) 정보 또는 외부기기에서 수신된 제어명령에 기반하여 결정될 수 있다. 제2청소기는 이러한 맵(map) 정보의 공유 없이 제1청소기의 주행을 추종하는 주행을 수행한다.
제1청소기의 주행에 따라 제1청소기가 자신의 광 모듈을 통해, 현재 주행과 관련된 광 신호를 방사하면, 방사된 광 신호에 대응되는 특정 이미지가 천장에 투사된다(S20).
여기에서, 상기 광 신호에 대응되는 특정 이미지는 상기 제1 청소기의 주행 상태 및 주행 방향 중 적어도 하나와 관련된 정보를 포함하는 정해진 이미지를 가리킨다. 또한, 상기 특정 이미지는 점, 선, 화살표, 마크, 기타 약속된 심볼(symbol)이나 패턴 등을 포함할 수 있고, 나아가 복수의 광원의 발광개수/발광횟수/발광간격 중 적어도 하나를 다르게 하여 형성되는 정해진 형상을 모두 포함할 수 있다.
제2청소기는 자신의 상방 카메라를 이용하여 천장에 투사된 광 신호에 대응되는 특정 이미지를 획득한다(S30). 상방 카메라는 S10단계에서 또는 그 이전부터 활성화 상태를 유지하며, 프리뷰 이미지를 통해 천장에 투사된 특정 이미지를 획득한다.
다음, 제2청소기는 획득된 이미지를 기초로 제1청소기의 위치를 인식한다(S40). 여기에서, 제1청소기의 위치를 인식한다는 것은 제1청소기의 주행방향을 기초로 현재 예상 위치를 추정하는 것을 의미할 수 있다.
구체적인 예로, 제1청소기가 전방을 향해 주행하는 경우, 제1청소기는 전방에 대응되는 이미지를 투사하면서 전방으로 주행할 것이므로, 제2청소기에서는 투사된 이미지를 기초로 제1청소기가 비젼 네트워크 통신 거리 내에서 전방을 향해 주행하고 있는 것으로 위치를 추정할 수 있다.
다만, 제1청소기가 실제 광 신호를 투사하는 시점과 제2청소기가 광 신호에 대응되는 이미지를 획득하는 시점은 다소 차이가 있으므로, 추정된 제1청소기의 위치와 현재 제1청소기의 위치에는 다소 차이가 있을 수 있다. 이에, 일 예에서는, 제2청소기가 이러한 시간 차를 보정하는 알고리즘을 백그라운드(background)에서 실행하여, 제1청소기의 상대 위치를 보다 정확하게 산출할 수도 있을 것이다.
또한, 제2청소기는 획득된 이미지를 기초로 제1청소기의 주행 상태를 추가로 인식할 수 있다. 예를 들어, 제1청소기가 일식적으로 주행을 정지하는 경우, 광 모듈을 통해 주행정지와 관련된 이미지를 투사하고, 제2청소기가 이러한 이미지를 획득함으로써 제1청소기의 주행정지를 인식할 수 있을 것이다. 또는, 제1청소기가 주행방향을 변경한 경우, 광 모듈을 통해 변경된 주행방향과 관련된 이미지를 투사하고, 제2청소기가 이러한 이미지를 획득함으로써 제1청소기의 주행방향의 변경을 인식할 수 있을 것이다.
이를 위해, 제2청소기의 메모리에는 제1청소기에서 방사하는 광 신호에 대응되는 이미지 또는 형상과 매치되는 주행 관련 정보가 미리 저장될 수 있다.
구체적으로, 제2 청소기에는 상기 광 신호에 대응되는 이미지에 매치되는 주행 상태 및 주행 방향과 관련된 정보가 메모리에 미리 저장되고, 상방 카메라를 통해 획득된 이미지에 매치되는 주행 상태 및 주행 방향 중 적어도 하나와 관련된 정보가 메모리로부터 검출되는 방식으로 제1청소기의 주행 상태를 인식할 수 있을 것이다.
다만, 앞서 설명한 바와 같이 제1청소기가 광 신호를 방사하는 시점에서의 제1청소기의 주행방향과 제2청소기가 광 신호에 대응되는 이미지를 인식하는 시검에서의 제1청소기의 주행방향은 다를 수 있으므로, 실제로는 수 밀리초(ms) 또는 수 마이크로초(us)이전의 주행 상태를 의미한다고 말할 수 있다.
또한, 일 실시 예에서, 천장에 투사된 이미지는 제1청소기의 주행속도와 관련된 정보를 추가로 제공할 수 있다. 구체적으로, 투사 이미지를 형성하는 제1청소기의 광 신호의 발광 간격 및 발광 범위 중 적어도 하나를 기초로 제1청소기의 주행속도가 표시될 수 있을 것이다.
또한, 일 실시 예에서, 천장에 투사된 이미지는 제1청소기에서 감지된 장애물/진입불가와 관련된 정보를 제2청소기에 추가로 제공해줄 수 있다. 구체적으로, 제1청소기의 주행 중에 제2청소기의 진입 불가 영역에 진입한 것이 감지되면, 정지명령에 대응되는 광 신호를 천장에 투사함으로서, 제2청소기가 진입하지 않도록 유도할 수 있을 것이다.
한편, 제1청소기와 제2청소기의 종류가 서로 다른 경우, 제1청소기는 진입할 수 있으나 제2청소기는 진입할 수 없는 경우가 있다. 본 발명에서는 제1청소기와 제2청소기 간에 일반적인 네트워크 통신은 없는 것으로 전제로 하였으므로, 제1청소기가 제2청소기의 사양을 미리 알고 있는 것을 전제로 하여 제2청소기만 진입 불가한 영역임을 인식한 상태에서, 정지명령에 대응되는 광 신호를 천장에 투사하도록 동작할 수 있다. 다만, 제2청소기의 본체 높이로 인하여 진입 불가 영역인 경우, 제1청소기가 천장에 투사하는 이미지의 선명도를 기초로 진입 불가 영역인지를 추정할 수는 있을 것이다.
또한, 광신호에 대응되는 복수의 이미지가 순서대로 투사되는 경우, 투사된 순서에 대응되는 복수의 이미지들에 매치되는 주행과 관련된 정보들이 순서대로 검출될 수 있다.
예를 들어, 제1청소기의 주행방향을 가리키는 제1이미지를 투사하고, 곧 이어서 제1청소기의 주행속도를 나타내는 제2이미지를 순차로 투사할 수 있을 것이다.
이와 같이 제1청소기의 위치가 인식되면, 제2청소기의 인식된 제1청소기의 위치를 기초로 제2청소기의 주행명령을 생성할 수 있다(S50). 여기에서, 제2청소기의 주행명령은 제1청소기의 추종과 관련된 제어명령을 의미할 수 있다.
구체적인 예로, 제1청소기의 정지상태인 것으로 인식되면, 비젼 네트워크(vision network) 통신 거리를 고려하여 제2청소기에서도 정지명령을 생성할 수 있다.
또 다른 예로, 제1청소기에서 주행방향을 변경한 것으로 인식되면, 제2청소기에서는 소정 시간 이전 주행방향을 따르다가 소정 시간 경과 후 변경된 주행방향을 좇도록 주행명령을 생성할 수 있을 것이다.
여기에서, 상기 소정 시간은 제1청소기의 주행속도, 비젼 네트워크 통신 거리(제2청소기의 화각범위), 제1청소기의 투사시점 및 제2청소기의 이미지 획득 시점을 고려하여 결정될 수 있다.
도 8a 내지 도 8f는 후행 청소기의 주행명령과 관련하여, 선행 청소기에서 투사되는 주행 상태와 관련된 다양한 투사 이미지들의 예시를 보인 것이다. 이러한 다양한 투사 이미지들은 광 모듈의 위치 및 배치 형태에 따라 다르게 구현될 수 있다.
선행하는 제1청소기는, 도 8a에 도시된 바와 같이, 제1청소기의 주행방향을 나타내는 화살표 이미지(801)를 투사할 수 있다. 또한, 도 8b에 도시된 바와 같이, 주행정지를 나타내는 약속된 이미지(802)를 투사할 수 있다.
또 다른 예로, 도 8c에 도시된 바와 같이, 제1청소기의 주행방향의 정보를 약속된 숫자 이미지로 투사할 수도 있다. 예를 들어, 숫자 '4'를 나타내는 투사 이미지(803)는 '서쪽 방향'을 나타내고 수초 후, 변경된 숫자 '8'을 나타내는 투사 이미지(804)는 '남쪽 방향'을 나타낼 수 있다.
또 다른 예로, 주행방향의 변경이 없는 경우, 도 8d 및 도 8e에 도시된 바와 같이, 호의 길이를 달리하는 원 이미지들(805, 806)을 투사하거나 또는 굵기/두께를 달리하는 화살표 이미지들(807, 808)을 투사함으로써, 제1청소기의 주행속도의 변경을 알려줄 수 있다. 예를 들어, 도 8e에서 전방으로 주행하는 제1청소기가 주행방향은 유지하면서 주행속도만 증가한 경우, t 초 후, 더 굵은 화살표 이미지(808)로 광을 출력할 수 있다.
또 다른 예로, 도 8f에 도시된 바와 같이 광 모듈의 발광 간격을 이미지가 변화하는 정해진 패턴의 이미지들(809, 810, 811)을 연속적으로 투사함으로써, 제1청소기의 전방주행유지(continue) -> 회전(rotation) 의 일련의 주행동작을 제2청소기에서 인식하게끔 할 수도 있다.
한편, 도 8f에서 설명한 예시와 같이 선행하는 제1청소기가 전방을 주행해다가 예를 들어, 청소 라인 변경을 위해, 회전 및 역방향 주행을 수행하는 경우가 있다.
이때, 제2청소기 측에서, 현재 자신의 위치에서 제1청소기에서 방사하는 변경된 주행방향을 그대로 좇게 되면 선행하는 로봇 청소기와 후행하는 로봇 청소기의 선후가 뒤바뀔 수 있다. 이는, 특히 복수의 로봇 청소기가 각각 서로 다른 역할을 수행하여 어느 하나가 다른 하나를 반드시 후행하며 청소해야 하는 경우(예, 먼지흡입 후 물걸레 청소) 문제가 될 수 있다.
이러한 비젼 네트워크의 한계는 다음과 같은 동작 구현을 통해 해결될 수 있을 것이다.
이하, 도 9 및 도 10는 선행 청소기에서 라인 변경 등에 따라 역방향 주행이 이루어지는 경우에도, 선행하는 로봇 청소기와 후행하는 로봇 청소기의 선후가 유지될 수 있도록 하기 위한 서로 다른 예시 동작을 구체적으로 보여준다.
먼저, 제1 실시 예를 도 9를 참조하여 구체적으로 설명하겠다.
도 9를 참조하면, 선행하는 제1청소기에서 방향전환과 관련된 광 신호가 천장에 투사된다(S910). 이어서, 제1청소기는 스스로 주행을 정지한다(S920).
여기에서, 제1청소기의 주행 정지 시점은, 후행하는 제2청소기에서 방향전환과 관련된 이미지를 인식하는 시점을 고려하여 결정될 수 있다. 이와 같이, 제1청소기가 스스로 주행을 정지함으로써, 후행하는 제2청소기가 방향전환을 위해 터닝(turning)하는 동안 비젼 네트워크 통신 거리를 벗어나는 것을 방지할 수 있다.
다음, 제2청소기는 상방 카메라를 이용하여, 천장에 투사된 광 신호에 대응되는 이미지를 기초로 제2청소기의 주행방향을 변경하는 동작을 수행한다(S930). 또는, 제2청소기는 방향전환과 관련된 이미지가 획득되면, 획득된 이미지와 이전의 이미지를 기초로 회전하여 주행방향을 변경한다.
구체적으로, 제2청소기는 일단 장애물이 감지될 때까지 이전 이미지에 대응되는 주행방향을 유지한다. 여기에서, 상기 장애물은 청소영역의 바닥으로부터 돌출되어 청소기의 주행을 방해하는 벽(wall), 가구, 집기 등의 고정 장애물과 움직이는 이동 장애물뿐만 아니라, 낭떠러지(cliff)도 포함할 수 있다. 장애물이 감지되면, 주행바퀴의 회전 및 이동을 통해 제1청소기에서 투사한 변경된 주행방향을 좇도록 주행을 수행한다.
다음, 소정 시간이 경과되면, 제1청소기가 주행을 재개하고 현재 주행과 관련된 광 신호를 천장에 투사한다(S940). 그러면, 제2청소기는 청소 라인이 변경된 제1청소기의 현재 주행을 순서 뒤바뀜 없이 추종/협업하면서 청소를 계속 수행할 수 있다.
일 예에서, 제2청소기는 상기 소정 시간의 경과에 따라 상기 제1청소기의 주행이 개시되면, 상기 방향전환과 관련된 이미지가 제2청소기의 화각범위의 중심(또는, 정해진 영역)에 오도록 상기 제2청소기의 위치를 조절하여 주행할 수 있다. 이러한 동작을 '얼라인 동작'으로 명명할 수 있다. 이러한 얼라인 동작을 통해, 제2청소기는 제1청소기가 지나온 주행경로를 그대로 일치되게 주행하게 된다.
이하, 제2 실시 예를 도 10과, 도 11a 내지 11f를 참조하여 구체적으로 설명하겠다.
여기에서는, 도 11a에 도시된 바와 같이, 선행하는 제1청소기(100a)와 후행하는 제2청소기(100b) 모두에 각각 광 모듈(1410a, 1410b)과 상방 카메라(1420a, 1420b)가 구비된 것을 전제로 하여 설명하기로 한다.
이러한 경우, 제1청소기(100a)에서 투사된 제1 이미지(IM1)과 제2청소기(100b)에서 투사된 제2 이미지(IM2) 모두를 제1청소기(100a) 및 제2청소기(100b)에서 각각 인식할 수 있다. 이 실시 예에서는, 비젼 네트워크 통신 거리는가 제1청소기(100a)에 구비된 상방 카메라(1420a)의 화각범위와 제2청소기(100b)에 구비된 상방 카메라(1420b)의 화각범위의 중첩영역을 의미할 수 있다.
도 11a에서, 제1 이미지(IM1)와 제2 이미지(IM2)는 독립적으로 투사되며, 동시에 투사되거나 어느 하나만 투사될 수 있다. 또한, 제1 이미지(IM1)의 투사에 응답하여 제2 이미지(IM2)가 투사 여부가 달라지거나, 또는 제2 이미지(IM2)의 투사에 응답하여 제1 이미지(IM1)가 투사 여부가 결정될 수 있다.
다시 도 10을 참조하면, 선행하는 제1청소기에서 방향전환과 관련된 제1 광 신호가 천장에 투사된다(S1010). 구체적으로, 도 11b 및 도 11c를 참조하면, 제1청소기가 전방 이미지(1101)를 투사하며 전방으로 주행하다가, 벽 장애물(50)과 접촉하여 회전 및 방향전환을 통해 라인을 변경하면, 제1청소기에서 제2청소기를 기준으로 후방 이미지(1102)를 투사하게 된다. 그에 따라, 제2청소기는 t 시간 내의 두 이미지들(1101, 1102)을 통해, 제1청소기에서 방향전환이 이루어진 것을 인식할 수 있을 것이다.
다음, 제2청소기에서는 방향전환과 관련된 제1 광 신호에 응답하여, 정지명령과 관련된 제2 광 신호를 천장에 투사한다(S1020). 도 11d를 참조하면, 제1청소기와 제2청소기는 각각 자신이 투사한 이미지와 상대방이 투사한 이미지를 모두 인식할 수 있다. 그에 따라, 제1청소기에서는 제2청소기에서 방사한 정지 이미지(1103)를 기초로 주행을 정지하고, 제2청소기에서는 제1청소기에서 방사한 후방 이미지(1102)로 곧 주행방향을 변경할 준비를 수행한다.
다음, 제2청소기에서는 제1청소기가 이전에 투사한 이미지를 기초로 주행을 진행하다가 장애물이 감지되면 제1 광 신호에 대응되는 이미지, 즉 후방 이미지(1102)를 기초로 주행방향을 변경하는 주행을 수행한다(S1040). 도 11e를 참조하면, 제2청소기가 제1청소기에서 이전에 방사한 전방 이미지(1101)를 좇아 주행을 진행하다가, 벽 장애물(50)이 감지되면, 제1청소기에서 마지막에 방사한 후방 이미지(1102)를 목표방향 및 목표위치로 하여 회전 및 이동하도록 주행을 수행한다.
이와 같이 제2청소기가 터닝(turning)을 수행하는 동안, 제2청소기에서는 정지 이미지(1103)의 방사를 유지하고, 제1청소기는 정지된 상태에서 마지막에 방사한 후방 이미지(1102)를 계속 방사한다.
제2청소기의 주행방향이 변경되어 제1 광 신호에 대응되는 주행방향과 일치되면, 제2청소기에서 정지명령과 관련된 제2 광 신호의 투사를 중단한다(S1050). 그에 따라, 도 11f에 도시된 바와 같이, 공통 화각범위에 제1청소기로부터 방사되는 후방 이미지(1102)만 남는다.
한편, 제2 광 신호의 투사가 중단되면, 제1청소기에서는 주행을 재개하고, 현재 주행과 관련된 광 신호를 천장에 투사하도록 광 모듈을 제어한다(S1060). 그에 따라, 제2청소기에서는, 제1청소기가 이전과 반대 방향으로 주행하더라도 선후의 뒤바뀜 없이 자연스럽게 추종하며 주행할 수 있다.
한편, 비록 도시되지는 않았지만, 제2청소기에서는 제1청소기의 주행라인을 그대로 추종할 수 있도록 전술한 '얼라인 동작'을 수행할 수 있다. 다만, 여기에서의 얼라인 동작은 제2청소기가 제3이미지를 방사하는 동작이 추가된다.
구체적으로, 제2청소기는, 제1이미지에 대응되는 방향으로 주행이 개시되면 제3이미지를 천장에 투사하여 상기 제1청소기에서 방사되는 제1이미지와 얼라인을 수행한다.
즉, 도 11f에서, 제2청소기가 방사하는 제3이미지가 후방 이미지(1102)의 위치와 완전히 중첩되도록 제2청소기의 위치를 조절함으로써, 제1청소기의 주행라인과 제2청소기의 주행라인을 일치시킬 수 있다. 이때, 제3이미지는 후방 이미지(1102)와 동일한 이미지일 수 있다.
한편, 또 다른 예에서는, 천장의 고도와 관련된 정보를 기초로 후행하는 제2청소기에 대한 주행 가이드를 제공해줄 수 있다.
이를 위해, 제1청소기는 광 모듈 주변에 하나 이상의 수신기를 구비할 수 있으며, 광 모듈을 통해 특정 이미지에 대응되는 광 신호를 투사함과 동시에 광 신호가 천장을 맞고 돌아오는 반사신호를 수신기를 통해 수신함으로써, 천장의 고도 정보를 산출할 수도 있다. 그에 따라, 천장의 고도가 제2청소기가 진입하기에 낮은지 여부를 추가로 파악할 수 있을 것이다.
예를 들어, 천장의 고도가 낮은 것으로 파악된 경우, 즉 제1청소기는 진입할 수 있으나 제2청소기는 진입 불가 영역인 경우, 제1청소기에서 진입불가를 나타내는 이미지에 대응되는 광 신호를 천장에 투사하여, 제2청소기가 진입하여 부딪히지 않도록 방지할 수 있을 것이다.
또 다른 예로, 제1청소기는 카드 형태의 맵 지도 이미지를 삽입하여 천장에 투사함으로서, 제2청소기와 맵 지도 정보를 공유할 수도 있을 것이다. 이를 위해, 제1청소기의 상부 일측, 구체적으로 광 모듈의 전방에는, 맵 지도 카드를 수납할 수 있는 수납 공간이 마련될 수 있을 것이다.
한편, 이상에서는 두 대의 청소기를 사용하여 협업 청소하는 것을 예시로 설명하였으나, 이에 한정되지 않으며 세대 이상의 청소기가 협업하여 서로의 위치를 인식하면서 청소를 수행하는 경우에도 본 발명의 실시 예들이 적용될 수 있을 것이다.
한편, 일 실시 예에서는 천장에 투사된 이미지의 위치를 기초로 후행하는 제2청소기의 주행방향 및 주행속도의 조절할 수 있다. 구체적으로, 투사된 이미지가 화각범위의 중앙에 오는 것을 기준위치로 설정하고, 기준위치를 벗어나는 방향 및 벗어난 정도에 따라 제2청소기의 주행방향과 주행속도를 소정범위로 증가시키거나 감소시킬 수 있다.
한편, 천장이 낮거나 주변이 밝은 환경에서는, 비록 도시되지는 않았지만, 제1청소기 및/또는 제2청소기에서 주변 조도에 따라 광 신호의 패턴을 다르게 변경하거나, 비젼 네트워크의 수행이 어려움을 알리는 알림 신호를 출력하거나, 또는 후행하는 청소기가 현재 위치에서 정지하도록 제어할 수도 있을 것이다.
또한, 본 발명에서는 선행하는 제1청소기가 제1 광 모듈을 구비하고 후행하는 제2청소기에서 상방 카메라와 함께 제2 광 모듈을 구비하는 것으로도 구현가능하다. 이러한 경우, 제2청소기는 제1 광 모듈에 대응되는 제1 이미지와 제2 광 모듈에 대응되는 제2 이미지를 동시에 획득할 수 있고, 제1 이미지와 제2 이미지가 오버랩되도록 주행을 조절함으로써, 선행하는 제1청소기와 얼라인하면서 추종/협업 청소를 수행할 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 실시 예에 따른 복수의 로봇 청소기에 의하면, 복수의 로봇 청소기가 서로의 위치를 파악하기 위한 센서를 탑재하지 않고 또는 센서가 탑재되었으나 네트워크 통신이 지원되지 않는 환경에서도, 천장에 투사된 광 신호에 대응되는 이미지를 획득 및 분석함으로써, 선행하는 로봇 청소기와 후행하는 로봇 청소기가 선후 뒤바뀜 없이, 선행하는 로봇 청소기의 위치를 인식하여 효율적인 추종/협업 청소를 수행할 수 있다. 또한, 천장에 투사되는 이미지가 화각범위의 특정 위치에 오도록 청소기의 주행을 조절하거나 또는 천장에 투사되는 복수의 서로 다른 이미지들이 서로 중첩되도록 청소기의 주행을 조절함으로써, 선행하는 청소기의 주행경로를 일치되게 추종할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 제어부(1800)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (11)

  1. 제1 청소기와 제2 청소기를 포함하는 복수의 로봇 청소기로서,
    광 모듈을 구비하고, 상기 광 모듈로부터 주행과 관련된 광 신호를 방사하여 천장에 투사하는 제1 청소기; 및
    본체에 구비된 상방 카메라를 이용하여 상기 천장에 투사된 광 신호에 대응되는 이미지를 획득하고, 획득된 이미지를 기초로 상기 제1 청소기의 위치를 인식하여 주행명령을 생성하는 제2 청소기를 포함하는 것을 특징으로 하는 복수의 로봇 청소기.
  2. 제1항에 있어서,
    상기 광 모듈은 상기 제1 청소기의 상방에 위치하고, 복수의 레이저 또는 복수의 LED 로 이루어지는 것을 특징으로 하는 복수의 로봇 청소기.
  3. 제1항에 있어서,
    상기 광 신호에 대응되는 이미지는 상기 제1 청소기의 주행 상태 및 주행 방향 중 적어도 하나와 관련된 정보를 포함하는 정해진 이미지인 것을 특징으로 하는 복수의 로봇 청소기.
  4. 제3항에 있어서,
    상기 제2 청소기에는 상기 광 신호에 대응되는 이미지에 매치되는 주행 상태 및 주행 방향과 관련된 정보가 메모리에 미리 저장되고,
    상기 상방 카메라를 통해 획득된 이미지에 매치되는 주행 상태 및 주행 방향 중 적어도 하나와 관련된 정보가 메모리로부터 검출되는 것을 특징으로 하는 복수의 로봇 청소기.
  5. 제1항에 있어서,
    상기 이미지를 형성하는 광 신호의 발광 간격 및 발광 범위 중 적어도 하나를 기초로 상기 제1 청소기의 주행속도가 표시되는 것을 특징으로 하는 복수의 로봇 청소기.
  6. 제1항에 있어서,
    상기 제1 청소기의 주행 중 상기 제2 청소기가 진입 불가 영역에 진입한 것이 감지되면, 정지명령에 대응되는 광 신호를 천장에 투사하는 것을 특징으로 하는 복수의 로봇 청소기.
  7. 제1항에 있어서,
    상기 제1 청소기의 주행라인 변경시, 상기 제1청소기에서는 방향전환과 관련된 이미지가 천장에 투사되도록 상기 광 모듈을 동작하고 소정 시간 동안 상기 제1 청소기의 주행을 정지하는 것을 특징으로 하는 복수의 로봇 청소기.
  8. 제7항에 있어서,
    상기 제2 청소기는 상기 방향전환과 관련된 이미지가 획득되면, 획득된 이미지와 이전의 이미지를 기초로 회전하여 주행방향을 변경하고,
    상기 소정 시간의 경과에 따라 상기 제1 청소기의 주행이 개시되면, 상기 방향전환과 관련된 이미지가 화각범위의 중심에 오도록 상기 제2 청소기의 위치를 조절하여 주행하는 것을 특징으로 하는 복수의 로봇 청소기.
  9. 제1항에 있어서,
    상기 제1 청소기에서 방향전환과 관련된 제1이미지가 천장에 투사되면, 상기 제2 청소기에 구비된 광 모듈로부터 정지명령에 대응되는 제2이미지를 천장에 투사하고,
    상기 제1 청소기에 구비된 상방 카메라를 이용하여 획득된 상기 제2이미지를 기초로 주행정지를 수행하는 것을 특징으로 하는 복수의 로봇 청소기.
  10. 제9항에 있어서.
    상기 제1 청소기는 상기 제2이미지의 투사가 중단될 때까지 주행을 정지하고,
    상기 제1 청소기의 방향전환 완료에 따라 상기 제2이미지의 투사가 중단되면, 상기 제2 청소기가 상기 제1 청소기를 추종하며 상기 제1이미지에 대응되는 방향으로 주행하는 것을 특징으로 하는 복수의 로봇 청소기.
  11. 제10항에 있어서,
    상기 제2 청소기는, 상기 제1이미지에 대응되는 방향으로 주행이 개시되면 제3이미지를 천장에 투사하여 상기 제1 청소기에서 방사되는 제1이미지와 얼라인을 수행하는 것을 특징으로 하는 복수의 로봇 청소기.
PCT/KR2019/009019 2018-07-20 2019-07-22 복수의 로봇 청소기 및 그 제어방법 WO2020017943A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0084978 2018-07-20
KR1020180084978A KR102081340B1 (ko) 2018-07-20 2018-07-20 복수의 로봇 청소기 및 그 제어방법

Publications (1)

Publication Number Publication Date
WO2020017943A1 true WO2020017943A1 (ko) 2020-01-23

Family

ID=69164543

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/009019 WO2020017943A1 (ko) 2018-07-20 2019-07-22 복수의 로봇 청소기 및 그 제어방법

Country Status (2)

Country Link
KR (1) KR102081340B1 (ko)
WO (1) WO2020017943A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111887777A (zh) * 2020-07-29 2020-11-06 深圳市普森斯科技有限公司 清扫控制方法、装置、电子设备及存储介质
US20230341866A1 (en) * 2019-12-20 2023-10-26 Lg Electronics Inc. Mobile robot and control method therefor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102369661B1 (ko) * 2020-02-26 2022-03-02 엘지전자 주식회사 이동 로봇 및 복수의 이동 로봇의 제어방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100483548B1 (ko) * 2002-07-26 2005-04-15 삼성광주전자 주식회사 로봇 청소기와 그 시스템 및 제어 방법
JP4639253B2 (ja) * 2008-10-31 2011-02-23 東芝テック株式会社 自律移動装置およびその制御方法
KR101331952B1 (ko) * 2011-10-13 2013-11-26 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR101854337B1 (ko) * 2016-05-17 2018-05-03 엘지전자 주식회사 청소기 및 그 제어방법
JP2018106217A (ja) * 2016-12-22 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 自律移動体、移動制御方法及び移動制御プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100483548B1 (ko) * 2002-07-26 2005-04-15 삼성광주전자 주식회사 로봇 청소기와 그 시스템 및 제어 방법
JP4639253B2 (ja) * 2008-10-31 2011-02-23 東芝テック株式会社 自律移動装置およびその制御方法
KR101331952B1 (ko) * 2011-10-13 2013-11-26 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR101854337B1 (ko) * 2016-05-17 2018-05-03 엘지전자 주식회사 청소기 및 그 제어방법
JP2018106217A (ja) * 2016-12-22 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 自律移動体、移動制御方法及び移動制御プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230341866A1 (en) * 2019-12-20 2023-10-26 Lg Electronics Inc. Mobile robot and control method therefor
EP4079467A4 (en) * 2019-12-20 2024-01-03 LG Electronics Inc. MOBILE ROBOT AND CONTROL METHOD THEREOF
CN111887777A (zh) * 2020-07-29 2020-11-06 深圳市普森斯科技有限公司 清扫控制方法、装置、电子设备及存储介质
CN111887777B (zh) * 2020-07-29 2023-03-07 深圳市普森斯科技有限公司 清扫控制方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
KR20200013177A (ko) 2020-02-06
KR102081340B1 (ko) 2020-02-25

Similar Documents

Publication Publication Date Title
WO2020004834A1 (en) A plurality of autonomous cleaners and a controlling method for the same
AU2020209330B2 (en) Mobile robot and method of controlling plurality of mobile robots
WO2018164326A1 (ko) 청소기 및 그 제어방법
AU2019262467B2 (en) A plurality of robot cleaner and a controlling method for the same
WO2018026124A1 (ko) 이동 로봇 및 그 제어방법
AU2020362530B2 (en) Robot cleaner and method for controlling the same
WO2019212239A1 (en) A plurality of robot cleaner and a controlling method for the same
WO2018079985A1 (ko) 청소기 및 그 제어방법
WO2020004824A1 (en) Plurality of autonomous cleaner and controlling method for the same
AU2020231781B2 (en) Moving robot and controlling method for the moving robot
WO2020197135A1 (en) Moving robot and controlling method for the same
WO2020017942A1 (ko) 로봇 청소기 및 그것의 제어방법
WO2020122541A1 (ko) 로봇 청소기 및 그 제어방법
EP3846979A1 (en) Plurality of autonomous mobile robots and controlling method for the same
WO2019212173A1 (ko) 청소기 및 그 제어방법
WO2019017521A1 (ko) 청소기 및 그 제어방법
WO2019221524A1 (ko) 청소기 및 그 제어방법
WO2020017943A1 (ko) 복수의 로봇 청소기 및 그 제어방법
WO2020139029A1 (en) Mobile robot
WO2020050566A1 (en) Plurality of autonomous mobile robots and controlling method for the same
WO2019221523A1 (ko) 청소기 및 그 제어방법
AU2020208074B2 (en) Mobile robot and method of controlling mobile robot
AU2020268667B2 (en) Mobile robot and control method of mobile robots
WO2020022739A1 (ko) 로봇 청소기 및 그것의 제어방법
WO2021006590A1 (en) Docking device and mobile robot system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19838859

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19838859

Country of ref document: EP

Kind code of ref document: A1