WO2019194602A1 - Driving control device having improved location correction function, and robot vacuum using same - Google Patents

Driving control device having improved location correction function, and robot vacuum using same Download PDF

Info

Publication number
WO2019194602A1
WO2019194602A1 PCT/KR2019/004003 KR2019004003W WO2019194602A1 WO 2019194602 A1 WO2019194602 A1 WO 2019194602A1 KR 2019004003 W KR2019004003 W KR 2019004003W WO 2019194602 A1 WO2019194602 A1 WO 2019194602A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
driving
unit
position information
error
Prior art date
Application number
PCT/KR2019/004003
Other languages
French (fr)
Korean (ko)
Inventor
홍지혜
최혁두
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180039408A external-priority patent/KR20190119232A/en
Priority claimed from KR1020180039407A external-priority patent/KR20190119231A/en
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2019194602A1 publication Critical patent/WO2019194602A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls

Definitions

  • the present invention relates to a driving controller and a robot cleaner using the same.
  • the robot cleaner is an automatic cleaner using a charged battery as a power source to perform cleaning while moving a driving path on the floor according to an input program.
  • the robot cleaner is designed to perform a cleaning operation while driving a predetermined path according to a built-in program, unlike a conventional cleaning method in which a user performs a cleaning while dragging the cleaner directly.
  • various types of sensors are applied to the robot cleaner to detect a driving distance and an obstacle.
  • the sensors of the robot cleaner are used to check the driving route and the position of the robot cleaner. That is, the robot cleaner uses sensors to correct the position by itself when the position recognized by the robot cleaner is separated from the path by colliding with the surrounding objects or sliding while driving.
  • Korean Laid-Open Patent Publication No. 10-2006-0062607 discloses an optical sensor provided in a robot cleaner main body to recognize a bumper's movement, impact, distortion, and moving distance to recognize the distance and position between obstacles again. Disclosed is a technique to allow.
  • Korean Unexamined Patent Publication No. 10-2010-0100520 discloses a technique of photographing a divided region of the entire cleaning target to create a map of the entire target region and correcting the position based on the map. .
  • FIG. 1 is a view showing a position correction method of the robot cleaner according to the prior art.
  • FIG. 1 is a view provided to explain the position correction technique disclosed in Korean Patent Laid-Open Publication No. 10-2010-0100520 (2010.09.15, published).
  • the robot cleaner 10 gradually creates a map by matching the feature points Ec of the images photographed in the divided regions of the entire cleaning target. After matching all common feature points Ec of all divided regions, the map of the entire target region was finally completed, and the position information was corrected using the completed map.
  • the robot cleaner 10 creates a map and detects a driving position based only on distance information between the feature points Ec photographed in the cleaning space. Therefore, it is difficult to detect a gradually varying position error when the position itself gradually varies due to slip or external force depending on the floor material. And gradually variable error has a problem that can not be corrected by itself.
  • the conventional robot cleaner 10 has a difficulty in correcting the position by finding the original feature points again when the position is continuously changed by a floor member such as a carpet, a pet, or the like, or when it is largely changed at one time. As such, if the position of the robot cleaner 10 itself is not reflected and the position is corrected using only the surrounding feature points Ec, the robot cleaner 10 cannot easily cope with the sudden feature point variation.
  • the conventional robot cleaner 10 has a problem in that matching accuracy between a feature and a driving route is deteriorated when an obstacle is repeatedly arranged at a specific location at irregular or irregular time intervals. That is, when obstacle detection is frequently caused by anomalously changed surrounding conditions, there is a problem that path management to be avoided increases, making path management difficult, and cleaning efficiency is also lowered.
  • the conventional robot cleaner 10 since the conventional robot cleaner 10 is set to detect and avoid an object or a foreign object only at the level of a preset reference value range, the object recognition accuracy in the inclined area or the curved groove portion is remarkably degraded. There was. In other words, the object and obstacle detection method applied to the conventional robot cleaner 10 recognizes the foreign matter or the object only based on the background value or the reference value according to the floor plane, and thus the error occurrence rate in specific areas having different heights is increased. There was a growing problem. That is, there is a problem that the reliability is lowered because the error occurrence rate such as recognizing and avoiding specific areas having different heights and heights compared to the entire plane is increased.
  • a comparison object for determining a specific object (EI) or a foreign object, etc., as a foreign material or an obstacle may be limited.
  • the comparison target is limited only to a reference value, when an object or a foreign object having an ambiguous criterion is detected, there is a problem of simply avoiding or malfunctioning, thereby lowering user satisfaction.
  • An object of the present invention is to provide a driving controller and a robot cleaner using the same, which accurately corrects driving position information during cleaning by reflecting distance information between characteristic points photographed in a cleaning space and a position change error thereof in real time. .
  • an object of the present invention is to provide a traveling control device and a robot cleaner using the same that can quickly cope with changes in the external environment.
  • an object of the present invention is to provide a driving controller and a robot cleaner using the same, which can easily cope with an anomalous situation by changing a traveling speed and a cleaning method at a position where an anomalous operation occurs.
  • Another object of the present invention is to provide a robot cleaner capable of clearly detecting and distinguishing foreign objects and objects even in an inclined or curved grooved area.
  • an object of the present invention is to provide a robot cleaner capable of clearly distinguishing a foreign object and an object, a lowland area, and an highland area according to the floor shape of each divided area.
  • an object of the present invention is to provide a robot cleaner capable of further increasing the detection accuracy in a divided area in which foreign objects, objects, obstacles, etc. are detected among the plurality of divided areas.
  • the driving control apparatus and the robot cleaner using the same of the present invention detect the current driving position information by checking the consistency of the landmarks photographed in the cleaning space, and accurately reflect the driving position information by reflecting the position error due to the straight running and the rotating driving. Correct.
  • the driving position information may be corrected by reflecting the uncertainty position information detected based on the motion in the driving position information.
  • anomalous motion occurrence position generated during cleaning is checked and stored in real time.
  • the driving position information corrected in real time when the cleaner is adjacent to the anomalous motion occurrence position, the driving speed and the cleaning method are changed.
  • the robot cleaner of the present invention generates a depth map according to an imaging range through at least one plane distance sensing unit provided with an imaging module.
  • the depth map of the imaging range is divided into a plurality of areas so that the analysis can be performed for each divided area.
  • the robot cleaner of the present invention analyzes and determines the degree of plane, non-plane, and inclination using algorithms such as planar equations, non-planar and inclination analysis algorithms, and non-planar height analysis algorithms for each divided area divided into a plurality of areas. . And based on the determined plane, non-plane, slope information, etc., it is possible to detect the non-plane height, obstacles, low ground, high-altitude position information.
  • the robot cleaner of the present invention recognizes a specific object or a foreign object for each divided region of the depth map, the robot cleaner compares and confirms the analysis information of the surrounding divided region with the expanded values using the resolution and depth value expansion algorithm.
  • the position coordinate information determined as a foreign object, an object, an obstacle, etc. is calculated in real time to control the driving route to be variable or maintained.
  • the driving control apparatus and the robot cleaner using the same of the present invention may correct the driving position information of the robot cleaner by reflecting the error according to the straight and rotational driving in real time, thereby correcting the position error gradually changed by the use environment.
  • the driving control apparatus of the present invention and the robot cleaner using the same may quickly return to the original position even with a large external force or sudden impact by correcting the driving position information by reflecting the uncertainty position information and the collision acceleration information detected on the basis of motion.
  • the driving control apparatus of the present invention and the robot cleaner using the same may monitor in real time by matching the position information in which the anomalous operation such as a collision, slip, and the like currently running position.
  • the anomalous operation such as a collision, slip, and the like currently running position.
  • the robot cleaner of the present invention divides the depth map into a plurality of regions and compares them with each other.
  • the object detection function such as to be able to clearly distinguish between the foreign object and the object in the inclined region or the curved groove region.
  • the robot cleaner of the present invention accurately analyzes and determines the bending and inclination of the bottom surface for each divided area. Therefore, it is possible to accurately recognize foreign objects, objects, lowlands and highlands according to the floor shape of each divided area, thereby reducing the error occurrence rate and improving customer reliability.
  • the sensing device of the present invention and the robot cleaner using the same may compare or expand the analysis information of the surrounding divided area when a specific object or a foreign object is recognized for each divided area of the depth map. Accordingly, it is possible to accurately determine foreign objects, objects, obstacles, and the like, thereby reducing malfunctions such as simple avoidance, thereby further improving customer satisfaction.
  • FIG. 1 is a view showing a position correction method of the robot cleaner according to the prior art.
  • FIG. 2 is a view showing in detail a robot cleaner equipped with a driving control apparatus according to an embodiment of the present invention.
  • FIG. 3 is a block diagram showing in detail the driving control apparatus of the present invention.
  • FIG. 4 is a block diagram illustrating in detail the position corrector of FIG. 3.
  • FIG. 5 is a view for explaining a driving position detection method of the current position detection unit shown in FIG.
  • FIG. 6 is a diagram for describing a method of correcting position information in the speed detection correcting unit and the collision acceleration applying unit illustrated in FIG. 4.
  • FIG. 7 is a block diagram illustrating in detail a robot cleaner equipped with a sensing device according to another exemplary embodiment. Referring to FIG.
  • FIG. 8 is a diagram illustrating a bottom surface of a robot cleaner configured with at least one planar distance detector illustrated in FIG. 7.
  • FIG. 9 is a diagram for describing a method of dividing depth map information of an image processor illustrated in FIG. 8.
  • FIG. 10 is a block diagram illustrating in detail the image analyzer illustrated in FIG. 8.
  • FIG. 11 is a diagram illustrating a segmentation area comparison and analysis method of the image analyzer illustrated in FIG. 10.
  • FIG. 2 is a view showing in detail a robot cleaner equipped with a driving control apparatus according to an embodiment of the present invention.
  • the robot cleaner RC is disposed so as to correspond to a case 140 and an outer surface of the case 140 forming an appearance, and includes a distance detecting module 120 including at least one transmitter and a receiver.
  • the case 140 may be formed in a circular disk shape having a predetermined height.
  • the robot cleaner RC is connected to the display unit 160 displaying an operation state, the interface unit 150 to which a control command from a user is input, the display unit 160 and the interface unit 150, and the robot cleaner RC. It includes a travel control device for controlling the travel path of the.
  • the distance detection module 120 includes a sensor for detecting a distance from the robot cleaner RC to a wall or an obstacle in the room.
  • a sensor for detecting a distance from the robot cleaner RC to a wall or an obstacle in the room In the present invention, an example in which at least one ultrasonic sensor is configured in the distance detection module 120 will be described.
  • the ultrasonic sensor of the distance detection module 120 detects distance information for each of the plurality of split points by transmitting and receiving an infrared or ultrasonic signal to a plurality of split points preset in the sensing space. That is, the distance detection module 120 may calculate the distance information of the cleaning space that is detected by transmitting and receiving the ultrasonic signal.
  • At least one direction of the case 140 is provided with a bumper 130 that buffers an impact during an external collision.
  • the bumper 130 is configured with a shock sensor for generating a collision acceleration signal corresponding to the external shock.
  • the impact sensor generates collision acceleration information by digitally processing a collision acceleration signal according to an external impact amount, and transmits the collision acceleration information to the driving controller.
  • the robot cleaner RC is provided with an image detection module 110 in the upper front portion so as to capture an image of the cleaning target region or the driving region.
  • the image detection module 110 is installed to capture images of the front and the upper side where the robot cleaner moves.
  • the image detection module 110 may be fixedly installed forward and upward, and may be installed to move in left, right, and up and down directions.
  • the image detection module 110 calculates depth value information of the sensing space using at least one depth sensor.
  • the image detection module 110 may digitally process the depth value information of the sensing space detected by the at least one depth sensor and transmit the digital signal to the driving controller.
  • the depth sensor detects distance information between the depth sensor and the sensing space according to the resolution of the depth sensor itself, and an image sensor or a 3D camera may be used.
  • a CCD image sensor, a CMOS image sensor, and a 3D camera convert an image formed by light reflected from an imaging object through a lens to the imaging device and converts the image into an electrical signal according to the intensity of light, and outputs it as an analog electric signal.
  • the image detection module 110 may digitally process the depth value information of the sensing space detected by the at least one depth sensor and sequentially transmit the digital signal to the driving control apparatus.
  • the spaces sensed by the image detection module 110 may be three-dimensional spaces on a screen having a preset resolution. That is, as a space for detecting distance information from the depth sensor according to the resolution of the depth sensor, the sensing space may be set by the resolution and the detectable range of the depth sensor.
  • the sensing space may be configured in the form of a rectangular parallelepiped corresponding to the rectangular screen.
  • FIG. 3 is a block diagram showing in detail the driving control apparatus of the present invention.
  • the travel control device is embedded in the robot cleaner RC in association with the display unit 160 and the interface unit 150.
  • the driving control device controls the driving path and the speed in real time according to the preset driving path and the position information detected in real time, and controls the overall cleaning option according to the user setting.
  • the driving control device corrects its own location information in real time and resets the map of the cleaning space according to the corrected location information when the vehicle moves away from the preset driving path or suddenly changes position due to an external impact or slippery flooring. Then, based on the reset map information and the location information, a smooth cleaning operation is performed.
  • the driving control apparatus of the present invention includes a landmark detector 102, a position correction unit 170, and a driving control module 180.
  • the landmark detection unit 102 processes the depth value information from the image detection module 110 to generate a depth map of the sensing space, splits the depth map, and extracts at least one landmark for each divided area.
  • the landmark detector 102 filters depth value information input through the image detection module 110, samples every frame, and converts the AD to generate a depth map for each frame of the sensing space.
  • the depth map of the sensing space may be generated by signal processing depth value information of the sensing space input through the distance detection module 120.
  • the landmark detector 102 maps the depth map for each frame generated using the image detection module 110 and the depth map for each frame generated using the distance detection module 120 to the same resolution.
  • the data may be divided and transmitted to the position corrector 170. That is, the landmark detector 102 may process and arrange the depth value information of the sensing space in every frame unit according to a preset resolution, and generate the depth map of the sensing space by matching the distance information of the plurality of divided points. have.
  • the landmark detector 102 compares depth value information of adjacent positions with each other according to a preset resolution, and sets an object or an edge at a position where a difference in depth value is greater than a preset reference as a landmark.
  • the landmark detector 102 compares the depth value information of the positions adjacent to each other and compares the depth value difference with a preset reference.
  • the objects of the locations where the detected difference in depth value is greater than or equal to a predetermined reference may be set as a landmark.
  • the difference in depth value is large in an object, an edge, or a window frame that protrudes from the wall, and an object, an edge, or a window frame that protrudes from the wall may be set as a landmark.
  • the position correction unit 170 generates driving position information in real time using distance information with at least one landmark, and corrects driving position information by using rotation and driving error information, uncertainty position error information, and collision acceleration information. .
  • the position correction unit 170 detects the driving position information of the robot cleaner RC by checking the consistency of the landmark photographed in the sensing space, and accurately travels by reflecting the position error due to the straight running and the rotating driving. Correct the position information. To this end, the position correction unit 170 detects the uncertainty position error information that may be generated as the robot cleaner moves based on the rotation driving motion and the straight driving motion. The driving position information is corrected by reflecting the uncertainty position information detected based on the motion to the driving position information. In addition, the position correction unit 170 detects collision acceleration information according to a collision or slip in real time, and corrects the driving position information by reflecting the detected collision acceleration information in the driving position information.
  • the driving position information correction structure and method of the position correction unit 170 will be described in more detail with reference to the accompanying drawings.
  • the driving control module 180 changes the driving path of the robot cleaner and controls the cleaning option and driving speed by using the depth map of the sensing space reset according to the driving position information corrected by the position corrector 170. At this time, the driving control module 180 checks and stores in real time an anomalous motion occurrence position generated during cleaning based on the degree and position of the driving position information correction. In addition, by checking the driving position information corrected in real time, when the cleaner is adjacent to the anomalous motion occurrence position, the driving speed and the cleaning method may be changed.
  • FIG. 4 is a block diagram illustrating in detail the position corrector of FIG. 3.
  • the position correcting unit 170 illustrated in FIG. 4 includes a landmark matching unit 171, a current position detecting unit 172, a speed detecting correcting unit 173, and a collision acceleration applying unit 174.
  • the landmark matching unit 171 registers landmarks of each divided area and calculates driving position information in real time according to distance information of the matched plurality of landmarks.
  • the landmark matching unit 171 matches and matches landmarks of each divided area, and the current position detection unit 172 may determine the location of each landmark in the sensing space according to the depth value information between the current position and each landmark.
  • the driving position information can be detected.
  • the current position detector 172 corrects the position information in the stationary state by reflecting the position information and the error information in the stationary state to the driving position information detected in real time.
  • FIG. 5 is a view for explaining a driving position detection method of the current position detection unit shown in FIG.
  • the current position detector 172 reflects the driving position information detected in real time using the position information of the stationary state and the error information.
  • Vs applied to Equation 1 is the speed of the robot cleaner, vt is the rotation speed of the robot cleaner. And Is the rotational speed, including the uncertainty error, Is the speed straight forward including the uncertainty error.
  • Is the error of velocity with mean zero and variance k Is the rotation speed weight for the rotation speed uncertainty.
  • Is the straight velocity weight for the rotational speed uncertainty Is the rotational speed weight for the straight-forward uncertainty.
  • FIG. 6 is a diagram for describing a method of correcting position information in the speed detection correcting unit and the collision acceleration applying unit illustrated in FIG. 4.
  • the speed detection correcting unit 173 corrects the position information in the moving state by reflecting the rotation and driving error information and the uncertainty position error information in the detected driving position information in real time.
  • the speed detection correcting unit 173 includes rotation and driving error information ( , ) And uncertainty location error information ( , ) May be reflected in driving position information detected in real time using Equation 2 above.
  • VB represents a position correction state in a static range in a static state.
  • the VS arrow indicates a change in position according to the collision and a conversion width of driving position information according to the change.
  • the collision acceleration application unit 174 corrects the position information in the collision and slip situation by reflecting the collision acceleration information from the bumper to the position information corrected by the speed detection correcting unit 173.
  • the collision acceleration application unit 174 is a rotation and driving error information ( , ) Uncertainty location error information ( , )
  • the collision acceleration information is further reflected in the detection equation 2, and as shown in Equation 3 below, the driving position information is further corrected according to the collision acceleration information.
  • the map / position correction unit 175 resets the depth map with respect to the current position according to the driving position information corrected by the speed detection correction unit 173 or the collision acceleration application unit 174, and transmits it to the driving control module 180.
  • the map / position correction unit 175 sets the position where the position information is corrected according to the collision acceleration information in the collision acceleration application unit 174 as a position where the anomalous operation occurs, and transmits it to the driving control module 180.
  • the driving control module 180 is the driving position information corrected by the speed detection correction unit 173 or the collision acceleration application unit 174 and the position information (CC) where the anomaly operation set by the map / position correction unit 175 has occurred. Can be monitored in real time.
  • the driving mode of the robot cleaner may be controlled such that the traveling speed and the cleaning method are changed at the position where the anomalous operation occurs.
  • the driving control apparatus and the robot cleaner RC using the same may correct the driving position information of the robot cleaner in real time by reflecting an error resulting from the straight and the rotation driving. Accordingly, the positional error that is gradually changed by the influence of the surrounding environment in which the robot cleaner RC is being used may be corrected in real time.
  • the driving control apparatus of the present invention and the robot cleaner using the same may quickly return to the original position even with a large external force or sudden impact by correcting the driving position information by reflecting the uncertainty position information and the collision acceleration information detected on the basis of motion.
  • the driving control apparatus and the robot cleaner using the same of the present invention can monitor in real time by matching the position (CC) information in which anomalous operation such as collision, slip, and the like currently running position.
  • FIG. 7 is a block diagram illustrating in detail a robot cleaner equipped with a sensing device according to another exemplary embodiment.
  • Referring to FIG. 8 is a block diagram illustrating a bottom surface of the robot cleaner configured with at least one planar distance detector illustrated in FIG. 7.
  • the sensing apparatus includes at least one planar distance sensor 100, an image processor 200, an image analyzer 300, and an evasion supporter 400.
  • each planar distance sensing unit 100 may further include at least one imaging module 110 and a transmission / reception module 120.
  • the imaging module 110 may digitally process the depth value information of the sensing space sensed by the at least one depth sensor and transmit the digital signal to the image processor 200.
  • the depth sensor detects distance information between the depth sensor and the sensing space according to the resolution of the depth sensor itself, and an image sensor or a 3D camera may be used.
  • a CCD image sensor, a CMOS image sensor, and a 3D camera convert an image formed by light reflected from an imaging object through a lens to the imaging device and converts the image into an electrical signal according to the intensity of light, and outputs it as an analog electric signal.
  • the imaging module 110 may digitally process the depth value information of the sensing space sensed by the at least one depth sensor and sequentially transmit the digital signal to the image processor 200.
  • the spaces sensed through each imaging module 110 may be three-dimensional spaces on a screen having a preset resolution. That is, as a space for detecting distance information from the depth sensor according to the resolution of the depth sensor, the sensing space may be set by the resolution and the detectable range of the depth sensor.
  • the sensing space may be configured in the form of a rectangular parallelepiped corresponding to the rectangular screen.
  • the transmission / reception module 120 detects distance information for each of the plurality of division points by transmitting and receiving an infrared or ultrasonic signal to a plurality of division points preset in the sensing space. That is, unlike the method of detecting depth information of the sensing space through the imaging module 110, the transmission / reception module 120 may transmit and receive infrared or ultrasonic signals to calculate depth information of the sensing space.
  • the transmission / reception module 120 detects the distance information for each of the plurality of split points, and then digitally processes the distance information for each of the divided points and transmits the digital signal to the image processor 200.
  • the transmission / reception module 120 may include an infrared transmission / reception module or an ultrasonic transmission / reception module, and the plurality of splitting points may be divided into N ⁇ M points according to the location and resolution of transmission / reception point of each transmission / reception module. Where N and M are the same or different natural numbers.
  • the transmission / reception module 120 may be selectively configured unlike the imaging module 110. However, in the present invention, in order to increase the accuracy of the depth map information, the depth information of the sensing space generated through the imaging module 110 and the depth information of the sensing space generated through the transceiving module 120 are mapped to the same resolution. It can be used.
  • the image processor 200 generates depth maps of the sensing space by signal processing depth value information of the sensing space input through the imaging module 110.
  • the image processor 200 filters depth value information input through the imaging module 110, samples every frame, and converts the AD to generate a depth map for each frame of the sensing space.
  • the image processor 200 may directly transmit the depth map for each frame to the image analyzer 300.
  • the image processor 200 may generate depth maps of the sensing space by signal processing depth value information of the sensing space input through the transmission / reception module 120.
  • depth value information input through the transmission / reception module 120 is filtered, sampled every frame, and then AD converted to generate a depth map for each frame of the sensing space.
  • the image processor 200 maps and splits the depth map for each frame generated using the imaging module 110 and the depth map for each frame generated using the transmission / reception module 120 at the same resolution. 300 can be sent.
  • the image processor 200 may process and arrange the depth value information of the sensing space in every frame unit according to a preset resolution, and generate the depth map of the sensing space by matching the distance information for each of the plurality of split points. .
  • the image processing unit 200 arranges depth value information of the sensing space according to N ⁇ M divided region sizes according to a preset resolution.
  • the image processor 200 generates a depth map in units of frames by arranging them according to the size of n ⁇ m pixel arrays set for each divided region. Where n and m are also the same or different natural numbers.
  • the image processor 200 maps the depth map generated through the imaging module 110 and the depth map generated through the transceiver module 120 to the same resolution, divides the image by the divided regions, and transmits the image to the image analyzer 300. do.
  • the image analyzer 300 divides and stores the depth map of the sensing space input through the image processor 200 into a plurality of preset regions. Then, at least one of flat, non-planar, slope, lowland, highlands, foreign objects, objects, and obstacle information is generated using an average value for each divided area.
  • the image analyzer 300 reads and stores depth value information of each divided region according to N ⁇ M divided region sizes or a plurality of divided points. Depth values corresponding to n x m pixels are averaged for each of the plurality of divided regions, and average value information for each divided region is calculated.
  • the image analyzer 300 may average the average value information for each divided area in every frame unit, calculate a background value of the sensing space, and determine whether the plane is flat for each divided area.
  • the image analyzer 300 compares the background value of the sensing space with the average value information of each divided area and determines the non-planar height value and the slope of the divided area determined as the non-planar surface. Accordingly, the image analyzer 300 may determine an object, a foreign material, a low land, an high land, and an obstacle in each divided area based on at least one of a background value, a non-planar height value, and a slope of the sensing space.
  • the avoidance support unit 400 receives at least one piece of information of a plane, a non-plane, a slope, a low land, a high land, a foreign object, an object, and obstacle information detected by the image analyzer 300. And generating and outputting position coordinate information corresponding to at least one of plane, non-plane, slope, low land, high ground, foreign object, object, and obstacle information. Accordingly, the robot cleaner of the present invention may change the driving route based on the position coordinate information corresponding to at least one of the plane, non-plane, tilt, low ground, high ground, foreign object, object, and obstacle information input to the path driving controller. have.
  • FIG. 9 is a diagram for describing a method of dividing depth map information of an image processor illustrated in FIG. 8.
  • the image processing unit 200 generates a depth map of a sensing space by signal processing depth value information of the sensing space input through the imaging module 110.
  • the image processor 200 filters depth value information input through the imaging module 110, samples every frame, and performs AD conversion.
  • the depth value information of the sensing space is signal processed and arranged in units of frames according to a preset resolution.
  • the image processor 200 may directly transmit the depth map for each frame to the image analyzer 300, the depth map of the sensing space may be further matched by further matching the distance information for each of the divided points received from the transmission / reception module 120. You can also create
  • the image processor 200 arranges the depth values of the sensing spaces according to the N ⁇ M divided region sizes and the n ⁇ m pixel array sizes of each divided region according to a preset resolution. Create a depth map with.
  • the image processor 200 separately processes depth value information of the sensing space input through the transmission / reception module 120 to generate a depth map of the sensing space.
  • the image processor 200 maps the depth map generated through the imaging module 110 and the depth map generated through the transmission / reception module 120 to the same resolution, divides the image into the divided regions, and transmits the image to the image analyzer 300. do.
  • FIG. 10 is a block diagram illustrating in detail the image analyzer illustrated in FIG. 8.
  • the image analyzer 300 may include an area divider 310, a plane equation calculator 320, a plane determiner 330, a non-plane height determiner 340, and an object and foreign material information determiner ( 350).
  • the region dividing unit 310 reads and stores depth value information of each divided region to correspond to N ⁇ M divided region sizes or a plurality of divided points, respectively.
  • the area dividing unit 310 reads and stores depth values corresponding to n ⁇ m pixel array sizes so as to correspond to a plurality of division points for each N ⁇ M division area.
  • depth value information for each partition point included in the N ⁇ M partition areas is read and stored.
  • the plane equation calculator 320 calculates average value information for each divided region by averaging depth values corresponding to n ⁇ m pixels for each of the N ⁇ M divided regions.
  • the planar equation may be an equation for obtaining an average of depth values included in each of the N ⁇ M divided regions.
  • the plane equation calculator 320 transmits the average depth values of the plurality of divided regions to the plane determiner 330.
  • the plane determination unit 330 calculates the background value of the sensing space by averaging the depth average value information of each divided area in the whole frame unit. In addition, it is determined whether or not each plane is flat for the background value of the sensing space.
  • the non-planar height determination unit 340 determines the height value and the slope of the divided area determined as the non-plane by the plane determination unit 330. In detail, the non-planar height determining unit 340 compares the background value of the sensing space with the average value information for each divided area. The non-planar height value and the background value of the divided region determined as the non-planar are compared in units of N ⁇ M pixels, and the height value and the slope of the divided region determined as the non-planar are detected.
  • the object and foreign material information determiner 350 compares the depth average value of each divided area with the background value, the non-planar height value, and the slope of the sensing space. Objects, foreign objects, lowlands, highlands, and obstacles in each divided region are determined based on at least one of a depth average value of each divided region, a background value of the sensing space, a non-planar height value, and a slope.
  • FIG. 11 is a diagram illustrating a segmentation area comparison and analysis method of the image analyzer illustrated in FIG. 10.
  • the non-planar height determination unit 340 compares the background value of the sensing space with the average value information for each divided region.
  • the non-planar height value and the background value of the divided region determined as the non-planar are compared in units of N ⁇ M pixels, and the height value and the slope of the divided region determined as the non-planar are detected.
  • the non-planar height determiner 340 may compare average value information for each divided area, depth values corresponding to n ⁇ m pixels included in each divided area, or depth values for n ⁇ m divided points. Thus, when the result of comparing the at least one depth value preset with respect to the average value is less than the preset reference distance, it may be determined as a plane, and when it is above the preset value, it may be determined as non-planar.
  • the object and foreign material information determiner 350 compares the non-planar height value of each divided area, the slope, and the non-planar height value of at least one other divided area adjacent to each other, and the slope (tilt in arrow direction) value. .
  • objects EI, foreign objects, lowlands, highlands, and obstacles in each divided region may be determined based on the difference result compared with each other.
  • the object and foreign material information determination unit 350 selects at least two or more divided areas of the plurality of divided areas, and sets the average value, the non-planar height value, and the inclination value for the two or more selected divided areas at a preset ratio. You can zoom in. Accordingly, the object and foreign material information determination unit 350 may convert the average value, the non-planar height value, and the slope value of the two or more divided regions that are selectively enlarged into the enlarged non-planar height value and the slope value of the other divided region. Can be compared. According to the result of the enlarged and compared difference, the object and the foreign material information determination unit 350 may accurately determine the object EI, the foreign material, the low land, the high land, and the obstacle in each divided area.
  • the sensing device of the present invention and the robot cleaner using the same may compare and analyze the depth map by dividing the depth map into a plurality of regions. Accordingly, the object sensing function may be improved by clearly distinguishing the foreign material from the object EI even in an inclined area or a curved groove area.
  • the sensing device of the present invention and the robot cleaner using the same can accurately analyze and determine the curvature and the inclination of the floor for each divided area. Accordingly, the foreign material and the object EI, the lowland and the highland can be accurately recognized according to the floor shape of each divided area, thereby reducing the error occurrence rate and improving the customer's reliability.
  • the sensing device of the present invention and the robot cleaner using the same may analyze or expand and analyze the analysis information of the surrounding divided area when a specific object or foreign object is recognized for each divided area of the depth map. Accordingly, it is possible to accurately determine foreign objects, objects (EI), obstacles, etc., thereby reducing malfunctions such as simple avoidance, thereby further improving customer satisfaction.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The present invention relates to a driving control device and a robot vacuum using same. The robot vacuum of the present invention detects current driving location information by checking consistency of a landmark an image of which is captured in a cleaning area, and accurately corrects the driving location information by reflecting a location error due to straight driving and rotational driving, thereby being able to correct the location error which gradually changes due to use environment.

Description

위치 보정 기능이 향상된 주행 제어장치 및 이를 이용한 로봇 청소기Driving controller with improved position correction function and robot cleaner using the same
본 발명은 주행 제어장치 및 이를 이용한 로봇 청소기에 관한 것이다.The present invention relates to a driving controller and a robot cleaner using the same.
로봇 청소기는 충전된 배터리를 동력원으로, 입력된 프로그램에 따라 바닥면의 주행 경로를 이동하면서 청소를 수행하는 자동 청소기이다. The robot cleaner is an automatic cleaner using a charged battery as a power source to perform cleaning while moving a driving path on the floor according to an input program.
로봇 청소기는 사용자가 직접 청소기를 끌고 다니면서 청소를 수행하는 기존의 청소 방법과는 달리, 내장된 프로그램에 따라 미리 설정된 경로를 주행하면서 청소 동작을 수행하도록 설계된다. 이와 같이, 로봇 청소기가 미리 설정된 경로를 자동 주행하면서 청소 동작을 수행할 수 있도록 하기 위해, 로봇 청소기에는 주행 거리 및 장애물 등을 감지하는 다양한 종류의 센서들이 적용된다. The robot cleaner is designed to perform a cleaning operation while driving a predetermined path according to a built-in program, unlike a conventional cleaning method in which a user performs a cleaning while dragging the cleaner directly. As such, in order to enable the robot cleaner to perform the cleaning operation while automatically driving the predetermined path, various types of sensors are applied to the robot cleaner to detect a driving distance and an obstacle.
또한, 미리 설정된 경로를 따라 청소하면서도 청소 경로에 가구 또는 벽과 같은 장애물이 존재하거나, 계단 등과 같이 평지보다 낮은 저지대가 존재하면 정상적인 주행이 어렵게 된다. 이를 감지하기 위해서도 초음파 방사 센서, 이미지 센서, 및 초음파 깊이 센서와 같은 다양한 센서들이 적용되고 있다. In addition, while cleaning along a preset path, if there is an obstacle such as furniture or a wall in the cleaning path or a low land lower than a flat surface such as a stairway, normal driving becomes difficult. In order to detect this, various sensors such as an ultrasonic radiation sensor, an image sensor, and an ultrasonic depth sensor are applied.
로봇 청소기의 센서들은 단순히 장애물을 감지하는 기능 외에, 청소 중인 상태에서 주행 경로와 자신의 위치를 확인하기 위해서도 사용된다. 즉, 로봇 청소기가 주행 중에 주변 사물과 충돌하거나 미끄러짐 등에 의해 경로를 이탈하여, 자신이 인지하고 있던 위치가 변경되는 경우에는 스스로 위치를 보정하기 위해서 센서들을 이용한다. In addition to simply detecting obstacles, the sensors of the robot cleaner are used to check the driving route and the position of the robot cleaner. That is, the robot cleaner uses sensors to correct the position by itself when the position recognized by the robot cleaner is separated from the path by colliding with the surrounding objects or sliding while driving.
한국 공개특허공보 제10-2006-0062607호(2006.06.12, 공개)는 로봇 청소기 본체에 구비된 광학 센서로 범퍼의 움직임, 충격, 뒤틀림, 및 이동거리를 파악해서 장애물 간의 거리와 위치를 다시 인식하도록 하는 기술을 개시하였다. 또한, 한국 공개특허공보 제10-2010-0100520호(2010.09.15, 공개)는 청소 대상 전체의 분할 영역을 촬영해서 전체 대상 영역의 지도를 작성하고, 지도를 토대로 위치를 보정하는 기술을 제시하였다. Korean Laid-Open Patent Publication No. 10-2006-0062607 (June 12, 2006) discloses an optical sensor provided in a robot cleaner main body to recognize a bumper's movement, impact, distortion, and moving distance to recognize the distance and position between obstacles again. Disclosed is a technique to allow. In addition, Korean Unexamined Patent Publication No. 10-2010-0100520 (Sept. 15, 2010) discloses a technique of photographing a divided region of the entire cleaning target to create a map of the entire target region and correcting the position based on the map. .
도 1은 종래 기술에 따른 로봇 청소기의 위치 보정 방식을 나타낸 도면이다. 1 is a view showing a position correction method of the robot cleaner according to the prior art.
구체적으로, 도 1은 한국 공개특허공보 제10-2010-0100520호(2010.09.15, 공개)에 개시된 위치 보정 기술을 설명하기 위해 제시된 도면이다. 도 1에 도시된 바와 같이, 종래에는 로봇 청소기(10)가 청소 대상 전체의 분할 영역에서 각각 촬영된 영상들의 특징점(Ec)을 매칭하여 점진적으로 지도를 작성하였다. 그리고 전체 분할 영역들의 공통된 특징점(Ec)을 모두 매칭시켜서 최종적으로 전체 대상 영역의 지도를 완성하고, 완성된 지도를 이용해서 자신의 위치 정보를 보정했다. Specifically, FIG. 1 is a view provided to explain the position correction technique disclosed in Korean Patent Laid-Open Publication No. 10-2010-0100520 (2010.09.15, published). As shown in FIG. 1, in the related art, the robot cleaner 10 gradually creates a map by matching the feature points Ec of the images photographed in the divided regions of the entire cleaning target. After matching all common feature points Ec of all divided regions, the map of the entire target region was finally completed, and the position information was corrected using the completed map.
하지만, 종래 기술에 따른 로봇 청소기(10)는 청소 공간에서 촬영된 특징점(Ec)들 간의 거리 정보에만 기반해서 지도를 작성하고 주행중인 위치를 검출했다. 따라서, 바닥 재질에 따른 미끄러짐이나 외력에 자체 위치가 점진적으로 가변되는 경우에는 점진적으로 가변하는 위치 오차를 검출하기 어려웠다. 그리고 점진적으로 가변된 오차는 자체적으로 보정할 수 없는 문제가 있었다. However, the robot cleaner 10 according to the related art creates a map and detects a driving position based only on distance information between the feature points Ec photographed in the cleaning space. Therefore, it is difficult to detect a gradually varying position error when the position itself gradually varies due to slip or external force depending on the floor material. And gradually variable error has a problem that can not be corrected by itself.
또한, 종래의 로봇 청소기(10)는 카펫 등의 바닥 부재나 애완동물 등에 의해 지속적으로 위치가 변경되거나, 한번에 큰 폭으로 가변되는 경우에는 다시 원래의 특징점들을 찾아서 위치를 보정하는데 어려움이 있었다. 이렇게, 로봇 청소기(10) 자체의 이동 정도나 충격량은 반영하지 못하고 주변의 특징점(Ec)들만 이용해서 위치를 보정하면, 갑작스러운 특징점 변동 상황에 용이하게 대처하지 못하는 문제가 있었다. In addition, the conventional robot cleaner 10 has a difficulty in correcting the position by finding the original feature points again when the position is continuously changed by a floor member such as a carpet, a pet, or the like, or when it is largely changed at one time. As such, if the position of the robot cleaner 10 itself is not reflected and the position is corrected using only the surrounding feature points Ec, the robot cleaner 10 cannot easily cope with the sudden feature point variation.
또한, 종래의 로봇 청소기(10)는 주변 상황이 변칙적으로 가변되거나 불규칙한 시간 간격으로 특정 위치에 장애물이 반복해서 배치되는 경우에는 지형지물과 주행 경로의 매칭 정확도가 저하되는 문제가 있었다. 즉, 변칙적으로 변화되는 주변 상황에 의해 장애물 감지가 잦아지면, 회피하는 경로 변경이 증가해서 경로 관리가 어려워지고, 청소 효율 또한 저하되는 문제가 있었다. In addition, the conventional robot cleaner 10 has a problem in that matching accuracy between a feature and a driving route is deteriorated when an obstacle is repeatedly arranged at a specific location at irregular or irregular time intervals. That is, when obstacle detection is frequently caused by anomalously changed surrounding conditions, there is a problem that path management to be avoided increases, making path management difficult, and cleaning efficiency is also lowered.
또한, 종래의 로봇 청소기(10)는 미리 설정된 기준 값 범위의 수준으로만 사물이나 이물을 감지해서 회피하도록 설정되어 있기 때문에 기울어진 영역이나 굴곡진 홈 부분에서의 사물 인식 정확성이 현저하게 저하되는 문제가 있었다. 다시말해, 종래의 로봇 청소기(10)에 적용된 사물 및 장애물 감지 방식은 바닥 평면에 따른 배경 값이나 기준 값 만을 기준으로만 이물이나 사물을 인식하였기 때문에 높낮이가 서로 다른 특정 영역들에서의 오류 발생률이 증가하는 문제가 있었다. 즉, 전체 평면 대비 높낮이가 서로 다른 특정 영역들을 저지대나 사물(EI)로 인식해서 회피해버리는 등의 오류 발생률이 높아지기 때문에 신뢰도를 저하시키는 문제가 있었다. In addition, since the conventional robot cleaner 10 is set to detect and avoid an object or a foreign object only at the level of a preset reference value range, the object recognition accuracy in the inclined area or the curved groove portion is remarkably degraded. There was. In other words, the object and obstacle detection method applied to the conventional robot cleaner 10 recognizes the foreign matter or the object only based on the background value or the reference value according to the floor plane, and thus the error occurrence rate in specific areas having different heights is increased. There was a growing problem. That is, there is a problem that the reliability is lowered because the error occurrence rate such as recognizing and avoiding specific areas having different heights and heights compared to the entire plane is increased.
또한, 종래의 사물 및 장애물 감지 방식은 하나의 바닥 평면 모델만 이용하기 때문에, 특정 사물(EI)이나 이물 등의 감지시 이를 이물이나 장애물로 판단하기 위한 비교 대상이 한정일 수밖에 없었다. 사실상 비교 대상이 기준 값으로만 한정되기 때문에, 판단 기준이 애매한 사물이나 이물이 감지되면 단순히 회피해버리거나 오작동을 일으켜 사용자 만족도를 저하시키는 문제가 있었다. In addition, since the conventional object and obstacle detection method uses only one floor planar model, a comparison object for determining a specific object (EI) or a foreign object, etc., as a foreign material or an obstacle may be limited. In fact, since the comparison target is limited only to a reference value, when an object or a foreign object having an ambiguous criterion is detected, there is a problem of simply avoiding or malfunctioning, thereby lowering user satisfaction.
본 발명은 청소 공간에서 촬영된 특징점들 간의 거리 정보와 자체의 위치 변화 오차를 실시간으로 반영해서 청소중인 주행 위치 정보를 정확하게 보정할 수 있는 주행 제어장치 및 이를 이용한 로봇 청소기를 제공하는 것을 목적으로 한다. SUMMARY OF THE INVENTION An object of the present invention is to provide a driving controller and a robot cleaner using the same, which accurately corrects driving position information during cleaning by reflecting distance information between characteristic points photographed in a cleaning space and a position change error thereof in real time. .
또한, 본 발명은 미끄러짐이나 외력에 따른 위치 변화와 외부 충격량을 정확하게 반영해서 자체 위치를 보정할 수 있도록 한다. 이에, 본 발명에서는 외부 환경 변화에 빠르게 대처할 수 있는 주행 제어장치 및 이를 이용한 로봇 청소기를 제공하는 것을 목적으로 한다. In addition, the present invention allows to correct its position by accurately reflecting the position change and the external impact amount according to the slip or external force. Accordingly, an object of the present invention is to provide a traveling control device and a robot cleaner using the same that can quickly cope with changes in the external environment.
또한, 본 발명은 충돌, 미끄러짐 등의 변칙적인 동작이 발생한 위치 정보와 현재 주행 중인 위치를 매칭시켜 모니터한다. 이에, 본 발명에서는 변칙적인 동작이 발생한 위치에서 주행 속도와 청소 방식에 변화를 주어 변칙 상황에 용이하게 대처할 수 있는 주행 제어장치 및 이를 이용한 로봇 청소기를 제공하는 것을 목적으로 한다. In addition, the present invention matches and monitors the current driving position with the position information where anomalous operation such as collision or slippage occurs. Accordingly, an object of the present invention is to provide a driving controller and a robot cleaner using the same, which can easily cope with an anomalous situation by changing a traveling speed and a cleaning method at a position where an anomalous operation occurs.
또한, 본 발명은 기울어진 영역이나 굴곡진 홈이 있는 영역에서도 이물과 사물을 명확하게 감지하고 구분할 수 있도록 한 로봇 청소기를 제공하는 것을 목적으로 한다. Another object of the present invention is to provide a robot cleaner capable of clearly detecting and distinguishing foreign objects and objects even in an inclined or curved grooved area.
또한, 본 발명은 깊이 맵으로 검출되는 감지 공간을 다수의 영역으로 분할 구분하고, 다수의 분할 영역별로 바닥면의 굴곡과 기울기를 정확하게 분석 및 판단할 수 있도록 한다. 이에, 분할 영역별 바닥 형상에 따라 이물과 사물, 저지대와 고지대를 명확하게 구분할 수 있도록 한 로봇 청소기를 제공하는 것을 목적으로 한다. In addition, the present invention divides the sensing space detected by the depth map into a plurality of areas, and enables to accurately analyze and determine the bending and inclination of the floor surface for each of the plurality of divided areas. Accordingly, an object of the present invention is to provide a robot cleaner capable of clearly distinguishing a foreign object and an object, a lowland area, and an highland area according to the floor shape of each divided area.
또한, 본 발명은 깊이 맵의 분할 영역별로 특정 사물이나 이물 등이 인지되면 주변의 다른 분할 영역 분석 정보와 비교해서 분석하거나, 특정 분할 영역을 확장시켜서 분석한다. 이에, 다수의 분할 영역 중 이물, 사물, 장애물 등이 감지되는 분할 영역에서의 감지 정확성을 더욱 높일 수 있는 로봇 청소기를 제공하는 것을 목적으로 한다. In addition, when a specific object or a foreign object is recognized for each divided area of the depth map, the present invention may be analyzed by comparing with other divided area analysis information of the surrounding area or by expanding the specific divided area. Accordingly, an object of the present invention is to provide a robot cleaner capable of further increasing the detection accuracy in a divided area in which foreign objects, objects, obstacles, etc. are detected among the plurality of divided areas.
본 발명의 주행 제어장치 및 이를 이용한 로봇 청소기는 청소 공간에서 촬영된 랜드마크의 정합성을 확인하여 현재의 주행 위치정보를 검출하고, 직진 주행 및 회전 주행에 따른 위치 오차를 반영하여 정확하게 주행 위치정보를 보정한다. The driving control apparatus and the robot cleaner using the same of the present invention detect the current driving position information by checking the consistency of the landmarks photographed in the cleaning space, and accurately reflect the driving position information by reflecting the position error due to the straight running and the rotating driving. Correct.
또한, 로봇 청소기가 이동함에 따라 발생할 수 있는 불확실성 위치 오차 정보를 회전 주행 모션 및 직진 주행 모션에 기반해서 검출한다. 이에, 모션 기반으로 검출된 불확실성 위치 정보를 주행 위치정보에 반영해서 주행 위치정보를 보정할 수 있다. 이와 더불어, 충돌이나 미끄러짐 등에 따른 충돌 가속도 정보를 실시간으로 검출하여, 검출된 충돌 가속도 정보 또한 주행 위치정보에 반영해서 주행 위치정보를 보정할 수 있다.  In addition, uncertainty position error information that may occur as the robot cleaner moves is detected based on the rotation driving motion and the straight driving motion. Accordingly, the driving position information may be corrected by reflecting the uncertainty position information detected based on the motion in the driving position information. In addition, it is possible to correct collision acceleration information due to collision or slip in real time, and reflect the detected collision acceleration information to the driving position information to correct the driving position information.
또한, 주행 위치정보 보정 정도와 위치에 기반해서 청소 중에 발생된 변칙적인 동작 발생 위치를 실시간으로 확인하고 저장한다. 실시간으로 보정되는 주행 위치정보를 확인하여 청소기가 변칙적인 동작 발생 위치에 인접했을 때는 주행 속도와 청소 방식이 변화되도록 한다. Also, based on the degree and position of the correction of the driving position information, anomalous motion occurrence position generated during cleaning is checked and stored in real time. By checking the driving position information corrected in real time, when the cleaner is adjacent to the anomalous motion occurrence position, the driving speed and the cleaning method are changed.
또한, 본 발명의 로봇 청소기는 촬상 모듈 등이 구비된 적어도 하나의 평면 거리 감지부를 통해 촬상 범위에 따른 깊이 맵을 생성한다. 그리고 촬상 범위의 깊이 맵을 다수의 영역으로 분할해서 분할 영역별로 분석할 수 있도록 한다. In addition, the robot cleaner of the present invention generates a depth map according to an imaging range through at least one plane distance sensing unit provided with an imaging module. The depth map of the imaging range is divided into a plurality of areas so that the analysis can be performed for each divided area.
또한, 본 발명의 로봇 청소기는 다수의 영역으로 분할된 분할 영역별로 평면 방정식, 비평면 및 기울기 분석 알고리즘, 비평면 높이 분석 알고리즘 등의 알고리즘을 이용해서 평면, 비평면, 기울기 정도를 분석 및 판단한다. 그리고 판단된 평면, 비평면, 기울기 정보 등을 기준으로 비평면 높이, 장애물, 저지대, 고지대 위치 정보를 검출할 수 있도록 한다. In addition, the robot cleaner of the present invention analyzes and determines the degree of plane, non-plane, and inclination using algorithms such as planar equations, non-planar and inclination analysis algorithms, and non-planar height analysis algorithms for each divided area divided into a plurality of areas. . And based on the determined plane, non-plane, slope information, etc., it is possible to detect the non-plane height, obstacles, low ground, high-altitude position information.
또한, 본 발명의 로봇 청소기는 깊이 맵의 분할 영역별로 특정 사물이나 이물 등이 인지되면, 해상도 및 깊이 값 확장 알고리즘을 이용해 확장된 값들로 주변 분할 영역의 분석 정보와 비교하고 확인되도록 한다. 그리고 이물, 사물, 장애물 등으로 판단된 위치 좌표 정보를 실시간으로 산출해서 주행 경로가 가변 또는 유지될 수 있도록 제어한다. In addition, when the robot cleaner of the present invention recognizes a specific object or a foreign object for each divided region of the depth map, the robot cleaner compares and confirms the analysis information of the surrounding divided region with the expanded values using the resolution and depth value expansion algorithm. In addition, the position coordinate information determined as a foreign object, an object, an obstacle, etc. is calculated in real time to control the driving route to be variable or maintained.
본 발명의 주행 제어장치 및 이를 이용한 로봇 청소기는 직진 및 회전 주행에 따른 오차를 실시간으로 반영해서 로봇 청소기의 주행 위치정보를 보정함으로써, 사용 환경에 의해 점진적으로 가변되는 위치 오차를 바로잡을 수 있다. The driving control apparatus and the robot cleaner using the same of the present invention may correct the driving position information of the robot cleaner by reflecting the error according to the straight and rotational driving in real time, thereby correcting the position error gradually changed by the use environment.
또한, 본 발명의 주행 제어장치 및 이를 이용한 로봇 청소기는 모션 기반으로 검출된 불확실성 위치 정보와 충돌 가속도 정보를 반영해서 주행 위치정보를 보정함으로써, 큰 외력이나 갑작스러운 충격에도 빠르게 원상 복귀할 수 있다. In addition, the driving control apparatus of the present invention and the robot cleaner using the same may quickly return to the original position even with a large external force or sudden impact by correcting the driving position information by reflecting the uncertainty position information and the collision acceleration information detected on the basis of motion.
또한, 본 발명의 주행 제어장치 및 이를 이용한 로봇 청소기는 충돌, 미끄러짐 등의 변칙적인 동작이 발생한 위치 정보와 현재 주행 중인 위치를 실시간으로 매칭시켜 모니터할 수 있다. 이에, 변칙적인 동작이 발생한 위치에서 주행 속도와 청소 방식에 변화를 주어 변칙 상황에 용이하게 대처함으로써, 사용자 만족도와 신뢰성을 향상시킬 수 있다. In addition, the driving control apparatus of the present invention and the robot cleaner using the same may monitor in real time by matching the position information in which the anomalous operation such as a collision, slip, and the like currently running position. Thus, by changing the running speed and the cleaning method at the position where the anomalous operation occurs, the user's satisfaction and reliability can be improved by easily coping with the anomalous situation.
또한, 본 발명의 로봇 청소기는 깊이 맵을 다수의 영역으로 분할해서 서로 비교 분석한다. 이에, 기울어진 영역이나 굴곡진 홈이 있는 영역에서도 이물과 사물을 명확하게 구분할 수 있도록 하는 등 사물 감지 기능을 향상시킬 수 있는 효과가 있다. In addition, the robot cleaner of the present invention divides the depth map into a plurality of regions and compares them with each other. Thus, there is an effect that can improve the object detection function, such as to be able to clearly distinguish between the foreign object and the object in the inclined region or the curved groove region.
또한, 본 발명의 로봇 청소기는 분할 영역별로 바닥면의 굴곡과 기울기를 정확하게 분석 및 판단한다. 이에, 분할 영역별 바닥 형상에 따라 이물과 사물, 저지대와 고지대를 정확하게 인식할 수 있도록 하여 오류 발생률을 낮추고 고객의 신뢰성을 향상시킬 수 있다. In addition, the robot cleaner of the present invention accurately analyzes and determines the bending and inclination of the bottom surface for each divided area. Therefore, it is possible to accurately recognize foreign objects, objects, lowlands and highlands according to the floor shape of each divided area, thereby reducing the error occurrence rate and improving customer reliability.
또한, 본 발명의 감지 장치 및 이를 이용한 로봇 청소기는 깊이 맵의 분할 영역별로 특정 사물이나 이물 등이 인지되면 주변 분할 영역의 분석 정보와 비교하거나 확장시켜 분석한다. 이에 따라, 이물, 사물, 장애물 등을 정확하게 판단할 수 있도록 하여 단순 회피 등의 오작동을 감소시켜 고객 만족도를 더욱 향상시킬 수 있다. In addition, the sensing device of the present invention and the robot cleaner using the same may compare or expand the analysis information of the surrounding divided area when a specific object or a foreign object is recognized for each divided area of the depth map. Accordingly, it is possible to accurately determine foreign objects, objects, obstacles, and the like, thereby reducing malfunctions such as simple avoidance, thereby further improving customer satisfaction.
도 1은 종래 기술에 따른 로봇 청소기의 위치 보정 방식을 나타낸 도면이다. 1 is a view showing a position correction method of the robot cleaner according to the prior art.
도 2는 본 발명의 실시 예에 따른 주행 제어장치가 구비된 로봇 청소기를 구체적으로 나타낸 도면이다. 2 is a view showing in detail a robot cleaner equipped with a driving control apparatus according to an embodiment of the present invention.
도 3은 본 발명의 주행 제어장치를 구체적으로 나타낸 구성 블록도이다. 3 is a block diagram showing in detail the driving control apparatus of the present invention.
도 4는 도 3의 위치 보정부를 구체적으로 나타낸 구성 블록도이다. 4 is a block diagram illustrating in detail the position corrector of FIG. 3.
도 5는 도 4에 도시된 현재위치 검출부의 주행 위치 검출 방법을 설명하기 위한 도면이다. 5 is a view for explaining a driving position detection method of the current position detection unit shown in FIG.
도 6은 도 4에 도시된 속도 검출 보정부와 충돌 가속도 적용부에서의 위치 정보 보정 방법을 설명하기 위한 도면이다. FIG. 6 is a diagram for describing a method of correcting position information in the speed detection correcting unit and the collision acceleration applying unit illustrated in FIG. 4.
도 7은 본 발명의 다른 실시 예에 따른 감지장치가 구비된 로봇 청소기를 구체적으로 나타낸 구성 블록도이다. FIG. 7 is a block diagram illustrating in detail a robot cleaner equipped with a sensing device according to another exemplary embodiment. Referring to FIG.
도 8은 도 7에 도시된 적어도 하나의 평면 거리 감지부가 구성된 로봇 청소기의 바닥면을 나타낸 구성도이다. FIG. 8 is a diagram illustrating a bottom surface of a robot cleaner configured with at least one planar distance detector illustrated in FIG. 7.
도 9는 도 8에 도시된 영상 처리부의 깊이 맵 정보 분할 방법을 설명하기 위한 도면이다. FIG. 9 is a diagram for describing a method of dividing depth map information of an image processor illustrated in FIG. 8.
도 10는 도 8에 도시된 영상 분석부를 구체적으로 나타낸 구성 블록도이다. FIG. 10 is a block diagram illustrating in detail the image analyzer illustrated in FIG. 8.
도 11은 도 10에 도시된 영상 분석부의 분할 영역 비교 및 분석 방법을 설명하기 위한 도면이다. FIG. 11 is a diagram illustrating a segmentation area comparison and analysis method of the image analyzer illustrated in FIG. 10.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다. The above objects, features, and advantages will be described in detail with reference to the accompanying drawings, whereby those skilled in the art to which the present invention pertains may easily implement the technical idea of the present invention. In describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to indicate the same or similar components.
이하, 본 발명의 실시예에 따른 위치 보정 기능이 향상된 주행 제어장치 및 이를 이용한 로봇 청소기에 관하여 구체적으로 설명한다. Hereinafter, the driving control apparatus and the robot cleaner using the improved position correction function according to an embodiment of the present invention will be described in detail.
도 2는 본 발명의 실시 예에 따른 주행 제어장치가 구비된 로봇 청소기를 구체적으로 나타낸 도면이다. 2 is a view showing in detail a robot cleaner equipped with a driving control apparatus according to an embodiment of the present invention.
도 2를 참조하면, 로봇 청소기(RC)는 외관을 형성하는 케이스(140), 케이스(140)의 외측면에 대응되도록 배치되어, 적어도 하나씩의 발신부와 수신부로 구성되는 거리 검출모듈(120)을 포함한다 이때, 케이스(140)는 소정 높이를 갖는 원형의 디스크 형상으로 형성될 수 있다. Referring to FIG. 2, the robot cleaner RC is disposed so as to correspond to a case 140 and an outer surface of the case 140 forming an appearance, and includes a distance detecting module 120 including at least one transmitter and a receiver. In this case, the case 140 may be formed in a circular disk shape having a predetermined height.
또한, 로봇 청소기(RC)는 동작 상태를 표시하는 표시부(160), 사용자로부터의 제어 명령이 입력되는 인터페이스부(150), 표시부(160) 및 인터페이스부(150)와 연계되어 로봇 청소기(RC)의 주행 경로를 제어하는 주행 제어장치를 포함한다. In addition, the robot cleaner RC is connected to the display unit 160 displaying an operation state, the interface unit 150 to which a control command from a user is input, the display unit 160 and the interface unit 150, and the robot cleaner RC. It includes a travel control device for controlling the travel path of the.
거리 검출모듈(120)은 로봇 청소기(RC)로부터 실내의 벽이나 장애물 등과의 거리를 감지하는 센서를 포함한다. 본 발명에서는 거리 검출모듈(120)에 적어도 하나의 초음파 센서가 구성된 예를 설명하기로 한다. The distance detection module 120 includes a sensor for detecting a distance from the robot cleaner RC to a wall or an obstacle in the room. In the present invention, an example in which at least one ultrasonic sensor is configured in the distance detection module 120 will be described.
거리 검출모듈(120)의 초음파 센서는 감지 공간 내에 미리 설정된 복수의 분할 포인트로 적외선 또는 초음파 신호를 송신 및 수신하여 복수의 분할 포인트별 거리 정보를 검출한다. 즉, 거리 검출모듈(120)은 초음파 신호를 송수신하여 감지하고 있는 청소 공간의 거리 정보를 산출할 수 있다. The ultrasonic sensor of the distance detection module 120 detects distance information for each of the plurality of split points by transmitting and receiving an infrared or ultrasonic signal to a plurality of split points preset in the sensing space. That is, the distance detection module 120 may calculate the distance information of the cleaning space that is detected by transmitting and receiving the ultrasonic signal.
케이스(140)의 적어도 일 방향으로는 외부 충돌 시 충격을 완충하는 범퍼(130)가 구비된다. 범퍼(130)에는 외부 충격에 대응되는 충돌 가속도 신호를 생성하는 충격 감지 센서가 구성된다. 이러한 충격 감지 센서는 외부 충격량에 따른 충돌 가속도 신호를 디지털 신호처리하여 충돌 가속도 정보를 생성하고, 충돌 가속도 정보를 주행 제어장치로 전송한다. At least one direction of the case 140 is provided with a bumper 130 that buffers an impact during an external collision. The bumper 130 is configured with a shock sensor for generating a collision acceleration signal corresponding to the external shock. The impact sensor generates collision acceleration information by digitally processing a collision acceleration signal according to an external impact amount, and transmits the collision acceleration information to the driving controller.
또한, 로봇 청소기(RC)는 청소 대상 영역이나 주행 영역의 영상을 촬영할 수 있도록 상측 전방부에 이미지 검출모듈(110)이 구비된다. 이미지 검출모듈(110)은 로봇 청소기가 이동하는 전방 및 상방의 영상을 촬영하도록 설치된다. 이미지 검출모듈(110)은 전방 및 상방으로 고정 설치될 수 있으며, 좌우 및 상하 방향으로 움직이도록 설치될 수도 있다. In addition, the robot cleaner RC is provided with an image detection module 110 in the upper front portion so as to capture an image of the cleaning target region or the driving region. The image detection module 110 is installed to capture images of the front and the upper side where the robot cleaner moves. The image detection module 110 may be fixedly installed forward and upward, and may be installed to move in left, right, and up and down directions.
이미지 검출모듈(110)은 적어도 하나의 깊이 센서(Depth Sensor)를 이용해서 감지 공간의 깊이 값 정보들을 산출한다. 이미지 검출모듈(110)은 적어도 하나의 깊이 센서를 통해 감지된 감지 공간의 깊이 값 정보를 디지털 신호 처리하여 주행 제어장치로 전송할 수 있다. 여기서, 깊이 센서는 깊이 센서 자체의 해상도에 따라 깊이 센서와 감지 공간 간의 거리 정보를 검출하는바, 이미지 센서나 3D 카메라가 이용될 수 있다. The image detection module 110 calculates depth value information of the sensing space using at least one depth sensor. The image detection module 110 may digitally process the depth value information of the sensing space detected by the at least one depth sensor and transmit the digital signal to the driving controller. Here, the depth sensor detects distance information between the depth sensor and the sensing space according to the resolution of the depth sensor itself, and an image sensor or a 3D camera may be used.
일 예로, CCD 이미지 센서, CMOS 이미지 센서, 및 3D 카메라는 촬상 대상으로부터 반사되어 나온 빛이 렌즈를 통과해 촬상 소자에 닿아 맺게 된 화상을 빛의 강약에 따라 전기 신호로 바꿔 아날로그의 전기 신호로 출력하게 된다. 이에, 이미지 검출모듈(110)은 적어도 하나의 깊이 센서를 통해 감지된 감지 공간의 깊이 값 정보를 디지털 신호 처리하여 순차적으로 주행 제어장치로 전송할 수 있다. For example, a CCD image sensor, a CMOS image sensor, and a 3D camera convert an image formed by light reflected from an imaging object through a lens to the imaging device and converts the image into an electrical signal according to the intensity of light, and outputs it as an analog electric signal. Done. Thus, the image detection module 110 may digitally process the depth value information of the sensing space detected by the at least one depth sensor and sequentially transmit the digital signal to the driving control apparatus.
이미지 검출모듈(110)을 통해 감지되는 공간들은 미리 설정된 해상도의 스크린상의 3차원 공간이 될 수 있다. 즉, 깊이 센서의 해상도에 따라 깊이 센서에서 거리 정보를 검출하는 공간으로서, 감지 공간은 깊이 센서의 해상도와 감지 가능 범위 등에 의해 설정될 수 있다. 이 예로, 감지 공간은 직사각형인 스크린의 형태에 대응되는 직육면체 형태로 구성될 수 있다. The spaces sensed by the image detection module 110 may be three-dimensional spaces on a screen having a preset resolution. That is, as a space for detecting distance information from the depth sensor according to the resolution of the depth sensor, the sensing space may be set by the resolution and the detectable range of the depth sensor. In this example, the sensing space may be configured in the form of a rectangular parallelepiped corresponding to the rectangular screen.
도 3은 본 발명의 주행 제어장치를 구체적으로 나타낸 구성 블록도이다. 3 is a block diagram showing in detail the driving control apparatus of the present invention.
전술한 바와 같이, 주행 제어장치는 표시부(160) 및 인터페이스부(150)와 연계되어 로봇 청소기(RC)에 내장된다. 이러한 주행 제어장치는 미리 설정된 주행 경로와 실시간으로 검출되는 위치 정보에 따라 주행 경로와 속도를 실시간으로 제어하고, 사용자 설정에 따라 전반적인 청소 옵션을 제어한다. As described above, the travel control device is embedded in the robot cleaner RC in association with the display unit 160 and the interface unit 150. The driving control device controls the driving path and the speed in real time according to the preset driving path and the position information detected in real time, and controls the overall cleaning option according to the user setting.
주행 제어장치는 외부 충격이나 미끄러운 바닥재 등에 의해 미리 설정된 주행 경로에서 이탈하거나 위치가 급변하는 경우, 자체 위치 정보를 실시간으로 보정하고 보정된 위치 정보에 맞게 청소 공간의 맵을 재설정한다. 그리고 재설정된 맵 정보와 위치 정보에 기반해서 원활한 청소 동작이 진행되도록 한다. The driving control device corrects its own location information in real time and resets the map of the cleaning space according to the corrected location information when the vehicle moves away from the preset driving path or suddenly changes position due to an external impact or slippery flooring. Then, based on the reset map information and the location information, a smooth cleaning operation is performed.
이를 위해, 본 발명의 주행 제어장치는 랜드마크 검출부(102), 위치 보정부(170), 및 주행 제어모듈(180)을 포함한다. To this end, the driving control apparatus of the present invention includes a landmark detector 102, a position correction unit 170, and a driving control module 180.
랜드마크 검출부(102)는 이미지 검출모듈(110)로부터의 깊이 값 정보들을 신호 처리하여 감지 공간의 깊이 맵을 생성하고, 깊이 맵을 분할하여 각 분할 영역별로 적어도 하나의 랜드마크를 추출한다. The landmark detection unit 102 processes the depth value information from the image detection module 110 to generate a depth map of the sensing space, splits the depth map, and extracts at least one landmark for each divided area.
구체적으로, 랜드마크 검출부(102)는 이미지 검출모듈(110)을 통해 입력되는 깊이 값 정보들을 필터링 하고 매 프레임 단위로 샘플링한 후, AD 변환해서 감지 공간에 대한 매 프레임별 깊이 맵을 생성한다. 그리고 거리 검출 모듈(120)을 통해 입력되는 감지 공간의 깊이 값 정보들을 신호 처리하여 감지 공간의 깊이 맵을 생성하기도 한다. 이에, 랜드마크 검출부(102)는 이미지 검출모듈(110)을 이용해서 생성된 매 프레임별 깊이 맵과 거리 검출 모듈(120)을 이용해서 생성된 매 프레임별 깊이 맵을 미리 설정된 동일 해상도로 매핑시키고 분할해서 위치 보정부(170)로 전송할 수 있다. 즉, 랜드마크 검출부(102)는 감지 공간의 깊이 값 정보들을 미리 설정된 해상도에 따라 매 프레임 단위로 신호 처리 및 배치하고, 복수의 분할 포인트별 거리 정보를 매칭시켜서 감지 공간의 깊이 맵을 생성할 수 있다. In detail, the landmark detector 102 filters depth value information input through the image detection module 110, samples every frame, and converts the AD to generate a depth map for each frame of the sensing space. The depth map of the sensing space may be generated by signal processing depth value information of the sensing space input through the distance detection module 120. Thus, the landmark detector 102 maps the depth map for each frame generated using the image detection module 110 and the depth map for each frame generated using the distance detection module 120 to the same resolution. The data may be divided and transmitted to the position corrector 170. That is, the landmark detector 102 may process and arrange the depth value information of the sensing space in every frame unit according to a preset resolution, and generate the depth map of the sensing space by matching the distance information of the plurality of divided points. have.
랜드마크 검출부(102)는 미리 설정된 해상도에 따라 서로 인접한 위치의 깊이 값 정보들을 비교하고 깊이 값 차이가 미리 설정된 기준 이상으로 큰 위치의 사물이나 모서리를 랜드마크로 설정한다. 구체적으로, 랜드마크 검출부(102)는 감지 공간의 깊이 값 정보들을 미리 설정된 해상도에 따라 배열했을 때, 서로 인접한 위치의 깊이 값 정보들을 비교하고 깊이 값 차이를 미리 설정된 기준과 비교한다. 그리고 비교된 깊이 값 차이가 미리 설정된 기준 이상으로 검출된 위치들의 사물들을 랜드마크로 설정할 수 있다. 이 경우에는 벽면에서 튀어나온 사물이나 모서리 또는 창문틀 등에서 깊이 값 차이가 커서, 벽면에서 튀어나온 사물이나 모서리 또는 창문틀 등이 랜드마크로 설정되기도 한다. The landmark detector 102 compares depth value information of adjacent positions with each other according to a preset resolution, and sets an object or an edge at a position where a difference in depth value is greater than a preset reference as a landmark. In detail, when the depth value information of the sensing space is arranged according to a preset resolution, the landmark detector 102 compares the depth value information of the positions adjacent to each other and compares the depth value difference with a preset reference. In addition, the objects of the locations where the detected difference in depth value is greater than or equal to a predetermined reference may be set as a landmark. In this case, the difference in depth value is large in an object, an edge, or a window frame that protrudes from the wall, and an object, an edge, or a window frame that protrudes from the wall may be set as a landmark.
위치 보정부(170)는 적어도 하나의 랜드마크와의 거리 정보를 이용해 실시간으로 주행 위치정보를 생성하고, 회전 및 주행 오차 정보와 불확실성 위치 오차 정보 및 충돌 가속도 정보를 이용해서 주행 위치정보를 보정한다. The position correction unit 170 generates driving position information in real time using distance information with at least one landmark, and corrects driving position information by using rotation and driving error information, uncertainty position error information, and collision acceleration information. .
구체적으로, 위치 보정부(170)는 감지 공간에서 촬영된 랜드마크의 정합성을 확인하여 현재 로봇 청소기(RC)의 주행 위치정보를 검출하고, 직진 주행 및 회전 주행에 따른 위치 오차를 반영하여 정확하게 주행 위치정보를 보정한다. 이를 위해, 위치 보정부(170)는 주행 위치정보의 보정은 로봇 청소기가 이동함에 따라 발생할 수 있는 불확실성 위치 오차 정보를 회전 주행 모션 및 직진 주행 모션에 기반해서 검출한다. 그리고 모션 기반으로 검출된 불확실성 위치 정보를 주행 위치정보에 반영해서 주행 위치정보를 보정한다. 이와 더불어, 위치 보정부(170)는 충돌이나 미끄러짐 등에 따른 충돌 가속도 정보를 실시간으로 검출하여, 검출된 충돌 가속도 정보 또한 주행 위치정보에 반영해서 주행 위치정보를 보정한다. 이러한 위치 보정부(170)의 주행 위치정보 보정 구조와 방법은 이후에 첨부된 도면을 참조하여 더욱 구체적으로 설명하기로 한다. Specifically, the position correction unit 170 detects the driving position information of the robot cleaner RC by checking the consistency of the landmark photographed in the sensing space, and accurately travels by reflecting the position error due to the straight running and the rotating driving. Correct the position information. To this end, the position correction unit 170 detects the uncertainty position error information that may be generated as the robot cleaner moves based on the rotation driving motion and the straight driving motion. The driving position information is corrected by reflecting the uncertainty position information detected based on the motion to the driving position information. In addition, the position correction unit 170 detects collision acceleration information according to a collision or slip in real time, and corrects the driving position information by reflecting the detected collision acceleration information in the driving position information. The driving position information correction structure and method of the position correction unit 170 will be described in more detail with reference to the accompanying drawings.
주행 제어모듈(180)은 위치 보정부(170)에서 보정된 주행 위치정보에 따라 재설정된 감지 공간의 깊이 맵을 이용해서 로봇 청소기의 주행 경로를 변경하고 청소 옵션 및 주행 속도를 제어한다. 이때, 주행 제어모듈(180)은 주행 위치정보 보정 정도와 위치에 기반해서 청소 중에 발생된 변칙적인 동작 발생 위치를 실시간으로 확인하고 저장한다. 그리고 실시간으로 보정되는 주행 위치정보를 확인하여 청소기가 변칙적인 동작 발생 위치에 인접했을 때는 주행 속도와 청소 방식이 변화되도록 할 수 있다. The driving control module 180 changes the driving path of the robot cleaner and controls the cleaning option and driving speed by using the depth map of the sensing space reset according to the driving position information corrected by the position corrector 170. At this time, the driving control module 180 checks and stores in real time an anomalous motion occurrence position generated during cleaning based on the degree and position of the driving position information correction. In addition, by checking the driving position information corrected in real time, when the cleaner is adjacent to the anomalous motion occurrence position, the driving speed and the cleaning method may be changed.
도 4는 도 3의 위치 보정부를 구체적으로 나타낸 구성 블록도이다. 4 is a block diagram illustrating in detail the position corrector of FIG. 3.
도 4에 도시된 위치 보정부(170)는 랜드 마크 정합부(171), 현재 위치 검출부(172), 속도 검출 보정부(173), 및 충돌 가속도 적용부(174)를 포함한다. The position correcting unit 170 illustrated in FIG. 4 includes a landmark matching unit 171, a current position detecting unit 172, a speed detecting correcting unit 173, and a collision acceleration applying unit 174.
구체적으로, 랜드 마크 정합부(171)는 각 분할 영역의 랜드마크를 정합하고 정합된 복수의 랜드마크와의 거리 정보에 따라 실시간으로 주행 위치정보를 산출한다. 구체적으로, 랜드 마크 정합부(171)는 각 분할 영역의 랜드마크들을 서로 매칭시켜 정합하는바, 현재 위치 검출부(172)에서는 현재 위치와 각 랜드 마크들 간의 깊이 값 정보에 따라 감지 공간 내에서의 주행 위치정보를 검출할 수 있다. In detail, the landmark matching unit 171 registers landmarks of each divided area and calculates driving position information in real time according to distance information of the matched plurality of landmarks. In detail, the landmark matching unit 171 matches and matches landmarks of each divided area, and the current position detection unit 172 may determine the location of each landmark in the sensing space according to the depth value information between the current position and each landmark. The driving position information can be detected.
현재 위치 검출부(172)는 정지 상태에서의 위치 정보 및 오차 정보를 상기 실시간으로 검출된 주행 위치정보에 반영하여 정지 상태에서의 위치 정보를 보정한다. The current position detector 172 corrects the position information in the stationary state by reflecting the position information and the error information in the stationary state to the driving position information detected in real time.
도 5는 도 4에 도시된 현재위치 검출부의 주행 위치 검출 방법을 설명하기 위한 도면이다. 5 is a view for explaining a driving position detection method of the current position detection unit shown in FIG.
도 5를 참조하면, 현재 위치 검출부(172)는 정지 상태의 위치 정보, 및 오차 정보를 이용해서 실시간으로 검출된 주행 위치정보에 반영한다. 여기서,
Figure PCTKR2019004003-appb-I000001
시점에서의 로봇 청소기 위치 정보 (
Figure PCTKR2019004003-appb-I000002
는 하기의 수학식 1을 통해 보정한다.
Referring to FIG. 5, the current position detector 172 reflects the driving position information detected in real time using the position information of the stationary state and the error information. here,
Figure PCTKR2019004003-appb-I000001
Robot cleaner location information at the time point
Figure PCTKR2019004003-appb-I000002
Is corrected through Equation 1 below.
[수학식 1] [Equation 1]
Figure PCTKR2019004003-appb-I000003
Figure PCTKR2019004003-appb-I000003
수학식 1에 적용된 vs는 로봇 청소기의 직진 속도이고, vt는 로봇 청소기의 회전 속도이다. 그리고
Figure PCTKR2019004003-appb-I000004
는 불확실성 오차를 포함하는 회전 속도이고,
Figure PCTKR2019004003-appb-I000005
는 불확실성 오차를 포함하는 직진 속도이다.
Vs applied to Equation 1 is the speed of the robot cleaner, vt is the rotation speed of the robot cleaner. And
Figure PCTKR2019004003-appb-I000004
Is the rotational speed, including the uncertainty error,
Figure PCTKR2019004003-appb-I000005
Is the speed straight forward including the uncertainty error.
불확실성 오차를 포함하는 회전 속도
Figure PCTKR2019004003-appb-I000006
, 및 불확실성 오차를 포함하는 직진 속도
Figure PCTKR2019004003-appb-I000007
는 하기의 수학식 2와 같이 정의된다.
Rotational speed with uncertainty error
Figure PCTKR2019004003-appb-I000006
Straightness including, and uncertainty errors
Figure PCTKR2019004003-appb-I000007
Is defined as in Equation 2 below.
[수학식 2][Equation 2]
Figure PCTKR2019004003-appb-I000008
Figure PCTKR2019004003-appb-I000008
여기서,
Figure PCTKR2019004003-appb-I000009
는 회전 속도 오차
Figure PCTKR2019004003-appb-I000010
를 포함하고,
Figure PCTKR2019004003-appb-I000011
Figure PCTKR2019004003-appb-I000012
를 포함한다.
here,
Figure PCTKR2019004003-appb-I000009
Rotation speed error
Figure PCTKR2019004003-appb-I000010
Including,
Figure PCTKR2019004003-appb-I000011
Is
Figure PCTKR2019004003-appb-I000012
It includes.
또한,
Figure PCTKR2019004003-appb-I000013
는 평균이 0이고 분산이 k인 속도의 오차이고,
Figure PCTKR2019004003-appb-I000014
는 회전속도 불확실성에 대한 회전 속도 가중치이다. 그리고
Figure PCTKR2019004003-appb-I000015
는 회전속도 불확실성에 대한 직진 속도 가중치이고,
Figure PCTKR2019004003-appb-I000016
는 직진속도 불확실성에 대한 회전 속도 가중치이다. 또한,
Figure PCTKR2019004003-appb-I000017
는 직진속도 불확실성에 대한 직진 속도 가중치이다.
Also,
Figure PCTKR2019004003-appb-I000013
Is the error of velocity with mean zero and variance k,
Figure PCTKR2019004003-appb-I000014
Is the rotation speed weight for the rotation speed uncertainty. And
Figure PCTKR2019004003-appb-I000015
Is the straight velocity weight for the rotational speed uncertainty,
Figure PCTKR2019004003-appb-I000016
Is the rotational speed weight for the straight-forward uncertainty. Also,
Figure PCTKR2019004003-appb-I000017
Is the straight velocity weight for the straight velocity uncertainty.
도 6은 도 4에 도시된 속도 검출 보정부와 충돌 가속도 적용부에서의 위치 정보 보정 방법을 설명하기 위한 도면이다. FIG. 6 is a diagram for describing a method of correcting position information in the speed detection correcting unit and the collision acceleration applying unit illustrated in FIG. 4.
도 6을 참조하면, 속도 검출 보정부(173)는 회전 및 주행 오차 정보와 불확실성 위치 오차 정보를 실시간으로 검출된 주행 위치정보에 반영하여 이동 상태에서의 위치 정보를 보정한다. Referring to FIG. 6, the speed detection correcting unit 173 corrects the position information in the moving state by reflecting the rotation and driving error information and the uncertainty position error information in the detected driving position information in real time.
구체적으로, 속도 검출 보정부(173)는 회전 및 주행 오차 정보(
Figure PCTKR2019004003-appb-I000018
,
Figure PCTKR2019004003-appb-I000019
)와 불확실성 위치 오차 정보(
Figure PCTKR2019004003-appb-I000020
,
Figure PCTKR2019004003-appb-I000021
)를 상기의 수학식 2를 이용해 실시간으로 검출된 주행 위치정보에 반영할 수 있다.
In detail, the speed detection correcting unit 173 includes rotation and driving error information (
Figure PCTKR2019004003-appb-I000018
,
Figure PCTKR2019004003-appb-I000019
) And uncertainty location error information (
Figure PCTKR2019004003-appb-I000020
,
Figure PCTKR2019004003-appb-I000021
) May be reflected in driving position information detected in real time using Equation 2 above.
도 6에서 VB는 정적인 상태에서 정적인 범위에서의 위치 보정 상태를 나타낸다. 그리고 VS 화살표는 충돌에 따른 위치 변화와 해당 변화에 따른 주행 위치정보 변환 폭을 나타낸다. In FIG. 6, VB represents a position correction state in a static range in a static state. In addition, the VS arrow indicates a change in position according to the collision and a conversion width of driving position information according to the change.
충돌 가속도 적용부(174)에서는 범퍼로부터의 충돌 가속도 정보를 속도 검출 보정부(173)에서 보정된 위치 정보에 반영하여 충돌 및 미끄러짐 상황에서의 위치 정보를 보정한다. The collision acceleration application unit 174 corrects the position information in the collision and slip situation by reflecting the collision acceleration information from the bumper to the position information corrected by the speed detection correcting unit 173.
구체적으로, 충돌 가속도 적용부(174)는 회전 및 주행 오차 정보(
Figure PCTKR2019004003-appb-I000022
,
Figure PCTKR2019004003-appb-I000023
)를 반영한 불확실성 위치 오차 정보(
Figure PCTKR2019004003-appb-I000024
,
Figure PCTKR2019004003-appb-I000025
)검출 수학식 2에 충돌 가속도 정보를 추가로 반영하여, 하기의 수학식 3에 제시된 바와 같이, 충돌 가속도 정보에 따라 주행 위치정보를 추가 보정한다.
Specifically, the collision acceleration application unit 174 is a rotation and driving error information (
Figure PCTKR2019004003-appb-I000022
,
Figure PCTKR2019004003-appb-I000023
) Uncertainty location error information (
Figure PCTKR2019004003-appb-I000024
,
Figure PCTKR2019004003-appb-I000025
) The collision acceleration information is further reflected in the detection equation 2, and as shown in Equation 3 below, the driving position information is further corrected according to the collision acceleration information.
[수학식 3][Equation 3]
Figure PCTKR2019004003-appb-I000026
Figure PCTKR2019004003-appb-I000026
여기서,
Figure PCTKR2019004003-appb-I000027
는 회전 방향 충돌 가속도 크기(>0) 대비 충돌 시간이 지속된 시간으로서, 회전 방향의 충돌 속도 변화량이다. 그리고
Figure PCTKR2019004003-appb-I000028
는 직진 방향 충돌 가속도 크기(>0) 대비 충돌 시간이 지속된 시간으로서, 직진 방향의 충돌 속도 변화량이다.
here,
Figure PCTKR2019004003-appb-I000027
Is the time duration of the collision time relative to the magnitude of the collision acceleration acceleration (> 0), and is the amount of change in the collision speed in the rotation direction. And
Figure PCTKR2019004003-appb-I000028
Is the time duration of the collision time compared to the magnitude of the straight collision acceleration (> 0), and is the amount of change in the collision velocity in the straight direction.
맵/위치 보정부(175)는 속도 검출 보정부(173) 또는 충돌 가속도 적용부(174)에서 보정된 주행 위치정보에 따라 현재 위치 대비 깊이 맵을 재설정하여 주행 제어모듈(180)로 전송한다. The map / position correction unit 175 resets the depth map with respect to the current position according to the driving position information corrected by the speed detection correction unit 173 or the collision acceleration application unit 174, and transmits it to the driving control module 180.
또한, 맵/위치 보정부(175)는 충돌 가속도 적용부(174)에서 충돌 가속도 정보에 따라 위치 정보가 보정된 위치를 변칙 동작이 발생한 위치로 설정하여 주행 제어모듈(180)로 전송한다. In addition, the map / position correction unit 175 sets the position where the position information is corrected according to the collision acceleration information in the collision acceleration application unit 174 as a position where the anomalous operation occurs, and transmits it to the driving control module 180.
이에, 주행 제어모듈(180)은 속도 검출 보정부(173) 또는 충돌 가속도 적용부(174)에서 보정된 주행 위치정보와 맵/위치 보정부(175)에서 설정된 변칙 동작이 발생한 위치 정보(CC)를 실시간으로 매칭시켜 모니터할 수 있다. 그리고 변칙 동작이 발생한 위치에서 주행 속도와 청소 방식이 가변되도록 로봇 청소기의 주행 모드를 제어할 수 있다. Thus, the driving control module 180 is the driving position information corrected by the speed detection correction unit 173 or the collision acceleration application unit 174 and the position information (CC) where the anomaly operation set by the map / position correction unit 175 has occurred. Can be monitored in real time. In addition, the driving mode of the robot cleaner may be controlled such that the traveling speed and the cleaning method are changed at the position where the anomalous operation occurs.
이상 전술한 바와 같이, 본 발명의 실시 예에 따른 주행 제어장치 및 이를 이용한 로봇 청소기(RC)는 직진 및 회전 주행에 따른 오차를 실시간으로 반영해서 로봇 청소기의 주행 위치정보를 보정할 수 있다. 이에, 로봇 청소기(RC)가 사용되고 있는 주변 환경의 영향으로 점진적으로 가변되는 위치 오차를 실시간으로 바로잡을 수 있다. As described above, the driving control apparatus and the robot cleaner RC using the same may correct the driving position information of the robot cleaner in real time by reflecting an error resulting from the straight and the rotation driving. Accordingly, the positional error that is gradually changed by the influence of the surrounding environment in which the robot cleaner RC is being used may be corrected in real time.
또한, 본 발명의 주행 제어장치 및 이를 이용한 로봇 청소기는 모션 기반으로 검출된 불확실성 위치 정보와 충돌 가속도 정보를 반영해서 주행 위치정보를 보정함으로써, 큰 외력이나 갑작스러운 충격에도 빠르게 원상 복귀할 수 있다. 그리고 본 발명의 주행 제어장치 및 이를 이용한 로봇 청소기는 충돌, 미끄러짐 등의 변칙적인 동작이 발생한 위치(CC) 정보와 현재 주행 중인 위치를 실시간으로 매칭시켜 모니터할 수 있다. 이에, 변칙적인 동작이 발생한 위치(CC)에서 주행 속도와 청소 방식에 변화를 주어 변칙 상황에 용이하게 대처함으로써, 사용자 만족도와 신뢰성을 향상시킬 수 있다. In addition, the driving control apparatus of the present invention and the robot cleaner using the same may quickly return to the original position even with a large external force or sudden impact by correcting the driving position information by reflecting the uncertainty position information and the collision acceleration information detected on the basis of motion. In addition, the driving control apparatus and the robot cleaner using the same of the present invention can monitor in real time by matching the position (CC) information in which anomalous operation such as collision, slip, and the like currently running position. Thus, by changing the running speed and the cleaning method at the position (CC) where the anomalous operation has occurred, it is possible to easily cope with the anomalous situation, thereby improving user satisfaction and reliability.
이상, 도 2 내지 도 6 및 그에 따른 상세한 설명의 기재에 도시된 도면 부호는 도 2 내지 도 6 및 그에 따른 상세한 설명의 기재로만 국한된다. In the above, reference numerals shown in the description of FIGS. 2 to 6 and detailed descriptions thereof are limited to the descriptions of FIGS. 2 to 6 and detailed descriptions thereof.
다음의 실시예에 따른 도 7 내지 도 11 및 그에 따른 상세한 설명에 도시된 도면부호는 도 7 내지 도 11 및 그에 따른 상세한 설명의 기재로만 국한된다. Reference numerals shown in FIGS. 7 to 11 and detailed descriptions according to the following embodiments are limited only to descriptions of FIGS. 7 to 11 and detailed descriptions according to the following embodiments.
도 7은 본 발명의 다른 실시 예에 따른 감지장치가 구비된 로봇 청소기를 구체적으로 나타낸 구성 블록도이다. 그리고 도 8은 도 7에 도시된 적어도 하나의 평면 거리 감지부가 구성된 로봇 청소기의 바닥면을 나타낸 구성도이다. FIG. 7 is a block diagram illustrating in detail a robot cleaner equipped with a sensing device according to another exemplary embodiment. Referring to FIG. 8 is a block diagram illustrating a bottom surface of the robot cleaner configured with at least one planar distance detector illustrated in FIG. 7.
먼저, 도 7을 참조하면, 감지 장치는 적어도 하나의 평면 거리 감지부(100), 영상 처리부(200), 영상 분석부(300), 회피 지원부(400)를 포함한다. First, referring to FIG. 7, the sensing apparatus includes at least one planar distance sensor 100, an image processor 200, an image analyzer 300, and an evasion supporter 400.
도 7 및 도 8에 도시된 적어도 하나의 평면 거리 감지부(100)는 적어도 하나의 깊이 센서(Depth Sensor)를 이용해서 감지 공간의 깊이 값 정보들을 산출한다. 이를 위해, 각각의 평면 거리 감지부(100)는 적어도 하나의 촬상 모듈(110)과 송수신 모듈(120)을 더 포함할 수 있다. The at least one plane distance detector 100 illustrated in FIGS. 7 and 8 calculates depth value information of the sensing space using at least one depth sensor. To this end, each planar distance sensing unit 100 may further include at least one imaging module 110 and a transmission / reception module 120.
촬상 모듈(110)은 적어도 하나의 깊이 센서를 통해 감지된 감지 공간의 깊이 값 정보를 디지털 신호 처리하여 영상 처리부(200)로 전송할 수 있다. 여기서, 깊이 센서는 깊이 센서 자체의 해상도에 따라 깊이 센서와 감지 공간 간의 거리 정보를 검출하는 바, 이미지 센서나 3D 카메라가 이용될 수 있다. The imaging module 110 may digitally process the depth value information of the sensing space sensed by the at least one depth sensor and transmit the digital signal to the image processor 200. Here, the depth sensor detects distance information between the depth sensor and the sensing space according to the resolution of the depth sensor itself, and an image sensor or a 3D camera may be used.
일 예로, CCD 이미지 센서, CMOS 이미지 센서, 및 3D 카메라는 촬상 대상으로부터 반사되어 나온 빛이 렌즈를 통과해 촬상 소자에 닿아 맺게 된 화상을 빛의 강약에 따라 전기 신호로 바꿔 아날로그의 전기 신호로 출력하게 된다. 이러한, 촬상 모듈(110)은 적어도 하나의 깊이 센서를 통해 감지된 감지 공간의 깊이 값 정보를 디지털 신호 처리하여 순차적으로 영상 처리부(200)로 전송할 수 있다. For example, a CCD image sensor, a CMOS image sensor, and a 3D camera convert an image formed by light reflected from an imaging object through a lens to the imaging device and converts the image into an electrical signal according to the intensity of light, and outputs it as an analog electric signal. Done. The imaging module 110 may digitally process the depth value information of the sensing space sensed by the at least one depth sensor and sequentially transmit the digital signal to the image processor 200.
각각의 촬상 모듈(110)을 통해 감지되는 공간들은 미리 설정된 해상도의 스크린 상의 3차원 공간이 될 수 있다. 즉, 깊이 센서의 해상도에 따라 깊이 센서에서 거리 정보를 검출하는 공간으로서, 감지 공간은 깊이 센서의 해상도와 감지 가능 범위 등에 의해 설정될 수 있다. 이 예로, 감지 공간은 직사각형인 스크린의 형태에 대응되는 직육면체 형태로 구성될 수 있다. The spaces sensed through each imaging module 110 may be three-dimensional spaces on a screen having a preset resolution. That is, as a space for detecting distance information from the depth sensor according to the resolution of the depth sensor, the sensing space may be set by the resolution and the detectable range of the depth sensor. In this example, the sensing space may be configured in the form of a rectangular parallelepiped corresponding to the rectangular screen.
송수신 모듈(120)은 감지 공간 내에 미리 설정된 복수의 분할 포인트로 적외선 또는 초음파 신호를 송신 및 수신하여 복수의 분할 포인트별 거리 정보를 검출한다. 즉, 촬상 모듈(110)을 통해 감지 공간의 깊이 정보를 검출하는 방식과 달리, 송수신 모듈(120)은 적외선 또는 초음파 신호를 송수신하여 감지 공간의 깊이 정보를 산출할 수 있다. The transmission / reception module 120 detects distance information for each of the plurality of division points by transmitting and receiving an infrared or ultrasonic signal to a plurality of division points preset in the sensing space. That is, unlike the method of detecting depth information of the sensing space through the imaging module 110, the transmission / reception module 120 may transmit and receive infrared or ultrasonic signals to calculate depth information of the sensing space.
송수신 모듈(120)은 복수의 분할 포인트별 거리 정보를 검출한 후, 복수의 분할 포인트별 거리 정보를 디지털 신호 처리하여 영상 처리부(200)로 전송한다. 이를 위해, 송수신 모듈(120)은 적외선 송수신 모듈이나 초음파 송수신 모듈 등을 구비할 수 있으며, 복수의 분할 포인트는 각 송수신 모듈의 송수신 포인트 위치와 해상도에 따라 N×M개의 포인트로 구분될 수 있다. 여기서, N과 M은 서로 동일하거나 다른 자연수이다. The transmission / reception module 120 detects the distance information for each of the plurality of split points, and then digitally processes the distance information for each of the divided points and transmits the digital signal to the image processor 200. To this end, the transmission / reception module 120 may include an infrared transmission / reception module or an ultrasonic transmission / reception module, and the plurality of splitting points may be divided into N × M points according to the location and resolution of transmission / reception point of each transmission / reception module. Where N and M are the same or different natural numbers.
송수신 모듈(120)은 촬상 모듈(110)과 달리 선택적으로 구성될 수 있다. 그렇지만, 본 발명에서는 깊이 맵 정보의 정확성을 높이기 위해, 촬상 모듈(110)을 통해 생성된 감지 공간의 깊이 정보와 송수신 모듈(120)을 통해 생성된 감지 공간의 깊이 정보를 미리 설정된 동일 해상도로 매핑시켜서 이용할 수 있다. The transmission / reception module 120 may be selectively configured unlike the imaging module 110. However, in the present invention, in order to increase the accuracy of the depth map information, the depth information of the sensing space generated through the imaging module 110 and the depth information of the sensing space generated through the transceiving module 120 are mapped to the same resolution. It can be used.
영상 처리부(200)는 촬상 모듈(110)을 통해 입력되는 감지 공간의 깊이 값 정보들을 신호 처리하여 감지 공간의 깊이 맵을 생성한다. 이때, 영상 처리부(200)는 촬상 모듈(110)을 통해 입력되는 깊이 값 정보들을 필터링 하고 매 프레임 단위로 샘플링한 후, AD 변환해서 감지 공간에 대한 매 프레임별 깊이 맵을 생성한다. 영상 처리부(200)는 매 프레임별 깊이 맵을 영상 분석부(300)로 바로 전송할 수 있다. The image processor 200 generates depth maps of the sensing space by signal processing depth value information of the sensing space input through the imaging module 110. In this case, the image processor 200 filters depth value information input through the imaging module 110, samples every frame, and converts the AD to generate a depth map for each frame of the sensing space. The image processor 200 may directly transmit the depth map for each frame to the image analyzer 300.
또한, 영상 처리부(200)는 송수신 모듈(120)을 통해 입력되는 감지 공간의 깊이 값 정보들을 신호 처리하여 감지 공간의 깊이 맵을 생성하기도 한다. 이때는 마찬가지로 송수신 모듈(120)을 통해 입력되는 깊이 값 정보들을 필터링 하고 매 프레임 단위로 샘플링한 후, AD 변환해서 감지 공간에 대한 매 프레임별 깊이 맵을 생성한다. In addition, the image processor 200 may generate depth maps of the sensing space by signal processing depth value information of the sensing space input through the transmission / reception module 120. In this case, similarly, depth value information input through the transmission / reception module 120 is filtered, sampled every frame, and then AD converted to generate a depth map for each frame of the sensing space.
영상 처리부(200)는 촬상 모듈(110)을 이용해서 생성된 매 프레임별 깊이 맵과 송수신 모듈(120)을 이용해서 생성된 매 프레임별 깊이 맵을 미리 설정된 동일 해상도로 매핑시키고 분할해서 영상 분석부(300)로 전송할 수 있다. The image processor 200 maps and splits the depth map for each frame generated using the imaging module 110 and the depth map for each frame generated using the transmission / reception module 120 at the same resolution. 300 can be sent.
구체적으로, 영상 처리부(200)는 감지 공간의 깊이 값 정보들을 미리 설정된 해상도에 따라 매 프레임 단위로 신호 처리 및 배치하고, 복수의 분할 포인트별 거리 정보를 매칭시켜서 감지 공간의 깊이 맵을 생성하게 된다. 이때, 영상 처리부(200)는 감지 공간의 깊이 값 정보들을 미리 설정된 해상도에 따라 N×M개의 분할 영역 크기에 맞춰 배열한다. 또한, 영상 처리부(200)는 각각의 분할 영역별로 설정된 n×m개의 화소 배열 크기에 맞춰 배열함으로써 매 프레임 단위로 깊이 맵을 생성한다. 여기서, n과 m 또한 서로 동일하거나 다른 자연수이다. In detail, the image processor 200 may process and arrange the depth value information of the sensing space in every frame unit according to a preset resolution, and generate the depth map of the sensing space by matching the distance information for each of the plurality of split points. . In this case, the image processing unit 200 arranges depth value information of the sensing space according to N × M divided region sizes according to a preset resolution. In addition, the image processor 200 generates a depth map in units of frames by arranging them according to the size of n × m pixel arrays set for each divided region. Where n and m are also the same or different natural numbers.
이후, 영상 처리부(200)는 촬상 모듈(110)을 통해 생성된 깊이 맵과 송수신 모듈(120)을 통해 생성된 깊이 맵을 동일 해상도로 매핑시키고 분할 영역별로 분할해서 영상 분석부(300)로 전송한다. Subsequently, the image processor 200 maps the depth map generated through the imaging module 110 and the depth map generated through the transceiver module 120 to the same resolution, divides the image by the divided regions, and transmits the image to the image analyzer 300. do.
영상 분석부(300)는 영상 처리부(200)를 통해 입력된 감지 공간의 깊이 맵을 미리 설정된 복수의 영역으로 구분해서 분할 저장한다. 그리고 각각의 분할 영역별로 평균 값을 이용해 평면, 비평면, 기울기, 저지대, 고지대, 이물, 사물, 장애물 정보 중 적어도 하나의 정보를 생성한다. The image analyzer 300 divides and stores the depth map of the sensing space input through the image processor 200 into a plurality of preset regions. Then, at least one of flat, non-planar, slope, lowland, highlands, foreign objects, objects, and obstacle information is generated using an average value for each divided area.
구체적으로, 영상 분석부(300)는 N×M개의 분할 영역 크기 또는 복수의 분할 포인트에 따라 각각의 분할 영역별 깊이 값 정보들을 읽어들여서 저장한다. 그리고 복수의 분할 영역별로 n×m개의 화소에 각각 대응되는 깊이 값을 평균하여, 각 분할 영역별 평균 값 정보를 산출한다. In detail, the image analyzer 300 reads and stores depth value information of each divided region according to N × M divided region sizes or a plurality of divided points. Depth values corresponding to n x m pixels are averaged for each of the plurality of divided regions, and average value information for each divided region is calculated.
영상 분석부(300)는 각 분할 영역별 평균 값 정보를 매 프레임 단위로 평균하여, 감지 공간의 배경 값을 연산하고 각 분할 영역별로 평면 여부를 판단할 수 있다. 이러한, 영상 분석부(300)는 감지 공간의 배경 값과 각 분할 영역별 평균 값 정보를 비교하여 비평면으로 판단된 분할 영역의 비평면 높이 값, 및 기울기를 판단한다. 이에 따라, 영상 분석부(300)는 감지 공간의 배경 값, 비평면 높이 값, 및 기울기 중 적어도 하나를 기준으로 각 분할 영역내의 사물, 이물, 저지대, 고지대, 장애물을 판단할 수 있다. 이러한, 영상 분석부(300)의 세부 구성과 동작 특징은 이후에 첨부된 도면을 참조하여 더욱 구체적으로 설명하기로 한다. The image analyzer 300 may average the average value information for each divided area in every frame unit, calculate a background value of the sensing space, and determine whether the plane is flat for each divided area. The image analyzer 300 compares the background value of the sensing space with the average value information of each divided area and determines the non-planar height value and the slope of the divided area determined as the non-planar surface. Accordingly, the image analyzer 300 may determine an object, a foreign material, a low land, an high land, and an obstacle in each divided area based on at least one of a background value, a non-planar height value, and a slope of the sensing space. The detailed configuration and operation features of the image analyzer 300 will be described in more detail with reference to the accompanying drawings.
회피 지원부(400)는 영상 분석부(300)에서 검출된 평면, 비평면, 기울기, 저지대, 고지대, 이물, 사물, 장애물 정보 중 적어도 하나의 정보를 수신한다. 그리고 평면, 비평면, 기울기, 저지대, 고지대, 이물, 사물, 장애물 정보 중 적어도 하나의 정보에 대응되는 위치 좌표 정보를 생성 및 출력한다. 이에, 본 발명의 로봇 청소기는 진로 주행 제어기로 입력되는 평면, 비평면, 기울기, 저지대, 고지대, 이물, 사물, 장애물 정보 중 적어도 하나의 정보에 대응되는 위치 좌표 정보를 기반으로 주행 경로를 변경할 수 있다. The avoidance support unit 400 receives at least one piece of information of a plane, a non-plane, a slope, a low land, a high land, a foreign object, an object, and obstacle information detected by the image analyzer 300. And generating and outputting position coordinate information corresponding to at least one of plane, non-plane, slope, low land, high ground, foreign object, object, and obstacle information. Accordingly, the robot cleaner of the present invention may change the driving route based on the position coordinate information corresponding to at least one of the plane, non-plane, tilt, low ground, high ground, foreign object, object, and obstacle information input to the path driving controller. have.
도 9는 도 8에 도시된 영상 처리부의 깊이 맵 정보 분할 방법을 설명하기 위한 도면이다. FIG. 9 is a diagram for describing a method of dividing depth map information of an image processor illustrated in FIG. 8.
도 9를 참조하면, 영상 처리부(200)는 촬상 모듈(110)을 통해 입력되는 감지 공간의 깊이 값 정보들을 신호 처리하여 감지 공간의 깊이 맵을 생성한다. Referring to FIG. 9, the image processing unit 200 generates a depth map of a sensing space by signal processing depth value information of the sensing space input through the imaging module 110.
구체적으로, 영상 처리부(200)는 촬상 모듈(110)을 통해 입력되는 깊이 값 정보들을 필터링 하고 매 프레임 단위로 샘플링한 후, AD 변환한다. 그리고 감지 공간의 깊이 값 정보들을 미리 설정된 해상도에 따라 매 프레임 단위로 신호 처리 및 배치한다. 영상 처리부(200)는 매 프레임별 깊이 맵을 영상 분석부(300)로 바로 전송할 수도 있지만, 송수신 모듈(120)로부터 수신된 복수의 분할 포인트별 거리 정보를 추가로 매칭 시켜서 감지 공간의 깊이 맵을 생성할 수도 있다. In detail, the image processor 200 filters depth value information input through the imaging module 110, samples every frame, and performs AD conversion. The depth value information of the sensing space is signal processed and arranged in units of frames according to a preset resolution. Although the image processor 200 may directly transmit the depth map for each frame to the image analyzer 300, the depth map of the sensing space may be further matched by further matching the distance information for each of the divided points received from the transmission / reception module 120. You can also create
이를 위해, 영상 처리부(200)는 감지 공간의 깊이 값들을 미리 설정된 해상도에 따라 N×M개의 분할 영역 크기, 및 각 분할 영역별 n×m개의 화소 배열 크기에 맞춰 깊이 값들을 배열함으로써 매 프레임 단위로 깊이 맵을 생성한다. 이때, 영상 처리부(200)는 송수신 모듈(120)을 통해 입력되는 감지 공간의 깊이 값 정보들을 신호 처리하여 감지 공간의 깊이 맵을 별도로 생성한다. To this end, the image processor 200 arranges the depth values of the sensing spaces according to the N × M divided region sizes and the n × m pixel array sizes of each divided region according to a preset resolution. Create a depth map with. In this case, the image processor 200 separately processes depth value information of the sensing space input through the transmission / reception module 120 to generate a depth map of the sensing space.
이어, 영상 처리부(200)는 촬상 모듈(110)을 통해 생성된 깊이 맵과 송수신 모듈(120)을 통해 생성된 깊이 맵을 동일 해상도로 매핑시키고 분할 영역별로 분할해서 영상 분석부(300)로 전송한다. Subsequently, the image processor 200 maps the depth map generated through the imaging module 110 and the depth map generated through the transmission / reception module 120 to the same resolution, divides the image into the divided regions, and transmits the image to the image analyzer 300. do.
도 10는 도 8에 도시된 영상 분석부를 구체적으로 나타낸 구성 블록도이다. FIG. 10 is a block diagram illustrating in detail the image analyzer illustrated in FIG. 8.
도 10을 참조하면, 영상 분석부(300)는 영역 분할부(310), 평면 방정식 연산부(320), 평면 판단부(330), 비평면 높이 판단부(340), 사물 및 이물 정보 판단부(350)를 포함한다. Referring to FIG. 10, the image analyzer 300 may include an area divider 310, a plane equation calculator 320, a plane determiner 330, a non-plane height determiner 340, and an object and foreign material information determiner ( 350).
구체적으로, 영역 분할부(310)는 N×M개의 분할 영역 크기 또는 복수의 분할 포인트에 각각 대응되도록 각 분할 영역별 깊이 값 정보들을 읽어들여 저장한다. 이때, 영역 분할부(310)는 N×M개의 분할 영역별로 복수의 분할 포인트에 각각 대응되도록 n××m개의 화소 배열 크기에 대응되는 각각의 깊이 값들을 읽어들여 저장한다. 이와 동시에, N×M개의 분할 영역에 포함된 각각의 분할 포인트별 깊이 값 정보들을 읽어들여 저장한다. In detail, the region dividing unit 310 reads and stores depth value information of each divided region to correspond to N × M divided region sizes or a plurality of divided points, respectively. In this case, the area dividing unit 310 reads and stores depth values corresponding to n ×× m pixel array sizes so as to correspond to a plurality of division points for each N × M division area. At the same time, depth value information for each partition point included in the N × M partition areas is read and stored.
평면 방정식 연산부(320)는 N×M개의 분할 영역별로 각각 n×m개의 화소에 각각 대응되는 깊이 값을 평균 냄으로써, 각 분할 영역별 평균 값 정보를 산출한다. 여기서, 평면 방정식은 N×M개의 분할 영역 각각에 포함된 깊이 값 평균을 구하기 위한 식이 될 수 있다. 평면 방정식 연산부(320)는 복수의 분할 영역별 각각의 평균 깊이 값을 평면 판단부(330)로 전송한다. The plane equation calculator 320 calculates average value information for each divided region by averaging depth values corresponding to n × m pixels for each of the N × M divided regions. Here, the planar equation may be an equation for obtaining an average of depth values included in each of the N × M divided regions. The plane equation calculator 320 transmits the average depth values of the plurality of divided regions to the plane determiner 330.
평면 판단부(330)는 각각의 분할 영역별 깊이 평균 값 정보를 전체 프레임 단위로 평균 냄으로써, 감지 공간의 배경 값을 연산한다. 그리고 감지 공간의 배경 값에 대비해서 각 분할 영역별로 평면 여부를 판단한다. The plane determination unit 330 calculates the background value of the sensing space by averaging the depth average value information of each divided area in the whole frame unit. In addition, it is determined whether or not each plane is flat for the background value of the sensing space.
비평면 높이 판단부(340)는 평면 판단부(330)에서 비평면으로 판단된 분할 영역에 대한 높이 값과 기울기 등을 판단한다. 구체적으로, 비평면 높이 판단부(340)는 감지 공간의 배경 값과 각 분할 영역별 평균 값 정보를 비교한다. 그리고 비평면으로 판단된 분할 영역의 비평면 높이 값과 배경 값을 N×M개의 화소 단위로 비교하여 비평면으로 판단된 분할 영역에 대한 높이 값과 기울기를 검출한다. The non-planar height determination unit 340 determines the height value and the slope of the divided area determined as the non-plane by the plane determination unit 330. In detail, the non-planar height determining unit 340 compares the background value of the sensing space with the average value information for each divided area. The non-planar height value and the background value of the divided region determined as the non-planar are compared in units of N × M pixels, and the height value and the slope of the divided region determined as the non-planar are detected.
사물 및 이물 정보 판단부(350)는 각각의 분할 영역별 깊이 평균 값과 감지 공간의 배경 값, 비평면 높이 값, 및 기울기를 서로 비교 분석한다. 그리고 각각의 분할 영역별 깊이 평균 값과 감지 공간의 배경 값, 비평면 높이 값, 및 기울기 중 적어도 하나를 기준으로 각 분할 영역내의 사물, 이물, 저지대, 고지대, 장애물을 판단한다. The object and foreign material information determiner 350 compares the depth average value of each divided area with the background value, the non-planar height value, and the slope of the sensing space. Objects, foreign objects, lowlands, highlands, and obstacles in each divided region are determined based on at least one of a depth average value of each divided region, a background value of the sensing space, a non-planar height value, and a slope.
도 11은 도 10에 도시된 영상 분석부의 분할 영역 비교 및 분석 방법을 설명하기 위한 도면이다. FIG. 11 is a diagram illustrating a segmentation area comparison and analysis method of the image analyzer illustrated in FIG. 10.
도 11을 참조하면, 먼저 비평면 높이 판단부(340)는 감지 공간의 배경 값과 각 분할 영역별 평균 값 정보를 비교한다. 그리고 비평면으로 판단된 분할 영역의 비평면 높이 값과 배경 값을 N×M개의 화소 단위로 비교하여 비평면으로 판단된 분할 영역에 대한 높이 값과 기울기를 검출한다. Referring to FIG. 11, first, the non-planar height determination unit 340 compares the background value of the sensing space with the average value information for each divided region. The non-planar height value and the background value of the divided region determined as the non-planar are compared in units of N × M pixels, and the height value and the slope of the divided region determined as the non-planar are detected.
비평면 높이 판단부(340)는 각 분할 영역별 평균 값 정보, 각 분할 영역에 포함된 n×m개의 화소에 각각 대응되는 깊이 값, 또는 n×m개의 분할 포인트별 깊이 값을 비교할 수 있다. 이에, 평균 값 대비 미리 설정된 적어도 하나의 깊이 값 비교 결과가 미리 설정된 기준 거리 미만이면 평면으로 판단하고, 미리 설정된 이상이면 비평면으로 판단할 수 있다. The non-planar height determiner 340 may compare average value information for each divided area, depth values corresponding to n × m pixels included in each divided area, or depth values for n × m divided points. Thus, when the result of comparing the at least one depth value preset with respect to the average value is less than the preset reference distance, it may be determined as a plane, and when it is above the preset value, it may be determined as non-planar.
또한, 사물 및 이물 정보 판단부(350)는 각 분할 영역별 비평면 높이 값, 및 기울기를 서로 인접한 적어도 하나의 다른 분할 영역의 비평면 높이 값, 및 기울기(화살표 방향의 기울기) 값과 비교한다. 그리고 서로 비교된 차이 결과에 따라 각 분할 영역내의 사물(EI), 이물, 저지대, 고지대, 장애물을 판단할 수 있다. In addition, the object and foreign material information determiner 350 compares the non-planar height value of each divided area, the slope, and the non-planar height value of at least one other divided area adjacent to each other, and the slope (tilt in arrow direction) value. . In addition, objects EI, foreign objects, lowlands, highlands, and obstacles in each divided region may be determined based on the difference result compared with each other.
이때, 사물 및 이물 정보 판단부(350)는 복수의 분할 영역 중 적어도 둘 이상의 분할 영역을 선택하여, 선택된 둘 이상의 분할 영역에 대한 평균 값, 비평면 높이 값, 및 상기 기울기 값을 미리 설정된 비율로 확대할 수 있다. 이에 따라, 사물 및 이물 정보 판단부(350)는 선택적으로 확대된 둘 이상의 분할 영역에 대한 평균 값, 비평면 높이 값, 및 기울기 값을 다른 분할 영역의 확대된 비평면 높이 값, 및 기울기 값과 비교할 수 있다. 이렇게 확대 비교된 차이 결과에 따라 사물 및 이물 정보 판단부(350)는 각 분할 영역내의 사물(EI), 이물, 저지대, 고지대, 장애물을 정확하게 판단할 수 있다. At this time, the object and foreign material information determination unit 350 selects at least two or more divided areas of the plurality of divided areas, and sets the average value, the non-planar height value, and the inclination value for the two or more selected divided areas at a preset ratio. You can zoom in. Accordingly, the object and foreign material information determination unit 350 may convert the average value, the non-planar height value, and the slope value of the two or more divided regions that are selectively enlarged into the enlarged non-planar height value and the slope value of the other divided region. Can be compared. According to the result of the enlarged and compared difference, the object and the foreign material information determination unit 350 may accurately determine the object EI, the foreign material, the low land, the high land, and the obstacle in each divided area.
이상, 전술한 바와 같이 본 발명의 감지 장치 및 이를 이용한 로봇 청소기는 깊이 맵을 다수의 영역으로 분할해서 서로 비교 분석할 수 있다. 이에, 기울어진 영역이나 굴곡진 홈이 있는 영역에서도 이물과 사물(EI)을 명확하게 구분할 수 있도록 하는 등 사물 감지 기능을 향상시킬 수 있다. As described above, the sensing device of the present invention and the robot cleaner using the same may compare and analyze the depth map by dividing the depth map into a plurality of regions. Accordingly, the object sensing function may be improved by clearly distinguishing the foreign material from the object EI even in an inclined area or a curved groove area.
또한, 본 발명의 감지 장치 및 이를 이용한 로봇 청소기는 분할 영역별로 바닥면의 굴곡과 기울기를 정확하게 분석 및 판단할 수 있다. 이에, 분할 영역별 바닥 형상에 따라 이물과 사물(EI), 저지대와 고지대를 정확하게 인식할 수 있도록 하여 오류 발생률을 낮추고 고객의 신뢰성을 향상시킬 수 있다. In addition, the sensing device of the present invention and the robot cleaner using the same can accurately analyze and determine the curvature and the inclination of the floor for each divided area. Accordingly, the foreign material and the object EI, the lowland and the highland can be accurately recognized according to the floor shape of each divided area, thereby reducing the error occurrence rate and improving the customer's reliability.
또한, 본 발명의 감지 장치 및 이를 이용한 로봇 청소기는 깊이 맵의 분할 영역별로 특정 사물이나 이물 등이 인지되면 주변 분할 영역의 분석 정보와 비교하거나 확장시켜 분석할 수 있다. 이에 따라, 이물, 사물(EI), 장애물 등을 정확하게 판단할 수 있도록 하여 단순 회피 등의 오작동을 감소시켜 고객 만족도를 더욱 향상시킬 수 있다. In addition, the sensing device of the present invention and the robot cleaner using the same may analyze or expand and analyze the analysis information of the surrounding divided area when a specific object or foreign object is recognized for each divided area of the depth map. Accordingly, it is possible to accurately determine foreign objects, objects (EI), obstacles, etc., thereby reducing malfunctions such as simple avoidance, thereby further improving customer satisfaction.
전술한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by.

Claims (17)

  1. 이미지 검출모듈로부터의 깊이 값 정보들을 신호 처리하여 감지 공간의 깊이 맵을 생성하고, 상기 깊이 맵을 분할하여 각 분할 영역별로 적어도 하나의 랜드마크를 추출하는 랜드마크 검출부; A landmark detector for signal processing depth value information from an image detection module to generate a depth map of a sensing space, and extracting at least one landmark for each divided region by dividing the depth map;
    적어도 하나의 랜드마크와의 거리 정보를 이용해 실시간으로 주행 위치정보를 생성하고, 회전 및 주행 오차 정보와 불확실성 위치 오차 정보 및 충돌 가속도 정보를 이용해서 주행 위치정보를 보정하는 위치 보정부; 및 A position correction unit for generating driving position information in real time using distance information with at least one landmark and correcting driving position information using rotation and driving error information, uncertainty position error information, and collision acceleration information; And
    상기 보정된 주행 위치정보에 따라 재설정된 감지 공간의 깊이 맵을 이용해서 로봇 청소기의 주행 경로를 변경하고 청소 옵션 및 주행 속도를 제어하는 주행 제어모듈을 포함하는, And a driving control module configured to change a driving path of the robot cleaner and control a cleaning option and a driving speed by using the depth map of the sensing space reset according to the corrected driving position information.
    주행 제어장치. Travel control.
  2. 제 1 항에 있어서, The method of claim 1,
    상기 랜드마크 검출부는 The landmark detection unit
    상기 감지 공간의 깊이 값 정보들을 미리 설정된 해상도에 따라 매 프레임 단위로 신호 처리 및 배치하고, Signal processing and arrangement of the depth value information of the sensing space in every frame unit according to a preset resolution,
    상기 복수의 분할 포인트별 거리 정보를 매칭시켜서 상기 감지 공간의 깊이 맵을 생성하는, Generating a depth map of the sensing space by matching the distance information for each of the plurality of split points;
    주행 제어장치. Travel control.
  3. 제 2 항에 있어서, The method of claim 2,
    상기 랜드마크 검출부는 The landmark detection unit
    미리 설정된 해상도에 따라 서로 인접한 위치의 깊이 값 정보들을 비교하고 깊이 값 차이가 미리 설정된 기준 이상으로 큰 위치의 사물이나 모서리를 랜드마크로 설정하는, Compare depth value information of adjacent positions with each other according to a preset resolution, and set an object or corner at a position where a difference in depth value is larger than a preset reference as a landmark,
    주행 제어장치. Travel control.
  4. 제 3 항에 있어서, The method of claim 3, wherein
    상기 위치 보정부는 The position correction unit
    상기 각 분할 영역의 랜드마크를 정합하고 정합된 복수의 랜드마크와의 거리 정보에 따라 실시간으로 주행 위치정보를 산출하는 랜드 마크 정합부; A landmark matching unit that matches the landmarks of each of the divided regions and calculates driving position information in real time according to distance information with the matched plurality of landmarks;
    정지 상태에서의 위치 정보 및 오차 정보를 상기 실시간으로 검출된 주행 위치정보에 반영하여 정지 상태에서의 위치 정보를 보정하는 현재 위치 검출부; A current position detection unit correcting the position information in the stationary state by reflecting the position information and the error information in the stationary state to the driving position information detected in real time;
    상기 회전 및 주행 오차 정보와 상기 불확실성 위치 오차 정보를 상기 실시간으로 검출된 주행 위치정보에 반영하여 이동 상태에서의 위치 정보를 보정하는 속도 검출 보정부; 및 A speed detection correction unit correcting the positional information in the moving state by reflecting the rotational and driving error information and the uncertainty position error information in the detected driving position information in real time; And
    범퍼로부터의 충돌 가속도 정보를 상기 속도 검출 보정부에서 보정된 위치 정보에 반영하여 충돌 및 미끄러짐 상황에서의 위치 정보를 보정하는 충돌 가속도 적용부를 포함하는, It includes a collision acceleration application unit for correcting the position information in the collision and slip situation by reflecting the collision acceleration information from the bumper to the position information corrected by the speed detection correction unit,
    주행 제어장치. Travel control.
  5. 제 4 항에 있어서, The method of claim 4, wherein
    상기 위치 보정부는 The position correction unit
    상기 속도 검출 보정부 또는 상기 충돌 가속도 적용부에서 보정된 주행 위치정보에 따라 현재 위치 대비 깊이 맵을 재설정하여 상기 주행 제어모듈로 전송하며, Resets the depth map relative to the current position according to the driving position information corrected by the speed detection correcting unit or the collision acceleration applying unit, and transmits the depth map to the driving control module;
    상기 충돌 가속도 적용부에서 충돌 가속도 정보에 따라 위치 정보가 보정된 위치를 변칙 동작이 발생한 위치로 설정하여 상기 주행 제어모듈로 전송하는 맵/위치 보정부를 더 포함하는, The collision acceleration applying unit further includes a map / position correction unit for setting the position where the position information is corrected according to the collision acceleration information as the position where the anomalous motion occurs and transmitting it to the driving control module.
    주행 제어장치. Travel control.
  6. 제 5 항에 있어서, The method of claim 5,
    상기 주행 제어모듈은 The driving control module
    상기 속도 검출 보정부 또는 상기 충돌 가속도 적용부에서 보정된 주행 위치정보와 상기 맵/위치 보정부에서 설정된 변칙 동작이 발생한 위치 정보를 실시간으로 매칭시켜 모니터하고, Monitors by matching in real time the driving position information corrected by the speed detection correcting unit or the collision acceleration applying unit and the position information in which the anomaly motion set in the map / position correcting unit occurs,
    상기 변칙 동작이 발생한 위치에서 주행 속도와 청소 방식이 가변되도록 로봇 청소기의 주행 모드를 제어하는, Controlling the driving mode of the robot cleaner so that the traveling speed and the cleaning method is changed at the location where the anomaly operation occurs,
    주행 제어장치. Travel control.
  7. 제 4 항에 있어서, The method of claim 4, wherein
    상기 현재 위치 검출부는 The current position detector
    상기 정지 상태의 위치 정보, 및 상기 오차 정보를 이용해서 상기 실시간으로 검출된 주행 위치정보에 반영하되, By using the position information of the stop state, and the error information is reflected in the driving position information detected in real time,
    Figure PCTKR2019004003-appb-I000029
    시점에서의 로봇 청소기 위치 정보
    Figure PCTKR2019004003-appb-I000030
    는 하기의 수학식 1을 통해 보정하며,
    Figure PCTKR2019004003-appb-I000029
    Robot cleaner location information at the time
    Figure PCTKR2019004003-appb-I000030
    Is corrected through Equation 1 below,
    [수학식 1] [Equation 1]
    Figure PCTKR2019004003-appb-I000031
    Figure PCTKR2019004003-appb-I000031
    여기서, vs는 로봇 청소기의 직진 속도, vt는 로봇 청소기의 회전 속도,
    Figure PCTKR2019004003-appb-I000032
    는 불확실성 오차를 포함하는 회전 속도,
    Figure PCTKR2019004003-appb-I000033
    는 불확실성 오차를 포함하는 직진 속도인,
    Where vs is the straight velocity of the robot cleaner, vt is the rotational speed of the robot cleaner,
    Figure PCTKR2019004003-appb-I000032
    Is the rotational speed, including the uncertainty error
    Figure PCTKR2019004003-appb-I000033
    Is the straight velocity that includes the uncertainty error,
    주행 제어장치. Travel control.
  8. 제 7 항에 있어서, The method of claim 7, wherein
    상기 속도 검출 보정부는 The speed detection correction unit
    상기 회전 및 주행 오차 정보와 상기 불확실성 위치 오차 정보를 하기의 수학식 2를 이용해 상기 실시간으로 검출된 주행 위치정보에 반영하며, The rotation and driving error information and the uncertainty position error information is reflected in the driving position information detected in real time using Equation 2 below.
    [수학식 2][Equation 2]
    Figure PCTKR2019004003-appb-I000034
    Figure PCTKR2019004003-appb-I000034
    여기서, 불확실성 오차를 포함하는 회전 속도
    Figure PCTKR2019004003-appb-I000035
    는 회전 속도 오차
    Figure PCTKR2019004003-appb-I000036
    를 포함하고, 불확실성 오차를 포함하는 직진 속도
    Figure PCTKR2019004003-appb-I000037
    Figure PCTKR2019004003-appb-I000038
    를 포함하며,
    Where rotational speed includes uncertainty error
    Figure PCTKR2019004003-appb-I000035
    Rotation speed error
    Figure PCTKR2019004003-appb-I000036
    Speed, including an uncertainty error
    Figure PCTKR2019004003-appb-I000037
    Is
    Figure PCTKR2019004003-appb-I000038
    Including;
    Figure PCTKR2019004003-appb-I000039
    는 평균이 0이고 분산이 k인 속도의 오차이고,
    Figure PCTKR2019004003-appb-I000039
    Is the error of velocity with mean zero and variance k,
    Figure PCTKR2019004003-appb-I000040
    는 회전속도 불확실성에 대한 회전 속도 가중치이며,
    Figure PCTKR2019004003-appb-I000040
    Is the rotational speed weight for rotational uncertainty,
    Figure PCTKR2019004003-appb-I000041
    는 회전속도 불확실성에 대한 직진 속도 가중치이고,
    Figure PCTKR2019004003-appb-I000041
    Is the straight velocity weight for the rotational speed uncertainty,
    Figure PCTKR2019004003-appb-I000042
    는 직진속도 불확실성에 대한 회전 속도 가중치이며,
    Figure PCTKR2019004003-appb-I000042
    Is the rotation speed weight for the straight line uncertainty,
    Figure PCTKR2019004003-appb-I000043
    는 직진속도 불확실성에 대한 직진 속도 가중치인,
    Figure PCTKR2019004003-appb-I000043
    Is the straight velocity weight for straight velocity uncertainty,
    주행 제어장치. Travel control.
  9. 외관을 형성하는 케이스; A case forming an appearance;
    적어도 하나씩의 발신부와 수신부로 구성되는 거리 검출모듈; A distance detection module composed of at least one transmitter and receiver;
    청소 영역을 포함하는 감지 영역의 영상을 촬영하는 이미지 검출모듈; An image detection module for capturing an image of the detection area including the cleaning area;
    사용자로부터의 제어 명령이 입력되는 인터페이스부; An interface unit to which a control command from a user is input;
    상기 인터페이스부와 연계되어 주행 경로를 제어하는 주행 제어장치를 포함하고, A driving control device connected to the interface unit to control a driving route;
    상기 주행 제어장치는 The driving control device
    상기 이미지 검출모듈로부터의 깊이 값 정보들을 수신하고 신호 처리하여 감지 공간의 깊이 맵을 생성하고, 실시간으로 주행 위치정보를 생성 및 보정함으로써, 주행 경로를 변경하고 청소 옵션 및 주행 속도를 제어하는, Receiving depth value information from the image detection module and processing the signal to generate a depth map of the sensing space, and generating and correcting driving position information in real time, thereby changing the driving route, controlling cleaning options and driving speed,
    로봇 청소기. robotic vacuum.
  10. 제 9 항에 있어서, The method of claim 9,
    상기 주행 제어장치는 The driving control device
    상기 이미지 검출모듈로부터의 깊이 값 정보들을 신호 처리하여 감지 공간의 깊이 맵을 생성하고, 상기 깊이 맵을 분할하여 각 분할 영역별로 적어도 하나의 랜드마크를 추출하는 랜드마크 검출부; A landmark detector configured to process depth value information from the image detection module to generate a depth map of a sensing space, and divide the depth map to extract at least one landmark for each divided region;
    상기 적어도 하나의 랜드마크와의 거리 정보를 이용해 실시간으로 주행 위치정보를 생성하고, 회전 및 주행 오차 정보와 불확실성 위치 오차 정보 및 충돌 가속도 정보를 이용해서 주행 위치정보를 보정하는 위치 보정부; 및 A position correction unit generating driving position information in real time using distance information with the at least one landmark and correcting driving position information using rotation and driving error information, uncertainty position error information, and collision acceleration information; And
    상기 보정된 주행 위치정보에 따라 재설정된 감지 공간의 깊이 맵을 이용해서 로봇 청소기의 주행 경로를 변경하고 청소 옵션 및 주행 속도를 제어하는 주행 제어모듈을 포함하는, And a driving control module configured to change a driving path of the robot cleaner and control a cleaning option and a driving speed by using the depth map of the sensing space reset according to the corrected driving position information.
    로봇 청소기. robotic vacuum.
  11. 제 10 항에 있어서, The method of claim 10,
    상기 랜드마크 검출부는 The landmark detection unit
    상기 감지 공간의 깊이 값 정보들을 미리 설정된 해상도에 따라 매 프레임 단위로 신호 처리 및 배치하고, Signal processing and arrangement of the depth value information of the sensing space in every frame unit according to a preset resolution,
    상기 복수의 분할 포인트별 거리 정보를 매칭시켜서 상기 감지 공간의 깊이 맵을 생성하는, Generating a depth map of the sensing space by matching the distance information for each of the plurality of split points;
    로봇 청소기. robotic vacuum.
  12. 제 11 항에 있어서, The method of claim 11,
    상기 랜드마크 검출부는 The landmark detection unit
    미리 설정된 해상도에 따라 서로 인접한 위치의 깊이 값 정보들을 비교하고 깊이 값 차이가 미리 설정된 기준 이상으로 큰 위치의 사물이나 모서리를 랜드마크로 설정하는, Compare depth value information of adjacent positions with each other according to a preset resolution, and set an object or corner at a position where a difference in depth value is larger than a preset reference as a landmark,
    로봇 청소기. robotic vacuum.
  13. 제 12 항에 있어서, The method of claim 12,
    상기 위치 보정부는 The position correction unit
    상기 각 분할 영역의 랜드마크를 정합하고 정합된 복수의 랜드마크와의 거리 정보에 따라 실시간으로 주행 위치정보를 산출하는 랜드 마크 정합부; A landmark matching unit that matches the landmarks of each of the divided regions and calculates driving position information in real time according to distance information with the matched plurality of landmarks;
    정지 상태에서의 위치 정보 및 오차 정보를 상기 실시간으로 검출된 주행 위치정보에 반영하여 정지 상태에서의 위치 정보를 보정하는 현재 위치 검출부; A current position detection unit correcting the position information in the stationary state by reflecting the position information and the error information in the stationary state to the driving position information detected in real time;
    상기 회전 및 주행 오차 정보와 상기 불확실성 위치 오차 정보를 상기 실시간으로 검출된 주행 위치정보에 반영하여 이동 상태에서의 위치 정보를 보정하는 속도 검출 보정부; 및 A speed detection correction unit correcting the positional information in the moving state by reflecting the rotational and driving error information and the uncertainty position error information in the detected driving position information in real time; And
    범퍼로부터의 충돌 가속도 정보를 상기 속도 검출 보정부에서 보정된 위치 정보에 반영하여 충돌 및 미끄러짐 상황에서의 위치 정보를 보정하는 충돌 가속도 적용부를 포함하는, It includes a collision acceleration application unit for correcting the position information in the collision and slip situation by reflecting the collision acceleration information from the bumper to the position information corrected by the speed detection correction unit,
    로봇 청소기. robotic vacuum.
  14. 제 13 항에 있어서, The method of claim 13,
    상기 위치 보정부는 The position correction unit
    상기 속도 검출 보정부 또는 상기 충돌 가속도 적용부에서 보정된 주행 위치정보에 따라 현재 위치 대비 깊이 맵을 재설정하여 상기 주행 제어모듈로 전송하며, Resets the depth map relative to the current position according to the driving position information corrected by the speed detection correcting unit or the collision acceleration applying unit, and transmits the depth map to the driving control module;
    상기 충돌 가속도 적용부에서 충돌 가속도 정보에 따라 위치 정보가 보정된 위치를 변칙 동작이 발생한 위치로 설정하여 상기 주행 제어모듈로 전송하는 맵/위치 보정부를 더 포함하는, The collision acceleration applying unit further includes a map / position correction unit for setting the position where the position information is corrected according to the collision acceleration information as the position where the anomalous motion occurs and transmitting it to the driving control module.
    로봇 청소기. robotic vacuum.
  15. 제 14 항에 있어서, The method of claim 14,
    상기 주행 제어모듈은 The driving control module
    상기 속도 검출 보정부 또는 상기 충돌 가속도 적용부에서 보정된 주행 위치정보와 상기 맵/위치 보정부에서 설정된 변칙 동작이 발생한 위치 정보를 실시간으로 매칭시켜 모니터하고, Monitors by matching in real time the driving position information corrected by the speed detection correcting unit or the collision acceleration applying unit and the position information in which the anomaly motion set in the map / position correcting unit occurs,
    상기 변칙 동작이 발생한 위치에서 주행 속도와 청소 방식이 가변되도록 로봇 청소기의 주행 모드를 제어하는, Controlling the driving mode of the robot cleaner so that the traveling speed and the cleaning method is changed at the location where the anomaly operation occurs,
    로봇 청소기. robotic vacuum.
  16. 감지 공간의 깊이 값 정보들로 깊이 맵을 생성하여 평면, 비평면, 기울기, 저지대, 고지대, 이물, 사물, 장애물 정보 중 적어도 하나의 정보를 검출하는 감지 장치, 및 A sensing device generating a depth map with depth value information of a sensing space to detect at least one of planar, non-planar, tilting, lowland, highlands, foreign objects, objects, and obstacle information; and
    상기 감지 장치로부터의 평면, 비평면, 기울기, 저지대, 고지대, 이물, 사물, 장애물 정보 중 적어도 하나의 정보에 대응되는 위치 좌표 정보에 따라 주행 경로를 유지 또는 변경하는 진로 주행 제어기를 포함하는, And a path driving controller for maintaining or changing a driving path according to the position coordinate information corresponding to at least one of the plane, the non-plane, the slope, the low land, the high land, the foreign object, the object, and the obstacle information from the sensing device.
    로봇 청소기. robotic vacuum.
  17. 제 16 항에 있어서, The method of claim 16,
    상기 감지 장치는 The sensing device
    적어도 하나의 깊이 센서를 이용해서 감지 공간의 깊이 값 정보들을 산출하는 적어도 하나의 평면 거리 감지부; At least one planar distance detector configured to calculate depth value information of a sensing space using at least one depth sensor;
    상기 감지 공간의 깊이 값 정보들을 신호 처리하여 상기 감지 공간의 깊이 맵을 생성하는 영상 처리부; An image processor configured to signal depth value information of the sensing space to generate a depth map of the sensing space;
    상기 감지 공간의 깊이 맵을 미리 설정된 복수의 영역으로 분할하고 각각의 분할 영역별로 평균 값을 이용해 평면, 비평면, 기울기, 저지대, 고지대, 이물, 사물, 장애물 정보 중 적어도 하나의 정보를 생성하는 영상 분석부; An image of dividing the depth map of the sensing space into a plurality of preset areas and generating at least one piece of information of plane, non-plane, slope, low land, highlands, foreign objects, objects, and obstacle information by using an average value for each divided area. An analysis unit;
    상기 평면, 비평면, 기울기, 저지대, 고지대, 이물, 사물, 장애물 정보 중 적어도 하나의 정보에 대응되는 위치 좌표 정보를 생성 및 출력하는 회피 지원부를 포함하는 And a avoidance support unit for generating and outputting position coordinate information corresponding to at least one of the plane, non-plane, slope, low land, high ground, foreign object, object, and obstacle information.
    로봇 청소기. robotic vacuum.
PCT/KR2019/004003 2018-04-04 2019-04-04 Driving control device having improved location correction function, and robot vacuum using same WO2019194602A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020180039408A KR20190119232A (en) 2018-04-04 2018-04-04 Sensing device improved object sensing function and robot cleaner using the same
KR10-2018-0039408 2018-04-04
KR1020180039407A KR20190119231A (en) 2018-04-04 2018-04-04 Driving control device improved position correcting function and robot cleaner using the same
KR10-2018-0039407 2018-04-04

Publications (1)

Publication Number Publication Date
WO2019194602A1 true WO2019194602A1 (en) 2019-10-10

Family

ID=68100974

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/004003 WO2019194602A1 (en) 2018-04-04 2019-04-04 Driving control device having improved location correction function, and robot vacuum using same

Country Status (1)

Country Link
WO (1) WO2019194602A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111546348A (en) * 2020-06-10 2020-08-18 上海有个机器人有限公司 Robot position calibration method and position calibration system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110047797A (en) * 2009-10-30 2011-05-09 주식회사 유진로봇 Apparatus and Method for Building and Updating a Map for Mobile Robot Localization
JP2013025401A (en) * 2011-07-15 2013-02-04 Fujitsu Ltd Self-position estimation device, self-position estimation method and program
KR101456172B1 (en) * 2013-07-29 2014-10-31 인하대학교 산학협력단 Localization of a mobile robot device, method and mobile robot
KR20150138889A (en) * 2014-05-30 2015-12-11 동명대학교산학협력단 Apparatus and method for estimating the location of autonomous robot based on three-dimensional depth information
KR20160100951A (en) * 2013-12-19 2016-08-24 악티에볼라겟 엘렉트로룩스 Robotic cleaning device and method for landmark recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110047797A (en) * 2009-10-30 2011-05-09 주식회사 유진로봇 Apparatus and Method for Building and Updating a Map for Mobile Robot Localization
JP2013025401A (en) * 2011-07-15 2013-02-04 Fujitsu Ltd Self-position estimation device, self-position estimation method and program
KR101456172B1 (en) * 2013-07-29 2014-10-31 인하대학교 산학협력단 Localization of a mobile robot device, method and mobile robot
KR20160100951A (en) * 2013-12-19 2016-08-24 악티에볼라겟 엘렉트로룩스 Robotic cleaning device and method for landmark recognition
KR20150138889A (en) * 2014-05-30 2015-12-11 동명대학교산학협력단 Apparatus and method for estimating the location of autonomous robot based on three-dimensional depth information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111546348A (en) * 2020-06-10 2020-08-18 上海有个机器人有限公司 Robot position calibration method and position calibration system

Similar Documents

Publication Publication Date Title
WO2011013862A1 (en) Control method for localization and navigation of mobile robot and mobile robot using same
WO2011052827A1 (en) Slip detection apparatus and method for a mobile robot
WO2011052826A1 (en) Map generating and updating method for mobile robot position recognition
AU2014297039B2 (en) Auto-cleaning system, cleaning robot and method of controlling the cleaning robot
WO2015194868A1 (en) Device for controlling driving of mobile robot having wide-angle cameras mounted thereon, and method therefor
WO2016200098A1 (en) Mobile robot and method of controlling same
WO2017091008A1 (en) Mobile robot and control method therefor
WO2018135870A1 (en) Mobile robot system and control method thereof
JP3879848B2 (en) Autonomous mobile device
WO2018070686A1 (en) Airport guide robot and operation method therefor
WO2015008874A1 (en) Robot cleaner and method for auto-correcting 3d sensor of the robot cleaner
WO2014058248A1 (en) Image monitoring apparatus for estimating gradient of singleton, and method therefor
WO2019039733A1 (en) Moving object and combined sensor using camera and lidar
WO2015194866A1 (en) Device and method for recognizing location of mobile robot by means of edge-based readjustment
WO2018043957A1 (en) Robot cleaner
JP2010190432A (en) Spatial recognition device and air conditioner
WO2022039404A1 (en) Stereo camera apparatus having wide field of view, and depth image processing method using same
WO2020046038A1 (en) Robot and control method therefor
EP3675703A1 (en) Moving apparatus for cleaning and control method thereof
WO2017183915A2 (en) Image acquisition apparatus and method therefor
WO2016076463A1 (en) Control device and control method for flying bot
WO2019212174A1 (en) Artificial intelligence vacuum cleaner and control method therefor
WO2019194602A1 (en) Driving control device having improved location correction function, and robot vacuum using same
WO2017196084A1 (en) Mobile robot and control method therefor
US11956537B2 (en) Location positioning device for moving body and location positioning method for moving body

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19780922

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19780922

Country of ref document: EP

Kind code of ref document: A1