WO2016104640A1 - 電気掃除機 - Google Patents

電気掃除機 Download PDF

Info

Publication number
WO2016104640A1
WO2016104640A1 PCT/JP2015/086093 JP2015086093W WO2016104640A1 WO 2016104640 A1 WO2016104640 A1 WO 2016104640A1 JP 2015086093 W JP2015086093 W JP 2015086093W WO 2016104640 A1 WO2016104640 A1 WO 2016104640A1
Authority
WO
WIPO (PCT)
Prior art keywords
vacuum cleaner
image
body case
main body
cameras
Prior art date
Application number
PCT/JP2015/086093
Other languages
English (en)
French (fr)
Inventor
井澤 浩一
裕樹 丸谷
浩太 渡邊
古田 和浩
Original Assignee
株式会社東芝
東芝ライフスタイル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝ライフスタイル株式会社 filed Critical 株式会社東芝
Priority to KR1020167027245A priority Critical patent/KR101840158B1/ko
Priority to BR112017011346A priority patent/BR112017011346A2/pt
Priority to MYPI2017702124A priority patent/MY183984A/en
Priority to US15/531,316 priority patent/US10314452B2/en
Priority to EP15873208.1A priority patent/EP3238593B1/en
Priority to CN201580068701.1A priority patent/CN107105956B/zh
Priority to CA2969202A priority patent/CA2969202C/en
Publication of WO2016104640A1 publication Critical patent/WO2016104640A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • Embodiment of this invention is related with the vacuum cleaner which can drive
  • sensors such as an ultrasonic sensor and an infrared sensor are used for detecting obstacles that hinder travel.
  • an ultrasonic sensor for example, when a soft curtain, thin cords, or the like are in the traveling direction, the ultrasonic wave is not properly reflected and detection as an obstacle is not easy.
  • an infrared sensor when the object is black or thin cords, the reflected infrared light cannot be properly received, and obstacle detection is easy. Not.
  • the problem to be solved by the present invention is to provide a vacuum cleaner with improved obstacle detection accuracy.
  • the vacuum cleaner of the embodiment includes a main body case, drive wheels, control means, a cleaning unit, imaging means, and calculation means.
  • the drive wheel is allowed to travel in the main body case.
  • the control means causes the main body case to autonomously travel by controlling driving of the drive wheels.
  • the cleaning unit cleans the surface to be cleaned.
  • the image pickup means is arranged so as to be separated from the main body case, and picks up an image of the traveling direction side of the main body case so that the fields of view overlap each other.
  • the calculation means calculates the depth of the object from these image pickup means based on the image picked up by these image pickup means.
  • FIG. 1 It is a block diagram which shows the internal structure of the vacuum cleaner of 1st Embodiment. It is a perspective view which shows a vacuum cleaner same as the above. It is a top view which shows a vacuum cleaner same as the above from the downward direction. It is explanatory drawing which shows typically the vacuum cleaning system containing a vacuum cleaner same as the above. It is explanatory drawing which shows typically the calculation method of the depth of the object by the calculation means of a vacuum cleaner same as the above. (a) is an explanatory view showing an example of an image taken by one imaging means, (b) is an explanatory view showing an example of an image taken by the other imaging means, (c) is (a) and (b FIG.
  • FIG. 6 is an explanatory diagram illustrating an example of a distance image generated based on ().
  • (a) is explanatory drawing which shows typically the production
  • (b) is explanatory drawing which shows the map produced
  • reference numeral 11 denotes a vacuum cleaner.
  • the vacuum cleaner 11 is a charging device (charging stand) 12 (not shown) as a base device that serves as a charging base portion of the vacuum cleaner 11. 7 (a)) constitutes an electric cleaning device (electric cleaning system).
  • the vacuum cleaner 11 is a so-called self-propelled robot cleaner (cleaning robot) that cleans the floor surface while autonomously traveling (self-propelled) on the floor surface to be cleaned as a traveling surface.
  • wired communication or wireless communication such as Wi-Fi (registered trademark) or Bluetooth (registered trademark) with a home gateway (router) 14 as a relay means (relay unit) disposed in a cleaning area or the like.
  • a general-purpose server 16 By communicating (transmitting / receiving) using communication, a general-purpose server 16 as a data storage means (data storage part) or a general-purpose server as a display means (display part) via an (external) network 15 such as the Internet. Wired or wireless communication with the external device 17 or the like is possible.
  • the vacuum cleaner 11 includes a hollow main body case 20, a traveling unit 21 that travels the main body case 20 on a floor surface, a cleaning unit 22 that cleans dust such as the floor surface, and a charging device 12.
  • a control means for controlling the communication unit 23 that communicates with an external device the imaging unit 25 that captures an image, the sensor unit 26, the traveling unit 21, the cleaning unit 22, the communication unit 23, the imaging unit 25, and the like
  • a control unit (controller) 27 and a secondary battery 28 that supplies power to the traveling unit 21, the cleaning unit 22, the communication unit 23, the imaging unit 25, the sensor unit 26, the control unit 27, and the like are provided.
  • the direction along the traveling direction of the vacuum cleaner 11 is defined as the front-rear direction (arrow FR, RR direction shown in FIG. 2), and the left-right direction intersecting (orthogonal) with the front-rear direction (The description will be made assuming that the width direction is the width direction.
  • the main body case 20 is formed in a flat columnar shape (disc shape), for example, with synthetic resin or the like. That is, the main body case 20 includes a side surface portion 20a, and an upper surface portion 20b and a lower surface portion 20c that are continuous with the upper and lower portions of the side surface portion 20a, respectively.
  • the side surface portion 20a of the main body case 20 is formed by connecting an upper surface portion 20b and a lower surface portion 20c, and is formed in a substantially cylindrical surface shape.
  • an imaging unit 25 is disposed on the side surface portion 20a. Yes.
  • the upper surface portion 20b and the lower surface portion 20c of the main body case 20 are each formed in a substantially circular shape, and the lower surface portion 20c facing the floor surface has a suction port 31 that is a dust collection port, and an exhaust port 32. Etc. are opened.
  • the traveling unit 21 includes a plurality of (a pair of) driving wheels 34 and 34 as driving units, motors 35 and 35 that are driving means (driving bodies) as driving units that drive the driving wheels 34 and 34, and a turning unit.
  • the swivel wheel 36 is provided.
  • Each drive wheel 34 causes the vacuum cleaner 11 (main body case 20) to travel in the forward and backward directions on the floor (autonomous traveling), that is, for traveling, and rotates not shown along the left-right width direction. It has an axis and is arranged symmetrically in the width direction.
  • Each motor 35 is arranged corresponding to each of the driving wheels 34, for example, and can drive each driving wheel 34 independently.
  • the swivel wheel 36 is a driven wheel that is positioned at the front and substantially at the center of the lower surface of the main body case 20 in the width direction, and can be swung along the floor surface.
  • the cleaning unit 22 is located in the main body case 20, for example, an electric blower 41 that sucks dust together with air from the suction port 31 and exhausts it from the exhaust port 32, and a rotary cleaning body that is rotatably attached to the suction port 31 and scrapes up dust.
  • Rotating brush 42 and brush motor 43 that rotationally drives the rotating brush 42
  • auxiliary cleaning means as a swivel cleaning unit that is rotatably attached to both sides such as the front side of the body case 20 and scrapes dust
  • the electric blower 41, the rotating brush 42 and the brush motor 43, and the side brush 44 and the side brush motor 45 may be provided with at least one of them.
  • the communication unit 23 is a wireless LAN device as a wireless communication unit (wireless communication unit) and a vacuum cleaner signal reception unit (a vacuum cleaner signal reception unit) for wireless communication with the external device 17 via the home gateway 14 and the network 15 47, transmitting means (infrared signal) such as an infrared light emitting element for transmitting a wireless signal (infrared signal) to the charging device 12, etc., and a wireless signal (infrared signal) from the charging device 12 or a remote control not shown
  • a receiving means (receiving unit) such as a phototransistor is provided.
  • the wireless LAN device 47 transmits / receives various information to / from the network 15 via the home gateway 14 from the vacuum cleaner 11, and is built in the main body case 20, for example.
  • the imaging unit 25 includes cameras 51 and 52 as (one and the other) imaging means (imaging unit body), and a lamp 53 such as an LED as an illumination unit (illumination unit) that provides illumination to the cameras 51 and 52. It has.
  • the cameras 51 and 52 are arranged on both sides of the front portion of the side surface portion 20a of the main body case 20.
  • the cameras 51 and 52 have a predetermined angle (equivalent to the left-right direction) with respect to the center line L in the width direction of the vacuum cleaner 11 (main body case 20) on the side surface portion 20a of the main body case 20. (Acute angle) It is arranged at an inclined position.
  • these cameras 51 and 52 are arranged substantially symmetrically in the width direction with respect to the main body case 20, and the center positions of these cameras 51 and 52 are in the traveling direction of the vacuum cleaner 11 (main body case 20).
  • these cameras 51 and 52 are arranged at substantially equal positions in the vertical direction, that is, at substantially equal height positions. For this reason, these cameras 51 and 52 are set to have substantially the same height from the floor surface with the vacuum cleaner 11 placed on the floor surface. Therefore, the cameras 51 and 52 are arranged to be spaced apart from each other (positions displaced in the left-right direction). Further, these cameras 51 and 52 are arranged in such a manner that a digital image is displayed at a predetermined horizontal angle of view (for example, 105 °) at a predetermined time, for example, every several tens of milliseconds.
  • a predetermined horizontal angle of view for example, 105 °
  • these cameras 51 and 52 have their respective visual fields V1 and V2 overlapped (FIG. 5), and images P1 and P2 (one and the other) captured by these cameras 51 and 52 (FIG. 6 (a) and In FIG. 6 (b), the imaging region is wrapped in the left-right direction in a region including a front position where the center line L in the width direction of the vacuum cleaner 11 (main body case 20) is extended.
  • these cameras 51 and 52 capture an image in the visible light region, for example.
  • the images captured by these cameras 51 and 52 can be compressed into a predetermined data format by an image processing circuit (not shown), for example.
  • the lamp 53 outputs illumination light when an image is captured by the cameras 51 and 52, and is disposed at an intermediate position between the cameras 51 and 52, that is, a position on the center line L of the side surface portion 20a of the main body case 20.
  • the lamp 53 is disposed at a position substantially equal to the cameras 51 and 52 in the vertical direction, that is, at a substantially equal height. Therefore, the lamp 53 is disposed at a substantially central portion in the width direction of the cameras 51 and 52.
  • the lamp 53 illuminates light including a visible light region.
  • the sensor unit 26 includes, for example, a rotation speed sensor 55 such as an optical encoder that detects the rotation speed of each drive wheel 34 (each motor 35).
  • the rotation speed sensor 55 detects the turning angle and travel distance of the electric vacuum cleaner 11 (main body case 20) based on the measured rotation speed of the drive wheel 34 (motor 35). Accordingly, the rotation speed sensor 55 is a position detection sensor that detects the relative position of the vacuum cleaner 11 (main body case 20) from a reference position such as the charging device 12 (FIG. 7A).
  • the control unit 27 includes, for example, a CPU that is a control unit main body (control unit main body), a ROM that is a storage unit that stores fixed data such as a program read by the CPU, and a work area that is a work area for data processing by the program
  • the microcomputer includes a RAM (not shown) that is an area storage unit that dynamically forms various memory areas.
  • the control unit 27 further includes, for example, a memory 61 as a storage unit (storage unit) that stores data of images captured by the cameras 51 and 52, and the cameras 51 and 52 based on images captured by the cameras 51 and 52.
  • Depth calculation unit 62 as a calculation unit (calculation unit) for calculating the depth of the object from the map, a map generation unit (map generation unit) for generating a map of the cleaning area based on the depth of the object calculated by the depth calculation unit 62
  • the image generation unit 64 as an image generation means (image generation unit) for generating a distance image based on the depth of the object calculated by the depth calculation unit 62
  • the depth calculated by the depth calculation unit 62 A determination unit 65 as an obstacle determination unit (obstacle determination unit) for determining an obstacle based on
  • the control unit 27 includes a travel control unit 66 that controls operations of the motors 35 and 35 (drive wheels 34 and 34) of the travel unit 21, an electric blower 41, a brush motor 43, and a side brush motor 45 of the cleaning unit 22.
  • a cleaning control unit 67 that controls the operation, an imaging control unit 68 that controls the cameras 51 and 52 of the imaging unit 25, an illumination control unit 69 that controls the lamp 53 of the imaging unit 25, and the like are provided. And this control part 27 drives the driving wheels 34 and 34 (motors 35 and 35), for example, the driving mode which makes the vacuum cleaner 11 (main body case 20) autonomously run, and the secondary battery via the charging device 12. There are a charging mode for charging 28 and a standby mode for standby operation.
  • the memory 61 is a non-volatile memory such as a flash memory that holds various data stored regardless of whether the electric power of the vacuum cleaner 11 is turned on or off.
  • the depth calculation unit 62 uses a known method for calculating the depth of the object O based on the images captured by the cameras 51 and 52 and the distance between the cameras 51 and 52 (FIG. 5). That is, the depth calculation unit 62 applies triangulation, detects pixel dots indicating the same position from each image captured by the cameras 51 and 52, and calculates the vertical and horizontal angles of the pixel dots. From these angles and the distance between the cameras 51 and 52, the depth of the position from the cameras 51 and 52 is calculated. Therefore, the images captured by the cameras 51 and 52 are preferably overlapped (wrapped) as much as possible.
  • the image processing unit 63 calculates the distance between the object around the vacuum cleaner 11 (main body case 20) and the vacuum cleaner 11 (main body case 20) from the depth of the object calculated by the depth calculation unit 62, and this distance And the position of the vacuum cleaner 11 (main body case 20) detected by the rotational speed sensor 55 of the sensor unit 26, the cleaning area CA where the vacuum cleaner 11 (main body case 20) is disposed, and the position within the cleaning area CA
  • the map M (FIG. 7B) is generated by calculating the positional relationship of the object to be operated.
  • the image generation unit 64 generates a distance image indicating the depth of the object calculated by the depth calculation unit 62.
  • the distance image is generated by the image generator 64 by converting the depth calculated by the depth calculator 62 into gradations that can be identified by visual recognition, such as brightness or color tone, for each predetermined dot such as one dot of the image. Is displayed.
  • the image generation unit 64 is a black and white image having a smaller brightness as the depth is larger, that is, the blacker the distance to the front from the vacuum cleaner 11 (main body case 20), the whiter the distance,
  • the determination unit 65 determines whether the object is an obstacle based on the depth of the object calculated by the depth calculation unit 62. That is, the determination unit 65 extracts a portion in a predetermined range, for example, a predetermined rectangular image range A (FIG. 6C) in the distance image P3 from the depth calculated by the depth calculation unit 62, The depth of the object O in the image range A is compared with a set distance D (FIG. 5) which is a preset or variably set threshold, and a depth equal to or smaller than the set distance D (the vacuum cleaner 11 (main body It is determined that the object O located at a distance) from the case 20) is an obstacle.
  • the image range A is set according to the vertical and horizontal sizes of the vacuum cleaner 11 (main body case 20). That is, the image range A is set up, down, left, and right in a range where the vacuum cleaner 11 (main body case 20) is in direct contact with the image range A.
  • the traveling control unit 66 controls the driving of the motors 35 and 35 by controlling the magnitude and direction of the current flowing through the motors 35 and 35, thereby rotating the motors 35 and 35 forward or backward. By controlling the driving of 35 and 35, the driving of the driving wheels 34 and 34 is controlled.
  • the cleaning control unit 67 separately controls the conduction angle of the electric blower 41, the brush motor 43, and the side brush motor 45, whereby the electric blower 41, the brush motor 43 (the rotating brush 42), and the side brush motor The drive of 45 (side brush 44) is controlled.
  • a controller may be provided separately for each of the electric blower 41, the brush motor 43, and the side brush motor 45.
  • the imaging control unit 68 includes a control circuit that controls the operation of the shutters of the cameras 51 and 52, and controls the cameras 51 and 52 to capture images at predetermined intervals by operating the shutters at predetermined intervals. To do.
  • the illumination control unit 69 controls on / off of the lamp 53 through a switch or the like.
  • the illumination control unit 69 includes a sensor that detects the brightness around the vacuum cleaner 11. When the brightness detected by the sensor is equal to or lower than a predetermined value, the lamp 53 is turned on. In this case, the lamp 53 is not turned on.
  • the secondary battery 28 is electrically connected to, for example, charging terminals 71 and 71 as connection portions exposed on both sides of the rear portion of the lower surface of the main body case 20, and these charging terminals 71 and 71 are connected to the charging device 12 side. Are electrically and mechanically connected to each other to be charged via the charging device 12.
  • the home gateway 14 is also called an access point and is installed in a building and connected to the network 15 by, for example, a wired connection.
  • the server 16 is a computer (cloud server) connected to the network 15, and can store various data.
  • the external device 17 can be wired or wirelessly communicated with the network 15 via the home gateway 14 inside the building, for example, and can be wired or wirelessly communicated with the network 15 outside the building.
  • a general-purpose device such as a terminal (tablet PC) 17a and a smartphone (mobile phone) 17b.
  • the external device 17 has at least a display function for displaying an image.
  • the electric vacuum cleaner is roughly classified into a cleaning operation for cleaning with the electric vacuum cleaner 11 and a charging operation for charging the secondary battery 28 with the charging device 12. Since a known method using a charging circuit such as a constant current circuit built in the charging device 12 is used for the charging operation, only the cleaning operation will be described.
  • an imaging operation for imaging a predetermined object by at least one of the cameras 51 and 52 in accordance with a command from the external device 17 or the like may be provided.
  • the control unit 27 when the vacuum cleaner 11 reaches a preset cleaning start time or receives a cleaning start command signal transmitted from the remote controller or the external device 17, the control unit 27 is set in the standby mode. The mode is switched to the travel mode, and the control unit 27 (travel control unit 66) drives the motors 35 and 35 (drive wheels 34 and 34) to leave the charging device 12 by a predetermined distance. Next, the vacuum cleaner 11 causes the image processing unit 63 to generate a map of the cleaning area. That is, in the vacuum cleaner 11, the control unit 27 drives the motors 35 and 35 (drive wheels 34 and 34) at the position (by the travel control unit 66) to turn the vacuum cleaner 11 (main body case 20).
  • images are captured by the driven cameras 51 and 52 (by the imaging control unit 68) (FIG. 7A), and based on the distance between these images and the cameras 51 and 52, the depth calculation unit 62 The distance between the object (wall, obstacle, etc.) surrounding the cleaning area CA and the vacuum cleaner 11 (main body case 20) is calculated. Then, based on the calculated distance and the relative position from the charging device 12 detected by the rotation speed sensor 55 of the sensor unit 26, that is, the own position, the image processing unit 63 generates a rough outline and layout of the cleaning area CA. Map. For example, as shown in FIG.
  • a portion DA that becomes the blind spot of the cameras 51 and 52 may be generated in the generated map M.
  • the vacuum cleaner 11 main body case 20
  • measure the distance again in the same way, or measure the distance to the object while traveling The map can be completed sequentially.
  • this map is stored in, for example, the memory 61 at the time of generation, it may be simply read from the memory 61 after the next cleaning, and does not need to be generated every time cleaning is performed, but is stored in the memory 61.
  • the cleaning area CA different from the map may be cleaned or the layout of the object may change even in the same cleaning area CA, it can be generated appropriately according to the user's command or every predetermined period, for example.
  • the once generated map may be updated as needed based on the depth measurement of the object during the cleaning operation.
  • the vacuum cleaner 11 performs cleaning while autonomously running in the cleaning area CA based on the generated map.
  • the front of the traveling direction is imaged by the cameras 51 and 52 driven by the control unit 27 (imaging control unit 68) (step 1). . At least one of these captured images can be stored in the memory 61.
  • the depth calculation unit 62 detects the depth of an object and the like, and the image generation unit 64 determines the depth image from this depth. Is generated (step 2). Specifically, for example, when images P1 and P2 as shown in FIGS.
  • the depth of the object imaged in the images P1 and P2 is calculated as a depth calculation unit.
  • An example of the distance image P3 calculated by 62 and generated by the image generation unit 64 is shown in FIG. This distance image P3 can also be stored in the memory 61, for example.
  • the determination unit 65 cuts out a predetermined image range A from the generated distance image P3 (step 3), compares the depth of an object located in the image range A with a predetermined threshold value, and determines the threshold value. It is determined whether there is an object below, in other words, whether there is an object within a predetermined set distance D within the image range A (step 4).
  • step 4 If it is determined in step 4 that the distance is not less than the predetermined set distance D, that is, the depth is large, the vehicle continues to travel (step 5) and returns to step 1. On the other hand, if it is determined in step 4 that the distance is not longer than the predetermined setting distance D, in other words, the distance is not more than the predetermined setting distance D, it is determined that the object is an obstacle that obstructs traveling, The routine proceeds to a predetermined avoidance operation routine (step 6).
  • the control unit 27 controls the driving of the motors 35 and 35 (drive wheels 34 and 34), and the vacuum cleaner 11 (main body case).
  • the vacuum cleaner 11 Stop and turn to change the traveling direction at that position or a position retracted by a predetermined distance. After this avoidance operation routine, the vacuum cleaner 11 proceeds to step 5 and continues running. In this way, the vacuum cleaner 11 (main body case 20) autonomously travels to the corners while avoiding obstacles on the floor surface in the cleaning area CA, and controls the cleaning unit 22 to the control unit 27 (cleaning control unit 67). ) To clean the floor dust. That is, the electric vacuum cleaner 11 performs the next operation that continues, such as continuing the cleaning operation even if an obstacle is detected.
  • the image data stored in the memory 61 is wireless when, for example, the vacuum cleaner 11 returns to the charging device 12, at any time during the cleaning operation, every predetermined time, or when there is a request from the external device 17.
  • the data is transmitted to the server 16 via the home gateway 14 and the network 15 via the LAN device 47.
  • the data that has been transmitted can be erased from the memory 61 or overwritten when new data is stored, so that the capacity of the memory 61 can be used efficiently.
  • the server 16 can store image data transmitted from the vacuum cleaner 11 and download the image data in response to a request (access) from the external device 17.
  • the external device 17 displays the image downloaded from the server 16.
  • the cameras 51 and 52 are arranged at substantially the same position in the vertical direction, that is, at substantially the same height, so that each image captured by the cameras 51 and 52 is in the vertical direction. It overlaps right and left without almost deviating. For this reason, it is possible to secure a wide range where the images overlap each other, improve the efficiency of depth calculation by the depth calculation unit 62, and run the vacuum cleaner 11 (main body case 20) such as a ceiling or floor by the cameras 51 and 52.
  • the depth calculation unit 62 Since there is less imaging in the range where it is difficult to become an obstacle at the time of calculation, the depth calculation unit 62 is likely to be an obstacle when driving the vacuum cleaner 11 (main body case 20) Therefore, it is efficient when the determination unit 65 determines an obstacle based on the calculated depth of the object.
  • the cameras 51 and 52 capture an image in the visible light region, the captured image has good image quality, can be easily displayed visually by the user without performing complicated image processing, and is visible by the lamp 53. By illuminating the light including the light region, it is possible to reliably capture an image with the cameras 51 and 52 even in a dark place or at night.
  • the cameras 51 and 52 are arranged at positions substantially equal to the left and right direction of the main body case 20 (side surface portion 20a), that is, vertically. You can also.
  • the cameras 51 and 52 are arranged vertically on the center line L, that is, arranged vertically symmetrically, and the lamp 53 is arranged at an intermediate position between the cameras 51 and 52. As a result, the images picked up by the cameras 51 and 52 overlap vertically without substantially shifting in the left-right direction.
  • the cameras 51 and 52 may be infrared cameras that capture images in the infrared region.
  • the lamps 53 by illuminating the light including the infrared region with the lamp 53, a stable image can be obtained regardless of day or night, and the surroundings are not brightened even in a dark place or at night. An image can be taken in the dark.
  • one of the cameras 51 and 52 may capture an image in the visible light region, and the other may capture an image in the infrared region. In this case, it is possible to easily display an image in the visible light region with good image quality so that the user can visually recognize it.
  • the image is displayed on the external device 17 by the control unit 27, the image is displayed on the external device 17 by a dedicated program (application) installed in the external device 17, for example. It is also possible to perform processing as described above, or processing in advance by the control unit 27 or the server 16 and display by a general-purpose program such as a browser of the external device 17. That is, the display control means (display control unit) may be configured to display an image using a program stored in the server 16, a program installed in the external device 17, or the like.
  • data such as images temporarily stored in the memory 61 is transmitted to the server 16 and stored in the server 16, but may be stored in the memory 61 as it is or stored in the external device 17. It may be left.
  • the images captured by the cameras 51 and 52 and the distance image generated by the image generation unit 64 can be displayed not only on the external device 17 but also on a display unit provided in the vacuum cleaner 11 itself, for example.
  • data need not be transmitted from the memory 61 to the server 16 via the home gateway 14 and the network 15, and the configuration and control of the vacuum cleaner 11 can be further simplified.
  • a sensor such as a contact sensor for detecting obstacles at a position outside the visual field of the cameras 51 and 52, such as the rear part of the main body case 20, may be provided.
  • a step detecting means such as an infrared sensor for detecting a step on the floor may be provided on the lower surface portion 20c of the main body case 20.
  • the depth calculation unit 62, the image generation unit 64, the determination unit 65, the cleaning control unit 67, the imaging control unit 68, and the illumination control unit 69 are provided in the control unit 27, respectively. Any two or more may be combined arbitrarily.
  • the depth calculation by the depth calculation unit 62 can be used not only at the time of cleaning work but also when the electric vacuum cleaner 11 (main body case 20) is traveling.
  • the cameras 51 and 52 that image the traveling direction side of the main body case 20 are arranged apart from the main body case 20 so that their fields of view overlap each other.
  • the depth calculation unit 62 By calculating the depth of the object from the cameras 51 and 52 by the depth calculation unit 62 based on the captured image, the physical properties of the object (softness and color, for example) compared to the case of using an infrared sensor or an ultrasonic sensor, for example. Etc.) and the object and its distance can be detected without missing a small object. Therefore, the obstacle detection accuracy can be improved.
  • the depth calculation unit 62 calculates the depth of the object based on the images captured by the cameras 51 and 52 and the distance between the cameras 51 and 52, it requires special complicated calculation and processing. The depth of the object can be calculated accurately.
  • the center positions of the cameras 51 and 52 substantially coincide with the center position in the width direction intersecting (orthogonal) with the traveling direction of the vacuum cleaner 11 (main body case 20), that is, the cameras 51 and 52 are connected to the vacuum cleaner 11 (main body case).
  • the cameras 51 and 52 are arranged on the side surface portion 20a of the main body case 20, it is possible to easily take an image in front of the main body case 20 in the running direction, and the vacuum cleaner 11 (the main body case 20) such as a ceiling or a floor surface.
  • the depth of the object that becomes an obstacle to travel of the vacuum cleaner 11 (main body case 20) can be efficiently calculated by the depth calculation unit 62.
  • the side surface portion 20a of the main body case 20 is formed into a cylindrical surface, and the cameras 51 and 52 are arranged symmetrically from the center line L on the side surface portion 20a, so that the angle range of images captured by these cameras 51 and 52 can be changed.
  • the depth calculation unit 62 can calculate the depth of the object more efficiently.
  • a map of the cleaning area is generated by the image processing unit 63, so that the vacuum cleaner 11 (main body case 20) travels in the cleaning area such as during cleaning work. You can drive efficiently based on this map.
  • both the cameras 51 and 52 can be illuminated with one lamp 53, and the configuration is simpler than when using a plurality of lamps.
  • the direction of the light hit and the direction of the shadow are constant in the images taken by the cameras 51 and 52, it is difficult for disturbance to occur, and the depth calculation of the object based on these images becomes easier.
  • the determination unit 65 determines whether the object is an obstacle, and the control unit 27 (running control unit 66) Since the driving of the drive wheels 34, 34 (motors 35, 35) is controlled so as to avoid the determined object, the accuracy of autonomous traveling can be improved, and the cleaning area can be more efficiently cleaned to every corner.
  • an obstacle can be easily determined by the determination unit 65 based on the distance image.
  • the user can check the position and traveling direction of the vacuum cleaner 11 (main body case 20), or obstruct the travel of the vacuum cleaner 11 (main body case 20). It becomes possible to grasp things. Accordingly, it is possible to prompt the user to voluntarily move or obstruct obstacles that hinder travel of the vacuum cleaner 11 (main body case 20).
  • the determination unit 65 determines that an object that is closer than the predetermined distance in the predetermined image range in the distance image generated by the image generation unit 64 is an obstacle, so that the obstacle is detected from the entire distance image. If the image range is set corresponding to the position where the vacuum cleaner 11 (main body case 20) is expected to travel (running predicted position), the other positions can be processed. Even if an obstacle is present, the autonomous running of the vacuum cleaner 11 (main body case 20) is not affected. Therefore, the obstacle that hinders the running can be sufficiently detected only by the processing within this image range. Furthermore, by setting the upper limit of the image range corresponding to the height of the main body case 20, it is possible to detect a gap in the height direction in which the vacuum cleaner 11 (main body case 20) can enter.
  • a control method for a vacuum cleaner characterized in that the center position of the camera of the vacuum cleaner substantially coincides with the center position in the width direction intersecting the traveling direction of the main body case.
  • the method of controlling the vacuum cleaner characterized in that the camera of the vacuum cleaner is disposed on the side surface of the main body case.
  • the method of controlling a vacuum cleaner characterized in that the camera of the vacuum cleaner is arranged at substantially the same position in the vertical direction.
  • the method of controlling a vacuum cleaner characterized in that the camera of the vacuum cleaner is arranged at substantially the same position in the left-right direction.
  • a control method for a vacuum cleaner characterized in that a map of a cleaning area is generated based on the calculated depth of an object.
  • a control method for a vacuum cleaner wherein each camera captures an image of a visible light region in a state where light including a visible light region is illuminated.
  • a control method for a vacuum cleaner characterized in that an infrared region image is captured by each camera in a state where light including the infrared region is illuminated.
  • a control method for a vacuum cleaner wherein one camera captures an image in the visible light region and the other camera captures an image in the infrared region in a state where light including the infrared region is illuminated.
  • a method of controlling a vacuum cleaner characterized by illuminating light at a position between the cameras.
  • a control method for a vacuum cleaner characterized by determining whether an object is an obstacle based on the calculated depth of the object and avoiding the object determined as an obstacle.
  • a control method for a vacuum cleaner characterized in that the depth of an object is calculated based on an image captured by each camera and the distance between these cameras.
  • a method for controlling a vacuum cleaner characterized by generating a distance image based on the calculated depth of the object.
  • a method for controlling a vacuum cleaner wherein an object located closer than a predetermined distance in a predetermined image range in the generated distance image is determined as an obstacle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Electric Suction Cleaners (AREA)

Abstract

 障害物の検出精度を向上した電気掃除機(11)を提供する。電気掃除機(11)は、本体ケースと、駆動輪と、制御部(27)と、掃除部(22)と、カメラ(51),(52)と、深度計算部(62)とを有する。駆動輪は、本体ケースを走行可能とする。制御部(27)は、駆動輪の駆動を制御することで本体ケースを自律走行させる。掃除部(22)は、床面を掃除する。カメラ(51),(52)は、本体ケースに離間されて配置され、互いに視野が重なるように本体ケースの走行方向側を撮像する。深度計算部(62)は、カメラ(51),(52)で撮像された画像に基づいてカメラ(51),(52)からの物体の深度を計算する。

Description

電気掃除機
 本発明の実施形態は、自律走行可能な電気掃除機に関する。
 従来、被掃除面としての床面上を自律走行しながら床面を掃除する、いわゆる自律走行型の電気掃除機(掃除ロボット)が知られている。
 このような電気掃除機は、走行時に障害物を回避しなければならない。そのため、走行に支障をきたす障害物の検出用として、超音波センサや赤外線センサなどのセンサを用いている。しかしながら、例えば超音波センサを用いる場合には、柔らかいカーテンや、細いコード類などが走行方向にあったときに、超音波が適切に反射されず障害物としての検出が容易でない。また、例えば赤外線センサを用いる場合には、対象物が黒いものであったり、細いコード類であったりするときに、反射された赤外線を適切に受光することができず、障害物の検出が容易でない。
 すなわち、このような自律走行型の電気掃除機の場合には、障害物の検出精度を向上することで、安定した走行で掃除性能を向上させることができるものの、障害物を検出できない場合には、障害物との衝突や乗り上げなどにより走行停止するなど、掃除がはかどらないことになる。
 したがって、自律走行型の電気掃除機において、掃除を円滑にするためには障害物の検出が重要であり、障害物の検出精度の向上が望まれている。
特開2007-163223号公報 特開2013-235351号公報
 本発明が解決しようとする課題は、障害物の検出精度を向上した電気掃除機を提供することである。
 実施形態の電気掃除機は、本体ケースと、駆動輪と、制御手段と、掃除部と、撮像手段と、計算手段とを有する。駆動輪は、本体ケースを走行可能とする。制御手段は、駆動輪の駆動を制御することで本体ケースを自律走行させる。掃除部は、被掃除面を掃除する。撮像手段は、本体ケースに離間されて配置され、互いに視野が重なるように本体ケースの走行方向側を撮像する。計算手段は、これら撮像手段で撮像された画像に基づいてこれら撮像手段からの物体の深度を計算する。
第1の実施形態の電気掃除機の内部構造を示すブロック図である。 同上電気掃除機を示す斜視図である。 同上電気掃除機を下方から示す平面図である。 同上電気掃除機を含む電気掃除システムを模式的に示す説明図である。 同上電気掃除機の計算手段による物体の深度の計算方法を模式的に示す説明図である。 (a)は一方の撮像手段により撮像された画像の一例を示す説明図、(b)は他方の撮像手段により撮像された画像の一例を示す説明図、(c)は(a)および(b)に基づいて生成した距離画像の一例を示す説明図である。 (a)は同上電気掃除機のマップ生成手段によるマップの生成方法を模式的に示す説明図、(b)は(a)により生成されたマップを示す説明図である。 同上電気掃除機の走行制御を示すフローチャートである。 第2の実施形態の電気掃除機を示す斜視図である。
実施形態
 以下、第1の実施形態の構成を、図面を参照して説明する。
 図1ないし図4において、11は電気掃除機であり、この電気掃除機11は、この電気掃除機11の充電用の基地部となる基地装置としての図示しない充電装置(充電台)12(図7(a))とともに電気掃除装置(電気掃除システム)を構成するものである。そして、電気掃除機11は、本実施形態において、走行面としての被掃除面である床面上を自律走行(自走)しつつ床面を掃除する、いわゆる自走式のロボットクリーナ(掃除ロボット)であり、例えば掃除領域内などに配置された中継手段(中継部)としてのホームゲートウェイ(ルータ)14との間で有線通信あるいはWi-Fi(登録商標)やBluetooth(登録商標)などの無線通信を用いて通信(送受信)することにより、インターネットなどの(外部)ネットワーク15を介して、データ格納手段(データ格納部)としての汎用のサーバ16や、表示手段(表示部)である汎用の外部装置17などと有線あるいは無線通信可能となっている。
 また、この電気掃除機11は、中空状の本体ケース20と、この本体ケース20を床面上で走行させる走行部21と、床面などの塵埃を掃除する掃除部22と、充電装置12を含む外部装置と通信する通信部23と、画像を撮像する撮像部25と、センサ部26と、走行部21、掃除部22、通信部23、および、撮像部25などを制御する制御手段としての制御部(コントローラ)27と、これら走行部21、掃除部22、通信部23、撮像部25、センサ部26および制御部27などに給電する二次電池28とを備えている。なお、以下、電気掃除機11(本体ケース20)の走行方向に沿った方向を前後方向(図2に示す矢印FR,RR方向)とし、この前後方向に対して交差(直交)する左右方向(両側方向)を幅方向として説明する。
 本体ケース20は、例えば合成樹脂などにより扁平な円柱状(円盤状)などに形成されている。すなわち、この本体ケース20は、側面部20aと、この側面部20aの上部および下部にそれぞれ連続する上面部20bおよび下面部20cとを備えている。この本体ケース20の側面部20aは、上面部20bと下面部20cとを連続するもので、略円筒面状に形成されており、この側面部20aには、例えば撮像部25などが配置されている。また、本体ケース20の上面部20bおよび下面部20cは、それぞれ略円形状に形成されており、床面に対向する下面部20cには、集塵口である吸込口31、および、排気口32などがそれぞれ開口されている。
 走行部21は、複数(一対)の駆動部としての駆動輪34,34、これら駆動輪34,34を駆動させる動作部としての駆動手段(駆動体)であるモータ35,35、および、旋回用の旋回輪36などを備えている。
 各駆動輪34は、電気掃除機11(本体ケース20)を床面上で前進方向および後退方向に走行(自律走行)させる、すなわち走行用のものであり、左右幅方向に沿って図示しない回転軸を有し、幅方向に対称に配置されている。
 各モータ35は、例えば駆動輪34のそれぞれに対応して配置されており、各駆動輪34を独立して駆動させることが可能となっている。
 旋回輪36は、本体ケース20の下面の幅方向の略中央部で、かつ、前部に位置しており、床面に沿って旋回可能な従動輪である。
 掃除部22は、例えば本体ケース20内に位置して塵埃を吸込口31から空気とともに吸い込み排気口32から排気する電動送風機41、吸込口31に回転可能に取り付けられて塵埃を掻き上げる回転清掃体としての回転ブラシ42およびこの回転ブラシ42を回転駆動させるブラシモータ43、本体ケース20の前側などの両側に回転可能に取り付けられて塵埃を掻き集める旋回清掃部としての補助掃除手段(補助掃除部)であるサイドブラシ44およびこのサイドブラシ44を駆動させるサイドブラシモータ45、および、吸込口31と連通して塵埃を溜める集塵部46などを備えている。なお、電動送風機41と、回転ブラシ42およびブラシモータ43と、サイドブラシ44およびサイドブラシモータ45とは、少なくともいずれかを備えていればよい。
 通信部23は、ホームゲートウェイ14およびネットワーク15を介して外部装置17と無線通信をするための無線通信手段(無線通信部)および掃除機信号受信手段(掃除機信号受信部)としての無線LANデバイス47、充電装置12などへと無線信号(赤外線信号)を送信する例えば赤外線発光素子などの図示しない送信手段(送信部)、および、充電装置12や図示しないリモコンなどからの無線信号(赤外線信号)を受信する例えばフォトトランジスタなどの図示しない受信手段(受信部)などを備えている。
 無線LANデバイス47は、電気掃除機11からホームゲートウェイ14を介してネットワーク15に対して各種情報を送受信するものであり、例えば本体ケース20に内蔵されている。
 撮像部25は、(一方および他方の)撮像手段(撮像部本体)としてのカメラ51,52、および、これらカメラ51,52に照明を付与する照明手段(照明部)としてのLEDなどのランプ53を備えている。
 カメラ51,52は、本体ケース20の側面部20aにおいて、前部の両側に配置されている。すなわち、本実施形態では、カメラ51,52は、本体ケース20の側面部20aにおいて、電気掃除機11(本体ケース20)の幅方向の中心線Lに対して、左右方向に略等しい所定角度(鋭角)傾斜した位置にそれぞれ配置されている。言い換えると、これらカメラ51,52は、本体ケース20に対して幅方向に略対称に配置されており、これらカメラ51,52の中心位置が、電気掃除機11(本体ケース20)の走行方向である前後方向と交差(直交)する幅方向の中心位置と略一致している。さらに、これらカメラ51,52は、上下方向に略等しい位置、すなわち略等しい高さ位置にそれぞれ配置されている。このため、これらカメラ51,52は、電気掃除機11を床面上に載置した状態でこの床面からの高さが互いに略等しく設定されている。したがって、カメラ51,52は、互いにずれた位置(左右方向にずれた位置)に離間されて配置されている。また、これらカメラ51,52は、本体ケース20の走行方向である前方を、それぞれ所定の水平画角(例えば105°など)でデジタルの画像を所定時間毎、例えば数十ミリ秒毎などの微小時間毎、あるいは数秒毎などに撮像するデジタルカメラである。さらに、これらカメラ51,52は、互いの視野V1,V2が重なっており(図5)、これらカメラ51,52により撮像される(一方および他方の)画像P1,P2(図6(a)および図6(b))は、その撮像領域が電気掃除機11(本体ケース20)の幅方向の中心線Lを延長した前方の位置を含む領域で左右方向にラップしている。本実施形態では、これらカメラ51,52は、例えば可視光領域の画像を撮像するものとする。なお、これらカメラ51,52により撮像した画像は、例えば図示しない画像処理回路などにより所定のデータ形式に圧縮することもできる。
 ランプ53は、カメラ51,52により画像を撮像する際の照明用の光を出力するもので、カメラ51,52の中間位置、すなわち本体ケース20の側面部20aの中心線L上の位置に配置されている。すなわち、ランプ53は、カメラ51,52からの距離が略等しくなっている。また、このランプ53は、カメラ51,52と上下方向に略等しい位置、すなわち略等しい高さ位置に配置されている。したがって、このランプ53は、カメラ51,52の幅方向の略中央部に配置されている。本実施形態では、このランプ53は、可視光領域を含む光を照明するようになっている。
 センサ部26は、例えば各駆動輪34(各モータ35)の回転数を検出する光エンコーダなどの回転数センサ55を備えている。この回転数センサ55は、測定した駆動輪34(モータ35)の回転数によって、電気掃除機11(本体ケース20)の旋回角度や進行距離を検出するようになっている。したがって、この回転数センサ55は、例えば充電装置12(図7(a))などの基準位置からの電気掃除機11(本体ケース20)の相対位置を検出する、位置検出センサである。
 制御部27は、例えば制御手段本体(制御部本体)であるCPU、このCPUによって読み出されるプログラムなどの固定的なデータを格納した格納部であるROM、プログラムによるデータ処理の作業領域となるワークエリアなどの各種メモリエリアを動的に形成するエリア格納部であるRAM(それぞれ図示せず)などを備えるマイコンである。この制御部27には、さらに、例えばカメラ51,52で撮像した画像のデータなどを記憶する記憶手段(記憶部)としてのメモリ61、カメラ51,52で撮像した画像に基づいてカメラ51,52からの物体の深度を計算する計算手段(計算部)としての深度計算部62、この深度計算部62により計算した物体の深度に基づいて掃除領域のマップを生成するマップ生成手段(マップ生成部)としての画像処理部63、深度計算部62により計算した物体の深度に基づいて距離画像を生成する画像生成手段(画像生成部)としての画像生成部64、および、深度計算部62により計算した深度に基づいて障害物を判定する障害物判定手段(障害物判定部)としての判定部65などを備えている。また、この制御部27は、走行部21のモータ35,35(駆動輪34,34)の動作を制御する走行制御部66、掃除部22の電動送風機41、ブラシモータ43およびサイドブラシモータ45の動作を制御する掃除制御部67、撮像部25のカメラ51,52を制御する撮像制御部68、および、撮像部25のランプ53を制御する照明制御部69などを備えている。そして、この制御部27は、例えば駆動輪34,34(モータ35,35)を駆動して電気掃除機11(本体ケース20)を自律走行させる走行モードと、充電装置12を介して二次電池28を充電する充電モードと、動作待機中の待機モードとを有している。
 メモリ61は、電気掃除機11の電源のオンオフに拘らず記憶した各種データを保持する、例えばフラッシュメモリなどの不揮発性のメモリである。
 深度計算部62は、カメラ51,52により撮像した画像と、カメラ51,52間の距離とに基づいて物体Oの深度を計算する、既知の方法が用いられる(図5)。すなわち、深度計算部62は、三角測量を応用し、カメラ51,52により撮像した各画像中から同一位置を示す画素ドットを検出し、この画素ドットの上下方向および左右方向の角度を計算して、これら角度とカメラ51,52間の距離とからその位置のカメラ51,52からの深度を計算する。したがって、カメラ51,52により撮像する画像は、可能な限り範囲が重なって(ラップして)いることが好ましい。
 画像処理部63は、深度計算部62により計算した物体の深度から、電気掃除機11(本体ケース20)の周囲の物体と電気掃除機11(本体ケース20)との距離を計算し、この距離とセンサ部26の回転数センサ55により検出した電気掃除機11(本体ケース20)の位置とから、電気掃除機11(本体ケース20)が配置された掃除領域CAおよびこの掃除領域CA内に位置する物体などの位置関係を計算してマップM(図7(b))を生成する。
 画像生成部64は、深度計算部62により計算した物体の深度を示す距離画像を生成する。この画像生成部64による距離画像の生成は、深度計算部62により計算された深度を、画像の1ドット毎などの所定ドット毎に明度、あるいは色調などの、視認により識別可能な階調に変換して表示することにより行われる。本実施形態において、画像生成部64は、深度が大きいほど明度が小さい白黒の画像、すなわち電気掃除機11(本体ケース20)からの前方への距離が遠いほど黒く距離が近いほど白い、例えば256階調(8ビット=28)のグレースケールの画像として距離画像P3(図6(c))を生成する。したがって、この距離画像P3は、いわば電気掃除機11(本体ケース20)の走行方向前方のカメラ51,52によって撮像される範囲内に位置する物体の深度データの集合体を可視化したものである。
 判定部65は、深度計算部62により計算した物体の深度に基づいて、物体が障害物であるかどうかを判定する。すなわち、この判定部65は、深度計算部62により計算した深度から、所定の範囲、例えば距離画像P3中の四角形状の所定の画像範囲A(図6(c))中の部分を抽出し、この画像範囲A中の物体Oの深度を、予め設定された、あるいは可変設定された閾値である設定距離D(図5)と比較し、この設定距離D以下の深度(電気掃除機11(本体ケース20)からの距離)に位置する物体Oを障害物であると判定する。画像範囲Aは、電気掃除機11(本体ケース20)の上下左右の大きさに応じて設定される。すなわち、画像範囲Aは、電気掃除機11(本体ケース20)がそのまま直進したときに接触する範囲に上下左右が設定される。
 走行制御部66は、モータ35,35に流れる電流の大きさおよび向きを制御することにより、モータ35,35を正転、あるいは逆転させることで、モータ35,35の駆動を制御し、これらモータ35,35の駆動を制御することで駆動輪34,34の駆動を制御している。
 掃除制御部67は、電動送風機41、ブラシモータ43、および、サイドブラシモータ45をそれぞれ別個に導通角制御することで、これら電動送風機41、ブラシモータ43(回転ブラシ42)、および、サイドブラシモータ45(サイドブラシ44)の駆動を制御している。なお、これら電動送風機41、ブラシモータ43、および、サイドブラシモータ45のそれぞれに対応して制御部を別個に設けてもよい。
 撮像制御部68は、カメラ51,52のシャッタの動作を制御する制御回路を備え、このシャッタを所定時間毎に動作させることで、所定時間毎にカメラ51,52により画像を撮像させるように制御する。
 照明制御部69は、スイッチなどを介してランプ53のオンオフを制御している。この照明制御部69は、本実施形態では、電気掃除機11の周囲の明るさを検出するセンサを備えており、このセンサにより検出した明るさが所定以下の場合にランプ53を点灯させ、その他のときにはランプ53を点灯させないようにするものである。
 また、二次電池28は、例えば本体ケース20の下面の後部の両側に露出する接続部としての充電端子71,71と電気的に接続されており、これら充電端子71,71が充電装置12側と電気的および機械的に接続されることで、充電装置12を介して充電されるようになっている。
 ホームゲートウェイ14は、アクセスポイントなどとも呼ばれ、建物内に設置され、ネットワーク15に対して例えば有線により接続されている。
 サーバ16は、ネットワーク15に接続されたコンピュータ(クラウドサーバ)であり、各種データを保存可能である。
 外部装置17は、建物の内部では例えばホームゲートウェイ14を介してネットワーク15に対して有線あるいは無線通信可能であるとともに、建物の外部ではネットワーク15に対して有線あるいは無線通信可能な、例えばPC(タブレット端末(タブレットPC))17aやスマートフォン(携帯電話)17bなどの汎用のデバイスである。この外部装置17は、少なくとも画像を表示する表示機能を有している。
 次に、上記第1の実施形態の動作を説明する。
 一般に、電気掃除装置は、電気掃除機11によって掃除をする掃除作業と、充電装置12によって二次電池28を充電する充電作業とに大別される。充電作業は、充電装置12に内蔵された定電流回路などの充電回路を用いる既知の方法が用いられるため、掃除作業についてのみ説明する。また、外部装置17などからの指令に応じてカメラ51,52の少なくともいずれかにより所定の対象物を撮像する撮像作業を別途備えていてもよい。
 電気掃除機11は、例えば予め設定された掃除開始時刻となったときや、リモコンまたは外部装置17によって送信された掃除開始の指令信号を受信したときなどのタイミングで、制御部27が待機モードから走行モードに切り換わり、この制御部27(走行制御部66)がモータ35,35(駆動輪34,34)を駆動させ充電装置12から所定距離離脱する。次いで、電気掃除機11は、画像処理部63により、掃除領域のマップを生成する。すなわち、電気掃除機11は、制御部27が、(走行制御部66により)その位置でモータ35,35(駆動輪34,34)を駆動させて電気掃除機11(本体ケース20)を旋回させながら、(撮像制御部68により)駆動させたカメラ51,52により画像を撮像し(図7(a))、これら画像と、カメラ51,52との間の距離に基づき、深度計算部62により掃除領域CAを囲む物体(壁や障害物など)と電気掃除機11(本体ケース20)との距離を計算する。そして、この計算した距離と、センサ部26の回転数センサ55により検出した充電装置12からの相対位置、すなわち自分の位置とに基づき、画像処理部63が掃除領域CAの大まかな外形やレイアウトをマッピングする。例えば図7(b)に示すように、掃除領域CAの形状や物体の配置によっては、生成されるマップM中にカメラ51,52の死角となる部分DAが生じることもあるが、この部分DAについては、以下の掃除作業に伴って電気掃除機11(本体ケース20)が走行して移動したときに再度同様に距離を測定したり、走行しながら物体との距離を測定したりすることで、マップを順次完成して行くことができる。なお、このマップは、生成時に例えばメモリ61などに一旦記憶しておけば、次回の掃除以降はメモリ61から読み出すだけでもよく、掃除の都度生成する必要はないが、メモリ61に記憶しているマップと異なる掃除領域CAを掃除する場合や、同じ掃除領域CAでも物体のレイアウトなどが変わっている場合もあるので、例えばユーザの指令などに応じて、あるいは所定期間毎などに適宜生成できるようにしてもよいし、一旦生成したマップを、掃除作業のときの物体の深度測定に基づいて随時更新してもよい。
 次いで、電気掃除機11は、生成したマップに基づいて、掃除領域CA内を自律走行しつつ掃除をする。この自律走行の際には、図8に示すフローチャートも参照しながら説明すると、まず、制御部27(撮像制御部68)により駆動させたカメラ51,52により走行方向前方を撮像する(ステップ1)。これら撮像した画像の少なくともいずれかは、メモリ61に記憶することができる。次に、これらカメラ51,52により撮像した画像と、カメラ51,52との間の距離に基づき、深度計算部62により物体などの深度を検出して、この深度から画像生成部64により距離画像を生成する(ステップ2)。具体的に、例えばカメラ51,52により図6(a)および図6(b)に示すような画像P1,P2を撮像した場合、その画像P1,P2に撮像された物体の深度を深度計算部62により計算して画像生成部64により生成した距離画像P3の例を図6(c)に示す。この距離画像P3も、例えばメモリ61に記憶することができる。そして、この生成した距離画像P3から、判定部65が、所定の画像範囲Aを切り出し(ステップ3)、この画像範囲A内に位置する物体の深度と所定の閾値とを比較して、その閾値以下に物体があるかどうか、換言すれば、画像範囲A内に所定の設定距離D以下の物体があるかどうかを判定する(ステップ4)。このステップ4において、所定の設定距離D以下でない、すなわち深度が大きいと判定した場合には、そのまま走行を継続し(ステップ5)、ステップ1に戻る。一方、ステップ4において、所定の設定距離Dよりも遠くない、換言すれば所定の設定距離D以下であると判定した場合には、物体が走行の邪魔になる障害物であると判定して、所定の回避動作ルーチンに進む(ステップ6)。この回避動作ルーチンとしては、様々な方法があるが、例えば制御部27(走行制御部66)がモータ35,35(駆動輪34,34)の駆動を制御して、電気掃除機11(本体ケース20)を停止させ、その位置、あるいは所定距離後退した位置で走行方向を変えるように旋回する。この回避動作ルーチンの後、電気掃除機11はステップ5に進んで走行を継続する。このように、電気掃除機11(本体ケース20)は、掃除領域CA内の床面上を、障害物を回避しながら隅々まで自律走行しつつ掃除部22を制御部27(掃除制御部67)により動作させて床面の塵埃を掃除する。すなわち、電気掃除機11は、障害物を検出しても掃除作業を継続するなど、継続した次の動作を行う。
 掃除部22では、制御部27(掃除制御部67)により駆動された電動送風機41、回転ブラシ42(ブラシモータ43)、あるいはサイドブラシ44(サイドブラシモータ45)により床面の塵埃を、吸込口31を介して集塵部46へと捕集する。そして、マップした掃除領域CAの掃除が完了した場合、あるいは掃除作業中に二次電池28の容量が所定量まで低下して掃除や撮像を完了させるのに不足している(二次電池28の電圧が放電終止電圧近傍まで低下している)などの所定条件時には、電気掃除機11では、充電装置12に帰還するように制御部27(走行制御部66)によってモータ35,35(駆動輪34,34)の動作を制御する。この後、充電端子71,71と充電装置12の充電用端子とが接続されると、掃除作業を終了し、制御部27が待機モード、あるいは充電モードに移行する。
 なお、メモリ61に記憶した画像のデータは、例えば電気掃除機11が充電装置12に帰還したとき、掃除作業中に随時、所定時間毎、あるいは外部装置17からの要求があったときなどに無線LANデバイス47を介してホームゲートウェイ14およびネットワーク15を経由してサーバ16に送信する。なお、送信が終了したデータは、メモリ61から消去、あるいは新たなデータを記憶する際に上書きすることで、メモリ61の容量を効率よく使用できる。
 サーバ16では、電気掃除機11から送信された画像のデータを保存し、外部装置17からの要求(アクセス)に応じてそれら画像のデータをダウンロード可能となっている。
 そして、外部装置17では、サーバ16からダウンロードされた画像が表示される。
 このように、第1の実施形態によれば、カメラ51,52を上下方向に略等しい位置、すなわち略同一高さにそれぞれ配置したので、カメラ51,52により撮像される各画像が上下方向にほぼずれることなく左右に重なる。このため、各画像が重なる範囲を広く確保でき、深度計算部62による深度計算の効率が向上するとともに、カメラ51,52により例えば天井や床などの、電気掃除機11(本体ケース20)の走行の際に障害物となりにくい範囲の撮像が少なくなるので、深度計算部62による物体の深度の計算を、電気掃除機11(本体ケース20)の走行の際に障害物となり得る可能性が高い部分に集中でき、この計算した物体の深度に基づいて判定部65により障害物を判定する際に効率がよい。
 また、カメラ51,52が可視光領域の画像を撮像するので、撮像した画像の画質が良好で、複雑な画像処理を施すことなく、ユーザが目視可能に容易に表示できるとともに、ランプ53により可視光領域を含む光を照明することで、暗い場所や夜間などであっても、カメラ51,52により確実に画像を撮像できる。
 なお、上記第1の実施形態において、例えば図9に示す第2の実施形態のように、カメラ51,52を本体ケース20(側面部20a)の左右方向に略等しい位置、すなわち上下に配置することもできる。この場合には、カメラ51,52を中心線L上にて上下に配置する、すなわち上下対称に配置し、これらカメラ51,52の中間位置にランプ53を配置する。この結果、カメラ51,52により撮像される各画像が左右方向にほぼずれることなく上下に重なる。このため、各画像が重なる範囲を広く確保でき、深度計算部62による深度計算の効率が向上するとともに、この深度計算部62により深度計算する物体を画像中の左右方向に広く取ることができるので、画像処理部63によってマップを生成する際に効率がよい。
 また、上記各実施形態において、カメラ51,52を、それぞれ赤外領域の画像を撮像する、赤外線カメラとすることもできる。この場合には、ランプ53によって、赤外領域を含む光を照明することで、昼夜を問わず、安定した画像を得ることができるとともに、暗い場所や夜間であっても周囲を明るくすることなくその暗さのまま画像を撮像できる。
 さらに、カメラ51,52の一方を可視光領域の画像を撮像するものとし、他方を赤外領域の画像を撮像するものとしてもよい。この場合には、画質が良好な可視光領域の画像をユーザが目視可能に容易に表示できる。
 また、画像の表示は、制御部27によって外部装置17で表示可能となるように処理する構成の他に、例えばそれぞれ外部装置17にインストールされた専用のプログラム(アプリケーション)により外部装置17で表示するように処理することもできるし、制御部27、あるいはサーバ16で予め処理をしておき、外部装置17のブラウザなどの汎用のプログラムにより表示することもできる。すなわち、表示制御手段(表示制御部)としては、サーバ16に保存されたプログラムや、外部装置17にインストールされたプログラムなどにより画像を表示させる構成とすることもできる。
 さらに、メモリ61に一時記憶した画像などのデータは、サーバ16に送信してサーバ16に記憶するようにしたが、メモリ61にそのまま記憶しておいてもよいし、外部装置17に記憶しておいてもよい。
 また、カメラ51,52で撮像した画像や画像生成部64で生成した距離画像は、外部装置17に限らず、例えば電気掃除機11自体に設けた表示部などに表示することもできる。この場合には、メモリ61からサーバ16へとホームゲートウェイ14およびネットワーク15経由でデータを送信しなくてもよく、電気掃除機11の構成や制御をより簡略化することもできる。
 さらに、カメラ51,52による障害物の検出を補助するために、例えば本体ケース20の後部など、カメラ51,52の視野外の位置での障害物検出用の接触センサなどのセンサを別途設けたり、本体ケース20の下面部20cに、床面の段差などを検出する赤外線センサなどの段差検出手段(段差センサ)を設けたりしてもよい。
 そして、深度計算部62、画像生成部64、判定部65、掃除制御部67、撮像制御部68および照明制御部69はそれぞれ制御部27中に備えたが、それぞれ互いに別構成としてもよいし、いずれか2つ以上を任意に組み合わせてもよい。
 さらに、深度計算部62による深度計算は、掃除作業時だけでなく、電気掃除機11(本体ケース20)の任意の走行時にも用いることができる。
 以上説明した少なくとも一つの実施形態によれば、本体ケース20の走行方向側を撮像するカメラ51,52を互いに視野が重なるように本体ケース20に離間して配置するとともに、これらカメラ51,52で撮像された画像に基づいて深度計算部62によりカメラ51,52からの物体の深度を計算することで、例えば赤外線センサや超音波センサなどを用いる場合と比較して、物体の物性(柔らかさや色など)に左右されることなく、また、小さな物体を見逃すことなく、物体およびその距離を検出できる。したがって、障害物の検出精度を向上できる。
 具体的に、深度計算部62は、各カメラ51,52により撮像した画像と、これらカメラ51,52間の距離に基づいて物体の深度を計算するので、特別に複雑な計算や処理を要することなく、物体の深度を精度よく計算できる。
 また、カメラ51,52の中心位置が電気掃除機11(本体ケース20)の走行方向と交差(直交)する幅方向の中心位置と略一致、すなわちカメラ51,52を電気掃除機11(本体ケース20)の左右に対称に配置しているので、例えば電気掃除機11(本体ケース20)の左右に壁などの障害物がある場合に、判定部65によって左右偏りなく障害物を判定できるとともに、カメラ51,52により撮像する画像の重なる部分が左右に均等となるため、判定部65により障害物を判定できる範囲をより広く、かつ、左右対称に取ることができる。
 さらに、本体ケース20の側面部20aにカメラ51,52を配置したので、本体ケース20の走行方向前方の画像を容易に撮像できるとともに、天井や床面などの、電気掃除機11(本体ケース20)の走行の際に障害物となりにくい範囲の撮像がより少なくなり、電気掃除機11(本体ケース20)の走行の障害物になる物体の深度を効率よく深度計算部62により計算できる。特に、本体ケース20の側面部20aを円筒面状とし、この側面部20aに中心線Lから対称にカメラ51,52を配置することで、これらカメラ51,52により撮像する画像の角度範囲を左右に略均等にすることができ、物体の深度をより効率よく深度計算部62により計算できる。
 また、深度計算部62により計算した物体の深度に基づき、掃除領域のマップを画像処理部63により生成することで、掃除作業時など、掃除領域内を電気掃除機11(本体ケース20)が走行する際にこのマップに基づいて効率よく走行できる。
 さらに、ランプ53を、カメラ51,52の間に配置することで、双方のカメラ51,52に対してそれぞれ1つのランプ53で照明できるとともに、複数のランプを用いる場合と比較して簡単な構成で、カメラ51,52により撮像した画像中に当たり光の方向および影の方向が一定となるので、外乱が生じにくく、これら画像に基づく物体の深度計算がより容易になる。
 そして、深度計算部62により計算した物体の深度に基づき、物体が障害物であるかどうかを判定部65により判定して、制御部27(走行制御部66)が、この判定部65により障害物と判定した物体を回避するように駆動輪34,34(モータ35,35)の駆動を制御するので、自律走行の精度を向上でき、掃除領域をより隅々まで効率よく掃除できる。
 また、深度計算部62により計算した物体の深度に基づき画像生成部64により距離画像を生成することで、この距離画像に基づいて判定部65により障害物を容易に判定できるとともに、この距離画像を外部装置17などで目視可能に表示することで、ユーザが電気掃除機11(本体ケース20)の位置や走行方向を確認したり、電気掃除機11(本体ケース20)の走行の妨げとなる障害物を把握したりすることが可能になる。したがって、電気掃除機11(本体ケース20)の走行の妨げとなる障害物を自主的に移動させたりどかせたりすることをユーザに促すこともできる。
 さらに、判定部65は、画像生成部64により生成した距離画像中の所定の画像範囲において、所定距離よりも近くにある物体を障害物と判定するので、距離画像全体から障害物を検出する場合と比較して高速に処理できるとともに、画像範囲を実際に電気掃除機11(本体ケース20)が走行することが予想される位置(走行予想位置)に対応して設定すれば、それ以外の位置にたとえ障害物が存在しても電気掃除機11(本体ケース20)の自律走行には影響がないから、この画像範囲内だけの処理で、走行の妨げとなる障害物を充分に検出できる。さらに、この画像範囲の上限を本体ケース20の高さに対応して設定することで、電気掃除機11(本体ケース20)が入り込める高さ方向の隙間をも検出できる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
 掃除部および複数のカメラを備えた本体ケースを自律走行させる電気掃除機の制御方法であって、互いに視野が重なるように本体ケースの走行方向側を複数のカメラにより撮像し、これら撮像された画像に基づいてこれらカメラからの物体の深度を計算することを特徴とした電気掃除機の制御方法。
 電気掃除機のカメラの中心位置が本体ケースの走行方向と交差する幅方向の中心位置と略一致していることを特徴とした電気掃除機の制御方法。
 電気掃除機のカメラが本体ケースの側面部に配置されていることを特徴とした電気掃除機の制御方法。
 電気掃除機のカメラが上下方向に略等しい位置にそれぞれ配置されていることを特徴とした電気掃除機の制御方法。
 電気掃除機のカメラが、左右方向に略等しい位置にそれぞれ配置されていることを特徴とした電気掃除機の制御方法。
 計算した物体の深度に基づき、掃除領域のマップを生成することを特徴とした電気掃除機の制御方法。
 可視光領域を含む光を照明した状態で各カメラにより可視光領域の画像を撮像することを特徴とした電気掃除機の制御方法。
 赤外領域を含む光を照明した状態で各カメラにより赤外領域の画像を撮像することを特徴とした電気掃除機の制御方法。
 一方のカメラが可視光領域の画像を撮像し、他方のカメラが赤外領域を含む光を照明した状態で赤外領域の画像を撮像することを特徴とした電気掃除機の制御方法。
 カメラの間の位置で光を照明することを特徴とした電気掃除機の制御方法。
 計算した物体の深度に基づき、物体が障害物であるかどうかを判定し、障害物と判定した物体を回避することを特徴とした電気掃除機の制御方法。
 各カメラにより撮像した画像と、これらカメラ間の距離に基づいて物体の深度を計算することを特徴とした電気掃除機の制御方法。
 計算した物体の深度に基づき距離画像を生成することを特徴とした電気掃除機の制御方法。
 生成した距離画像中の所定の画像範囲において、所定距離よりも近くにある物体を障害物と判定することを特徴とした電気掃除機の制御方法。

Claims (14)

  1.  本体ケースと、
     この本体ケースを走行可能とする駆動輪と、
     この駆動輪の駆動を制御することで前記本体ケースを自律走行させる制御手段と、
     被掃除面を掃除する掃除部と、
     前記本体ケースに離間されて配置され、互いに視野が重なるように前記本体ケースの走行方向側を撮像する撮像手段と、
     これら撮像手段で撮像された画像に基づいてこれら撮像手段からの物体の深度を計算する計算手段と
     を具備したことを特徴とした電気掃除機。
  2.  撮像手段の中心位置が本体ケースの走行方向と交差する幅方向の中心位置と略一致している
     ことを特徴とした請求項1記載の電気掃除機。
  3.  本体ケースは、側面部を備え、
     撮像手段は、前記側面部に配置されている
     ことを特徴とした請求項1または2記載の電気掃除機。
  4.  撮像手段は、上下方向に略等しい位置にそれぞれ配置されている
     ことを特徴とした請求項3記載の電気掃除機。
  5.  撮像手段は、左右方向に略等しい位置にそれぞれ配置されている
     ことを特徴とした請求項3記載の電気掃除機。
  6.  計算手段により計算した物体の深度に基づき、掃除領域のマップを生成するマップ生成手段を具備した
     ことを特徴とした請求項1ないし5いずれか一記載の電気掃除機。
  7.  可視光領域を含む光を照明する照明手段を具備し、
     各撮像手段は、可視光領域の画像を撮像する
     ことを特徴とした請求項1ないし6いずれか一記載の電気掃除機。
  8.  赤外領域を含む光を照明する照明手段を具備し、
     各撮像手段は、赤外領域の画像を撮像する
     ことを特徴とした請求項1ないし6いずれか一記載の電気掃除機。
  9.  赤外領域を含む光を照明する照明手段を具備し、
     一方の撮像手段は、可視光領域の画像を撮像し、
     他方の撮像手段は、赤外領域の画像を撮像する
     ことを特徴とした請求項1ないし6いずれか一記載の電気掃除機。
  10.  照明手段は、撮像手段の間に配置されている
     ことを特徴とした請求項7ないし9いずれか一記載の電気掃除機。
  11.  計算手段により計算した物体の深度に基づき、物体が障害物であるかどうかを判定する障害物判定手段を具備し、
     制御手段は、障害物判定手段により障害物と判定した物体を回避するように駆動輪の駆動を制御する
     ことを特徴とした請求項1ないし10いずれか一記載の電気掃除機。
  12.  計算手段は、各撮像手段により撮像した画像と、これら撮像手段間の距離に基づいて物体の深度を計算する
     ことを特徴とした請求項1ないし11いずれか一記載の電気掃除機。
  13.  計算手段により計算した物体の深度に基づき距離画像を生成する画像生成手段を具備した
     ことを特徴とした請求項1ないし12いずれか一記載の電気掃除機。
  14.  障害物判定手段は、画像生成手段により生成した距離画像中の所定の画像範囲において、所定距離よりも近くにある物体を障害物と判定する
     ことを特徴とした請求項13記載の電気掃除機。
PCT/JP2015/086093 2014-12-25 2015-12-24 電気掃除機 WO2016104640A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020167027245A KR101840158B1 (ko) 2014-12-25 2015-12-24 전기청소기
BR112017011346A BR112017011346A2 (pt) 2014-12-25 2015-12-24 aspirador de pó
MYPI2017702124A MY183984A (en) 2014-12-25 2015-12-24 Vacuum cleaner
US15/531,316 US10314452B2 (en) 2014-12-25 2015-12-24 Vacuum cleaner
EP15873208.1A EP3238593B1 (en) 2014-12-25 2015-12-24 Vacuum cleaner
CN201580068701.1A CN107105956B (zh) 2014-12-25 2015-12-24 电动吸尘器
CA2969202A CA2969202C (en) 2014-12-25 2015-12-24 Vacuum cleaner

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014263071A JP6729997B2 (ja) 2014-12-25 2014-12-25 電気掃除機
JP2014-263071 2014-12-25

Publications (1)

Publication Number Publication Date
WO2016104640A1 true WO2016104640A1 (ja) 2016-06-30

Family

ID=56150653

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/086093 WO2016104640A1 (ja) 2014-12-25 2015-12-24 電気掃除機

Country Status (9)

Country Link
US (1) US10314452B2 (ja)
EP (1) EP3238593B1 (ja)
JP (1) JP6729997B2 (ja)
KR (1) KR101840158B1 (ja)
CN (1) CN107105956B (ja)
BR (1) BR112017011346A2 (ja)
CA (1) CA2969202C (ja)
MY (1) MY183984A (ja)
WO (1) WO2016104640A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2569926A (en) * 2016-11-02 2019-07-03 Toshiba Lifestyle Products & Services Corp Electric vacuum cleaner
JP7042031B2 (ja) 2017-03-17 2022-03-25 日立グローバルライフソリューションズ株式会社 自律走行型掃除機、及び、自律走行型掃除機と充電台とを有するシステム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101659037B1 (ko) * 2015-02-16 2016-09-23 엘지전자 주식회사 로봇 청소기, 이를 포함하는 원격 제어 시스템 및 이의 제어 방법
JP6705636B2 (ja) 2015-10-14 2020-06-03 東芝ライフスタイル株式会社 電気掃除機
JP6831213B2 (ja) * 2016-11-09 2021-02-17 東芝ライフスタイル株式会社 電気掃除機
CN106826749B (zh) * 2017-01-22 2024-01-26 深圳飞鼠动力科技有限公司 移动机器人
JP7007108B2 (ja) * 2017-05-23 2022-01-24 東芝ライフスタイル株式会社 電気掃除機
JP2018196622A (ja) * 2017-05-24 2018-12-13 株式会社東芝 電子機器、方法及びプログラム
US10513037B2 (en) * 2017-12-15 2019-12-24 Ankobot (Shanghai) Smart Technologies Co., Ltd. Control method and system, and mobile robot using the same
KR102048364B1 (ko) * 2018-04-13 2019-11-25 엘지전자 주식회사 로봇 청소기
JP7030007B2 (ja) * 2018-04-13 2022-03-04 東芝ライフスタイル株式会社 自律型電気掃除機
JP2020010981A (ja) * 2018-07-20 2020-01-23 パナソニックIpマネジメント株式会社 自走式掃除機
AU2019392447A1 (en) 2018-12-03 2021-06-24 Sharkninja Operating Llc Optical indicium for communicating information to autonomous devices
JP7295657B2 (ja) * 2019-02-26 2023-06-21 東芝ライフスタイル株式会社 自律走行体装置
CN112294206B (zh) * 2019-07-29 2023-02-28 美智纵横科技有限责任公司 越障轮装置及自行走机器人

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005218560A (ja) * 2004-02-04 2005-08-18 Funai Electric Co Ltd 自走式掃除機
JP2005230032A (ja) * 2004-02-17 2005-09-02 Funai Electric Co Ltd 自律走行ロボットクリーナー
JP2006209644A (ja) * 2005-01-31 2006-08-10 Matsushita Electric Works Ltd 清掃ロボット
JP2007037713A (ja) * 2005-08-02 2007-02-15 Funai Electric Co Ltd 監視装置及び自走式掃除機
JP2014048842A (ja) * 2012-08-30 2014-03-17 Brother Ind Ltd 自律移動型機器
JP2014194729A (ja) * 2013-02-27 2014-10-09 Sharp Corp 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法
JP2014527841A (ja) * 2012-03-15 2014-10-23 アイロボット コーポレイション ロボット用の柔軟な固体バンパー
US20140336863A1 (en) * 2013-05-10 2014-11-13 Samsung Electronics Co., Ltd. Cleaning robot and control method thereof

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6496754B2 (en) * 2000-11-17 2002-12-17 Samsung Kwangju Electronics Co., Ltd. Mobile robot and course adjusting method thereof
JP3841220B2 (ja) * 2004-01-30 2006-11-01 船井電機株式会社 自律走行ロボットクリーナー
JP2007163223A (ja) * 2005-12-12 2007-06-28 Sharp Corp 移動量検知装置
US8961695B2 (en) * 2008-04-24 2015-02-24 Irobot Corporation Mobile robot for cleaning
GB2500214A (en) * 2012-03-13 2013-09-18 Thomas Ladyman Robot vision apparatus and control method and corresponding land robot
JP2013235351A (ja) * 2012-05-07 2013-11-21 Sharp Corp 自走式電子機器
JP2014013551A (ja) * 2012-07-05 2014-01-23 Sharp Corp 自走式機器
CN102866706B (zh) * 2012-09-13 2015-03-25 深圳市银星智能科技股份有限公司 一种采用智能手机导航的清扫机器人及其导航清扫方法
US8972061B2 (en) * 2012-11-02 2015-03-03 Irobot Corporation Autonomous coverage robot
JP6680453B2 (ja) * 2012-12-05 2020-04-15 フォルヴェルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハーVorwerk & Compagnie Interholding Gesellshaft Mit Beschrankter Haftung 走行式掃除機並びにこのような装置の運転方法
KR102061511B1 (ko) * 2013-04-26 2020-01-02 삼성전자주식회사 청소 로봇, 홈 모니터링 장치 및 그 제어 방법
CN203941451U (zh) * 2014-04-15 2014-11-12 桂林电子科技大学 基于手势识别的自动避障小车

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005218560A (ja) * 2004-02-04 2005-08-18 Funai Electric Co Ltd 自走式掃除機
JP2005230032A (ja) * 2004-02-17 2005-09-02 Funai Electric Co Ltd 自律走行ロボットクリーナー
JP2006209644A (ja) * 2005-01-31 2006-08-10 Matsushita Electric Works Ltd 清掃ロボット
JP2007037713A (ja) * 2005-08-02 2007-02-15 Funai Electric Co Ltd 監視装置及び自走式掃除機
JP2014527841A (ja) * 2012-03-15 2014-10-23 アイロボット コーポレイション ロボット用の柔軟な固体バンパー
JP2014048842A (ja) * 2012-08-30 2014-03-17 Brother Ind Ltd 自律移動型機器
JP2014194729A (ja) * 2013-02-27 2014-10-09 Sharp Corp 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法
US20140336863A1 (en) * 2013-05-10 2014-11-13 Samsung Electronics Co., Ltd. Cleaning robot and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2569926A (en) * 2016-11-02 2019-07-03 Toshiba Lifestyle Products & Services Corp Electric vacuum cleaner
JP7042031B2 (ja) 2017-03-17 2022-03-25 日立グローバルライフソリューションズ株式会社 自律走行型掃除機、及び、自律走行型掃除機と充電台とを有するシステム

Also Published As

Publication number Publication date
CN107105956A (zh) 2017-08-29
US10314452B2 (en) 2019-06-11
CA2969202A1 (en) 2016-06-30
CN107105956B (zh) 2019-08-23
EP3238593B1 (en) 2019-11-27
JP6729997B2 (ja) 2020-07-29
JP2016120168A (ja) 2016-07-07
BR112017011346A2 (pt) 2017-12-26
US20170360266A1 (en) 2017-12-21
EP3238593A1 (en) 2017-11-01
EP3238593A4 (en) 2018-08-15
CA2969202C (en) 2019-09-24
MY183984A (en) 2021-03-17
KR101840158B1 (ko) 2018-03-19
KR20160129065A (ko) 2016-11-08

Similar Documents

Publication Publication Date Title
WO2016104640A1 (ja) 電気掃除機
KR102001422B1 (ko) 전기청소기
KR102003787B1 (ko) 전기청소기
CN109891348B (zh) 自主行走体
JP6831213B2 (ja) 電気掃除機
WO2017141535A1 (ja) 自律走行体
WO2017141536A1 (ja) 自律走行体
JP6864433B2 (ja) 電気掃除機
WO2018216691A1 (ja) 電気掃除機
US20200064838A1 (en) Vacuum cleaner and travel control method thereof
CN110325089B (zh) 电动吸尘器
JP6912937B2 (ja) 電気掃除機

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15873208

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20167027245

Country of ref document: KR

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015873208

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15531316

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2969202

Country of ref document: CA

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112017011346

Country of ref document: BR

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 112017011346

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20170530