WO2018087951A1 - 自律走行体 - Google Patents

自律走行体 Download PDF

Info

Publication number
WO2018087951A1
WO2018087951A1 PCT/JP2017/021219 JP2017021219W WO2018087951A1 WO 2018087951 A1 WO2018087951 A1 WO 2018087951A1 JP 2017021219 W JP2017021219 W JP 2017021219W WO 2018087951 A1 WO2018087951 A1 WO 2018087951A1
Authority
WO
WIPO (PCT)
Prior art keywords
obstacle
map
unit
detected
traveling
Prior art date
Application number
PCT/JP2017/021219
Other languages
English (en)
French (fr)
Inventor
浩太 渡邊
井澤 浩一
裕樹 丸谷
Original Assignee
東芝ライフスタイル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 東芝ライフスタイル株式会社 filed Critical 東芝ライフスタイル株式会社
Priority to CN201780064439.2A priority Critical patent/CN109891348B/zh
Priority to US16/346,718 priority patent/US11221629B2/en
Priority to GB1906014.4A priority patent/GB2570239A/en
Publication of WO2018087951A1 publication Critical patent/WO2018087951A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4061Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Definitions

  • Embodiment of this invention is related with the autonomous running body which creates the map which describes the information of the area
  • the interior layout of the room is not always constant, and the arrangement of obstacles may change from when the map was created, so if you set the travel route based only on the stored map, There is a risk that the vehicle may be hindered by obstacles that are not marked on the map. Therefore, when an obstacle not described in the map is newly detected, it is conceivable to change the map in accordance with the detection and set the next and subsequent travel routes in accordance with the changed map.
  • the next travel route will be different from the original optimal route May be a route.
  • the problem to be solved by the present invention is to provide an autonomous traveling body capable of realizing efficient and highly accurate autonomous traveling.
  • the autonomous traveling body of the embodiment includes a main body case, drive wheels, self-position estimation means, obstacle detection means, map generation means, and control means.
  • the drive wheel is allowed to travel in the main body case.
  • the self position estimating means estimates the self position.
  • the obstacle detection means detects an obstacle outside the main body case.
  • the map generation means creates a map in which information on the area where the main body case has traveled is recorded based on the obstacle detection by the obstacle detection means while the main body case is traveling and the self-position estimated by the self-position estimation means.
  • the control means causes the main body case to autonomously travel by controlling the operation of the drive wheels. Further, the control means includes a travel mode for controlling the operation of the drive wheels so that the main body case autonomously travels along the travel route set based on the map. Then, this control means determines whether or not to change the next travel route based on the obstacle detected by the obstacle detection means in the travel mode.
  • FIG. 6 is an explanatory diagram illustrating an example of a distance image generated based on ().
  • (a) is explanatory drawing which shows an example of the memorize
  • (b) is explanatory drawing which shows an example of operation
  • It is a flowchart which shows control of an autonomous traveling body same as the above.
  • It is explanatory drawing which shows typically the state from which the position of the obstacle memorize
  • surface which shows the relationship of the presence or absence of the change of the time information of the autonomous traveling body of 2nd Embodiment, detection frequency, and a travel route.
  • reference numeral 11 denotes a vacuum cleaner as an autonomous traveling body
  • this vacuum cleaner 11 is a charging device (charging stand) as a base device that serves as a charging base portion of the vacuum cleaner 11.
  • 12 (FIG. 5) constitutes an electric cleaning device (electric cleaning system) as an autonomous traveling body device.
  • the vacuum cleaner 11 is a so-called self-propelled robot cleaner (cleaning robot) that cleans the floor surface while autonomously traveling (self-propelled) on the floor surface to be cleaned as a traveling surface.
  • cleaning robot cleaning robot
  • a general-purpose server 16 as data storage means (data storage unit) or display means (data storage unit) via an (external) network 15 such as the Internet It can be wired or wirelessly communicated with a general-purpose external device 17 that is a display unit).
  • the vacuum cleaner 11 includes a hollow main body case 20 (FIG. 2).
  • the vacuum cleaner 11 includes a traveling unit 21.
  • the electric vacuum cleaner 11 includes a cleaning unit 22 that cleans dust such as a floor surface.
  • the electric vacuum cleaner 11 includes a communication unit 23 that communicates with external devices including the charging device 12.
  • the vacuum cleaner 11 also includes an imaging unit 25 that captures an image.
  • the electric vacuum cleaner 11 includes a control unit 27 as a control means that is a controller.
  • the vacuum cleaner 11 includes a secondary battery 28 that is a battery.
  • the direction along the traveling direction of the vacuum cleaner 11 (main body case 20) is defined as the front-rear direction (arrow FR, RR direction shown in FIG. 2), and the left-right direction intersecting (orthogonal) with the front-rear direction ( The description will be made assuming that the width direction is the width direction.
  • the main body case 20 shown in FIGS. 2 to 4 is formed in a flat columnar shape (disk shape) or the like with, for example, a synthetic resin. That is, the main body case 20 includes a side surface portion 20a (FIG. 2), and an upper surface portion 20b (FIG. 2) and a lower surface portion 20c (FIG. 3) that are continuous with the upper and lower portions of the side surface portion 20a, respectively.
  • the side surface portion 20a of the main body case 20 is formed in a substantially cylindrical surface shape, and for example, an imaging unit 25 is disposed on the side surface portion 20a.
  • the upper surface portion 20b and the lower surface portion 20c of the main body case 20 are each formed in a substantially circular shape. As shown in FIG. 3, the lower surface portion 20c facing the floor surface has a suction port that is a dust collection port. 31 and the exhaust port 32 are opened.
  • the traveling unit 21 causes the main body case 20 to travel on the floor surface.
  • the traveling unit 21 includes drive wheels 34 and 34 as a plurality (a pair) of drive units. Further, the traveling unit 21 includes motors 35 and 35 (FIG. 1) which are driving means as an operation unit. Further, the traveling unit 21 may include a turning wheel 36 for turning.
  • Each drive wheel 34 causes the vacuum cleaner 11 (main body case 20) to travel in the forward and backward directions on the floor (autonomous traveling), that is, for traveling, and rotates not shown along the left-right width direction. It has an axis and is arranged symmetrically in the width direction.
  • Each motor 35 drives the drive wheels 34 and 34.
  • Each motor 35 (FIG. 1) is arranged corresponding to each of the drive wheels 34, for example, and can drive each drive wheel 34 independently.
  • the swivel wheel 36 is a driven wheel that is located at the front and substantially at the center in the width direction of the lower surface 20c of the main body case 20, and is capable of swiveling along the floor surface.
  • the cleaning unit 22 is located in the main body case 20, for example, an electric blower 41 that sucks dust together with air from the suction port 31 and exhausts it from the exhaust port 32, and a rotary cleaning body that is rotatably attached to the suction port 31 and scrapes up dust.
  • a side brush 44 that is an auxiliary cleaning unit
  • a side brush motor 45 that drives the side brush 44 (FIG. 1)
  • a dust collecting unit 46 that communicates with the suction port 31 and collects dust (FIG. 2). Yes.
  • the electric blower 41, the rotating brush 42 and the brush motor 43 (FIG. 1), and the side brush 44 and the side brush motor 45 (FIG. 1) may be provided with at least one of them.
  • the communication unit 23 shown in FIG. 1 includes, for example, a wireless communication unit (wireless communication unit) and a vacuum cleaner signal receiving unit (a vacuum cleaner signal receiving unit) for wireless communication with the external device 17 via the home gateway 14 and the network 15.
  • the wireless LAN device 47 may be provided as a notification means (notification unit).
  • the communication unit 23 may include a transmission unit (transmission unit) (not illustrated) such as an infrared light emitting element that transmits a radio signal (infrared signal) to the charging device 12 (FIG. 5), for example.
  • the communication unit 23 may include a receiving unit (receiving unit) (not shown) such as a phototransistor that receives a radio signal (infrared signal) from the charging device 12 or a remote control (not shown), for example.
  • a receiving unit such as a phototransistor that receives a radio signal (infrared signal) from the charging device 12 or a remote control (not shown), for example.
  • the communication unit 23 may be equipped with an access point function to directly communicate with the external device 17 without using the home gateway 14.
  • a web server function may be added to the communication unit 23.
  • the wireless LAN device 47 transmits and receives various types of information to and from the network 15 via the home gateway 14 from the vacuum cleaner 11.
  • the imaging unit 25 includes a plurality of, for example, cameras 51a and 51b as one and other imaging units (imaging unit main body), and lamps such as LEDs as illumination units (illumination units) that illuminate the cameras 51a and 51b. 53.
  • the cameras 51 a and 51 b are disposed on both sides of the front portion of the side surface portion 20 a of the main body case 20.
  • the cameras 51a and 51b have a predetermined angle (equivalent to the left-right direction) with respect to the center line L in the width direction of the vacuum cleaner 11 (main body case 20) on the side surface portion 20a of the main body case 20. (Acute angle) It is arranged at an inclined position.
  • these cameras 51a and 51b are arranged substantially symmetrically in the width direction with respect to the main body case 20, and the center positions of these cameras 51a and 51b are in the traveling direction of the vacuum cleaner 11 (main body case 20).
  • these cameras 51a and 51b are respectively arranged at substantially equal positions in the vertical direction, that is, at substantially equal height positions. For this reason, these cameras 51a and 51b are set to have substantially the same height from the floor surface with the vacuum cleaner 11 placed on the floor surface. Therefore, the cameras 51a and 51b are arranged to be spaced apart from each other (positions displaced in the left-right direction).
  • these cameras 51a and 51b are arranged in such a way that a digital image is displayed at a predetermined horizontal angle of view (for example, 105 °) at a predetermined time, for example, every several tens of milliseconds, in front of the main body case 20 in the traveling direction. It is a digital camera that takes images every hour or every few seconds. Furthermore, these cameras 51a and 51b have their imaging ranges (fields of view) Va and Vb overlapping (FIG. 6), and images P1 and P2 (one and the other) captured by these cameras 51a and 51b (FIG. 7).
  • the imaging region is wrapped in the left-right direction in a region including a forward position where the center line L in the width direction of the vacuum cleaner 11 (main body case 20) is extended.
  • these cameras 51a and 51b capture, for example, a color image in the visible light region. Note that images captured by these cameras 51a and 51b can be compressed into a predetermined data format by an image processing circuit (not shown), for example.
  • the lamp 53 outputs illumination light when an image is captured by the cameras 51a and 51b, and is disposed at an intermediate position between the cameras 51a and 51b, that is, a position on the center line L of the side surface portion 20a of the main body case 20.
  • the lamp 53 is disposed at a position substantially equal to the cameras 51a and 51b in the vertical direction, that is, at a substantially equal height. Accordingly, the lamp 53 is disposed at a substantially central portion in the width direction of the cameras 51a and 51b.
  • the lamp 53 illuminates light including a visible light region.
  • the lamp 53 may be set for each of the cameras 51a and 51b.
  • the sensor unit 26 shown in FIG. 1 may include, for example, a step sensor (step detecting means (step detecting unit)) 56.
  • the sensor unit 26 may include a temperature sensor (temperature detection means (temperature detection unit)) 57, for example.
  • the sensor unit 26 may include, for example, a dust amount sensor (dust amount detecting means (dust amount detecting unit)) 58.
  • the sensor unit 26 is a light that detects the turning angle and travel distance of the vacuum cleaner 11 (main body case 20 (FIG. 2)) by detecting, for example, the rotational speed of each drive wheel 34 (each motor 35).
  • a rotation speed sensor such as an encoder may be provided.
  • the sensor unit 26 may include a non-contact type obstacle sensor that detects an obstacle using ultrasonic waves, infrared rays, or the like. Further, the sensor unit 26 may include a contact type obstacle sensor that detects an obstacle in contact. A rotation speed sensor or an obstacle sensor is not an essential component.
  • the step sensor 56 is, for example, a non-contact sensor such as an infrared sensor or an ultrasonic sensor, and outputs infrared or ultrasonic waves toward a detection target, here a floor surface, and receives a reflected wave from the detection target.
  • a distance sensor that detects the distance between the step sensor 56 and the detection target based on the time difference between transmission and reception is used. That is, the level difference sensor 56 detects the level difference of the floor surface by detecting the distance between the level difference sensor 56 (position where the level difference sensor 56 is disposed) and the floor surface.
  • the step sensor 56 is disposed on the lower surface portion 20 c of the main body case 20.
  • the step sensor 56 is disposed, for example, in front of and behind the drive wheels 34, 34, and in the front part of the swivel wheel 36 (the lower front part of the main body case 20).
  • the temperature sensor 57 shown in FIG. 1 for example, a non-contact sensor that detects the temperature of the detection target by detecting infrared rays emitted from the detection target is used.
  • the temperature sensor 57 is arranged, for example, on the side surface portion 20a or the upper surface portion 20b (FIG. 2) of the main body case 20, and detects the temperature of the detection target in front of the main body case 20 (FIG. 2).
  • the temperature may be detected based on an infrared image captured by the cameras 51a and 51b.
  • the dust amount sensor 58 includes, for example, a light emitting unit and a light receiving unit disposed inside an air passage communicating from the suction port 31 (FIG. 3) to the dust collecting unit 46 (FIG. 2), and passes through the air passage.
  • An optical sensor or the like is used that detects the amount of dust by increasing or decreasing the amount of light received by the light receiving unit from the light emitting unit according to the amount of dust.
  • dust amount detection means dust amount detection unit (dust amount sensor) for detecting minute dust visible on the floor surface from images taken by the cameras 51a and 51b is provided. You may prepare.
  • the control unit 27 shown in FIG. 1 controls the traveling unit 21, the cleaning unit 22, the communication unit 23, the imaging unit 25, and the like.
  • the control unit 27 includes, for example, a CPU that is a control unit main body (control unit main body), a ROM that is a storage unit that stores fixed data such as a program read by the CPU, and a work that is a work area for data processing by the program.
  • the microcomputer includes a RAM (not shown) as an area storage unit that dynamically forms various memory areas such as areas.
  • the control unit 27 further includes a memory 61 as a storage unit (storage unit), for example.
  • the control unit 27 includes an image processing unit 62, for example.
  • the control unit 27 includes an image generation unit 63 as, for example, a distance image generation unit (distance image generation unit). Further, the control unit 27 includes a shape acquisition unit 64 that is, for example, a shape acquisition unit. Further, the control unit 27 includes an extraction unit 65 which is, for example, an extraction unit. Further, the control unit 27 includes, for example, a determination unit 66 as a determination unit. In addition, the control unit 27 includes a map generation unit 67 that is a map generation unit that generates, for example, a travel map. Further, the control unit 27 includes a route setting unit 68 that sets a travel route based on, for example, a map. Further, the control unit 27 may include, for example, a travel control unit 69.
  • control unit 27 may include a cleaning control unit 70, for example. Further, the control unit 27 may include an imaging control unit 71, for example. Further, the control unit 27 may include an illumination control unit 72, for example. And this control part 27 is equipped with the driving mode which drives the driving wheels 34 and 34 (FIG. 3), ie, the motors 35 and 35, and makes the vacuum cleaner 11 (main body case 20 (FIG. 2)) autonomously drive, for example. . Further, the control unit 27 may have a charging mode for charging the secondary battery 28 via the charging device 12 (FIG. 5). Further, the control unit 27 may include a standby mode during operation standby.
  • the memory 61 can store data of images taken by the cameras 51a and 51b, for example.
  • the memory 61 may store a threshold value used in the determination unit 66, for example.
  • the memory 61 may store various data such as a map created by the map generation unit 67, for example.
  • a non-volatile memory such as a flash memory that holds various data stored regardless of whether the electric power of the vacuum cleaner 11 is turned on or off is used.
  • the image processing unit 62 performs image processing such as lens distortion correction and contrast adjustment of images captured by the cameras 51a and 51b.
  • the image processing unit 62 is not an essential configuration.
  • the image generation unit 63 uses a known method to capture an image captured by the cameras 51a and 51b, in this embodiment, an image captured by the cameras 51a and 51b and processed by the image processing unit 62, and between the cameras 51a and 51b.
  • the distance (depth) of the object (feature point) is calculated based on the distance of the object, and a distance image (parallax image) indicating the calculated distance of the object (feature point) is generated. That is, the image generation unit 63 applies triangulation based on the distance between the cameras 51a and 51b and the object (feature point) O and the distance between the cameras 51a and 51b (FIG. 6), for example.
  • the pixel dots indicating the same position are detected from the respective images (images processed by the image processing unit 62) captured by, and the vertical and horizontal angles of the pixel dots are calculated, and these angles and the cameras 51a, The distance from the cameras 51a and 51b at that position is calculated from the distance between 51b. Therefore, it is preferable that the images captured by the cameras 51a and 51b overlap (wrap) as much as possible.
  • the distance image is generated by the image generation unit 63 by converting the calculated distance of each pixel dot into a gradation that can be identified by visual recognition, such as brightness or color tone for each predetermined dot such as one dot. Is displayed.
  • the image generation unit 63 is a black and white image that has a smaller brightness as the distance increases, that is, the blacker the distance to the front from the vacuum cleaner 11 (main body case 20), the whiter the distance is, for example, 256.
  • the image generation unit 63 may generate a distance image only for pixel dots within a predetermined image range in each image captured by the cameras 51a and 51b, or generate a distance image of the entire image. May be.
  • the shape acquisition unit 64 acquires the shape information of the object in the images captured by the cameras 51a and 51b. That is, the shape acquisition unit 64 acquires shape information of the object O located at a predetermined distance D (or a predetermined distance range) with respect to the distance image generated by the image generation unit 63 (FIG. 6). As an example of the distance image, the shape acquisition unit 64 detects the pixel dot distance at a predetermined distance (or distance range) with respect to an object O such as an empty can captured in the distance image PL. The horizontal dimension, ie, the width dimension W, and the vertical dimension, ie, the height dimension H of the object O can be detected (FIG. 7 (c)). In addition, the shape acquisition unit 64 acquires the shape information (width dimension and height dimension) of the object, thereby obtaining the shape information (width dimension and height dimension) of the space or hole where the object does not exist. Can be obtained indirectly.
  • the extraction unit 65 extracts feature points based on images captured by the cameras 51a and 51b. That is, the extraction unit 65 extracts feature points in the distance image by performing feature detection (feature extraction) such as edge detection on the distance image generated by the image generation unit 63. This feature point is a reference point when the vacuum cleaner 11 estimates the self position in the cleaning region. Note that any known method can be used as the edge detection method.
  • the determination unit 66 includes information detected by the sensor unit 26 (step sensor 56, temperature sensor 57, dust amount sensor 58), shape information of an object at a predetermined distance (or a predetermined distance range) acquired by the shape acquisition unit 64, or Shape information such as narrow spaces located between objects, feature points extracted by the extraction unit 65, and images captured by the cameras 51a and 51b.
  • shape information such as narrow spaces located between objects, feature points extracted by the extraction unit 65, and images captured by the cameras 51a and 51b.
  • an object in the image processed by the image processing unit 62 Information (height, material, and color tone), etc., and based on these determinations, the self-position of the vacuum cleaner 11 and the presence / absence of an obstacle are determined, and the vacuum cleaner 11 ( The necessity of changing the travel control and the cleaning control of the main body case 20 (FIG.
  • the self-position estimation unit as self-position estimation means for estimating the self-position of the vacuum cleaner 11 by the cameras 51a and 51b (image processing unit 62), the image generation unit 63, the extraction unit 65, the determination unit 66, and the like 73 is configured, and the presence or absence of an obstacle is detected by the sensor unit 26 (step sensor 56), the cameras 51a and 51b (image processing unit 62), the image generation unit 63, the shape acquisition unit 64, the determination unit 66, and the like.
  • An obstacle detection unit 74 is configured as an obstacle detection means, and includes a sensor unit (step sensor 56, temperature sensor 57, dust amount sensor 58), cameras 51a and 51b (image processing unit 62), image generation unit 63, and shape acquisition.
  • the information acquisition unit 75 as information acquisition means for acquiring various types of information on the cleaning area is configured by the unit 64, the determination unit 66, and the like.
  • the self-position estimation unit 73 estimates the self-position by collating the feature points stored in the map with the feature points extracted by the extraction unit 65 from the distance image.
  • the obstacle detection unit 74 detects the presence or absence of an object (including a step) that becomes an obstacle depending on whether or not there is an object within a predetermined image range in the distance image.
  • the information acquisition unit 75 acquires, for example, the floor level information detected by the level sensor 56, the temperature information of the object detected by the temperature sensor 57, the dust level of the floor detected by the dust sensor 58, and the shape acquisition unit 64. Acquire the shape such as the height and width dimensions of the object, the material information of the floor surface, the color tone of the floor surface, and the like.
  • the map generation unit 67 uses the shape of the object acquired by the shape acquisition unit 64 and the position of the vacuum cleaner 11 (main body case 20 (FIG. 2)) estimated by the self-position estimation unit 73 to A map is created by calculating the positional relationship between the cleaning area in which the main body case 20 (FIG. 2) is disposed and the objects located in the cleaning area.
  • the route setting unit 68 uses the map generated by the map generation unit 67, the self-position estimated by the self-position estimation unit 73, and the detection frequency of an object that becomes an obstacle detected by the obstacle detection unit 74, to make an optimal travel Set the route.
  • the optimal travel route to be generated is a route that can travel in the shortest travel distance in a region that can be cleaned in the map (a region that cannot be traveled such as an obstacle or a step), such as a vacuum cleaner 11 ( The main body case 20 (FIG. 2)) travels as straight as possible (the least direction change), the path with the least contact with the obstructing object, or the number of times of traveling the same part is minimized.
  • a route that can efficiently travel (clean) such as a route is set.
  • a plurality of relay points (subgoals) are set on this travel route.
  • the traveling control unit 69 causes the motors 35 and 35 (driving wheels 34 and 34 (FIG. 3) of the traveling unit 21 to travel the electric vacuum cleaner 11 (main body case 20) along the traveling route set by the route setting unit 68. )) Is controlled.
  • the travel control unit 69 controls the operation of the motors 35 and 35 by controlling the magnitude and direction of the current flowing through the motors 35 and 35 to rotate the motors 35 and 35 forward or backward. By controlling the operation of these motors 35, 35, the operation of the drive wheels 34, 34 (FIG. 3) is controlled.
  • the traveling control unit 69 is configured to control the traveling direction and / or traveling speed of the electric vacuum cleaner 11 (main body case 20) according to the determination of the determining unit 66.
  • the cleaning control unit 70 controls the operation of the electric blower 41, the brush motor 43, and the side brush motor 45 of the cleaning unit 22. That is, the cleaning control unit 70 controls the energization amounts of the electric blower 41, the brush motor 43, and the side brush motor 45 separately, so that the electric blower 41, the brush motor 43 (the rotating brush 42 (FIG. 3 )) And the operation of the side brush motor 45 (side brush 44 (FIG. 3)).
  • the cleaning control unit 70 is configured to control the operation of the cleaning unit 22 in accordance with the determination of the determination unit 66.
  • a controller may be provided separately for each of the electric blower 41, the brush motor 43, and the side brush motor 45.
  • the imaging control unit 71 controls the operations of the cameras 51a and 51b of the imaging unit 25. That is, the imaging control unit 71 includes a control circuit that controls the operation of the shutters of the cameras 51a and 51b, and causes the cameras 51a and 51b to capture images every predetermined time by operating the shutters every predetermined time. To control.
  • the illumination control unit 72 controls the operation of the lamp 53 of the imaging unit 25. That is, the illumination control unit 72 controls on / off of the lamp 53 via a switch or the like.
  • the illumination control unit 72 includes a sensor that detects the brightness around the vacuum cleaner 11, and the lamp 53 is turned on when the brightness detected by the sensor is equal to or lower than a predetermined value. In this case, the lamp 53 is not turned on.
  • the imaging control unit 71 and the illumination control unit 72 may be configured as imaging control means (imaging control unit) separate from the control unit 27.
  • the secondary battery 28 supplies power to the traveling unit 21, the cleaning unit 22, the communication unit 23, the imaging unit 25, the sensor unit 26, the control unit 27, and the like.
  • the secondary battery 28 is electrically connected to charging terminals 77 and 77 as connection portions exposed on both sides of the rear portion of the lower surface portion 20c of the main body case 20 shown in FIG. Is electrically and mechanically connected to the charging device 12 (FIG. 5), so that the battery is charged via the charging device 12 (FIG. 5).
  • the home gateway 14 shown in FIG. 1 is also called an access point or the like, is installed in a building, and is connected to the network 15 by wire, for example.
  • the server 16 is a computer (cloud server) connected to the network 15, and can store various data.
  • the external device 17 can be wired or wirelessly communicated with the network 15 via the home gateway 14 inside the building, for example, and can be wired or wirelessly communicated with the network 15 outside the building.
  • a general-purpose device such as a terminal (tablet PC) 17a and a smartphone (mobile phone) 17b.
  • the external device 17 has at least a display function for displaying an image.
  • the electric vacuum cleaner is roughly classified into a cleaning operation for cleaning with the electric vacuum cleaner 11 and a charging operation for charging the secondary battery 28 with the charging device 12. Since a known method using a charging circuit such as a constant current circuit built in the charging device 12 is used for the charging operation, only the cleaning operation will be described.
  • an imaging operation for imaging a predetermined object by at least one of the cameras 51a and 51b according to a command from the external device 17 or the like may be provided.
  • the control unit 27 when the vacuum cleaner 11 reaches a preset cleaning start time or receives a cleaning start command signal transmitted from the remote controller or the external device 17, the control unit 27 is set in the standby mode. The mode is switched to the travel mode, and the control unit 27 (travel control unit 69) drives the motors 35 and 35 (drive wheels 34 and 34) to leave the charging device 12 by a predetermined distance.
  • the vacuum cleaner 11 creates a map of the cleaning area by the map generation unit 67.
  • the control unit 27 running control unit 69
  • the vacuum cleaner 11 main body case 20
  • the control unit 27 causes the vacuum cleaner 11 (main body case 20) to run along the outer wall of the cleaning area, or to turn at that position.
  • the presence / absence of an object that becomes an obstacle by the obstacle detection unit 74 and various information by the information acquisition unit 75 and create a map based on the current position of the vacuum cleaner 11 (map creation mode) . If the control unit 27 determines that the entire cleaning area has been mapped, the map creation mode is terminated and the process proceeds to a cleaning mode described later.
  • the map creation mode in addition to the case where the vacuum cleaner 11 is activated in a state where the map generation unit 67 has not created a map of the cleaning area (the map is not stored in the memory 61), for example, the map is created by the user. This is selected when a new creation or change instruction is entered.
  • the detection frequency of the detected object is ignored when the travel route is set by the route setting unit 68 at the next cleaning, and at least part of the information such as the position of the detected object, for example, all is detected. This is used to change the travel route for the next cleaning.
  • the cleaning unit 22 may be operated to perform cleaning simultaneously with map creation.
  • the created map MP has a cleaning area (room) divided into meshes M having a predetermined size such as a square shape (square shape).
  • the object detected by the obstacle detection unit 74 (FIG. 1) and the information acquired by the information acquisition unit 75 (FIG. 1) are associated with each other and stored in the memory 61.
  • the stored information includes the height, material, color tone, shape, temperature, feature point, detection frequency, and the like of an object in the mesh M.
  • the presence / absence of an object is acquired by the obstacle detection unit 74 shown in FIG. 1, and the height and shape of the object are acquired by the shape acquisition unit 64 based on images captured by the cameras 51a and 51b, and the material and color tone of the object are acquired.
  • This map MP is stored in, for example, the memory 61 at the time of generation, and is read from the memory 61 and used after the next cleaning. However, since the layout of the object may be changed even in the same cleaning area, in this embodiment, the map MP once created is updated as needed based on the distance measurement of the object in the cleaning mode described later.
  • the map MP may be generated as appropriate according to, for example, a user command, or may be input in advance by the user without providing a map creation mode.
  • the control unit 27 (route setting unit 68) generates an optimal travel route based on the map, and performs cleaning while autonomously traveling in the cleaning area along the travel route (cleaning mode).
  • the cleaning unit 22 has an electric blower 41 driven by a control unit 27 (cleaning control unit 70), a brush motor 43 (rotary brush 42 (FIG. 3)), or a side brush motor 45 (side brush 44 ( 3)), the dust on the floor is collected into the dust collecting part 46 (FIG. 2) through the suction port 31 (FIG. 3).
  • the vacuum cleaner 11 operates the cleaning unit 22 while moving toward the relay point along the traveling route by the obstacle detection unit 74 and the information acquisition unit 75.
  • the presence / absence of the object and various information are acquired, and the self-position estimating unit 73 periodically estimates the self-position and repeats the operation of passing through the relay point. That is, the electric vacuum cleaner 11 travels so as to sequentially pass through the set relay points while cleaning. For example, when the map MP shown in FIG. 8 (a) is stored, the vacuum cleaner 11 goes straight from the predetermined start position (for example, the upper left position in the figure) toward the relay point SG, and turns 90 °. Then, the travel route RT is set so that the vehicle travels straight toward the next relay point SG and repeats the operation of.
  • the predetermined start position for example, the upper left position in the figure
  • the search operation is performed assuming that the cleaning area is different from the information recorded on the map.
  • the vacuum cleaner 11 detects these objects O1 and O2. Perform a search operation to search. Specifically, the vacuum cleaner 11 sets a provisional travel route RT1 (relay point SG1) so as to travel along the periphery of the objects O1 and O2. That is, since the relay point SG is set on the travel route RT generated based on the map MP, if the state of the cleaning area is as the map MP, it is on the travel route RT between the relay points SG and SG. Since there is no object that becomes an obstacle (FIG.
  • the map MP and the actual state of the cleaning area are different.
  • the vacuum cleaner 11 is travel-controlled by the control unit 27 so as to travel while grasping the difference by acquiring information by the information acquisition unit 75 shown in FIG. Accordingly, the map generation unit 67 can reflect the result on the map.
  • an object that becomes an obstacle is detected by the map generation unit 67 by performing a search operation to search for an object around the position where the object is not detected. Can be reflected on the map with higher accuracy.
  • the control unit 27 determines whether or not to change the travel route (step 1). At this time, whether or not to change the travel route is determined based on, for example, the detection frequency of the object described on the map. That is, the control unit 27 (route setting unit 68) refers to the detection frequency of the object written on the map, and when this detection frequency is equal to or higher than a predetermined value (for example, when the detection frequency is equal to or higher than the predetermined frequency).
  • the travel route is changed so that the optimum travel route for avoiding the obstacle is set assuming that the object is an obstacle that is routinely arranged in the cleaning area (step 2). move on.
  • step 1 when the detection frequency is less than a predetermined value (for example, when the number of detections is less than the predetermined number), the possibility that the obstacle is an obstacle that is temporarily arranged cannot be denied. It is assumed that the process proceeds to step 3 below without changing the travel route. That is, for example, when the number of detections indicating how many times the cleaning has detected an object that becomes an obstacle in the most recent predetermined multiple cleanings is used as the detection frequency, the number of detections is predetermined multiple times, for example 3 The object that has become more than the number of times is used for changing the travel route, and less than three times, that is, the object that is detected for the first time or the object that is detected for the second time is not used for the change of the travel route.
  • a travel command determined by the relationship between the set travel route and the self-position for example, a suitable travel command for determining the distance and the turning direction and angle when turning (changing direction) when traveling straight Is output from the determination unit 66 to the travel control unit 69, and the travel control unit 69 operates the motors 35 and 35 (drive wheels 34 and 34 (FIG. 3)) according to the travel command.
  • the front of the traveling direction is imaged by the cameras 51a and 51b driven by the control unit 27 (imaging control unit 71) (step 4). At least one of these captured images can be stored in the memory 61. Further, based on the images captured by the cameras 51a and 51b and the distance between the cameras 51a and 51b, the image generating unit 63 calculates the distance of an object (feature point) within a predetermined image range (step 5). Specifically, for example, when images P1 and P2 (for example, FIGS. 7A and 7B) are captured by the cameras 51a and 51b, the images P1 and P2 (in this embodiment, the image processing unit 62 performs image processing). The image generation unit 63 calculates the distance of each pixel dot in the image).
  • the image generation unit 63 generates a distance image based on the calculated distance (step 6). This distance image can also be stored in the memory 61, for example.
  • An example of the distance image PL generated by the image generation unit 63 is shown in FIG.
  • the shape acquisition unit 64 shown in FIG. 1 acquires shape information of an object at a predetermined distance (or a predetermined distance range) (step 7). At this time, by detecting a width dimension, a height dimension, and the like as the shape information of the object, the shape information of the narrow space can also be acquired.
  • the extraction unit 65 extracts feature points from the generated distance image (step 8). Then, the self-position estimation unit 73 estimates the self-position by collating the feature points extracted by the extraction unit 65 with the feature points described in the map (step 9).
  • control unit 27 determines whether or not the vacuum cleaner 11 has reached the relay point from the estimated self-position (step 10). If it is determined in step 10 that the relay point has been reached, the control unit 27 (determination unit 66) determines whether or not the current position of the vacuum cleaner 11 is the final point of arrival (step 11). . If it is determined in step 11 that the current position of the vacuum cleaner 11 is not the final destination, the process returns to step 3, and if it is determined that the current position of the vacuum cleaner 11 is the final destination, cleaning is performed. Is finished (step 12).
  • control unit 27 controls the operation of the motors 35 and 35 (drive wheels 34 and 34) so that the vacuum cleaner 11 returns to the charging device 12, and the charging terminal 77 and 77 (FIG. 3) and the charging terminal of the charging device 12 (FIG. 5) are connected, and the control unit 27 shifts to the standby mode or the charging mode.
  • the control unit 27 determines whether the electric vacuum cleaner 11 is based on the shape information of the object acquired by the shape acquisition unit 64. It is determined whether or not there is an object that becomes an obstacle at a predetermined distance (or within a predetermined distance range) in front of the cleaner 11 (main body case 20 (FIG. 2)) (step 13). Specifically, the determination unit 66, based on the width and height dimensions of the object acquired by the shape acquisition unit 64, the horizontal or vertical interval between the objects, at least the object within a predetermined image range of the distance image It is determined whether or not a part is located.
  • This image range is obtained when the vacuum cleaner 11 (main body case 20 (FIG. 2)) is located at a predetermined distance D (FIG. 6) from the cameras 51a and 51b or at a predetermined position within the predetermined distance range.
  • This corresponds to the outer shape (size of top, bottom, left and right) of the vacuum cleaner 11 (main body case 20). Therefore, when the object is located within the predetermined distance D (FIG. 6) or within the predetermined distance range within this image range, an obstacle not marked on the map is located on the travel route connecting the relay points. It means to do.
  • step 14 When it is determined in step 13 that there is an object, the control unit 27 causes the vacuum cleaner 11 to perform a search operation (step 14). This search operation will be described later. In this search operation, the cleaning unit 22 may be driven or stopped, but in this embodiment, the cleaning unit 22 is driven. Further, when it is determined in step 13 that there is no object, the control unit 27 detects whether or not an object that becomes an obstacle described in the map has been detected, that is, whether or not an object that becomes an obstacle has disappeared. Is determined (step 15). If it is determined in step 15 that an object is detected (the object is not lost), the process returns to step 3. If it is determined that an object is not detected (the object is lost), the process proceeds to step 14. Then, the vacuum cleaner 11 is caused to perform a search operation.
  • control unit 27 determines whether or not to end the search operation (step 16). Whether or not to end the search operation is determined by whether or not the object has been circulated. If it is determined not to end the search operation (continue the search operation), the process returns to step 14, and if it is determined to end the search operation, the process returns to step 3.
  • the control unit 27 (running control unit 69) shown in FIG. 1 records the vacuum cleaner 11 (main body case 20 (FIG. 2)) on an object that is not shown on the map or on the map. Information is acquired by the information acquisition unit 75 while controlling the operation of the motors 35 and 35 (drive wheels 34 and 34 (FIG. 3)) so that the vehicle travels in a different position from the map such as a region where there is no object despite being applied. To get.
  • the control unit 27 (travel control unit 69) causes the vacuum cleaner 11 (main body case 20 (FIG. 2)) to travel along the periphery of the object. If the object indicated on the map is not detected by the obstacle detection unit 74, for example, the vacuum cleaner 11 (main body case 20 (FIG. 2)) is arranged around the position of the object indicated on the map. And run.
  • the information acquisition unit 75 can acquire, for example, the arrangement location, the arrangement range, the width dimension, the height dimension, and the like of the object serving as an obstacle as the cleaning area information.
  • the acquired information is reflected on the map by the map generation unit 67 and stored in the memory 61 in association with the detection frequency.
  • the detection frequency and various kinds of information of these obstacles are stored in the memory 61 over a plurality of predetermined cleaning times, for example.
  • the location of the object that becomes the obstacle is, for example, the distance to an arbitrary object by the image generation unit 63 using images captured by the cameras 51a and 51b (images processed by the image processing unit 62).
  • a distance image (parallax image) is generated by calculation and can be determined by the determination unit 66 based on the distance image.
  • the arrangement range of the object that becomes an obstacle can be acquired by traveling around the object while the vacuum cleaner 11 detects the object.
  • the object O1 having a height of a predetermined height (for example, 50 cm) or more is The judgment unit 66 (FIG.
  • a range having a height equal to or higher than a predetermined height is a position different from the stored map.
  • an object O2 having a shape as low as about 1 cm and a wide area can be determined by the determination unit 66 (FIG. 1) as a carpet or a carpet. That is, the mesh M indicated by 1 in FIG. 8B is also at a different position from the stored map.
  • the shape such as the width dimension and the height dimension of the object serving as the obstacle is calculated by the shape acquisition unit 64 based on the distance image.
  • a predetermined distance for example, 30 cm from the object stored in the memory 61 ) (In the case where the center distance DI between the object OR detected by the obstacle detection unit 74 and the object OM stored in the memory 61 is within a predetermined distance (FIG.
  • an object that is not in the position of the object stored in the memory 61 and is detected at a position within a predetermined distance from the center with respect to this object for example, a chair or a sofa
  • these objects may not be determined as objects different from the objects stored in the memory 61, because they may be semi-fixed objects that are easily changed in position even though they are arranged on a daily basis.
  • an object detected within a predetermined distance with respect to the position of the object stored in the memory 61 is preferably stored in the memory 61 by shifting the position on the map by the map generation unit 67. Then, the control unit 27 (route setting unit 68) changes the travel route of the main body case 20 based on the map reflecting the arrangement and detection frequency of the obstacles.
  • the obstacle object detected on the travel route is an object that is likely to be temporarily placed or an object that is likely to be detected accidentally, such as a shopping bag, a pet, or a person.
  • the control unit 27 determines whether or not to change the next travel route based on the obstacle object detected by the obstacle detection unit 74 in the travel mode. This eliminates disturbance elements such as objects that are likely to be temporarily installed or objects that are likely to be detected accidentally, and suppresses unintentional changes in the travel route to set the travel route more accurately.
  • the cleaning area can be run and cleaned more efficiently and with high accuracy.
  • control unit 27 determines whether or not to change the next travel route based on the detection frequency stored in the memory 61 of the object that becomes the obstacle detected by the obstacle detection unit 74. Therefore, it is possible to accurately predict the state of the next area from this detection frequency, and to lead to the formulation of the optimum travel route.
  • the controller 27 (route setting unit 68) does not change the next travel route based on the object because it cannot be determined whether the device is temporarily or accidentally installed.
  • the detection frequency stored in the memory 61 is less than a predetermined value (for example, the number of detections is 2 or less)
  • the detection frequency stored in the memory 61 is less than a predetermined value (for example, the number of detections is 2 or less)
  • the detection frequency stored in the memory 61 is less than a predetermined value (for example, the number of detections is 2 or less)
  • the detection frequency stored in the memory 61 is less than a predetermined value (for example, the number of detections is 2 or less)
  • the detection frequency stored in the memory 61 is less than a predetermined value (for example, the number of detections is 2 or less)
  • the detection frequency stored in the memory 61 is less than a predetermined value (for example, the number of detections is 2 or less)
  • the detection frequency stored in the memory 61 is less than a predetermined value (
  • an object having a detection frequency stored in the memory 61 of a predetermined value or more (for example, the detection frequency is three times or more), that is, an object that is repeatedly detected is fixed or semi-fixed. And the next travel route is changed based on the object, the travel route can be set with higher accuracy.
  • the optimization and efficiency of the cleaning control can also be achieved, and efficient automatic cleaning is achieved. realizable.
  • the ratio is used as the detection frequency of an object that becomes an obstacle detected by the obstacle detection unit 74, it is possible to statistically determine whether or not there is a change in the travel route with a higher probability.
  • control unit 27 (route setting unit 68) is configured so that the driving wheels 34 and 34 (motors 35 and 35) of the vacuum cleaner 11 (main body case 20) autonomously travel while generating a map by the map generation unit 67.
  • the next travel route is set based on these objects regardless of the detection frequency of objects that are not described in the map exceptionally detected by the obstacle detection unit 74. It can be applied when a new map is created or when the user instructs to update the map. In particular, when the user instructs to update the map, it is highly likely that the user has cleared the area, and it can be determined that there is no object that is temporarily or accidentally installed. It is preferable that the object is used for setting a travel route assuming that the object is a fixed object or a semi-fixed object.
  • the control unit 27 Route setting unit 68 If the distance is within the predetermined range, it is determined that the object is the same. Therefore, the position recorded on the map can be updated while taking over the detection frequency of the object stored in the memory 61.
  • control unit 27 uses the obstacle information detected by the obstacle and the obstacle detection unit 74 based on the obstacle shape information acquired by the shape acquisition unit 64 in the traveling mode. It is determined whether or not the object to be an object is the same obstacle, i.e., the object having the same shape information is determined to be the same object, so the detection frequency of the object stored in the memory 61 is determined. Can take over.
  • the shape acquisition unit 64 uses the distance images (parallax images) of the images captured by the plurality of cameras 51a and 51b, that is, using the cameras 51a and 51b, the image generation unit 63, and the shape acquisition unit 64. Since the shape of the object is acquired, the shape can be acquired easily and accurately.
  • the control unit 27 sets the travel route so that the cleaning unit 22 sequentially cleans objects with the highest detection frequency when the remaining amount of the secondary battery 28 is less than a predetermined value (for example, 30% or less) in the travel mode. You can also. Objects with higher detection frequency are more likely to be fixed or semi-fixed objects that are installed on a daily basis, and it can be determined that dust tends to collect around them. Thus, the capacity of the secondary battery 28 can be effectively used and cleaned efficiently.
  • a predetermined value for example, 30% or less
  • the wireless LAN device 47 transmits the object to the server 16 on the network 15, and the user possesses it using the mail server. It is possible to notify the user such as sending an e-mail to the external device 17, directly sending it to the external device 17, or providing a display unit on the vacuum cleaner 11 and displaying it on the display unit. In this case, it is possible to promote the user to clean up an object that is not installed on a daily basis, and the cleanliness awareness and cleaning awareness of the user's room can be improved. At this time, by enabling viewing of images captured by the cameras 51a and 51b, it is possible to notify the user in an easy-to-understand manner, which is easy to use.
  • information on the detection frequency of an object that becomes an obstacle can be set by an external operation.
  • the user can arbitrarily set the obstacle detection frequency, and can set a more accurate travel route.
  • the object detection unit 74 it is also possible to make it possible to delete information on an object that becomes an obstacle detected by the obstacle detection unit 74, for example, the detection frequency by an external operation.
  • the object to be cleared installed in the area is detected as an obstacle on the vacuum cleaner 11 side, the object can be deleted on the condition that the object is cleared.
  • the area information can be efficiently transmitted to the vacuum cleaner 11.
  • a display unit such as a display having a capacitive touch sensor is provided on the vacuum cleaner 11 (main body case 20), and a user directly inputs the vacuum cleaner 11 from this display unit. Or the user can input from the external device 17 to the vacuum cleaner 11 by a wireless signal.
  • the information acquisition unit 75 also includes at least a floor area material information, a floor surface step information, an object temperature information, a floor dust amount, etc. as cleaning area information. Either may be acquired. That is, the information acquisition unit 75 uses the hard and flat material information such as flooring by the determination unit 66 from the images captured by the cameras 51a and 51b, in this embodiment, the image processed by the image processing unit 62. It is possible to acquire and judge information on materials, soft materials such as carpets and carpets and long hairs, tatami mats, and floor tone information.
  • the step information on the floor can be detected by the sensor unit 26 (step sensor 56), the temperature information of the object can be detected by the sensor unit 26 (temperature sensor 57), and the dust amount can be detected by the sensor unit 26 (dust amount). It can be detected by a sensor 58).
  • the acquired information can be reflected in the map by the map generation unit 67 and stored in the memory 61.
  • the control unit 27 (travel control unit 69) sets the travel control by the drive wheels 34, 34 (motors 35, 35), or the cleaning unit 22 (electric Changing the cleaning control such as changing the operation of the blower 41, brush motor 43 (rotary brush 42 (FIG. 3)), side brush motors 45, 45 (side brush 44, 44 (FIG. 3)) And you can also clean up more finely.
  • the detection frequency is set to the detection frequency.
  • detection time information is stored in the memory 61.
  • the time information is, for example, a day of the week and a time zone in this embodiment, and the time zone is, for example, morning (6: 00-12: 00), noon (12: 00-18: 00), night (18 : 0:00 to 6:00).
  • the memory 61 stores a map of each day of the week and each time zone and a travel route. In each map, the detection frequency of an object that becomes an obstacle is stored in association with the day of the week and the time zone.
  • the control unit 27 determines whether or not to change the next travel route based on the detection frequency and time information stored in the memory 61. That is, at the time of the next cleaning, only when the detection frequency of the object stored in association with the day of the week and the time zone corresponding to the cleaning time is equal to or higher than a predetermined value (for example, when the detection frequency is equal to or higher than the predetermined frequency). , Change the travel route.
  • the reference values for example, a predetermined number of times) for determining the detection frequency may all be the same, or may be different values for each day of the week or for each time zone.
  • the detection frequency of an object serving as an obstacle and the presence or absence of a change in the travel route will be described. Since the detection frequency of the object shown in FIG. 11 is 0 in the morning time zone on Monday, the next travel route is not changed when cleaning is performed in this time zone. On the other hand, for example, the detection frequency is 3 in the daytime zone on Monday, and the detection frequency is 2 in the nighttime zone. To change. Further, since the detection frequency is 3 in the morning time zone on Tuesday, the next travel route is changed when cleaning is performed during this time zone. On the other hand, for example, the detection frequency is 1 in the noon time zone on Tuesday, and the detection frequency is 0 in the night time zone. Therefore, when cleaning is performed during these time zones, the next travel route is not changed. .
  • the time zone of the temporarily installed object can be grasped, and the optimum travel route can be maintained and set according to each time zone and day of the week.
  • the same time zone is set regardless of the day of the week, but a different time zone may be set for each day of the week. For example, it is possible to set different time zones for weekdays and holidays. These settings can be arbitrarily set by the user.
  • the information acquisition unit 75 may be, for example, only the cameras 51a and 51b and the image generation unit 63, and the shape acquisition unit 64 and the sensor unit 26 are not essential components.
  • the sensor unit 26 only needs to include at least one of the step sensor 56, the temperature sensor 57, and the dust amount sensor 58.
  • the information acquisition unit 75 may be configured by an arbitrary sensor or the like that acquires the location and shape of the object.
  • Whether or not the travel route needs to be changed may be determined immediately before the start of cleaning, or may be determined for the next travel route when cleaning is completed.
  • a traveling control method for an autonomous traveling body comprising a traveling mode for traveling and determining whether or not to change a next traveling route based on an obstacle detected during the traveling mode.
  • the detected time information together with the detected frequency of the obstacle is stored in the memory, and the next time based on the stored detected frequency and time information.

Abstract

効率的で、かつ、高精度な自律走行を実現できる電気掃除機を提供する。障害物検出部(74)は、本体ケースの外部の障害物となる物体を検出する。マップ生成部(67)は、本体ケースの走行中の障害物検出部(74)による物体の検出および自己位置推定部(73)により推定した自己位置に基づいて本体ケースが走行した領域の情報を記すマップを作成する。制御部(27)は、駆動輪の動作を制御することで本体ケースを自律走行させる。制御部(27)は、マップに基づいて設定した走行経路に沿って本体ケースを自律走行するように駆動輪の動作を制御する走行モードを備える。制御部(27)は、走行モード時に障害物検出部(74)により検出した障害物に基づいて次回の走行経路を変更するか否かを判断する。

Description

自律走行体
 本発明の実施形態は、走行した領域の情報を記すマップを作成する自律走行体に関する。
 従来、被掃除面としての床面上を自律走行しながら床面を掃除する、いわゆる自律走行型の電気掃除機(掃除ロボット)が知られている。
 このような電気掃除機において、効率のよい掃除を実現するために、掃除したい部屋の大きさや形状、および障害物などをマップに反映して作成(マッピング)し、この作成したマップに基づいて最適な走行経路を設定して、その走行経路に沿って走行する技術がある。しかしながら、マップを作成する際に、例えば部屋内の家具や床面などの内装や材質、あるいは例えばおもちゃやコードなどの障害物の形状について考慮されていないため、障害物の回避動作などを繰り返して想定通りの走行経路を走行できずに掃除できない場合や、障害物への衝突や床の段差による浮き上がりなどでスタックする場合などが生じ得る。
 また、部屋の内部のレイアウトは常時一定とは限らず、マップを作成したときと障害物の配置などが変わっていることもあるため、記憶されているマップのみに基づいて走行経路を設定すると、マップに記されていない障害物などによって走行を妨げられるおそれがある。そこで、マップに記されていない障害物を新たに検出した場合には、その検出に応じてマップを変更し、この変更したマップに応じて次回以降の走行経路を設定することが考えられる。
 一方で、例えば普段から置かれていない買い物袋や荷物、ペットや居住者などを障害物として検出した場合、この検出に応じてマップを変更すると、次回の走行経路が本来の最適な経路と異なる経路となるおそれがある。
特開2012-96028号公報
 本発明が解決しようとする課題は、効率的で、かつ、高精度な自律走行を実現できる自律走行体を提供することである。
 実施形態の自律走行体は、本体ケースと、駆動輪と、自己位置推定手段と、障害物検出手段と、マップ生成手段と、制御手段とを有する。駆動輪は、本体ケースを走行可能とする。自己位置推定手段は、自己位置を推定する。障害物検出手段は、本体ケースの外部の障害物を検出する。マップ生成手段は、本体ケースの走行中の障害物検出手段による障害物の検出および自己位置推定手段により推定した自己位置に基づいて本体ケースが走行した領域の情報を記すマップを作成する。制御手段は、駆動輪の動作を制御することで本体ケースを自律走行させる。また、この制御手段は、マップに基づいて設定した走行経路に沿って本体ケースを自律走行するように駆動輪の動作を制御する走行モードを備える。そして、この制御手段は、走行モード時に障害物検出手段により検出した障害物に基づいて次回の走行経路を変更するか否かを判断する。
第1の実施形態の自律走行体の内部構造を示すブロック図である。 同上自律走行体を示す斜視図である。 同上自律走行体を下方から示す平面図である。 同上自律走行体を示す側面図である。 同上自律走行体を含む自律走行体システムを模式的に示す説明図である。 同上自律走行体の物体の距離の計算方法を模式的に示す説明図である。 (a)は一方の撮像手段により撮像された画像の一例を示す説明図、(b)は他方の撮像手段により撮像された画像の一例を示す説明図、(c)は(a)および(b)に基づいて生成した距離画像の一例を示す説明図である。 (a)は記憶されたマップの一例を示す説明図、(b)は実際の掃除領域での電気掃除機の動作の一例を示す説明図である。 同上自律走行体の制御を示すフローチャートである。 同上自律走行体のマップに記憶された障害物の位置と障害物検出手段により検出した障害物との位置が異なる状態を模式的に示す説明図である。 第2の実施形態の自律走行体の時間情報、検出頻度および走行経路の変更の有無の関係を示す表である。
実施形態
 以下、第1の実施形態の構成を、図面を参照して説明する。
 図1ないし図5において、11は自律走行体としての電気掃除機であり、この電気掃除機11は、この電気掃除機11の充電用の基地部となる基地装置としての充電装置(充電台)12(図5)とともに自律走行体装置としての電気掃除装置(電気掃除システム)を構成するものである。そして、電気掃除機11は、本実施形態において、走行面としての被掃除面である床面上を自律走行(自走)しつつ床面を掃除する、いわゆる自走式のロボットクリーナ(掃除ロボット)であり、例えば図1に示すように、掃除領域内などに配置された中継手段(中継部)としてのホームゲートウェイ(ルータ)14との間で有線通信あるいはWi-Fi(登録商標)やBluetooth(登録商標)などの無線通信を用いて通信(送受信)することにより、インターネットなどの(外部)ネットワーク15を介して、データ格納手段(データ格納部)としての汎用のサーバ16や、表示手段(表示部)である汎用の外部装置17などと有線あるいは無線通信可能となっている。
 また、この電気掃除機11は、中空状の本体ケース20(図2)を備えている。この電気掃除機11は、走行部21を備えている。また、この電気掃除機11は、床面などの塵埃を掃除する掃除部22を備えている。さらに、この電気掃除機11は、充電装置12を含む外部装置と通信する通信部23を備えている。また、この電気掃除機11は、画像を撮像する撮像部25を備えている。さらに、この電気掃除機11は、コントローラである制御手段としての制御部27を備えている。また、この電気掃除機11は、電池である二次電池28を備えている。なお、以下、電気掃除機11(本体ケース20)の走行方向に沿った方向を前後方向(図2に示す矢印FR,RR方向)とし、この前後方向に対して交差(直交)する左右方向(両側方向)を幅方向として説明する。
 図2ないし図4に示す本体ケース20は、例えば合成樹脂などにより扁平な円柱状(円盤状)などに形成されている。すなわち、この本体ケース20は、側面部20a(図2)と、この側面部20aの上部および下部にそれぞれ連続する上面部20b(図2)および下面部20c(図3)とを備えている。この本体ケース20の側面部20aは、略円筒面状に形成されており、この側面部20aには、例えば撮像部25などが配置されている。また、本体ケース20の上面部20bおよび下面部20cは、それぞれ略円形状に形成されており、図3に示すように、床面に対向する下面部20cには、集塵口である吸込口31、および、排気口32などがそれぞれ開口されている。
 走行部21は、本体ケース20を床面上で走行させるものである。この走行部21は、複数(一対)の駆動部としての駆動輪34,34を備えている。また、この走行部21は、動作部としての駆動手段であるモータ35,35(図1)を備えている。さらに、この走行部21は、旋回用の旋回輪36などを備えていてもよい。
 各駆動輪34は、電気掃除機11(本体ケース20)を床面上で前進方向および後退方向に走行(自律走行)させる、すなわち走行用のものであり、左右幅方向に沿って図示しない回転軸を有し、幅方向に対称に配置されている。
 各モータ35(図1)は、駆動輪34,34を駆動させるものである。各モータ35(図1)は、例えば駆動輪34のそれぞれに対応して配置されており、各駆動輪34を独立して駆動させることが可能となっている。
 旋回輪36は、本体ケース20の下面部20cの幅方向の略中央部で、かつ、前部に位置しており、床面に沿って旋回可能な従動輪である。
 掃除部22は、例えば本体ケース20内に位置して塵埃を吸込口31から空気とともに吸い込み排気口32から排気する電動送風機41、吸込口31に回転可能に取り付けられて塵埃を掻き上げる回転清掃体としての回転ブラシ42およびこの回転ブラシ42を回転駆動させるブラシモータ43(図1)、本体ケース20の前側などの両側に回転可能に取り付けられて塵埃を掻き集める旋回清掃部としての補助掃除手段(補助掃除部)であるサイドブラシ44およびこのサイドブラシ44を駆動させるサイドブラシモータ45(図1)、および、吸込口31と連通して塵埃を溜める集塵部46(図2)などを備えている。なお、電動送風機41と、回転ブラシ42およびブラシモータ43(図1)と、サイドブラシ44およびサイドブラシモータ45(図1)とは、少なくともいずれかを備えていればよい。
 図1に示す通信部23は、例えばホームゲートウェイ14およびネットワーク15を介して外部装置17と無線通信をするための無線通信手段(無線通信部)および掃除機信号受信手段(掃除機信号受信部)としての報知手段(報知部)である無線LANデバイス47を備えていてもよい。また、この通信部23は、例えば充電装置12(図5)などへと無線信号(赤外線信号)を送信する例えば赤外線発光素子などの図示しない送信手段(送信部)を備えていてもよい。さらに、この通信部23は、例えば充電装置12や図示しないリモコンなどからの無線信号(赤外線信号)を受信する例えばフォトトランジスタなどの図示しない受信手段(受信部)などを備えていてもよい。なお、例えば通信部23にアクセスポイント機能を搭載し、ホームゲートウェイ14を介さずに外部装置17と直接無線通信をするようにしてもよい。また、例えば通信部23にウェブサーバ機能を付加してもよい。
 無線LANデバイス47は、電気掃除機11からホームゲートウェイ14を介してネットワーク15に対して各種情報を送受信するものである。
 撮像部25は、複数、例えば一方および他方の撮像手段(撮像部本体)としてのカメラ51a,51b、および、これらカメラ51a,51bに照明を付与する照明手段(照明部)としてのLEDなどのランプ53を備えている。
 図2に示すように、カメラ51a,51bは、本体ケース20の側面部20aにおいて、前部の両側に配置されている。すなわち、本実施形態では、カメラ51a,51bは、本体ケース20の側面部20aにおいて、電気掃除機11(本体ケース20)の幅方向の中心線Lに対して、左右方向に略等しい所定角度(鋭角)傾斜した位置にそれぞれ配置されている。言い換えると、これらカメラ51a,51bは、本体ケース20に対して幅方向に略対称に配置されており、これらカメラ51a,51bの中心位置が、電気掃除機11(本体ケース20)の走行方向である前後方向と交差(直交)する幅方向の中心位置と略一致している。さらに、これらカメラ51a,51bは、上下方向に略等しい位置、すなわち略等しい高さ位置にそれぞれ配置されている。このため、これらカメラ51a,51bは、電気掃除機11を床面上に載置した状態でこの床面からの高さが互いに略等しく設定されている。したがって、カメラ51a,51bは、互いにずれた位置(左右方向にずれた位置)に離間されて配置されている。また、これらカメラ51a,51bは、本体ケース20の走行方向である前方を、それぞれ所定の水平画角(例えば105°など)でデジタルの画像を所定時間毎、例えば数十ミリ秒毎などの微小時間毎、あるいは数秒毎などに撮像するデジタルカメラである。さらに、これらカメラ51a,51bは、互いの撮像範囲(視野)Va,Vbが重なっており(図6)、これらカメラ51a,51bにより撮像される(一方および他方の)画像P1,P2(図7(a)および図7(b))は、その撮像領域が電気掃除機11(本体ケース20)の幅方向の中心線Lを延長した前方の位置を含む領域で左右方向にラップしている。本実施形態では、これらカメラ51a,51bは、例えば可視光領域のカラー画像を撮像するものとする。なお、これらカメラ51a,51bにより撮像した画像は、例えば図示しない画像処理回路などにより所定のデータ形式に圧縮することもできる。
 ランプ53は、カメラ51a,51bにより画像を撮像する際の照明用の光を出力するもので、カメラ51a,51bの中間位置、すなわち本体ケース20の側面部20aの中心線L上の位置に配置されている。すなわち、ランプ53は、カメラ51a,51bからの距離が略等しくなっている。また、このランプ53は、カメラ51a,51bと上下方向に略等しい位置、すなわち略等しい高さ位置に配置されている。したがって、このランプ53は、カメラ51a,51bの幅方向の略中央部に配置されている。本実施形態では、このランプ53は、可視光領域を含む光を照明するようになっている。なお、このランプ53は、カメラ51a,51b毎に設定されていてもよい。
 図1に示すセンサ部26は、例えば段差センサ(段差検出手段(段差検出部))56を備えていてもよい。また、このセンサ部26は、例えば温度センサ(温度検出手段(温度検出部))57を備えていてもよい。さらに、このセンサ部26は、例えば塵埃量センサ(塵埃量検出手段(塵埃量検出部))58を備えていてもよい。なお、このセンサ部26には、例えば各駆動輪34(各モータ35)の回転数を検出することで電気掃除機11(本体ケース20(図2))の旋回角度や進行距離を検出する光エンコーダなどの回転数センサを備えていてもよい。また、このセンサ部26には、超音波、あるいは赤外線などを用いて障害物を検出する非接触型の障害物センサを備えていてもよい。さらに、このセンサ部26には、障害物を接触検出する接触型の障害物センサなどを備えていてもよい。回転数センサ、あるいは障害物センサなどは、必須の構成ではない。
 段差センサ56は、例えば赤外線センサ、あるいは超音波センサなどの非接触センサであり、赤外線、あるいは超音波を検出対象、ここでは床面に向けて出力し、検出対象からの反射波を受信することにより、送信と受信との時間差によって段差センサ56と検出対象との距離を検出する距離センサが用いられる。すなわち、段差センサ56は、この段差センサ56(段差センサ56が配置された位置)と床面との距離を検出することで、床面の段差を検出している。この段差センサ56は、図3に示すように、本体ケース20の下面部20cに配置されている。本実施形態では、この段差センサ56は、例えば駆動輪34,34の前後、および、旋回輪36の前部(本体ケース20の下側前部)にそれぞれ配置されている。
 図1に示す温度センサ57は、例えば検出対象から放射される赤外線を検出することで検出対象の温度を検出する非接触センサなどが用いられる。この温度センサ57は、例えば本体ケース20の側面部20aあるいは上面部20b(図2)などに配置され、本体ケース20(図2)の前方の検出対象の温度を検出するようになっている。なお、この温度センサ57としては、例えばカメラ51a,51bによって撮像した赤外線画像に基づいて温度を検出するようにしてもよい。
 塵埃量センサ58は、例えば吸込口31(図3)から集塵部46(図2)へと連通する風路の内部に配置された発光部と受光部とを備え、この風路を通過する塵埃量の多寡に応じて発光部からの発光の受光部での受光量が増減することで塵埃量を検出する光センサなどが用いられる。なお、この塵埃量センサ58に代えて、例えばカメラ51a,51bにより撮像した画像から床面上の眼に見える微小な塵埃を検出する塵埃量検出手段(塵埃量検出部(塵埃量センサ))を備えてもよい。
 そして、図1に示す制御部27は、走行部21、掃除部22、通信部23、および、撮像部25などを制御するものである。この制御部27は、例えば制御手段本体(制御部本体)であるCPU、このCPUによって読み出されるプログラムなどの固定的なデータを格納した格納部であるROM、プログラムによるデータ処理の作業領域となるワークエリアなどの各種メモリエリアを動的に形成するエリア格納部であるRAM(それぞれ図示せず)などを備えるマイコンである。この制御部27は、さらに、例えば記憶手段(記憶部)としてのメモリ61を備えている。また、この制御部27は、例えば画像処理部62を備えている。また、この制御部27は、例えば距離画像生成手段(距離画像生成部)としての画像生成部63を備えている。さらに、この制御部27は、例えば形状取得手段である形状取得部64を備えている。また、この制御部27は、例えば抽出手段である抽出部65を備えている。さらに、この制御部27は、例えば判定手段としての判定部66を備えている。また、この制御部27は、例えば走行用のマップを作成するマップ生成手段であるマップ生成部67を備えている。さらに、この制御部27は、例えばマップに基づいて走行経路を設定する経路設定部68を備えている。また、この制御部27は、例えば走行制御部69を備えていてもよい。さらに、この制御部27は、例えば掃除制御部70を備えていてもよい。また、この制御部27は、例えば撮像制御部71を備えていてもよい。また、この制御部27は、例えば照明制御部72を備えていてもよい。そして、この制御部27は、例えば駆動輪34,34(図3)すなわちモータ35,35を駆動して電気掃除機11(本体ケース20(図2))を自律走行させる走行モードを備えている。また、この制御部27は、充電装置12(図5)を介して二次電池28を充電する充電モードを備えていてもよい。さらに、この制御部27は、動作待機中の待機モードを備えていてもよい。
 メモリ61は、例えばカメラ51a,51bで撮像した画像のデータを記憶することが可能である。このメモリ61は、例えば判定部66などで用いる閾値を記憶してもよい。また、このメモリ61は、例えばマップ生成部67により作成されたマップなどの各種データを記憶してもよい。このメモリ61としては、電気掃除機11の電源のオンオフに拘らず記憶した各種データを保持する、例えばフラッシュメモリなどの不揮発性のメモリが用いられる。
 画像処理部62は、カメラ51a,51bにより撮像した画像のレンズの歪み補正やコントラスト調整などの画像処理をする。この画像処理部62は、必須の構成ではない。
 画像生成部63は、既知の方法を用いて、カメラ51a,51bにより撮像した画像、本実施形態では、カメラ51a,51bにより撮像され画像処理部62によって処理された画像と、カメラ51a,51b間の距離とに基づいて物体(特徴点)の距離(深度)を計算するとともに、この計算した物体(特徴点)の距離を示す距離画像(視差画像)を生成する。すなわち、この画像生成部63は、例えばカメラ51a,51bと物体(特徴点)Oとの距離、および、カメラ51a,51b間の距離に基づく三角測量を応用し(図6)、カメラ51a,51bにより撮像した各画像(画像処理部62によって処理された画像)中から同一位置を示す画素ドットを検出し、この画素ドットの上下方向および左右方向の角度を計算して、これら角度とカメラ51a,51b間の距離とからその位置のカメラ51a,51bからの距離を計算する。したがって、カメラ51a,51bにより撮像する画像は、可能な限り範囲が重なって(ラップして)いることが好ましい。また、この画像生成部63による距離画像の生成は、計算した各画素ドットの距離を、例えば1ドット毎などの所定ドット毎に明度、あるいは色調などの、視認により識別可能な階調に変換して表示することにより行われる。本実施形態において、画像生成部63は、距離が大きいほど明度が小さい白黒の画像、すなわち電気掃除機11(本体ケース20)からの前方への距離が遠いほど黒く距離が近いほど白い、例えば256階調(8ビット=28)のグレースケールの画像として距離画像を生成する。したがって、この距離画像は、いわば電気掃除機11(本体ケース20)の走行方向前方のカメラ51a,51bによって撮像される範囲内に位置する物体の距離情報(距離データ)の集合体を可視化したものである。なお、この画像生成部63は、カメラ51a,51bにより撮像された各画像中の所定の画像範囲内の画素ドットについてのみの距離画像を生成してもよいし、画像全体の距離画像を生成してもよい。
 形状取得部64は、カメラ51a,51bにより撮像された画像中の物体の形状情報を取得する。すなわち、この形状取得部64は、画像生成部63により生成された距離画像に対して、所定の距離D(または所定の距離範囲)に位置する物体Oの形状情報を取得する(図6)。この形状取得部64は、距離画像中の一例として、距離画像PLに撮像された例えば空き缶などの物体Oに対して、所定の距離(あるいは距離範囲)での画素ドットの距離を検出することで、物体Oの水平方向の寸法すなわち幅寸法Wおよび上下方向の寸法すなわち高さ寸法Hを検出できる(図7(c))。また、この形状取得部64は、物体の形状情報(幅寸法および高さ寸法)を取得することで、その物体が存在しない空間や穴部の形状情報(幅寸法および高さ寸法)などをも間接的に取得できる。
 抽出部65は、カメラ51a,51bにより撮像された画像に基づいて特徴点を抽出する。すなわち、この抽出部65は、画像生成部63により生成された距離画像に対して例えばエッジ検出などの特徴検出(特徴抽出)を行うことで、距離画像中の特徴点を抽出する。この特徴点は、電気掃除機11が掃除領域における自己位置を推定するときの参照点となっている。なお、エッジ検出方法は、既知の任意の方法を用いることができる。
 判定部66は、センサ部26(段差センサ56、温度センサ57、塵埃量センサ58)で検出した情報、形状取得部64により取得した所定の距離(あるいは所定の距離範囲)の物体の形状情報あるいは物体間に位置する狭所などの形状情報、抽出部65により抽出した特徴点、および、カメラ51a,51bにより撮像された画像、本実施形態では例えば画像処理部62により処理された画像中の物体の情報(高さ、材質、および、色調)などを判定し、これら判定に基づいて、電気掃除機11の自己位置、および、障害物となる物体の有無を判断するとともに、電気掃除機11(本体ケース20(図2))の走行制御や掃除制御の変更の要否およびマップ生成部67に反映させる情報などを決定する。したがって、カメラ51a,51b(画像処理部62)、画像生成部63、抽出部65、および、判定部66などにより、電気掃除機11の自己位置を推定する自己位置推定手段としての自己位置推定部73が構成され、センサ部26(段差センサ56)、カメラ51a,51b(画像処理部62)、画像生成部63、形状取得部64、および、判定部66などにより、障害物の有無を検出する障害物検出手段としての障害物検出部74が構成され、センサ部(段差センサ56、温度センサ57、塵埃量センサ58)、カメラ51a,51b(画像処理部62)、画像生成部63、形状取得部64、および、判定部66などにより、掃除領域の各種情報を取得する情報取得手段としての情報取得部75が構成される。
 すなわち、自己位置推定部73は、マップに記憶された特徴点と、距離画像から抽出部65により抽出した特徴点とを照合することで、自己位置を推定する。
 障害物検出部74は、距離画像中の所定の画像範囲内に物体があるか否かにより障害物となる物体(段差を含む)の有無を検出する。
 情報取得部75は、例えば段差センサ56により検出する床面の段差情報、温度センサ57により検出する物体の温度情報、塵埃量センサ58により検出する床面の塵埃量、形状取得部64により取得する物体の高さ寸法および幅寸法などの形状、床面の材質情報、床面の色調などを取得する。
 マップ生成部67は、形状取得部64により取得した物体の形状情報と、自己位置推定部73により推定した電気掃除機11(本体ケース20(図2))の位置とから、電気掃除機11(本体ケース20(図2))が配置された掃除領域およびこの掃除領域内に位置する物体などの位置関係を計算してマップを作成する。
 経路設定部68は、マップ生成部67により作成したマップ、自己位置推定部73により推定した自己位置、および、障害物検出部74により検出した障害物となる物体の検出頻度に基づいて最適な走行経路を設定する。ここで、生成する最適な走行経路としては、マップ中の掃除可能な領域(障害物や段差などの走行不能な領域を除く領域)を最短の走行距離で走行できる経路、例えば電気掃除機11(本体ケース20(図2))が可能な限り直進する(方向転換が最も少ない)経路、障害物となる物体への接触が少ない経路、あるいは、同じ箇所を重複して走行する回数が最小となる経路など、効率的に走行(掃除)を行うことができる経路が設定される。また、この走行経路には、複数の中継地点(サブゴール)が設定される。
 走行制御部69は、経路設定部68により設定された走行経路に沿って電気掃除機11(本体ケース20)を走行させるように走行部21のモータ35,35(駆動輪34,34(図3))の動作を制御する。すなわち、この走行制御部69は、モータ35,35に流れる電流の大きさおよび向きを制御することにより、モータ35,35を正転、あるいは逆転させることで、モータ35,35の動作を制御し、これらモータ35,35の動作を制御することで駆動輪34,34(図3)の動作を制御している。また、この走行制御部69は、判定部66の判定に応じて、電気掃除機11(本体ケース20)の走行方向および/または走行速度を制御するように構成されている。
 掃除制御部70は、掃除部22の電動送風機41、ブラシモータ43およびサイドブラシモータ45の動作を制御する。すなわち、この掃除制御部70は、電動送風機41、ブラシモータ43、および、サイドブラシモータ45の通電量をそれぞれ別個に制御することで、これら電動送風機41、ブラシモータ43(回転ブラシ42(図3))、および、サイドブラシモータ45(サイドブラシ44(図3))の動作を制御する。また、この掃除制御部70は、判定部66の判定に応じて、掃除部22の動作を制御するように構成されている。なお、これら電動送風機41、ブラシモータ43、および、サイドブラシモータ45のそれぞれに対応して制御部を別個に設けてもよい。
 撮像制御部71は、撮像部25のカメラ51a,51bの動作を制御する。すなわち、この撮像制御部71は、カメラ51a,51bのシャッタの動作を制御する制御回路を備え、このシャッタを所定時間毎に動作させることで、所定時間毎にカメラ51a,51bにより画像を撮像させるように制御する。
 照明制御部72は、撮像部25のランプ53の動作を制御する。すなわち、この照明制御部72は、スイッチなどを介してランプ53のオンオフを制御している。この照明制御部72は、本実施形態では、電気掃除機11の周囲の明るさを検出するセンサを備えており、このセンサにより検出した明るさが所定以下の場合にランプ53を点灯させ、その他のときにはランプ53を点灯させないようにするものである。
 なお、これら撮像制御部71および照明制御部72は、制御部27とは別個の撮像制御手段(撮像制御部)として構成してもよい。
 また、二次電池28は、走行部21、掃除部22、通信部23、撮像部25、センサ部26および制御部27などに給電するものである。この二次電池28は、例えば図3に示す本体ケース20の下面部20cの後部の両側に露出する接続部としての充電端子77,77と電気的に接続されており、これら充電端子77,77が充電装置12(図5)側と電気的および機械的に接続されることで、この充電装置12(図5)を介して充電されるようになっている。
 図1に示すホームゲートウェイ14は、アクセスポイントなどとも呼ばれ、建物内に設置され、ネットワーク15に対して例えば有線により接続されている。
 サーバ16は、ネットワーク15に接続されたコンピュータ(クラウドサーバ)であり、各種データを保存可能である。
 外部装置17は、建物の内部では例えばホームゲートウェイ14を介してネットワーク15に対して有線あるいは無線通信可能であるとともに、建物の外部ではネットワーク15に対して有線あるいは無線通信可能な、例えばPC(タブレット端末(タブレットPC))17aやスマートフォン(携帯電話)17bなどの汎用のデバイスである。この外部装置17は、少なくとも画像を表示する表示機能を有している。
 次に、上記一実施形態の動作を、図面を参照しながら説明する。
 一般に、電気掃除装置は、電気掃除機11によって掃除をする掃除作業と、充電装置12によって二次電池28を充電する充電作業とに大別される。充電作業は、充電装置12に内蔵された定電流回路などの充電回路を用いる既知の方法が用いられるため、掃除作業についてのみ説明する。また、外部装置17などからの指令に応じてカメラ51a,51bの少なくともいずれかにより所定の対象物を撮像する撮像作業を別途備えていてもよい。
 電気掃除機11は、例えば予め設定された掃除開始時刻となったときや、リモコンまたは外部装置17によって送信された掃除開始の指令信号を受信したときなどのタイミングで、制御部27が待機モードから走行モードに切り換わり、この制御部27(走行制御部69)がモータ35,35(駆動輪34,34)を駆動させ充電装置12から所定距離離脱する。
 次いで、電気掃除機11は、マップ生成部67により、掃除領域のマップを作成する。このマップの作成の際には、概略として、制御部27(走行制御部69)が電気掃除機11(本体ケース20)を掃除領域の外壁などに沿って走行させたり、その位置で旋回させたりしながら、障害物検出部74により障害物となる物体の有無、および、情報取得部75により各種情報を取得して、電気掃除機11の現在位置に基づいてマップを作成する(マップ作成モード)。そして、制御部27が、掃除領域全体をマッピングしたと判定した場合には、マップ作成モードを終了し、後述する掃除モードに移行する。このマップ作成モードは、マップ生成部67により掃除領域のマップを作成していない(メモリ61にマップが記憶されていない)状態で電気掃除機11が起動した場合の他に、例えばユーザによってマップの新規作成や変更の指示が入力された場合に選択される。このマップ作成モードにおいては、検出した物体の検出頻度は、次回の掃除の際の経路設定部68により走行経路を設定時には無視され、検出した物体の位置などの情報の少なくとも一部、例えば全てが次回の掃除の際の走行経路の変更に用いられる。なお、このマップ作成モードでは、掃除部22を動作させて、マップ作成と同時に掃除をしてもよい。
 具体的に、例えば図8(a)に示すように、作成されるマップMPは、掃除領域(部屋)が所定の大きさの四角形状(正方形状)などのメッシュMに分割され、メッシュM毎に障害物検出部74(図1)により検出された物体、および、情報取得部75(図1)により取得された情報が関連付けられてメモリ61に記憶されている。記憶されている情報としては、そのメッシュM中にある物体の高さ、材質、色調、形状、温度、特徴点および検出頻度などである。物体の有無は、図1に示す障害物検出部74によって取得され、物体の高さおよび形状は、カメラ51a,51bにより撮像した画像に基づいて形状取得部64によって取得され、物体の材質および色調は、カメラ51a,51bにより撮像した画像に基づいて判定部66によって検出され、温度は温度センサ57により検出され、特徴点はカメラ51a,51bにより撮像した画像に基づいて抽出部65により抽出される。このマップMPは、生成時に例えばメモリ61に記憶され、次回の掃除以降はメモリ61から読み出されて利用される。但し、同じ掃除領域でも物体のレイアウトなどが変わっている場合もあるので、本実施形態では、一旦作成したマップMPを、後述する掃除モードのときの物体の距離測定に基づいて随時更新する。なお、このマップMPは、例えばユーザの指令などに応じて適宜生成できるようにしてもよいし、マップ作成モードを設けずに、予めユーザによって入力されていてもよい。
 次いで、電気掃除機11は、制御部27(経路設定部68)がマップに基づいて最適な走行経路を生成し、この走行経路に沿って掃除領域内を自律走行しつつ掃除をする(掃除モード)。この掃除モードにおいて、掃除部22では、制御部27(掃除制御部70)により駆動された電動送風機41、ブラシモータ43(回転ブラシ42(図3))、あるいはサイドブラシモータ45(サイドブラシ44(図3))により床面の塵埃を、吸込口31(図3)を介して集塵部46(図2)へと捕集する。
 そして、自律走行の際には、概略として、電気掃除機11は、掃除部22を動作させつつ、走行経路に沿って中継地点に向かって進みながら障害物検出部74および情報取得部75によって障害物となる物体の有無および各種情報を取得し、かつ、自己位置推定部73によって定期的に自己位置を推定し、中継地点を通過する動作を繰り返していく。すなわち、電気掃除機11は、掃除をしながら、設定した中継地点を順次通過するように走行する。例えば、図8(a)に示すマップMPを記憶している場合、電気掃除機11が所定のスタート位置(例えば図中の左上の位置)から中継地点SGに向けて直進し、90°方向転換して次の中継地点SGに向けて直進し、…という動作を繰り返して掃除をするように走行経路RTが設定される。
 このとき、電気掃除機11が、次の中継地点に到達する前に障害物となる物体や段差などを検出したとき、あるいは、マップに記されている障害物となる物体を検出しないときには、実際の掃除領域がマップに記された情報と相違するものとして、探索動作を行う。
 例えば、図8(a)のマップMPを記憶しているにも拘らず、図8(b)に示すように物体O1,O2を検出した場合、電気掃除機11は、これら物体O1,O2を探索する探索動作を行う。具体的に、電気掃除機11は、これら物体O1,O2の周囲に沿って走行するように暫定的な走行経路RT1(中継地点SG1)を設定する。すなわち、中継地点SGは、マップMPに基づいて生成された走行経路RT上に設定されるものであるから、掃除領域の状態がマップMPどおりであれば中継地点SG,SG間の走行経路RT上に障害物となる物体が存在することはない(図8(a))ので、障害物となる物体を検出した時点でマップMPと実際の掃除領域の状態とが相違していることになる。この探索動作の際、電気掃除機11は、図1に示す情報取得部75により情報を取得することで相違を把握しながら走行をするように制御部27により走行制御され、取得した情報を必要に応じてマップ生成部67によりマップに反映させることができる。
 また、マップに記された物体を障害物検出部74によって検出しない場合にも、その検出しない位置の周囲の物体を探索する探索動作を行うことで、マップ生成部67により、障害物となる物体の位置をより精度よくマップに反映させることができる。
 より詳細に、図9に示すフローチャートも参照しながら説明すると、まず、制御部27(経路設定部68)は、走行経路を変更するか否かを判断する(ステップ1)。このとき、走行経路を変更するか否かは、例えばマップに記されている物体の検出頻度に基づいて判断される。すなわち、制御部27(経路設定部68)は、マップに記されている物体の検出頻度を参照し、この検出頻度が所定以上である場合(例えば検出回数が所定回数以上である場合)には、その物体が掃除領域中に日常的に配置される障害物であるものとしてその障害物を回避する最適な走行経路を設定するように走行経路を変更し(ステップ2)、以下のステップ3に進む。また、このステップ1において、検出頻度が所定未満(例えば検出回数が所定回数未満である場合)である場合には、その障害物が一時的に配置されている障害物である可能性を否定できないものとし、走行経路を変更することなく以下のステップ3に進む。つまり、例えば検出頻度として、直近の所定の複数回の掃除において、何回の掃除で障害物となる物体を検出したかを示す検出回数を用いる場合、この検出回数が所定の複数回、例えば3回以上となった物体については、走行経路の変更に用い、3回未満、すなわち初めて検出した物体や検出回数が2回目の物体については、走行経路の変更に用いない。
 そして、制御部27(走行制御部69)によりモータ35,35(駆動輪34,34(図3))を駆動させて走行経路に沿って電気掃除機11(本体ケース20(図2))を走行させる(ステップ3)。このとき、設定されている走行経路と自己位置との関係により決定された走行コマンド、例えば直進するときにはその距離、旋回(方向転換)するときにはその回動方向および角度などを決定する適宜の走行コマンドが判定部66から走行制御部69へと出力されて、その走行コマンドに応じて走行制御部69がモータ35,35(駆動輪34,34(図3))を動作させる。
 次いで、制御部27(撮像制御部71)により駆動させたカメラ51a,51bにより走行方向前方を撮像する(ステップ4)。これら撮像した画像の少なくともいずれかは、メモリ61に記憶することができる。また、これらカメラ51a,51bにより撮像した画像と、カメラ51a,51bの間の距離とに基づき、画像生成部63により所定の画像範囲内の物体(特徴点)の距離を計算する(ステップ5)。具体的に、例えばカメラ51a,51bにより画像P1,P2(例えば図7(a)および図7(b))を撮像した場合、その画像P1,P2(本実施形態では画像処理部62により画像処理された画像)中の各画素ドットの距離を画像生成部63により計算する。さらに、画像生成部63は、計算した距離に基づいて距離画像を生成する(ステップ6)。この距離画像も、例えばメモリ61に記憶することができる。この画像生成部63により生成した距離画像PLの例を図7(c)に示す。そして、この生成した距離画像から、図1に示す形状取得部64が、所定の距離(あるいは所定の距離範囲)の物体の形状情報を取得する(ステップ7)。このとき、物体の形状情報として、幅寸法、高さ寸法などを検出することで、狭所の形状情報なども取得できる。また、この生成した距離画像から、抽出部65が、特徴点を抽出する(ステップ8)。そして、自己位置推定部73が、抽出部65により抽出した特徴点とマップに記された特徴点とを照合することで、自己位置を推定する(ステップ9)。
 次いで、制御部27(判定部66)は、推定した自己位置から、電気掃除機11が中継地点に到達したか否かを判断する(ステップ10)。このステップ10において、中継地点に到達したと判断した場合には、制御部27(判定部66)は、電気掃除機11の現在位置が最終到達地点であるか否かを判断する(ステップ11)。このステップ11において、電気掃除機11の現在位置が最終到達地点でないと判断した場合には、ステップ3に戻り、電気掃除機11の現在位置が最終到達地点であると判断した場合には、掃除を終了する(ステップ12)。この掃除の終了後は、電気掃除機11が充電装置12へと帰還するように制御部27(走行制御部69)がモータ35,35(駆動輪34,34)の動作を制御し、充電端子77,77(図3)と充電装置12(図5)の充電用端子とを接続し、制御部27が待機モード、あるいは充電モードに移行する。
 一方、ステップ10において、電気掃除機11が中継地点に到達していないと判断した場合には、制御部27(判定部66)は、形状取得部64により取得した物体の形状情報に基づき、電気掃除機11(本体ケース20(図2))の前方の所定の距離(あるいは所定の距離範囲内)に障害物となる物体があるか否かを判断する(ステップ13)。具体的に、判定部66は、形状取得部64により取得した物体の幅寸法および高さ寸法、物体間の水平方向あるいは上下方向の間隔に基づき、距離画像の所定の画像範囲内に物体の少なくとも一部が位置しているか否かを判定する。この画像範囲は、カメラ51a,51bから所定の距離D(図6)、あるいは所定の距離範囲内の所定位置に電気掃除機11(本体ケース20(図2))が位置する場合の、この電気掃除機11(本体ケース20)の外形形状(上下左右の大きさ)に対応する。したがって、この画像範囲内にて所定の距離D(図6)、あるいは所定の距離範囲内に物体が位置することは、中継地点同士を結ぶ走行経路上にマップに記されていない障害物が位置することを意味する。
 そして、ステップ13において、物体があると判断した場合には、制御部27は、電気掃除機11に探索動作をさせる(ステップ14)。この探索動作については後述する。なお、この探索動作時には、掃除部22を駆動させても停止させてもよいが、本実施形態では掃除部22を駆動させる。また、ステップ13において、物体がないと判断した場合には、制御部27は、マップに記された障害物となる物体を検出したか否か、すなわち障害となる物体がなくなっていないか否かを判断する(ステップ15)。このステップ15において、物体を検出する(物体がなくなっていない)と判断した場合には、ステップ3に戻り、物体を検出しない(物体がなくなっている)と判断した場合には、ステップ14に進んで電気掃除機11に探索動作をさせる。
 さらに、ステップ14の後、制御部27(判定部66)は、探索動作を終了するか否かを判断する(ステップ16)。探索動作を終了するか否かは、物体の周囲を周回したか否かにより判断する。そして、探索動作を終了しない(探索動作を継続する)と判断した場合にはステップ14に戻り、探索動作を終了すると判断した場合には、ステップ3に戻る。
 次に、上記探索動作について詳細に説明する。
 探索動作は、図1に示す制御部27(走行制御部69)が、電気掃除機11(本体ケース20(図2))を、マップに記されていない障害物となる物体や、マップに記されているにも拘らず物体がない領域などのマップとの相違位置を走行させるようにモータ35,35(駆動輪34,34(図3))の動作を制御しつつ情報取得部75によって情報を取得する。制御部27(走行制御部69)は、障害物検出部74により障害物となる物体を検出した場合、電気掃除機11(本体ケース20(図2))をこの物体の周囲に沿って走行させ、マップに記されている物体を障害物検出部74により検出しない場合には、例えば電気掃除機11(本体ケース20(図2))をマップに記されていたこの物体の位置の周囲に沿って走行させる。
 そして、情報取得部75では、掃除領域の情報として、例えば障害物となる物体の配置場所、配置範囲、幅寸法や高さ寸法などの形状を取得できる。取得したこれらの情報はマップ生成部67によりマップに反映するとともに、検出頻度と関連付けられてメモリ61に記憶される。これら障害物となる物体の検出頻度および各種情報は、例えば所定の複数の掃除回数の間に亘ってメモリ61に記憶される。
 ここで、障害物となる物体の配置場所は、例えばカメラ51a,51bにより撮像された画像(画像処理部62により画像処理された画像)を用いて画像生成部63により任意の物体までの距離を算出して距離画像(視差画像)を生成し、この距離画像に基づいて判定部66により判断できる。障害物となる物体の配置範囲は、電気掃除機11が物体を検出しつつこの物体の周囲を走行することで取得できる。具体的に、図8(b)に示すマップMPの例のように、物体の形状情報として高さ寸法を反映することで、所定高さ(例えば50cm)以上の高さがある物体O1は、棚などの大型の障害物であると判定部66(図1)によって判断できる。すなわち、所定高さ以上の高さがある範囲(図8(b)中の50と記したメッシュM)が、記憶されているマップとの相違位置となる。また、図8(b)に示すように例えば高さが1cm程度と低くて領域が広い形状の物体O2は、カーペットや絨毯であると判定部66(図1)によって判断できる。すなわち、図8(b)中の1と記したメッシュMも、記憶されているマップとの相違位置となる。
 また、障害物となる物体の幅寸法や高さ寸法などの形状は、距離画像に基づいて形状取得部64により算出される。
 そして、障害物検出部74により検出された障害物となる物体は、メモリ61に記憶されている物体と同じ形状あるいは同じ材質である場合、メモリ61に記憶されている物体から所定距離(例えば30cm)以内にある場合(障害物検出部74により検出された物体ORとメモリ61に記憶されている物体OMとの中心間距離DIが所定距離以内である場合(図10))、あるいはメモリ61に記憶されている物体と同じ形状あるいは同じ材質で、かつ、この物体から所定距離以内に検出された場合(中心間距離が所定距離以内である場合)に、障害物検出部74により検出された物体とメモリ61に記憶されている物体とが同一のものであると判断され、メモリ61に記憶されているその物体の検出頻度(検出回数)が増加する。すなわち、メモリ61に記憶されている物体と同一形状や同一材質と判断される物体が略同一位置で検出されている場合には、その物体はその位置に日常的に配置される固定物である可能性があり、また、例えばメモリ61に記憶されている物体の位置になく、かつ、この物体に対して中心間距離が所定距離以内の位置に検出される物体については、例えば椅子やソファなどのように日常的に配置されていながらも位置が変わりやすい、半固定物である可能性があるため、これらの物体についてはメモリ61に記憶されている物体とは異なる物体と判断せず、メモリ61に記憶されている検出頻度を引き継ぐことで、走行経路の設定の際の判断に用いることが好ましい。なお、メモリ61に記憶されている物体の位置に対して所定距離以内に検出される物体については、マップ生成部67によりマップ上の位置をずらしてメモリ61に記憶することが好ましい。そして、障害物となる物体の配置や検出頻度が反映されたマップに基づいて、制御部27(経路設定部68)が本体ケース20の走行経路を変更する。
 このように、走行経路上で検出された障害物となる物体が例えば買い物袋やペット、人物など、一時的に配置された可能性が高い物体や偶発的に検出された可能性が高い物体である場合、このような物体に対して電気掃除機11(本体ケース20)の次回の掃除の際の走行経路をその都度変更すると、その物体を回避しようとして設定された走行経路が不必要に入り組み、最適化された走行経路が逐次変更されてしまうおそれがある。そこで、本実施形態では、制御部27(経路設定部68)が、走行モード時に障害物検出部74により検出した障害物となる物体に基づいて次回の走行経路を変更するか否かを判断することで、一時的に設置された可能性が高い物体や偶発的に検出された可能性が高い物体などの外乱要素を取り除き、意図しない走行経路の変更を抑制して走行経路をより精度よく設定でき、掃除領域をより効率よく、かつ、高精度に走行および掃除できる。
 具体的に、制御部27(経路設定部68)は、障害物検出部74により検出した障害物となる物体のメモリ61に記憶された検出頻度に基づいて次回の走行経路を変更するか否かを判断するので、この検出頻度から次回の領域の状況を精度よく予測でき、最適な走行経路の策定に繋げることができる。
 すなわち、走行モード時にマップに記されていない障害物となる物体を障害物検出部74により初めて検出した(検出回数が1回である)ときには、その物体が日常的に設置されているものであるのか、一時的、あるいは偶発的に設置されたものであるのか判断できないため、制御部27(経路設定部68)がその物体に基づいて次回の走行経路を変更しない。同様に、メモリ61に記憶された検出頻度が所定未満(例えば検出回数が2回以下)のときには、その物体が一時的、あるいは偶発的に設置されたものである可能性が高いので、制御部27(経路設定部68)がその物体に基づいて次回の走行経路を変更しない。この結果、一時的に配置された可能性が高い物体や偶発的に検出された可能性が高い物体に基づいて最適でない走行経路を誤って設定することを抑制できる。
 また、走行モード時、メモリ61に記憶された検出頻度が所定以上(例えば検出回数が3回以上)の物体、すなわち繰り返し検出される物体については、日常的に設置される固定物や半固定物などの物体と判断して、その物体に基づいて次回の走行経路を変更することで、走行経路をより精度よく設定できる。
 特に、領域を掃除する電気掃除機11の場合には、最新の領域の情報から走行経路の最適化に加えて、掃除制御の最適化や効率化をも図ることができ、効率よい自動掃除を実現できる。
 なお、障害物検出部74により検出する障害物となる物体の検出頻度として割合を用いる場合には、確率が高い方に走行経路の変更の有無を統計的に判断できる。
 ただし、制御部27(経路設定部68)は、マップ生成部67によりマップを生成しつつ電気掃除機11(本体ケース20)を自律走行するように駆動輪34,34(モータ35,35)の動作を制御するマップ作成モード時には、例外的に障害物検出部74により検出したマップに記されていない障害物となる物体の検出頻度に拘らずそれら物体に基づいて次回の走行経路を設定するので、マップを新規作成する場合や、ユーザがマップの更新を指示する場合に適用できる。特に、ユーザがマップの更新を指示する場合、ユーザが領域を片付けている可能性が高く、一時的や偶発的に設置される物体がないものと判断できるため、障害物検出部74により検出された物体が固定物または半固定物であるものとして走行経路の設定に用いることが好ましい。
 制御部27(経路設定部68)は、走行モード時にマップに記されている物体の位置と障害物検出部74により検出した障害物となる物体の位置とに相違がある場合、それらの位置の距離が所定以内であれば同一の物体と判断するので、メモリ61に記憶されているその物体の検出頻度を引き継ぎつつ、マップに記されている位置を更新できる。
 同様に、制御部27(経路設定部68)は、走行モード時に形状取得部64により取得した障害物の形状情報に基づいて、マップに記されている物体と障害物検出部74により検出した障害物となる物体とが同一の障害物であるか否かを判断する、すなわち形状情報が同一の物体については、同一の物体と判断するので、メモリ61に記憶されているその物体の検出頻度を引き継ぐことができる。
 この結果、同一の物体を異なる物体と誤って判断しにくくなるので、障害物となる物体をより精度よく検出でき、例えば机の椅子やソファなど、位置が変わりやすい半固定物である物体に対して検出頻度が変更されることを抑制できる。このため、走行経路をより精度よく設定でき、走行経路が逐次変更されることを抑制できる。
 具体的に、形状取得部64は、複数のカメラ51a,51bにより撮像された画像の距離画像(視差画像)により、すなわち、カメラ51a,51b、画像生成部63および形状取得部64を用いて障害物となる物体の形状を取得するので、容易かつ精度よく形状を取得できる。
 制御部27は、走行モード時に二次電池28の残量が所定値以下(例えば30%以下)のときに、検出頻度が大きい物体から順に掃除部22により掃除するように走行経路を設定することもできる。検出頻度が大きい物体ほど、日常的に設置される固定物または半固定物である可能性が高く、周囲に塵埃が溜まりやすくなっていると判断できるので、これらの物体を優先的に掃除することで、二次電池28の容量を有効に利用して効率よく掃除できる。
 さらに、マップに記されていない障害物となる物体を障害物検出部74により検出したときには、例えば無線LANデバイス47によりネットワーク15上のサーバ16に送信し、メールサーバを利用してユーザが所持する外部装置17に電子メールを送信したり、外部装置17に直接送信したり、電気掃除機11に表示部を設けてその表示部に表示したりするなど、ユーザに報知をすることができる。この場合には、日常的に設置されているものでない物体についてはユーザに片づけを促進することが可能となり、ユーザの部屋の清潔意識および掃除意識を向上させることができる。なお、このとき、カメラ51a,51bで撮像した画像を閲覧できるようにすることで、ユーザにより分かり易く報知でき、使い勝手がよい。
 また、障害物となる物体の検出頻度の情報を外部操作により設定可能とすることもできる。この場合には、ユーザが障害物の検出頻度を任意に設定でき、より精度よい走行経路の設定を可能とすることができる。
 さらに、障害物検出部74により検出した障害物となる物体の情報、例えば検出頻度を外部操作により削除可能とすることもできる。この場合には、領域内に設置された片付けられる物体を電気掃除機11側で障害物となる物体として検出しているときに、物体を片付けることを条件としてユーザの意思で削除できる。
 したがって、電気掃除機11に領域の情報を効率よく伝達できる。
 なお、これら外部操作としては、例えば電気掃除機11(本体ケース20)に静電容量型のタッチセンサを備えるディスプレイなどの表示部を設けて、この表示部からユーザが直接電気掃除機11に入力したり、ユーザが外部装置17から電気掃除機11に対して無線信号により入力したりすることができる。
 また、情報取得部75では、障害物の配置場所や範囲の他に、掃除領域の情報として、床面の材質情報、床面の段差情報、物体の温度情報、床面の塵埃量などの少なくともいずれかを取得してもよい。すなわち、情報取得部75は、カメラ51a,51bにより撮像された画像、本実施形態では画像処理部62により処理された画像から判定部66によって床面の材質情報、例えばフローリングなどの硬質かつ平坦な材質、カーペットや絨毯などの軟質かつ毛足が長い材質、あるいは畳などの情報や、床面の色調情報を取得および判断できる。同様に、床面の段差情報は、センサ部26(段差センサ56)により検出でき、物体の温度情報は、センサ部26(温度センサ57)により検出でき、塵埃量は、センサ部26(塵埃量センサ58)により検出できる。取得したこれらの情報はマップ生成部67によりマップに反映するとともに、メモリ61に記憶することができる。そして、これら情報取得部75で取得した各種情報に基づいて、制御部27(走行制御部69)により駆動輪34,34(モータ35,35)による走行制御を設定したり、掃除部22(電動送風機41、ブラシモータ43(回転ブラシ42(図3))、サイドブラシモータ45,45(サイドブラシ44,44(図3)))の動作を変更するなどの掃除制御の変更をしたりすることで、よりきめ細かい掃除をすることもできる。
 次に、第2の実施形態を図11を参照して説明する。なお、上記第1の実施形態と同様の構成および作用については、同一符号を付して説明を省略する。
 この第2の実施形態は、上記第1の実施形態において、制御部27の走行モード時に障害物検出部74によりマップに記されていない障害物となる物体を検出したときに、その検出頻度に加えて、検出の時間情報をメモリ61に記憶しているものである。
 ここで、時間情報とは、本実施形態では例えば曜日および時間帯とし、時間帯としては、例えば朝(6:00~12:00)、昼(12:00~18:00)、夜(18:00~6:00)の3つの時間帯とする。
 さらに、メモリ61には、各曜日および各時間帯のマップおよび走行経路がそれぞれ記憶されている。また、各マップにおいて、障害物となる物体の検出頻度は、曜日および時間帯と関連付けて記憶されている。
 そして、制御部27(経路設定部68)は、メモリ61により記憶した検出頻度および時間情報に基づいて次回の走行経路を変更するか否かを判断する。すなわち、次回の掃除の際に、その掃除時刻に対応する曜日および時間帯に関連付けて記憶されている物体の検出頻度が所定以上である場合(例えば検出回数が所定回数以上である場合)にのみ、走行経路を変更する。この検出頻度を判定する際の基準値(例えば所定回数)は、全て同一でもよいし、曜日毎、あるいは時間帯毎に異なる値としてもよい。
 例えば図11を参照して、ある障害物となる物体の検出頻度と走行経路の変更の有無を説明する。この図11に示す物体については、月曜日の朝の時間帯に検出頻度が0であるため、この時間帯に掃除をする際には、次回の走行経路を変更しない。一方で、例えば月曜日の昼の時間帯の時間帯は、検出頻度が3、夜の時間帯は検出頻度が2であるため、これらの時間帯に掃除をする際には、それぞれ次回の走行経路を変更する。また、火曜日の朝の時間帯には検出頻度が3であるため、この時間帯に掃除をする際には、次回の走行経路を変更する。一方で、例えば火曜日の昼の時間帯は、検出頻度が1、夜の時間帯は検出頻度が0であるため、これらの時間帯に掃除をする際には、それぞれ次回の走行経路を変更しない。
 この結果、一時的に設置される物体の時間帯を把握でき、それぞれの時間帯や曜日に応じて最適な走行経路を維持および設定することができる。
 なお、上記第2の実施形態においては、曜日に拘らず時間帯は同一に設定されているが、曜日毎に異なる時間帯を設定してもよい。例えば、平日と休日とで異なる時間帯となるように設定することなども可能である。これらの設定は、ユーザが任意に設定するように構成することもできる。
 また、上記各実施形態において、情報取得部75としては、例えばカメラ51a,51bおよび画像生成部63のみでもよく、形状取得部64やセンサ部26は、必須の構成ではない。また、センサ部26は、段差センサ56、温度センサ57および塵埃量センサ58の少なくともいずれかを備えていればよい。さらに、情報取得部75は、物体の配置場所や形状を取得する任意のセンサなどにより構成してもよい。
 走行経路の変更の要否は、掃除を開始する直前に判断してもよいし、掃除が終了したときに次回の走行経路について判断してもよい。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
 (1)本体ケースの走行中の障害物の検出および自己位置に基づいて本体ケースが走行した領域の情報を記すマップを作成し、このマップに基づいて設定した走行経路に沿って本体ケースを自律走行する走行モードを備え、この走行モード時に検出した障害物に基づいて次回の走行経路を変更するか否かを判断することを特徴とした自律走行体の走行制御方法。
 (2)走行モード時にマップに記されていない障害物を検出した場合に、この障害物の検出頻度を示す情報をメモリに記憶し、この記憶した検出頻度に基づいて次回の走行経路を変更するか否かを判断することを特徴とした(1)記載の自律走行体の走行制御方法。
 (3)走行モード時にマップに記されていない障害物を初めて検出したときにはその障害物に基づいて次回の走行経路を変更しないことを特徴とした(2)記載の自律走行体の走行制御方法。
 (4)走行モード時にメモリにより記憶した検出頻度が所定以上の障害物についてはその障害物に基づいて次回の走行経路を変更することを特徴とした(2)または(3)記載の自律走行体の走行制御方法。
 (5)マップを生成しつつ自律走行するマップ作成モードを備え、マップ作成モード時には、マップに記されていない障害物の検出に基づいて次回の走行経路を設定することを特徴とした(2)ないし(4)いずれか一記載の自律走行体の走行制御方法。
 (6)走行モード時に電池の残量が所定値以下のときに、検出頻度が大きい障害物から順に掃除するように走行経路を設定することを特徴とした(2)ないし(5)いずれか一記載の自律走行体の走行制御方法。
 (7)走行モード時にマップに記されていない障害物を検出した場合に、この障害物の検出頻度とともに検出した時間情報をメモリに記憶し、これら記憶した検出頻度および時間情報に基づいて次回の走行経路を変更するか否かを判断することを特徴とした(2)ないし(6)いずれか一記載の自律走行体の走行制御方法。
 (8)走行モード時にマップに記されている障害物の位置と検出した障害物の位置とに相違がある場合、それらの位置の距離が所定以内であれば同一の障害物と判断することを特徴とした(2)ないし(7)いずれか一記載の自律走行体の走行制御方法。
 (9)走行モード時に検出した障害物の形状情報に基づいて、マップに記されている障害物と検出した障害物とが同一の障害物であるか否かを判断することを特徴とした(2)ないし(8)いずれか一記載の自律走行体の走行制御方法。
 (10)複数のカメラにより撮像された画像の視差画像により障害物の形状を取得することを特徴とした(9)記載の自律走行体の走行制御方法。
 (11)マップに記されていない障害物を検出したときに報知することを特徴とした(2)ないし(10)いずれか一記載の自律走行体の走行制御方法。
 (12)障害物の検出頻度の情報を外部操作により設定可能であることを特徴とした(2)ないし(11)いずれか一記載の自律走行体の走行制御方法。
 (13)検出した障害物の情報を外部操作により削除可能であることを特徴とした(2)ないし(12)いずれか一記載の自律走行体の走行制御方法。

Claims (13)

  1.  本体ケースと、
     この本体ケースを走行可能とする駆動輪と、
     自己位置を推定する自己位置推定手段と、
     前記本体ケースの外部の障害物を検出する障害物検出手段と、
     前記本体ケースの走行中の前記障害物検出手段による障害物の検出および前記自己位置推定手段により推定した自己位置に基づいて前記本体ケースが走行した領域の情報を記すマップを作成するマップ生成手段と、
     前記駆動輪の動作を制御することで前記本体ケースを自律走行させる制御手段とを具備し、
     前記制御手段は、前記マップに基づいて設定した走行経路に沿って前記本体ケースを自律走行するように前記駆動輪の動作を制御する走行モードを備え、この走行モード時に前記障害物検出手段により検出した障害物に基づいて次回の走行経路を変更するか否かを判断する
     ことを特徴とした自律走行体。
  2.  制御手段の走行モード時にマップに記されていない障害物を障害物検出手段により検出した場合に、この障害物の検出頻度を示す情報を記憶する記憶手段を備え、
     前記制御手段は、前記記憶手段により記憶した検出頻度に基づいて次回の走行経路を変更するか否かを判断する
     ことを特徴とした請求項1記載の自律走行体。
  3.  制御手段は、走行モード時にマップに記されていない障害物を障害物検出手段により初めて検出したときにはその障害物に基づいて次回の走行経路を変更しない
     ことを特徴とした請求項2記載の自律走行体。
  4.  制御手段は、走行モード時に記憶手段により記憶した検出頻度が所定以上の障害物についてはその障害物に基づいて次回の走行経路を変更する
     ことを特徴とした請求項2または3記載の自律走行体。
  5.  制御手段は、マップ生成手段によりマップを生成しつつ本体ケースを自律走行するように駆動輪の動作を制御するマップ作成モードを備え、マップ作成モード時には、障害物検出手段により検出したマップに記されていない障害物に基づいて次回の走行経路を設定する
     ことを特徴とした請求項2ないし4いずれか一記載の自律走行体。
  6.  被掃除部を掃除する掃除部と、
     駆動輪を駆動する電源となる電池とを備え、
     制御手段は、走行モード時に前記電池の残量が所定値以下のときに、検出頻度が大きい障害物から順に前記掃除部により掃除するように走行経路を設定する
     ことを特徴とした請求項2ないし5いずれか一記載の自律走行体。
  7.  記憶手段は、制御手段の走行モード時にマップに記されていない障害物を障害物検出手段により検出した場合に、この障害物の検出頻度とともに検出した時間情報を記憶し、
     制御手段は、前記記憶手段により記憶した検出頻度および時間情報に基づいて次回の走行経路を変更するか否かを判断する
     ことを特徴とした請求項2ないし6いずれか一記載の自律走行体。
  8.  制御手段は、走行モード時にマップに記されている障害物の位置と障害物検出手段により検出した障害物の位置とに相違がある場合、それらの位置の距離が所定以内であれば同一の障害物と判断する
     ことを特徴とした請求項2ないし7いずれか一記載の自律走行体。
  9.  障害物検出手段により検出した障害物の形状情報を取得する形状取得手段を備え、
     制御手段は、走行モード時に形状取得手段により取得した障害物の形状情報に基づいて、マップに記されている障害物と前記障害物検出手段により検出した障害物とが同一の障害物であるか否かを判断する
     ことを特徴とした請求項2ないし8いずれか一記載の自律走行体。
  10.  画像を撮像する複数の撮像手段を備え、
     形状取得手段は、前記撮像手段により撮像された画像の視差画像により障害物の形状を取得する
     ことを特徴とした請求項9記載の自律走行体。
  11.  マップに記されていない障害物を障害物検出手段により検出したときに報知する
     ことを特徴とした請求項2ないし10いずれか一記載の自律走行体。
  12.  障害物の検出頻度の情報を外部操作により設定可能である
     ことを特徴とした請求項2ないし11いずれか一記載の自律走行体。
  13.  障害物検出手段により検出した障害物の情報を外部操作により削除可能である
     ことを特徴とした請求項2ないし12いずれか一記載の自律走行体。
PCT/JP2017/021219 2016-11-09 2017-06-07 自律走行体 WO2018087951A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780064439.2A CN109891348B (zh) 2016-11-09 2017-06-07 自主行走体
US16/346,718 US11221629B2 (en) 2016-11-09 2017-06-07 Autonomous traveler and travel control method thereof
GB1906014.4A GB2570239A (en) 2016-11-09 2017-06-07 Autonomous traveling body

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016219123A JP6752118B2 (ja) 2016-11-09 2016-11-09 自律走行体
JP2016-219123 2016-11-09

Publications (1)

Publication Number Publication Date
WO2018087951A1 true WO2018087951A1 (ja) 2018-05-17

Family

ID=62109755

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/021219 WO2018087951A1 (ja) 2016-11-09 2017-06-07 自律走行体

Country Status (6)

Country Link
US (1) US11221629B2 (ja)
JP (1) JP6752118B2 (ja)
CN (1) CN109891348B (ja)
GB (1) GB2570239A (ja)
TW (1) TWI656423B (ja)
WO (1) WO2018087951A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201785A1 (ja) * 2021-03-22 2022-09-29 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017113286A1 (de) * 2017-06-16 2018-12-20 Vorwerk & Co. Interholding Gmbh System mit mindestens zwei sich selbsttätig fortbewegenden Bodenbearbeitungsgeräten
JPWO2019097626A1 (ja) * 2017-11-16 2020-07-27 学校法人千葉工業大学 自走式掃除機
JP2019204336A (ja) * 2018-05-24 2019-11-28 東芝ライフスタイル株式会社 自律走行体
JP7123656B2 (ja) * 2018-06-22 2022-08-23 東芝ライフスタイル株式会社 自律型電気掃除機
US20210271257A1 (en) * 2018-07-06 2021-09-02 Sony Corporation Information processing device, optimum time estimation method, self-position estimation method, and record medium recording computer program
JP7065449B2 (ja) * 2018-07-20 2022-05-12 パナソニックIpマネジメント株式会社 自走式掃除機
JP7123430B2 (ja) * 2018-07-30 2022-08-23 学校法人千葉工業大学 地図生成システムおよび移動体
GB2576494B (en) * 2018-08-06 2022-03-23 Dyson Technology Ltd A mobile robot and method of controlling thereof
JP6940461B2 (ja) * 2018-09-10 2021-09-29 日立グローバルライフソリューションズ株式会社 自律走行型掃除機
WO2020065701A1 (ja) * 2018-09-25 2020-04-02 学校法人 千葉工業大学 情報処理装置および移動ロボット
TWI723330B (zh) 2019-01-21 2021-04-01 瑞軒科技股份有限公司 機器人以及機器人控制方法
JP6764138B2 (ja) * 2019-03-28 2020-09-30 日本電気株式会社 管理方法、管理装置、プログラム
TWI716957B (zh) * 2019-08-07 2021-01-21 陳水石 清潔機器人及其材質辨識方法
JP7345132B2 (ja) * 2019-08-09 2023-09-15 パナソニックIpマネジメント株式会社 自律走行型掃除機、自律走行型掃除機の制御方法、及び、プログラム
KR20210099470A (ko) * 2020-02-04 2021-08-12 엘지전자 주식회사 청소기
CN111625007A (zh) * 2020-06-24 2020-09-04 深圳市银星智能科技股份有限公司 一种识别动态障碍物的方法和移动机器人
CN111700546B (zh) * 2020-06-24 2022-09-13 深圳银星智能集团股份有限公司 一种移动机器人的清扫方法及移动机器人
KR20220012000A (ko) * 2020-07-22 2022-02-03 엘지전자 주식회사 로봇 청소기 및 이의 제어방법
CN112220405A (zh) * 2020-10-29 2021-01-15 久瓴(江苏)数字智能科技有限公司 自移动工具清扫路线更新方法、装置、计算机设备和介质
CN113786134B (zh) * 2021-09-27 2023-02-03 汤恩智能科技(上海)有限公司 一种清洁方法、程序产品、可读介质和电子设备
CN114137966A (zh) * 2021-11-22 2022-03-04 北京云迹科技有限公司 一种移动装置的控制方法、装置、系统及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0373004A (ja) * 1989-08-14 1991-03-28 Honda Motor Co Ltd 自走型作業ロボット
JP2004033340A (ja) * 2002-07-01 2004-02-05 Hitachi Home & Life Solutions Inc ロボット掃除機及びロボット掃除機制御プログラム
US20050022273A1 (en) * 2003-07-23 2005-01-27 Hitachi, Ltd. Location aware automata
JP2007323402A (ja) * 2006-06-01 2007-12-13 Matsushita Electric Ind Co Ltd 自走式機器およびそのプログラム
JP2008129614A (ja) * 2006-11-16 2008-06-05 Toyota Motor Corp 移動体システム

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5107946A (en) 1989-07-26 1992-04-28 Honda Giken Kogyo Kabushiki Kaisha Steering control system for moving vehicle
JPH0680203A (ja) * 1992-03-24 1994-03-22 East Japan Railway Co 床面洗浄ロボットの制御方法
JPH1088625A (ja) * 1996-09-13 1998-04-07 Komatsu Ltd 自動掘削機、自動掘削方法および自動積み込み方法
JP2004275468A (ja) * 2003-03-17 2004-10-07 Hitachi Home & Life Solutions Inc 自走式掃除機およびその運転方法
TWI308487B (en) * 2006-12-26 2009-04-11 Ind Tech Res Inst Position-detecting system and method
JP2008242908A (ja) * 2007-03-28 2008-10-09 Matsushita Electric Ind Co Ltd 自律走行装置およびこの装置を機能させるためのプログラム
KR20090077547A (ko) 2008-01-11 2009-07-15 삼성전자주식회사 이동 로봇의 경로 계획 방법 및 장치
CN104248395B (zh) 2008-04-24 2018-06-22 艾罗伯特公司 用于机器人使能的移动产品的定位、位置控制和导航系统的应用
CN101920498A (zh) * 2009-06-16 2010-12-22 泰怡凯电器(苏州)有限公司 实现室内服务机器人同时定位和地图创建的装置及机器人
CN102596517B (zh) 2009-07-28 2015-06-17 悠进机器人股份公司 移动机器人定位和导航控制方法及使用该方法的移动机器人
DE102009041362A1 (de) 2009-09-11 2011-03-24 Vorwerk & Co. Interholding Gmbh Verfahren zum Betreiben eines Reinigungsroboters
CN102138769B (zh) * 2010-01-28 2014-12-24 深圳先进技术研究院 清洁机器人及其清扫方法
KR101750340B1 (ko) 2010-11-03 2017-06-26 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
KR101566207B1 (ko) * 2011-06-28 2015-11-13 삼성전자 주식회사 로봇 청소기 및 그 제어방법
TW201305761A (zh) * 2011-07-21 2013-02-01 Ememe Robot Co Ltd 自走機器人及其定位方法
JP5165784B1 (ja) 2011-10-07 2013-03-21 シャープ株式会社 自走式イオン発生機及び掃除ロボット
EP2713232A1 (en) * 2012-09-27 2014-04-02 Koninklijke Philips N.V. Autonomous mobile robot and method for operating the same
US8949016B1 (en) * 2012-09-28 2015-02-03 Google Inc. Systems and methods for determining whether a driving environment has changed
JP2015535373A (ja) * 2012-10-05 2015-12-10 アイロボット コーポレイション 移動ロボットを含むドッキングステーション姿勢を決定するためのロボット管理システムとこれを用いる方法
CN103054522B (zh) 2012-12-31 2015-07-29 河海大学 一种清洁机器人系统及其测控方法
JP2014200449A (ja) * 2013-04-04 2014-10-27 シャープ株式会社 自走式掃除機
CN103431812B (zh) 2013-08-02 2016-04-06 南京航空航天大学金城学院 一种基于超声雷达探测的清洁机器人及其行走控制方法
CN103353758B (zh) 2013-08-05 2016-06-01 青岛海通机器人系统有限公司 一种室内机器人导航方法
JP5897517B2 (ja) * 2013-08-21 2016-03-30 シャープ株式会社 自律移動体
EP2839769B1 (en) * 2013-08-23 2016-12-21 LG Electronics Inc. Robot cleaner and method for controlling the same
EP3056453A4 (en) * 2013-10-11 2017-07-26 Hitachi, Ltd. Transport vehicle control device and transport vehicle control method
KR102093177B1 (ko) * 2013-10-31 2020-03-25 엘지전자 주식회사 이동 로봇 및 그 동작방법
TWI502297B (zh) 2013-11-18 2015-10-01 Weistech Technology Co Ltd Mobile device with route memory function
CN104188598B (zh) * 2014-09-15 2016-09-07 湖南格兰博智能科技有限责任公司 一种自动地面清洁机器人
CN104932493B (zh) * 2015-04-01 2017-09-26 上海物景智能科技有限公司 一种自主导航的移动机器人及其自主导航的方法
CN204631616U (zh) * 2015-05-13 2015-09-09 美的集团股份有限公司 机器人
CN105320140B (zh) * 2015-12-01 2018-09-18 浙江宇视科技有限公司 一种扫地机器人及其清扫路径规划方法
CN105425801B (zh) * 2015-12-10 2018-06-12 长安大学 基于先进路径规划技术的智能清洁机器人及其清洁方法
CN105425803B (zh) * 2015-12-16 2020-05-19 纳恩博(北京)科技有限公司 自主避障方法、装置和系统
JP7058067B2 (ja) 2016-02-16 2022-04-21 東芝ライフスタイル株式会社 自律走行体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0373004A (ja) * 1989-08-14 1991-03-28 Honda Motor Co Ltd 自走型作業ロボット
JP2004033340A (ja) * 2002-07-01 2004-02-05 Hitachi Home & Life Solutions Inc ロボット掃除機及びロボット掃除機制御プログラム
US20050022273A1 (en) * 2003-07-23 2005-01-27 Hitachi, Ltd. Location aware automata
JP2007323402A (ja) * 2006-06-01 2007-12-13 Matsushita Electric Ind Co Ltd 自走式機器およびそのプログラム
JP2008129614A (ja) * 2006-11-16 2008-06-05 Toyota Motor Corp 移動体システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201785A1 (ja) * 2021-03-22 2022-09-29 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
US11221629B2 (en) 2022-01-11
GB2570239A (en) 2019-07-17
CN109891348B (zh) 2022-04-29
CN109891348A (zh) 2019-06-14
US20190302796A1 (en) 2019-10-03
GB201906014D0 (en) 2019-06-12
TWI656423B (zh) 2019-04-11
JP6752118B2 (ja) 2020-09-09
TW201818175A (zh) 2018-05-16
JP2018077685A (ja) 2018-05-17

Similar Documents

Publication Publication Date Title
WO2018087951A1 (ja) 自律走行体
WO2017141535A1 (ja) 自律走行体
WO2017141536A1 (ja) 自律走行体
EP3727122B1 (en) Robot cleaners and controlling method thereof
WO2018087952A1 (ja) 電気掃除機
CN110636789B (zh) 电动吸尘器
JP7007078B2 (ja) 電気掃除機
CN110325938B (zh) 电动吸尘器
JP7141220B2 (ja) 自走式電気掃除機
CN109938642B (zh) 电动吸尘器
JP2018068896A (ja) 電気掃除機
US20200033878A1 (en) Vacuum cleaner
JP2016185182A (ja) 電気掃除機およびその情報表示方法
JP6945144B2 (ja) 掃除情報提供装置、および掃除機システム
CN111225592B (zh) 自主行走吸尘器和扩展区域识别方法
JP2020140248A (ja) 自律走行体装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17869149

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 201906014

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20170607

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17869149

Country of ref document: EP

Kind code of ref document: A1