WO2009090807A1 - 移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム - Google Patents

移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム Download PDF

Info

Publication number
WO2009090807A1
WO2009090807A1 PCT/JP2008/072086 JP2008072086W WO2009090807A1 WO 2009090807 A1 WO2009090807 A1 WO 2009090807A1 JP 2008072086 W JP2008072086 W JP 2008072086W WO 2009090807 A1 WO2009090807 A1 WO 2009090807A1
Authority
WO
WIPO (PCT)
Prior art keywords
obstacle
function unit
person
route
moving
Prior art date
Application number
PCT/JP2008/072086
Other languages
English (en)
French (fr)
Inventor
Takashi Jikihara
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to US12/812,773 priority Critical patent/US20110144850A1/en
Priority to JP2009549964A priority patent/JP5158097B2/ja
Publication of WO2009090807A1 publication Critical patent/WO2009090807A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • G05D1/0261Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means using magnetic plots

Definitions

  • the present invention relates to a moving apparatus, a moving method for the moving apparatus, and a movement control program for the moving apparatus.
  • a technique in which a moving body (moving device) moves autonomously to a destination while avoiding an obstacle.
  • many techniques have been proposed so far.
  • the route to the destination may be blocked by the obstacles.
  • the route is blocked by the obstacle, so that the mobile body may not be able to reach the destination by itself.
  • This autonomous mobile system includes obstacle detection means, obstacle determination means, person detection means, and obstacle removal request means.
  • This autonomous mobile system operates as follows. That is, the moving body searches for an obstacle existing on the moving route by the obstacle detecting means during movement. Next, it is determined by the obstacle determination means whether or not the detected obstacle can be removed. Subsequently, it is confirmed by the person detection means that there is a person around the moving body. Then, the obstacle removal request means requests a person around the moving body to remove the obstacle.
  • Japanese Patent Laid-Open No. 63-276610 discloses a traveling course creation device.
  • the traveling course creation device includes a recognition unit, a control unit, a first creation unit, and a second creation unit.
  • the recognition means recognizes the position information of the target and the obstacle.
  • the control means determines whether a straight path from any point to the target can be generated based on the position information of the target and the obstacle obtained by the recognition means and the shape of the ground projection surface of the unmanned vehicle. To do. When such a straight path cannot be generated, the control means determines whether or not at least one straight path that avoids an obstacle in the target direction from an arbitrary point can be generated.
  • the first creating means selects an obstacle to be removed from the obstacles when it is determined by the control means that no direct route for avoiding the obstacle in the target direction is generated.
  • the first creation means generates a travel route to a point where the obstacle to be removed is gripped and sets a point where the removed obstacle is placed.
  • the second creation means creates a route to the target point when it is determined by the control means that a straight route to the target can be generated. When it is determined that a straight route that avoids an obstacle can be created, the second creating means generates a route that avoids the obstacle.
  • JP-A-2-230409 discloses a work vehicle.
  • This work vehicle performs a predetermined work while traveling in a predetermined area.
  • This work vehicle includes travel means, control means, a distance sensor, and a temperature sensor.
  • the traveling means is for traveling.
  • the control means is for controlling traveling by the traveling means.
  • the distance sensor measures a distance from an obstacle on the front surface.
  • the temperature sensor is for detecting the temperature of the obstacle on the front surface.
  • the control means stops traveling for a predetermined time when the distance from the obstacle detected by the distance sensor is less than a predetermined value and the temperature detected by the temperature sensor is more than a predetermined value. Thereafter, the control means performs avoidance traveling if the obstacle does not move.
  • an autonomous mobile device is disclosed in Japanese Patent Laid-Open No. 9-185212.
  • This autonomous mobile device includes a distance sensor, an infrared sensor, a determination unit, and a control unit.
  • the distance sensor detects an obstacle in the entire traveling direction.
  • the infrared sensor can detect infrared rays emitted from a person.
  • the determining means determines whether the obstacle is a person based on the infrared difference.
  • the control means stops the autonomous mobile device and waits for a certain period of time, and moves to an avoidance operation when an obstacle still exists after the certain period of time has elapsed.
  • the control means causes the autonomous mobile device to resume running when there are no obstacles.
  • JP 2000-202792 A discloses a cleaning robot.
  • This cleaning robot automatically runs to perform cleaning.
  • This cleaning robot includes a front wheel, a rear wheel, and an auxiliary wheel.
  • the rear wheel has a larger diameter than the front wheel.
  • the auxiliary wheel is arranged in front of the front wheel and can be raised and lowered.
  • the cleaning robot detects the size of the obstacle, and determines that it cannot move when the obstacle is larger than a predetermined size.
  • Japanese Patent Laid-Open No. 2006-277121 discloses a travel route creation device, a mobile robot, a travel route creation method, and a travel route creation program.
  • This movement path creation device creates a movement path used when the mobile robot moves within a predetermined area.
  • This movement route creation device includes floor plan information holding means, feature information extraction means, movement availability estimation means, and movement route creation means.
  • the floor plan information holding unit holds floor plan information indicating a floor plan of a predetermined area.
  • the feature information extraction unit extracts feature information, which is image information indicating features relating to the movement route, from the floor plan information held by the floor plan information holding unit.
  • the movement possibility estimation unit estimates whether the mobile robot can move a position corresponding to the feature information based on the feature information extracted by the feature information extraction unit.
  • the movement path creation means creates a movement path based on the movement availability of the mobile robot estimated by the movement availability estimation means for the position corresponding to the feature information.
  • the A * algorithm of the Hart document is an algorithm for enabling route generation when, for example, information on the position of an obstacle is recorded as a grid-like map.
  • the face recognition method in the Viola document is a method that enables a person to be recognized by capturing a human face as an image.
  • the various documents described above do not mention a moving body, a moving method, and a movement control program that perform such selection.
  • the above moving system may select a large obstacle that is difficult to remove, even if there is a small obstacle that is easy to remove, if it is selected incorrectly. Absent.
  • An object of the present invention is to provide an autonomous moving body that selects an appropriate obstacle as a request for removal from a plurality of obstacles that block the path of the moving body, an autonomous moving method therefor, and an autonomous And a mobile control program.
  • a mobile device includes a route generation function unit, a movement function unit, an obstacle detection function unit, an obstacle removal request function unit, an obstacle determination function unit, a request target detection function unit, and an obstacle selection. And a functional unit.
  • the route generation function unit generates a route to the destination.
  • the movement function unit moves along the route.
  • the obstacle detection function unit detects an obstacle that prevents movement.
  • the route generation function unit tries to generate a route different from the route, and when another route exists, the movement function unit follows the other route. Try to move to the destination.
  • the obstacle removal request function unit requests the outside to remove the obstacle out of the route when there is no other route.
  • the obstacle determination function unit determines the presence of at least one removable obstacle that can be removed from the path from the obstacles detected by the obstacle detection function unit.
  • the request target detection function unit externally detects at least one requestable target that can be requested by the obstacle removal function unit to remove the removable obstacle.
  • the obstacle selecting function unit selects and determines a removal target obstacle, which is an obstacle requested by the obstacle removing function unit, from the plurality of removable obstacles.
  • the movement method includes (a) a route generation step in which the route generation function unit generates a route to the destination, and (b) a movement step in which the movement function unit attempts to move along the route.
  • the movement step (b) includes (b-1) an obstacle detection step in which the obstacle detection function unit attempts to detect an obstacle, and (b-2) an obstacle detection step (b-1).
  • the obstacle removal request function unit includes an obstacle removal request step for requesting the outside to remove the obstacle out of the path.
  • the obstacle removal requesting step (b-4) includes at least (b-4-a) an obstacle determination function unit that can be removed from the obstacles detected by the obstacle detection function unit on the route.
  • An obstacle determination step for determining the presence of one removable obstacle and (b-4-b) the request target detection function unit externally outputs at least one request target that is a partner requesting the removal of the removable obstacle. And (b-4-c) when there are a plurality of the at least one removable obstacle in the obstacle determination step (b-4-a), the obstacle selection function unit An obstacle selection step of selecting and determining, from the plurality of removable obstacles, an obstacle to be removed, which is an obstacle requested to be removed by the obstacle removal request function unit.
  • the movement control program includes (a) a route generation step in which a route generation function unit generates a route to a destination, and (b) a movement step in which the movement function unit attempts to move along the route.
  • the movement step (b) includes (b-1) an obstacle detection step in which the obstacle detection function unit attempts to detect an obstacle, and (b-2) an obstacle detection step (b-1).
  • the obstacle removal request function unit includes an obstacle removal request step for requesting the outside to remove the obstacle out of the path.
  • the obstacle removal requesting step (b-4) includes at least (b-4-a) an obstacle determination function unit that can be removed from the obstacles detected by the obstacle detection function unit on the route.
  • An obstacle determination step for determining the presence of one removable obstacle and (b-4-b) the request target detection function unit externally outputs at least one request target that is a partner requesting the removal of the removable obstacle. And (b-4-c) when there are a plurality of the at least one removable obstacle in the obstacle determination step (b-4-a), the obstacle selection function unit An obstacle selection step of selecting and determining, from the plurality of removable obstacles, an obstacle to be removed, which is an obstacle requested to be removed by the obstacle removal request function unit.
  • FIG. 1 is a block diagram for explaining a configuration of an autonomous mobile body according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram for explaining in detail the configuration of the autonomous mobile body according to the first embodiment of the present invention.
  • FIG. 3 is a map group for explaining a processing example in the obstacle determination function unit according to the first embodiment of the present invention.
  • FIG. 4A is a part of a flowchart for explaining the entire operation procedure of the autonomous movement method according to the first embodiment of the present invention.
  • FIG. 1 is a block diagram for explaining a configuration of an autonomous mobile body according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram for explaining in detail the configuration of the autonomous mobile body according to the first embodiment of the present invention.
  • FIG. 3 is a map group for explaining a processing example in the obstacle determination function unit according to the first embodiment of the present invention.
  • FIG. 4A is a part of a flowchart for explaining the entire operation procedure of the autonomous movement method according to the first embodiment of
  • FIG. 4B is a part of a flowchart for explaining the entire operation procedure of the autonomous movement method according to the first embodiment of the present invention.
  • FIG. 5 is a block diagram for explaining in detail the configuration of the autonomous mobile body according to the second embodiment of the present invention.
  • FIG. 6A is a part of a flowchart for explaining in detail the entire operation procedure of the autonomous movement method according to the second embodiment of the present invention.
  • FIG. 6B is a part of a flowchart for explaining in detail the entire operation procedure of the autonomous movement method according to the second embodiment of the present invention.
  • FIG. 7 is a block diagram for explaining in detail the configuration of the moving object according to the third embodiment of the present invention.
  • FIG. 8A is a part of a flowchart for explaining in detail the entire operation procedure of the autonomous movement method according to the third embodiment of the present invention.
  • FIG. 8B is a part of a flowchart for explaining in detail the entire operation procedure of the autonomous movement method according to the third embodiment of the present invention.
  • FIG. 9 is a block diagram for explaining a detailed configuration of the moving body in the embodiment of the present invention.
  • FIG. 10 is a map group showing a change in the space in which the mobile robot moves to explain an example of the operation of the moving object in the embodiment of the present invention.
  • FIG. 1 is a block diagram showing a configuration of an autonomous mobile body according to the first embodiment of the present invention.
  • the autonomous mobile body of this embodiment moves to the destination while avoiding obstacles.
  • the autonomous mobile body of this embodiment includes an obstacle detection function unit 100, an obstacle determination function unit 200, an obstacle selection function unit 300, a request target detection function unit 400, and an obstacle removal request function unit 500. It comprises.
  • the obstacle detection function unit 100 detects obstacles around the autonomous mobile body when the autonomous mobile body moves.
  • the obstacle detection function unit 100 is realized by, for example, obstacle detection hardware and an information processing apparatus such as a computer that processes information (data) from the hardware by software (program).
  • the detection result of the obstacle detection function unit 100 is transmitted to the obstacle determination function unit 200.
  • the obstacle determination function unit 200 removes the obstacle detected by the obstacle detection function unit 100 when it recognizes that the route for the autonomous mobile body to move to the destination is completely blocked by the obstacle. Determine if it is possible.
  • the obstacle determination function unit 200 is realized by, for example, an information processing apparatus such as a computer that processes information (data) from the obstacle detection function unit 100 or the like by software (program). The determination result of the obstacle determination function unit 200 is transmitted to the obstacle selection function unit 300.
  • the obstacle selection function unit 300 selects an obstacle to be removed when the obstacle determination function unit 200 determines that there is an obstacle that can be removed. This selection is performed so that the cost is minimized by using information on the obstacle, information on the moving object, or information on the request target. This cost includes the cost for the request object and the cost for the moving body, and the obstacle may be selected so that both of these costs are minimized.
  • the obstacle selection function unit 300 is realized by, for example, an information processing apparatus such as a computer that processes information (data) from the obstacle determination function unit 200 or the like by software (program). The selection result of the obstacle selection function unit 300 is transmitted to the obstacle removal request function unit 500.
  • the request target detection function unit 400 detects the request target when recognizing that the route for the autonomous mobile body to move to the destination is completely blocked by the obstacle.
  • the request target detection function unit 400 is realized by, for example, a hardware for detecting a request target and an information processing apparatus such as a computer that processes information (data) from the hardware by software (program). The detection result of the request target detection function unit 400 is transmitted to the obstacle removal request function unit 500.
  • the obstacle removal request function unit 500 requests the request target detected by the request target detection function unit 400 to remove the obstacle selected by the obstacle selection function unit 300.
  • the request target may be, for example, a person, a robot outside the moving body, or the obstacle itself.
  • the obstacle removal request function unit 500 includes, for example, an information processing device such as a computer that processes information (data) from the request target detection function unit 400 or the like by software (program), and information (data) from the information processing device. ) In response to an obstacle removal request.
  • the combination of the obstacle to be removed and the request target of the removal is appropriately selected using information on the obstacle, information on the moving object, or information on the request target. Therefore, the autonomous mobile body according to the present embodiment can appropriately select an obstacle to be removed.
  • the information processing apparatuses such as the computers exemplified above may be integrated or partially integrated.
  • FIG. 2 is a block diagram showing details of the configuration of the autonomous mobile body according to the first embodiment of the present invention.
  • the autonomous mobile body of this embodiment includes an obstacle detection function unit 100, an obstacle determination function unit 200, an obstacle selection function unit 300, a request target detection function unit 400, and an obstacle removal request function unit 500.
  • the route generation function unit 600 and the movement function unit 700 are provided.
  • the obstacle detection function unit 100 detects obstacles around the autonomous mobile body.
  • the detection result of the obstacle detection function unit 100 is transmitted to the obstacle determination function unit 200 (removable determination function unit 211).
  • the obstacle determination function unit 200 can remove the obstacle detected by the obstacle detection function unit 100 when the autonomous moving body recognizes that the route to the destination is blocked by the obstacle. Determine if. The determination result of the obstacle determination function unit 200 is transmitted to the obstacle selection function unit 300.
  • the obstacle determination function unit 200 includes a removable determination function unit 211 and an obstacle position recording function unit 212.
  • the removal possibility determination function unit 211 determines whether the obstacle can be removed by comparing the detection result of the obstacle detection function unit 100 with the position information of the obstacle obtained in the past. The determination result of the removable determination function unit 211 is transmitted to the obstacle selection function unit 300 (removed obstacle removal work amount determination function unit 312).
  • the obstacle position recording function unit 212 records obstacle position information obtained by the autonomous mobile body in the past. Information recorded in the obstacle position recording function unit 212 is transmitted to the removable determination function unit 211 and the route generation function unit 600 as necessary.
  • the obstacle selection function unit 300 estimates the volume of the obstacle. If there are a plurality of obstacles, the obstacle selection function unit 300 selects an obstacle that reduces the cost for the requested person.
  • the cost is the amount of work that the person of the request partner spends to remove the obstacle, and is at least included in the volume, weight, shape, length, surface area, type, or distance to the request target of the obstacle. It may be calculated based on one piece of information.
  • the determination result of the obstacle selection function unit 300 is transmitted to the obstacle removal request unit 500.
  • the obstacle selection function unit 300 includes an obstacle volume acquisition function unit 311 and a removal obstacle removal work amount determination function unit 312.
  • the obstacle volume acquisition function unit 311 estimates the volume of the obstacle. The estimation result of the obstacle volume acquisition function unit 311 is transmitted to the removal obstacle removal work amount determination function unit 312.
  • the removal obstacle removal work determination function unit 312 uses the information on the volume of the obstacle acquired by the obstacle volume acquisition function unit 311, and from among the obstacles that the removal determination function unit 211 determines to be removable, Select the removal target. At this time, the removal obstacle removal work amount determination function unit 312 selects an obstacle so that the cost for the person to be requested is reduced. The selection result of the removal obstacle removal work amount determination function unit 312 is transmitted to the obstacle removal request function unit 500 (obstacle designation function unit 512).
  • the request target detection function unit 400 detects the request target when recognizing that the route for the autonomous mobile body to move to the destination is completely blocked by an obstacle.
  • the person detection function unit 410 of the request target detection function unit 400 detects a person around the autonomous mobile body.
  • the detection result of the person detection function unit 410 is transmitted to the obstacle removal request function unit 500 (person designation function unit 513).
  • the obstacle removal request function unit 500 requests the person detected by the person detection function unit 410 to remove the obstacle selected by the obstacle selection function unit 300.
  • the obstacle removal request function unit 500 includes an utterance function unit 511, an obstacle designation function unit 512, and a person designation function unit 513.
  • the person designation function unit 513 designates a person to be requested using the person information detected by the person detection function unit 410.
  • the obstacle designation function unit 512 designates the obstacle selected by the removal obstacle removal work amount determination function unit 312 to the person to be requested.
  • the utterance function unit 511 performs an utterance informing the request target that the obstacle is to be removed.
  • the route generation function unit 600 generates a route to the destination of the autonomous mobile body.
  • the route generation function unit 600 is realized, for example, by an information processing apparatus such as a computer that processes information (data) from the obstacle determination function unit 200 or the like by software (program).
  • the movement function unit 700 realizes autonomous movement of the moving body.
  • the movement function unit 700 responds to an information processing device such as a computer that processes information (data) from the route generation function unit 600 or the like by software (program) and information (data) from the information processing device, for example. It is realized by hardware that moves autonomously moving objects.
  • the obstacle detection function unit 100 detects obstacles around the moving body.
  • the obstacle detection function unit 100 includes, for example, a camera (not shown) that captures a landscape around a moving body and converts it into an electronic signal, and an image processing function unit (not shown).
  • the obstacle detection function unit 100 may detect an obstacle by acquiring a camera image with a camera and matching the inside of the camera image with a specific pattern in an exploratory manner by the image processing function unit. In addition to matching, an area that meets a specific condition may be detected as an obstacle by analyzing edges and textures.
  • the obstacle detection function unit 100 may include two or more cameras. Then, a plurality of camera images may be acquired by these cameras, and an area where the parallax satisfies a specific condition from a parallax image obtained by stereo viewing may be detected as an obstacle by the image processing function unit. Furthermore, an obstacle may be detected by restoring a three-dimensional shape from an image input to each camera and checking whether an object exists on a plane on which the moving body moves.
  • the obstacle detection function unit 100 may include an LRF (Laser Range Finder: not shown). A region where the distance information obtained by the LRF satisfies a specific condition may be detected as an obstacle by the image processing function unit.
  • the LRF is a device for detecting a surrounding object by reflection of an irradiated laser beam.
  • the obstacle detection function unit 100 may include an ultrasonic sensor (not shown). An obstacle may be detected by the image processing function unit using the ultrasonic sensor.
  • the obstacle recording function unit 212 records information on the position of the obstacle.
  • the removable determination function unit 211 compares the information on the position of the obstacle detected by the obstacle detection function unit 100 with the information on the position of the obstacle recorded in the obstacle recording function unit 212 of the autonomous mobile body. . In this way, the removability determination function unit 211 determines whether the obstacle can be removed.
  • the position information of the detected obstacle and the position information recorded in the obstacle recording function unit 212 may be a grid-like map expressed by 1 when the obstacle is present and 0 when it is not. .
  • FIG. 3 is a map group for explaining a processing example of the obstacle determination function unit in the present embodiment.
  • a map S01 shows the latest obstacle position acquired by the obstacle detection function unit 100.
  • the map S02 shows the position of the obstacle recorded in the obstacle recording function unit 212.
  • the removable determination function unit 211 compares the map S01 and the map S02, and creates a map S03 in which only obstacles that are not in the map S02 but exist in the map S01 are extracted.
  • the removable determination function unit 211 may determine that the obstacle S04 in the map S03 is a removable obstacle.
  • the latest position of the obstacle acquired by the obstacle detection function unit 100 may be reflected on the map recorded in the obstacle recording function unit 212.
  • a value at the grid position (x, y) of the map S01 indicating the position of the latest obstacle is set to P1 (x, y).
  • the position of the latest obstacle may be reflected (updated) on the map recorded in the obstacle recording function unit 212.
  • a reflection method that takes into account the time and neighboring grid values may be used.
  • the removability determination function unit 211 does not use information on the position of an obstacle detected in the past, and determines whether the obstacle shape on the map is specific, the volume is below a certain level, etc. Therefore, it may be determined that the obstacle can be removed.
  • the obstacle detection function unit 100 includes a camera
  • the removability determination function unit 211 can be removed by using an edge or texture of an obstacle in a captured image or a specific pattern without using a map. You may judge an obstacle.
  • the autonomous mobile body includes a device (not shown) that can acquire information of an ID tag embedded in an obstacle
  • the removable determination function unit 211 uses the device. It may be determined whether the obstacle can be removed based on the acquired information.
  • the obstacle volume acquisition function unit 311 acquires the volume of the obstacle that the removability determination function unit 211 determines to be able to remove. For example, when the autonomous mobile body records the position information of the obstacle as a map on the grid, the obstacle volume acquisition function unit 311 can estimate the volume of the obstacle as follows. That is, the area of the obstacle may be regarded as the bottom area of the obstacle, and the volume of the obstacle may be calculated assuming that the height is a predetermined constant value.
  • the obstacle volume acquisition function unit 311 may calculate the volume of the obstacle on the assumption that the depth length and the height are predetermined values.
  • an obstacle may be imaged with a camera, and the volume of the obstacle may be calculated based on the area corresponding to the obstacle indicated by the image.
  • the obstacle may be imaged with a plurality of cameras, three-dimensional model data of the obstacle may be created, and the volume of the obstacle may be obtained based on the three-dimensional model data.
  • the obstacle volume acquisition function unit 311 may use a combination of map information, laser sensor information, camera images, and the like. Further, when there is a weight sensor on the floor and the autonomous mobile body can obtain the weight information, the obstacle volume acquisition function unit 311 may acquire the weight of the obstacle.
  • the obstacle volume acquisition function unit 311 may acquire these pieces of information.
  • the removal obstacle removal work amount determination function unit 312 selects an obstacle having a minimum volume from the obstacles that the removal determination function unit 211 determines to be removable. At that time, the removal obstacle removal work amount determination function unit 312 obtains the volume of each obstacle from the obstacle volume acquisition function unit 311.
  • the number of obstacles determined to be removable by the removable determination function unit 211 is set to n, and an ID (IDentification: recognition number) value is set to i for each of the n obstacles.
  • i is 1 ⁇ i ⁇ n.
  • the volume of the obstacle i is set as Vi, and the obstacle with the smallest volume is selected.
  • the ID value of the obstacle having the smallest volume among the n obstacles i is assumed to be m. However, 1 ⁇ m ⁇ n.
  • the obstacle volume acquisition function unit 311 acquires information related to a category instead of the volume of an obstacle
  • the following selection method may be used. That is, for example, an obstacle category list is created in advance, and the obstacle volume acquisition function unit 311 or its periphery is provided and stored.
  • the category items are arranged in ascending order of burden on the request target when the obstacle is removed.
  • an obstacle belonging to the category with the lowest cost for the request target may be selected at random.
  • the removal obstacle removal work determination function unit 312 can be removed by a suitable method for each piece of information acquired regarding the obstacle so that the obstacle removal cost for the request target is minimized. Obstacles may be selected for removal.
  • the person detection function unit 410 detects a person existing around the moving body. For example, the person detection function unit 410 may detect a person by extracting a face area from an image acquired by a camera. Further, the person detection function unit 410 may detect a person by finding a pattern in which the person exists from the distance information obtained by the LRF. In addition, the person detection function unit 410 may detect a person using sensor information obtained by an ultrasonic sensor or a human sensor. Further, the person detection function unit 410 may estimate the presence of a person by detecting a sound source direction using a microphone array or the like instead of detecting a person.
  • the speech function unit 511 requests the person detected by the person detection function unit 410 to remove the obstacle selected by the removal obstacle removal work amount determination function unit 312 as a removal target.
  • the utterance function unit 511 makes a request by uttering “get this out” by, for example, synthetic utterance.
  • the speech function unit 511 may make a request by speaking such as “Can you remove this XX”?
  • the utterance function unit 511 may also make a request by generating an alarm sound or changing the lighting pattern of the LED attached to the moving body in addition to the utterance.
  • the obstacle designation function unit 512 indicates an obstacle selected as a removal target by the removal obstacle removal work amount determination function unit 312 for the person detected by the person detection function unit 410.
  • the obstacle designating function unit 512 causes the head to face the obstacle. You may point the obstacle which is the removal target by turning.
  • the obstacle designating function unit 512 removes the obstacle by irradiating the obstacle with light emitted from the light emitter. You may point to the target obstacle.
  • the person designation function unit 513 transmits in a non-linguistic manner that the requested target person is the person detected by the person detection function unit 410. For example, when the moving body includes a head and a torso, and the head and the torso can hold postures at different angles, the person specifying function unit 513 causes the head to face the direction of the requested person. You may indicate that you are requesting.
  • the person specifying function unit 513 directs the line of sight toward the requested person, You may indicate that you are requesting.
  • the route generation function unit 600 generates a route so that the moving body can reach the destination while avoiding the obstacle.
  • the route generation function unit 600 uses information related to the position of the obstacle detected in the past and recorded in the obstacle position recording function unit 212.
  • the information on the position of the obstacle may be recorded as a grid-like map, for example.
  • the route generation function unit 600 is, for example, Hart, P.M. E. Nilsson, N .; J. et al. Raphael, B .; (1968), “A Formal Basis for the Heuristic Determining of Minimum Cost Paths”, IEEE Transactions on Systems Science and Cybernetics SSC4 (2). 100-107. Route generation may be performed by the A * algorithm.
  • the route generation function unit 600 may use a route search method suitable for the type of information related to the position of the obstacle recorded in the obstacle position recording function unit 212.
  • the moving function unit 700 is not particularly limited as long as the moving unit 700 is configured to be suitable for moving the moving body.
  • the moving function unit 700 may be, for example, two left and right electric wheels.
  • 4A and 4B are flowcharts for explaining the entire operation procedure of the autonomous movement method in the present embodiment.
  • the start point F100 in the flowchart of FIG. 4A indicates a state where it is necessary to move to a destination set as an autonomous mobile body.
  • step F101 the route generation function unit 600 generates a route from the current position of the autonomous mobile body to the destination.
  • step F102 the movement function unit 700 starts moving the autonomous moving body toward the destination.
  • the obstacle detection function unit 100 always acquires the obstacle position in step F103.
  • the obstacle detection function unit 100 does not find an obstacle on the route of the mobile body in step Q101 (Q101: No), and the obstacle determination function unit 200 reaches the destination in step Q102. If it is determined that the object has been moved (Q102: Yes), the movement of the moving object is completed in step F106. At this time, in step F104, the obstacle determination function unit 200 uses the information recorded in the obstacle position recording function unit 212 as the obstacle position newly acquired by the obstacle detection function unit 100 during the current movement. Update to reflect information.
  • step F105 the route generation function unit 600 tries to generate a route to the destination again.
  • step Q103 when it is determined that another route exists (Q103: Yes), the process returns to step F102, and the movement of the moving body is resumed according to the route.
  • step Q103 If it is determined in step Q103 that there is no other route (Q103: No), the process proceeds to step F110 in FIG. 4B.
  • step F ⁇ b> 110 the removable determination function unit 211 compares the position information of the obstacle newly obtained by the current movement with the position information of the obstacle recorded in the obstacle position recording function unit 212. As a result of this comparison, the removability determination function unit 211 confirms in step Q111 whether there is a removable obstacle on the route where the movement was attempted.
  • the removable determination function unit 211 determines that the destination is unreachable, and proceeds to Step F115 in which the movement of the moving body is stopped.
  • step F111 the person detection function unit 410 confirms the presence of a person around the moving body.
  • step Q112 If the person detection function unit 410 cannot confirm the presence of a person in step Q112 (Q112: No), it is considered that there is no person who requests to remove the obstacle. Therefore, the movement of the autonomous mobile body is stopped in step F115 described above.
  • step F112 the obstacle volume acquisition function unit 311 acquires each volume of the removable obstacle.
  • step F113 the removal obstacle removal work amount determination function unit 312 determines the obstacle having the minimum volume among the obstacles that can be removed as an obstacle to be requested to be removed.
  • step F114 the person designation function unit 513 designates a request target person who requests removal of an obstacle. Then, the speech function unit 511 requests the request target person to remove the obstacle. At this time, the obstacle designation function unit 512 indicates the obstacle to be removed to the request target person.
  • step Q113 when the autonomous mobile body confirms that the obstacle has been removed (Q113: Yes), the process returns to step F102, and the autonomous mobile body starts moving toward the destination again.
  • step Q113 determines whether the autonomous mobile body cannot confirm that the obstacle has been removed in step Q113 (Q113: No). If the autonomous mobile body cannot confirm that the obstacle has been removed in step Q113 (Q113: No), the process proceeds to step F115 described above, and the movement of the autonomous mobile body is stopped.
  • the cost to a person when removing an obstacle can be made small.
  • the cost may be calculated based on at least one piece of information included in the weight, shape, length, surface area, type, or distance to the requested object, in addition to the volume of the obstacle.
  • FIG. 5 is a block diagram showing a configuration of an autonomous mobile body according to the second embodiment of the present invention.
  • the autonomous mobile body in this embodiment includes an obstacle detection function unit 100, an obstacle determination function unit 200, an obstacle selection function unit 300, a person detection function unit 410 of the request target detection function unit 400, and an obstacle.
  • a removal request function unit 500, a route generation function unit 600, and a movement function unit 700 are provided.
  • the obstacle detection function unit 100 detects an obstacle around the moving body.
  • the obstacle determination function unit 200 can remove the obstacle detected by the obstacle detection function unit 100 when the moving body recognizes that the route to the destination is completely blocked by the obstacle. Whether or not.
  • the obstacle selection function unit 300 uses the route information generated so far so that the travel distance is shortened when moving to the destination. Select an obstacle.
  • the person detection function unit 410 detects a person around the moving body when the moving body recognizes that the route to the destination is blocked by an obstacle.
  • the obstacle removal request function unit 500 requests a person to remove an obstacle when an obstacle is selected by the obstacle selection function unit 300 and a person can be detected by the person detection function unit 410. Is.
  • the route generation function unit 600 generates a route to the destination of the moving object.
  • the movement function part 700 implement
  • the obstacle determination function unit 200 includes a removable determination function unit 211 and an obstacle position recording function unit 212.
  • the removability determination function unit 211 can remove the obstacle by comparing the latest position information of the obstacle obtained by the obstacle detection function unit 100 with the position information of the obstacle obtained in the past. Whether or not.
  • the obstacle position recording function unit 212 records obstacle position information obtained in the past.
  • the obstacle selection function unit 300 includes a route recording function unit 321 and a removal obstacle moving work determination function unit 322.
  • the route recording function unit 321 records the route generated by the route generation function unit 600 and attempted to move by the moving body.
  • the removal obstacle moving work determination function unit 322 selects a removal target obstacle from the obstacles determined by the removal determination function unit 211 to be removable. As a criterion for this selection, an obstacle existing on the route having the shortest distance to the destination is selected from the routes recorded by the route recording function unit 321 which are attempted to move.
  • the obstacle removal request function unit 500 includes an utterance function unit 511, an obstacle designation function unit 512, and a person designation function unit 513.
  • the utterance function unit 511 performs utterance that conveys that the obstacle is to be removed.
  • the obstacle designation function unit 512 designates the obstacle selected by the removal obstacle removal work amount determination function unit 312 to a person.
  • the person designation function unit 513 designates a person who makes a request using the person information detected by the person detection function unit 410.
  • the obstacle detection function unit 100 operates in the same manner as in the first embodiment. Further, the operation of the obstacle detection function unit 100 may be changed to the application operation example described in the first embodiment.
  • the removable determination function unit 211 and the obstacle recording function unit 212 operate in the same manner as in the first embodiment. Further, the operations of the removable determination function unit 211 and the obstacle recording function unit 212 may be changed to the application operation examples described in the first embodiment.
  • the route recording function unit 321 records route information. This route information is generated by the route generation function unit 600, and the autonomous mobile body tries to move. For example, when the information recorded in the obstacle position recording function unit 212 is recorded as a grid-like map, the route of the autonomous mobile body may be recorded as grid coordinate values on the map. Further, the route information may be expressed by a mathematical expression and recorded.
  • the removal obstacle moving work determination function unit 322 first extracts a route.
  • the route extracted by the removal obstacle moving work determination function unit 322 is a route recorded in the route recording function unit 321 when the moving object tries to move, and the removability determination function unit 211 sets the route. It is a route with an obstacle that is determined to be removable.
  • the removal obstacle moving work determination function unit 322 selects a route having the shortest route length to the destination from the extracted routes, and is further on the shortest route and can be removed. Select the obstacle that is determined to be.
  • map information is represented in a grid and position information of removable obstacles is recorded in the grid map information.
  • An integer of 1 or more is associated with the obstacle as an ID value, and this ID value is recorded on the map grid where the obstacle is located.
  • the position information of the moving object is represented by map coordinates (x, y) on the map grid.
  • the route information of the moving object is recorded as a set of grid coordinate values on the map.
  • An ID value is also assigned to each route.
  • M (x, y) is a value indicating the presence of an obstacle or an ID value
  • Pi is a route where movement is attempted (i is an ID value of the route)
  • Pi is The coordinate value to be constructed is set as Pij (j is the ID value of the set element). Then, in each Pi, it is checked whether or not j satisfying Expression (3) exists.
  • the route Pi that satisfies the expression (3) has an obstacle that can be removed on the route Pi.
  • a route Pi having the smallest number of coordinate elements constituting the route is selected from the set.
  • the ID value of the route having the smallest number of coordinate elements is set as m. Then, by acquiring M (Pmj) that is not 0, it is possible to select an obstacle that is on the route having the shortest route length to the destination and that is determined to be removable.
  • reducing the cost of the autonomous mobile body that is, the amount of work when the autonomous mobile body moves after the removal of the obstacle may be an index for selecting the obstacle.
  • the position, movement route, kinetic energy, power consumption, remaining charge, load weight, operation history, operation history, and the like of the autonomous mobile body may be used as specific indexes.
  • the person detection function unit 410 operates in the same manner as in the first embodiment.
  • the operation of the person detection function unit 410 may be changed to the application operation example described in the first embodiment.
  • the speech function unit 511, the obstacle designating function unit 512, and the person designating function unit 513 operate in the same manner as in the first embodiment. Further, the speech function unit 511, the obstacle designating function unit 512, and the person designating function unit 513 may each be changed to the application operation example described in the first embodiment.
  • the route generation function unit 600 operates in the same manner as in the first embodiment.
  • the operation of the route generation function unit 600 may be changed to the application operation example described in the first embodiment.
  • the moving function unit 700 operates in the same manner as in the first embodiment. Further, the operation of the mobile function unit 700 may be changed to the application operation example described in the first embodiment.
  • 6A and 6B are flowcharts for explaining in detail the entire operation procedure of the autonomous movement method in the present embodiment.
  • the start point F200 of the flowchart indicates a state where it is necessary to move to a destination set as an autonomous mobile body.
  • step F201 the route generation function unit 600 generates a route from the current position of the autonomous mobile body to the destination.
  • step F202 the route recording function unit 321 records the route generated in step F201.
  • steps F203, F204, Q201, Q202, F205, F206, and F207 perform the same processing as steps F102, F103, Q101, Q102, F104, F105, and F106 of FIG. 4A in the first embodiment.
  • step Q201 the obstacle detection function unit 100 detects the presence of an obstacle on the route of the moving body (Q201: Yes), and the route generation function unit 600 executes the route regeneration in step F206. Let us consider a case where there is another route in (Q203: Yes). In such a case, the process returns to Step F202 where the route recording function unit 321 records the generated route, and the moving body resumes moving toward the destination.
  • step Q201 the obstacle detection function unit 100 detects the presence of an obstacle on the route of the moving body (Q201: Yes), and the route generation function unit 600 executes the route regeneration in step F206.
  • the process proceeds to Step F210 in FIG. 6B.
  • steps F210, Q211 and F211 perform the same processing as steps F110, Q111 and F111 of FIG. 4B in the first embodiment.
  • steps F211 to Q212 when the person detection function unit 410 can confirm the presence of a person around the autonomous mobile body (Q212: Yes), the removal obstacle moving work amount determination function unit 322 performs the removal in step F212. Determine the target obstacle.
  • the obstacle to be removed is a removable obstacle on the route having the shortest route length to the destination.
  • Steps F211 to Q212 if the person detection function unit 410 cannot confirm the presence of a person around the autonomous mobile body (Q212: No), it is considered that there is no person who requests to remove the obstacle. Therefore, the movement of the autonomous mobile body is stopped in step F214.
  • steps F213 and Q213 perform the same processing as steps F114 and Q113 in FIG. 4B in the first embodiment.
  • step Q213 If it is confirmed in step Q213 that the obstacle has been removed, the process returns to step F203 in FIG. 6A to resume moving toward the destination.
  • step Q213 if the obstacle has not been removed, the process proceeds to step F214 to stop the movement.
  • FIG. 7 is a block diagram for explaining in detail the configuration of the moving object according to the third embodiment of the present invention.
  • the autonomous mobile body of the present embodiment includes an obstacle detection function unit 100, an obstacle determination function unit 200, a person detection function unit 410, an obstacle selection function unit 300, an obstacle removal request function unit 500, A route generation function unit 600 and a movement function unit 700 are provided.
  • the obstacle detection function unit 100 detects an obstacle around the moving body.
  • the obstacle determination function unit 200 can remove the obstacle detected by the obstacle detection function unit 100 when the moving body recognizes that the route to the destination is completely blocked by the obstacle. Whether or not.
  • the person detection function unit 410 detects a person around the moving body when the moving body recognizes that the route to the destination is blocked by an obstacle.
  • the obstacle selection function unit 300 confirms the presence of an obstacle that can be removed by the obstacle determination function unit 200, and the obstacle to be removed when the person detection function unit 400 detects a person around the moving object. And the combination of the person who requests it.
  • the combination of the obstacle to be removed and the person to be requested is selected using the obstacle owner information and the person recognition information so that the names of the obstacle owner and the requesting person match.
  • the obstacle removal request function unit 500 requests the person to remove the obstacle when the obstacle selection function unit 300 selects the obstacle to be removed and the person who requests the obstacle.
  • the route generation function unit 600 generates a route to the destination of the moving object.
  • the obstacle determination function unit 200 includes a removable determination function unit 211 and an obstacle position recording function unit 212.
  • the removability determination function unit 211 can remove the obstacle by comparing the latest position information of the obstacle obtained by the obstacle detection function unit 100 with the position information of the obstacle obtained in the past. Whether or not.
  • the obstacle position recording function unit 212 records obstacle position information obtained in the past.
  • the obstacle selection function unit 300 includes an obstacle owner information acquisition function unit 331, an owner information recording function unit 332, a person recognition function unit 333, and a combination evaluation function unit 334.
  • the obstacle owner information acquisition function unit 331 acquires information on the owner of the obstacle that the removability determination function unit 211 determines to be removable.
  • the owner information recording function unit 332 records information on the owner of the obstacle.
  • the person recognition function unit 333 recognizes the person detected by the person detection function unit 410.
  • the combination evaluation function unit 334 determines that the owner name of the removable obstacle acquired by the obstacle owner information acquisition function unit 331 matches the name of the surrounding person recognized by the person recognition function unit 333. The combination of an obstacle and a person is extracted.
  • the obstacle removal request function unit 500 includes an utterance function unit 511, an obstacle designation function unit 512, and a person designation function unit 513.
  • the utterance function unit 511 performs utterance to inform the request target person that the removal target obstacle is desired to be removed.
  • the obstacle designation function unit 512 designates the removal target obstacle selected by the removal obstacle removal work amount determination function unit 312 to the request target person.
  • the person designation function unit 513 designates the person of the other party who requests removal of the obstacle using the information about the person around the moving body detected by the detection function unit 410.
  • the obstacle detection function unit 100 operates in the same manner as in the first embodiment. Further, the operation of the obstacle detection function unit 100 may be changed to the application operation example described in the first embodiment.
  • the removable determination function unit 211 and the obstacle recording function unit 212 operate in the same manner as in the first embodiment. Further, the operations of the removable determination function unit 211 and the obstacle recording function unit 212 may be changed to the application operation example described in the first embodiment.
  • the obstacle owner information acquisition function unit 331 acquires information on the owner of the removable obstacle acquired by the removable determination function unit 211. Therefore, for example, a visible pattern such as a bar code or a QR code determined for each owner is attached to the obstacle, and the moving body is provided with a camera. By doing so, the owner of the obstacle may be acquired by capturing and recognizing the pattern attached to the obstacle with the camera.
  • an invisible marker such as an infrared marker may be used to recognize the invisible marker using a sensor such as an infrared camera.
  • an RFID Radio Frequency IDentification
  • owner information may be recorded in an obstacle, and the mobile body may acquire the information with a receiver.
  • a natural pattern such as the shape or texture of an obstacle may be acquired by a camera or LRF.
  • the owner information recording function unit 332 records a predetermined pattern for specifying the owner of the obstacle and the owner name in association with each other. For example, when a barcode is used as the predetermined pattern, the barcode number and the name of the owner are recorded in association with each other.
  • information in an arbitrary format suitable for the obstacle owner acquisition function unit 331 may be associated with the name of the owner.
  • owner information may be manually registered manually.
  • an operation mode in which a person can register information interactively in an autonomous mobile body may be prepared, and owner information may be registered in the operation mode.
  • the person recognition function unit 333 recognizes the person detected by the person detection function unit 410. For example, a person's face is imaged, and P.P. Viola, M .; J. et al. Jones, “Robust Real-Time Face Detection”, International Journal of Computer Vision, Vol. 57, no. 2, May 2004, pp. 137-154.
  • the person may be recognized by using the face recognition method by Boosting.
  • the person may be recognized by the color of the clothes, or the person may be recognized by the mobile body acquiring information on the wireless tag possessed by the person.
  • recognizing a person there is no particular limitation, and a suitable method may be used.
  • the combination evaluation function unit 334 includes an obstacle and a person whose owner of the removable obstacle acquired by the obstacle owner information acquisition function unit 331 matches the person name acquired by the person recognition function unit 333. Choose a combination.
  • a and B there are two obstacles A and B that can be removed, and the owners of these obstacles are a and b, respectively.
  • the relationship between these obstacles and their owner will be referred to as Aa and Bb, respectively.
  • the combination of the obstacle and the acquired person name is unique (Aa-a). Therefore, a combination may be selected on the assumption that the selected obstacle and person are A and a.
  • the selection of the combination of the obstacle and the person may not necessarily be the same person as the owner of the obstacle, but may be a combination of another person who is considered sufficiently close to the owner.
  • a measure indicating the closeness between the persons for example, “intimacy” may be used.
  • the data related to the familiarity may be prepared in advance and supplied to the autonomous mobile body.
  • a combination including an obstacle that minimizes the cost of the moving body may be selected.
  • the mobile body may also acquire information other than the owner, and based on them, the combination of the removal target obstacle and the request target person may be determined.
  • the person detection function unit 410 operates in the same manner as in the first embodiment.
  • the operation of the person detection function unit 410 may be changed to the application operation example described in the first embodiment.
  • the speech function unit 511 requests the person who has combined the obstacle selected by the combination evaluation function unit 334 to remove the obstacle.
  • the operation content of the speech function unit 511 may be the same as that described in the first embodiment.
  • the utterance function unit 511 clearly indicates the person name, the category of the obstacle, etc., and tells the requested content to the requested person, such as “Can you give me Mr. ⁇ ? good. In this way, the request item is transmitted more clearly.
  • the obstacle designation function unit 512 indicates the obstacle selected by the combination evaluation function unit 334 to the person who is combined with the obstacle.
  • the operation example of the obstacle designating function unit 512 may be the one described in the first embodiment.
  • the person designation function unit 513 transmits the request to the person selected by the combination evaluation function unit 334 in a non-verbal manner.
  • the operation example of the person specifying function unit 513 may be the one described in the first embodiment.
  • the route generation function unit 600 operates in the same manner as in the first embodiment.
  • the operation of the route generation function unit 600 may be changed to the application operation example described in the first embodiment.
  • the moving function unit 700 operates in the same manner as in the first embodiment. Further, the operation of the mobile function unit 700 may be changed to the application operation example described in the first embodiment.
  • FIG. 8A and FIG. 8B are flowcharts for explaining in detail the entire operation procedure of the autonomous movement method in the present embodiment.
  • the start point F300 in the flowchart indicates a state where it is necessary to move to a destination set as an autonomous mobile body.
  • Steps F300, F301, F302, F303, Q301, Q302, F304, F305, and F306 in FIG. 8A are steps F100, F101, F102, F103, Q101, and Q102 in FIG. 4A showing the overall operation in the first embodiment. , F104, F105, and F106, the same processing is performed.
  • step Q301 the obstacle detection function unit 100 detects the presence of an obstacle on the path of the moving body (Q301: Yes), and the route generation function unit 600 executes route regeneration in step F305.
  • the route exists (Q303: Yes)
  • the process returns to Step F302.
  • the route recording function unit 321 records the generated route, and the autonomous mobile body resumes moving toward the destination.
  • step Q301 the obstacle detection function unit 100 detects the presence of an obstacle on the path of the moving body (Q301: Yes), and the route generation function unit 600 executes route regeneration in step F305.
  • the route does not exist (Q303: No)
  • the process proceeds to Step F310 in FIG. 8B.
  • Steps F310, Q311, and F311 in FIG. 8B perform the same processing as steps F110, Q111, and F111 in FIG. 4B in the first embodiment.
  • step Q312 when the person detection function unit 410 can confirm the presence of a person around the autonomous mobile body (Q312: Yes), the obstacle owner information acquisition function unit 331 can remove the obstacle in step F312. Get the owner of the thing.
  • the obstacle owner information acquisition function unit 331 uses information recorded in the owner information recording function unit 332.
  • step Q312 if the person detection function unit 410 cannot confirm the presence of a person around the autonomous mobile body (Q312: No), it is considered that there is no person who requests to remove the obstacle. Therefore, the movement of the autonomous mobile body is stopped in step F316.
  • step F313 the person recognition function unit 333 acquires the name of the person detected by the person detection function unit 410.
  • step F314 a combination of the removable obstacle and the owner such that the owner of the removable obstacle acquired in step F312 matches the person name acquired in step F313 is combined.
  • the evaluation function unit 334 selects one.
  • step Q313 when such a combination does not exist (Q313: No), the process proceeds to step F316 to stop the movement. On the other hand, if such a combination exists (Q313: Yes), the process proceeds to step F315, and the same processing as step F114 of FIG. 4B in the first embodiment is performed.
  • Step Q314 when the moving body confirms that the obstacle has been removed (Q314: Yes), the autonomous moving body resumes moving toward the destination in Step F302 of FIG. 8A. .
  • step Q314 when the autonomous mobile body cannot confirm that the obstacle has been removed (Q314: No), the process proceeds to step F316, and the movement of the autonomous mobile body is stopped.
  • the obstacle to be removed and the request are made so that the owner of the obstacle matches the person who requests the obstacle removal. Select the target person combination. Therefore, the obstacle can be removed without being moved to another place without the knowledge of the owner.
  • the request target person may be specified based on at least one piece of information included in the person's ID, age, gender, height, schedule, or action history.
  • a mobile robot that is an autonomous mobile body moves to a target position autonomously avoiding an obstacle. If the mobile robot cannot avoid the obstacle, the mobile robot selects the obstacle to be removed and the person who requests removal. At this time, the mobile robot makes a selection in consideration of the age of the person around him and the weight of the obstacle so as to reduce the cost of removing the obstacle on the person.
  • An example of such a mobile robot and its autonomous movement method will be described below.
  • FIG. 9 is a block diagram for explaining a detailed configuration of the mobile robot 800 that performs autonomous movement based on the autonomous movement method in the present embodiment.
  • the mobile robot 800 includes a laser sensor 810, an obstacle determination function unit 820, a person detection function unit 830, an obstacle selection function unit 840, an obstacle movement request function unit 850, a route generation function unit 860, And a functional unit 870.
  • the laser sensor 810 is for detecting obstacles around the mobile robot 800.
  • the obstacle determination function unit 820 recognizes that the route from the current position of the mobile robot 800 to the destination is all blocked by the obstacle, the obstacle detected by the laser sensor 810 can be removed. It is for judging whether it is a thing.
  • the person detection function unit 830 is for detecting a person around the mobile robot 800 when the mobile robot 800 recognizes that all routes to the destination are blocked by obstacles.
  • the obstacle selection function unit 840 includes an obstacle to be removed when there is an obstacle that the obstacle determination function unit 820 determines to be removable and the person detection function unit 830 detects a person around the moving body. And a request person to be selected.
  • the obstacle selection function unit 840 selects a combination of the removal target obstacle and the request target person using various types of information related to the age of the person and the weight of the obstacle.
  • the obstacle movement request function unit 850 is used to request the request target person to remove the removal target obstacle when the obstacle selection function unit 840 selects the removal target obstacle and the request target person.
  • the route generation function unit 860 is for generating a route to the destination of the mobile robot 800.
  • the movement function unit 870 is for realizing movement of the mobile robot 800.
  • the obstacle determination function unit 820 includes a removable determination function unit 822 and an obstacle position recording function unit 821.
  • the removability determination function unit 822 compares the latest obstacle position information obtained by the laser sensor 810 with the obstacle position information obtained in the past to determine whether the obstacle can be removed. It is for judging.
  • the obstacle position recording function unit 821 is for recording position information of obstacles obtained in the past.
  • the person detection function unit 830 includes a camera 831 and a face detection function unit 832.
  • the camera 831 is for imaging the periphery of the mobile robot 800.
  • the face detection function unit 832 is for detecting a human face existing in an image obtained by the camera 831.
  • the obstacle selection function unit 840 includes an obstacle weight acquisition function unit 841, a person recognition function unit 842, a person age recording function unit 843, a person age acquisition function unit 844, and a combination evaluation function unit 845.
  • the obstacle weight acquisition function unit 841 is for acquiring information on the weight of the obstacle that the removal determination function unit 822 determines to be removable.
  • the person recognition function unit 842 is for recognizing the person detected by the person detection function unit 830.
  • the person age recording function unit 843 is for recording the name of the person and the age of the person.
  • the person age acquisition function unit 844 is for acquiring the age of a person around the mobile robot 800.
  • the person age acquisition function unit 844 uses the person name recognized by the person recognition function unit 842 and the age of the person recorded in the person age recording function unit 843.
  • the combination evaluation function unit 845 is for selecting a combination of the removal target obstacle and the request target person so as to reduce the cost for the request target person when removing the removal target obstacle.
  • the combination evaluation function unit 845 refers to the obstacle weight information acquired by the obstacle weight acquisition function unit 841 and the age of the person acquired by the person age acquisition function unit 844.
  • the obstacle removal request function unit 850 includes a synthetic utterance function unit 851, a laser pointer 852, a head control function unit 853, and a robot head 854.
  • the synthetic utterance function unit 851 is for uttering the request target person so as to remove the removal target obstacle.
  • the synthetic utterance function unit 851 acquires a combination of the removal target obstacle and the request target person extracted by the combination evaluation function unit 845 in advance.
  • the laser pointer 852 is for designating a removal target obstacle for the request target person.
  • the head control function unit 853 is for indicating the requested person by controlling the movement and direction of the robot head 854.
  • FIG. 10 is a map group showing how the space in which the mobile robot moves changes to explain an operation example of the mobile robot 800 in this embodiment.
  • the map S11 shows an actual state before the mobile robot 800 starts moving.
  • S20 is the mobile robot 800
  • S21 and S22 are people
  • S23 and S24 and other shaded areas on the map are obstacles
  • S25 is the destination of the mobile robot 800.
  • the map S12 is the position data of the obstacle acquired in the past recorded in the obstacle position recording function unit 821.
  • the route generation function unit 860 generates a movement route of the dotted line S26 based on the map S12.
  • the drive wheel 870 starts moving the mobile robot along the movement path indicated by the dotted line S26. Then, it is recognized that the obstacle S23 is discovered during the movement and the route is blocked.
  • the obstacle S23 can only acquire the state of the surface.
  • the surface of the obstacle that can be acquired by the laser sensor is indicated by a solid line, and the surface of the obstacle that cannot be acquired by a dotted line.
  • the route generation function unit 860 In the map S14, the route generation function unit 860 generates a moving route of the dotted line S27 this time based on the map S13.
  • the drive wheel 870 moves the mobile robot 800 along the movement path indicated by the dotted line S27. Then, the person S22 is found in the middle of movement, and it is recognized that the route is blocked.
  • the route generation function unit 860 further generates a movement route of the dotted line S28 based on the map S14.
  • the drive wheel 870 moves the mobile robot 800 along the movement path indicated by the dotted line S28. Then, it is recognized that the obstacle S24 is discovered during the movement and the route is blocked.
  • the route generation function unit 860 tries to generate a movement route based on the map S15. However, there is no route that can reach the destination. Therefore, the obstacle determination function unit 820 extracts a removable obstacle.
  • the removal determination function unit 822 uses the map S12 recorded in the obstacle map recording function unit 821 and the latest map S15 to extract an obstacle that does not exist in the map S12 but exists in the map S15. To do. In this example, the obstacle S23 and the obstacle S24 are extracted.
  • the person detection function unit 830 detects a person existing around the mobile robot 800.
  • a person S21 and a person S22 are detected.
  • the combination selection function unit 840 determines a combination of the removal target obstacle and the request target person.
  • the obstacle weight acquisition function unit 841 estimates the respective volumes of the obstacle S23 and the obstacle S24 extracted by the obstacle determination function unit 820.
  • the shape of the obstacle is, for example, a rectangular parallelepiped having a square bottom surface.
  • the surface length of the obstacle on the map is the length of one side of the square on the bottom surface.
  • the height is uniformly 1 m, the volume of the obstacle is obtained.
  • the height is uniform. Since it is 1 m, the following equation (4) is established.
  • V L 2 (4)
  • the surface length of the obstacle S24 is 1 m
  • the surface length of the obstacle S25 is assumed to be 1.5 m
  • each magnitude of the estimation of the obstacle 1 m 3 a 2.25 m 3.
  • the weight can be obtained from the estimated volume
  • the weight of the obstacle S23 is 1 kg
  • the weight of the obstacle S24 is 2.25 kg. Presumed.
  • the person recognition function unit 842 recognizes the detected person and obtains the name of each person. Then, the person age acquisition function unit 844 collates the person name recorded in advance in the person age recording function unit 843 with the information on the person's age, and acquires each age of the detected person.
  • the person S21 is 23 years old
  • the person S22 is 61 years old.
  • the combination evaluation function unit 845 calculates the weighting work corresponding to the combination of the weight of each obstacle and the age of each person.
  • the combination evaluation function unit 845 selects a combination of an obstacle and a person that minimizes the weighted work amount, and determines the combination as a removal target obstacle and a request target person.
  • the weighting work amount w is defined by the equation (5) when the burden coefficient a determined by age, the weight m of the obstacle, and the distance l for moving the obstacle are set.
  • w a ⁇ m ⁇ l (5)
  • a burden coefficient Hiroshi Nagasawa (2003), “Daily life activities and muscle strength”, Physical Therapy Science Vol. 18, no. 1, pp.
  • the relative average grip strength is 103%
  • the burden coefficient is 0.97.
  • the relative average grip strength is 85%
  • the burden coefficient is 1.18.
  • the moving distance for removing the obstacle is uniformly 1 m, for example.
  • the weighting work amount is 0.97 kgfm (KiloGram Force Meter: weight kilogram meter).
  • the obstacle S23 and the person S22 are selected, the obstacle is 1.18 kgfm.
  • S24 and the person S21 are selected, 2.18 kgfm is obtained, and when the obstacle S24 and the person S22 are selected, 2.66 kgfm is obtained. Therefore, the obstacle S23 and the person S21 having the smallest weighted work are determined as the removal target obstacle and the request target person, respectively.
  • the obstacle movement request function unit 850 requests the request target person to remove the removal target obstacle. More specifically, the synthetic utterance function unit 851 requests the request target person selected by the combination selection function unit 840 to remove the removal target obstacle by utterance. Further, the obstacle to be removed by the laser pointer 852 is presented to a person. Further, at this time, the head control function unit 853 controls the robot head 854 so as to face the direction of the person, and appeals non-verbally to the person being requested.
  • this embodiment when a mobile robot moves to a target location, it is difficult to move to the target location when it is difficult to move to the target location due to obstacles in a complicated environment such as the home environment. Ask. At this time, the work weight is weighted by the weight of the obstacle that can be removed and the age of the human beings around to determine the combination of the obstacle to be removed and the person to be requested. For this reason, in this embodiment, an obstacle and a person can be selected so that the cost for the person when removing the obstacle is reduced.
  • This example is a mobile robot in which further components are added to an autonomous mobile body in which the first to third embodiments described above are appropriately combined within a technically consistent range.
  • the autonomous mobile objects according to the first to third embodiments select obstacles to be removed using different criteria. That is, the obstacle removal work amount in the first embodiment, the movement work amount in the second embodiment, and the combination of the removal target obstacle and the request target in the third embodiment are the judgment criteria, respectively. Yes.
  • the mobile robot according to the present embodiment uses a comprehensive judgment criterion by appropriately weighting not only the combination of the obstacle to be removed and the request target but also the obstacle removal work amount and the moving work amount. The obstacle to be removed may be selected.
  • the autonomous mobile body and autonomous movement method of the present invention can be applied as a mobile robot that travels in a general home environment or office environment where obstacles are arranged in a complicated manner, or a mobile robot. Moreover, it is applicable also to uses, such as an automatic driving system which puts in a car garage. Furthermore, the autonomous mobile body in the present invention is not limited to a mobile robot that autonomously moves to a target point, and can be applied to, for example, movement control of an arbitrary robot controlled by remote operation or the like. . Furthermore, as a moving body, it is equipped with image recognition function and intelligence such as automatic driving, etc. for vehicles such as automobiles and trains, transport vehicles (carriers), flying objects, ships, submarines, etc. that run in facilities such as factories. Of course, it is applicable.
  • the moving body, the moving method, and the movement control program of the present invention may be a combination of the three embodiments and one example within a technically consistent range.
  • the autonomous movement method in each of the embodiments and examples described above can be executed by a computer and stored in a computer-readable recording medium to control the autonomous movement method of the autonomous mobile body.
  • this autonomous movement control program can be stored and executed by providing an appropriate CPU or memory to the autonomous mobile body or autonomous mobile robot to have an information processing function.
  • each functional unit in each embodiment and example may be realized as hardware such as an independent electronic circuit, or hardware such as a computer having a CPU or memory and a part of the program. And may work as a collaboration with software.
  • the moving object, moving method, and movement control program of the present invention select an obstacle that is most suitable for requesting removal from a plurality of obstacles that block the path of the moving object.
  • the obstacle to be removed is selected so that the cost for the request target is reduced or the cost for the moving object is reduced, and further, both costs are minimized. Can do.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

 移動装置は、経路生成機能部と、移動機能部と、障害物検出機能部と、障害物除去依頼機能部と、障害物判定機能部と、依頼対象検出機能部と、障害物選定機能部とを具備する。ただし、経路生成機能部は、目的地までの経路を生成する。移動機能部は、経路に沿って移動する。障害物検出機能部は、移動を妨げる障害物を検出する。ここで、経路上に障害物が存在する場合に、経路生成機能部は、経路とは別の経路の生成を試み、別の経路が存在する場合に、移動機能部は、別の経路に沿って目的地までの移動を試みる。障害物除去依頼機能部は、別の経路が存在しない場合に、障害物の経路外への除去を外部に依頼する。障害物判定機能部は、障害物検出機能部が検出した障害物の中から、経路上から除去可能な少なくとも1つの除去可能障害物の存在を判定する。依頼対象検出機能部は、障害物除去機能部が除去可能障害物の除去を依頼できる相手である少なくとも1つの依頼可能対象を外部において検出する。障害物選定機能部は、除去可能障害物が複数存在する場合において、障害物除去機能部が除去を依頼する障害物である除去対象障害物を、複数の除去可能障害物から選択決定する。

Description

移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム
 本発明は、移動装置と、移動装置の移動方法と、移動装置の移動制御プログラムとに関する。
 移動体(移動装置)が障害物を回避しながら目的地まで自律的に移動する技術が知られている。この技術においては、これまでも数多くの手法が提案されている。しかし、家庭環境など、障害物が散在するような複雑な環境下では、障害物によって目的地までの経路が塞がれることがある。このように、障害物を回避する以前の問題として、障害物によって経路が塞がれるため、移動体が自力で目的地へ到達できない場合がある。
 このような問題に対し、周囲にいる人物へ障害物を除去してもらうように依頼する移動システムが、特開2001-129787号公報に記載されている。この自律移動システムは、障害物検出手段と、障害物判定手段と、人物検出手段と、障害物除去依頼手段から構成されている。この自律移動システムは次のように動作する。すなわち、移動体は、移動中に障害物検出手段によって、移動経路上に存在する障害物を探す。次に障害物判定手段によって、検出した障害物が除去できるものかどうかを判断する。続いて人物検出手段によって、移動体の周囲に人物がいることを確認する。そして障害物除去依頼手段によって、移動体の周囲にいる人物に障害物を除去するように依頼を行う。
 また、上記に関連して、特開昭63-276610号公報には、走行コース作成装置が開示されている。この走行コース作成装置は、認識手段と、制御手段と、第1の作成手段と、第2の作成手段とを有する。ここで、認識手段は、目標物および障害物の位置情報を認識する。制御手段は、認識手段により得られた目標物および障害物の位置情報と、無人車の地上投影面の形状とを基に、任意の地点から目標物までの直線経路が生成可能かどうかを判別する。制御手段は、このような直線経路が生成不可能であった場合には、さらに任意地点から目標物方向にある障害物を回避する直線経路を少なくとも1つ生成できるかどうかを判断する。また、第1の作成手段は、制御手段により目標物方向にある障害物を回避する直製経路が1つも生成されないと判断された場合には、障害物の中から取り除く障害物を選択する。第1の作成手段は、取り除く障害物を把持する地点までの走行経路の生成と、その取り除いた障害物を置く地点の設定を行う。また、第2の作成手段は、制御手段により目標物までの直線経路が生成可能であると判断された場合には、目標地点までの経路を作成する。第2の作成手段は、障害物を回避する直線経路が作成可能であると判断された場合には、障害物を回避する経路を生成する。
 また、特開平2-230409号公報には、作業車が開示されている。この作業車は、所定領域内を走行しながら予め決められた作業を行う。この作業車は、走行手段と、制御手段と、距離センサと、温度センサとを有して成る。ここで、走行手段は、走行を行うためのものである。制御手段は、走行手段による走行を制御するためのものである。距離センサは、前面の障害物との距離を計測するものである。温度センサは、前面の障害物の温度を検知するためのものである。制御手段は、距離センサで検出される障害物との距離が所定以下になり、温度センサでの検出温度が所定以上であるとき、所定時間走行を停止する。制御手段は、その後、障害物が移動しなければ、回避走行を行う。
 また、特開平9-185412号公報には、自律移動装置が開示されている。この自律移動装置は、距離センサと、赤外センサと、判断手段と、制御手段とを備えている。ここで、距離センサは、走行方向全貌の障害物を検出する。赤外センサは、人から放射される赤外線を検出可能である。判断手段は、距離センサで障害物を検出した場合に、赤外線差により、その障害物が人であるか否かを判断する。制御手段は、その障害物が人である場合は自律移動装置を停止して一定時間待機させるとともに、その一定時間経過後もなお障害物が存在する場合には回避動作に移らせる。制御手段は、障害物が存在しなくなった場合には自律移動装置に走行を再開させる。
 また、特開2000-202792号公報には、掃除ロボットが開示されている。この掃除ロボットは、自動走行して掃除を行う。この掃除ロボットは、前輪と、後輪と、補助輪とを備えている。ここで、後輪は、前輪よりも大径である。補助輪は、前輪の前方に配されて、昇降可能である。この掃除ロボットは、障害物の大きさを検知して、障害物が所定の大きさより大きい場合は、移動が出来ないと判断する。
 また、特開2006-277121号公報には、移動経路作成装置、移動ロボット、移動経路作成方法および移動経路作成プログラムが開示されている。この移動経路作成装置は、移動ロボットが所定の領域内を移動する時に利用する移動経路を作成する。この移動経路作成装置は、間取り情報保持手段と、特徴情報抽出手段と、移動可否推定手段と、移動経路作成手段とを備える。ここで、間取り情報保持手段は、所定の領域の間取りを示す間取り情報を保持する。特徴情報抽出手段は、間取り情報保持手段が保持する間取り情報から、移動経路に関する特徴を示す画像情報である特徴情報を抽出する。移動可否推定手段は、特徴情報抽出手段が抽出した特徴情報に基づいて、特徴情報に対応する位置を移動ロボットが移動できるか否かを推定する。移動経路作成手段は、移動可否推定手段が特徴情報に対応する位置について推定した移動ロボットの移動可否に基づいて、移動経路を作成する。
 また、Hart,P.E.;Nilsson,N.J.;Raphael,B.(1968).“A Formal Basis for the Heuristic Determination of Minimum Cost Paths”,IEEE Transactions on Systems Science and Cybernetics SSC4(2):pp.100-107.には、いわゆる「A*アルゴリズム」が開示されている。このHartの文献のA*アルゴリズムは、例えば、障害物の位置の情報が、グリッド状の地図として記録されている場合、経路生成を可能とするためのアルゴリズムである。
 また、P.Viola,M.J.Jones,“Robust Real-Time Face Detection”,International Journal of Computer Vision,Vol.57,No.2,May 2004,pp.137-154.には、顔認識手法が開示されている。このViolaの文献の顔認識手法は、人の顔を画像で撮像し、人物の認識を可能とする手法である。
 また、長澤 弘(2003);“日常生活活動と筋力”,理学療法科学,Vol.18,No.1,pp.7-13.には、体力、特に握力の、加齢変化が、20歳を100%とした相対的平均値として開示されている。
 発明者は、今回以下のような問題点を発見した。
 上記のような移動システムでは、移動経路を塞いでいる障害物が複数存在している場合を想定していない。そのため、上記移動システムは障害物を発見するたびに、障害物の除去を依頼する必要がある。これでは移動体の有効な移動戦略となっているとは言いがたい。
 そして、発明者は、より適切には、移動体が障害物と遭遇する度に、繰り返し別の経路を生成して移動を試みるべきであると考える。そして、別の経路が存在しなくなった場合、すなわち全ての経路に障害物が存在していることが分かった場合、初めて障害物の除去を依頼するべきと考える。このとき、複数の障害物の中から、障害物に関する情報、移動体に関する情報、依頼対象に関する情報、に基づいて、除去すべき障害物を選択する必要があると考える。しかし、上述した各種の文献ではそのような選択を行う移動体、移動方法、移動制御プログラムが言及されていない。
 さらには、上記のような移動システムは、複数の障害物のうち、選択を誤れば、除去が容易な小さい障害物があるにもかかわらず、除去が困難な大きな障害物を選択してしまいかねない。
 本発明は、上記課題を鑑みたものである。本発明の目的は、移動体の経路を塞ぐ複数の障害物の中から除去を依頼する障害物として適切なものを選択する自律的な移動体と、そのための自律的な移動方法と、自律的な移動制御プログラムとを提供することにある。
 本発明による移動装置は、経路生成機能部と、移動機能部と、障害物検出機能部と、障害物除去依頼機能部と、障害物判定機能部と、依頼対象検出機能部と、障害物選定機能部とを具備する。ただし、経路生成機能部は、目的地までの経路を生成する。移動機能部は、経路に沿って移動する。障害物検出機能部は、移動を妨げる障害物を検出する。ここで、経路上に障害物が存在する場合に、経路生成機能部は、経路とは別の経路の生成を試み、別の経路が存在する場合に、移動機能部は、別の経路に沿って目的地までの移動を試みる。障害物除去依頼機能部は、別の経路が存在しない場合に、障害物の経路外への除去を外部に依頼する。障害物判定機能部は、障害物検出機能部が検出した障害物の中から、経路上から除去可能な少なくとも1つの除去可能障害物の存在を判定する。依頼対象検出機能部は、障害物除去機能部が除去可能障害物の除去を依頼できる相手である少なくとも1つの依頼可能対象を外部において検出する。障害物選定機能部は、除去可能障害物が複数存在する場合において、障害物除去機能部が除去を依頼する障害物である除去対象障害物を、複数の除去可能障害物から選択決定する。
 本発明による移動方法は、(a)経路生成機能部が、目的地までの経路を生成する経路生成ステップと、(b)移動機能部が、経路に沿って移動を試みる移動ステップとを具備する。ここで、移動ステップ(b)は、(b-1)障害物検出機能部が障害物の検出を試みる障害物検出ステップと、(b-2)障害物検出ステップ(b-1)において、経路上に障害物が存在する場合に、生成機能部が経路とは別の経路の生成を試みる別経路生成ステップと、(b-3)別経路生成ステップ(b-2)において、別の経路が存在する場合に、移動機能部が、別の経路に沿って目的地までの移動を試みるステップと、(b-4)別経路生成ステップ(b-2)において、別の経路が存在しない場合に、障害物除去依頼機能部が、障害物の経路外への除去を外部に依頼する障害物除去依頼ステップとを具備する。ここで、障害物除去依頼ステップ(b-4)は、(b-4-a)障害物判定機能部が、障害物検出機能部が検出した障害物の中から、経路上から除去可能な少なくとも1つの除去可能障害物の存在を判定する障害物判定ステップと、(b-4-b)依頼対象検出機能部が、除去可能障害物の除去を依頼する相手である少なくとも1つの依頼対象を外部において検出する依頼対象検出ステップと、(b-4-c)前記障害物判定ステップ(b-4-a)における前記少なくとも1つの除去可能障害物が複数存在する場合において、障害物選定機能部が、前記障害物除去依頼機能部が除去を依頼する障害物である除去対象障害物を、前記複数の除去可能障害物から選択決定する障害物選定ステップとを具備する。
 本発明による移動制御プログラムは、(a)経路生成機能部が、目的地までの経路を生成する経路生成ステップと、(b)移動機能部が、経路に沿って移動を試みる移動ステップとを具備する。ここで、移動ステップ(b)は、(b-1)障害物検出機能部が障害物の検出を試みる障害物検出ステップと、(b-2)障害物検出ステップ(b-1)において、経路上に障害物が存在する場合に、生成機能部が経路とは別の経路の生成を試みる別経路生成ステップと、(b-3)別経路生成ステップ(b-2)において、別の経路が存在する場合に、移動機能部が、別の経路に沿って目的地までの移動を試みるステップと、(b-4)別経路生成ステップ(b-2)において、別の経路が存在しない場合に、障害物除去依頼機能部が、障害物の経路外への除去を外部に依頼する障害物除去依頼ステップとを具備する。ここで、障害物除去依頼ステップ(b-4)は、(b-4-a)障害物判定機能部が、障害物検出機能部が検出した障害物の中から、経路上から除去可能な少なくとも1つの除去可能障害物の存在を判定する障害物判定ステップと、(b-4-b)依頼対象検出機能部が、除去可能障害物の除去を依頼する相手である少なくとも1つの依頼対象を外部において検出する依頼対象検出ステップと、(b-4-c)前記障害物判定ステップ(b-4-a)における前記少なくとも1つの除去可能障害物が複数存在する場合において、障害物選定機能部が、前記障害物除去依頼機能部が除去を依頼する障害物である除去対象障害物を、前記複数の除去可能障害物から選択決定する障害物選定ステップとを具備する。
 本発明の前記及びその他の目的、長所及び特徴は、添付の図面を考慮して次の実施の形態(実施例)の記載によって、より詳細に分かるであろう。
図1は、本発明の第1の実施形態における自律的移動体の構成を説明するためのブロック図である。 図2は、本発明の第1の実施形態における自律的移動体の構成を詳細に説明するためのブロック図である。 図3は、本発明の第1の実施形態における障害物判定機能部における処理例を説明するための地図群である。 図4Aは、本発明の第1の実施形態における自律移動方法の動作手順全体について説明するためのフローチャートの一部である。 図4Bは、本発明の第1の実施形態における自律移動方法の動作手順全体について説明するためのフローチャートの一部である。 図5は、本発明の第2の実施形態における自律的移動体の構成を詳細に説明するためのブロック図である。 図6Aは、本発明の第2の実施形態における自律移動方法の動作手順全体について詳細に説明するためのフローチャートの一部である。 図6Bは、本発明の第2の実施形態における自律移動方法の動作手順全体について詳細に説明するためのフローチャートの一部である。 図7は、本発明の第3の実施形態における移動体の構成を詳細に説明するためのブロック図である。 図8Aは、本発明の第3の実施形態における自律移動方法の動作手順全体について詳細に説明するためのフローチャートの一部である。 図8Bは、本発明の第3の実施形態における自律移動方法の動作手順全体について詳細に説明するためのフローチャートの一部である。 図9は、本発明の実施例における移動体の詳細な構成を説明するためのブロック図である。 図10は、本発明の実施例における移動体の動作例を説明するための、移動ロボットが移動する空間が変化する様子を示す地図群である。
 添付図面を参照して、本発明の自律的な移動体、その移動体の移動方法、及びその移動体の移動制御プログラムを実施するための最良の形態を、添付図面を参照して以下に説明する。
 (第1の実施形態)
 以下、本発明を実施するための第1の実施形態について図面を参照して詳細に説明する。
 図1は、本発明の第1の実施形態に係る自律的な移動体の構成を示すブロック図である。本実施形態の自律的の移動体は、障害物を回避しながら目的地まで移動する。本実施形態の自律的の移動体は、障害物検出機能部100と、障害物判定機能部200と、障害物選定機能部300と、依頼対象検出機能部400と、障害物除去依頼機能部500とを具備する。
 ここで、障害物検出機能部100は、自律的移動体が移動を行う際に、自律的移動体の周囲の障害物を検知する。障害物検出機能部100は、例えば、障害物検知用のハードウェアと、ハードウェアからの情報(データ)をソフトウェア(プログラム)で情報処理するコンピュータのような情報処理装置とにより実現される。障害物検出機能部100の検知結果は、障害物判定機能部200に送信される。
 障害物判定機能部200は、自律的移動体が目的地まで移動するための経路が障害物によって全て塞がれていると認識した場合に、障害物検出機能部100が検出した障害物が除去可能かどうかを判定する。障害物判定機能部200は、例えば、障害物検出機能部100等からの情報(データ)をソフトウェア(プログラム)で情報処理するコンピュータのような情報処理装置により実現される。障害物判定機能部200の判定結果は、障害物選定機能部300に送信される。
 障害物選定機能部300は、障害物判定機能部200が除去可能な障害物が存在すると判定した場合に、除去すべき障害物を選択する。この選択は、障害物に関する情報、移動体に関する情報、または依頼対象に関する情報を用いて、コストが最小となるように行われる。このコストは、依頼対象にかけるコストや、移動体にかかるコストを含み、これら両方のコストが最小となるように障害物を選択しても良い。障害物選定機能部300は、例えば、障害物判定機能部200等からの情報(データ)をソフトウェア(プログラム)で情報処理するコンピュータのような情報処理装置により実現される。障害物選定機能部300の選択結果は、障害物除去依頼機能部500に送信される。
 また、依頼対象検出機能部400は、自律的移動体が目的地まで移動するための経路が障害物によって全て塞がれていると認識した場合に、依頼対象を検出する。依頼対象検出機能部400は、例えば、依頼対象検出用のハードウェアと、ハードウェアからの情報(データ)をソフトウェア(プログラム)で情報処理するコンピュータのような情報処理装置により実現される。依頼対象検出機能部400の検出結果は、障害物除去依頼機能部500に送信される。
 障害物除去依頼機能部500は、依頼対象検出機能部400によって検出された依頼対象に対して、障害物選定機能部300によって選択された障害物を除去するように依頼を行う。ここで、依頼対象は、例えば人物や移動体外部のロボット、障害物自体であっても良い。障害物除去依頼機能部500は、例えば、依頼対象検出機能部400等からの情報(データ)をソフトウェア(プログラム)で情報処理するコンピュータのような情報処理装置と、情報処理装置からの情報(データ)に応答して障害物除去依頼を行うハードウェアとにより実現される。
 上記に説明したように、除去されるべき障害物と、その除去の依頼対象との組合せは、障害物に関する情報、移動体に関する情報、または依頼対象に関する情報を用いて適切に選択される。したがって、本実施形態による自律的移動体は、除去されるべき障害物を適切に選択することができる。なお、上記例示された各コンピュータのような情報処理装置は、一体であってもよし、部分的に一体であってもよい。
 次に、本実施形態について図2を参照して詳細に説明する。
 図2は、本発明の第1の実施形態に係る自律的移動体の構成の詳細を示すブロック図である。本実施形態の自律的移動体は、障害物検出機能部100と、障害物判定機能部200と、障害物選定機能部300と、依頼対象検出機能部400と、障害物除去依頼機能部500と、経路生成機能部600と、移動機能部700とを具備する。
 障害物検出機能部100は、自律的移動体の周囲の障害物を検知する。障害物検出機能部100の検知結果は、障害物判定機能部200(除去可能判定機能部211)に送信される。
 障害物判定機能部200は、自律的移動体が障害物によって目的地までの経路が全て塞がれていると認識した場合に、障害物検出機能部100が検出した障害物が、除去可能かどうかを判定する。障害物判定機能部200の判定結果は、障害物選定機能部300に送信される。障害物判定機能部200は、除去可能判定機能部211と、障害物位置記録機能部212とを具備する。
 除去可能判定機能部211は、障害物検出機能部100の検知結果と過去に得た障害物の位置情報とを比較することで、障害物が除去可能かどうかを判定する。除去可能判定機能部211の判定結果は、障害物選定機能部300(除去障害物除去仕事量判定機能部312)に送信される。
 障害物位置記録機能部212は、自律的移動体が過去に得た障害物の位置情報を記録する。障害物位置記録機能部212に記録された情報は、必要に応じて除去可能判定機能部211と経路生成機能部600とに送信される。
 障害物選定機能部300は、障害物判定機能部200が除去可能な障害物が存在すると判定した場合に、その障害物の体積を推定する。障害物が複数あれば、障害物選定機能部300は、依頼相手の人物にかかるコストが小さくなるような障害物を選択する。ここで、コストとは、依頼相手の人物が障害物を除去するために費やす仕事量であり、障害物の体積、重量、形状、長さ、表面積、種類または依頼対象との距離に含まれる少なくとも1つの情報に基づいて計算されてもよい。障害物選定機能部300の判定結果は、障害物除去依頼手段500に送信される。障害物選定機能部300は、障害物体積取得機能部311と、除去障害物除去仕事量判定機能部312とを具備する。
 障害物体積取得機能部311は、障害物判定機能部200が除去可能な障害物が存在すると判定した場合に、その障害物の体積を推定する。障害物体積取得機能部311の推定結果は、除去障害物除去仕事量判定機能部312に送信される。
 除去障害物除去仕事量判定機能部312は、障害物体積取得機能部311が取得した障害物の体積の情報を用いて、除去可能判定機能部211が除去可能と判断した障害物の中から、除去対象を選択する。このとき、除去障害物除去仕事量判定機能部312は、依頼対象となる人物にかかるコストが小さくなるように、障害物を選択する。除去障害物除去仕事量判定機能部312の選択結果は、障害物除去依頼機能部500(障害物指定機能部512)に送信される。
 依頼対象検出機能部400は、自律的移動体が目的地まで移動するための経路が障害物によって全て塞がれていると認識した場合に、依頼対象を検出する。特に、依頼対象検出機能部400の人物検出機能部410は、自律的移動体の周囲にいる人を検出する。人物検出機能部410の検出結果は、障害物除去依頼機能部500(人物指定機能部513)に送信される。
 障害物除去依頼機能部500は、人物検出機能部410によって検出された人に対して、障害物選定機能部300によって選択された障害物を除去してもらうように依頼を行う。障害物除去依頼機能部500は、発話機能部511と、障害物指定機能部512と、人物指定機能部513とを具備する。
 人物指定機能部513は、人物検出機能部410が検出した人物の情報を用いて、依頼する人を指定する。
 障害物指定機能部512は、除去障害物除去仕事量判定機能部312が選択した障害物を、依頼対象となる人に指定する。
 発話機能部511は、依頼対象に対して障害物を除去してもらいたい旨を伝える発話を行う。
 経路生成機能部600は、自律的移動体の目的地までの経路を生成する。経路生成機能部600は、例えば、障害物判定機能部200等からの情報(データ)をソフトウェア(プログラム)で情報処理するコンピュータのような情報処理装置により実現される。
 移動機能部700は、自律的移動体の移動を実現する。移動機能部700は、例えば、経路生成機能部600等からの情報(データ)をソフトウェア(プログラム)で情報処理するコンピュータのような情報処理装置と、情報処理装置からの情報(データ)に応答して自律的移動体の移動を行うハードウェアとにより実現される。
 上に説明した構成要素について、それぞれの動作をより詳細に説明する。
 障害物検出機能部100は、移動体の周囲にある障害物を検出する。障害物検出機能部100は、例えば移動体の周囲の風景を撮像して電子信号化するカメラ(図示されず)と、画像処理機能部(図示されず)とを具備する。障害物検出機能部100は、カメラによりカメラ画像を取得し、画像処理機能部によりカメラ画像内を探索的に特定のパターンでマッチングさせることで障害物を検出してもよい。マッチング以外にも、エッジやテクスチャの解析によって特定の条件にあてはまる領域を障害物として検出してもよい。
 また、障害物検出機能部100はカメラ2台以上を具備してもよい。そして、それらカメラにより複数のカメラ画像を取得し、画像処理機能部によりステレオ視による視差画像から視差が特定の条件を満たす領域を障害物として検出してもよい。さらに、それぞれのカメラに入力された画像から3次元形状を復元し、移動体が移動する平面上に物体が存在するかどうかを調べることで障害物を検出してもよい。このほか、障害物検出機能部100はLRF(Laser Range Finder:レーザレンジファインダ:図示されず)を具備してもよい。画像処理機能部により、そのLRFによって得た距離情報が特定の条件を満たす領域を障害物として検出しても良い。LRFは、照射したレーザ光線の反射によって周囲の物体を検出するための装置である。さらに、障害物検出機能部100は、超音波センサ(図示されず)を具備してもよい。画像処理機能部により、その超音波センサを用いて障害物を検出してもよい。
 障害物記録機能部212は、障害物の位置の情報を記録している。除去可能判定機能部211は、障害物検出機能部100が検出した障害物の位置の情報と、自律的移動体の障害物記録機能部212に記録されている障害物の位置の情報を比較する。こうすることで、除去可能判定機能部211は、障害物が除去できるものかどうかを判定する。
 例えば、検出した障害物の位置情報や障害物記録機能部212に記録される位置情報を、障害物が存在する場所には1、そうでない場所では0で表現されるグリッド状の地図としてもよい。
 図3は、本実施形態における障害物判定機能部の処理例を説明するための地図群である。
 図3において、地図S01は障害物検出機能部100が取得した最新の障害物の位置を示す。また、地図S02は障害物記録機能部212に記録されている障害物の位置を示す。除去可能判定機能部211は、地図S01と地図S02とを比較し、地図S02には無く地図S01に存在する障害物のみを抽出した地図S03を作成する。除去可能判定機能部211は、地図S03内にある障害物S04が除去可能な障害物であると判断しても良い。
 また、自律的移動体の移動が完了した後、障害物検出機能部100が取得した最新の障害物の位置を、障害物記録機能部212に記録されている地図へ反映させても良い。具体的には、最新の障害物の位置を示す地図S01のグリッド位置(x,y)における値をP1(x,y)とする。そして、新たに記録しなおす障害物の位置を示す地図のグリッド位置(x,y)における値P(x,y)は、
 P(x,y)=P1(x、y) ・・・ (1)
のようにすることで、最新の障害物の位置を、障害物記録機能部212に記録されている地図へ反映(更新)してもよい。また、時間や近傍のグリッド値を考慮に入れた反映の方法を用いても良い。
 このほか、除去可能判定機能部211は、過去に検出された障害物の位置の情報を用いずに、地図上の障害物の形状が特定のもの、体積が一定以下のもの、などといった判定基準により、障害物を除去可能と判断してもよい。また、障害物検出機能部100がカメラを具備する場合は、除去可能判定機能部211は、地図を用いなくとも、撮像した画像中にある障害物のエッジやテクスチャ、または特定のパターンによって除去可能な障害物を判断しても良い。さらに、自律的移動体が、障害物に埋め込まれたIDタグの情報を取得可能な機器(図示されず)を具備している場合には、除去可能判定機能部211は、その機器を用いて取得した情報によってその障害物が除去可能かどうかを判断しても良い。
 障害物体積取得機能部311は、除去可能判定機能部211が除去できると判断した障害物について、その体積を取得する。例えば、自律的移動体が障害物の位置情報をグリッド上の地図として記録している場合は、障害物体積取得機能部311は、その障害物の体積を次のように推測可能である。すなわち、その障害物を示す領域の面積をその障害物の底面積とみなし、さらに高さを所定の一定値と仮定して、その障害物の体積を計算してもよい。
 障害物体積取得機能部311が障害物の体積を取得する方法は、このほかにも以下に示す方法が例示される。障害物体積取得機能部311が、LRFを用いた場合のように、障害物の表面の位置しか取得できない場合には、地図上で障害物の表面を示す線の長さを取得する。そして、障害物体積取得機能部311は、奥行き長さと高さとを所定の値に仮定して、障害物の体積を計算しても良い。
 さらに別の方法としては、障害物をカメラで撮像し、その映像が示す障害物に対応する面積に基づいて、その障害物の体積を計算してもよい。
 さらに別の方法としては、障害物を複数台のカメラで撮像し、その障害物の3次元モデルデータを作成して、その3次元モデルデータに基づいてその障害物の体積を求めても良い。
 なお、障害物体積取得機能部311が障害物を認識するためには、障害物の体積以外にも、障害物の形状を取得しても良い。そのためには、障害物体積取得機能部311は、地図情報、レーザセンサ情報、カメラ画像などを組み合わせて用いても良い。また、床に重量センサが存在し、自律的移動体がその重量情報を入手できる場合は、障害物体積取得機能部311は障害物の重量を取得してもよい。
 このほかにも、例えば、建物構造物、家具、日常道具など、障害物のカテゴリに関する情報なども、依頼対象にかかるコストを見積もる上で有用な情報となり得る。その場合、障害物体積取得機能部311はこれらの情報を取得しても良い。
 除去障害物除去仕事量判定機能部312は、除去可能判定機能部211が除去可能と判断した障害物の中から、体積が最小となる障害物を選択する。その際、除去障害物除去仕事量判定機能部312は、各障害物の体積を障害物体積取得機能部311から得る。
 例えば、除去可能判定機能部211が除去可能と判断した障害物の個数をn個と置き、n個の障害物のそれぞれについてID(IDentification:認識番号)値をiと置く。ここで、iは、1≦i≦nである。さらに、障害物体積取得機能部311が得た各障害物について、障害物iの体積をViと置き、体積が最小の障害物を選択する。ここで、n個の障害物iのうち最も小さい体積を持つ障害物のID値をmとする。ただし、1≦m≦nである。ID値mは、次の式(2)によって求められる。
 m=arg(min(Vi)) ・・・ (2)
 なお、上述したように、障害物の体積に代えてカテゴリに関する情報を障害物体積取得機能部311が取得する場合は、次のような選択方法を用いても良い。すなわち、例えば、予め障害物のカテゴリリストを作成し、障害物体積取得機能部311またはその周辺に記憶部を設けて記憶しておく。ここで、カテゴリの項目を、依頼対象が障害物を除去する際にかかる負担が小さい順に並べておく。除去可能判定機能部211が除去可能と判断した障害物の中から、依頼対象にかかるコストが最も小さいカテゴリに属する障害物を、ランダムに選択してもよい。
 この他にも、除去障害物除去仕事量判定機能部312は、障害物に関して取得される情報ごとに好適な方法にて、依頼対象にかかる障害物除去コストが最も小さくなるように、除去可能な障害物を除去対象に選択してもよい。
 人物検出機能部410は、移動体の周囲に存在する人物を検出する。人物検出機能部410は、例えば、カメラによって取得した画像から、顔領域を抽出することで人物を検出しても良い。また、人物検出機能部410は、LRFによって得られる距離情報から、人物が存在するパターンを見つけることで、人物を検出してもよい。人物検出機能部410は、この他、超音波センサや人感センサによって得られるセンサ情報を用いて人物を検出しても良い。人物検出機能部410はさらに、人物の検出に代えて、マイクロフォンアレイなどによる音源方向の検出により人物の存在を推定してもよい。
 発話機能部511は、除去障害物除去仕事量判定機能部312が除去対象として選択した障害物を、人物検出機能部410が検出した人物に対して、除去してもらうように依頼を行う。発話機能部511は、例えば、合成発話により「これをどけて」と発話することで、依頼を行う。また、発話機能部511は、障害物のカテゴリが得られている場合は、「この○○をどけてくれませんか」などと発話することで、依頼を行っても良い。
 発話機能部511は、また、発話以外にも、アラーム音を発したり、移動体に取り付けられたLEDの点灯パターンを変化したりすることで、依頼を行っても良い。
 障害物指定機能部512は、人物検出機能部410が検出した人物に対して、除去障害物除去仕事量判定機能部312が除去対象として選択した障害物を示す。例えば、移動体が頭部と胴部とを具備し、頭部と胴部とのそれぞれが異なった角度で姿勢を保持できる場合、障害物指定機能部512は、頭部を障害物の方向に向けることで、除去対象である障害物を指し示しても良い。
 または、移動体が指向性のある発光体(レーザポインタ、スポット光、など)を保持する場合、障害物指定機能部512は、発光体が発する光を障害物に向けて照射することで、除去対象である障害物を指し示しても良い。
 人物指定機能部513は、依頼している対象人物が、人物検出機能部410が検出した人物であることを、非言語的に伝達する。例えば、移動体が頭部と胴部とを具備し、頭部と胴部とのそれぞれが異なった角度で姿勢を保持できる場合、人物指定機能部513は、頭部を依頼対象人物の方向に向けることで、依頼していることを示しても良い。
 そのほか、視線の方向を外界から観察できるような方向性を有する形状を自立的移動体が有している場合は、人物指定機能部513は、その視線を依頼対象人物の方向へ向けることで、依頼していることを示しても良い。
 経路生成機能部600は、移動体が障害物を回避しながら目的地まで到達できるように経路を生成する。ここで、経路生成機能部600は、過去に検出されて障害物位置記録機能部212に記録された障害物の位置に係る情報を用いる。
 ここで、障害物の位置の情報は、例えば、グリッド状の地図として記録されていても良い。この場合、経路生成機能部600は、例えば、Hart,P.E.;Nilsson,N.J.;Raphael,B.(1968),“A Formal Basis for the Heuristic Determination of Minimum Cost Paths”,IEEE Transactions on Systems Science and Cybernetics SSC4(2):pp.100-107.のA*アルゴリズムによって経路生成を行っても良い。
 経路生成機能部600は、その他にも、障害物位置記録機能部212に記録されている障害物の位置に係る情報の種類に好適となる経路探索法を用いても良い。
 移動機能部700は、移動体が移動するにあたって好適となるように構成されれば、特に制限はない。移動機能部700は、例えば、左右2つの電動式車輪などであっても良い。
 次に、本実施形態の動作全体について詳細に説明する。
 図4Aおよび図4Bは、本実施形態における自律移動方法の動作手順全体について説明するためのフローチャートである。
 図4Aのフローチャートにおける開始点F100は、自律的移動体に設定された目的地まで移動を行う必要が生じた状態を示す。
 まず、ステップF101において、経路生成機能部600が、自律的移動体の現在位置から目的地までの経路を生成する。
 次に、ステップF102において、移動機能部700が目的地へ向けて自律的移動体の移動を開始する。
 なお、自律的移動体の移動中は、ステップF103において、障害物検出機能部100が障害物位置を常に取得し続ける。
 自律的移動体の移動中に、ステップQ101において障害物検出機能部100が移動体の経路上に障害物を発見せず(Q101:No)、ステップQ102において障害物判定機能部200が目的地まで移動できたと判断した場合(Q102:Yes)、ステップF106において、移動体の移動が完了する。この時、ステップF104において、障害物判定機能部200は、障害物位置記録機能部212に記録されている情報を、今回の移動で障害物検出機能部100により新たに取得された障害物位置の情報を反映したものに更新する。
 自律的移動体の移動中に、ステップQ101において、障害物検出機能部100が移動体の経路上に障害物を発見した場合(Q101:Yes)、ステップF105に進む。ステップF105では、経路生成機能部600が、目的地までの経路を再度生成することを試みる。
 ステップQ103において、別の経路が存在すると判断した場合(Q103:Yes)、ステップF102に戻り、その経路に従って移動体の移動が再開する。
 ステップQ103において、別の経路が存在しないと判断した場合(Q103:No)、図4BのステップF110に進む。ステップF110では、除去可能判定機能部211が、今回の移動で新たに得た障害物の位置情報と、障害物位置記録機能部212に記録されている障害物の位置情報とを比較する。この比較の結果、除去可能判定機能部211は、ステップQ111において、移動を試みた経路上に、除去可能な障害物があるかどうかを確認する。
 ここで、除去可能な障害物が存在しない場合(Q111:No)、除去可能判定機能部211は目的地まで到達不能と判定し、移動体の移動を中止するステップF115に進む。
 反対に、除去可能な障害物が存在する場合(Q111:Yes)、ステップF111において、人物検出機能部410が、移動体の周囲に存在する人の存在を確認する。
 人物検出機能部410が、ステップQ112において、人物の存在を確認できない場合(Q112:No)、障害物を除去するように依頼する人物がいないと考えられる。したがって、上述したステップF115において自律的移動体の移動が中止される。
 人物検出機能部410が、ステップQ112において、人物の存在が確認できた場合(Q112:Yes)、ステップF112に続く。ステップF112では、障害物体積取得機能部311が、除去可能な障害物の各体積を取得する。
 次に、ステップF113において、除去障害物除去仕事量判定機能部312が、除去できる障害物の中から最小体積の障害物を、除去するように依頼する障害物として決定する。
 さらに、ステップF114において、人物指定機能部513が、障害物の除去を依頼する依頼対象人物を指定する。すると、発話機能部511が、その依頼対象人物に対して、障害物を除去してくれるように依頼を行う。このとき、障害物指定機能部512は、除去対象である障害物を依頼対象人物に示す。
 ステップQ113において、自律的移動体が、障害物が除去されたことを確認した場合(Q113:Yes)、ステップF102に戻って、自律的移動体は再び目的地へ向かって移動を開始する。
 反対に、ステップQ113において、自律的移動体が、障害物が除去されたことが確認できなかった場合(Q113:No)、上述したステップF115に進み、自律的移動体の移動を中止とする。
 次に、本実施形態の効果について説明する。
 本実施形態の構成では、除去することができる障害物が複数存在した場合に、障害物の体積が推定されて、最小体積の障害物が選択される。このため、障害物を除去するときに人物へかかるコストを小さくすることができる。ただし、上記に説明したとおり、障害物の体積以外にも、重量、形状、長さ、表面積、種類または依頼対象との距離に含まれる少なくとも1つの情報に基づいてコストを計算しても良い。
(第2の実施形態)
 次に、本発明を実施するための第2の実施形態について図面を参照して詳細に説明する。
 図5は、本発明の第2の実施形態における自律的移動体の構成を示すブロック図である。本実施形態における自律的移動体は、障害物検出機能部100と、障害物判定機能部200と、障害物選定機能部300と、依頼対象検出機能部400の人物検出機能部410と、障害物除去依頼機能部500と、経路生成機能部600と、移動機能部700とを具備する。
 ここで、障害物検出機能部100は、移動体の周囲の障害物を検知するものである。障害物判定機能部200は、移動体が障害物によって目的地までの経路が全て塞がれていると認識した場合に、障害物検出機能部100によって検出した障害物が、除去可能な障害物かどうかを判定するものである。障害物選定機能部300は、障害物判定機能部200によって除去可能な障害物が存在する場合に、これまで生成した経路情報を用いて、目的地まで移動するにあたって移動距離が短くなるように、障害物を選択するものである。人物検出機能部410は、移動体が障害物によって目的地までの経路が全て塞がれていると認識した場合に、移動体の周囲にいる人を検出するものである。障害物除去依頼機能部500は、障害物選定機能部300によって障害物が選択され、人物検出機能部410によって人物が検出できた場合に、障害物を人に除去してもらうように依頼を行うものである。経路生成機能部600は、移動体の目的地までの経路を生成するものである。移動機能部700は、移動体の移動を実現するものである。
 障害物判定機能部200は、除去可能判定機能部211と、障害物位置記録機能部212とを含む。ここで、除去可能判定機能部211は、障害物検出機能部100が得た最新の障害物の位置情報と、過去に得た障害物の位置情報とを比較することで、障害物が除去可能かどうかを判定するものである。また、障害物位置記録機能部212は、過去に得られた障害物の位置情報を記録するものである。
 障害物選定機能部300は、経路記録機能部321と、除去障害物移動仕事量判定機能部322とを含む。ここで、経路記録機能部321は、経路生成機能部600が生成して移動体が移動を試みた経路を、記録するものである。また、除去障害物移動仕事量判定機能部322は、除去可能判定機能部211が除去可能と判断した障害物の中から、除去対象障害物を選択するものである。この選択の基準としては、経路記録機能部321にて記録されている移動を試みた経路のうち、目的地までの距離が最も短い経路上に存在している障害物が選択される。
 障害物除去依頼機能部500は、発話機能部511と、障害物指定機能部512と、人物指定機能部513とを含む。ここで、発話機能部511は、障害物を除去してもらいたい旨を伝える発話を行うものである。また、障害物指定機能部512は、除去障害物除去仕事量判定機能部312によって選択した障害物を人に指定するものである。また、人物指定機能部513は、人物検出機能部410によって検出した人物の情報を用いて、依頼する人を指定するものである。
 上述の構成要素は、それぞれ次のように動作する。
 障害物検出機能部100は、第1の実施形態と同様に動作する。また、障害物検出機能部100の動作は、第1の実施形態で記した応用動作例に変えられても良い。
 除去可能判定機能部211と障害物記録機能部212は、第1の実施形態と同様に動作する。また、除去可能判定機能部211と障害物記録機能部212との動作はそれぞれ、第1の実施形態で記した応用動作例に変えられても良い。
 経路記録機能部321は、経路情報を記録する。この経路情報は、経路生成機能部600が生成し、自律的移動体が移動を試みたものである。例えば、障害物位置記録機能部212に記録されている情報がグリッド状の地図として記録される場合、自律的移動体の経路を地図上のグリッド座標値で記録しても良い。また、経路情報は数式で表現されて記録されても良い。
 除去障害物移動仕事量判定機能部322は、まず、経路を抽出する。ここで、除去障害物移動仕事量判定機能部322が抽出する経路とは、移動体が移動を試みて経路記録機能部321に記録された経路であって、かつ、除去可能判定機能部211が除去可能と判断した障害物が存在する経路である。
 次に、除去障害物移動仕事量判定機能部322は、抽出した経路の中から、目的地までの経路長が最も短くなる経路を選び、さらに、その最短経路上にあって、かつ、除去可能と判断された障害物を選択する。
 例として、地図情報がグリッド状に表現されていて、除去可能な障害物の位置情報がそのグリッド状地図情報に記録されている場合を考える。障害物にはID値として1以上の整数が対応付けられていて、障害物が位置する地図グリッドに、このID値が記録されている。地図グリッドにおいて、障害物が存在しない場所は、ID値の代わりに「0」で表現されることとする。移動体の位置情報は、地図グリッド上の地図座標(x,y)で表される。移動体の経路情報は、地図上のグリッド座標値の集合で記録される。それぞれの経路にも、ID値が割り当てられる。
 このような例の地図座標(x,y)において、障害物の存在またはID値を示す値をM(x,y)、移動を試みた経路をPi(iは経路のID値)、Piを構成する座標値をPij(jは集合要素のID値)と置く。そして、各Piにおいて、式(3)を満たすjが存在するかどうかを調べる。
 M(Pij)≠0 ・・・・ (3)
 この式(3)を満たした経路Piは、その経路上に除去可能な障害物があることになる。
 前述のように、除去可能な障害物が経路上にある経路の集合を得たら、次に、この集合の中から、経路を構成する座標要素の数が最も少ない経路Piを選択する。ここで、座標要素の数が最も少ない経路のID値をmと置く。すると、0ではないM(Pmj)を取得することで、目的地までの経路長が最も短くなる経路上にあって、かつ、除去可能と判断された障害物を選択することができる。
 上述の経路長の他に、自律的移動体のコスト、すなわち障害物の除去後に自律的移動体が移動する際の仕事量、を小さくすることが、障害物を選択する指標であっても良い。この場合は、自律的移動体の、位置、移動経路、運動エネルギー、電力消費量、充電残量、積載重量、動作履歴、操作履歴、などが具体的な指標として用いられても良い。
 人物検出機能部410は、第1の実施形態と同様に動作する。また人物検出機能部410の動作は、第1の実施形態で記した応用動作例に変えても良い。
 発話機能部511と、障害物指定機能部512と、人物指定機能部513とは、それぞれ第1の実施形態と同様に動作する。また、発話機能部511と、障害物指定機能部512と、人物指定機能部513とはそれぞれ、第1の実施形態で記した応用動作例に変えられても良い。
 経路生成機能部600は、第1の実施形態と同様に動作する。また、経路生成機能部600の動作は、第1の実施形態で記した応用動作例に変えられても良い。
 移動機能部700は、第1の実施形態と同様に動作する。また、移動機能部700の動作は、第1の実施形態で記した応用動作例に変えられても良い。
 次に、本実施形態の動作全体について詳細に説明する。
 図6Aおよび図6Bは、本実施形態における自律的移動方法の動作手順全体について詳細に説明するためのフローチャートである。
 フローチャートの開始点F200は、自律的移動体に設定された目的地まで移動を行う必要が生じた状態を示す。
 まず、ステップF201において、経路生成機能部600が、自律的移動体の現在位置から目的地までの経路を生成する。
 ステップF202において、経路記録機能部321が、ステップF201で生成された経路を記録する。
 続くステップF203、F204、Q201、Q202、F205、F206、F207は、第1の実施形態における図4AのステップF102、F103、Q101、Q102、F104、F105、F106とそれぞれ同一の処理を行う。
 ステップQ201において障害物検出機能部100が移動体の経路上に障害物の存在を検出し(Q201:Yes)、かつ、ステップF206において経路生成機能部600が経路再生成を実行した結果、ステップQ203において別経路が存在する場合(Q203:Yes)を考える。このような場合には、生成された経路を経路記録機能部321が記録するステップF202へ戻り、目的地へ向けて移動体が移動を再開する。
 ステップQ201において障害物検出機能部100が移動体の経路上に障害物の存在を検出し(Q201:Yes)、かつ、ステップF206において経路生成機能部600が経路再生成を実行した結果、ステップQ203において別経路が存在しない場合(Q203:No)を考える。このような場合には、図6BのステップF210へと進む。ここで、ステップF210、Q211、F211は、第1の実施形態における図4BのステップF110、Q111、F111と、それぞれ同一の処理を行う。
 ステップF211~Q212において、人物検出機能部410が自律的移動体の周囲に人物の存在を確認できた場合(Q212:Yes)、ステップF212において、除去障害物移動仕事量判定機能部322が、除去対象障害物を決定する。ここで、除去対象となる障害物とは、目的地までの経路長が最も短くなる経路上にある除去可能な障害物である。
 ステップF211~Q212において、人物検出機能部410が自律的移動体の周囲に人物の存在を確認できない場合(Q212:No)、障害物を除去するように依頼する人物がいないと考えられる。したがって、ステップF214において自律的移動体の移動が中止される。
 続くステップF213、Q213は、第1の実施形態における図4BのステップF114、Q113と、それぞれ同一の処理を行う。
 ステップQ213において、障害物が除去されたことが確認されれば、図6AのステップF203に戻って目的地へ向かって移動を再開する。
 ステップQ213において、障害物が除去されていなかった場合は、ステップF214に進んで移動中止とする。
 次に、本実施形態の効果について説明する。
 本実施形態では、除去することができる障害物が複数存在した場合に、目的地までの経路長が最も短くなる経路上にある除去可能な障害物が除去対象として選択される。したがって、目的地へ移動する際の移動体にかかるコストを小さくすることができる。
(第3の実施形態)
 次に、発明を実施するための第3の実施形態について図面を参照して詳細に説明する。
 図7は、本発明の第3の実施形態における移動体の構成を詳細に説明するためのブロック図である。本実施形態の自律的移動体は、障害物検出機能部100と、障害物判定機能部200と、人物検出機能部410と、障害物選定機能部300と、障害物除去依頼機能部500と、経路生成機能部600と、移動機能部700とを具備する。
 ここで、障害物検出機能部100は、移動体の周囲の障害物を検知するものである。障害物判定機能部200は、移動体が障害物によって目的地までの経路が全て塞がれていると認識した場合に、障害物検出機能部100が検出した障害物が、除去可能な障害物かどうかを判定するものである。人物検出機能部410は、移動体が障害物によって目的地までの経路が全て塞がれていると認識した場合に、移動体の周囲にいる人を検出するものである。障害物選定機能部300は、障害物判定機能部200が除去可能な障害物の存在を確認し、かつ、人物検出機能部400が移動体の周囲に人を検出した場合に、除去する障害物と依頼する人の組合せを選択するものである。このとき、除去対象障害物と依頼対象人物との組合せの選択は、障害物の所有者の情報と人物の認識情報を用いて、障害物の所有者と依頼する人の名前が一致するように行われる。障害物除去依頼機能部500は、障害物選定機能部300によって、除去する障害物と依頼する人が選択された場合に、障害物を人に除去してもらうように依頼を行うものである。経路生成機能部600は、移動体の目的地までの経路を生成するものである。移動機能部700は、移動体の移動を実現するものである。
 障害物判定機能部200は、除去可能判定機能部211と、障害物位置記録機能部212とを含む。ここで、除去可能判定機能部211は、障害物検出機能部100によって得た最新の障害物の位置情報と、過去に得た障害物の位置情報とを比較することで、障害物が除去可能かどうかを判定するものである。障害物位置記録機能部212は、過去に得た障害物の位置情報を記録するものである。
 障害物選定機能部300は、障害物所有者情報取得機能部331と、所有者情報記録機能部332と、人物認識機能部333と、組合せ評価機能部334とを含む。ここで、障害物所有者情報取得機能部331は、除去可能判定機能部211が除去可能と判断した障害物について、その所有者の情報を取得するものである。所有者情報記録機能部332は、障害物の所有者の情報を記録するものである。人物認識機能部333は、人物検出機能部410が検出した人物を認識するものである。組合せ評価機能部334は、障害物所有者情報取得機能部331が取得した、除去可能な障害物の所有者名と、人物認識機能部333が認識した、周囲の人物名とが一致するような、障害物と人物の組合せを抽出するものである。
 障害物除去依頼機能部500は、発話機能部511と、障害物指定機能部512と、人物指定機能部513とを含む。ここで、発話機能部511は、除去対象障害物を除去してもらいたい旨を、依頼対象人物に対して伝えるための発話を行うものである。障害物指定機能部512は、除去障害物除去仕事量判定機能部312が選択した除去対象障害物を、依頼対象人物に対して指定するものである。人物指定機能部513は、検出機能部410が検出した移動体周囲の人物の情報を用いて、障害物の除去を依頼する相手の人物を指定するものである。
 上記の構成要素は、それぞれ次のように動作する。
 障害物検出機能部100は、第1の実施形態と同様に動作する。また、障害物検出機能部100の動作は、第1の実施形態で記した応用動作例に変えられても良い。
 除去可能判定機能部211と、障害物記録機能部212とは、第1の実施形態と同様に動作する。また、除去可能判定機能部211と、障害物記録機能部212との動作は、第1の実施形態で記した応用動作例に変えられても良い。
 障害物所有者情報取得機能部331は、除去可能判定機能部211が取得した除去可能障害物について、その所有者の情報を取得する。そのために、例えば、障害物には所有者ごとに定まっているバーコードやQRコードなどの可視パターンを貼付し、移動体にはカメラを備えておく。こうすることで、障害物に貼り付けられたパターンをカメラで撮像し、認識することで、障害物の所有者を取得してもよい。
 また、可視パターン以外にも、赤外線マーカーなどの不可視マーカーを利用し、赤外線カメラなどのセンサを用いて、不可視マーカーを認識しても良い。
 このほか、所有者情報が記録されたRFID(Radio Frequency IDentification)を障害物に内蔵しておき、移動体が受信機でその情報を取得しても良い。さらには、障害物の形状やテクスチャなどの自然パターンを、カメラやLRFによって取得しても良い。
 所有者情報記録機能部332は、障害物の所有者を特定するための所定のパターンと、その所有者名とを、対応付けて記録する。例えば、所定のパターンとしてバーコードを用いる場合は、バーコードの番号と、所有者の名前とを、対応付けて記録する。
 このほか、障害物所有者取得機能部331に好適な任意形式の情報と、所有者の名前とを、対応付けても良い。例えば、自然パターンと所有者の名前を対応付けるなども可能であり、この点において特に制限は無い。また、これらの対応情報を記録させる手段として、人手によって手動で所有者情報を登録してもよい。さらには、自律的移動体に、人物が対話的に情報の登録が行える動作モードを用意し、その動作モードにおいて所有者情報を登録しても良い。
 人物認識機能部333は、人物検出機能部410が検出した人物の認識を行う。例えば、人の顔を画像で撮像し、P.Viola,M.J.Jones,“Robust Real-Time Face Detection”,International Journal of Computer Vision,Vol.57,No.2,May 2004,pp.137-154.のBoostingによる顔認識手法を用いることによって、人物の認識を行っても良い。このほか、服の色によって人物を認識してもよいし、人物が所持している無線タグの情報を移動体が取得することでその人物を認識しても良い。人物を認識するに当たっては、特に制限は無く、好適な手法を用いても良い。
 組合せ評価機能部334は、障害物所有者情報取得機能部331が取得した除去可能な障害物の所有者と、人物認識機能部333が取得した人物名とが一致するような、障害物と人物の組合せを選び出す。
 例えば、除去可能な障害物としてA,Bの2つがあり、これらの障害物の所有者はそれぞれa,bであるとする。なお、これらの障害物とその所有者との関係を、以後はそれぞれAa,Bbと記す。
 ここで、移動体の周囲にいる人物が3人おり、認識の結果、3人の人物はそれぞれa,c,dであるとする。この場合、障害物の所有者と人物名との組合せとしては、(Aa-a)、(Aa-c)、(Aa-d)、(Bb-a)、(Bb-c)、(Bb-d)、の6通りの可能性が存在することになる。
 ここで、障害物と、取得した人物名とが一致する組合せは、唯一(Aa-a)となる。そこで、選ばれる障害物と人物はAとaであるとして、組合せを選択しても良い。
 また、障害物と人物との組合せの選択としては、必ずしも障害物の所有者と同じ人物ではなくても、その所有者と十分親しいと考えられる別の人物との組合せであっても良い。この場合、各人物間の親しさを示す尺度、例えば「親密度」、を用いれば良い。この親密度に係るデータは、予め用意されて自律的移動体に供給されても良い。
 なお、上記方法において組合せが複数存在する場合は、第1の実施形態にあるように、障害物を除去する際に、依頼対象人物が必要とするコストが最も軽くなるような障害物が含まれている組合せを選択しても良い。
 その他、第2の実施形態にあるように、移動体が目的地に移動する際に、移動体にかかるコストが最小となるような障害物が含まれている組合せを選択しても良い。
 さらに、第1または第2の実施形態と組合せて、移動体が所有者以外の情報も取得しておき、それらに基づいて除去対象障害物と依頼対象人物との組合せを判断してもよい。
 人物検出機能部410は、第1の実施形態と同様に動作する。また、人物検出機能部410の動作は、第1の実施形態で記した応用動作例に変えられても良い。
 発話機能部511は、組合せ評価機能部334が選択した障害物を、その障害物との組合せとなった人物に、障害物を除去してもらうように依頼を行う。発話機能部511の動作内容は、第1の実施形態に記したものと同じでもよい。
 このほか、「□□さん、○○をどかせてくれませんか」というように、発話機能部511が人物名と障害物のカテゴリなどを明示して依頼内容を依頼対象人物に伝えても良い。こうすると、依頼事項がより明確に伝わる。
 障害物指定機能部512は、組合せ評価機能部334が選択した障害物を、その障害物と組合せとなった人物に示す。障害物指定機能部512の動作例は、第1の実施形態に記したものでもよい。
 人物指定機能部513は、組合せ評価機能部334が選択した人物に対して、依頼していることを非言語的に伝達する。人物指定機能部513の動作例は、第1の実施形態に記したものでもよい。
 経路生成機能部600は、第1の実施形態と同様に動作する。また、経路生成機能部600の動作は、第1の実施形態で記した応用動作例に変えられても良い。
 移動機能部700は、第1の実施形態と同様に動作する。また、移動機能部700の動作は、第1の実施形態で記した応用動作例に変えられても良い。
 次に、本実施形態における自律移動方法の動作手順全体について詳細に説明する。
 図8Aおよび図8Bは、本実施形態における自律移動方法の動作手順全体について詳細に説明するためのフローチャートである。
 フローチャートの開始点F300は、自律的移動体に設定された目的地まで移動を行う必要が生じた状態を示す。
 図8AのステップF300、F301、F302、F303、Q301、Q302、F304、F305、F306は、第1の実施形態における全体の動作を示した図4AのステップF100、F101、F102、F103、Q101、Q102、F104、F105、F106と、それぞれ同一の処理を行う。
 ステップQ301において障害物検出機能部100が移動体の経路上に障害物の存在を検出し(Q301:Yes)、ステップF305において経路生成機能部600が経路再生成を実行した結果、ステップQ303において別経路が存在する場合(Q303:Yes)は、ステップF302に戻る。このとき、生成した経路を経路記録機能部321が記録し、自律的移動体は目的地へ向けて移動を再開する。
 ステップQ301において障害物検出機能部100が移動体の経路上に障害物の存在を検出し(Q301:Yes)、ステップF305において経路生成機能部600が経路再生成を実行した結果、ステップQ303において別経路が存在しない場合(Q303:No)は、図8BのステップF310へと進む。
 図8BのステップF310、Q311、F311は、第1の実施形態における図4BにおけるステップF110、Q111、F111と、それぞれ同一の処理を行う。
 ステップQ312において、人物検出機能部410が自律的移動体の周囲に人の存在を確認できた場合(Q312:Yes)は、ステップF312において、障害物所有者情報取得機能部331が除去可能な障害物の所有者を取得する。ここで、障害物所有者情報取得機能部331は所有者情報記録機能部332に記録された情報を利用する。
 ステップQ312において、人物検出機能部410が自律的移動体の周囲に人物の存在を確認できない場合(Q312:No)、障害物を除去するように依頼する人物がいないと考えられる。したがって、ステップF316において自律的移動体の移動が中止される。
 次に、ステップF313において、人物認識機能部333が、人物検出機能部410が検出した人物について、その名前を取得する。
 そして、ステップF314において、ステップF312で取得された除去可能な障害物の所有者と、ステップF313で取得された人物名とが一致するような、除去可能な障害物と所有者の組合せを、組合せ評価機能部334が1つ選択する。
 ステップQ313において、そのような組合せが存在しない場合(Q313:No)は、ステップF316に進んで移動中止とする。反対に、そのような組合せが存在する場合(Q313:Yes)は、ステップF315に進み、第1の実施形態における図4BのステップF114と同一の処理を行う。
 ステップQ314において、自律的移動体が、障害物が除去されたことを移動体が確認した場合(Q314:Yes)、図8AステップF302において、自律的移動体は目的地へ向かって移動を再開する。
 ステップQ314において、自律的移動体が、障害物が除去されたことを確認できなかった場合(Q314:No)、ステップF316に進み、自律的移動体の移動を中止とする。
 次に、本実施形態の効果について説明する。
 本実施形態では、経路上に除去可能な障害物が複数存在した場合に、その障害物の所有者と、障害物除去を依頼する相手の人物とが一致するように、除去対象障害物と依頼対象人物の組合せを選択する。したがって、障害物がその所有者の知らない間に別の場所に移動されることなく、障害物の除去を行うことができる。なお、依頼対象人物の特定は、その人物のID、年齢、性別、身長、スケジュールまたは行動履歴に含まれる少なくとも1つの情報に基づいて検索されてもよい。
(実施例)
 次に、第1乃至第3の実施形態に基づき、さらに具体的な実施例を用いて本発明の動作を説明する。
 本実施例では、自律的移動体である移動ロボットが、自律的に障害物を回避しながら目標位置に移動を行う。また、移動ロボットは、障害物を回避し切れない場合は、除去する障害物と除去を依頼する人物を選択する。このとき、移動ロボットは、自らの周囲にいる人物の年齢と、障害物の重さを考慮して、人物にかける障害物の除去のコストが小さくなるように、選択を行う。このような移動ロボットと、その自律移動方法とを例に挙げて、以下に説明する。
 図9は、本実施例における、自律移動方法に基づいて自律的な移動を行う移動ロボット800の詳細な構成を説明するためのブロック図である。移動ロボット800は、レーザセンサ810と、障害物判定機能部820と、人物検出機能部830と、障害物選定機能部840と、障害物移動依頼機能部850と、経路生成機能部860と、移動機能部870とを具備する。
 ここで、レーザセンサ810は、移動ロボット800の周囲の障害物を検知するためのものである。障害物判定機能部820は、移動ロボット800の現在位置から目的地までの経路が全て障害物によって塞がれていると認識した場合に、レーザセンサ810が検出した障害物が、除去可能な障害物かどうかを判定するためのものである。人物検出機能部830は、移動ロボット800が目的地までの経路が全て障害物によって塞がれていると認識した場合に、移動ロボット800の周囲にいる人を検出するためのものである。障害物選定機能部840は、障害物判定機能部820が除去可能と判断した障害物が存在し、かつ、人物検出機能部830が移動体の周囲に人を検出した場合に、除去対象障害物と依頼対象人物との組合せを選択するためのものである。このとき、障害物選定機能部840は、人物の年齢と、障害物の重さとに係る各種情報を用いて、除去対象障害物と依頼対象人物との組合せを選択する。障害物移動依頼機能部850は、障害物選定機能部840が除去対象障害物と依頼対象人物とを選択した場合に、除去対象障害物の除去を依頼対象人物に依頼するためのものである。経路生成機能部860は、移動ロボット800の目的地までの経路を生成するためのものである。移動機能部870は、移動ロボット800の移動を実現するためのものである。
 障害物判定機能部820は、除去可能判定機能部822と、障害物位置記録機能部821とを含む。ここで、除去可能判定機能部822は、レーザセンサ810が得た最新の障害物の位置情報と、過去に得た障害物の位置情報とを比較することで、障害物が除去可能かどうかを判定するためのものである。障害物位置記録機能部821は、過去に得られた障害物の位置情報を記録するためのものである。
 人物検出機能部830は、カメラ831と、顔検出機能部832とを含む。ここで、カメラ831は、移動ロボット800の周囲を撮像するためのものである。顔検出機能部832は、カメラ831が得た画像内に存在する人物の顔を検出するためのものである。
 障害物選定機能部840は、障害物重さ取得機能部841と、人物認識機能部842と、人物年齢記録機能部843と、人物年齢取得機能部844と、組合せ評価機能部845とを含む。ここで、障害物重さ取得機能部841は、除去可能判定機能部822が除去可能と判断した障害物の重さの情報を取得するためのものである。人物認識機能部842は、人物検出機能部830が検出した人物を認識するためのものである。人物年齢記録機能部843は、人物の名前と、その人物の年齢とを記録するためのものである。人物年齢取得機能部844は、移動ロボット800の周辺にいる人物の年齢を取得するためのものである。この時、人物年齢取得機能部844は、人物認識機能部842が認識した人物名と人物年齢記録機能部843に記録されている人物の年齢とを用いる。組合せ評価機能部845は、除去対象障害物の除去時に依頼対象人物にかかるコストが小さくなるように、除去対象障害物と依頼対象人物との組合せを選択するためのものである。この時、組合せ評価機能部845は、障害物重さ取得機能部841が取得した障害物の重さ情報と、人物年齢取得機能部844が得た人物の年齢とを参照する。
 障害物除去依頼機能部850は、合成発話機能部851と、レーザポインタ852と、頭部制御機能部853と、ロボット頭部854とを含む。ここで、合成発話機能部851は、依頼対象人物に対して除去対象障害物を除去するように発話を行うためのものである。この時、合成発話機能部851は予め、組合せ評価機能部845が抽出した除去対象障害物と依頼対象人物との組合せを取得しておく。レーザポインタ852は、依頼対象人物に対して、除去対象障害物を指定するためのものである。頭部制御機能部853は、ロボット頭部854の動きや方向などを制御することによって、依頼対象人物を示すためのものである。
 次に、移動ロボット800の動作例を説明する。
 図10は、本実施例における移動ロボット800の動作例を説明するための、移動ロボットが移動する空間が変化する様子を示す地図群である。
 地図S11は、移動ロボット800が移動を開始する前の実際の状態を示す。S20は移動ロボット800、S21とS22は人物、S23とS24およびその他の地図上の斜線部分は障害物、S25は移動ロボット800の目的地をそれぞれ示す。
 地図S12は、障害物位置記録機能部821に記録されている過去に取得した障害物の位置データである。
 地図S13において、経路生成機能部860が、地図S12に基づいて点線S26の移動経路を生成する。駆動輪870は、点線S26の移動経路に沿って移動ロボットの移動を開始する。すると、移動途中で障害物S23が発見されて、経路が塞がれていることが認識される。
 なお、障害物の検出にはレーザセンサ810を用いているため、障害物S23はその表面の様子しか取得されない。このことを示すために、図10の各地図S11~S17では、レーザセンサで取得できる障害物の表面を実線で、取得できない障害物の表面を点線で、それぞれ記している。
 地図S14において、経路生成機能部860が、今度は地図S13に基づいて、点線S27の移動経路を生成する。駆動輪870は、点線S27の移動経路に沿って移動ロボット800を移動する。すると、移動途中で人物S22が発見されて、経路が塞がれていることが認識される。
 地図S15において、経路生成機能部860が、更に、地図S14に基づいて点線S28の移動経路を生成する。駆動輪870は、点線S28の移動経路に沿って移動ロボット800を移動する。すると、移動途中で障害物S24が発見されて、経路が塞がれていることが認識される。
 ここで、経路生成機能部860が、地図S15に基づいて移動経路の生成を試みる。しかし、目的地に到達できる経路が存在しない。そこで、障害物判定機能部820が、除去可能な障害物を抽出する。除去可能判定機能部822が、障害物地図記録機能部821に記録されている地図S12と、最新の地図S15とを用いて、地図S12には存在しなくて地図S15に存在する障害物を抽出する。この例では、障害物S23と、障害物S24とが抽出される。
 続けて、人物検出機能部830が、移動ロボット800の周囲に存在する人物を検出する。この例では、人物S21と人物S22が検出される。
 次に、組合せ選定機能部840が、除去対象障害物と依頼対象人物との組合せを決定する。まず、障害物重さ取得機能部841が、障害物判定機能部820が抽出した障害物S23および障害物S24のそれぞれの体積を推定する。この推定の際には、障害物の形状を、例えば底面が正方形の直方体であると仮定する。また、地図上の障害物の表面長さが底面における正方形の一辺の長さであると仮定する。さらに、高さは一律1mであると仮定して、障害物の体積が求められる。
 すなわち、地図上の障害物の表面長さをL(単位の例、m:メートル)、障害物の推定の大きさをV(単位の例、m:立方メートル)と置くと、高さは一律1mなので、次の式(4)が成立する。
 V=L ・・・・ (4)
 ここで、障害物S24の表面長さが1m、障害物S25の表面長さが1.5mであるとすると、障害物の推定の大きさはそれぞれ1m、2.25mとなる。ここでさらに、障害物の密度を一律1kg/mと仮定すると、推定した体積から重さを得ることが出来、障害物S23の重さは1kg、障害物S24の重さは2.25kgと推定される。
 地図S16において、人物認識機能部842が、検出された人物を認識し、それぞれの人物についてその名前を得る。そして、人物年齢取得機能部844が、人物年齢記録機能部843に予め記録された人物名と人物の年齢の情報を照合して、検出された人物のそれぞれの年齢を取得する。この例では、地図S16に示しているように、人物S21は23歳、人物S22は61歳であるとする。
 そして、組合せ評価機能部845が、それぞれの障害物の重さと、それぞれの人物の年齢との組み合わせに対応する重み付け仕事量をそれぞれ計算する。組合せ評価機能部845は、この重み付け仕事量が最小となるような障害物と人物の組合せを選択し、除去対象障害物と依頼対象人物との組合せとして決定する。
 ここで、重み付け仕事量wは、年齢によって定まる負担係数aと、障害物の重さmと、障害物を移動させる距離lと置くと、式(5)で定義される。
 w=a×m×l ・・・・ (5)
 この例では、負担係数として、長澤 弘(2003),“日常生活活動と筋力”,理学療法科学 Vol.18,No.1,pp.7-13に記載の、20歳を100%とした相対的平均握力の、逆数を用いる。例えば、人物S21は23歳であるので、その相対的平均握力は103%であり、負担係数は0.97となる。また、人物S22は61歳であるので、その相対的平均握力は85%であり、負担係数は1.18となる。さらに障害物を除去する際の移動距離は、例えば、一律1mと仮定する。
 以上から、障害物S23と人物S21を選択したときの重み付け仕事量は0.97kgfm(KiloGram Force Meter:重量キログラムメートル)、同様に障害物S23と人物S22を選択したときは1.18kgfm、障害物S24と人物S21を選択したときは2.18kgfm、障害物S24と人物S22を選択したときは2.66kgfmとなる。したがって、重み付け仕事量が最小となる障害物S23と人物S21とが、それぞれ除去対象障害物と依頼対象人物として決定される。
 次に、障害物移動依頼機能部850が、依頼対象人物に対して除去対象障害物の除去を依頼する。より具体的には、組合せ選定機能部840が選択した依頼対象人物に対して、合成発話機能部851が、除去対象障害物の除去を、発話によって依頼する。また、レーザポインタ852が除去すべき障害物を人間に提示する。さらにこの時、頭部制御機能部853が、ロボット頭部854を人物の方向を向くように制御して、依頼対象人物に話しかけていることを非言語的にアピールする。
 最後に、地図S17において、レーザセンサ810が、障害物が除去されたことを確認すると、移動経路が再度生成されて、目標地点までの移動が完了する。
 次に、本実施例の作用効果について説明する。
 本実施例では、移動ロボットが目標地点まで移動するにあたって、家庭環境内など複雑な環境にある障害物に妨げられて、目標地点までの移動が困難な場合に、その障害物の除去を人間に依頼する。この時、除去可能な障害物の重さと、周囲に存在する人間の年齢とで仕事量を重み付けして、除去対象障害物と依頼対象人物との組合せが決定される。このため、本実施例では、障害物を除去する際に人物にかかるコストが小さくなるような、障害物と人物を選ぶことができる。
 本実施例は、上記に説明した第1乃至第3の実施形態を、技術的に矛盾しない範囲で適宜組み合わせた自律的移動体に、更なる構成要素を追加した移動ロボットである。第1乃至第3の実施形態による自律的移動体は、それぞれ異なる判断基準を用いて、除去対象障害物を選定している。すなわち、第1の実施形態では障害物除去仕事量が、第2の実施形態では移動仕事量が、第3の実施形態では除去対象障害物と依頼対象との組合せが、それぞれ判断基準となっている。本実施例の移動ロボットは、除去対象障害物と依頼対象との組合せのみならず、障害物除去仕事量や、移動仕事量に、適当な重み付けを行なうなどして、総合的な判断基準を用いて除去対象障害物を選定しても良い。
 本発明の自律的移動体や自律移動方法は、障害物の配置状況が複雑な一般家庭環境内やオフィス環境内を走行する移動ロボットや、移動ロボットに用いる移動方法として適用できる。また、自動車の車庫入れを行う自動運転システムといった用途にも適用可能である。さらに、本発明における自律的移動体は、目標地点まで自律移動する移動ロボットに制限されるものでなく、例えば、遠隔操作等で制御される任意のロボットの移動制御に対しても適用可能である。さらには、移動体として、画像認識機能を備え自動走行等のインテリジェンスを具備した、自動車や電車などの車両全般、工場等施設内を走行する搬送車(キャリア)、飛翔体、船舶、潜水艦等にも適用できることは勿論である。
 ここまで、3つの実施形態と1つの実施例とについて説明した。本発明の移動体、移動方法、移動制御プログラムは、それぞれ、3つの実施形態と1つの実施例とを技術的矛盾の無い範囲で組み合わせたものであっても良い。
 さらに、上記に説明した各実施形態および実施例における自律的移動方法は、コンピュータにより実行可能とし、コンピュータに読み取り可能な記録媒体に格納することで、自律的移動体の自律的移動方法を制御するための自律的移動制御プログラムとすることが出来る。この場合、自律的移動体または自律的移動ロボットに適切なCPUやメモリを設けて情報処理機能を持たせることによって、この自律的移動制御プログラムを格納および実行可能となる。なお、各実施形態および実施例における各機能部は、それぞれ、独立した電子回路のようなハードウェアとして実現されても良いし、CPUやメモリを有するコンピュータ及びそのプログラムの一部のようなハードウェアとソフトウェアとの協働として動作しても構わない。
 本発明の移動体、移動方法、移動制御プログラムは、移動体の経路を塞ぐ複数の障害物の中から、除去を依頼するに最適な障害物を選択する。このことにより、例えば、依頼対象にかけるコストが小さくとなるように、または移動体にかかるコストが小さくなるように、さらには両方のコストが最小となるように、除去対象障害物を選択することができる。
 上記各実施の形態の各構成や技術は、技術的な矛盾の発生しない限り、他の実施の形態においても適用可能である。
 以上、実施の形態を参照して本発明を説明したが、本発明は上記実施の形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
 この出願は、2008年1月16日に出願された特許出願番号2008-007090号の日本特許出願に基づいており、その出願による優先権の利益を主張し、その出願の開示は、引用することにより、そっくりそのままここに組み込まれている。

Claims (33)

  1.  目的地までの経路を生成する経路生成機能部と、
     前記経路に沿って移動するための移動機能部と、
     前記移動を妨げる障害物を検出するための障害物検出機能部と、前記経路上に障害物が存在する場合に、前記経路生成機能部は、前記経路とは別の経路の生成を試み、前記別の経路が存在する場合に、前記移動機能部は、前記別の経路に沿って前記目的地までの移動を試み、
     前記別の経路が存在しない場合に、前記障害物の前記経路外への除去を外部に依頼する障害物除去依頼機能部と、
     前記障害物検出機能部が検出した障害物の中から、前記経路上から除去可能な少なくとも1つの除去可能障害物の存在を判定する障害物判定機能部と、
     前記障害物除去機能部が前記除去可能障害物の除去を依頼できる相手である少なくとも1つの依頼可能対象を前記外部において検出する依頼対象検出機能部と、
     前記少なくとも1つの除去可能障害物が複数存在する場合において、前記障害物除去依頼機能部が除去を依頼する障害物である除去対象障害物を、前記複数の除去可能障害物から選択決定する障害物選定機能部とを具備する
     移動装置。
  2.  請求の範囲1に記載の移動装置において、
     前記障害物選定機能部は、
     前記少なくとも1つの除去可能障害物と、前記少なくとも1つの依頼可能対象との組合せが複数存在する場合において、前記複数の組合せから、前記除去対象障害物と、前記障害物除去機能部が前記除去対象障害物の除去を依頼する相手である依頼対象との組合せを選択決定する
     移動装置。
  3.  請求の範囲1又は2に記載の移動装置において、
     前記障害物判定機能部は、
     前記目的地までの移動が完了した際に、検出された障害物の位置を記録する障害物位置記録機能部と、
     前記障害物位置記録機能部に記録された過去の前記障害物の位置と、現在の障害物の位置とに基づいて、除去可能な障害物を判定する除去可能判定機能部とを具備する
     移動装置。
  4.  請求の範囲1乃至3のいずれか一項に記載の移動装置において、
     前記依頼対象検出機能部は、
     前記少なくとも1つの依頼可能対象として周囲の人物を検出する人物検出機能部を具備する
     移動装置。
  5.  請求の範囲4に記載の移動装置において、
     前記障害物除去依頼機能部は、
     前記依頼対象人物を指定する人物指定機能部と、
     前記除去対象障害物を指定する障害物指定機能部と、
     前記依頼対象人物に対して前記除去対象障害物の除去を依頼する発話機能部とを具備する
     移動装置。
  6.  請求の範囲2乃至5のいずれか一項に記載の移動装置において、
     前記障害物選定機能部は、
     前記少なくとも1つの除去可能障害物のそれぞれについて、前記依頼対象が除去する際の除去仕事量を取得する障害物除去仕事量取得機能部と、
     前記少なくとも1つの除去可能障害物が複数存在する場合に、前記除去仕事量が最小の除去可能障害物を選択する除去障害物除去仕事量判定機能部とを具備し、
     前記除去仕事量は、
     前記除去可能障害物の体積、重量、形状、長さ、表面積、種類または前記依頼対象との距離に含まれる少なくとも1つの情報に基づいて計算される
     移動装置。
  7.  請求の範囲1乃至5のいずれか一項に記載の移動装置において、
     前記障害物選定機能部は、
     前記経路を記録する経路記録機能部と、
     前記除去対象障害物として、除去後に前記目的地までの移動仕事量が最小となるような除去可能障害物を選択する除去障害物移動仕事量判定機能部とを具備し、
     前記移動仕事量は、
     前記移動装置の位置、移動経路、運動エネルギー、電力消費量、充電残量、積載重量、動作履歴または操作履歴に含まれる少なくとも1つの情報に基づいて計算される
     移動装置。
  8.  請求の範囲6又は7に記載の移動装置において、
     前記依頼対象が人物である場合に、前記障害物選定機能部は、
     前記検出された人物の名前を取得する人物認識機能部と、
     前記人物の名前と前記人物に係る情報を予め有する人物情報記録機能部と、
     前記除去仕事量または前記移動仕事量と、前記人物に係る情報とに基づいて、前記少なくとも1つの除去可能障害物と、前記検出された人物との組合せから、1つの組合せを選択決定する組合せ評価機能部とをさらに具備し、
     前記人物に係る情報は、
     前記人物のID(IDentification:認識番号)、年齢、性別、身長、スケジュールまたは行動履歴のいずれかを含む
     移動装置。
  9.  請求の範囲4又は5に記載の移動装置において、
     前記障害物選定機能部は、
     前記少なくとも1つの除去可能障害物の所有者に係る情報を予め有する所有者情報記録機能部と、
     前記少なくとも1つの除去可能障害物の所有者に係る情報を前記所有者情報記録機能部から取得する障害物所有者情報取得機能部と、
     前記検出された人物の名前を取得する人物認識機能部と、
     前記少なくとも1つの除去可能障害物の所有者と、前記検出された人物の名前とが一致する組合せを探す組合せ評価機能部とを具備する
     移動装置。
  10.  請求の範囲4、5及び9のいずれか一項に記載の移動装置において、
     前記検出された人物の名前は、
     前記検出された人物のID、年齢、性別、身長、スケジュールまたは行動履歴に含まれる少なくとも1つの情報に基づいて検索される
     移動装置。
  11.  請求の範囲9又は10に記載の移動装置において、
     前記障害物検出機能部は、
     照射したレーザ光線の反射によって周囲の物体を検出するためのレーザセンサを具備し、
     前記障害物選定機能部は、
     前記依頼対象の候補となる人物の年齢を記録するための人物年齢記録機能部と、
     前記依頼対象人物の年齢を前記人物年齢記録機能部から読み出すための人物年齢取得機能部とをさらに具備し、
     前記人物検出機能部は、
     周囲の風景を電気信号化するためのカメラと、
     前記電気信号化された風景から人間の顔面を検出するための顔検出機能部とを具備し、
     前記発話機能部は、
     前記除去対象障害物の除去依頼を前記依頼対象人物に聴覚的に伝えるための合成発話機能部を具備し、
     前記障害物指定機能部は、
     レーザ光線を照射することによって前記除去対象障害物を示すためのレーザポインタを具備し、
     前記人物指定機能部は、
     前記依頼対象人物を示すための方向性を有する頭部と、
     前記頭部の動作を制御するための頭部制御機能部とを具備し、
     前記移動機能部は、
     2つ以上の駆動輪を具備する
     移動装置。
  12.  (a)経路生成機能部が、目的地までの経路を生成する経路生成ステップと、
     (b)移動機能部が、前記経路に沿って移動を試みる移動ステップとを具備し、
     前記移動ステップ(b)は、
     (b-1)障害物検出機能部が障害物の検出を試みる障害物検出ステップと、
     (b-2)前記障害物検出ステップ(b-1)において、前記経路上に障害物が存在する場合に、前記経路生成機能部が前記経路とは別の経路の生成を試みる別経路生成ステップと、
     (b-3)前記別経路生成ステップ(b-2)において、前記別の経路が存在する場合に、前記移動機能部が、前記別の経路に沿って前記目的地までの移動を試みるステップと、
     (b-4)前記別経路生成ステップ(b-2)において、前記別の経路が存在しない場合に、障害物除去依頼機能部が、前記障害物の前記経路外への除去を外部に依頼する障害物除去依頼ステップとを具備し、
     前記障害物除去依頼ステップ(b-4)は、
     (b-4-a)障害物判定機能部が、前記障害物検出機能部が検出した障害物の中から、前記経路上から除去可能な少なくとも1つの除去可能障害物の存在を判定する障害物判定ステップと、
     (b-4-b)依頼対象検出機能部が、前記除去可能障害物の除去を依頼する相手である少なくとも1つの依頼対象を外部において検出する依頼対象検出ステップと、
     (b-4-c)前記障害物判定ステップ(b-4-a)における前記少なくとも1つの除去可能障害物が複数存在する場合において、障害物選定機能部が、前記障害物除去依頼機能部が除去を依頼する障害物である除去対象障害物を、前記複数の除去可能障害物から選択決定する障害物選定ステップとを具備する
     移動装置の移動方法。
  13.  請求の範囲12に記載の移動装置の移動方法において、
     前記障害物選定ステップ(b-4-c)は、
     (b-4-c-1)前記障害物判定ステップ(b-4-a)における前記少なくとも1つの除去対象障害物と、前記依頼対象検出ステップ(b-4-b)における前記少なくとも1つの依頼対象との組合せが複数存在する場合において、前記障害物選定機能部が、前記複数の組合せから、前記除去対象障害物と、前記障害物除去機能部が前記除去対象障害物の除去を依頼する相手である依頼対象との組合せを選択決定するステップ
     を具備する
     移動装置の移動方法。
  14.  請求の範囲12又は13に記載の移動装置の移動方法において、
     (c)前記目的地までの移動が完了した際に、障害物位置記録機能部が、検出された障害物の位置を記録する障害物位置記録ステップをさらに具備し、
     前記障害物判定ステップ(b-4-a)は、
     (b-4-a-1)除去可能判定機能部が、前記障害物位置記録機能部に記録された過去の前記障害物の位置と、現在の障害物の位置とに基づいて、除去可能な障害物を判定するステップをさらに具備する
     移動装置の移動方法。
  15.  請求の範囲12乃至14のいずれか一項に記載の移動装置の移動方法において、
     前記依頼対象検出ステップ(b-4-b)は、
     (b-4-b-1)人物検出機能部が、前記少なくとも1つの依頼対象として、周囲の人物を検出する依頼対象人物検出ステップを具備する
     移動装置の移動方法。
  16.  請求の範囲15に記載の移動装置の移動方法において、
     前記障害物除去依頼ステップ(b-4)は、
     (b-4-d)人物指定機能部が、前記依頼対象人物を指定する人物指定ステップと、
     (b-4-e)障害物指定機能部が、前記除去対象障害物を指定する障害物指定ステップと、
     (b-4-f)発話機能部が、前記依頼対象人物に対して前記除去対象障害物の除去を依頼する発話ステップとをさらに具備する
     移動装置の移動方法。
  17.  請求の範囲13乃至16のいずれか一項に記載の移動装置の移動方法において、
     前記障害物選定ステップ(b-4-c)は、
     (b-4-c-2)障害物除去仕事量取得機能部が、前記少なくとも1つの除去可能障害物のそれぞれについて、前記依頼対象が除去する際の除去仕事量を取得する障害物除去仕事量取得ステップと、
     (b-4-c-3)除去障害物除去仕事量判定機能部が、前記少なくとも1つの除去可能障害物が複数存在する場合に、前記除去仕事量が最小の除去可能障害物を選択するステップとを具備し、
     前記仕事量は、
     前記除去可能障害物の体積、重量、形状、長さ、表面積、種類または前記依頼対象との距離に含まれる少なくとも1つの情報に基づいて計算される
     移動装置の移動方法。
  18.  請求の範囲12乃至16のいずれか一項に記載の移動装置の移動方法において、
     前記経路生成ステップ(a)は、
     (a-1)経路記録機能部が、前記経路を記録する経路記録ステップを具備し、
     前記障害物選定ステップ(b-4-c)は、
     (b-4-c-4)除去障害物移動仕事量判定機能部が、前記除去対象障害物として、前記目的地までの前記経路長が最短となる経路上に存在する除去可能障害物を選択する除去障害物判定ステップを具備し、
     前記移動仕事量は、
     前記移動装置の位置、移動経路、運動エネルギー、電力消費量、充電残量、積載重量、動作履歴または操作履歴に含まれる少なくとも1つの情報に基づいて計算される
     移動装置の移動方法。
  19.  請求の範囲17又は18に記載の移動装置の移動方法において、
     前記依頼対象が人物である場合に、前記障害物選定ステップ(b-4-c)は、
     (b-4-c-5)人物情報記録機能部が、前記人物の名前と前記人物に係る情報を予め有するステップと、
     (b-4-c-6)人物認識機能部が、前記検出された人物の名前を取得する人物認識ステップと、
     (b-4-c-7)組合せ評価機能部が、前記除去仕事量または前記移動仕事量と、前記人物に係る情報とに基づいて、前記少なくとも1つの除去可能障害物と、前記検出された人物との組合せから、1つの組合せを選択決定する組合せ評価ステップとを具備し、
     前記人物に係る情報は、
     前記人物のID、年齢、性別、身長、スケジュールまたは行動履歴のいずれかを含む
     移動装置の移動方法。
  20.  請求の範囲15又は16に記載の移動装置の移動方法において、
     前記障害物選定ステップ(b-4-c)は、
     (b-4-c-8)障害物所有者情報取得機能部が、前記少なくとも1つの除去可能障害物の所有者に係る情報を所有者情報記録機能部から取得する障害物所有者情報取得ステップと、
     (b-4-c-9)人物認識機能部が、前記検出された人物の名前を取得する人物認識ステップと、
     (b-4-c-10)組合せ評価機能部が、前記少なくとも1つの除去可能障害物の所有者と、前記検出された人物の名前とが一致する組合せを探す組合せ評価ステップと、
     (b-4-c-11)前記少なくとも1つの除去可能障害物の所有者と、前記検出された人物名とが一致する組合せが存在しない場合に、前記移動を中止するステップとを具備する
     移動装置の移動方法。
  21.  請求の範囲15、16及び20のいずれか一項に記載の移動装置の移動方法において、
     前記検出された人物の名前は、
     前記検出された人物のID、年齢、性別、身長、スケジュールまたは行動履歴に含まれる少なくとも1つの情報に基づいて得られる
     移動装置の移動方法。
  22.  請求の範囲20又は21に記載の移動装置の移動方法において、
     前記障害物判定ステップ(b-4-a)は、
     (b-4-a-2)前記経路上に除去可能な障害物が無い場合に、前記移動を中止するステップを具備し、
     前記依頼対象検出ステップ(b-4-b)は、
     (b-4-b-2)前記人物が周囲に存在しない場合に、前記移動を中止するステップをさらに具備する
     移動装置の移動方法。
  23.  (a)経路生成機能部が、目的地までの経路を生成する経路生成ステップと、
     (b)移動機能部が、前記経路に沿って移動を試みる移動ステップとを具備し、
     前記移動ステップ(b)は、
     (b-1)障害物検出機能部が障害物の検出を試みる障害物検出ステップと、
     (b-2)前記障害物検出ステップ(b-1)において、前記経路上に障害物が存在する場合に、前記生成機能部が前記経路とは別の経路の生成を試みる別経路生成ステップと、
     (b-3)前記別経路生成ステップ(b-2)において、前記別の経路が存在する場合に、前記移動機能部が、前記別の経路に沿って前記目的地までの移動を試みるステップと、
     (b-4)前記別経路生成ステップ(b-2)において、前記別の経路が存在しない場合に、障害物除去依頼機能部が、前記障害物の前記経路外への除去を外部に依頼する障害物除去依頼ステップとを具備し、
     前記障害物除去依頼ステップ(b-4)は、
     (b-4-a)障害物判定機能部が、前記障害物検出機能部が検出した障害物の中から、前記経路上から除去可能な少なくとも1つの除去可能障害物の存在を判定する障害物判定ステップと、
     (b-4-b)依頼対象検出機能部が、前記除去可能障害物の除去を依頼する相手である少なくとも1つの依頼対象を外部において検出する依頼対象検出ステップと、
     (b-4-c)前記障害物判定ステップ(b-4-a)における前記少なくとも1つの除去可能障害物が複数存在する場合において、障害物選定機能部が、前記障害物除去依頼機能部が除去を依頼する障害物である除去対象障害物を、前記複数の除去可能障害物から選択決定する障害物選定ステップとを具備する移動方法をコンピュータに実行させるための、コンピュータに読み込み可能な
     移動装置の移動制御プログラム。
  24.  請求の範囲23に記載の移動装置の移動制御プログラムにおいて、
     前記障害物選定ステップ(b-4-c)は、
     (b-4-c-1)前記障害物判定ステップ(b-4-a)における前記少なくとも1つの除去対象障害物と、前記依頼対象検出ステップ(b-4-b)における前記少なくとも1つの依頼対象との組合せが複数存在する場合において、前記障害物選定機能部が、前記複数の組合せから、前記除去対象障害物と、前記障害物除去機能部が前記除去対象障害物の除去を依頼する相手である依頼対象との組合せを選択決定するステップを具備する移動方法をコンピュータに実行させるための、コンピュータに読み込み可能な
     移動装置の移動制御プログラム。
  25.  請求の範囲23又は24に記載の移動装置の移動制御プログラムにおいて、
     (c)前記目的地までの移動が完了した際に、障害物位置記録機能部が、検出された障害物の位置を記録する障害物位置記録ステップをさらに具備し、
     前記障害物判定ステップ(b-4-a)は、
     (b-4-a-1)除去可能判定機能部が、前記障害物位置記録機能部に記録された過去の前記障害物の位置と、現在の障害物の位置とに基づいて、除去可能な障害物を判定するステップをさらに具備する移動方法をコンピュータに実行させるための、コンピュータに読み込み可能な
     移動装置の移動制御プログラム。
  26.  請求の範囲23乃至25のいずれか一項に記載の移動装置の移動制御プログラムにおいて、
     前記依頼対象検出ステップ(b-4-b)は、
     (b-4-b-1)人物検出機能部が、前記少なくとも1つの依頼対象として、周囲の人物を検出する依頼対象人物検出ステップを具備する移動方法をコンピュータに実行させるための、コンピュータに読み込み可能な
     移動装置の移動制御プログラム。
  27.  請求の範囲26に記載の移動装置の移動制御プログラムにおいて、
     前記障害物除去依頼ステップ(b-4)は、
     (b-4-d)人物指定機能部が、前記依頼対象人物を指定する人物指定ステップと、
     (b-4-e)障害物指定機能部が、前記除去対象障害物を指定する障害物指定ステップと、
     (b-4-f)発話機能部が、前記依頼対象人物に対して前記除去対象障害物の除去を依頼する発話ステップとをさらに具備する移動方法をコンピュータに実行させるための、コンピュータに読み込み可能な
     移動装置の移動制御プログラム。
  28.  請求の範囲23乃至27のいずれか一項に記載の移動装置の移動制御プログラムにおいて、
     前記障害物選定ステップ(b-4-c)は、
     (b-4-c-2)障害物除去仕事量取得機能部が、前記少なくとも1つの除去可能障害物のそれぞれについて、前記依頼対象が除去する際の除去仕事量を取得する障害物除去仕事量取得ステップと、
     (b-4-c-3)除去障害物除去仕事量判定機能部が、前記少なくとも1つの除去可能障害物が複数存在する場合に、前記除去仕事量が最小の除去可能障害物を選択するステップとを具備し、
     前記仕事量は、
     前記除去可能障害物の体積、重量、形状、長さ、表面積、種類または前記依頼対象との距離に含まれる少なくとも1つの情報に基づいて計算される
     移動方法をコンピュータに実行させるための、コンピュータに読み込み可能な
     移動装置の移動制御プログラム。
  29.  請求の範囲23乃至27のいずれか一項に記載の移動装置の移動制御プログラムにおいて、
     前記経路生成ステップ(a)は、
     (a-1)経路記録機能部が、前記経路を記録する経路記録ステップを具備し、
     前記障害物選定ステップ(b-4-c)は、
     (b-4-c-4)除去障害物移動仕事量判定機能部が、前記除去対象障害物として、前記目的地までの前記経路長が最短となる経路上に存在する除去可能障害物を選択する除去障害物判定ステップを具備し、
     前記移動仕事量は、
     前記移動装置の位置、移動経路、運動エネルギー、電力消費量、充電残量、積載重量、動作履歴または操作履歴に含まれる少なくとも1つの情報に基づいて計算される
     移動方法をコンピュータに実行させるための、コンピュータに読み込み可能な
     移動装置の移動制御プログラム。
  30.  請求の範囲28又は29に記載の移動装置の移動制御プログラムにおいて、
     前記依頼対象が人物である場合に、前記障害物選定ステップ(b-4-c)は、
     (b-4-c-5)人物情報記録機能部が、前記人物の名前と前記人物に係る情報を予め有するステップと、
     (b-4-c-6)人物認識機能部が、前記検出された人物の名前を取得する人物認識ステップと、
     (b-4-c-7)組合せ評価機能部が、前記除去仕事量または前記移動仕事量と、前記人物に係る情報とに基づいて、前記少なくとも1つの除去可能障害物と、前記検出された人物との組合せから、1つの組合せを選択決定する組合せ評価ステップとを具備し、
     前記人物に係る情報は、
     前記人物のID、年齢、性別、身長、スケジュールまたは行動履歴のいずれかを含む
     移動方法をコンピュータに実行させるための、コンピュータに読み込み可能な
     移動装置の移動制御プログラム。
  31.  請求の範囲26又は27に記載の移動装置の移動制御プログラムにおいて、
     前記障害物選定ステップ(b-4-c)は、
     (b-4-c-8)障害物所有者情報取得機能部が、前記少なくとも1つの除去可能障害物の所有者に係る情報を所有者情報記録機能部から取得する障害物所有者情報取得ステップと、
     (b-4-c-9)人物認識機能部が、前記検出された人物の名前を取得する人物認識ステップと、
     (b-4-c-10)組合せ評価機能部が、前記少なくとも1つの除去可能障害物の所有者と、前記検出された人物の名前とが一致する組合せを探す組合せ評価ステップと、
     (b-4-c-11)前記少なくとも1つの除去可能障害物の所有者と、前記検出された人物名とが一致する組合せが存在しない場合に、前記移動を中止するステップと
     を具備する移動方法をコンピュータに実行させるための、コンピュータに読み込み可能な
     移動装置の移動制御プログラム。
  32.  請求の範囲26、27及び31のいずれか一項に記載の移動装置の移動制御プログラムにおいて、
     前記検出された人物の名前は、
     前記検出された人物のID、年齢、性別、身長、スケジュールまたは行動履歴に含まれる少なくとも1つの情報に基づいて得られる
     する移動方法をコンピュータに実行させるための、コンピュータに読み込み可能な
     移動装置の移動制御プログラム。
  33.  請求の範囲31又は32に記載の移動装置の移動制御プログラムにおいて、
     前記障害物判定ステップ(b-4-a)は、
     (b-4-a-2)前記経路上に除去可能な障害物が無い場合に、前記移動を中止するステップを具備し、
     前記依頼対象検出ステップ(b-4-b)は、
     (b-4-b-2)前記人物が周囲に存在しない場合に、前記移動を中止するステップをさらに具備する移動方法をコンピュータに実行させるための、コンピュータに読み込み可能な
     移動装置の移動制御プログラム。
PCT/JP2008/072086 2008-01-16 2008-12-04 移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム WO2009090807A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/812,773 US20110144850A1 (en) 2008-01-16 2008-12-04 Moving apparatus, moving method of moving apparatus, and movement control program of moving apparatus
JP2009549964A JP5158097B2 (ja) 2008-01-16 2008-12-04 移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008007090 2008-01-16
JP2008-007090 2008-01-16

Publications (1)

Publication Number Publication Date
WO2009090807A1 true WO2009090807A1 (ja) 2009-07-23

Family

ID=40885208

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/072086 WO2009090807A1 (ja) 2008-01-16 2008-12-04 移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム

Country Status (3)

Country Link
US (1) US20110144850A1 (ja)
JP (1) JP5158097B2 (ja)
WO (1) WO2009090807A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015035139A (ja) * 2013-08-09 2015-02-19 トヨタ自動車株式会社 自律移動体、障害物判別方法及び障害物回避方法
JP2018136844A (ja) * 2017-02-23 2018-08-30 株式会社ダイフク 物品搬送車
JP2018158625A (ja) * 2017-03-22 2018-10-11 株式会社日本総合研究所 人に走行する車両が近接したことを通知する車両近接通知システムにおける管理サーバ、車両近接通知方法及びプログラム
CN109445438A (zh) * 2018-12-05 2019-03-08 英华达(上海)科技有限公司 基于地图分享的巡航装置的巡航控制方法及系统
JP2019179398A (ja) * 2018-03-30 2019-10-17 トヨタ自動車株式会社 経路計画装置、経路計画方法及びプログラム
KR20200078956A (ko) * 2018-12-24 2020-07-02 한국과학기술연구원 효율적인 장애물 제거 방법
JP2020151070A (ja) * 2019-03-19 2020-09-24 パナソニック株式会社 ロボット及びロボットの制御方法
CN113959454A (zh) * 2020-07-01 2022-01-21 丰田自动车株式会社 信息处理装置、信息处理方法和信息处理系统

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013071194A (ja) * 2011-09-27 2013-04-22 Hitachi Koki Co Ltd 切断機及びモータの緊急停止方法
US20130103305A1 (en) * 2011-10-19 2013-04-25 Robert Bosch Gmbh System for the navigation of oversized vehicles
JP5380630B1 (ja) * 2011-12-28 2014-01-08 パナソニック株式会社 自走式ロボットハンド
JP6221158B2 (ja) * 2014-08-27 2017-11-01 本田技研工業株式会社 自律行動ロボット、及び自律行動ロボットの制御方法
DE102015114883A1 (de) * 2015-09-04 2017-03-09 RobArt GmbH Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters
CN108415424B (zh) * 2018-02-05 2019-09-13 腾讯科技(深圳)有限公司 智能机器人控制方法和装置、系统及存储介质
US10706563B2 (en) * 2018-05-15 2020-07-07 Qualcomm Incorporated State and position prediction of observed vehicles using optical tracking of wheel rotation
JP2020060991A (ja) * 2018-10-11 2020-04-16 トヨタ自動車株式会社 小型車両
JP7177387B2 (ja) 2018-10-11 2022-11-24 トヨタ自動車株式会社 情報処理装置、プログラム及び小型車両
JP7400371B2 (ja) * 2019-11-13 2023-12-19 オムロン株式会社 ロボット制御モデル学習方法、ロボット制御モデル学習装置、ロボット制御モデル学習プログラム、ロボット制御方法、ロボット制御装置、ロボット制御プログラム、及びロボット
DE102020208573B3 (de) 2020-07-08 2021-10-28 Robert Bosch Gesellschaft mit beschränkter Haftung Steuervorrichtung und Verfahren zum Reinigen einer Parkfläche eines automatisierten Parksystems mithilfe eines Reinigungsroboters

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03162814A (ja) * 1989-08-09 1991-07-12 Tokyo Cosmos Electric Co Ltd 掃除機
JP2001129787A (ja) * 1999-11-02 2001-05-15 Atr Media Integration & Communications Res Lab 自律移動ロボット

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1282773A (en) * 1918-04-11 1918-10-29 Ezra Dixon Guide-eye for spinning or roving machines.
US3162814A (en) * 1960-02-12 1964-12-22 Marvin D Aasen Frequency base agc
JPH087620B2 (ja) * 1987-05-08 1996-01-29 株式会社豊田自動織機製作所 走行コ−ス作成装置
JP2730958B2 (ja) * 1989-03-03 1998-03-25 三洋電機株式会社 作業車
US5006988A (en) * 1989-04-28 1991-04-09 University Of Michigan Obstacle-avoiding navigation system
US5956250A (en) * 1990-02-05 1999-09-21 Caterpillar Inc. Apparatus and method for autonomous vehicle navigation using absolute data
US5170352A (en) * 1990-05-07 1992-12-08 Fmc Corporation Multi-purpose autonomous vehicle with path plotting
US5321614A (en) * 1991-06-06 1994-06-14 Ashworth Guy T D Navigational control apparatus and method for autonomus vehicles
EP0546633A2 (en) * 1991-12-11 1993-06-16 Koninklijke Philips Electronics N.V. Path planning in an uncertain environment
KR0161031B1 (ko) * 1993-09-09 1998-12-15 김광호 로보트의 위치오차보정장치
JP2761454B2 (ja) * 1993-12-09 1998-06-04 インターナショナル・ビジネス・マシーンズ・コーポレイション 自律移動機械の誘導方法
DE4408982C1 (de) * 1994-03-16 1995-05-18 Deutsche Forsch Luft Raumfahrt Autonomes Navigationssystem für einen mobilen Roboter oder Manipulator
SE502834C2 (sv) * 1994-03-29 1996-01-29 Electrolux Ab Förfarande och anordning för avkänning av hinder vid självgående anordning
JP3608259B2 (ja) * 1995-07-20 2005-01-05 マツダ株式会社 自動車の進行路推定装置
JPH09185412A (ja) * 1995-12-28 1997-07-15 Yaskawa Electric Corp 自律移動装置
US6064926A (en) * 1997-12-08 2000-05-16 Caterpillar Inc. Method and apparatus for determining an alternate path in response to detection of an obstacle
US6055042A (en) * 1997-12-16 2000-04-25 Caterpillar Inc. Method and apparatus for detecting obstacles using multiple sensors for range selective detection
US6173215B1 (en) * 1997-12-19 2001-01-09 Caterpillar Inc. Method for determining a desired response to detection of an obstacle
JPH11296229A (ja) * 1998-02-13 1999-10-29 Komatsu Ltd 車両の誘導装置
DE19821306C2 (de) * 1998-05-13 2000-12-14 Gmd Gmbh Autonom navigierendes System mit Hinderniserkennung
JP2000202792A (ja) * 1999-01-14 2000-07-25 Sharp Corp 掃除ロボット
JP4674043B2 (ja) * 2001-08-03 2011-04-20 シーメンス アクチエンゲゼルシヤフト 予め決められた経路に従って移動する、プログラミングされたコンピュータを備えた自律型の移動ユニットの制御方法およびプログラミング装置
JP3865121B2 (ja) * 2001-10-31 2007-01-10 株式会社小松製作所 車両の障害物検出装置
SE526913C2 (sv) * 2003-01-02 2005-11-15 Arnex Navigation Systems Ab Förfarande i form av intelligenta funktioner för fordon och automatiska lastmaskiner gällande kartläggning av terräng och materialvolymer, hinderdetektering och styrning av fordon och arbetsredskap
JP2004213517A (ja) * 2003-01-08 2004-07-29 Pioneer Electronic Corp 移動制御装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP4042108B2 (ja) * 2003-02-19 2008-02-06 ソニー株式会社 ロボット装置及びその制御方法
JP4580226B2 (ja) * 2004-12-14 2010-11-10 本田技研工業株式会社 ロボット制御システム
JP2006277121A (ja) * 2005-03-28 2006-10-12 Toshiba Corp 移動経路作成装置、移動ロボット、移動経路作成方法および移動経路作成プログラム
JP4261529B2 (ja) * 2005-08-31 2009-04-30 株式会社東芝 ホームロボットにおける処理方法及びホームロボット
JP4594857B2 (ja) * 2005-12-12 2010-12-08 本田技研工業株式会社 受付システム
JP4751192B2 (ja) * 2005-12-12 2011-08-17 本田技研工業株式会社 移動ロボット
DE202007008557U1 (de) * 2007-06-19 2008-10-30 Liebherr-Werk Bischofshofen Ges.M.B.H. System zum automatischen Bewegen von Material

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03162814A (ja) * 1989-08-09 1991-07-12 Tokyo Cosmos Electric Co Ltd 掃除機
JP2001129787A (ja) * 1999-11-02 2001-05-15 Atr Media Integration & Communications Res Lab 自律移動ロボット

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015035139A (ja) * 2013-08-09 2015-02-19 トヨタ自動車株式会社 自律移動体、障害物判別方法及び障害物回避方法
JP2018136844A (ja) * 2017-02-23 2018-08-30 株式会社ダイフク 物品搬送車
JP2018158625A (ja) * 2017-03-22 2018-10-11 株式会社日本総合研究所 人に走行する車両が近接したことを通知する車両近接通知システムにおける管理サーバ、車両近接通知方法及びプログラム
JP2019179398A (ja) * 2018-03-30 2019-10-17 トヨタ自動車株式会社 経路計画装置、経路計画方法及びプログラム
JP7063066B2 (ja) 2018-03-30 2022-05-09 トヨタ自動車株式会社 経路計画装置、経路計画方法及びプログラム
CN109445438B (zh) * 2018-12-05 2022-03-04 英华达(上海)科技有限公司 基于地图分享的巡航装置的巡航控制方法及系统
CN109445438A (zh) * 2018-12-05 2019-03-08 英华达(上海)科技有限公司 基于地图分享的巡航装置的巡航控制方法及系统
KR20200078956A (ko) * 2018-12-24 2020-07-02 한국과학기술연구원 효율적인 장애물 제거 방법
KR102166419B1 (ko) * 2018-12-24 2020-10-15 한국과학기술연구원 효율적인 장애물 제거 방법
JP2020151070A (ja) * 2019-03-19 2020-09-24 パナソニック株式会社 ロボット及びロボットの制御方法
CN111736585A (zh) * 2019-03-19 2020-10-02 松下知识产权经营株式会社 机器人以及机器人的控制方法
JP7273566B2 (ja) 2019-03-19 2023-05-15 パナソニックホールディングス株式会社 ロボット、ロボットの制御方法及びプログラム
US11969876B2 (en) 2019-03-19 2024-04-30 Panasonic Intellectual Property Management Co., Ltd. Robot and control method of robot
CN113959454A (zh) * 2020-07-01 2022-01-21 丰田自动车株式会社 信息处理装置、信息处理方法和信息处理系统

Also Published As

Publication number Publication date
JP5158097B2 (ja) 2013-03-06
US20110144850A1 (en) 2011-06-16
JPWO2009090807A1 (ja) 2011-05-26

Similar Documents

Publication Publication Date Title
JP5158097B2 (ja) 移動装置、移動装置の移動方法、及び移動装置の移動制御プログラム
KR102148593B1 (ko) 로봇 차량들의 국부화
Cherubini et al. Autonomous visual navigation and laser-based moving obstacle avoidance
Lingemann et al. High-speed laser localization for mobile robots
US8090193B2 (en) Mobile robot
US8924068B2 (en) Autonomous mobile body
Ess et al. Moving obstacle detection in highly dynamic scenes
US9020682B2 (en) Autonomous mobile body
US8679260B2 (en) Methods and systems for movement of an automatic cleaning device using video signal
CN110968083B (zh) 栅格地图的构建方法、避障的方法、设备及介质
US10948907B2 (en) Self-driving mobile robots using human-robot interactions
JP6881464B2 (ja) 自己位置推定方法及び自己位置推定装置
US8423225B2 (en) Methods and systems for movement of robotic device using video signal
US20200257311A1 (en) Cart having leading and following function
CN111176221A (zh) 用于向接收者的偏好环境自主递送商品的系统和方法
US20090024251A1 (en) Method and apparatus for estimating pose of mobile robot using particle filter
JP2015508202A (ja) 自己位置推定を自動的に実行する方法
JP2011138502A (ja) 区域分解を用いるエリア・カバレッジ・システムおよび方法
WO2015037222A1 (ja) 三次元物体認識装置、三次元物体認識方法、及び移動体
EP3612861A1 (en) Localization with negative mapping
JP2009205652A (ja) 移動体制御システム及び移動体制御方法
JP2017167601A (ja) 自律移動装置、自律移動方法及びプログラム
JP2009176031A (ja) 自律移動体,自律移動体制御システムおよび自律移動体の自己位置推定方法
WO2021090566A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Luo et al. Autonomous mobile robot navigation and localization based on floor plan map information and sensory fusion approach

Legal Events

Date Code Title Description
DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08870713

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12812773

Country of ref document: US

Ref document number: 2009549964

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08870713

Country of ref document: EP

Kind code of ref document: A1