WO2014068975A1 - 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置 - Google Patents

自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置 Download PDF

Info

Publication number
WO2014068975A1
WO2014068975A1 PCT/JP2013/006431 JP2013006431W WO2014068975A1 WO 2014068975 A1 WO2014068975 A1 WO 2014068975A1 JP 2013006431 W JP2013006431 W JP 2013006431W WO 2014068975 A1 WO2014068975 A1 WO 2014068975A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
autonomous
gaze
person
travel
Prior art date
Application number
PCT/JP2013/006431
Other languages
English (en)
French (fr)
Inventor
谷川 徹
小澤 順
山上 勝義
栄一 内藤
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2014520435A priority Critical patent/JP5597322B1/ja
Priority to CN201380053609.9A priority patent/CN104718507B/zh
Publication of WO2014068975A1 publication Critical patent/WO2014068975A1/ja
Priority to US14/702,094 priority patent/US9235216B2/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Definitions

  • the present invention relates to an autonomous traveling device traveling information generating device, an autonomous traveling device, an autonomous traveling device traveling information generating method, an autonomous traveling device capable of performing a route plan based on a result of identifying a person's type in a space where people come and go.
  • the present invention relates to a travel information generation program for a travel device.
  • the type of person such as whether the person is a walking person or a wheelchair person, is not discriminated.
  • the autonomous traveling device could not be traveled in consideration of the position characteristics.
  • an object of the present invention is to perform a travel control of the autonomous traveling device on the basis of the gaze characteristic according to the type of the traveler so that the autonomous traveling device travels more safely.
  • a travel information generating device for an autonomous traveling device an autonomous traveling device, a traveling information generating method for an autonomous traveling device, and a traveling information generating program for an autonomous traveling device that can more reliably recognize the presence.
  • a position acquisition unit that acquires the position of a moving person in a building in association with a predetermined time or time; and A mover identification unit for identifying the type of the mover acquired from the position acquisition unit;
  • a location history database that records the location and type of the mover in time series;
  • a movement information calculation unit that calculates the movement direction and movement speed of the mover from information in the position history database;
  • An autonomous traveling device database that records traveling information for traveling from the first position to the second position by the autonomous traveling device traveling in the building according to a predetermined route; Based on the position of the moving person acquired from the position acquiring unit, the moving direction and moving speed of the moving person calculated by the movement information calculating unit, and the traveling information recorded in the autonomous traveling device database, the autonomous An approach time calculating unit that calculates an approach time at which the traveling device and the moving person approach within a predetermined distance;
  • An environmental database that records the position of a stationary object present in the building, along with information of a mobile person who tends to gaze at
  • the traveling person it is possible to cause the traveling person to recognize the existence of the autonomous traveling device more surely, and to obtain traveling information that can appropriately travel the autonomous traveling device according to the type of the traveling person. It can be generated by a travel information generating device.
  • FIG. 1 is an explanatory diagram showing the difference in the position of a gazing point between a normal pedestrian and a wheelchair user
  • FIG. 2 is an explanatory diagram showing a difference in gaze area between a wheelchair user and a normal pedestrian
  • FIG. 3 is an explanatory view showing a change of the travel route of the autonomous traveling device according to the first embodiment
  • FIG. 4A is a block diagram illustrating a functional configuration of a travel information generation device of the autonomous travel device according to the first embodiment
  • FIG. 4B is a block diagram showing a functional configuration of the observation device of the travel information generation device of the autonomous mobile device according to the first embodiment
  • FIG. 5 is an environment diagram in which the autonomous traveling device according to the first embodiment exists.
  • FIG. 6 is a diagram illustrating an example of information recorded in a tag.
  • FIG. 7 is a diagram illustrating an example of a position history database.
  • FIG. 8A is a diagram showing an example of obstacle information in the environmental database according to the first embodiment;
  • FIG. 8B is a diagram showing an example of gaze position information 1 in the environmental database according to the first embodiment;
  • FIG. 8C is a diagram showing an example of gaze position information 2 in the environment database according to the first embodiment;
  • FIG. 8D is a diagram showing an example of gaze position information 3 in the environment database according to the first embodiment
  • FIG. 8E is a diagram showing an example of gaze position information 4 in the environmental database according to the first embodiment
  • FIG. 9A is a diagram showing an example of shape information of the autonomous mobile device database
  • FIG. 9B is a diagram showing an example of tag position information in the autonomous mobile device database
  • FIG. 9C is a diagram showing an example of speed information in the autonomous mobile device database
  • FIG. 9D is a diagram showing an example of movement route information in the autonomous mobile device database
  • FIG. 10A is an explanatory diagram illustrating an example of a gaze position of a wheelchair user
  • FIG. 10B is an explanatory diagram illustrating another example of a gaze position of a wheelchair user
  • FIG. 11 is an explanatory diagram illustrating an example of a gaze area of a wheelchair user according to the second embodiment.
  • FIG. 12 is a diagram illustrating an example of a gaze area including a time axis of a wheelchair user;
  • FIG. 13A is a diagram before creating a configuration showing an example of a configuration space;
  • FIG. 13B is a diagram after creating a configuration showing an example of a configuration space;
  • FIG. 14 is a flowchart showing a rough flow of travel information generation in the travel information generation apparatus according to the first embodiment;
  • FIG. 15 is a flowchart showing overall processing of the travel information generation device according to the first embodiment.
  • FIG. 16 is a diagram illustrating an example of a configuration space including a time axis;
  • FIG. 16 is a diagram illustrating an example of a configuration space including a time axis;
  • FIG. 17A is a diagram showing generation of a travel route by the Dijkstra method
  • FIG. 17B is a diagram showing generation of a travel route by the Dijkstra method
  • FIG. 17C is a diagram showing generation of a travel route by the Dijkstra method
  • FIG. 17D is a diagram showing generation of a travel route by the Dijkstra method
  • FIG. 17E is a diagram showing generation of a travel route by the Dijkstra method
  • FIG. 17F is a diagram showing generation of a travel route by the Dijkstra method
  • FIG. 18A is a diagram illustrating a gaze area in an example in which a route is generated using the A * algorithm in the route generation unit;
  • FIG. 18A is a diagram illustrating a gaze area in an example in which a route is generated using the A * algorithm in the route generation unit;
  • FIG. 18A is a diagram illustrating a gaze area in an example in which a route is generated using the A * algorithm in the route generation unit;
  • FIG. 18A is
  • FIG. 18B is a diagram showing the shortest path generated in an example in which a path is generated using the A * algorithm in the path generation unit
  • FIG. 18C is a diagram for explaining weighting in consideration of the danger when the autonomous mobile device enters the gaze area in the example in which the route generation unit uses the A * algorithm in the route generation unit
  • FIG. 18D is a diagram showing a route taking into account a risk in an example of generating a route using the A * algorithm in the route generation unit
  • FIG. 19 is an explanatory diagram showing characteristics of a gaze area of a wheelchair user.
  • FIG. 20 is a block diagram illustrating a functional configuration of a travel information generation device of the autonomous travel device according to the second embodiment.
  • FIG. 20 is a block diagram illustrating a functional configuration of a travel information generation device of the autonomous travel device according to the second embodiment.
  • FIG. 21 is a diagram illustrating an example of a patient information storage unit in the second embodiment.
  • FIG. 22A is a diagram showing an example of an environment database according to the second embodiment;
  • FIG. 22B is an explanatory diagram of an example of an environment database according to the second embodiment.
  • FIG. 23 is an explanatory diagram showing characteristics of a gaze area of a wheelchair user according to the second embodiment.
  • FIG. 24 is a block diagram showing a functional configuration of a travel information generating device of the autonomous mobile device according to the third embodiment.
  • FIG. 25 is a diagram illustrating an example of a patient information storage unit in the third embodiment;
  • FIG. 26 is an explanatory diagram illustrating an example of a change in the travel route of the autonomous traveling device according to the size of the gaze area in the third embodiment.
  • FIG. 27 is a block diagram illustrating a functional configuration of a travel information generation device of the autonomous mobile device according to the modification of the first embodiment.
  • FIG. 1 shows a difference diagram of gaze positions between wheelchair users and normal pedestrians described in the paper.
  • the normal pedestrian shown in (b) on the lower side of FIG. 1 confirms the surrounding situation uniformly throughout.
  • the wheelchair user shown to (a) of the upper side of FIG. 1 understands that there are many ratios which pay attention to confirmation of the advancing direction and a road surface.
  • Fig. 2 shows the difference in the area of gait between normal pedestrians and wheelchair users when there are obstacles such as chairs or lockers in hallways in buildings such as hospitals.
  • the area to be watched is the entire hallway.
  • the wheelchair user 13 watches the obstacle 12 instead of the entire hallway. Therefore, the wheelchair user 13 is more susceptible to the area to be watched than the normal pedestrian 10 with respect to the obstacle 12 at the end of the hallway 11.
  • the wheelchair user 13 may not be aware of the autonomous mobile device 14 for reasons such as watching the obstacle 12 in the hallway 11.
  • the traveling route of the autonomous traveling device 14 is set so as to be close to the area where the wheelchair user 13 is gazing, thereby using the wheelchair.
  • the person 13 can be made aware of the existence of the autonomous mobile device 14.
  • FIG. 3 when the wheelchair user 13 is moving in the hallway 11, there are a case where the obstacle 12 is not present in the hallway 11 and a case where the obstacle 12 is present, and a route of each autonomous traveling device 14.
  • the autonomous traveling device 14 travels in the direction of the area watched by the wheelchair user 13, so that the wheelchair user 13 has the autonomous traveling device 14. Can be noticed.
  • the position acquisition unit that acquires the position of the moving person in the building in association with each predetermined time or time;
  • a mover identification unit for identifying the type of the mover acquired from the position acquisition unit;
  • a location history database that records in time series the location and type of the mobile acquired by the location acquisition unit and the mobile identification unit;
  • a movement information calculation unit that calculates the movement direction and movement speed of the mover from information in the position history database;
  • An autonomous traveling device database that records traveling information for traveling from the first position to the second position by the autonomous traveling device traveling in the building according to a predetermined route;
  • the autonomous An approach time calculating unit that calculates an approach time at which the traveling device and the moving person approach within a predetermined distance;
  • An environmental database that records the position of a stationary object present in the building, along with information of a mobile person who tends to gaze
  • the traveling information can be used to make it possible for the mobile person to recognize the existence of the autonomous mobile device more reliably and to make the autonomous mobile device run appropriately according to the type of the mobile user. It can produce
  • a position acquisition unit that acquires a position of a traveler by a wheelchair in a building in association with a predetermined time or time;
  • a location history database that records the location of the mobile person acquired from the location acquisition unit in time series;
  • a movement information calculation unit that calculates the movement direction and movement speed of the mover from information in the position history database;
  • An autonomous traveling device database that records traveling information for traveling from the first position to the second position by the autonomous traveling device traveling in the building according to a predetermined route; Based on the position of the moving person acquired from the position acquiring unit, the moving direction and moving speed of the moving person calculated by the movement information calculating unit, and the traveling information recorded in the autonomous traveling device database, the autonomous An approach time calculating unit that calculates an approach time at which
  • the aspect it is possible to make a mobile person (for example, a wheelchair user) more surely recognize the existence of the autonomous mobile device, and to make the autonomous mobile device run appropriately even when the mobile user is present.
  • the travel information can be generated by the travel information generation device. Therefore, according to such a configuration, when the mobile person facing the autonomous traveling device is a wheelchair user, the autonomous traveling device is placed in an area where the obstacle at the feet where the wheelchair user is gazing at a high rate is watched. By running, it is possible to generate a route that allows the wheelchair user to more reliably recognize the presence of the autonomous running device.
  • the gaze position acquisition unit is based on the position of the moving person, the moving direction and moving speed of the moving person, and the position of the obstacle. Get the position, The gaze area calculation unit calculates the gaze area of the mobile person based on the position of the mobile person, the moving direction and speed of the mobile person, and the gaze position.
  • a travel information generation device for an autonomous travel device is provided.
  • the current time (the time at which the position information of the moving body is obtained by the position acquisition unit used by the gaze position acquisition unit to acquire the gaze position of the mobile person) after the current time is viewed from the mobile person.
  • the relative gaze position can be predicted. Therefore, according to such a configuration, the autonomous traveling device has a margin with respect to the moving person by moving the autonomous traveling device in advance in an area that will be the gaze position of the moving person in the future. A route capable of recognizing the presence of the autonomous mobile device can be generated.
  • the gaze area calculation unit generates travel information of the autonomous traveling device according to the second aspect, in which the gaze area is calculated with reference to the height of the moving person. Providing equipment.
  • the above aspect it is possible to predict the relative gaze position viewed from the mobile person more accurately by considering the height of the mobile person (for example, a wheelchair user). Therefore, according to such a configuration, it is possible to generate a route that allows the moving person to recognize the existence of the autonomous mobile device more reliably.
  • the height of the mobile person is based on any of height information, age information, or sitting height information recorded in an ID tag possessed by the mobile person.
  • An estimated travel information generation device for an autonomous travel device according to the fourth aspect is provided.
  • the relative gaze position viewed from the moving person can be predicted more accurately by setting the height of the moving person for each moving person. Therefore, according to such a configuration, it is possible to generate a route that allows the moving person to recognize the existence of the autonomous mobile device more reliably.
  • the travel information generation unit is based on the positional relationship between the autonomous traveling device and the mobile person, and / or the positional relationship between the autonomous traveling device and the obstacle. Any one of the first to fifth aspects generates traveling information for causing the autonomous traveling device to travel into the gaze area calculated by the gaze area calculation unit before a predetermined time from the approach time calculated by the approach time calculation unit.
  • a travel information generation device for an autonomous travel device according to one aspect.
  • the moving state of the mobile person and the position information of the stationary obstacle in other words, the positional relationship between the autonomous mobile device and the mobile user (for example, a wheelchair user), and the autonomous mobile device and the obstacle
  • the autonomous mobile device is immediately watched by the mobile user in order to ensure the safety of the mobile user.
  • the moving person is careful (for example, by reducing the traveling speed) to ensure the safety of the autonomous traveling device. Can be directed to the gaze area.
  • the vehicle while giving priority to the safety of the mobile person, the moving state of the mobile person and the position information of the stationary obstacle (the positional relationship between the autonomous mobile device, the mobile person, and the obstacle)
  • the position information of the stationary obstacle the positional relationship between the autonomous mobile device, the mobile person, and the obstacle
  • the vehicle is not sufficiently separated, for example, immediately after the autonomous traveling device (for example, after about 1 to several seconds considering the travel error of the autonomous traveling device, the time for the mobile person to notice the autonomous traveling device, etc.) If it is not directed to the gaze area, it means a situation in which the autonomous mobile device cannot enter the gaze area within the predetermined time.
  • the traveling information generated by the traveling information generating unit is recorded in the autonomous traveling device database, and the autonomous traveling device according to any one of the first to sixth aspects.
  • a travel information generating apparatus is provided.
  • the patient when the building is a hospital and the mobile person is a patient, the patient has an identifier for identifying the patient in the hospital, A patient information storage unit that stores information on clinical departments that the patient in the hospital consults for the identifier; In the environmental database, posting information related to the clinical departments stored in the patient information storage unit, and information related to the posting position of the posting information in the hospital are stored,
  • the position acquisition unit detects information of the identifier held by the mobile person, The mobile person based on the information of the patient's department corresponding to the identifier detected by the position acquisition unit and the posting position in the hospital of the posting information stored in the environmental database for the department Further comprising a patient confirmation space identifying unit for identifying the posting position of information to be confirmed,
  • the gaze area calculation unit calculates a gaze area that the mobile person gazes using the posting position of the information specified by the patient confirmation space specifying unit,
  • a travel information generating device for an autonomous travel device is provided.
  • the bulletin information relevant to the wheelchair user (that is, the tendency to gaze) is acquired based on the information of the medical department corresponding to the identifier held by the mobile user, for example, the wheelchair user. can do. Therefore, according to such a configuration, the autonomous traveling device can enter the gaze area within the predetermined time by increasing the area considered as the gaze area of the wheelchair user. Paths that can increase the possibility can be generated.
  • the identifier is an identifier that identifies a department that the mobile person visits
  • the environmental database information related to the posting position in the passage of the mobile person in the hospital of the posting information for the medical department is accumulated
  • the gaze area calculation unit the gaze area of the mobile person is enlarged based on information on the spatial position of the posting information confirmed by the mobile person.
  • the gaze area of the wheelchair user can be corrected by the gaze area calculation unit, and the gaze area of the wheelchair user can be created more accurately. Therefore, it is possible to generate a route that allows the wheelchair user to more reliably notice the presence of the autonomous traveling device by traveling the autonomous traveling device more reliably in the direction of the gaze area of the wheelchair user.
  • the gaze area calculation unit when there are a plurality of gaze positions, a line segment connecting a plurality of gaze positions or an area is set as the gaze position.
  • a travel information generating device for an autonomous travel device according to any one of the first to ninth aspects is provided.
  • the moving person when there are a plurality of gaze positions, the moving person can include the gaze positions between the gaze positions in consideration of the high possibility that the gaze position moves between the gaze positions. Therefore, according to such a structure, a gaze area
  • the patient when the building is a hospital and the mobile person is a patient, the patient has an identifier for identifying the patient in the hospital, A patient information storage unit that stores information on wheelchairs used by the patient in the hospital for the identifier; Detecting the information of the identifier held by the mobile by the location acquisition unit; From the information about the patient's wheelchair corresponding to the identifier detected by the position acquisition unit, further comprising an avoidance distance specifying unit that specifies an avoidance distance for the obstacle of the mobile person, The travel information generation unit generates the travel information based on the gaze area calculated by the gaze area calculation unit and the avoidance distance specified by the avoidance distance specification unit.
  • a travel information generating device for an autonomous travel device according to any one of the first to seventh aspects is provided.
  • the identifier of the wheelchair is specified based on the movement history of the wheelchair user by the wheelchair or the tag information attached to the wheelchair by the identifier, and the distance that can be easily avoided is specified. it can. Therefore, a more appropriate avoidance route of the autonomous traveling device can be generated by the route generation unit based on the wheelchair user's wheelchair characteristic information. As a result, it is possible to generate a route that allows the wheelchair user to more reliably notice the presence of the autonomous traveling device by traveling more reliably in the direction of the gaze area of the wheelchair user.
  • the movement history by a wheelchair is used in order to estimate the avoidance characteristic of a wheelchair, and does not estimate the familiarity of a wheelchair user.
  • the avoidance distance in the avoidance distance specifying unit becomes shorter as the period during which the patient uses the wheelchair is longer.
  • a travel information generation device for an autonomous travel device according to an eleventh aspect is provided.
  • the wheelchair user can easily avoid an obstacle by estimating the degree of familiarity of the wheelchair user with respect to the wheelchair based on the wheelchair user usage period of the wheelchair user as an example of the mobile person. It is possible to specify the avoidance distance required to do this. Therefore, the route generation unit can generate a more appropriate avoidance route for the autonomous traveling device based on the degree of familiarity of the wheelchair user with the wheelchair. As a result, it is possible to generate a route that allows the wheelchair user to more reliably notice the presence of the autonomous traveling device by traveling more reliably in the direction of the gaze area of the wheelchair user.
  • the position and type of the mobile person obtained by identifying the type of the mobile person and acquiring the position of the mobile person in the building in association with each predetermined time or time.
  • a movement information calculation unit for calculating the movement direction and movement speed of the mobile person from information in the position history database recorded in time series;
  • An autonomous traveling device that travels according to a predetermined route in the building, the position of the moving person acquired from the position acquiring unit, the moving direction and moving speed of the moving person calculated from the movement information calculating unit, The autonomous traveling device and the moving person approach within a predetermined distance from the traveling information recorded in the autonomous traveling device database that records traveling information for traveling from the first position to the second position.
  • An approach time calculation unit for calculating an approach time The location and type of the mobile person, the moving direction of the mobile person, and the position of a stationary object present in the building were acquired from an environmental database recorded together with information on the mobile person who tends to watch the stationary object.
  • a gaze position acquisition unit that acquires the gaze position of the mobile person based on the position of the stationary object;
  • a gaze area calculation unit that calculates the gaze area of the mobile person based on the position and type of the mobile person, the movement direction of the mobile person, and the gaze position; Based on the position of the stationary object, the approach time, and the gaze area, the gaze area calculated by the gaze area calculation unit a predetermined time before the approach time calculated by the approach time calculation unit
  • a travel information generating unit for generating travel information for causing the autonomous mobile device to travel in,
  • a travel information generation device for an autonomous travel device is provided.
  • the traveling information can be used to make it possible for the mobile person to recognize the existence of the autonomous mobile device more reliably and to make the autonomous mobile device run appropriately according to the type of the mobile user. It can produce
  • in the position history database that records the position of the mover obtained by associating the position of the mover by the wheelchair in the building with a predetermined time or time in time series.
  • a movement information calculation unit that calculates the movement direction and movement speed of the mobile person from information, Traveling for the autonomous traveling device that travels in the building according to a predetermined route to travel from the first position to the second position, the position of the traveling person, the traveling direction and traveling speed of the traveling person
  • An approach time calculation unit that calculates an approach time when the autonomous traveling device and the moving person approach within a predetermined distance from the traveling information recorded in the autonomous traveling device database that records information; Based on the position of the moving person, the moving direction of the moving person, and the position of the obstacle recorded in the obstacle database that records the position of the obstacle in the building, the gaze position of the moving person is determined.
  • a mobile person for example, a wheelchair user can be made to recognize the existence of the autonomous mobile device more reliably, and even when a wheelchair user exists.
  • the travel information generating device can generate travel information that allows the autonomous travel device to travel appropriately. Therefore, according to such a configuration, when the person facing the autonomous traveling device is a wheelchair user, the autonomous traveling device travels within the region where the wheelchair user is gazing at an obstacle at a high foot rate. By doing so, it is possible to generate a route that allows the wheelchair user to more reliably recognize the presence of the autonomous mobile device.
  • the traveling information generating device for the autonomous traveling device according to any one of the first to thirteenth aspects;
  • a travel information acquisition unit that acquires the travel information recorded in the autonomous mobile device database;
  • a drive control unit that controls the travel based on the travel information acquired from the travel information acquisition unit;
  • An autonomous traveling device is provided.
  • a mobile person for example, a wheelchair user can be made to recognize the existence of the autonomous traveling device more reliably, and even when the wheelchair user exists, the autonomous traveling device can be appropriately traveled. Therefore, according to such a configuration, when the person facing the autonomous traveling device is a wheelchair user, the autonomous traveling device travels within the region where the wheelchair user is gazing at an obstacle at a high foot rate. By doing so, it is possible to make the wheelchair user more surely recognize the existence of the autonomous traveling device.
  • the position acquisition unit acquires the position of the moving person in the building in association with every predetermined time or time, Identify the type of the mover acquired from the position acquisition unit with a mover identification unit, Record the location and type of the mover acquired by the location acquisition unit and the mover identification unit, respectively, in a location history database in time series
  • the movement information calculation unit calculates the movement direction and movement speed of the mover from the information in the position history database
  • the autonomous traveling device traveling in the building according to a predetermined route records traveling information for traveling from the first position to the second position in the autonomous traveling device database, Based on the position of the moving person acquired from the position acquiring unit, the moving direction and moving speed of the moving person calculated by the movement information calculating unit, and the traveling information recorded in the autonomous traveling device database, the autonomous
  • the approach time calculation unit calculates an approach time when the traveling device and the moving person approach within a predetermined distance, The position of a stationary object present in the building is recorded in an environmental database together with information on a mobile person who tend
  • the traveling information can be used to make it possible for the mobile person to recognize the existence of the autonomous mobile device more reliably and to make the autonomous mobile device run appropriately according to the type of the mobile user. It can produce
  • the position acquisition unit associates the position of the traveler by the wheelchair in the building with each predetermined time or time, Record the location of the mover acquired from the location acquisition unit in a location history database in time series, The movement information calculation unit calculates the movement direction and movement speed of the mover from the information in the position history database, Recorded in An autonomous traveling device that travels according to a predetermined route in the building, the position of the moving person acquired from the position acquiring unit, the moving direction and moving speed of the moving person calculated from the movement information calculating unit, From the travel information recorded in the autonomous travel device database that records travel information for traveling from the position 1 to the second position, the autonomous travel device and the moving person approach within a predetermined distance.
  • the approach time is calculated by the approach time calculator, Based on the position of the moving person, the moving direction of the moving person, and the position of the obstacle in the obstacle database recording the position of the obstacle in the building, the gaze position of the moving person Acquired by the acquisition department, Based on the position of the mobile person, the moving direction of the mobile person, and the gaze position, the gaze area of the mobile person is calculated by a gaze area calculation unit, Based on the position of the obstacle, the approach time, and the gaze area, the gaze area calculated by the gaze area calculation unit a predetermined time before the approach time calculated by the approach time calculation unit
  • the travel information generating unit generates travel information for traveling the autonomous traveling device in, Provided is a traveling information generation method for an autonomous traveling device.
  • a mobile person for example, a wheelchair user
  • the travel information can be generated by the travel information generation device. Therefore, according to such a configuration, when the person facing the autonomous traveling device is a wheelchair user, the autonomous traveling device travels within the region where the wheelchair user is gazing at an obstacle at a high foot rate. By doing so, it is possible to make the wheelchair user more surely recognize the existence of the autonomous traveling device.
  • a travel information generating program for causing a computer to execute the travel information generating method according to the fifteenth aspect.
  • a travel information generation program for causing a computer to execute the travel information generation method according to another aspect after the fifteenth aspect.
  • a mobile person for example, a wheelchair user can be made to recognize the existence of the autonomous mobile device more reliably, and there is a wheelchair user.
  • the travel information generating device can generate travel information that can travel appropriately on the autonomous travel device. Therefore, according to such a configuration, when the person facing the autonomous traveling device is a wheelchair user, the autonomous traveling device travels within the region where the wheelchair user is gazing at an obstacle at a high foot rate. By doing so, it is possible to make the wheelchair user more surely recognize the existence of the autonomous traveling device.
  • FIG. 4A shows a functional configuration of the travel information generation device 100 mounted on the autonomous travel device 204 in the first embodiment.
  • the travel information generation device 100 of the autonomous traveling device 204 includes an observation device 101, a position history database 102, an autonomous traveling device database 103, an environment database 104, a moving direction calculation unit 106, and an approach. It includes at least a time calculation unit 107, a gaze position acquisition unit 108, a gaze area calculation unit 109, and a route generation unit 110.
  • the travel information generation device 100 of the autonomous travel device 204 can further include an observation information processing unit 105, a speed command value conversion unit 111, and a wheel control unit 112.
  • the autonomous mobile device 204 for example, a robot moving with two wheels 115 as shown in FIG. 26 is exemplified.
  • the observation apparatus 101 is an example of a position acquisition unit.
  • the observation apparatus 101 performs observation of a moving body existing within the observation range (specifically, acquires the position of the moving body in time series (corresponding to a predetermined time or a specific time).
  • the observation range of the device 101 may be a range in which radio waves can be transmitted and received, and may be the entire building.
  • the observation apparatus 101 also functions as an example of a mover identification unit (mover type information acquisition unit) that identifies the type of the mover acquired from the position acquisition unit.
  • the position acquisition unit and the type identification information acquisition unit are shared by the observation apparatus 101.
  • a building refers to a hospital, a nursing home, a public welfare facility, a shopping mall, an airport, or the like, which is generally a building where wheelchair users frequently visit.
  • the moving body is any of the autonomous traveling device 204 and a moving person (specifically, a normal pedestrian or a vehicle operator (such as a wheelchair user 203)).
  • the moving person includes a vehicle operator who operates a vehicle (wheelbarrow, wheelchair or electric four-wheeled vehicle) and a pedestrian (normal pedestrian).
  • the vehicle operator includes a wheelchair user, a moving person pushing a vehicle (cart) such as a stroller, an elderly person riding an electric four-wheeled vehicle for the elderly, and a shopping cart in a shopping mall.
  • the type of the moving person in this specification means at least a distinction between being a normal pedestrian or a vehicle operator.
  • a type of the moving person whether the vehicle operator is a wheelchair user 203, a moving person pushing a vehicle (handcart) such as a stroller, or the elderly You may classify whether you are an elderly person riding an electric four-wheeled vehicle or a person who is pushing a vehicle (cart) such as a shopping cart at a shopping mall or a luggage cart at an airport.
  • the observation apparatus 101 When the observation apparatus 101 is a tag reader, the tag present in the UWB (Ultra Wide Band) tag detection range of the antenna connected to the tag reader is detected, and the tag information recorded in the tag is acquired by the tag reader. .
  • the observation apparatus 101 is an image sensor, an image is acquired by the image sensor.
  • the image recognition processing unit in the observation information processing unit 105 performs image recognition, for example, and also functions as an example of a mobile identification unit that identifies a vehicle operator and a pedestrian. . For example, while a pedestrian has a feature that is vertically elongated, a vehicle operator has a feature that it has a width in front and back and a low height, or between a person and a vehicle.
  • both may be identified by image recognition processing.
  • the observation apparatus 101 is a distance image sensor
  • a distance image is acquired by the distance image sensor.
  • the image recognition process for the acquired distance image is the same as the image recognition process described above.
  • FIG. 5 shows a passage 201 as a specific example in a hospital provided with a tag reader 202 as an example of a specific configuration of the observation apparatus 101.
  • the passage 201 is sandwiched between walls 201w and 201x on both sides.
  • antennas 202A of the tag readers 202 are arranged in a distributed manner. Detection of the tag 205A possessed by a person (moving person by wheelchair) 203 present in the passage 201 and the tag 205R possessed by the autonomous traveling device 204 are performed. Detection is performed.
  • an arbitrary tag among the tag 205A and the tag 205R existing in the passage 201 will be representatively described as the tag 205.
  • FIG. 6 shows an example of tag information recorded in the tag 205.
  • ROBOT autonomous traveling device
  • a chair 206A and a chair 206B which are examples of obstacles for the moving body, are arranged.
  • a chair 206A installed in the passage 201 and an arbitrary chair among the chairs 206B will be representatively described as the chair 206.
  • the tag is assumed to be individually possessed by a mobile person including a vehicle operator and a pedestrian.
  • the tag also includes identification information for identifying a person (at least, movement identification information for identifying the type of the movement person).
  • the type of mobile person is at least information indicating whether the user is a vehicle operator or a pedestrian.
  • the observation information processing unit 105 processes the observation information acquired by the observation apparatus 101, obtains the ID, type, and time-series position of the moving object existing within the observation range of the observation apparatus 101, and obtains the obtained information. Are stored in the position history database 102 and the autonomous mobile device database 103, respectively.
  • the mobile object to be observed by the tag reader is allowed to carry a tag that can be detected by the tag reader, and the tag has at least an ID (hereinafter referred to as an ID) uniquely assigned to the tag as tag information. It is assumed that a tag ID) and the type of the moving object are recorded. By detecting the tag, the ID and type of the moving object can be acquired (the ID of the moving object is considered as a tag ID). Further, the position of the moving body can be obtained by three-point positioning. The distance from each antenna of the tag can be obtained from the time difference until the response wave output from the tag is received with respect to the interrogation wave output from the antenna.
  • the observation device 101 can uniquely identify the position of the tag if the tag can be detected by at least three antennas.
  • the ID, type, and time-series position of the moving body obtained by the observation information processing unit 105 are recorded in the position history database 102 together with the time when the tag reader 202 detects the tag 205.
  • the image processing unit 101b of the observation apparatus 101 is extracted by the image processing unit 101b of the observation apparatus 101 from the distance image acquired by the distance image sensor 101a using a background difference method or the like.
  • the foot of the moving body estimated from the difference area may be used as the position of the moving body. If the distance image sensor 101a is installed on the ceiling and the feet of the moving body cannot be detected, the position of the center of gravity of the difference area may be set as the position of the moving body.
  • the type determination unit 101c of the observation device 101 determines whether the type of the moving body is a wheelchair user 203 or a normal pedestrian from the height and width of the difference area.
  • the autonomous traveling device 204 can be obtained.
  • the ID of the moving object it is difficult to estimate the ID (individual) of the moving object from a distance image (in the case of creating a distance image with a stereo camera, including an image with a monocular camera).
  • the ID of the moving object output in this process is an internal ID that is valid only in the autonomous mobile device 204. For example, if an internal ID (001) is assigned to the mobile body detected for the first time, the mobile body is always assigned an ID (001) while tracking the mobile body.
  • the tracking of the moving body can be realized using a technique such as an optical flow.
  • ⁇ Location history database 102> In the position history database 102, the ID, type, and position of the moving body obtained by the observation information processing unit 105 are recorded together with the time when the observation apparatus 101 performs the observation. That is, in the position history database 102, the position of the moving person acquired from the observation apparatus 101 via the observation information processing unit 105 is recorded in time series.
  • FIG. 7 shows an example of the position history database 102.
  • the autonomous mobile device 204 with the moving body ID TAG_001 exists at the coordinates (0, 150), and the wheelchair user 203 with the moving body ID TAG_002 has the coordinates (1000, 200). Exists.
  • a tag ID is used as the mobile object ID.
  • the wheelchair user 203 appears in FIG. 5 as a mobile person.
  • the mobile object of the normal pedestrian is shown.
  • the ID, type, and position are recorded in the position history database 102.
  • the environment database 104 is an example of an obstacle database.
  • the position information of stationary obstacles in the environment such as walls 201w, 201x or a chair 206 in a building which is an example of an environment in which the autonomous traveling device 204 travels, and a wheelchair in the stationary obstacle Position information that allows the user 203 to easily watch is recorded.
  • the stationary obstacle is a stationary obstacle that can be an obstacle (including a guide plate that can be an obstacle), a guide plate that cannot be an obstacle (for example, a guide plate suspended from a ceiling, a floor in a hallway). Display signs displayed on the surface).
  • FIG. 8A and 8B show an example of the environment database 104.
  • FIG. 8A the coordinates of the vertices of each obstacle are recorded as the obstacle information existing in the passage 201.
  • the obstacle notation method is not limited to this. For example, if the obstacle is a cylinder, information on the center coordinates, radius, and height may be recorded.
  • FIG. 8B information regarding a gaze position at which the wheelchair user 203 easily gazes at the obstacle and conditions regarding the gaze are recorded.
  • the gaze position acquisition unit 108 determines that the wheelchair user 203 can easily gaze at the gaze position only when all the conditions are satisfied.
  • the first condition (“condition 1”) is a condition related to the traveling direction (or direction) of the wheelchair user 203.
  • the second condition (“condition 2”) is a condition relating to the distance between the wheelchair user 203 and the obstacle.
  • the + x direction is a direction in a range of ⁇ 90 degrees to +90 degrees with respect to 0 degrees, where the x direction is a position of 0 degrees.
  • the ⁇ x direction is a position that is 180 degrees different from the + x direction. If the ⁇ x direction is a 0 degree position, the direction is in the range of ⁇ 90 degrees to +90 degrees with respect to 0 degrees.
  • the shape information of the autonomous traveling device 204 is recorded in advance, the position, the moving direction, the moving speed, the target position, the autonomous position, and the autonomous traveling device 204 exist.
  • the route information from the position where the traveling device 204 exists to the target position is recorded.
  • the position where the autonomous mobile device 204 exists is acquired by the observation device 101 or by odometry.
  • the moving speed of the autonomous traveling device 204 can be estimated by the moving direction calculation unit 106 based on the past position history of the autonomous traveling device 204, as with the wheelchair user.
  • the target position is set in the autonomous traveling device database 103 by the route generation unit 110 before the autonomous traveling device 204 is operated. Route information from the position to the target position is generated by the route generation unit 110.
  • the route information includes both speed information and acceleration information when the autonomous mobile device 204 travels along the route, and the estimated arrival time at the target position or any position on the route is approaching. It can be calculated by the time calculation unit 107.
  • the position of the autonomous mobile device 204 is updated based on observation information of the observation device 101 or observation information of a sensor mounted on the autonomous mobile device 204.
  • a method for obtaining the position of the autonomous mobile device 204 based on the observation information of the sensor mounted on the autonomous mobile device 204 for example, use of an odometry or a range sensor can be considered.
  • Odometry is a method of measuring the amount of movement of the autonomous traveling device 204 based on the rotation angle of the wheel 115 of the autonomous traveling device 204. If the initial position of the autonomous traveling device 204 is known, traveling by odometry is performed. It is possible to calculate the position of the autonomous traveling device 204 in the position acquisition unit.
  • the rotation angle of the wheel 115 is acquired by a rotary encoder attached to a motor which is an example of the wheel driving device 114.
  • a rotary encoder attached to a motor which is an example of the wheel driving device 114.
  • the position of the autonomous traveling device 204 during traveling is determined from a range sensor, a ceiling camera, or prediction based on the route information of the autonomous traveling device 204. It can be calculated.
  • the observation information processing unit 105 may calculate the position of the autonomous traveling device 204 based on the observation information of the observation device 101 without providing a position calculating unit for the autonomous traveling device. it can.
  • the observation information processing unit 105 When using the range sensor, the observation information processing unit 105 performs map matching based on the range data acquired by the range sensor and the position information of the stationary obstacle recorded in the environment database 104. Thus, the observation information processing unit 105 can obtain the position of the autonomous mobile device 204 (specifically, the position at the time when the range sensor last acquired the range data). The method for obtaining the current position of the autonomous traveling device 204 (the position at the time when the observation device 101 last observed) based on the observation information of the observation device 101 is the same as the content described in the observation information processing unit 105. Since it is equivalent, it abbreviate
  • the current position of the autonomous mobile device 204 (the position at the time when the observation device 101 last observed) may be obtained with high accuracy.
  • the moving direction and moving speed of the autonomous traveling device 204 can be obtained by the moving direction calculation unit 106 based on the history of the position of the autonomous traveling device 204. Thereafter, the current position of the autonomous traveling device 204 (the position at the time when the observation device 101 last observed), the moving direction, the moving speed, and the target position and route information are combined to obtain the “autonomous traveling”. This is referred to as the “movement state of the device 204”.
  • FIG. 9A to 9D show an example of the autonomous mobile device database 103.
  • FIG. 9A the vertical dimension, the horizontal dimension, and the height dimension are recorded as the shape information of the autonomous mobile device 204.
  • the autonomous traveling device 204 is assumed to be shape information when facing the + X direction.
  • FIG. 9B the attachment position (tag position) of the tag 205R to the autonomous mobile device 204 is recorded.
  • FIG. 9C speed information of the autonomous mobile device 204 is recorded.
  • the speed information includes information on the maximum speed, the maximum acceleration (deceleration) speed, the maximum turning speed, and the turning acceleration (deceleration) speed.
  • movement route information of the autonomous mobile device 204 is recorded.
  • the movement route information includes an initial position, one or more relay positions, and a target position.
  • the distance between the relay positions (including the relay position from the initial position and the target position from the relay position) is linearly moved.
  • the situation shown in FIG. 5 is on the way from the relay position 2 to the target position.
  • the movement direction calculation unit 106 is an example of a movement information calculation unit.
  • the moving direction calculation unit 106 at least determines the position of the wheelchair user 203 (specifically, the observation device 101 last observes) based on the position history of the moving object recorded in the position history database 102.
  • the position of the wheelchair user 203 at the time of execution), the moving direction, and the moving speed are calculated.
  • the position, the moving direction, and the moving speed of the wheelchair user 203 are collectively referred to as “the moving state of the wheelchair user 203”.
  • the position of each moving body in the previous observation of the tag reader 202 is at the time 14:23:15, and the autonomous traveling device 204 with the moving body ID TAG_001 exists at the coordinates (20, 150).
  • the wheelchair user 203 whose moving body ID is TAG — 002 exists at coordinates (980, 200), and the movement direction calculation unit 106 acquires the position (coordinates) from the position history database 102. Further, the moving direction calculation unit 106 calculates the moving direction and the moving speed of the moving body based on the position history of the moving body recorded in the position history database 102. According to FIG.
  • the autonomous mobile device 204 with the moving body ID TAG_001 is moving at a speed of 1 m / s in the + X coordinate direction.
  • the wheelchair user 203 with the body ID TAG — 002 is moving at a speed of 1 m / s in the ⁇ X coordinate direction.
  • the moving speed can be, for example, an average speed in the observation information of the used history.
  • the moving direction can be obtained by the moving direction calculation unit 106 using, for example, the least square method.
  • the number of histories is three. However, the number of histories used for calculating the moving speed and moving direction of the moving body is at least two or more. It ’s fine.
  • the approach time calculation unit 107 is based on the movement state of the autonomous traveling device 204 and the movement state of the wheelchair user 203 acquired from the movement direction calculation unit 106 with respect to the moving body whose type is the wheelchair user 203. Whether the autonomous mobile device 204 and the moving body of the wheelchair user 203 approach within a predetermined distance within a predetermined time from the current time (the time when the observation device 101 last observed). Judging. When the approach time calculation unit 107 determines that the vehicle approaches within the predetermined distance, the approach time calculation unit 107 calculates an approach time at which the distance between the autonomous mobile device 204 and the moving body becomes the predetermined distance. To do.
  • the said mobile body here wheelchair user 203 is considered as what maintains the movement state of the said wheelchair user 203 output from the moving direction calculation part 106 (it carries out a uniform linear motion).
  • the movement state of the autonomous mobile device 204 is acquired by the approach time calculation unit 107 by referring to the autonomous mobile device database 103 to obtain information on the movement state of the autonomous mobile device 204.
  • a configuration space is created by the approach time calculation unit 107, and then, autonomous traveling in a space including the time axis is performed.
  • a method is conceivable in which the approach time calculation unit 107 determines whether or not the trajectory of the device 204 is included in an area formed by the wheelchair user 203. Details regarding the configuration space will be described later.
  • the gaze position acquisition unit 108 acquires the gaze position from which the wheelchair user 203 tends to gaze from the movement direction calculation unit 106 only when the approach time is output from the approach time calculation unit 107. Based on the movement state (position, movement direction, movement speed) 203 and the position information of the stationary obstacle recorded in the environment database 104. The gaze position is predicted to have a high ratio of the wheelchair user 203 gazing within the predetermined time from the current time (the time when the tag reader 202, which is an example of a specific configuration of the observation apparatus 101, lastly observed). It is a position to be done. The gaze position acquisition unit 108 does not acquire the gaze position when the approach time is not output from the gaze approach time calculation unit 107. In addition, since the case where the wheelchair user 203 has stopped etc. can be considered as a moving state, a moving speed is not necessarily required.
  • FIG. 10 (A) to (e) in FIG. 10A show gaze positions that change with time.
  • the current time (14:23:15) shown in FIG. From the time 600) to the time 14:23:19 seconds 400 shown in FIG. 10A (c), the gaze position (coordinates) at which the wheelchair user 203 is easy to gaze is the coordinates (600, 300, 0) of the chair 206A.
  • two coordinates (350, 50, 0) of the chair 206B see (a) of FIG. 10A and (b) of FIG. 10A).
  • the gaze position of the chair 206A is only (350, 50, 0) of the chair 206B. (See (c) in FIG. 10A, (d) in FIG. 10A). Furthermore, after the time 14:23:21 seconds 900 shown in (e) of FIG. 10A, the wheelchair user 203 passes through the gaze position of the chair 206B, so there is no gaze position ((e) of FIG. 10A). reference). Further, in FIGS. 10A to 10C, the situation where the wheelchair user 203 is gazing at the gaze position 1001 of the chair 206B at the time 14:23:15 is shown in plan view, side view, and Shown in rear view. In FIG. 10B, the chair 206A and the gaze position of the chair 206A are omitted from the viewpoint of easy viewing.
  • the gaze position need not be limited to a point, and may be a line segment or a region.
  • the wheelchair user 203 is highly likely to check the gaze positions alternately.
  • the entire line segment can be regarded as the gaze position.
  • FIG. 8C shows an example in which the gaze position is a line segment
  • FIG. 8B shows an example in which the gaze position is a line segment
  • FIG. 8D shows an example in which the gaze position is a region.
  • a line segment connecting the gaze position (600, 300, 0) of the chair 206A and the gaze position (350, 50, 0) of the chair 206B is recorded as the gaze position.
  • FIG. 8D shows that, for example, a guide plate 1 for a patient who is going to see a surgeon is present in a region ⁇ coordinate (200, 300, 100) and coordinate (300, 300, 150) ⁇ . . It is assumed that the coordinates of the two points indicate two diagonal points. In addition, it is assumed that information on a department where the wheelchair user 203 receives a medical examination is recorded in the tag 205A. Further, FIG.
  • FIG. 8E shows an example of a gaze position formed by a point and a region.
  • FIG. 8E shows, for example, the gaze position (600, 300, 0) of the chair 206A and the gaze position formed by the gaze position (200, 300, 100) of the guide plate 1.
  • the gaze position is a three-dimensional area formed by connecting one point that is the gaze position of the chair 206 ⁇ / b> A and eight vertices of the guide plate 1.
  • the gaze area calculation unit 109 receives the gaze position of the mobile object whose type is the wheelchair user 203 from the gaze position acquisition unit 108, the gaze area calculation unit 109 selects the gaze area where the mobile object tends to gaze from the movement direction calculation unit 106. Calculation is performed based on the acquired movement state (position, movement direction, movement speed) of the wheelchair user 203 and the gaze position.
  • the gaze area is an area that is predicted to have a high rate of gaze by the wheelchair user 203 within a predetermined time from the current time.
  • a moving speed is not necessarily required.
  • the gaze area is a conical area having the eye position (for example, the position of the eyeball) or height of the wheelchair user 203 as the apex and the gaze position as the center of the bottom surface.
  • the general human central visual field is 20 degrees
  • the angle of the cone is 20 degrees as an example.
  • the position of the eyes of the wheelchair user 203 is set, for example, as a general human eye level (for example, the position of the eyeball) (for example, 120 cm) or the height position of the head when sitting in a wheelchair. Keep it.
  • the height of the wheelchair user 203 is recorded as the patient information in the tag 205A, and the height of the line of sight of the wheelchair user 203 is determined based on the height in the tag information detected by the tag reader 202.
  • the gaze area calculation unit 109 may estimate the gaze area.
  • the age of the wheelchair user 203 is recorded as patient information in the tag 205A, and based on the information on the age acquired by the tag reader 202, the height of the line of sight of the wheelchair user 203 is calculated as a gaze area calculation unit. It may be estimated at 109.
  • the angle of the cone of the wheelchair user 203 may be changed by the gaze area calculation unit 109 based on the age.
  • the cone angle may be 18 degrees narrower than the 20 degrees.
  • the sitting height information of the wheelchair user 203 is recorded as patient information in the tag 205A, and the gaze area calculation is performed based on the sitting height information acquired by the tag reader 202. It may be estimated by the unit 109.
  • FIG. 11A to 11C show an example of a gaze area of the wheelchair user 203 in a plan view, a side view, and a rear view.
  • FIG. 11 shows a gaze region 1101 that can be easily recognized by an object other than the chair 206B even in a situation where the wheelchair user 203 is gazing at the gaze position of the chair 206B.
  • the chair 206 ⁇ / b> A and the gaze area of the chair 206 ⁇ / b> A are omitted from the viewpoint of easy viewing.
  • FIG. 12 shows a four-dimensional (x, y, z, t) configuration space including the time axis within the predetermined time from the current time (however, the z-axis is not shown in the drawing).
  • the x, y, and z directions are coordinate axes of the three-dimensional space of the building, and t is time.
  • Reference numeral 703A represents a wheelchair user collision area 703 at time 14:23:15.
  • Reference numeral 206B_A denotes a chair 206B at the same time, and 1101A denotes a gaze area 1101 at the same time.
  • Reference numeral 703B represents a wheelchair user collision area 703 at time 14:23:18 600.
  • Reference numeral 206B_B indicates the chair 206B at the same time.
  • Reference numeral 1101B indicates a gaze area 1101 at the same time. Note that the gaze regions 1101A to 1101D indicate regions when viewed as a top view. These do not show the gaze region when the height in the z-axis direction is 0 cm, and further, since the autonomous traveling device 204 is regarded as a point 701, x, y, It is assumed that expansion is performed in the z direction.
  • the route generation unit 110 functions as an example of a travel information generation unit.
  • the position information of the obstacle from the environment database 104, the approach time from the approach time calculation unit 107, and the type from the gaze area calculation unit 109 are wheelchair users 203.
  • a part or all of the autonomous mobile device 204 When receiving a gaze area of a certain moving object, a part or all of the autonomous mobile device 204 generates route information included in the gaze area at a time earlier than the approach time.
  • the route information generated by the route generation unit 110 is an example of travel information and is recorded in the autonomous travel device database 103.
  • the route generation unit 110 maintains the movement direction calculated by the movement direction calculation unit 106 and input from the movement direction calculation unit 106, and the autonomous traveling device 204 performs constant-velocity linear motion, including the time axis.
  • a three-dimensional configuration space is created (see FIG. 12).
  • the autonomous mobile device 204 represented by a point 701 is not allowed to enter the extended region 702 (see FIG. 13B) in the four-dimensional (x, y, z, t) space of FIG. 12, and It may be considered that the gaze area 1101 is entered at least once and moved to the target position (1000, 150).
  • the autonomous mobile device 204 is considered to be a parallel moving robot. If the autonomous mobile device 204 is a robot with rotational movement, the space for route search is a five-dimensional (x, y, z, t, ⁇ ) space including the rotation axis.
  • the autonomous traveling device is included in the configuration space in the same manner as the wheelchair user 203 or the obstacle 206.
  • a standing pillar is created as a space where 204 cannot travel.
  • the Dijkstra method may be used as a specific route generation method. Details of the Dijkstra method will be described later.
  • the traveling control unit 113 includes a speed command value conversion unit 111 and a wheel control unit 112 as an example.
  • Speed command value conversion unit 111 functions as an example of a travel information acquisition unit.
  • the speed command value conversion unit 111 acquires route information (included in the speed information) recorded in the autonomous traveling device database 103, and calculates a speed command value of the autonomous traveling device 204 based on the acquired route information. To do.
  • the autonomous traveling device 204 is a robot that moves in two wheels, which direction (forward rotation or reverse rotation) each wheel 115 (see FIG. 26) is rotated at which speed by a driving device 114 such as a motor. Is calculated by the speed command value conversion unit 111.
  • the wheel control unit 112 functions as an example of a drive device control unit.
  • the wheel control unit 112 controls the driving device 114 to drive each wheel 115 of the autonomous traveling device 204 based on the rotation direction and rotation speed of each wheel calculated by the speed command value conversion unit 111. .
  • step S ⁇ b> 1 of FIG. 14 the position of the wheelchair user 203 is acquired at every predetermined time by the observation device 101 which is an example of a position acquisition unit.
  • step S ⁇ b> 2 the position of the wheelchair user 203 acquired by the observation device 101 is recorded in the position history database 102 by the observation information processing unit 105.
  • step S ⁇ b> 3 based on the information recorded in the position history database 102, the movement direction and movement speed of the wheelchair user 203 are calculated by the movement direction calculation unit 106 which is an example of a movement information calculation unit.
  • step S ⁇ b> 4 the traveling information recorded in the autonomous traveling device database 103, the position of the wheelchair user 203 recorded in the position history database 102, and the wheelchair user 203 calculated by the moving direction calculation unit 106. Based on the moving direction and moving speed, the approach time calculating unit 107 calculates the time when the autonomous traveling device 204 and the wheelchair user 203 approach within the predetermined distance.
  • step S5 the position of the wheelchair user 203 recorded in the environment database 104, which is an example of the obstacle database, the position history database 102, and the movement direction of the wheelchair user 203 calculated by the movement direction calculation unit 106. And the moving speed, the gaze position of the wheelchair user 203 is acquired by the gaze position acquisition unit 108, and the gaze area calculation unit calculates the gaze area based on the acquired gaze position, the position and movement direction of the person moving by the wheelchair. Calculated at 109.
  • step S6 the position information of the obstacle from the environment database 104, the approach time from the approach time calculation unit 107, and the gaze region of the moving body whose type is the wheelchair user 203 from the gaze region calculation unit 109
  • the route generation unit 110 Based on the above, the route generation unit 110 generates a route that is travel information for the autonomous traveling device 204 to travel in the gaze area at a time before the approaching time.
  • step S ⁇ b> 7 the travel information generated by the route generation unit 110 is recorded in the autonomous traveling device database 103 by the route generation unit 110.
  • step S ⁇ b> 8 the traveling control unit 113 controls the autonomous traveling device 204 to travel based on traveling information recorded in the autonomous traveling device database 103.
  • the above is the outline of the travel information generating operation in the travel information generating apparatus 100.
  • FIG. 15 is a flowchart showing in detail the travel information generation processing operation of the travel information generation device 100 in the first embodiment.
  • a tag reader 202 that is an example of the observation apparatus 101 is used to detect a tag 205 that exists in the passage 201 that is an example of an observation range.
  • the tag 205R possessed by the autonomous traveling device 204 and the tag 205A possessed by the wheelchair user 203 are detected.
  • Step S402> (corresponding to the previous step S1)
  • the observation apparatus 101 (specifically, the tag reader 202) determines whether or not a moving object existing within the observation range of the tag reader 202 has been detected. Since the tag reader 202 detects the tag 205R possessed by the autonomous traveling device 204 and the tag 205A possessed by the wheelchair user 203, the traveling information generation processing proceeds to step S403. If the tag reader 202 does not detect the tag 205, the travel information generation process proceeds to step S411.
  • the observation information processing unit 105 determines the ID and type of the mobile body that possesses the tag 205 from the tag information recorded in the tag 205 detected by the tag reader 202.
  • the distance between the antenna 202A and the tag 205 can be obtained from the time required for the antenna 202A to detect the tag 205, when three or more antennas 202A have detected the tag 205, three-point surveying Based on the principle, the position of the tag 205 can be calculated by the observation information processing unit 105, and in the observation information processing unit 105, the position is set as the position of the mobile object that has the tag 205.
  • Step S404> (corresponding to the previous step S2)
  • the ID, type, and position of the moving object obtained by the observation information processing unit 105 are recorded in the position history database 102 together with the time when the tag reader 202 detects the tag 205.
  • the autonomous mobile device 204 with the moving body ID TAG — 001 exists at the coordinates (0, 150) and the moving body ID is TAG — 002.
  • a wheelchair user 203 exists at the coordinates (1000, 200).
  • Step S405> (corresponding to the previous step S3)
  • the movement direction calculation unit 106 obtains the position of the moving body whose type is the wheelchair user 203 in the previous observation of the tag reader 202 based on the information from the position history database 102, and the movement direction and movement. Calculate the speed.
  • the position of each moving body in the previous observation of the tag reader 202 is at time 14:23:15, and the autonomous traveling device 204 with the moving body ID TAG_001 exists at coordinates (20, 150).
  • the wheelchair user 203 with the moving body ID TAG — 002 exists at the coordinates (980, 200), and the movement direction calculation unit 106 acquires the position (coordinates) from the position history database 102.
  • the moving direction calculation unit 106 calculates the moving direction and the moving speed of the moving body based on the position history of the moving body recorded in the position history database 102. According to FIG.
  • the autonomous mobile device 204 with the mobile object ID TAG_001 is moving at a speed of 1 m / s in the + X coordinate direction.
  • the wheelchair user 203 with TAG — 002 is moving in the ⁇ X coordinate direction at a speed of 1 m / sec.
  • the moving speed can be, for example, an average speed in the observation information of the used history.
  • the moving direction can be obtained using, for example, a least square method.
  • the number of histories is three. However, the number of histories used for calculating the moving speed and moving direction of the moving body is at least two or more. good.
  • the approach time calculation unit 107 determines the current time (the tag reader 202 last observed based on the traveling information recorded in the autonomous traveling device database 103 and the position, moving direction, and moving speed of the wheelchair user 203. It is determined whether or not the autonomous mobile device 204 and the wheelchair user 203 approach within a predetermined distance within a predetermined time from the time at which the operation is performed. When the approach time calculation unit 107 determines that the autonomous traveling device 204 and the wheelchair user 203 approach each other within a predetermined distance, the autonomous traveling device 204 and the wheelchair user 203 when the autonomous traveling device 204 approaches the predetermined distance. The approach time calculation unit 107 calculates the approach time.
  • step S406 the traveling information recorded in the autonomous traveling device database 103 is referred to.
  • the traveling information is detected when the autonomous traveling device 204 starts traveling (in other words, the wheelchair user 203 is detected).
  • the travel route from the current position to the target position is generated by the route generation unit 110 and recorded in the autonomous travel device database 103 (before the time). That is, the route is generated by the route generation unit 110 even when the wheelchair user 203 is not detected.
  • the route during which the wheelchair user 203 is not detected may be generated only once.
  • the approach time calculation unit 107 determines whether or not the vehicle approaches within a predetermined distance. For example, a configuration space is created by the approach time calculation unit 107, and then the time axis is set. A method may be considered in which the approach time calculation unit 107 determines whether or not the locus of the autonomous mobile device 204 is included in an area formed by the wheelchair user 203 in the included space.
  • the configuration space is a method of facilitating route planning by expanding the space (dimension) and regarding the autonomous mobile device 204 as a point, and is often used for robot route planning.
  • An example of the configuration space is shown in FIGS. 13A and 13B.
  • FIG. 13A shows the arrangement of the obstacle and the autonomous mobile device 204 in the passage 201 before creating the configuration space
  • FIG. 13B shows the situation after creating the configuration space.
  • the autonomous traveling device 204 is expressed as a point 701, and surrounding obstacles are expanded by the size of the autonomous traveling device 204 (expansion region 702).
  • the extended area 702 formed by the wheelchair user 203 is referred to as a wheelchair user collision area 703 (including an area where the wheelchair user 203 exists). This means that when the point 701 enters the wheelchair user collision area 703, the autonomous mobile device 204 and the wheelchair user 203 collide.
  • the autonomous traveling device 204 and the wheelchair user 203 pass close to each other, if the wheelchair user 203 does not notice the existence of the autonomous traveling device 204 and makes a sudden change of direction.
  • the autonomous mobile device 204 and the wheelchair user 203 may collide.
  • the margin distance is set in the predetermined distance and approach time calculation unit 107.
  • the predetermined distance is a distance of 50 cm from the wheelchair user 203 in each of the front-rear direction and the left-right direction.
  • the extended area formed by the wheelchair user 203 considering this predetermined distance is referred to as a wheelchair user danger area 704 (the wheelchair user danger area 704 includes a wheelchair user collision area 703).
  • the predetermined time can be set in the approach time calculation unit 107, for example, the time when the autonomous traveling device 204 arrives at the next relay position or the target position, and the like. If the next relay position is approaching, the approach time calculation unit 107 may set the next relay position or the time of arrival at the target position.
  • the time of arrival at the next target position is a predetermined time, and before the time of 14: 23: 25: 400, the autonomous mobile device 204 and the wheelchair user 203
  • the approach time calculation unit 107 determines whether or not the vehicle approaches within a predetermined distance.
  • the current time is the time when the tag reader 202 last observed, and according to the example of the position history database 102 in FIG. 7, the current time is 14:23:15.
  • a time axis t is added to FIG. 16, and a movement diagram between the point 701 of the autonomous traveling device 204 and the wheelchair user danger area 704 in the three-dimensional space of (x, y, t) is shown.
  • the extended region 702 formed by the chair 206 is omitted from the viewpoint of easy viewing.
  • the autonomous traveling device 204 and the wheelchair user 203 are When approaching within the predetermined distance, the approach time calculation unit 107 determines.
  • the traveling information generation process proceeds to step S407.
  • the traveling information generation process proceeds to step S411.
  • Non-Patent Document 2 Toshiuchi Takashi “Multiple moving obstacles moving on a plane and their speeds are considered.” The technology disclosed in “Robot Planning and Navigation”, Journal of the Robotics Society of Japan, 1994) is known.
  • Step S407> (corresponding to the previous step S4)
  • the approach time calculation unit 107 determines that the autonomous traveling device 204 and the wheelchair user 203 are approaching within the predetermined distance, the autonomous traveling device 204 and the wheelchair user 203 are not connected to the predetermined distance for the first time.
  • the approach time calculation unit 107 calculates the time approaching.
  • the approach time calculation unit 107 may obtain the locus of the point 701 of the autonomous traveling device 204 and the contact point of the wheelchair user dangerous area 704 in the three-dimensional space shown in FIG.
  • the time at which the time t is in contact at the earliest position is the time when the autonomous traveling device 204 and the wheelchair user 203 approach the predetermined distance for the first time.
  • FIG. 16 it is shown that the autonomous traveling device 204 and the wheelchair user 203 are approaching the predetermined distance for the first time at 14:23:19 950.
  • Step S408> (corresponding to the previous step S5)
  • the gaze position acquisition unit 108 outputs the approach time from the approach time calculation unit 107, the movement state (position, movement direction, movement of the wheelchair user 203 output from the movement direction calculation unit 106).
  • Speed and obstacle information recorded in the environment database 104, and obtain a gaze position that is predicted to have a high ratio of the wheelchair user 203 to gaze within the predetermined time from the current time
  • the travel information generation process proceeds to step S409.
  • an example of the environment database 104 is shown in FIGS. 8A and 8B.
  • Step S409> (corresponding to the previous step S5)
  • the gaze area calculation unit 109 based on the movement state of the wheelchair user 203 from the movement direction calculation unit 106 and the gaze position from the gaze position acquisition unit 108, within the predetermined time from the current time, A gaze area that is predicted to have a high ratio of the wheelchair user 203 to gaze is calculated.
  • the route generation unit 110 includes the position information of the obstacle from the environment database 104, the approach time from the approach time calculation unit 107, and the moving body whose type is the wheelchair user 203 from the gaze area calculation unit 109. Based on the gazing area, the route information such that at least a part of the autonomous mobile device 204 is included in the gazing area at a time earlier than the approach time and within the predetermined time, Record in the autonomous mobile device database 103.
  • the Dijkstra method is a method for solving the shortest path search problem on a weighted graph.
  • FIG. 17A to FIG. 17F show examples of shortest path search using the Dijkstra method.
  • FIG. 17A shows a weighted graph to be solved. In the graph, six nodes are arranged, and when the nodes can move between the nodes, the nodes are connected by an arc. The numerical value displayed on the arc is the weight.
  • the shortest path from the node 1 to the node 6 is determined by the path generation unit 110.
  • the path generation unit 110 searches for a node that can move from the node 1 with the minimum weight.
  • the node 3 can move with the weight 3 (FIG. 17B).
  • another node that can move from the node 1 with the minimum weight is searched.
  • the node 2 can move with the weight 4 (FIG. 17C).
  • another node that can move from the node 1 with the minimum weight is searched.
  • the node 6 can move with the weight 6 (FIG. 17D).
  • a node that can move with the minimum weight is searched from the node 3.
  • the node 5 can move with the weight 4 (FIG. 17E).
  • a node is set by the route generation unit 110.
  • the four-dimensional space is divided into meshes by the path generation unit 110 (intersections of meshes are nodes and arcs between nodes).
  • the mesh interval is determined by the route generation unit 110 based on the speed information of the autonomous traveling device 204 recorded in the autonomous traveling device database 103. For example, if the speed of the autonomous mobile device 204 is slow, the time axis interval is widened, and the x and y axis intervals are narrowed to divide the mesh.
  • the autonomous mobile device 204 must move at a speed of 200 cm / s or higher in order to move between nodes. .
  • the maximum speed of the autonomous mobile device 204 in the first embodiment is 100 cm / s, it becomes impossible to find a route solution using the Dijkstra method.
  • the node setting method is not limited to this, and for example, a Voronoi diagram or the like may be used.
  • a Voronoi diagram is a diagram composed of a part of a perpendicular bisector of a line segment connecting two adjacent points of a plurality of existing point groups, where the line segment is an arc, and the intersection of the line segments is a node. can do.
  • the route generation unit 110 performs setting of a relay position for allowing the autonomous mobile device 204 to enter the gaze area 1101.
  • the (x, y) coordinates of the relay position are provided by the route generation unit 110 at a position in the gaze area 110 away from the wheelchair user 203 in consideration of the safety of the wheelchair user 203.
  • the position in the gaze area 110 at the height of the point 701 of the autonomous traveling device 204 (in the first embodiment, as an example, 100 cm) is set.
  • the coordinates (x, y, z) set by the autonomous traveling device 204 can be reached based on the speed information of the autonomous traveling device 204 recorded in the autonomous traveling device database 103.
  • the route generation unit 110 sets the time in the gaze area 110.
  • the position of the initial node is the position (20, 150, 100) of the point 701 of the autonomous mobile device 204 at the current time.
  • the target node is set by the route generation unit 110.
  • the position of the target node is the target position (100, 150, 100).
  • the route generation unit 110 first obtains a route that moves from the initial node to the relay node by the Dijkstra method.
  • the route generation unit 110 obtains a route moving from the relay node to the target node by the Dijkstra method. Accordingly, the route generation unit 110 obtains a route that moves from the initial node to the target node, that is, a route that can move the autonomous mobile device 204 at the current time to the target position via the gaze area 1101. Can do.
  • the Dijkstra method is a method for searching for all possibilities and obtaining the shortest path, and therefore, the relay node and the target node are not limited to one each, and a plurality of relay nodes may be provided. Even in such a case, the shortest route is selected by the route generation unit 110 from among a plurality of route candidates that pass through the relay node and reach the target node.
  • the point 701 of the autonomous traveling device 204 cannot be moved in the z-axis direction. This means that movement between nodes accompanying movement in the z-axis direction cannot be performed by the Dijkstra method. That is, when the relay position or the target position is set at a z position other than the height of the point 701 of the autonomous mobile device 204, a route solution cannot be found.
  • the route generation unit 110 confirms that there is no obstacle above the autonomous mobile device 204 by referring to the obstacle information recorded in the environment database 104 by the route generation unit 110.
  • the route generation unit 110 permits the movement of the point 701 in the z-axis direction within the range of the height of the autonomous mobile device 204. As a result, even if the relay position or the target position is set at a z position other than the height of the point 701, the route generation unit 110 can find a solution for the route.
  • a route generation method such as RRTs (Rapidly-exploring Random Trees) is used.
  • RRTs Rapidly-exploring Random Trees
  • FIG. 18A shows a gaze area 2601 generated when the wheelchair user 203 gazes at a stationary obstacle (illustration of the stationary obstacle is omitted), and the current position of the autonomous mobile device 204 (the observation device 101 last observes).
  • the position of the time when it was performed) 2602A, the target position 2602B of the autonomous mobile device 204, and the current position of the wheelchair user 203 (the position of the time when the observation device 101 last observed) 2603 are shown.
  • the autonomous mobile device 204 When the autonomous mobile device 204 once enters the gaze area 2601 using the Dijkstra method described above and generates a route toward the target position 2602B, the shortest route as shown in FIG. 18B is generated. (For simplicity of explanation, the time axis is omitted. That is, the wheelchair user 2603 is stopped).
  • the A * algorithm it is possible to define a weight for moving an arc for each arc. For example, if it is a steep slope that puts a burden on driving, or if valuables are installed in the surrounding area and you have to slow down carefully, it will give weight to the arc. Can be given. This makes it possible for the route generation unit 110 to generate an optimum route that is not simply the shortest route but is suitable for the surrounding situation.
  • the weight is set to be large. is there.
  • the weight is set low.
  • the traveling of the autonomous traveling device 204 is safer for the wheelchair user 203.
  • a route can be generated by the route generation unit 110.
  • the weight is set in terms of the risk of the wheelchair user 203, but the weight may be set in terms of the risk of contact between the autonomous mobile device 204 and the obstacle.
  • the weight may be set in consideration of both the danger of the wheelchair user 203 and the possibility of contact between the autonomous mobile device 204 and the obstacle. For example, even if the autonomous mobile device 204 enters the gaze area 2601 while decelerating, there is a sufficient distance that the wheelchair user 203 can recognize the existence of the autonomous mobile device 204 with a margin.
  • the autonomous mobile device 204 may generate a route that enters the gaze area 2601 while decelerating in order to reduce the possibility of contact with the stationary obstacle. Is possible.
  • the distance between the autonomous mobile device 204 and the moving body (wheelchair user 203) is short (positional relationship is close)
  • the arc (between nodes) on which the autonomous mobile device 204 moves is weighted. By attaching, it is possible to make it difficult to select the arc for the path to be generated. More specifically, for example, a numerical value obtained by multiplying the actual distance by the weight is used as a virtual distance, and a route having the shortest virtual distance is selected and the route is generated by the route generation unit 110.
  • the weight is determined based on a preset index, such as increasing the weight as the moving object is approached.
  • the route generation unit 110 is configured such that the position information of the obstacle, etc. ⁇ more specifically, the positional relationship between the autonomous traveling device 204 and the mobile person (wheelchair user 203) or / and the autonomous traveling device 204 and the obstacle. Position information ⁇ , the approach time calculated by the approach time calculation unit 107, and the gaze area calculated by the gaze region calculation unit 109, autonomously traveling into the gaze area a predetermined time before the approach time Route information for traveling the device 204 is generated and recorded in the autonomous traveling device database 103.
  • Step S411 the autonomous mobile device 204 generates a route for heading to a preset target position.
  • the specific route generation method is the same as that described in step S401.
  • Step S412> (corresponding to the previous step S8)
  • the new route generated by the route generation unit 110 by the method as described above is recorded in the movement route information of the autonomous traveling device database 103 from the route generation unit 110, and thereafter, the autonomous traveling device 204 is based on the information on the new route. And run.
  • the traveling of the autonomous traveling device 204 may be temporarily stopped. Thereafter, the travel information generation process returns to step S401.
  • step S406 or step S408 to step S412 the autonomous travel device 204 is based on the route information generated while the wheelchair user 203 is not detected. Will travel.
  • the autonomous traveling device travels in an area in which the wheelchair user gazes at an obstacle at his / her feet with a high rate of gaze.
  • Such travel information can be generated by the travel information generation device 100. Therefore, it is possible to make the wheelchair user more surely recognize the presence of the autonomous traveling device.
  • a robot for automatically transporting medicine is introduced as a specific example of the autonomous traveling device 204, and the robot for automatically transporting medicine passes through a corridor where hospitalized patients are present.
  • the first embodiment can also be applied when an autonomously operating system is introduced.
  • inpatients and the like are afraid of falling, so they tend to pay attention to the obstacles at their feet and have a low gaze.
  • the field of view of hospitalized patients and the like is often narrower than that of normal healthy individuals.
  • the gaze area of the healthy person 17 is wide (see the left figure of FIG.
  • the gaze area of the wheelchair user 203 gazes far from the foot. In many cases, it is narrower than the gaze area of the healthy person 17 (see the right figure in FIG. 19).
  • the autonomous traveling device 204 travels in the direction of the foot-side area that the wheelchair user 203 watches, so that the wheelchair is not surprised by the appearance of the autonomous traveling device 204.
  • the user 203 can be made aware of the presence of the autonomous mobile device 204.
  • the wheelchair user 203 recognizes the existence of the autonomous traveling device 204 more reliably, and even when there is a wheelchair user (wheelchair user 203), the wheelchair user 203 is autonomous.
  • the presence of the traveling device 204 can be recognized more reliably.
  • the robot In the travel information generation device 100 according to the first embodiment, in the situation where there is an obstacle present in the hallway or the like according to the position of the wheelchair user 203, the robot is considered in consideration of the gaze area of the wheelchair user 203. The direction of movement is determined.
  • the travel information generation device 100B of the second embodiment simply speaking, the clinical department or the like is specified by the tag of the patient, the guide plate position that the patient is likely to confirm is specified, and the guide plate The gaze area is enlarged using the position of.
  • the behavioral state of the patient in the premise hospital will be described.
  • a patient who moves in a wheelchair in a hospital often visits the hospital for the purpose of receiving medical treatment, and often moves while checking a notice in the hospital.
  • patients often travel with a medical examination ticket or medical record in hospitals, so if they embed a tag in them, will they receive medical examination, treatment, examination, surgery, or functional training?
  • medical departments such as medical departments, treatment rooms, clinical laboratories, operating rooms, function training rooms, checkout counters, pharmacies, etc.
  • a patient information accumulating unit 1401 and a patient confirmation space specifying unit 1402 are further provided, and the gaze area calculating unit 109. Then, based on the information of the patient information storage unit 1401 and the like, the wheelchair user 203 is obtained from the spatial position information (for example, the posting position) of the posting that the patient specified by the patient confirmation space specifying unit 1402 may check. The gaze area is calculated.
  • the patient information storage unit 1401 stores the correspondence between the tag information held by the patient and the patient.
  • the patient confirmation space specifying unit 1402 specifies the posting information to be confirmed by the patient from the correspondence between the tag information observed by the observation apparatus 101 and the tag and patient information stored in the patient information storage unit 1401. Further, the space to be confirmed by the patient is specified from the spatial position information of the posted information in the hospital accumulated in the environmental database 104.
  • the gaze area calculation unit 109 calculates the gaze area of the wheelchair user 203 based on the spatial position information of the posting that the patient identified by the patient confirmation space identification unit 1402 may confirm.
  • the patient information storage unit 1401 for the tag ID, the patient ID that holds the tag, the medical department that the patient receives, and the treatment contents in the medical department are included. Accumulated. These pieces of information register the correspondence between the contents described in the patient's medical record and the tag ID when handing over the tag to the patient in the hospital.
  • the observation device 101 observes the ID of the tag held by the patient, and the patient confirmation space specifying unit 1402 detects the predetermined tag ID when the predetermined tag ID is detected. And the contents of the examination.
  • the contents of the data shown in FIGS. 8A to 8E, and further, as shown in FIGS. 22A and 22B, information on the patient's attention point, specifically, for each clinical department Spatial position information indicating where in the hospital the related postings are posted is accumulated.
  • Spatial position information indicating where in the hospital the related postings are posted is accumulated.
  • the indication of “orthopedics” posted on a door or “X-ray room” posted on a corridor of a hospital is applicable.
  • the reference position on each floor is accumulated for the entire hospital, and the representative coordinate position that the patient confirms from the reference position is registered.
  • information related to the display size of the posted material is also registered.
  • the gaze area calculation unit 109 can calculate where each posting is posted in the hospital. Furthermore, the gaze area calculation unit 109 can estimate whether the patient moving in the wheelchair confirms the information on the posting. Since the patient confirms the posting, the gaze area is corrected by the gaze area calculation unit 109 in consideration of the position information of the posting.
  • the gaze area of the wheelchair user 203 is set as shown in the left figure (a) of FIG. 23, from the tag held by the patient of the wheelchair user 203, If it can be determined that the patient is undergoing orthopedic treatment, and there is an “orthopedic” sign on the door facing the corridor, the patient moves his gaze in that direction. There is a high possibility of making it. Therefore, in such a wheelchair user 203, the gaze area is corrected by the gaze area calculation unit 109 as shown in the right figure (b) of FIG.
  • the gaze area calculation unit 109 corrects the gaze area of the wheelchair user 203 based on the information such as the department that the wheelchair user 203 is likely to go to and the position of the guide plate.
  • the gaze area of the wheelchair user 203 can be created more accurately. Therefore, the autonomous traveling device 14 can travel more reliably in the direction of the gaze area of the wheelchair user 13 and the wheelchair user 13 can be more surely aware of the presence of the autonomous traveling device 14.
  • the wheelchair user 203 has the same wheelchair operation capability. However, in a wheelchair user 203, a patient who has been using a wheelchair for a long time can perform an avoidance operation with a small turn at a small distance from an obstacle or the like. On the other hand, for beginners using wheelchairs (wheelchair beginners), a large distance is required to avoid obstacles.
  • the characteristics related to the movement history of the patient's wheelchair are specified by the tag, and the degree of familiarity or the performance (avoidance characteristics etc.) of the wheelchair is specified.
  • the distance that can be easily avoided is specified.
  • the travel information generation device 100C further includes a patient information storage unit 1401 and an avoidance distance identification unit 1403.
  • the patient information accumulating unit 1401 accumulates in advance a wheelchair user history used by the wheelchair user 203 or information on the wheelchair model.
  • the avoidance distance specifying unit 1403 specifies the distance that the wheelchair user 203 can easily avoid using the information on the wheelchair used by the patient specified by the patient information storage unit 1401.
  • the route generation unit 110 generates an avoidance route for the autonomous mobile device 204 using the distance specified by the avoidance distance specification unit 1403.
  • the patient information storage unit 1401 As shown in FIG. 25, information on the wheelchair usage history and wheelchair model is further stored for the patient ID.
  • the autonomous mobile device 204 is approaching depending on the period of the wheelchair usage history, the distance for avoiding the autonomous mobile device 204 is different. It seems that he is used to the operation.
  • the autonomous mobile device 204 looks at the wheelchair user 203. A route that enters the area and makes the wheelchair user 203 aware of the presence of the moving object is selected. On the other hand, for patients who are not skilled in wheelchair operation, as shown in the left figure (a) of FIG. 26, when the distance to avoid becomes long and a moving body enters the gaze area, it is immediately avoided. You have to take action. Therefore, in such a case, the autonomous mobile device 204 selects a route that avoids the gaze area.
  • the route generation unit 110 can generate a more appropriate avoidance route for the autonomous mobile device 204 based on the degree of familiarity with the wheelchair of the wheelchair user 203.
  • the autonomous traveling device 204 can travel more reliably in the direction of the gaze area of the wheelchair user 203 and the wheelchair user 203 can be more surely aware of the presence of the autonomous traveling device 204.
  • each of the travel information generating devices is a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • a computer program is stored in the RAM or hard disk unit. Each unit achieves its function by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • working information generation apparatus in the said embodiment or a modification is the following programs.
  • this program A position acquisition unit that acquires the position of a moving person in a building in association with a predetermined time or time; and A mover identification unit for identifying the type of the mover acquired from the position acquisition unit; A location history database that records in time series the location and type of the mobile acquired by the location acquisition unit and the mobile identification unit; A movement information calculation unit that calculates the movement direction and movement speed of the mover from information in the position history database; An autonomous traveling device database that records traveling information for traveling from the first position to the second position by the autonomous traveling device traveling in the building according to a predetermined route; Based on the position of the moving person acquired from the position acquiring unit, the moving direction and moving speed of the moving person calculated by the movement information calculating unit, and the traveling information recorded in the autonomous traveling device database, the autonomous An approach time calculating unit that calculates an approach time at which the traveling device and the moving person approach within a predetermined distance; An environmental database that records the position of a stationary object present in the building, along with information of a mobile person who tends to gaze
  • the program causes the computer to A position history database that records, in time series, the position of the moving person acquired from the position acquiring unit that acquires the position of the moving person in a wheelchair in the building every predetermined time;
  • a movement information calculation unit that calculates the movement direction and movement speed of the mover from information in the position history database;
  • An autonomous traveling device database that records traveling information for traveling from the first position to the second position by the autonomous traveling device traveling in the building according to a predetermined route;
  • the autonomous An approach time calculating unit that calculates an approach time at which the traveling device and the moving person approach within a predetermined distance;
  • An obstacle database recording the position of obstacles in the building;
  • a gaze position acquisition unit that acquires the gaze position of the mobile person based on the position and movement direction of the mobile person and the position of the obstacle in the obstacle database;
  • a gaze area calculation unit that calculates a gaze area
  • the program may be executed by being downloaded from a server or the like, and a program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, or a semiconductor memory) is read out. May be executed.
  • a predetermined recording medium for example, an optical disk such as a CD-ROM, a magnetic disk, or a semiconductor memory
  • the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
  • each database may be taken in and out via the communication line 170. This is the same not only in the first embodiment but also in other embodiments.
  • a travel information generation device for an autonomous travel device, an autonomous travel device, a travel information generation method for an autonomous travel device, and a travel information generation program for an autonomous travel device include a mobile operator (a vehicle operator such as a wheelchair user, or Pedestrians, etc.) can recognize the existence of autonomous vehicles more reliably, and are generally hospitals, nursing homes, public welfare facilities that are frequently used by wheelchair users and other vehicle operators It is useful as a travel information generating device for an autonomous traveling device that travels autonomously in a shopping mall or an airport, an autonomous traveling device, a traveling information generating method for an autonomous traveling device, a traveling information generating program for an autonomous traveling device, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Alarm Systems (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

移動者に自律走行装置の存在を確実に認識させ、自律走行装置をより安全に走行させることを課題とする。建物内の移動者の位置を所定時刻毎に位置取得部で取得して移動者の位置を時系列に記録した位置履歴DBより移動者の移動方向と速度を移動情報算出部で算出し、自律走行装置の走行情報を自律走行装置DBに記録し、移動者の位置と移動方向と速度と走行情報より自律走行装置と移動者とが所定距離以内に接近する接近時刻を接近時刻算出部で算出し、移動者の位置と移動方向と障害物DBに記録された障害物の位置より移動者の注視位置を注視位置取得部で取得し、移動者の位置と移動方向と注視位置より移動者の注視領域を注視領域算出部で算出し、障害物の位置と接近時刻と注視領域より接近時刻より所定時刻前に注視領域へ自律走行装置を走行させる走行情報を走行情報生成部で生成する。

Description

自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置
 本発明は、人が往来する空間において、人の種別を識別した結果に基づき経路計画を行うことのできる自律走行装置の走行情報生成装置、自律走行装置、自律走行装置の走行情報生成方法、自律走行装置の走行情報生成プログラムに関する。
 従来、自律走行装置の走行制御方法として、人が自律走行装置に対して正面を向いている度合いに基づいて、人が自律走行装置に気付いているか否かを判断し、その判断結果に基づいて、自律走行装置の動作を切り替える技術が知られている(特許文献1参照)。
特開2004-280451号公報
 しかしながら、上記従来の技術では、人を識別する際に、歩行による移動者であるか、車椅子による移動者であるか等、人の種別までを判別していなかったため、移動者の種別によって異なる注視位置の特性を考慮した、自律走行装置の走行を行うことができなかった。
 そこで、本発明の目的は、自律走行装置をより安全に走行させるため、移動者の種別に応じた注視特性に基づいて、自律走行装置の走行制御を行うことにより、移動者に自律走行装置の存在をより確実に認識させうる、自律走行装置の走行情報生成装置、自律走行装置、自律走行装置の走行情報生成方法、自律走行装置の走行情報生成プログラムを提供することである。
 上記目的を達成するために、本発明の1つの態様によれば、
 建物内の移動者の位置を所定の時刻毎又は時間に対応付けて取得する位置取得部と、
 前記位置取得部より取得した前記移動者の種別を識別する移動者識別部と、
 前記移動者の位置及び種別を時系列に記録する位置履歴データベースと、
 前記位置履歴データベース内の情報より前記移動者の移動方向及び移動速度を算出する移動情報算出部と、
 前記建物内を予め定められた経路に従って走行する自律走行装置が第1の位置から第2の位置までを走行するための走行情報を記録する自律走行装置データベースと、
 前記位置取得部より取得した前記移動者の位置と、前記移動情報算出部より算出した前記移動者の移動方向及び移動速度と、前記自律走行装置データベースに記録された前記走行情報とより、前記自律走行装置と前記移動者とが所定の距離以内に接近する接近時刻を算出する接近時刻算出部と、
 前記建物内に存在する静止物体の位置を、前記静止物体を注視する傾向にある移動者の情報と共に記録した環境データベースと、
 前記移動者の位置及び種別と、前記移動者の移動方向と、前記静止物体の位置とに基づいて、前記移動者の注視位置を取得する注視位置取得部と、
 前記移動者の位置及び種別と、前記移動者の移動方向と、前記注視位置とに基づいて、前記移動者の注視領域を算出する注視領域算出部と、
 前記静止物体の位置と、前記接近時刻と、前記注視領域とを基に、前記接近時刻算出部より算出した前記接近する時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を生成する走行情報生成部と、
 を備える自律走行装置の走行情報生成装置を提供する。
 これらの概括的かつ特定の態様は、システム、方法、コンピュータプログラム並びにシステム、方法及びコンピュータプログラムの任意の組み合わせにより実現してもよい。
 本発明の前記態様によれば、移動者に自律走行装置の存在をより確実に認識させることができて、移動者の種別に応じて、自律走行装置を適切に走行させることができる走行情報を、走行情報生成装置で生成することができる。
 本発明のこれらと他の目的と特徴は、添付された図面についての好ましい実施形態に関連した次の記述から明らかになる。この図面においては、
図1は、通常歩行者と車椅子利用者との注視点位置の違いを示す説明図、 図2は、車椅子利用者と通常歩行者との注視領域の違いを示す説明図、 図3は、第1実施形態に係る自律走行装置の走行経路の変更を示す説明図、 図4Aは、第1実施形態に係る自律走行装置の走行情報生成装置の機能構成を示すブロック図、 図4Bは、第1実施形態に係る自律走行装置の走行情報生成装置の観測装置の機能構成を示すブロック図、 図5は、第1実施形態に係る自律走行装置が存在する環境図、 図6は、タグに記録されている情報の一例を示す図、 図7は、位置履歴データベースの一例を示す図、 図8Aは、第1実施形態に係る環境データベースの障害物情報の一例を示す図、 図8Bは、第1実施形態に係る環境データベースの注視位置情報1の一例を示す図、 図8Cは、第1実施形態に係る環境データベースの注視位置情報2の一例を示す図、 図8Dは、第1実施形態に係る環境データベースの注視位置情報3の一例を示す図、 図8Eは、第1実施形態に係る環境データベースの注視位置情報4の一例を示す図、 図9Aは、自律走行装置データベースの形状情報の一例を示す図、 図9Bは、自律走行装置データベースのタグ位置情報の一例を示す図、 図9Cは、自律走行装置データベースの速度情報の一例を示す図、 図9Dは、自律走行装置データベースの移動経路情報の一例を示す図、 図10Aは、車椅子利用者の注視位置の一例を示す説明図、 図10Bは、車椅子利用者の注視位置の別の一例を示す説明図、 図11は、第2実施形態に係る車椅子利用者の注視領域の一例を示す説明図、 図12は、車椅子利用者の時間軸を含めた注視領域の一例を示す図、 図13Aは、コンフィギュレーションスペースの一例を示すコンフィギュレーション作成前の図、 図13Bは、コンフィギュレーションスペースの一例を示すコンフィギュレーション作成後の図、 図14は、第1実施形態にかかる走行情報生成装置での走行情報生成の大まかな流れを示すフローチャート、 図15は、第1実施形態に係る走行情報生成装置の全体処理を示すフローチャート、 図16は、時間軸を含めたコンフィギュレーションスペースの一例を示す図、 図17Aは、ダイクストラ法による走行経路の生成を示す図、 図17Bは、ダイクストラ法による走行経路の生成を示す図、 図17Cは、ダイクストラ法による走行経路の生成を示す図、 図17Dは、ダイクストラ法による走行経路の生成を示す図、 図17Eは、ダイクストラ法による走行経路の生成を示す図、 図17Fは、ダイクストラ法による走行経路の生成を示す図、 図18Aは、Aアルゴリズムを経路生成部で利用して経路の生成を行う例において、注視領域を示す図、 図18Bは、Aアルゴリズムを経路生成部で利用して経路の生成を行う例において、生成された最短経路を示す図、 図18Cは、Aアルゴリズムを経路生成部で利用して経路の生成を行う例において、自律走行装置が注視領域内に進入するときの危険性を考慮した重み付けを説明するための図、 図18Dは、Aアルゴリズムを経路生成部で利用して経路の生成を行う例において、危険性を加味した経路を示す図、 図19は、車椅子利用者の注視領域の特性を示す説明図、 図20は、第2実施形態に係る自律走行装置の走行情報生成装置の機能構成を示すブロック図、 図21は、第2実施形態における患者情報蓄積部の一例を示す図、 図22Aは、第2実施形態に係る環境データベースの一例を示す図、 図22Bは、第2実施形態に係る環境データベースの一例の説明図、 図23は、第2実施形態に係る車椅子利用者の注視領域の特性を示す説明図、 図24は、第3実施形態に係る自律走行装置の走行情報生成装置の機能構成を示すブロック図、 図25は、第3実施形態において患者情報蓄積部の一例を示す図、 図26は、第3実施形態において注視領域の大きさに応じた自律走行装置の走行経路の変化の一例を示す説明図、 図27は、第1実施形態の変形例にかかる自律走行装置の走行情報生成装置の機能構成を示すブロック図である。
 (本発明の基礎となった知見)
 例えば、車椅子による移動者は、通常の歩行による移動者(以後、「通常歩行者」ともいう。)と比較して、足元の障害物を注視する割合が多く、左右の確認を行う余裕が少ないという特性を有している、ことが知られている(非特許文献1:木村一裕、清水浩志郎「歩行空間における車いす利用者の注視特性と歩行者流動」土木計画学研究・論文集 No.12,1995)。図1に、前記論文中に記載されている、車椅子利用者と通常歩行者との注視位置の相違図を示す。図1の下側の(b)に示す通常歩行者は、全体的に満遍なく周囲の状況を確認している。これに対して、図1の上側の(a)に示す車椅子利用者は、進行方向と路面の確認に注視する割合が多いことが分かる。
 図2に、病院などの建物内で廊下に椅子又はロッカー等の障害物が存在していた場合における、通常歩行者と車椅子利用者との注視する領域の違いを示す。図2の左側の(a)に示すように、通常歩行者10は、廊下(床)11に椅子又はロッカー等の障害物12が存在していたとしても、その注視する領域は廊下全体である。一方、車椅子利用者13は、廊下11の端に椅子等の障害物12が存在していた場合、廊下全体ではなく、その障害物12を注視する。よって、車椅子利用者13は、廊下11の端の障害物12に対し、通常歩行者10と比較して、注視する領域の影響を受け易い。
 このことから、自律走行装置14と対面している人が車椅子利用者13であった場合、たとえ、車椅子利用者13が自律走行装置14に対して正面を向いている度合いが高かったとしても、車椅子利用者13は、廊下11の障害物12を注視しているなどの理由により、自律走行装置14に気付いていない可能性がある。
 そこで、車椅子利用者13が障害物12の方に注視している場合、自律走行装置14の走行経路を、車椅子利用者13が注視している領域の近くになるよう設定することで、車椅子利用者13に自律走行装置14の存在を気付かせることができる。図3に、車椅子利用者13が廊下11を移動している際に、廊下11に障害物12が存在しない場合と存在する場合と、それぞれの自律走行装置14の経路を示す。図3に示すように、廊下11に障害物12が存在する場合、車椅子利用者13の注視する領域の方向に自律走行装置14が走行することで、車椅子利用者13に自律走行装置14の存在を気付かせることができる。
 例えば、ベビーカーを押している移動者、又は、高齢者向けの電動四輪車についても、同様の傾向があると言える。また、病院内においては、例えば、内科に診療中の患者は内科の案内板に注視する傾向が高いという事ができる。
 以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。
 以下、図面を参照して本発明における実施形態を詳細に説明する前に、本発明の種々の態様について説明する。
 本発明の第1態様によれば、建物内の移動者の位置を所定の時刻毎又は時間に対応付けて取得する位置取得部と、
 前記位置取得部より取得した前記移動者の種別を識別する移動者識別部と、
 前記位置取得部と前記移動者識別部とでそれぞれ取得した前記移動者の位置及び種別を時系列に記録する位置履歴データベースと、
 前記位置履歴データベース内の情報より前記移動者の移動方向及び移動速度を算出する移動情報算出部と、
 前記建物内を予め定められた経路に従って走行する自律走行装置が第1の位置から第2の位置までを走行するための走行情報を記録する自律走行装置データベースと、
 前記位置取得部より取得した前記移動者の位置と、前記移動情報算出部より算出した前記移動者の移動方向及び移動速度と、前記自律走行装置データベースに記録された前記走行情報とより、前記自律走行装置と前記移動者とが所定の距離以内に接近する接近時刻を算出する接近時刻算出部と、
 前記建物内に存在する静止物体の位置を、前記静止物体を注視する傾向にある移動者の情報と共に記録した環境データベースと、
 前記移動者の位置及び種別と、前記移動者の移動方向と、前記静止物体の位置とに基づいて、前記移動者の注視位置を取得する注視位置取得部と、
 前記移動者の位置及び種別と、前記移動者の移動方向と、前記注視位置とに基づいて、前記移動者の注視領域を算出する注視領域算出部と、
 前記静止物体の位置と、前記接近時刻と、前記注視領域とを基に、前記接近時刻算出部より算出した前記接近する時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を生成する走行情報生成部と、
 を備える自律走行装置の走行情報生成装置を提供する。
 前記態様によれば、移動者に自律走行装置の存在をより確実に認識させることができて、移動者の種別に応じて、自律走行装置を適切に走行させることができる走行情報を、走行情報生成装置で生成することができる。
 本発明の第2態様によれば、建物内の車椅子による移動者の位置を所定の時刻毎又は時間に対応付けて取得する位置取得部と、
 前記位置取得部より取得した前記移動者の位置を時系列に記録する位置履歴データベースと、
 前記位置履歴データベース内の情報より前記移動者の移動方向及び移動速度を算出する移動情報算出部と、
 前記建物内を予め定められた経路に従って走行する自律走行装置が第1の位置から第2の位置までを走行するための走行情報を記録する自律走行装置データベースと、
 前記位置取得部より取得した前記移動者の位置と、前記移動情報算出部より算出した前記移動者の移動方向及び移動速度と、前記自律走行装置データベースに記録された前記走行情報とより、前記自律走行装置と前記移動者とが所定の距離以内に接近する接近時刻を算出する接近時刻算出部と、
 前記建物内の障害物の位置を記録した障害物データベースと、
 前記移動者の位置と、前記移動者の移動方向と、前記障害物の位置とに基づいて、前記移動者の注視位置を取得する注視位置取得部と、
 前記移動者の位置と、前記移動者の移動方向と、前記注視位置とに基づいて、前記移動者の注視領域を算出する注視領域算出部と、
 前記障害物の位置と、前記接近時刻と、前記注視領域とを基に、前記接近時刻算出部より算出した前記接近する時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を生成する走行情報生成部と、
 を備える自律走行装置の走行情報生成装置を提供する。
 前記態様によれば、移動者(例えば車椅子利用者)に自律走行装置の存在をより確実に認識させることができて、移動者が存在する場合でも、自律走行装置を適切に走行させることができる走行情報を、走行情報生成装置で生成することができる。よって、このような構成によれば、自律走行装置に対向する移動者が車椅子利用者の場合には、車椅子利用者が注視する割合の高い足元の障害物を注視する領域内に自律走行装置を走行させることによって、車椅子利用者に対して自律走行装置の存在をより確実に認識させることのできる経路を生成することができる。
 本発明の第3態様によれば、前記注視位置取得部は、前記移動者の位置と、前記移動者の移動方向及び移動速度と、前記障害物の位置とに基づいて、前記移動者の注視位置を取得し、
 前記注視領域算出部は、前記移動者の位置と、前記移動者の移動方向及び移動速度と、前記注視位置とに基づいて、前記移動者の注視領域を算出する、
 第2の態様に記載の自律走行装置の走行情報生成装置を提供する。
 前記態様によれば、現時刻(注視位置取得部が移動者の注視位置を取得するために利用した、移動体の位置情報が位置取得部によって得られた時刻)以降の、移動者から見た相対的な注視位置を予測できる。よって、このような構成によれば、自律走行装置は、将来的に前記移動者の注視位置となる領域内に自律走行装置が予め移動しておくことによって、前記移動者に対して、余裕をもって前記自律走行装置の存在を認識させることのできる経路を生成することができる。
 本発明の第4態様によれば、前記注視領域算出部は、前記移動者の高さをも参照して前記注視領域が算出される、第2の態様に記載の自律走行装置の走行情報生成装置を提供する。
 前記態様によれば、移動者(例えば、車椅子利用者)の高さをも考慮することによって、より正確に前記移動者から見た相対的な注視位置を予測することができる。よって、このような構成によれば、前記移動者に対して、より確実に自律走行装置の存在を認識させることのできる経路を生成することができる。
 本発明の第5態様によれば、前記移動者の高さは、前記移動者が所持するIDタグに記録されている、身長情報、もしくは、年齢情報、もしくは、座高情報の何れかに基づいて推定される、第4の態様に記載の自律走行装置の走行情報生成装置を提供する。
 前記態様によれば、移動者の高さを移動者毎に設定することによって、より正確に前記移動者から見た相対的な注視位置を予測することができる。よって、このような構成によれば、前記移動者に対して、より確実に自律走行装置の存在を認識させることのできる経路を生成することができる。
 本発明の第6態様によれば、前記走行情報生成部は、前記自律走行装置と前記移動者との位置関係、又は/且つ、前記自律走行装置と前記障害物との位置関係に基づいて、前記接近時刻算出部より算出した前記接近時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を生成する、第1~5のいずれか1つの態様に記載の自律走行装置の走行情報生成装置を提供する。
 前記態様によれば、移動者の移動状態及び静止障害物の位置情報(言い換えれば、自律走行装置と移動者(例えば車椅子利用者)との位置関係、及び、前記自律走行装置と障害物との位置関係)を考慮することによって、前記自律走行装置と前記移動者との距離が十分離れていない場合には、前記移動者の安全を確保するため、前記自律走行装置を直ちに前記移動者の注視領域に向かわせ、前記自律走行装置と前記移動者との距離が十分離れている場合には、前記自律走行装置の安全を確保するため、慎重に(例えば、走行速度を落として)前記移動者の注視領域に向かわせることができる。よって、このような構成によれば、前記移動者の安全性を優先しつつ、移動者の移動状態及び静止障害物の位置情報(前記自律走行装置と前記移動者と前記障害物の位置関係)によっては、前記自律走行装置の安全も加味した走行を行う経路を生成することができる。なお、十分離れていない場合とは、一例として、自律走行装置を直ちに(例えば、自律走行装置の走行誤差、移動者が自律走行装置に気付くための時間などを考慮した1~数秒程度の後)注視領域に向かわせないと、前記所定の時間内に、前記自律走行装置を前記注視領域内に進入させることができない状況などを意味する。
 本発明の第7態様によれば、前記走行情報生成部より生成された前記走行情報は、前記自律走行装置データベースに記録される、第1~6のいずれか1つの態様に記載の自律走行装置の走行情報生成装置を提供する。
 本発明の第8態様によれば、前記建物は病院であり、前記移動者は患者であるとき、前記病院内において前記患者を識別するための識別子を前記患者は保有しており、
 前記識別子に対して前記病院内での前記患者が受診する診療科の情報を蓄積している患者情報蓄積部をさらに備え、
 前記環境データベースにおいては、さらに、前記患者情報蓄積部で蓄積されている診療科に関する掲示情報と、前記病院内での前記掲示情報の掲示位置に関する情報とが蓄積されており、
 前記位置取得部は、前記移動者が保有する前記識別子の情報を検出し、
 前記位置取得部で検出された前記識別子に対応する前記患者の診療科の情報と、前記診療科に対する前記環境データベースで蓄積されている前記掲示情報の病院内での掲示位置に基づいて前記移動者が確認する情報の掲示位置を特定する患者確認空間特定部をさらに備え、
 前記注視領域算出部では、前記患者確認空間特定部で特定された情報の掲示位置を利用して前記移動者が注視する注視領域を算出する、
第1~7のいずれか1つの態様に記載の自律走行装置の走行情報生成装置を提供する。
 前記態様によれば、移動者、例えば車椅子利用者が保有する識別子に対応する診療科の情報に基づいて、前記車椅子利用者にとって関連のある(つまり、注視を行う傾向にある)掲示情報を取得することができる。よって、このような構成によれば、前記車椅子利用者の注視領域と考えられる領域が増加することによって、前記自律走行装置が、前記所定の時刻以内に、前記注視領域内に進入させることのできる可能性を高めることのできる経路を生成することができる。
 本発明の第9態様によれば、前記識別子は、前記移動者が受診する診療科を特定する識別子であり、
 前記環境データベースでは、前記診療科に対する掲示情報の前記移動者の前記病院内での通路における掲示位置に関する情報が蓄積されており、
 前記注視領域算出部では、前記移動者が確認する掲示情報の空間位置の情報に基づいて前記移動者の注視領域を拡大する、
 第8の態様に記載の自律走行装置の走行情報生成装置を提供する。
 前記態様によれば、移動者、例えば車椅子利用者が向かう可能性の高い、移動者が確認する掲示情報(例えば、診療科等の情報)とその掲示情報(例えば、案内板)の位置とを基に、車椅子利用者の注視領域を注視領域算出部で補正することができて、車椅子利用者の注視領域をより正確に作成することができる。よって、車椅子利用者の注視領域の方向に自律走行装置をより確実に走行させて車椅子利用者に自律走行装置の存在をより確実に気付かせることのできる経路を生成することができる。
 本発明の第10態様によれば、前記注視領域算出部では、前記注視位置が複数存在した場合、複数存在する注視位置間を結んだ線分、もしくは、領域を注視位置とする、
 第1~9のいずれか1つの態様に記載の自律走行装置の走行情報生成装置を提供する。
 前記態様によれば、前記移動者は、注視位置が複数存在した場合、前記注視位置間を目線移動する可能性が高いことを考慮し、前記注視位置間をも注視位置に含めることができる。よって、このような構成によれば、移動者の注視領域をより正確に作成することができる。よって、移動者の注視領域の方向に自律走行装置をより確実に走行させて移動者に自律走行装置の存在をより確実に気付かせることのできる経路を生成することができる。
 本発明の第11態様によれば、前記建物は病院であり、前記移動者は患者であるとき、前記病院内において前記患者を識別するための識別子を前記患者は保有しており、
 前記識別子に対して前記病院内での前記患者が利用する車椅子に関する情報を蓄積している患者情報蓄積部をさらに備え、
 前記位置取得部により前記移動者が保有する前記識別子の情報を検出し、
 前記位置取得部で検出された前記識別子に対応する前記患者の車椅子に関する情報から、前記移動者の前記障害物に対する回避距離を特定する回避距離特定部をさらに備え、
 前記走行情報生成部では、前記注視領域算出部で算出された注視領域と、前記回避距離特定部で特定された前記回避距離とに基づいて、前記走行情報を生成する、
 第1~7のいずれか1つの態様に記載の自律走行装置の走行情報生成装置を提供する。
 前記態様によれば、前記識別子で車椅子利用者の車椅子による移動履歴、もしくは、前記車椅子に付されているタグ情報に基づいて、車椅子の性能を特定し、容易に回避できる距離を特定することができる。よって、車椅子利用者の車椅子の特性情報に基づいて、経路生成部で、より適切な自律走行装置の回避経路を生成することができる。その結果、車椅子利用者の注視領域の方向に自律走行装置をより確実に走行させて車椅子利用者に自律走行装置の存在をより確実に気付かせることのできる経路を生成することができる。なお、ここでの車椅子による移動履歴は、車椅子の回避特性を推定するために用いるものであって、車椅子利用者の慣れを推定するものではない。
 本発明の第12態様によれば、前記患者情報蓄積部では、前記患者が前記車椅子を利用している期間が長いほど前記回避距離特定部での回避距離が短くなる、
 第11の態様に記載の自律走行装置の走行情報生成装置を提供する。
 前記態様によれば、移動者の一例である車椅子利用者の車椅子利用期間に基づいて、前記車椅子利用者の車椅子に対する慣れの度合いを推定することによって、前記車椅子利用者が障害物を容易に回避するために要する回避距離を特定することができる。よって、車椅子利用者の車椅子に対する慣れの度合いに基づいて、経路生成部で、より適切な自律走行装置の回避経路を生成することができる。その結果、車椅子利用者の注視領域の方向に自律走行装置をより確実に走行させて車椅子利用者に自律走行装置の存在をより確実に気付かせることのできる経路を生成することができる。
 本発明の第13態様によれば、建物内の移動者の位置を所定の時刻毎又は時間に対応付けて取得するとともに前記移動者の種別を識別して取得した前記移動者の位置及び種別を時系列に記録する位置履歴データベース内の情報より前記移動者の移動方向及び移動速度を算出する移動情報算出部と、
 前記位置取得部より取得した前記移動者の位置と、前記移動情報算出部より算出した前記移動者の移動方向及び移動速度と、前記建物内を予め定められた経路に従って走行する自律走行装置が第1の位置から第2の位置までを走行するための走行情報を記録する自律走行装置データベースに記録された前記走行情報とより、前記自律走行装置と前記移動者とが所定の距離以内に接近する接近時刻を算出する接近時刻算出部と、
 前記移動者の位置及び種別と、前記移動者の移動方向と、前記建物内に存在する静止物体の位置を、前記静止物体を注視する傾向にある移動者の情報と共に記録した環境データベースから取得した前記静止物体の位置とに基づいて、前記移動者の注視位置を取得する注視位置取得部と、
 前記移動者の位置及び種別と、前記移動者の移動方向と、前記注視位置とに基づいて、前記移動者の注視領域を算出する注視領域算出部と、
 前記静止物体の位置と、前記接近時刻と、前記注視領域とを基に、前記接近時刻算出部より算出した前記接近する時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を生成する走行情報生成部と、
 を備える自律走行装置の走行情報生成装置を提供する。
 前記態様によれば、移動者に自律走行装置の存在をより確実に認識させることができて、移動者の種別に応じて、自律走行装置を適切に走行させることができる走行情報を、走行情報生成装置で生成することができる。
 なお、本発明の別の態様によれば、建物内の車椅子による移動者の位置を所定の時刻毎又は時間に対応付けて取得した前記移動者の位置を時系列に記録する位置履歴データベース内の情報より前記移動者の移動方向及び移動速度を算出する移動情報算出部と、
 前記移動者の位置と、前記移動者の移動方向及び移動速度と、前記建物内を予め定められた経路に従って走行する自律走行装置が第1の位置から第2の位置までを走行するための走行情報を記録する自律走行装置データベースに記録された前記走行情報とより、前記自律走行装置と前記移動者とが所定の距離以内に接近する接近時刻を算出する接近時刻算出部と、
 前記移動者の位置と、前記移動者の移動方向と、前記建物内の障害物の位置を記録する障害物データベースに記録された前記障害物の位置とに基づいて、前記移動者の注視位置を取得する注視位置取得部と、
 前記移動者の位置と、前記移動者の移動方向と、前記注視位置とに基づいて、前記移動者の注視領域を算出する注視領域算出部と、
 前記障害物の位置と、前記接近時刻と、前記注視領域とを基に、前記接近時刻より所定の時刻前に、前記注視領域内へ前記自律走行装置を走行させる走行情報を生成する走行情報生成部と、
 を備える自律走行装置の走行情報生成装置を提供する。
 前記第13態様又は第13態様の後の別の態様によれば、移動者、例えば車椅子利用者に自律走行装置の存在をより確実に認識させることができて、車椅子利用者が存在する場合でも、自律走行装置を適切に走行させることができる走行情報を、走行情報生成装置で生成することができる。よって、このような構成によれば、自律走行装置に対向する人が車椅子利用者の場合には、車椅子利用者が注視する割合の高い足元の障害物を注視する領域内に自律走行装置を走行させることによって、車椅子利用者に対して自律走行装置の存在をより確実に認識させることのできる経路を生成することができる。
 本発明の第14態様によれば、第1~13のいずれか1つの態様に記載の前記自律走行装置の走行情報生成装置と、
 前記自律走行装置データベースに記録された前記走行情報を取得する走行情報取得部と、
 前記走行情報取得部より取得された前記走行情報に基づいて走行の制御を行なう駆動装置制御部と、
 を備える自律走行装置を提供する。
 前記態様によれば、移動者、例えば車椅子利用者に自律走行装置の存在をより確実に認識させることができ、車椅子利用者が存在する場合でも、自律走行装置を適切に走行させることができる。よって、このような構成によれば、自律走行装置に対向する人が車椅子利用者の場合には、車椅子利用者が注視する割合の高い足元の障害物を注視する領域内に自律走行装置を走行させることによって、車椅子利用者に対して自律走行装置の存在をより確実に認識させることができる。
 本発明の第15態様によれば、建物内の移動者の位置を所定の時刻毎又は時間に対応付けて位置取得部で取得し、
 前記位置取得部より取得した前記移動者の種別を移動者識別部で識別し、
 前記位置取得部と前記移動者識別部とでそれぞれ取得した前記移動者の位置及び種別を時系列に位置履歴データベースに記録し、
 前記位置履歴データベース内の情報より前記移動者の移動方向及び移動速度を移動情報算出部で算出し、
 前記建物内を予め定められた経路に従って走行する自律走行装置が第1の位置から第2の位置までを走行するための走行情報を自律走行装置データベースに記録し、
 前記位置取得部より取得した前記移動者の位置と、前記移動情報算出部より算出した前記移動者の移動方向及び移動速度と、前記自律走行装置データベースに記録された前記走行情報とより、前記自律走行装置と前記移動者とが所定の距離以内に接近する接近時刻を接近時刻算出部で算出し、
 前記建物内に存在する静止物体の位置を、前記静止物体を注視する傾向にある移動者の情報と共に環境データベースに記録し、
 前記移動者の位置及び種別と、前記移動者の移動方向と、前記静止物体の位置とに基づいて、前記移動者の注視位置を注視位置取得部で取得し、
 前記移動者の位置及び種別と、前記移動者の移動方向と、前記注視位置とに基づいて、前記移動者の注視領域を注視領域算出部で算出し、
 前記静止物体の位置と、前記接近時刻と、前記注視領域とを基に、前記接近時刻算出部より算出した前記接近する時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を走行情報生成部で生成する、
 自律走行装置の走行情報生成方法を提供する。
 前記態様によれば、移動者に自律走行装置の存在をより確実に認識させることができて、移動者の種別に応じて、自律走行装置を適切に走行させることができる走行情報を、走行情報生成装置で生成することができる。
 なお、本発明の別の態様によれば、建物内の車椅子による移動者の位置を所定の時刻毎又は時間に対応付けて位置取得部で取得し、
 前記位置取得部より取得した前記移動者の位置を時系列に位置履歴データベースに記録し、
 前記位置履歴データベース内の情報より前記移動者の移動方向及び移動速度を移動情報算出部で算出し、
 に記録し、
 前記位置取得部より取得した前記移動者の位置と、前記移動情報算出部より算出した前記移動者の移動方向及び移動速度と、前記建物内を予め定められた経路に従って走行する自律走行装置が第1の位置から第2の位置までを走行するための走行情報を記録した自律走行装置データベースに記録された前記走行情報とより、前記自律走行装置と前記移動者とが所定の距離以内に接近する接近時刻を接近時刻算出部で算出し、
 前記移動者の位置と、前記移動者の移動方向と、前記建物内の障害物の位置を記録した障害物データベース内の前記障害物の位置とに基づいて、前記移動者の注視位置を注視位置取得部で取得し、
 前記移動者の位置と、前記移動者の移動方向と、前記注視位置とに基づいて、前記移動者の注視領域を注視領域算出部で算出し、
 前記障害物の位置と、前記接近時刻と、前記注視領域とを基に、前記接近時刻算出部より算出した前記接近する時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を走行情報生成部で生成する、
 自律走行装置の走行情報生成方法を提供する。
 前記態様によれば、移動者、例えば車椅子利用者に自律走行装置の存在をより確実に認識させることができて、車椅子利用者が存在する場合でも、自律走行装置を適切に走行することができる走行情報を、走行情報生成装置で生成することができる。よって、このような構成によれば、自律走行装置に対向する人が車椅子利用者の場合には、車椅子利用者が注視する割合の高い足元の障害物を注視する領域内に自律走行装置を走行させることによって、車椅子利用者に対して自律走行装置の存在をより確実に認識させることができる。
 本発明の第16態様によれば、第15の態様に記載の走行情報生成方法をコンピュータに実行させるための走行情報生成プログラムを提供する。
 本発明の別の態様によれば、第15の態様の後の別の態様に記載の走行情報生成方法をコンピュータに実行させるための走行情報生成プログラムを提供する。
 前記第15の態様又は第15の態様の後の別の態様によれば、移動者、例えば車椅子利用者に自律走行装置の存在をより確実に認識させることができて、車椅子利用者が存在する場合でも、自律走行装置を適切に走行することができる走行情報を、走行情報生成装置で生成することができる。よって、このような構成によれば、自律走行装置に対向する人が車椅子利用者の場合には、車椅子利用者が注視する割合の高い足元の障害物を注視する領域内に自律走行装置を走行させることによって、車椅子利用者に対して自律走行装置の存在をより確実に認識させることができる。
 以下、本発明の実施形態について、図面を参照しながら説明する。
 なお、以下で説明する実施形態は、いずれも本発明の一具体例を示すものである。以下の実施形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 なお、第1実施形態では、移動者の種別に車椅子利用者を例として説明し、第2実施形態では、移動者の種別に病院患者を例として説明し、第3実施形態では、移動者の種別に車椅子初心者を含む例として説明している。
 (第1実施形態)
 図4Aに、第1実施形態における自律走行装置204に搭載される走行情報生成装置100の機能構成を示す。
 図4Aに示すように、自律走行装置204の走行情報生成装置100は、観測装置101と、位置履歴データベース102と、自律走行装置データベース103と、環境データベース104と、移動方向算出部106と、接近時刻算出部107と、注視位置取得部108と、注視領域算出部109と、経路生成部110とを少なくとも有する。自律走行装置204の走行情報生成装置100は、さらに、観測情報処理部105と、速度指令値変換部111と、車輪制御部112とを有することができる。自律走行装置204としては、例えば、図26に示すような2つの車輪115で移動するロボットなどが例示される。
 以下に、走行情報生成装置100が有する各構成要素について説明する。
 <構成>
 <観測装置101>
 観測装置101は、位置取得部の一例である。観測装置101は、観測範囲内に存在する移動体の観測を行なう(具体的には、移動体の位置を時系列に(所定の時刻毎に又は特定の時間に対応付けて)取得する。観測装置101の観測範囲は、例えば、観測装置101がタグリーダである場合、電波の送受信が可能な範囲であり、建物内全体であっても良い。また、観測装置101は、所定の観測周期(例えば、100msec)で観測を行なう。なお、観測装置101は、位置取得部より取得した移動者の種別を識別する移動者識別部(移動者種別情報取得部)の一例としても機能する。すなわち、この実施形態では、位置取得部と種別識別情報取得部とを観測装置101で兼用している。
 ここで、本明細書において、建物とは、一般的に車椅子利用者が多く往来する建物である病院、老人ホーム、公共の福祉施設、ショッピングモール、又は、空港等を指す。また、本明細書において、移動体とは、自律走行装置204、及び移動者(具体的には、通常歩行者、又は、車両操作者(車椅子利用者203など))のうちの何れかとする。移動者とは、車両(手押し車又は車椅子又は電動四輪車)を操作する車両操作者と、歩行者(通常歩行者)とを含む。また、車両操作者とは、車椅子利用者と、ベビーカーなどの車両(手押し車)を押している移動者と、高齢者向けの電動四輪車に乗っている高齢者と、ショッピングモールでのショッピングカート又は空港などでの荷物カートなどの車両(手押し車)を押している移動者となど、何らかの車両を操作しながら移動(歩行又は走行)している人を意味する。よって、本明細書での移動者の種別とは、少なくとも、通常歩行者であるか、又は、車両操作者であるかの区別を意味している。さらに、詳細に区別する場合には、移動者の種別としては、車両操作者を、車椅子利用者203であるか、ベビーカーなどの車両(手押し車)を押している移動者であるか、高齢者向けの電動四輪車に乗っている高齢者であるか、ショッピングモールでのショッピングカート又は空港などでの荷物カートなどの車両(手押し車)を押している移動者であるかなどに区分けしても良い。
 観測装置101がタグリーダである場合、前記タグリーダに接続されているアンテナのUWB(Ulutra Wide Band)タグ検知範囲内に存在するタグを検出し、前記タグに記録されているタグ情報をタグリーダで取得する。また、観測装置101が画像センサである場合は、画像センサで画像を取得する。画像センサで画像を取得したときは、例えば観測情報処理部105内の画像認識処理部で画像認識を行い、例えば、車両操作者と歩行者とを識別する移動者識別部の一例としても機能する。例えば、歩行者は縦に細長いという特徴を有しているのに対して、車両操作者は前後に幅がありかつ高さが低いという特徴を有しているか、又は、人と車両との間で高さに段差があるという特徴を有している。これらの特徴を基に、画像認識処理で両者を識別すればよい。また、観測装置101が距離画像センサである場合は、距離画像センサで距離画像を取得する。取得した距離画像の画像認識処理は、前記した画像認識処理と同様である。
 また、図5に、観測装置101の具体的構成の一例として、タグリーダ202を備える、病院内の具体的な例としての通路201を示す。通路201は両側が壁201w,201xで挟まれている。通路201の天井には、タグリーダ202のアンテナ202Aが分散配置されており、通路201に存在する人(車椅子による移動者)203が所持するタグ205Aの検出と、自律走行装置204が所持するタグ205Rの検出を行う。以後、通路201に存在するタグ205Aと、タグ205Rのうちの任意のタグを、タグ205として代表的に説明する。なお、タグ205には、タグ205に固有に割り当てられているID情報(以後、タグID、もしくはTAG_IDと記述する。)と、タグ205を所持する移動体203,204の種別情報が登録されている。図6に、タグ205に記録されているタグ情報の一例を示す。図6の例では、TAG_ID=TAG_001のタグ205を所持しているのは、自律走行装置(ROBOT)(ここでは、参照符号204を指す。)であることを示している。TAG_ID=TAG_002のタグ205を所持しているのは、車椅子利用者(WHEEL_CHAIR)(ここでは、参照符号203を指す。)であることを示している。TAG_ID=TAG_003のタグ205を所持しているのは、通常歩行者(HEALTHY_PERSON)であることを示している。また、通路201には、移動体にとっては障害物の一例となる椅子206Aと椅子206Bが配置されている。以後、通路201に設置されている椅子206Aと、椅子206Bのうちの任意の椅子を、椅子206として代表的に説明する。なお、この実施形態では、タグは、車両操作者と歩行者とを含む移動者がそれぞれ個別に有していると仮定している。タグには、人を識別する識別情報(少なくとも、移動者の種別を識別する移動者識別情報)も含まれている。ここで、移動者の種別とは、少なくとも、車両操作者であるか、又は、歩行者であるかの情報である。
 <観測情報処理部105>
 観測情報処理部105は、観測装置101が取得した観測情報の処理を行い、観測装置101の観測範囲内に存在する移動体のIDと種別と時系列の位置とを求めて、求められた情報を位置履歴データベース102と自律走行装置データベース103とにそれぞれ記憶する。
 観測装置101として、タグリーダを用いる場合の処理について説明する。前記タグリーダの観測対象となる前記移動体には、前記タグリーダが検出可能なタグを所持させておくものとし、前記タグにはタグ情報として、少なくとも前記タグに固有に割り当てられているID(以後、タグIDと呼ぶ。)と前記移動体の種別とが記録されているものとする。前記タグを検出することにより、前記移動体のIDと種別とを取得することができる(前記移動体のIDを、タグIDと考える。)。また、前記移動体の位置は、3点測位により求めることができる。前記アンテナが出力した質問波に対して、前記タグが出力した応答波を受け取るまでの時間差から、前記タグの各アンテナからの距離を求めることができる。前記タグリーダの各アンテナの配置位置が既知であれば、少なくとも3つ以上のアンテナで前記タグを検出できていれば、観測装置101において、前記タグの位置を一意に特定することが可能である。一例として、観測情報処理部105が求めた移動体のIDと種別と時系列の位置とを、タグリーダ202がタグ205を検出した時刻と共に、位置履歴データベース102に記録する。
 次に、観測装置101として、距離画像センサを用いる場合の処理について図4Bを使用しながら説明する。まず、前処理として、背景差分法等を用いて、距離画像センサ101aで取得した距離画像から前記移動体の領域(差分領域)のみを観測装置101の画像処理部101bで抽出する。前記距離画像センサ101aが壁201w又は201xに設置されており、前記移動体の足元が検出可能である場合には、前記差分領域から推定される前記移動体の足元を前記移動体の位置としても良いし、前記距離画像センサ101aが天井に設置されており、前記移動体の足元が検出不可能である場合には、前記差分領域の重心位置を前記移動体の位置としても良い。前記移動体の種別に関しては、車椅子利用者203の高さ(身長)は通常歩行者の高さ(身長)よりも低くかつ横幅が大きいという知識と、後述するように前記自律走行装置データベース103に記録されている前記自律走行装置204の形状情報に基づいて、前記差分領域の高さと横幅から、観測装置101の種別判定部101cにより、前記移動体の種別が車椅子利用者203か通常歩行者か自律走行装置204か、を求めることができる。前記移動体のIDに関しては、距離画像(ステレオカメラで距離画像を作成する場合は、単眼カメラでの画像も含む。)から前記移動体のID(個人)を推定することは困難である。そのため、本処理において出力する前記移動体のIDは、前記自律走行装置204においてのみ有効となる内部IDとする。例えば、初めて検出した前記移動体に対して内部ID(001)を割り当てたとすると、前記移動体をトラッキングしている間は、前記移動体にはID(001)を常に割り当てる。なお、前記移動体のトラッキングには、オプティカルフローなどの技術を用いて実現することができる。
 <位置履歴データベース102>
 位置履歴データベース102には、観測情報処理部105が求めた移動体のIDと種別と位置とが、観測装置101が観測を行った時刻と共に記録されている。すなわち、位置履歴データベース102には、観測情報処理部105を介して観測装置101より取得した移動者の位置が時系列に記録されている。
 図7に、位置履歴データベース102の一例を示す。時刻14時23分15秒400には、移動体IDがTAG_001の自律走行装置204が座標(0,150)に存在するとともに、移動体IDがTAG_002の車椅子利用者203が座標(1000,200)に存在している。なお、この例では、移動体IDには、タグIDを用いている。また、説明を簡単にするため、図5には移動者として車椅子利用者203しか登場していないが、タグを所持した通常歩行者が存在していた場合には、前記通常歩行者の移動体IDと種別、そして、位置が位置履歴データベース102に記録されることとなる。
 <環境データベース104>
 環境データベース104は、障害物データベースの一例である。環境データベース104には、前記自律走行装置204が走行する環境の一例である建物内における壁201w,201x又は椅子206などの前記環境内における静止障害物の位置情報、及び、前記静止障害物において車椅子利用者203が注視を行い易い位置情報が記録されている。ここで、静止障害物とは、障害物となりうる静止障害物(障害物となりうる案内板を含む)と、障害物となりえない案内板(例えば、天井から吊り下げられた案内板、廊下の床面に表示された掲示標識など)とを含む。
 図8A及び図8Bに環境データベース104の一例を示す。図8Aには、通路201に存在する障害物情報として、各障害物の頂点の座標が記録されている。なお、前記障害物の表記方法はこれに限るものではない。例えば、障害物が円柱形であれば、中心座標、半径、高さの情報が記録されていても良い。また、図8Bには、車椅子利用者203が前記障害物を注視し易い注視位置と、注視を行うときの条件に関する情報が記録されている。図8Bに示した例においては、全ての条件を満たしている場合に限り、注視位置取得部108は、車椅子利用者203が前記注視位置を注視し易いと判断する。なお、注視位置は、一般的に車椅子利用者203は、足元の障害物を注視し易い傾向にあることから、車椅子利用者203の位置及び進行方向(もしくは、向き)と、前記障害物の位置との関係を条件として、予め決定しておくものとする。ここでは、一例として、2種類の条件を設定している。1つ目の条件(「条件1」)は、車椅子利用者203の進行方向(もしくは、向き)に関する条件である。2つ目の条件(「条件2」)は、車椅子利用者203と障害物との間の距離に関する条件である。ここで、車椅子利用者203において、+x方向とは、x方向を0度の位置とすると、0度に対して-90度から+90度の範囲の方向とする。逆に、-x方向とは、+x方向とは180度異なる位置である-x方向を0度の位置とすると、0度に対して-90度から+90度の範囲の方向とする。
 <自律走行装置データベース103>
 自律走行装置データベース103には、前記自律走行装置204の形状情報が予め記録されているとともに、前記自律走行装置204の存在する位置と移動方向と、移動速度と、そして、目標位置と、前記自律走行装置204の存在する位置から目標位置に達するまでの経路情報とが記録されている。なお、自律走行装置204の存在する位置は、観測装置101で取得するか、もしくは、オドメトリにより取得する。自律走行装置204の移動速度に関しては、車椅子利用者と同様に、自律走行装置204の過去の位置の履歴に基づいて移動方向算出部106で推定可能である。目標位置に関しては、自律走行装置204を動作させる前に経路生成部110で自律走行装置データベース103に設定しておく。前記位置から目標位置に達するまでの経路情報は、経路生成部110で生成される。
 なお、経路情報には、自律走行装置204が経路を走行するときの速度情報と加速度情報とも含まれているものとし、目標位置、もしくは、経路上にある任意の位置への到着予定時刻は接近時刻算出部107により算出可能となっている。
 また、前記自律走行装置204の位置は、観測装置101の観測情報、もしくは、前記自律走行装置204に搭載されているセンサの観測情報に基づいて更新される。前記自律走行装置204に搭載されているセンサの観測情報に基づいて前記自律走行装置204の位置を求める方法として、例えば、オドメトリ又は測域センサなどの利用が考えられる。オドメトリとは、前記自律走行装置204の車輪115の回転角に基づいて前記自律走行装置204の移動量を測る方法であり、前記自律走行装置204の初期位置が既知であれば、オドメトリによって、走行中の前記自律走行装置204の位置を位置取得部で算出することが可能となる。車輪115の回転角は、車輪の駆動装置114の一例であるモータに取り付けられたロータリーエンコーダにより取得する。上述している通り、オドメトリを使用するのは一例であって、測域センサ又は天井カメラ、又は、自律走行装置204の経路情報に基づいた予測などから、走行中の自律走行装置204の位置を算出可能である。図4Aのブロック図中では、特に、自律走行装置用の位置演算部を設けることなく、観測情報処理部105が観測装置101の観測情報に基づいて、自律走行装置204の位置を算出することができる。
 また、測域センサを利用する場合には、測域センサが取得したレンジデータと、環境データベース104に記録されている静止障害物の位置情報とに基づいてマップマッチングを観測情報処理部105で行うことで、前記自律走行装置204の位置(具体的には、前記測域センサが最後にレンジデータを取得した時刻における位置)を観測情報処理部105で求めることができる。なお、観測装置101の観測情報に基づいて前記自律走行装置204の現在位置(観測装置101が最後に観測を行った時刻の位置)を求める方法に関しては、観測情報処理部105で述べた内容と同等であるため省略する。また、上記方法を組み合わせることによって、前記自律走行装置204の現在位置(観測装置101が最後に観測を行った時刻の位置)を高精度に求めるようにしても良い。また、前記自律走行装置204の移動方向と移動速度とは、前記自律走行装置204の位置の履歴に基づいて移動方向算出部106で求めることができる。以後、前記自律走行装置204の現在位置(観測装置101が最後に観測を行った時刻の位置)と移動方向と、移動速度と、そして、目標位置と経路情報とを合わせて、前記「自律走行装置204の移動状態」と呼ぶ。
 図9A~図9Dに、自律走行装置データベース103の一例を示す。図9Aには、自律走行装置204の形状情報として、縦寸法と横寸法と高さ寸法とが記録されている。なお、自律走行装置204は+Xの方向を向いているときの形状情報であるとする。図9Bには、自律走行装置204へのタグ205Rの取り付け位置(タグ位置)が記録されている。図9Cには、自律走行装置204の速度情報が記録されている。速度情報には、最大速度と、最大加(減)速度と、最大旋回速度と、旋回加(減)速度との情報が含まれる。直進時には、最大速度に達するまで最大加速度で速度を上げ、旋回時には、最大旋回速度に達するまで最大旋回加速度で旋回速度を上げる。図9Dには、自律走行装置204の移動経路情報が記録されている。移動経路情報には、初期位置と単数又は複数の中継位置と目標位置とが含まれる。中継位置間(初期位置から中継位置、中継位置から目標位置も含む)は直線移動するものとし、中継位置の(x,y)座標に到達後に旋回動作を行い、目標とする方向θを向く。なお、θ=0度は、+X座標の方向であるとする。図5に示された状況は、中継位置2から目標位置に向かう途中となっている。
 <移動方向算出部106>
 移動方向算出部106は、移動情報算出部の一例である。移動方向算出部106は、位置履歴データベース102に記録されている前記移動体の位置の履歴に基づいて、少なくとも、前記車椅子利用者203の位置(具体的には、観測装置101が最後に観測を行った時刻における前記車椅子利用者203の位置)と移動方向と移動速度とを算出する。以後、前記車椅子利用者203の前記位置と移動方向と移動速度とを合わせて、前記「車椅子利用者203の移動状態」と呼ぶ。
 図7によると、タグリーダ202の前回観測における各移動体の位置は、時刻14時23分15秒600に、移動体IDがTAG_001の自律走行装置204が座標(20,150)に存在し、同時刻に、移動体IDがTAG_002の車椅子利用者203が座標(980,200)に存在しており、前記位置(座標)を位置履歴データベース102から移動方向算出部106が取得する。また、位置履歴データベース102に記録されている前記移動体の位置の履歴に基づいて、前記移動体の移動方向と移動速度との算出を移動方向算出部106で行う。図7によると、現在を14時23分15秒600の時刻とすると、この時刻に、移動体IDがTAG_001の自律走行装置204は、+X座標方向に秒速1mの速度で移動しており、移動体IDがTAG_002の車椅子利用者203は、-X座標方向に秒速1mの速度で移動している。ここで、移動速度は、例えば、使用した履歴の観測情報における平均速度とすることができる。また、移動方向は、例えば、最小二乗法などを用いて移動方向算出部106で求めることができる。なお、図7に示した位置履歴データベース102の例では履歴の数は3個であるが、前記移動体の移動速度と移動方向とを算出するために用いる履歴の数は、少なくとも2個以上あれば良い。
 <接近時刻算出部107>
 接近時刻算出部107は、種別が車椅子利用者203である前記移動体に対して、移動方向算出部106から取得する前記自律走行装置204の移動状態と前記車椅子利用者203の移動状態とに基づいて、現在時刻(観測装置101が最後に観測を行った時刻)から所定の時間以内に、前記自律走行装置204と前記車椅子利用者203の移動体とが所定の距離以内に接近するか否かを判断する。前記所定の距離以内に接近すると接近時刻算出部107で判断された場合、前記自律走行装置204と前記移動体との間の距離が前記所定の距離となる接近時刻を接近時刻算出部107で算出する。なお、前記移動体(ここでは、車椅子利用者203)は、移動方向算出部106から出力された前記車椅子利用者203の移動状態を維持する(等速直線運動する)ものとして考える。また、自律走行装置204の移動状態は、自律走行装置データベース103を参照することによって自律走行装置204の前記移動状態の情報を接近時刻算出部107で取得するものとする。
 接近時刻算出部107で所定の距離以内に接近するか否かを判断する方法としては、例えば、コンフィギュレーション空間を接近時刻算出部107で作成し、その後、時間軸を含めた空間において、自律走行装置204の軌跡が車椅子利用者203により形成される領域に内包されるか否かにより接近時刻算出部107で判断する方法が考えられる。なお、コンフィギュレーション空間に関する詳細は後述する。
 <注視位置取得部108>
 注視位置取得部108は、接近時刻算出部107から前記接近時刻が出力された場合にのみ、車椅子利用者203が注視する傾向にある注視位置を、移動方向算出部106から取得する前記車椅子利用者203の移動状態(位置、移動方向、移動速度)と、環境データベース104に記録されている前記静止障害物の位置情報とに基づいて取得する。注視位置は、現時刻(観測装置101の具体的構成の一例であるタグリーダ202が最後に観測を行った時刻)から前記所定の時間内の、車椅子利用者203が注視を行う割合が多いと予測される位置である。注視位置取得部108は、注接近時刻算出部107から前記接近時刻が出力されなかった場合には注視位置を取得しない。なお、移動状態として、車椅子利用者203が停止している場合などが考えられるため、移動速度は必ずしも必要ではない。
 図10Aの(a)~(e)に、時刻と共に変化する注視位置の様子を示す。車椅子利用者203は、移動方向算出部106が算出した移動速度と移動方向とを維持し、等速直線運動するものと考えると、図10Aの(a)に示す現時刻(14時23分15秒600)から図10Aの(c)に示す時刻14時23分19秒400までは、車椅子利用者203が注視し易い注視位置(の座標)は、椅子206Aの座標(600,300,0)と、椅子206Bの座標(350,50,0)の2箇所となる(図10Aの(a)、図10Aの(b)参照)。図10Aの(c)に示す時刻14時23分19秒400以後は、車椅子利用者203は、椅子206Aの注視位置を通過するため、注視位置は椅子206Bの(350,50,0)のみとなる(図10Aの(c)、図10Aの(d)参照)。さらに、図10Aの(e)に示す時刻14時23分21秒900以後は、車椅子利用者203は、椅子206Bの注視位置を通過するため、注視位置は無しとなる(図10Aの(e)参照)。 また、図10Bの(a)~(c)に、時刻14時23分15秒600において、車椅子利用者203が椅子206Bの注視位置1001を注視している状況を、平面図、側面図、及び背面図で示す。なお、図10Bにおいて、椅子206A、及び、椅子206Aの注視位置は、図の見易さの観点から省略してある。
 なお、前記注視位置は点に限る必要はなく、線分又は領域であっても構わない。例えば、前記注視位置が2箇所以上存在した場合、車椅子利用者203は、前記注視位置を交互に確認する可能性が高い。このとき、前記注視位置間を直線で結んだ線分上を目線が移動すると考えると、前記線分全体を注視位置と見なすことができる。また、例えば、行き先が記載された案内板(図22B及び図23の符号800参照)などの場合、車椅子利用者203が注視を行うのは1点だけではなく、前記案内板全体と考えられ、前記案内板の全体の領域を注視位置と見なすことができる。図8Cに前記注視位置が線分である例を示し、図8Dに前記注視位置が領域である例を示す。図8Cには、例えば、椅子206Aの注視位置(600,300,0)と椅子206Bの注視位置(350,50,0)とを結んだ線分が注視位置として記録されている。また、図8Dには、例えば、外科に診察に向かう患者向けの案内板1が領域{座標(200,300,100)と座標(300,300,150)と}に存在することを示している。なお、この2点の座標は、長方形の対角点の2点を示しているものとする。なお、タグ205Aには、車椅子利用者203が診察を受ける診察科の情報が記録されているものとする。更に、図8Eに、点と領域とで形成される注視位置の例を示す。図8Eには、例えば、椅子206Aの注視位置(600,300,0)と案内板1の注視位置(200,300,100)により形成される注視位置とが示されている。ここで、前記注視位置は、椅子206Aの注視位置である1点と、案内板1の8個頂点を結んで形成される立体の領域となる。
 <注視領域算出部109>
 注視領域算出部109は、注視位置取得部108から種別が車椅子利用者203である前記移動体の注視位置を受け取ると、前記移動体が注視する傾向にある注視領域を、移動方向算出部106から取得した前記車椅子利用者203の移動状態(位置、移動方向、移動速度)と、前記注視位置とに基づいて算出する。注視領域とは、現時刻から所定の時間内の、車椅子利用者203が注視を行う割合が多いと予測される領域のことである。なお、移動状態として、車椅子利用者203が停止している場合などが考えられるため、移動速度は必ずしも必要ではない。
 注視領域は、車椅子利用者203の目の位置(例えば眼球の位置)又は身長を頂点とし、注視位置を底面の中心とする円錐の領域とする。ここで、一般的な人の中心視野が20度であることから、前記円錐の角度は一例として20度とする。また、車椅子利用者203の目の位置は、一例として、車椅子に座ったときの一般的な人の目線の高さ(例えば眼球の位置)(例えば、120cmなど)又は頭頂の高さ位置を設定しておく。また、タグ205Aに、一例として、患者情報として、車椅子利用者203の身長が記録されており、タグリーダ202で検出したタグの情報中の前記身長に基づいて車椅子利用者203の目線の高さを注視領域算出部109で推定しても良い。同様に、タグ205Aに患者情報として、車椅子利用者203の年齢が記録されており、タグリーダ202で取得した前記年齢の情報に基づいて、車椅子利用者203の目線の高さを、注視領域算出部109で推定しても良い。更に、前記年齢に基づいて、車椅子利用者203の前記円錐の角度を注視領域算出部109で可変にしても良い。例えば、視野が狭くなる年齢(例えば60歳以上)の場合、前記円錐の角度を、前記20度より狭い18度としても良い。また同様に、タグ205Aに患者情報として、車椅子利用者203の座高情報が記録されており、タグリーダ202で取得した前記座高情報に基づいて、車椅子利用者203の目線の高さを、注視領域算出部109で推定しても良い。
 図11の(a)~(c)に、車椅子利用者203の注視領域の例を、平面図、側面図、及び背面図で示す。図11には、車椅子利用者203が椅子206Bの注視位置を注視している状況においても、椅子206B以外の物体を容易に認知することが可能と考えられる注視領域1101を示している。なお、図11において、椅子206A、及び、椅子206Aの注視領域は、図の見易さの観点から省略してある。
 また、図12に、現時刻から前記所定の時間内の時間軸を含めた4次元(x,y,z,t)コンフィギュレーション空間(ただし、図面にはz軸の記載は省略してある。)における、車椅子利用者203の注視領域の例を示す。ただし、x,y,z方向は建物の3次元空間の座標軸であり、tは時間である。符号703Aは、時刻14時23分15秒600における車椅子利用者衝突領域703を示す。符号206B_Aは、同時刻における椅子206Bを示す1101Aは、同時刻における注視領域1101を示す。また、符号703Bは、時刻14時23分18秒600における車椅子利用者衝突領域703を示す。符号206B_Bは、同時刻における椅子206Bを示す。符号1101Bは、同時刻における注視領域1101を示す。なお、注視領域1101A~1101Dは、上面図として見たときの領域を示している。これらは、z軸方向の高さが0cmのときの注視領域を示したものではなく、さらに、自律走行装置204を点701と見なすため、自律走行装置204の形状に基づいて、x,y,z方向に拡張がなされているものとする。
 <経路生成部110>
 経路生成部110は、走行情報生成部の一例として機能し、環境データベース104から障害物の位置情報と、接近時刻算出部107から接近時刻と、注視領域算出部109から種別が車椅子利用者203である前記移動体の注視領域とを受け取ると、前記接近時刻よりも早い時刻に、前記自律走行装置204の一部、もしくは、全体が前記注視領域に含まれる経路情報を生成する。経路生成部110で生成した経路情報は、走行情報の一例であり、自律走行装置データベース103に記録される。また、経路生成部110は、移動方向算出部106で算出して移動方向算出部106から入力された移動方向を維持し、自律走行装置204が等速直線運動をするものとし、時間軸を含めた3次元コンフィギュレーション空間を作成する(図12参照)。
 これは、図12の前記4次元(x,y,z,t)空間内において、点701で表現された自律走行装置204を、拡張領域702(図13B参照)内に侵入させず、且つ、注視領域1101内に少なくとも1度は侵入させて、目標位置(1000,150)に移動させることを考えれば良い。第1実施形態では、説明を簡潔にするため、自律走行装置204は平行移動するロボットであると考える。もし、自律走行装置204が回転移動を伴うロボットである場合、経路探索を行う空間は、回転軸を含めた5次元(x,y,z,t,θ)空間となる。なお、同空間内に車椅子利用者203以外の移動者(例えば、健常歩行者)が存在していた場合、車椅子利用者203又は障害物206と同様に、前記コンフィギュレーション空間中に、自律走行装置204が走行できない空間としての立柱が作成される。
 また、具体的な経路生成の方法としては、例えば、ダイクストラ法などを用いることが考えられるが、ダイクストラ法の詳細に関しては後述する。
 <走行制御部113>
 走行制御部113は、一例として、速度指令値変換部111と車輪制御部112とより構成される。
 速度指令値変換部111は、走行情報取得部の一例として機能する。速度指令値変換部111は、自律走行装置データベース103に記録されている経路情報(に含まれる速度情報)を取得し、取得した経路情報に基づいて、前記自律走行装置204の速度指令値を算出する。前記自律走行装置204が2輪で移動するロボットであった場合、各車輪115(図26参照)をモータなどの駆動装置114でどの方向(順回転か逆回転か)にどの速度で回転させるかを速度指令値変換部111で算出する。
 車輪制御部112は、駆動装置制御部の一例として機能する。車輪制御部112は、速度指令値変換部111にて算出した各車輪の回転方向、及び、回転速度に基づいて、前記自律走行装置204の各車輪115を駆動するように駆動装置114を制御する。
 <動作>
 次に、以上のように構成された走行情報生成装置100の各構成要素の動作に関して、まず、図14を基に、大まかな流れを説明したのち、図15を基に、具体的な動作について説明する。
 <ステップS1>
 まず、図14のステップS1において、位置取得部の一例である観測装置101により車椅子利用者203の位置を所定の時刻毎に取得する。
 <ステップS2>
 次に、ステップS2において、観測装置101で取得した車椅子利用者203の位置を、観測情報処理部105により位置履歴データベース102に記録する。
 <ステップS3>
 次に、ステップS3において、位置履歴データベース102に記録された情報に基づき、車椅子利用者203の移動方向と移動速度とを、移動情報算出部の一例である移動方向算出部106で算出する。
 <ステップS4>
 次に、ステップS4において、自律走行装置データベース103に記録されている走行情報と、位置履歴データベース102に記録された車椅子利用者203の位置と、移動方向算出部106で算出した車椅子利用者203の移動方向と移動速度とより、自律走行装置204と車椅子利用者203とが前記所定の距離以内に接近する時刻を接近時刻算出部107で算出する。
 <ステップS5>
 次に、ステップS5において、障害物データベースの一例である環境データベース104と、位置履歴データベース102に記録された車椅子利用者203の位置と、移動方向算出部106で算出した車椅子利用者203の移動方向と移動速度とより、車椅子利用者203の注視位置を注視位置取得部108で取得し、取得された注視位置と前記車椅子による移動者の位置と移動方向とを基に注視領域を注視領域算出部109で算出する。
 <ステップS6>
 次に、ステップS6において、環境データベース104からの障害物の位置情報と、接近時刻算出部107からの接近時刻と、注視領域算出部109から種別が車椅子利用者203である前記移動体の注視領域とを基に、接近する時刻より前の時刻に注視領域内を自律走行装置204が走行する走行情報である経路を経路生成部110で生成する。
 <ステップS7>
 次に、ステップS7において、経路生成部110で生成した走行情報を、経路生成部110により自律走行装置データベース103に記録する。
 <ステップS8>
 次に、ステップS8において、走行制御部113により、自律走行装置データベース103に記録された走行情報に基づいて走行するよう自律走行装置204を制御する。
 以上が、走行情報生成装置100での走行情報生成動作の概要である。
 次に、図15は、第1実施形態における走行情報生成装置100の走行情報生成処理動作を詳細に示すフローチャートである。
 <ステップS401>(先のステップS1に対応)
 まず、観測装置101の一例であるタグリーダ202を用いて、観測範囲の一例である通路201内に存在するタグ205の検出を行う。ここでは、自律走行装置204が所持するタグ205Rと、車椅子利用者203が所持するタグ205Aとが検出されると仮定する。
 <ステップS402>(先のステップS1に対応)
 次に、タグリーダ202の観測範囲内に存在する移動体を検出したか否かを観測装置101(具体的にはタグリーダ202)で判断する。タグリーダ202は、自律走行装置204が所持するタグ205Rと、車椅子利用者203が所持するタグ205Aとを検出しているため、走行情報生成処理はステップS403に進む。仮にタグリーダ202がタグ205を検出しなかった場合は、走行情報生成処理はステップS411に進む。
 <ステップS403>(先のステップS1に対応)
 次に、観測情報処理部105が、タグリーダ202が検出したタグ205に記録されているタグ情報から、タグ205を所持している前記移動体のIDと種別とを決定する。また、アンテナ202Aがタグ205の検出に要した時間から、アンテナ202Aとタグ205との距離を求めることができるため、3台以上のアンテナ202Aがタグ205を検出していた場合、3点測量の原理に基づいて、タグ205の位置を観測情報処理部105で算出することができ、観測情報処理部105において、前記位置を、タグ205を所持する前記移動体の位置とする。
 <ステップS404>(先のステップS2に対応)
 次に、観測情報処理部105が求めた前記移動体のIDと種別と位置とを、タグリーダ202がタグ205を検出した時刻と共に、位置履歴データベース102に記録する。一例として、図7の位置履歴データベース102では、時刻14時23分15秒400には、移動体IDがTAG_001の自律走行装置204が座標(0,150)に存在し、移動体IDがTAG_002の車椅子利用者203が座標(1000,200)に存在している。
 <ステップS405>(先のステップS3に対応)
 次に、移動方向算出部106が、位置履歴データベース102からの情報に基づいて、タグリーダ202の前回観測における、少なくとも種別が車椅子利用者203である前記移動体の位置の取得と、移動方向と移動速度との算出を行う。
 一例として、図7によると、タグリーダ202の前回観測における各移動体の位置は、時刻14時23分15秒600に、移動体IDがTAG_001の自律走行装置204が座標(20,150)に存在し、かつ、移動体IDがTAG_002の車椅子利用者203が座標(980,200)に存在しており、前記位置(座標)を位置履歴データベース102から移動方向算出部106が取得する。また、位置履歴データベース102に記録されている前記移動体の位置の履歴に基づいて、前記移動体の移動方向と移動速度との算出を移動方向算出部106で行う。図7によると、現在を14時23分15秒600とすると、この時刻に、移動体IDがTAG_001の自律走行装置204は、+X座標方向に秒速1mの速度で移動しており、移動体IDがTAG_002の車椅子利用者203は、-X座標方向に秒速1mの速度で移動している。ここで、移動速度は、例えば、使用した履歴の観測情報における平均速度とすることができる。また、移動方向は、例えば、最小二乗法などを用いて求めることができる。なお、図7に示した位置履歴データベース102の例では履歴の数は3個であるが、前記移動体の移動速度と移動方向を算出するために用いる履歴の数は、少なくとも2個以上あれば良い。
 <ステップS406>(先のステップS4に対応)
 次に、接近時刻算出部107が、自律走行装置データベース103に記録されている走行情報と、車椅子利用者203の位置と移動方向と移動速度とに基づいて、現時刻(タグリーダ202が最後に観測を行った時刻)から所定の時間内において、自律走行装置204と車椅子利用者203とが所定の距離以内に接近するか否かを判断する。自律走行装置204と車椅子利用者203とが所定の距離以内に接近すると接近時刻算出部107で判断される場合には、自律走行装置204と車椅子利用者203とが所定の距離に接近するときの接近時刻を接近時刻算出部107で算出する。このとき、自律走行装置204は、自律走行装置データベース103に記録された経路情報に従い移動しているものとし、車椅子利用者203は、移動方向算出部106が算出した移動速度と移動方向を維持し、等速直線運動するものと考える。なお、このステップS406では、自律走行装置データベース103に記録されている走行情報を参照するが、その走行情報は、自律走行装置204が走行を開始した時点で(言い換えれば、車椅子利用者203を検出する前の時点で)、経路生成部110で現在位置から目標位置までの走行経路が生成されて自律走行装置データベース103に記録されている。すなわち、車椅子利用者203を検出していない間も経路は経路生成部110で生成されている。これは、路面状況又は風の影響によって、自律走行装置204が速度指令値の通りに走行できなかった場合に、走行経路の再調整を行うことが望ましいためである。仮に、自律走行装置204の走行に誤差が発生しにくい環境において自律走行装置204を稼動させる場合には、車椅子利用者203を検出していない間の経路を生成するのは1回でも構わない。
 先に述べたように、所定の距離以内に接近するか否かを接近時刻算出部107で判断する方法としては、例えば、コンフィギュレーション空間を接近時刻算出部107で作成し、その後、時間軸を含めた空間において、自律走行装置204の軌跡が車椅子利用者203により形成される領域に内包されるか否かにより接近時刻算出部107で判断する方法が考えられる。
 コンフィギュレーション空間とは、空間(次元)を拡張し、自律走行装置204を点と見なすことで、経路計画を容易にする方法であり、ロボットの経路計画によく用いられる。図13A及び図13Bにコンフィギュレーション空間の一例を示す。図13Aは、コンフィギュレーション空間を作成する前の通路201における障害物と前記自律走行装置204との配置を示しており、図13Bは、コンフィギュレーション空間作成後の状況を示している。自律走行装置204は点701と表現されており、自律走行装置204の大きさの分、周囲の障害物が拡張されている(拡張領域702)。ここで、車椅子利用者203が形成する拡張領域702を車椅子利用者衝突領域703と呼ぶこととする(車椅子利用者203の存在する領域も含む。)。これは、車椅子利用者衝突領域703に点701が侵入すると、自律走行装置204と車椅子利用者203が衝突することを意味する。
 ここで、自律走行装置204と車椅子利用者203とが近接してすれ違いを行う場合において、仮に車椅子利用者203が自律走行装置204の存在に気付いておらず急な方向転換を行った場合には、自律走行装置204と車椅子利用者203とが衝突してしまう恐れがある。
 そのため、車椅子利用者203が急な方向転換を行ったとしても、自律走行装置204が緊急停止などの行動を取ることによって未然に衝突を防止できる余裕距離を設定しておく必要がある。そこで、この余裕距離を前記所定の距離と接近時刻算出部107において設定する。第1実施形態では、一例として、前記所定の距離を、車椅子利用者203から前後方向及び左右方向のそれぞれに50cmの距離とする。この所定の距離を考慮した車椅子利用者203が形成する前記拡張領域を、車椅子利用者危険領域704と呼ぶこととする(車椅子利用者危険領域704は車椅子利用者衝突領域703を含む。)。また、前記所定の時間としては、例えば、自律走行装置204が次の中継位置、もしくは、目標位置に到着する時刻などと接近時刻算出部107において設定しておくことができる。仮に、次の中継位置が目前に迫っていた場合には、さらに次の中継位置、もしくは、目標位置に到着する時刻などと接近時刻算出部107において設定しても良い。なお、第1実施形態では、一例として、次の目標位置に到着する時刻を所定の時刻とし、14時23分25秒400の時刻になる前に、自律走行装置204と車椅子利用者203とが所定の距離以内に接近するか否かを接近時刻算出部107で判断する。また、現時刻とは、タグリーダ202が最後に観測を行った時刻であり、図7の位置履歴データベース102の例によると、時刻14時23分15秒600を現時刻とする。
 次に、図16に時間軸tを追加し、(x,y,t)の3次元空間における自律走行装置204の点701と車椅子利用者危険領域704との移動図を示す。なお、図16においては、椅子206が形成する拡張領域702は、図の見易さの観点から省略してある。前記3次元空間において、自律走行装置204を表す点701の軌跡の一部でも、車椅子利用者危険領域704が表す立体に含まれていた場合には、自律走行装置204と車椅子利用者203とが前記所定の距離以内に接近すると接近時刻算出部107で判断する。自律走行装置204と車椅子利用者203とが前記所定の距離以内に接近すると接近時刻算出部107で判断した場合には、走行情報生成処理はステップS407へ進む。自律走行装置204と車椅子利用者203とが所定の距離以内に接近しないと接近時刻算出部107で判断した場合には、走行情報生成処理はステップS411へ進む。時間軸tを考慮した、自律走行装置204の一例であるロボットの移動体回避技術には、例えば、非特許文献2(坪内孝司「平面を移動する複数の移動障害物とその速度を考慮した移動ロボットのプランニングとナビゲーション」日本ロボット学会誌, 1994)に開示された技術が知られている。
 <ステップS407>(先のステップS4に対応)
 次に、接近時刻算出部107が、自律走行装置204と車椅子利用者203とが前記所定の距離以内に接近すると判断した場合、自律走行装置204と車椅子利用者203とが、初めて前記所定の距離に近づく時刻を接近時刻算出部107で算出する。これは、図16に示した前記3次元空間における自律走行装置204の点701の軌跡と車椅子利用者危険領域704の接点とを接近時刻算出部107で求めれば良い。接点が複数存在する場合は、時刻tが最も早い位置で接している時刻を、自律走行装置204と車椅子利用者203とが、初めて前記所定の距離に近づく時刻とする。なお、図16に示した例では、時刻14時23分19秒950に、自律走行装置204と車椅子利用者203とが初めて前記所定の距離に近づいていることが示されている。
 <ステップS408>(先のステップS5に対応)
 次に、注視位置取得部108が、接近時刻算出部107から前記接近時刻が出力された場合にのみ、移動方向算出部106から出力された車椅子利用者203の移動状態(位置、移動方向、移動速度)と環境データベース104に記録されている障害物情報とに基づいて、現時刻から前記所定の時間内の、車椅子利用者203が注視を行う割合が多いと予測される注視位置を取得し、走行情報生成処理はステップS409に進む。先に述べたように、図8A及び図8Bに環境データベース104の一例を示す。注視位置取得部108は、注接近時刻算出部107から前記接近時刻が出力されなかった場合には注視位置を取得せずに、走行情報生成処理はステップS411に進む。
 <ステップS409>(先のステップS5に対応)
 次に、注視領域算出部109が、移動方向算出部106からの車椅子利用者203の移動状態と注視位置取得部108からの前記注視位置とに基づいて、現時刻から前記所定の時間内の、車椅子利用者203が注視を行う割合が多いと予測される注視領域を算出する。
 <ステップS410>(先のステップS6,S7に対応)
 次に、経路生成部110が、環境データベース104からの障害物の位置情報などと、接近時刻算出部107からの接近時刻と、注視領域算出部109から種別が車椅子利用者203である前記移動体の注視領域とを基に、前記接近時刻よりも早い時刻でかつ前記所定の時間内に、少なくとも自律走行装置204の一部が、前記注視領域内に含まれるような経路情報を生成して、自律走行装置データベース103に記録する。
 先に述べたように、具体的な経路生成の方法としては、例えば、ダイクストラ法を用いることが考えられる。ダイクストラ法とは、重み付グラフ上の最短経路探索問題を解決するための一手法である。図17A~図17Fにダイクストラ法を用いた最短経路探索の例を示す。図17Aに解決すべき重み付グラフを示している。前記グラフは、ノードが6個配置されており、ノード間を移動できる場合にはアークでノード間が接続されている。アーク上に表示されている数値が重みとなっている。今回は、ノード1からノード6に向かうときの最短経路を経路生成部110で求めることとする。まず、ノード1から最小の重みで移動可能なノードを経路生成部110で探索する。すると、ノード3に重み3で移動可能であることが分かる(図17B)。次に、ノード1から最小の重みで移動可能な別のノードを探索する。すると、ノード2に重み4で移動可能であることが分かる(図17C)。同様に、ノード1から最小の重みで移動できる、さらに別のノードを探索する。すると、ノード6に重み6で移動可能であることが分かる(図17D)。次いで、ノード1からの最小の重みで移動可能なノード3を基に、ノード3から、最小の重みで移動できるノードを探索する。すると、ノード5に重み4で移動可能であることが分かる(図17E)。これらの処理を繰り返し行うことにより、ノード1からノード6に向かうときの最短経路(言い換えれば、重みが最小となる経路)を探索する。すると、ノード1からノード2を経てノード6に向かう経路が、4+6=10の最小の重みとなる。よって、最終的にノード1からノード6に到着するための、最小の重みを持った経路を生成することが可能となる(図17F)。
 第1実施形態でこのダイクストラ法を適用する具体的な方法としては、まず、ノードの設定を経路生成部110で行う。前記4次元空間を経路生成部110でメッシュに区切る(メッシュの交点をノード、ノード間をアークとする。)。なお、メッシュの間隔は、自律走行装置データベース103に記録されている自律走行装置204の速度情報に基づいて経路生成部110で決定する。例えば、自律走行装置204の速度が遅ければ、時間軸の間隔を広く、x,y軸の間隔を狭くメッシュを区切る。もし、時間軸を1秒間隔、x,y軸を200cm間隔でメッシュを区切った場合、ノード間を移動するためには、自律走行装置204は200cm/s以上の速度で移動しなくてはならない。一例として、第1実施形態における自律走行装置204の最大速度は100cm/sであることから、ダイクストラ法を用いて経路の解を見つけることができなくなる。なお、ノードの設定方法はこれに限る必要はなく、例えば、ボロノイ図などを利用しても構わない。ボロノイ図とは、複数存在する点群の隣接する2点を結ぶ線分の垂直二等分線の一部により構成される図であり、前記線分をアーク、前記線分の交点をノードとすることができる。
 次に、自律走行装置204を注視領域1101内に進入させるための中継位置の設定を経路生成部110で行う。中継位置の(x,y)座標に関しては、一例として、車椅子利用者203の安全性を考慮し、車椅子利用者203から離れた注視領域110内の位置に経路生成部110で設ける。
 中継位置のz座標に関しては、自律走行装置204の点701の高さの注視領域110内の位置(第1実施形態の場合は、一例として、100cm)としておく。
 中継位置の時刻tに関しては、一例として、自律走行装置データベース103に記録されている自律走行装置204の速度情報に基づいて、自律走行装置204が設定した(x,y,z)座標に到達できる注視領域110内の時刻に経路生成部110で設定する。
 次に、初期ノードの設定を経路生成部110で行う。初期ノードの位置は、現時刻における自律走行装置204の点701の位置(20,150,100)である。
 次に、目標ノードの設定を経路生成部110で行う。目標ノードの位置は、前記目標位置(100,150,100)とする。
 なお、新たに生成する経路は、注視領域1101を経由することになるため、目標ノードの時刻tは余裕を持って経路生成部110で設定しておいても構わない。一例としては、自律走行装置204が目標位置へ直線移動した場合にかかる時間の、更に5秒後を目標ノードの時刻tとするなどが考えられる。経路生成部110において前記初期ノードと中継ノードと目標ノードとの設定が終わると、まず、前記初期ノードから前記中継ノードに移動する経路をダイクストラ法により経路生成部110で求める。前記経路が経路生成部110で求まった場合、次に、前記中継ノードから前記目標ノードに移動する経路をダイクストラ法により経路生成部110で求める。これにより、前記初期ノードから前記目標ノードに移動する経路、つまり、現時刻における自律走行装置204を、注視領域1101を経由して目標位置に移動させることのできる経路を経路生成部110で求めることができる。
 なお、ダイクストラ法は、全ての可能性を探索し最短経路を求める方法であるため、前記中継ノードと前記目標ノードとは、それぞれ1つに限らず、複数設けておいて構わない。そのような場合も、前記中継ノードを通過し、前記目標ノードに到達する複数の経路候補の中から最短の経路が経路生成部110で選択されることとなる。
 ここで、自律走行装置204が上下運動できない場合は、自律走行装置204の点701をz軸方向に移動させることができない。これは、ダイクストラ法でz軸方向の移動を伴うノード間の移動は行えないことを意味する。つまり、自律走行装置204の点701の高さ以外のz位置に前記中継位置又は前記目標位置を設定した場合、経路の解を見つけることができなくなる。
 点701の高さに注視領域1101が存在する場合には、経路の解が見つかる可能性はあるが、点701の高さに注視領域1101が存在しない場合には、経路の解が見つかることはない。この場合、例えば、経路生成部110が環境データベース104に記録されている障害物情報を参照することによって、自律走行装置204の上空には障害物が存在しないことを経路生成部110で確認することを前提として、自律走行装置204の高さの範囲内において点701のz軸方向の移動を経路生成部110で許可することも考えられる。これにより、点701の高さ以外のz位置に前記中継位置もしくは前記目標位置を設定したとしても、経路生成部110で経路の解を見つけることが可能になる。
 なお、多次元空間での自律走行装置204の経路生成を経路生成部110で行うにあたって、計算量の問題が発生する場合には、例えば、RRTs(Rapidly‐explorihg Random Trees)などの経路生成方法を用いることができる。これは、初期ノードからランダムな位置にノードを生成していく方法となっており、必要な数のノードだけを逐次生成するため、計算量の増加を抑制することが可能となっている。これについては、非特許文献3(Steven M. Lavalle, James J. Kuffner: Randomized Kinodynamic Planning. Robotics and Automation, 1999. Proceedings. 1999 IEEE International Conference on, pp473‐479)に開示されている。なお、経路生成方法はこれに限るものではなく、その他の経路生成手法として、例えば、確率的ロードマップ法、又は、Aアルゴリズムを利用しても良い。
 ここで、Aアルゴリズムを経路生成部110で利用して経路の生成を行う例を、図18A~図18Dを用いて説明する。図18Aには、車椅子利用者203が静止障害物(静止障害物の図示は省略する)を注視することによって生じる注視領域2601と、自律走行装置204の現在位置(観測装置101が最後に観測を行った時刻の位置)2602Aと、自律走行装置204の目標位置2602Bと、車椅子利用者203の現在位置(観測装置101が最後に観測を行った時刻の位置)2603とが示されている。上述したダイクストラ法を用いて、自律走行装置204が注視領域2601に一旦進入し、且つ、自律走行装置204が目標位置2602Bへ向かう経路を生成すると、図18Bに示されるような最短経路が生成されることとなる(説明を簡単にするため、時間軸は省略してある。つまり、車椅子利用者2603は停止しているものとする)。Aアルゴリズムでは、各アークに、アークを移動する際の重みを定義することが可能となっている。例えば、急な坂道になっており走行に負担がかかる、また、周囲に貴重品が設置されており慎重に徐行しなければいけない、など、走行に何かしらの制限がかかる場合に、アークに重みを与えておくことができる。これによって、単に最短経路ではない周囲の状況に合わせた最適な経路を経路生成部110で生成することが可能となる。図18Cに、自律走行装置204が、注視領域2601に進入するときの危険性を重みとして加えたときの様子を示す。例えば、車椅子利用者2603から近い位置で注視領域2601に進入するアークには、車椅子利用者2603は、急な自律走行装置204の出現に驚いてしまう可能性があるため、重みを大きく設定してある。また、車椅子利用者2603から遠い位置で注視領域2601に進入するアークには、車椅子利用者2603は、自律走行装置204の出現に驚く可能性が低いため、重みを低く設定してある。このような重みを加味して経路を経路生成部110で生成すると、図18Dに示すような、走行距離的には少し長くなるが、車椅子利用者203にとって、より安全な自律走行装置204の走行経路を経路生成部110で生成することが可能となる。これまでの説明では、車椅子利用者203の危険性の観点で重みを設定しているが、自律走行装置204と障害物との接触の危険性の観点で重みを設定しても構わない。また、車椅子利用者203の危険性と、自律走行装置204と障害物との接触の可能性の両方を加味して重みを設定しても構わない。例えば、自律走行装置204が減速しつつ注視領域2601に進入したとしても、車椅子利用者203が余裕をもって自律走行装置204の存在を認識できる程度の、十分な距離が自律走行装置204と車椅子利用者203との間で確保されていた場合、自律走行装置204は、前記静止障害物との接触の可能性を軽減するため、減速を行いつつ注視領域2601に進入するような経路を生成することも可能である。また、別の例として、自律走行装置204と移動体(車椅子利用者203)との距離が近い(位置関係が近い)場合には、自律走行装置204が移動するアーク(ノード間)に重みを付けることによって、生成する経路に前記アークを選択されにくくすることができる。より具体的には、例えば、実際の距離に前記重みを掛けた数値を仮想距離とし、前記仮想距離が最短となる経路を選択して経路を経路生成部110で生成する。なお、重みは、移動体に近づくほど重くするなど、予め設定した指標に基づいて決定するものとする。
 よって、経路生成部110は、障害物の位置情報など{より具体的には、自律走行装置204と移動者(車椅子利用者203)との位置関係、又は/且つ、自律走行装置204と障害物との位置関係}の情報と、接近時刻算出部107より算出した接近時刻と、注視領域算出部109より算出した注視領域とに基づいて、接近時刻より所定の時刻前に注視領域内へ自律走行装置204を走行させる経路情報を生成して、自律走行装置データベース103に記録する。
 <ステップS411>
 ステップS411では、自律走行装置204が、予め設定されている目標位置に向かうための経路を生成する。具体的な経路の生成手法に関しては、ステップS401で説明したものと同等である。
 <ステップS412>(先のステップS8に対応)
 以上のような方法により経路生成部110で生成した新たな経路を、経路生成部110から自律走行装置データベース103の移動経路情報に記録し、以後、自律走行装置204は前記新経路の情報に基づいて走行を行う。なお、経路の解が見つからなかった場合には、車椅子利用者203の安全性を確保するため、自律走行装置204と車椅子利用者203とが前記所定の距離以内に接近している状況においては、自律走行装置204の走行を一時停止させても良い。その後、走行情報生成処理はステップS401に戻る。なお、走行情報生成処理が、ステップS402又はステップS406又はステップS408からステップS412に進んだ場合には、車椅子利用者203を検出していない間に生成されていた経路情報に基づいて自律走行装置204は走行する。
 <効果>
 本発明の第1実施形態によれば、車椅子による移動者(車椅子利用者203)がいる場合でも、車椅子利用者が注視する割合の高い足元の障害物を注視する領域内に自律走行装置を走行させるような走行情報を、走行情報生成装置100で生成することができる。よって、車椅子利用者に対して自律走行装置の存在をより確実に認識させることができる。
 従って、例えば、建物の一例としての病院内に、自律走行装置204の具体的な例として薬剤自動搬送用のロボット等が導入されて、入院患者等が存在する廊下を薬剤自動搬送用のロボットが自律的に動作するシステムが導入されている場合にも、第1実施形態を適用することができる。一方で、病院等においては、入院患者等は、転倒を恐れるため、足元の障害物に気を配り、視線が低くなる傾向がある。そのため、一般の健常者に比べ、入院患者等は視野が狭くなっていることが多い。特に、図19で説明するように、健常者17の注視領域は広い(図19の左図を参照。)のに対して、車椅子利用者203の注視領域は、足元を中心に遠方まで、注視しておらず、健常者17の注視領域より狭い(図19の右図を参照。)ことが多い。このような状況において、自律走行装置204の具体的な例としての自律的に移動するロボット等が病院内を移動する場合には、車椅子を利用する患者がいることを想定して、経路を計画する必要がある。このような場合に、第1実施形態によれば、車椅子利用者203の注視する足元側の領域の方向に自律走行装置204が走行することで、自律走行装置204の出現に驚くことなく、車椅子利用者203に自律走行装置204の存在を気付かせることができる。これにより、車椅子利用者203に対して自律走行装置204の存在をより確実に認識させることができて、車椅子による移動者(車椅子利用者203)がいる場合でも、車椅子利用者203に対して自律走行装置204の存在をより確実に認識させることができる。
 (第2実施形態)
 第1実施形態の走行情報生成装置100においては、車椅子利用者203の位置に応じて、廊下等に存在する障害物がある状況で、前記車椅子利用者203の注視領域を考慮して、ロボットが移動する方向を決定するものである。これに対して、第2実施形態の走行情報生成装置100Bにおいては、簡単に言えば、患者の有するタグで診療科等を特定し、患者が確認しそうな案内板位置を特定し、その案内板の位置を利用して注視領域を拡大するものである。
 まず、第2実施形態の走行情報生成装置100Bの特徴を説明する前に、前提となる病院内での患者の行動状況について説明する。病院内において車椅子で移動する患者は、治療を受けることを目的に来院していることが多く、病院内での掲示物を確認しながら、移動することが多い。また、患者は、病院内において、診察券又はカルテを持参して移動していることが多いため、その中にタグを埋め込むことにより、患者が診察又は処置又は検査又は手術又は機能訓練を受けるか又は精算をする又は薬をもらうなどの診療科等(診療科、処置室、臨床検査室、手術室、機能訓練室、精算窓口、薬局など病院内の施設)の情報を特定することも可能である。以下は、説明を簡単にするため、患者が診療科を受診する場合について説明するが、診療科以外の他の場所に行って処置などを受ける場合も、同様である。患者が、どの診療科を受診するかを特定することで、前記患者が注視する掲示物も、ある程度特定することが可能になる。
 そこで、第2実施形態においては、図20に示すように、第1実施形態に対して、さらに、患者情報蓄積部1401と、患者確認空間特定部1402とをさらに備えて、注視領域算出部109では、患者情報蓄積部1401の情報などを基に、患者確認空間特定部1402で特定された患者が確認する可能性がある掲示物の空間的位置情報(例えば掲示位置)から、車椅子利用者203の注視領域を算出するものである。
 患者情報蓄積部1401は、患者が保有するタグの情報と患者との対応関係を蓄積している。
 患者確認空間特定部1402は、観測装置101で観測されたタグの情報と、患者情報蓄積部1401で蓄積されているタグと患者との情報の対応関係から、患者が確認すべき掲示情報を特定し、さらに環境データベース104で蓄積されている病院内での掲示情報の空間的位置情報から、患者が確認すべき空間を特定する。
 注視領域算出部109では、患者確認空間特定部1402で特定された患者が確認する可能性がある掲示物の空間的位置情報に基づいて、車椅子利用者203の注視領域を算出する。
 上記走行情報生成装置100Bの動作について、次に簡単に述べる。基本的には、第1実施形態と同様の動作を行うため、新たに追加された部分について説明する。
 患者情報蓄積部1401においては、図21に示すように、タグIDに対して、前記タグを保有する患者IDと、その患者が受診する診療科と、さらには、その診療科における治療内容とが蓄積されている。これらの情報は、病院内で患者に対してタグを渡すときに、患者のカルテ等に記載されている内容とタグIDとの対応を登録するものである。
 次に、観測装置101においては、患者が保有するタグのIDを観測し、患者確認空間特定部1402においては、所定のタグIDが検出されたときに、前記タグIDを保有する患者の診療科及び診察内容を特定するものである。
 また、環境データベース104においては、図8A~図8Eに示すデータの内容に、さらに、図22A及び図22Bに示すように、患者の注視点に関する情報、具体的には、各診療科に対して、関連する掲示物が病院内のどの位置に掲示されているかの空間的位置情報が蓄積されている。例えば、図22A及び図22Bにおいて、整形外科の診療科に関しては、ドアに掲示されている「整形外科」、又は、病院の廊下に掲示されている「レントゲン室」の表示が該当する。さらに、各掲示物に対して、病院全体に対して各フロアでの基準位置が蓄積されており、さらに、その基準位置から患者が確認する代表座標位置が登録されている。また、掲示物の表示の大きさに関する情報も登録されている。これらの情報から、各掲示物が病院内で、どこに掲示されているかを注視領域算出部109で計算することができる。さらに、車椅子で移動している患者が、その掲示物の情報を確認するかを注視領域算出部109で推定することも可能になる。患者が掲示物を確認することから、掲示物の位置の情報を考慮して注視領域を注視領域算出部109で補正するものである。
 ここで、例えば、図23に示すように、車椅子利用者203の注視領域が図23の左図(a)にように設定されている場合でも、車椅子利用者203の患者が保有するタグから、患者が整形外科の治療を受診する患者であることが特定できた場合には、廊下に面した扉に「整形外科」の掲示物があった場合には、患者は、その方向に視線を移動させる可能性が高い。そこで、このような車椅子利用者203においては、注視領域を図23の右図(b)にあるように注視領域算出部109で補正する。
 第2実施形態によれば、車椅子利用者203が向かう可能性の高い診療科等の情報とその案内板の位置とを基に、車椅子利用者203の注視領域を注視領域算出部109で補正することができて、車椅子利用者203の注視領域をより正確に作成することができる。よって、車椅子利用者13の注視領域の方向に自律走行装置14をより確実に走行させて車椅子利用者13に自律走行装置14の存在をより確実に気付かせることができる。
 (第3実施形態)
 第1実施形態の走行情報生成装置100においては、車椅子利用者203の車椅子の操作能力は同一のものとして構成している。しかしながら、車椅子利用者203においては、長い間、車椅子を利用している患者は、障害物等に対して少ない距離で、小回りで回避操作が可能である。一方、車椅子利用の初心者(車椅子初心者)にとっては、障害物に対して回避するのに、多くの距離が必要になる。
 そこで、図24に示す第3実施形態の走行情報生成装置100Cにおいては、タグで患者の車椅子の移動履歴に関する特性を特定し、慣れている度合、又は、車椅子の性能(回避特性など)を特定し、容易に回避できる距離を特定するものである。
 すなわち、走行情報生成装置100Cは、患者情報蓄積部1401と、回避距離特定部1403とをさらに備えている。
 患者情報蓄積部1401は、車椅子利用者203が利用している車椅子の利用履歴又は車椅子の機種に関する情報を予め蓄積する。
 回避距離特定部1403は、患者情報蓄積部1401で特定された、患者が利用している車椅子の情報を用いて、車椅子利用者203が容易に回避できる距離を特定する。
 また、経路生成部110においては、回避距離特定部1403で特定された距離を用いて、自律走行装置204の回避経路を生成するものである。
 上記走行情報生成装置100Cの動作について、次に簡単に述べる。基本的には、第1実施形態と同様の動作を行うため、新たに追加された部分について説明する。
 患者情報蓄積部1401においては、図25に示すように、さらに、患者IDに対して車椅子の使用履歴及び車椅子の機種に関する情報が蓄積されている。車椅子利用の車椅子の利用履歴の期間によって、自律走行装置204が接近してきたとき、自律走行装置204に対して容易に回避するための距離が異なり、利用期間が長い車椅子利用者203は、車椅子の操作に慣れていると考えられる。
 そこで、図26の右図(b)に示すように、車椅子利用者203が熟練していて、容易に回避するための距離が短い場合には、自律走行装置204は、車椅子利用者203の注視領域に侵入し、車椅子利用者203に対して移動体の存在を気づかせる経路を選択する。一方で、車椅子の操作が熟練していない患者に対しては、図26の左図(a)に示すように、回避するための距離が長くなり、注視領域に移動体が侵入すると、直ちに回避行動をとらなければならない。そこで、このような場合には、自律走行装置204は、注視領域から回避するような経路を選択することとなる。第1実施形態で説明したAアルゴリズムを用いて説明すると、熟練していない車椅子患者(車椅子初心者)の場合、前記注視領域に進入するアークに大きな重みを掛けることになる。その結果、自律走行装置204は、走行距離が大きく増えることになったとしても、前記車椅子患者を大きく回避する、もしくは、前記車椅子患者が通り過ぎるまで停止をする、などの動作をとることとなる。
 第3実施形態によれば、タグで車椅子利用者203の車椅子の履歴に関する特性を特定し、慣れている度合、又は、車椅子の性能を特定し、容易に回避できる距離を特定することができる。よって、車椅子利用者203の車椅子に慣れている度合などに基づいて、経路生成部110で、より適切な自律走行装置204の回避経路を生成することができる。その結果、車椅子利用者203の注視領域の方向に自律走行装置204をより確実に走行させて車椅子利用者203に自律走行装置204の存在をより確実に気付かせることができる。
 なお、本発明を第1~第3実施形態及び変形例に基づいて説明してきたが、本発明は、前記の第1~第3実施形態及び変形例に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
 前記各走行情報生成装置の一部又は全部は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAM又はハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各部は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 例えば、ハードディスク又は半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。なお、前記実施形態又は変形例における走行情報生成装置を構成する要素の一部又は全部を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータを、
 建物内の移動者の位置を所定の時刻毎又は時間に対応付けて取得する位置取得部と、
 前記位置取得部より取得した前記移動者の種別を識別する移動者識別部と、
 前記位置取得部と前記移動者識別部とでそれぞれ取得した前記移動者の位置及び種別を時系列に記録する位置履歴データベースと、
 前記位置履歴データベース内の情報より前記移動者の移動方向及び移動速度を算出する移動情報算出部と、
 前記建物内を予め定められた経路に従って走行する自律走行装置が第1の位置から第2の位置までを走行するための走行情報を記録する自律走行装置データベースと、
 前記位置取得部より取得した前記移動者の位置と、前記移動情報算出部より算出した前記移動者の移動方向及び移動速度と、前記自律走行装置データベースに記録された前記走行情報とより、前記自律走行装置と前記移動者とが所定の距離以内に接近する接近時刻を算出する接近時刻算出部と、
 前記建物内に存在する静止物体の位置を、前記静止物体を注視する傾向にある移動者の情報と共に記録した環境データベースと、
 前記移動者の位置及び種別と、前記移動者の移動方向と、前記静止物体の位置とに基づいて、前記移動者の注視位置を取得する注視位置取得部と、
 前記移動者の位置及び種別と、前記移動者の移動方向と、前記注視位置とに基づいて、前記移動者の注視領域を算出する注視領域算出部と、
 前記静止物体の位置と、前記接近時刻と、前記注視領域とを基に、前記接近時刻算出部より算出した前記接近する時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を生成する走行情報生成部と、
 として機能させるための自律走行装置の走行情報生成プログラムである。
 それに代えて、前記プログラムは、コンピュータを、
 建物内の車椅子による移動者の位置を所定の時刻毎に取得する位置取得部より取得した前記移動者の位置を時系列に記録する位置履歴データベースと、
 前記位置履歴データベース内の情報より前記移動者の移動方向及び移動速度を算出する移動情報算出部と、
 前記建物内を予め定められた経路に従って走行する自律走行装置が第1の位置から第2の位置までを走行するための走行情報を記録する自律走行装置データベースと、
 前記位置取得部より取得した前記移動者の位置と、前記移動情報算出部より算出した前記移動者の移動方向及び移動速度と、前記自律走行装置データベースに記録された前記走行情報とより、前記自律走行装置と前記移動者とが所定の距離以内に接近する接近時刻を算出する接近時刻算出部と、
 前記建物内の障害物の位置を記録した障害物データベースと、
 前記移動者の位置と移動方向と前記障害物データベース内の前記障害物の位置とに基づいて、前記移動者の注視位置を取得する注視位置取得部と、
 前記移動者の位置と移動方向と前記注視位置とに基づいて、前記車椅子利用者の注視領域を算出する注視領域算出部と、
 前記障害物の位置と、前記接近時刻と、前記注視領域とを基に、前記接近時刻算出部より算出した前記接近する時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を生成する走行情報生成部と、
 として機能させるための自律走行装置の走行情報生成プログラムである。
 また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD-ROMなどの光ディスク、磁気ディスク、又は、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。
 また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
 また、それぞれのデータベースは、走行情報生成装置内の構成要素として備える代わりに、図27に第1実施形態の変形例として例示するように、走行情報生成装置内にはデータベースが無く、必要に応じて、通信回線170を介して、走行情報生成装置外のそれぞれのデータベースと情報を出し入れするように構成してもよい。これは、第1実施形態に限らず、他の実施形態でも同様である。
 なお、前記様々な実施形態又は変形例のうちの任意の実施形態又は変形例を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。
 本発明にかかる自律走行装置の走行情報生成装置、自律走行装置、自律走行装置の走行情報生成方法、自律走行装置の走行情報生成プログラムは、移動者(車椅子利用者などの車両操作者、又は、歩行者など)に自律走行装置の存在をより確実に認識させうることができて、一般的に、車椅子利用者などの車両操作者が多く往来する建物である病院、老人ホーム、公共の福祉施設、ショッピングモール、又は、空港等で自律的に走行する自律走行装置の走行情報生成装置、自律走行装置、自律走行装置の走行情報生成方法、自律走行装置の走行情報生成プログラム等として有用である。
 本発明は、添付図面を参照しながら実施形態に関連して充分に記載されているが、この技術の熟練した人々にとっては種々の変形又は修正は明白である。そのような変形又は修正は、添付した請求の範囲による本発明の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。

Claims (16)

  1.  建物内の移動者の位置を所定の時刻毎又は時間に対応付けて取得する位置取得部と、
     前記位置取得部より取得した前記移動者の種別を識別する移動者識別部と、
     前記位置取得部と前記移動者識別部とでそれぞれ取得した前記移動者の位置及び種別を時系列に記録する位置履歴データベースと、
     前記位置履歴データベース内の情報より前記移動者の移動方向及び移動速度を算出する移動情報算出部と、
     前記建物内を予め定められた経路に従って走行する自律走行装置が第1の位置から第2の位置までを走行するための走行情報を記録する自律走行装置データベースと、
     前記位置取得部より取得した前記移動者の位置と、前記移動情報算出部より算出した前記移動者の移動方向及び移動速度と、前記自律走行装置データベースに記録された前記走行情報とより、前記自律走行装置と前記移動者とが所定の距離以内に接近する接近時刻を算出する接近時刻算出部と、
     前記建物内に存在する静止物体の位置を、前記静止物体を注視する傾向にある移動者の情報と共に記録した環境データベースと、
     前記移動者の位置及び種別と、前記移動者の移動方向と、前記静止物体の位置とに基づいて、前記移動者の注視位置を取得する注視位置取得部と、
     前記移動者の位置及び種別と、前記移動者の移動方向と、前記注視位置とに基づいて、前記移動者の注視領域を算出する注視領域算出部と、
     前記静止物体の位置と、前記接近時刻と、前記注視領域とを基に、前記接近時刻算出部より算出した前記接近する時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を生成する走行情報生成部と、
     を備える自律走行装置の走行情報生成装置。
  2.  建物内の車椅子による移動者の位置を所定の時刻毎又は時間に対応付けて取得する位置取得部と、
     前記位置取得部より取得した前記移動者の位置を時系列に記録する位置履歴データベースと、
     前記位置履歴データベース内の情報より前記移動者の移動方向及び移動速度を算出する移動情報算出部と、
     前記建物内を予め定められた経路に従って走行する自律走行装置が第1の位置から第2の位置までを走行するための走行情報を記録する自律走行装置データベースと、
     前記位置取得部より取得した前記移動者の位置と、前記移動情報算出部より算出した前記移動者の移動方向及び移動速度と、前記自律走行装置データベースに記録された前記走行情報とより、前記自律走行装置と前記移動者とが所定の距離以内に接近する接近時刻を算出する接近時刻算出部と、
     前記建物内の障害物の位置を記録した障害物データベースと、
     前記移動者の位置と、前記移動者の移動方向と、前記障害物の位置とに基づいて、前記移動者の注視位置を取得する注視位置取得部と、
     前記移動者の位置と、前記移動者の移動方向と、前記注視位置とに基づいて、前記移動者の注視領域を算出する注視領域算出部と、
     前記障害物の位置と、前記接近時刻と、前記注視領域とを基に、前記接近時刻算出部より算出した前記接近する時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を生成する走行情報生成部と、
     を備える自律走行装置の走行情報生成装置。
  3.  前記注視位置取得部は、前記移動者の位置と、前記移動者の移動方向及び移動速度と、前記障害物の位置とに基づいて、前記移動者の注視位置を取得し、
     前記注視領域算出部は、前記移動者の位置と、前記移動者の移動方向及び移動速度と、前記注視位置とに基づいて、前記移動者の注視領域を算出する、
     請求項2に記載の自律走行装置の走行情報生成装置。
  4.  前記注視領域算出部は、前記移動者の高さをも参照して前記注視領域が算出される、請求項2に記載の自律走行装置の走行情報生成装置。
  5.  前記移動者の高さは、前記移動者が所持するIDタグに記録されている、身長情報、もしくは、年齢情報、もしくは、座高情報の何れかに基づいて推定される、請求項4に記載の自律走行装置の走行情報生成装置。
  6.  前記走行情報生成部は、前記自律走行装置と前記移動者との位置関係、又は/且つ、前記自律走行装置と前記障害物との位置関係に基づいて、前記接近時刻算出部より算出した前記接近時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を生成する、請求項1~5のいずれか1つに記載の自律走行装置の走行情報生成装置。
  7.  前記走行情報生成部より生成された前記走行情報は、前記自律走行装置データベースに記録される、請求項1~6のいずれか1つに記載の自律走行装置の走行情報生成装置。
  8.  前記建物は病院であり、前記移動者は患者であるとき、前記病院内において前記患者を識別するための識別子を前記患者は保有しており、
     前記識別子に対して前記病院内での前記患者が受診する診療科の情報を蓄積している患者情報蓄積部をさらに備え、
     前記環境データベースにおいては、さらに、前記患者情報蓄積部で蓄積されている診療科に関する掲示情報と、前記病院内での前記掲示情報の掲示位置に関する情報とが蓄積されており、
     前記位置取得部は、前記移動者が保有する前記識別子の情報を検出し、
     前記位置取得部で検出された前記識別子に対応する前記患者の診療科の情報と、前記診療科に対する前記環境データベースで蓄積されている前記掲示情報の病院内での掲示位置に基づいて前記移動者が確認する情報の掲示位置を特定する患者確認空間特定部をさらに備え、
     前記注視領域算出部では、前記患者確認空間特定部で特定された情報の掲示位置を利用して前記移動者が注視する注視領域を算出する、
    請求項1~7のいずれか1つに記載の自律走行装置の走行情報生成装置。
  9.  前記識別子は、前記移動者が受診する診療科を特定する識別子であり、
     前記環境データベースでは、前記診療科に対する掲示情報の前記移動者の前記病院内での通路における掲示位置に関する情報が蓄積されており、
     前記注視領域算出部では、前記移動者が確認する掲示情報の空間位置の情報に基づいて前記移動者の注視領域を拡大する、
     請求項8に記載の自律走行装置の走行情報生成装置。
  10.  前記注視領域算出部では、前記注視位置が複数存在した場合、複数存在する注視位置間を結んだ線分、もしくは、領域を注視位置とする、
     請求項1~9のいずれか1つに記載の自律走行装置の走行情報生成装置。
  11.  前記建物は病院であり、前記移動者は患者であるとき、前記病院内において前記患者を識別するための識別子を前記患者は保有しており、
     前記識別子に対して前記病院内での前記患者が利用する車椅子に関する情報を蓄積している患者情報蓄積部をさらに備え、
     前記位置取得部により前記移動者が保有する前記識別子の情報を検出し、
     前記位置取得部で検出された前記識別子に対応する前記患者の車椅子に関する情報から、前記移動者の前記障害物に対する回避距離を特定する回避距離特定部をさらに備え、
     前記走行情報生成部では、前記注視領域算出部で算出された注視領域と、前記回避距離特定部で特定された前記回避距離とに基づいて、前記走行情報を生成する、
     請求項1~7のいずれか1つに記載の自律走行装置の走行情報生成装置。
  12.  前記患者情報蓄積部では、前記患者が前記車椅子を利用している期間が長いほど前記回避距離特定部での回避距離が短くなる、
     請求項11に記載の自律走行装置の走行情報生成装置。
  13.  建物内の移動者の位置を所定の時刻毎又は時間に対応付けて取得するとともに前記移動者の種別を識別して取得した前記移動者の位置及び種別を時系列に記録する位置履歴データベース内の情報より前記移動者の移動方向及び移動速度を算出する移動情報算出部と、
     前記位置取得部より取得した前記移動者の位置と、前記移動情報算出部より算出した前記移動者の移動方向及び移動速度と、前記建物内を予め定められた経路に従って走行する自律走行装置が第1の位置から第2の位置までを走行するための走行情報を記録する自律走行装置データベースに記録された前記走行情報とより、前記自律走行装置と前記移動者とが所定の距離以内に接近する接近時刻を算出する接近時刻算出部と、
     前記移動者の位置及び種別と、前記移動者の移動方向と、前記建物内に存在する静止物体の位置を、前記静止物体を注視する傾向にある移動者の情報と共に記録した環境データベースから取得した前記静止物体の位置とに基づいて、前記移動者の注視位置を取得する注視位置取得部と、
     前記移動者の位置及び種別と、前記移動者の移動方向と、前記注視位置とに基づいて、前記移動者の注視領域を算出する注視領域算出部と、
     前記静止物体の位置と、前記接近時刻と、前記注視領域とを基に、前記接近時刻算出部より算出した前記接近する時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を生成する走行情報生成部と、
     を備える自律走行装置の走行情報生成装置。
  14.  請求項1~13のいずれか1つに記載の前記自律走行装置の走行情報生成装置と、
     前記自律走行装置データベースに記録された前記走行情報を取得する走行情報取得部と、
     前記走行情報取得部より取得された前記走行情報に基づいて走行の制御を行なう駆動装置制御部と、
     を備える自律走行装置。
  15.  建物内の移動者の位置を所定の時刻毎又は時間に対応付けて位置取得部で取得し、
     前記位置取得部より取得した前記移動者の種別を移動者識別部で識別し、
     前記位置取得部と前記移動者識別部とでそれぞれ取得した前記移動者の位置及び種別を時系列に位置履歴データベースに記録し、
     前記位置履歴データベース内の情報より前記移動者の移動方向及び移動速度を移動情報算出部で算出し、
     前記建物内を予め定められた経路に従って走行する自律走行装置が第1の位置から第2の位置までを走行するための走行情報を自律走行装置データベースに記録し、
     前記位置取得部より取得した前記移動者の位置と、前記移動情報算出部より算出した前記移動者の移動方向及び移動速度と、前記自律走行装置データベースに記録された前記走行情報とより、前記自律走行装置と前記移動者とが所定の距離以内に接近する接近時刻を接近時刻算出部で算出し、
     前記建物内に存在する静止物体の位置を、前記静止物体を注視する傾向にある移動者の情報と共に環境データベースに記録し、
     前記移動者の位置及び種別と、前記移動者の移動方向と、前記静止物体の位置とに基づいて、前記移動者の注視位置を注視位置取得部で取得し、
     前記移動者の位置及び種別と、前記移動者の移動方向と、前記注視位置とに基づいて、前記移動者の注視領域を注視領域算出部で算出し、
     前記静止物体の位置と、前記接近時刻と、前記注視領域とを基に、前記接近時刻算出部より算出した前記接近する時刻より所定の時刻前に、前記注視領域算出部より算出した前記注視領域内へ前記自律走行装置を走行させる走行情報を走行情報生成部で生成する、
     自律走行装置の走行情報生成方法。
  16.  請求項15に記載の走行情報生成方法をコンピュータに実行させるための走行情報生成プログラム。
PCT/JP2013/006431 2012-11-05 2013-10-30 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置 WO2014068975A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014520435A JP5597322B1 (ja) 2012-11-05 2013-10-30 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置
CN201380053609.9A CN104718507B (zh) 2012-11-05 2013-10-30 自主行走装置的行走信息生成装置、方法以及自主行走装置
US14/702,094 US9235216B2 (en) 2012-11-05 2015-05-01 Running information generating apparatus of autonomous running apparatus, running information generating method, running information generating program, and autonomous running apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-243498 2012-11-05
JP2012243498 2012-11-05

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/702,094 Continuation US9235216B2 (en) 2012-11-05 2015-05-01 Running information generating apparatus of autonomous running apparatus, running information generating method, running information generating program, and autonomous running apparatus

Publications (1)

Publication Number Publication Date
WO2014068975A1 true WO2014068975A1 (ja) 2014-05-08

Family

ID=50626923

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/006431 WO2014068975A1 (ja) 2012-11-05 2013-10-30 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置

Country Status (4)

Country Link
US (1) US9235216B2 (ja)
JP (1) JP5597322B1 (ja)
CN (1) CN104718507B (ja)
WO (1) WO2014068975A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105371864A (zh) * 2014-08-27 2016-03-02 深圳市赛格导航科技股份有限公司 一种通过上报gps信息取得车辆里程的方法及系统
JP2017049739A (ja) * 2015-09-01 2017-03-09 株式会社データ変換研究所 物体検出システム
JP2017111790A (ja) * 2015-12-10 2017-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 移動制御方法、自律移動ロボット及びプログラム
WO2018225635A1 (ja) * 2017-06-06 2018-12-13 パナソニックIpマネジメント株式会社 台車制御システム
JP2020099977A (ja) * 2018-12-25 2020-07-02 株式会社日立製作所 軌道生成装置、軌道生成方法、及びロボットシステム
WO2020213346A1 (ja) * 2019-04-16 2020-10-22 清水建設株式会社 情報表示システムおよび情報表示方法
JP2020176959A (ja) * 2019-04-19 2020-10-29 キヤノンメディカルシステムズ株式会社 誘導装置及び誘導システム
US11370115B2 (en) 2017-10-16 2022-06-28 Elta Systems Ltd. Path planning for an unmanned vehicle
TWI822096B (zh) * 2022-06-08 2023-11-11 和碩聯合科技股份有限公司 用於控制電動助行裝置的控制系統以及控制方法
JP7460356B2 (ja) 2019-11-13 2024-04-02 ファナック株式会社 移動経路生成装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5597322B1 (ja) * 2012-11-05 2014-10-01 パナソニック株式会社 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置
CN105739503B (zh) * 2016-04-13 2018-06-01 上海物景智能科技有限公司 一种行走机器人拐弯调头的方法及控制设备
JP6689126B2 (ja) * 2016-04-26 2020-04-28 ヤンマー株式会社 作業車両制御システム
JP6946861B2 (ja) * 2017-08-29 2021-10-13 トヨタ自動車株式会社 自動運転評価装置及び自動運転評価方法
JP6967444B2 (ja) * 2017-12-22 2021-11-17 パナソニック株式会社 移動車両
JP6680810B2 (ja) * 2018-01-17 2020-04-15 本田技研工業株式会社 車椅子利用者支援マップシステム
CN109213177B (zh) * 2018-11-09 2022-01-11 苏州瑞得恩光能科技有限公司 机器人导航系统及导航方法
CN109635868B (zh) * 2018-12-10 2021-07-20 百度在线网络技术(北京)有限公司 障碍物类别的确定方法、装置、电子设备及存储介质
CN114237265B (zh) * 2022-02-25 2022-07-12 深圳市城市交通规划设计研究中心股份有限公司 最优日常巡检路线的规划方法、系统、计算机及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280451A (ja) * 2003-03-14 2004-10-07 Matsushita Electric Works Ltd 自律移動装置
JP2007229814A (ja) * 2006-02-27 2007-09-13 Toyota Motor Corp 自律移動型ロボット
JP2008246665A (ja) * 2007-03-07 2008-10-16 Matsushita Electric Ind Co Ltd 行動制御装置、方法、プログラム
JP2008260107A (ja) * 2007-04-13 2008-10-30 Yaskawa Electric Corp 移動ロボットシステム
JP2009285818A (ja) * 2008-05-30 2009-12-10 Fujitsu Ltd 移動説明装置、および、移動説明プログラム
JP2011110644A (ja) * 2009-11-26 2011-06-09 Fujitsu Ltd 自律移動ロボット
WO2013011543A1 (ja) * 2011-07-15 2013-01-24 株式会社日立製作所 自律移動装置およびその制御方法
WO2013069195A1 (ja) * 2011-11-09 2013-05-16 パナソニック株式会社 自律移動装置、自律移動方法、及び自律移動装置用のプログラム
JP2013225253A (ja) * 2012-04-23 2013-10-31 Panasonic Corp 自律移動装置、自律移動方法及び自律移動装置用のプログラム
JP2014002514A (ja) * 2012-06-18 2014-01-09 Panasonic Corp 移動体制御装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7221668B2 (en) * 2000-12-22 2007-05-22 Terahop Networks, Inc. Communications within population of wireless transceivers based on common designation
CN1174337C (zh) * 2002-10-17 2004-11-03 南开大学 识别人眼注视与否的方法和装置及其应用
JP4082190B2 (ja) 2002-11-26 2008-04-30 松下電工株式会社 人の存在位置検出装置とその検出方法及び同検出装置を用いた自律移動装置
ES2262423B1 (es) * 2005-02-18 2007-11-16 Manuel Fernandez Guerrero Sistema de activacion y desactivacion automatica de radiacion ionizante controlado por la mirada del operador.
JP4699426B2 (ja) 2006-08-08 2011-06-08 パナソニック株式会社 障害物回避方法と障害物回避移動装置
CN101344919B (zh) * 2008-08-05 2012-08-22 华南理工大学 视线跟踪方法及应用该方法的残疾人辅助系统
CN101436037B (zh) * 2008-11-28 2012-06-06 深圳先进技术研究院 一种餐厅服务机器人系统
JP5597322B1 (ja) * 2012-11-05 2014-10-01 パナソニック株式会社 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280451A (ja) * 2003-03-14 2004-10-07 Matsushita Electric Works Ltd 自律移動装置
JP2007229814A (ja) * 2006-02-27 2007-09-13 Toyota Motor Corp 自律移動型ロボット
JP2008246665A (ja) * 2007-03-07 2008-10-16 Matsushita Electric Ind Co Ltd 行動制御装置、方法、プログラム
JP2008260107A (ja) * 2007-04-13 2008-10-30 Yaskawa Electric Corp 移動ロボットシステム
JP2009285818A (ja) * 2008-05-30 2009-12-10 Fujitsu Ltd 移動説明装置、および、移動説明プログラム
JP2011110644A (ja) * 2009-11-26 2011-06-09 Fujitsu Ltd 自律移動ロボット
WO2013011543A1 (ja) * 2011-07-15 2013-01-24 株式会社日立製作所 自律移動装置およびその制御方法
WO2013069195A1 (ja) * 2011-11-09 2013-05-16 パナソニック株式会社 自律移動装置、自律移動方法、及び自律移動装置用のプログラム
JP2013225253A (ja) * 2012-04-23 2013-10-31 Panasonic Corp 自律移動装置、自律移動方法及び自律移動装置用のプログラム
JP2014002514A (ja) * 2012-06-18 2014-01-09 Panasonic Corp 移動体制御装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105371864A (zh) * 2014-08-27 2016-03-02 深圳市赛格导航科技股份有限公司 一种通过上报gps信息取得车辆里程的方法及系统
JP2017049739A (ja) * 2015-09-01 2017-03-09 株式会社データ変換研究所 物体検出システム
JP2017111790A (ja) * 2015-12-10 2017-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 移動制御方法、自律移動ロボット及びプログラム
CN107045355A (zh) * 2015-12-10 2017-08-15 松下电器(美国)知识产权公司 移动控制方法、自主移动机器人
WO2018225635A1 (ja) * 2017-06-06 2018-12-13 パナソニックIpマネジメント株式会社 台車制御システム
JP2018203468A (ja) * 2017-06-06 2018-12-27 パナソニックIpマネジメント株式会社 台車制御システム
US11370115B2 (en) 2017-10-16 2022-06-28 Elta Systems Ltd. Path planning for an unmanned vehicle
JP2020099977A (ja) * 2018-12-25 2020-07-02 株式会社日立製作所 軌道生成装置、軌道生成方法、及びロボットシステム
JP7042209B2 (ja) 2018-12-25 2022-03-25 株式会社日立製作所 軌道生成装置、軌道生成方法、及びロボットシステム
WO2020213346A1 (ja) * 2019-04-16 2020-10-22 清水建設株式会社 情報表示システムおよび情報表示方法
JP2020176959A (ja) * 2019-04-19 2020-10-29 キヤノンメディカルシステムズ株式会社 誘導装置及び誘導システム
JP7372048B2 (ja) 2019-04-19 2023-10-31 キヤノンメディカルシステムズ株式会社 誘導装置及び誘導システム
JP7460356B2 (ja) 2019-11-13 2024-04-02 ファナック株式会社 移動経路生成装置
TWI822096B (zh) * 2022-06-08 2023-11-11 和碩聯合科技股份有限公司 用於控制電動助行裝置的控制系統以及控制方法

Also Published As

Publication number Publication date
US20150234383A1 (en) 2015-08-20
JP5597322B1 (ja) 2014-10-01
CN104718507B (zh) 2017-03-29
JPWO2014068975A1 (ja) 2016-09-08
US9235216B2 (en) 2016-01-12
CN104718507A (zh) 2015-06-17

Similar Documents

Publication Publication Date Title
JP5597322B1 (ja) 自律走行装置の走行情報生成装置、方法、及びプログラム、並びに自律走行装置
US20180252535A1 (en) Techniques for Dynamic Mapping of a Facility Using Patient Transport Apparatuses
Li et al. ISANA: wearable context-aware indoor assistive navigation with obstacle avoidance for the blind
US7242306B2 (en) Article locating and tracking apparatus and method
Flores et al. Weallwalk: An annotated dataset of inertial sensor time series from blind walkers
Slade et al. Multimodal sensing and intuitive steering assistance improve navigation and mobility for people with impaired vision
Gross et al. Mobile robotic rehabilitation assistant for walking and orientation training of stroke patients: A report on work in progress
JP6605232B2 (ja) 走行経路設定システム
Lu et al. Assistive navigation using deep reinforcement learning guiding robot with UWB/voice beacons and semantic feedbacks for blind and visually impaired people
JP2009110495A (ja) 自律移動型装置、自律移動型装置用の制御装置および自律移動型装置用のプログラム
JP7505399B2 (ja) ロボット制御システム、ロボット制御方法、及びプログラム
EP3908805A1 (en) Method and system for tracking a mobile device
Kostavelis et al. Robot’s workspace enhancement with dynamic human presence for socially-aware navigation
US11776339B2 (en) Control system, control method, and computer readable medium for opening and closing a security gate
Flores et al. Easy return: an app for indoor backtracking assistance
JP2013225253A (ja) 自律移動装置、自律移動方法及び自律移動装置用のプログラム
KR20180040908A (ko) 공항 로봇
Muñoz et al. An assistive indoor navigation system for the visually impaired in multi-floor environments
Ramaraj et al. Development of a Modular Real-time Shared-control System for a Smart Wheelchair
Xiang et al. Towards customizable robotic disinfection with structure-aware semantic mapping
Evans et al. HelpMate™: A robotic materials transport system
JP2020184274A (ja) 制御装置、制御システム、制御方法及び制御プログラム
Mandel et al. Smart-wheelchairs
García et al. Proposal for an ambient assisted wheelchair (A2W)
Matsumoto et al. Intelligent wheelchair robot “TAO Aicle”

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2014520435

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13851416

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13851416

Country of ref document: EP

Kind code of ref document: A1