WO2021153084A1 - 誘導装置と誘導方法およびプログラム - Google Patents

誘導装置と誘導方法およびプログラム Download PDF

Info

Publication number
WO2021153084A1
WO2021153084A1 PCT/JP2020/047433 JP2020047433W WO2021153084A1 WO 2021153084 A1 WO2021153084 A1 WO 2021153084A1 JP 2020047433 W JP2020047433 W JP 2020047433W WO 2021153084 A1 WO2021153084 A1 WO 2021153084A1
Authority
WO
WIPO (PCT)
Prior art keywords
guidance
control unit
members
guidance control
ability
Prior art date
Application number
PCT/JP2020/047433
Other languages
English (en)
French (fr)
Inventor
佐藤 直之
邦在 鳥居
山本 和典
佐藤 和美
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US17/794,893 priority Critical patent/US20230072586A1/en
Priority to CN202080094194.XA priority patent/CN115003984A/zh
Publication of WO2021153084A1 publication Critical patent/WO2021153084A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3641Personalized guidance, e.g. limited guidance on previously travelled routes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3617Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Definitions

  • This technology enables guidance according to the group to be guided with respect to the guidance device, guidance method and program.
  • the guidance robot of Patent Document 1 is a humanoid robot having an anthropomorphic appearance, and is arranged at an event venue or the like to guide a person to a destination.
  • the guidance robot of Patent Document 1 is a humanoid robot having an anthropomorphic appearance, and is arranged at an event venue or the like to guide a person to a destination.
  • the members of the guiding group are not necessarily at the same level of behavioral ability, for example, when members with different athletic abilities and members with different knowledge about the guiding facility are included. There is. Therefore, when the guidance operation to the destination is predetermined, the guidance operation suitable for the group to be guided cannot be performed.
  • the first aspect of this technology is The behavioral ability acquisition department that acquires the behavioral ability of multiple members
  • the guidance device includes a guidance control unit that performs guidance control of the plurality of members based on the behavioral ability acquired by the behavioral ability acquisition unit.
  • the behavioral ability acquisition unit acquires behavioral abilities including at least one of, for example, physical behavioral ability and intellectual behavioral ability of a plurality of members.
  • the guidance control unit performs guidance control of a plurality of members based on the behavioral ability acquired by the behavioral ability acquisition unit.
  • the guidance control unit discriminates a member to be prioritized from a plurality of members, generates a route plan to the destination according to the action ability of the discriminated priority member, and controls guidance based on the route plan. I do.
  • the priority member may be determined based on the member's ability to act or based on the member's profile.
  • the guidance control unit detects the human region from the captured image obtained by imaging the surroundings, and determines which member the human region represents based on the feature amount calculated from the image of the human region, for example, the color histogram. By doing so, the guidance control is performed by recognizing a plurality of members.
  • the guidance control unit detects the positions of a plurality of members based on the recognition result of the object using the distance measuring sensor and the recognition result of the member using the captured image.
  • the guidance control unit discriminates the leaving member based on the detection results of the positions of the plurality of members, and performs a warning operation according to the action ability of the discriminated leaving member. Further, when an obstacle is detected, the guidance control unit generates a route plan for avoiding the obstacle according to the behavioral ability of a plurality of members, and performs guidance control based on the generated route plan.
  • the second aspect of this technology is Acquiring the behavioral abilities of multiple members at the behavioral ability acquisition department
  • the guidance method includes performing guidance control of the plurality of members by the guidance control unit based on the behavioral ability acquired by the behavioral ability acquisition unit.
  • the third aspect of this technology is A program that executes guidance control on a computer Procedures for acquiring the ability to act of multiple members, There is a program in which the computer executes a procedure for guiding and controlling the plurality of members based on the acquired behavioral ability.
  • the program of the present technology is, for example, a storage medium, a communication medium, a storage medium such as an optical disk, a magnetic disk, a semiconductor memory, or a storage medium provided in a computer-readable format for a general-purpose computer capable of executing various program codes.
  • FIG. 1 illustrates the configuration of a system using the guidance device of the present technology.
  • the system 10 guides the group to the destination based on the database 20 in which the behavioral abilities of a plurality of members constituting the guidance target group are stored and the behavioral abilities of each member of the group based on the guidance request from the group. It has a guidance device 30.
  • Database 20 registers the behavioral abilities of members, for example, in response to requests from members.
  • Mobile communication terminals such as smartphones owned by members determine their ability to act according to an application. Further, the mobile communication terminal communicates with the database 20 and registers the behavioral ability of the member in the database 20. Further, the mobile communication terminal may register the member profile in the database 20.
  • the database 20 provides the guidance device 30 with the behavioral ability and the like of the members of the group in response to the request from the guidance device 30.
  • the guidance device 30 acquires the action ability of each member of the group based on, for example, a guidance request from the group, sets a route to the destination based on the acquired action ability, and performs guidance.
  • the guidance device 30 may perform a withdrawal response operation, an obstacle avoidance operation, or the like while moving.
  • FIG. 2 illustrates the configuration of the guidance device.
  • the guidance device 30 includes a sensor unit 31, a communication unit 32, a drive unit 33, a user interface unit 34, and a control unit 35.
  • the sensor unit 31 has an inner world sensor 311 and an outer world sensor 312, and acquires sensing data for estimating its own position and grasping the surrounding environment.
  • the internal world sensor 311 is configured by using a position sensor, an angle sensor, an acceleration sensor, a gyro sensor, an IMU (Inertial Measurement Unit) sensor, etc., and acquires sensing data related to the guidance device itself and outputs the sensing data to the control unit 35. ..
  • the external world sensor 312 is configured by using a distance measuring sensor (LIDAR (Light Detection and Ringing)), an image sensor, or the like, and acquires sensing data related to the surrounding environment of the guidance device 30 and outputs the sensing data to the control unit 35.
  • a distance measuring sensor LIDAR (Light Detection and Ringing)
  • an image sensor or the like
  • the communication unit 32 communicates with an external device.
  • the communication unit 32 performs wireless communication with, for example, the database 20 via a network or the like, acquires the action ability of each member from the database 20, and outputs the action ability to the control unit 35. Further, the communication unit 32 wirelessly communicates with the members of the group, acquires the request of the group and the information of the members of the group, and outputs the information to the control unit 35.
  • the drive unit 33 drives the actuator, wheels, and the like based on the drive control signal supplied from the control unit 35 to move the guidance device 30.
  • the user interface unit 34 is configured by using a display unit 341, an operation unit 342, an audio input / output unit 343, and the like.
  • the display unit 341 displays a menu for setting the operation of the guidance device 30, presents various information during the guidance operation, and the like.
  • the operation unit 342 is configured by using an operation switch, an operation button, a touch panel, a code reader, and the like.
  • the operation unit 342 makes it possible to receive information on various setting operations and guidance of the guidance device 30, and to receive profile information of destinations and members. For example, when requesting guidance at an airport, the boarding gate is set as the destination by scanning the code shown on the ticket.
  • a code indicating information on a user's profile and behavioral ability generated by an application of a mobile communication terminal such as a smartphone may be read and used for guidance control.
  • the audio input / output unit 343 is configured by using a speaker, a microphone, or the like.
  • the voice input / output unit 343 outputs voice information related to the guidance operation and the like from the speaker. Further, the voice input / output unit 343 receives voice instructions and the like from group members and the like based on the voice acquired by the microphone.
  • the control unit 35 performs a guidance operation to the destination based on the action ability of the members of the group in response to a request from the group via the communication unit 32 or the user interface unit 34.
  • the control unit 35 has an action ability acquisition unit 351 that acquires the action ability of a plurality of members, and a guidance control unit 352 that performs guidance control of a plurality of members based on the action ability acquired by the action ability acquisition unit 351. ing. Further, the guidance control unit 352 has a route planning unit 352a, a movement control unit 352b, and a management unit 352c as described later.
  • the action ability acquisition unit 351 acquires the action ability of a member of the group via the communication unit 32 based on the instruction from the guidance control unit 352.
  • the action ability acquisition unit 351 outputs the acquired action ability to the guidance control unit 352.
  • the route planning unit 352a of the guidance control unit 352 estimates the self-position of the guidance device itself based on the sensing data output from the sensor unit 31. For example, the route planning unit 352a detects its own position using the sensing data output from the outside world sensor 312 and the map information stored in advance. In addition, the route planning unit 352a determines the route from the detected self-position, the guidance start position, to the destination indicated by the management unit 352c, in consideration of the behavioral ability of the members of the group. Further, when the priority member is determined, the route planning unit 352a generates a route plan to the destination according to the action ability of the priority member.
  • the movement control unit 352b estimates the self-position of the guidance device itself based on the sensing data output from the sensor unit 31, and generates and drives a drive control signal so as to move the route determined by the route planning unit 352a. Output to unit 33. For example, the movement control unit 352b detects the self-position by determining in which direction and how much the guidance device 30 has moved based on the sensing data output from the internal sensor 311. Further, the movement control unit 352b may detect its own position by using the sensing data output from the outside world sensor 312 and the map information stored in advance.
  • the movement control unit 352b integrates the self-position detection result based on the sensing data output from the internal sensor 311 and the self-position detection result based on the sensing data output from the external sensor 312, and integrates the self-position detection result.
  • the detection result of may be obtained.
  • the movement control unit 352b generates a movement control signal so as to move toward a target at a movement speed set based on the action ability of a member of the group or a member to be prioritized.
  • the members to be prioritized are notified from, for example, the management unit 352c.
  • the movement control unit 352b detects the positions of group members and obstacles based on the sensing data acquired by the external sensor 312 of the sensor unit 31. Further, the movement control unit 352b sends a movement control signal so as to perform a guidance operation or an obstacle avoidance operation suitable for the group based on the behavioral ability and position of the group members and the members to be prioritized, the detection result of obstacles, and the like. Generate.
  • the management unit 352c receives the guidance request via the communication unit 32 or the user interface unit 34. Further, based on the target value indicated in the guidance request and the member information of the group, the action ability acquisition unit 351, the route planning unit 352a, and the movement control unit 352b are set so as to perform the guidance operation to the destination according to the group to be guided. Control. In addition, the management unit 352c discriminates the members to be prioritized based on the behavioral ability of the members and the profile of the members, and information on the discriminated prioritized members (feature amount, individual ID (member identification code), etc. described later). Is notified to the movement control unit 352b. Further, the management unit 352c uses the user interface unit 34 to notify the members of the group of various information and instructions by images and sounds.
  • the configuration of the guidance control unit 352 is an example, and each unit may be integrally configured, for example.
  • the behavioral ability and the like may be provided to the guidance device from the member's mobile communication terminal.
  • the member's mobile communication terminal generates a code indicating information such as behavioral ability and profile by an application, and the guidance device 10 reads the code presented by the mobile communication terminal by the operation unit 342 to display the database 20. You may acquire the ability to act without intervention.
  • the group is a group such as a family group, a company-related group, a friend-related group, and a same-purpose group (for example, a package travel group or a guide group at a museum or museum).
  • the guidance device performs guidance operations according to the members who should be prioritized in the group. For example, when the group is a family group, the guidance action is performed with children and the elderly as priority members. In addition, if the group is a company-related group, a person with a high position may be given priority as a member, and if the group is a friend-related group, a member who has little experience in using the facility to be guided may be given priority. , The guidance operation may be performed without giving priority to any member. Further, when the group is the same purpose group, for example, when the grade is set for the members of the same purpose group, the guidance operation may be performed with the member of the higher grade as the member to be prioritized. Further, when the guidance device is capable of carrying the luggage of the member, the member who has deposited the luggage in the guidance device may be given priority so as not to leave the luggage.
  • the guidance device determines the member to be prioritized based on, for example, the behavioral ability of the member in order to perform the guidance operation according to the member to be prioritized.
  • the member to be prioritized may be determined based on the profile of the member.
  • Behavioral abilities include at least one of physical and intellectual behavioral abilities.
  • to acquire physical behavior ability in this technique is to acquire information on physical physical strength, for example, information on age, weight, height, gender, walking speed, physical function, and the like.
  • acquiring intellectual behavioral ability means acquiring information on knowledge necessary for behavior, such as multilingual ability, frequency of use of facilities to be guided, hobbies and tastes, and the like.
  • the information on the physical behavioral ability may include any of the above-mentioned information on the intellectual behavioral ability, and the information on the intellectual behavioral ability includes any of the above-mentioned information on the physical behavioral ability. You may.
  • the guidance device can appropriately set the movement speed at the time of guidance and perform the obstacle avoidance operation.
  • the guidance device can also discriminate between an elderly person and a child.
  • the guidance device can appropriately set the movement speed at the time of guidance and perform obstacle avoidance operation.
  • the guidance device can set a route to a destination without using stairs or the like.
  • the guidance device can appropriately perform the obstacle avoidance operation by using the reaction speed.
  • the guidance device can determine whether the member can move by himself or the member needs to be guided in consideration of the use of the toilet based on the age and the like.
  • the guidance device By using the weight, height, gender, etc. of the guidance device, it is possible to appropriately set the movement speed at the time of guidance and perform obstacle avoidance movements.
  • the guidance device can determine whether it is a member who can act autonomously under different language environments. In addition, the guidance device can determine whether or not it is a member who can act autonomously within the guidance target facility by using the knowledge of the guidance target facility.
  • the guidance device can select a route that suits the hobby and taste and perform the guidance operation by using the information about the hobby and taste. Further, the guidance device can perform a guidance operation to the destination via the stop-by place (store, ATM, etc.) specified by the user by using the information such as the desired stop-by place specified by the user. ..
  • the member's action ability may be set individually by the member, or may be automatically generated by the application of the mobile communication terminal possessed by the member.
  • a mobile communication terminal can generate information indicating physical behavioral ability by detecting the movement of a member with a sensor.
  • the walking speed can be determined based on the position information detected by the mobile communication terminal and the elapsed time, the sensing output of the acceleration sensor, or the like. Further, it may be determined that the reaction speed is slow when the frequency of stumbling or falling detected based on an acceleration sensor or the like is high, or when the acceleration from the stopped state to the walking state or from the walking state to the stopped state is small.
  • the mobile communication terminal can generate information indicating the intellectual behavior ability regarding the knowledge of the facility to be guided by discriminating the visit history of the facility or a part of the facility based on the location information or the like. Further, the mobile communication terminal can generate information indicating the intellectual behavior ability regarding hobbies and tastes based on the search history of the member's information and the like.
  • FIG. 3 is a flowchart illustrating the operation of the control unit.
  • the control unit acquires the ability to act.
  • the action ability acquisition unit 351 of the control unit 35 acquires the action ability of the group members from the database 20 and proceeds to step ST2.
  • step ST2 the control unit generates a route plan.
  • the guidance control unit 352 of the control unit 35 generates a route plan to the destination based on the position of the guidance device itself and the action ability of the members of the group.
  • FIG. 4 is a flowchart illustrating the operation of generating the route plan.
  • the guidance control unit plans the route.
  • the route planning unit 352a of the guidance control unit 352 detects the self-position based on the sensing data output from the sensor unit 31, plans the route from the detected self-position to the destination, and proceeds to step ST12.
  • step ST12 the guidance control unit determines whether or not it reflects the behavioral ability of all members.
  • the route planning unit 352a of the guidance control unit 352 determines whether or not the route plan is generated based on the behavioral abilities of all the members.
  • the route planning unit 352a ends the generation of the route plan when the route plan is generated based on the action abilities of all the members. If the behavioral ability of any of the members is not considered in the generation of the route plan, the process proceeds to step ST13.
  • the guidance control unit sets additional conditions.
  • the route planning unit 352a of the guidance control unit 352 sets additional conditions in the generation of the route plan based on the behavioral ability of the members not considered in the generation of the route plan. For example, the route planning unit 352a increases the utilization of the horizontal escalator (so-called "moving walkway") when it is shown that there is a gait disorder or the like due to the behavioral ability of the member who is not considered in the generation of the route plan.
  • Set additional conditions such as.
  • the route planning unit 352a sets additional conditions and returns to step ST11.
  • the guidance control unit 352 performs movement control in step ST3 when the generation of the route plan is completed in step ST2.
  • the guidance control unit 352 moves the guidance device to the destination along the route indicated by the route plan based on the position of the guidance device itself, the route plan generated in step ST2, and the action ability acquired in step ST1. Take control.
  • FIG. 5 is a flowchart illustrating the movement control operation.
  • the guidance control unit determines whether or not the route plan has been acquired.
  • the movement control unit 352b of the guidance control unit 352 proceeds to step ST22 if the route plan generated by the route planning unit 352a has not been acquired, and proceeds to step ST23 if the route plan has been acquired.
  • step ST22 the guidance control unit acquires the route plan.
  • the movement control unit 352b of the guidance control unit 352 acquires the route plan generated by the route planning unit 352a and proceeds to step ST23.
  • step ST23 the guidance control unit estimates its own position.
  • the movement control unit 352b of the guidance control unit 352 estimates the self-position of the guidance device itself based on the sensing data output from the sensor unit 31, and proceeds to step ST24.
  • step ST24 the guidance control unit generates a drive control signal.
  • the movement control unit 352b of the guidance control unit 352 sets the movement direction and the movement speed of the guidance device based on the self-position estimated in step ST23 and the acquired action ability so that the movement control unit 352 can move on the planned route.
  • a drive control signal is generated and output to the drive unit 33.
  • step ST4 the control unit determines whether or not the destination has been reached. If the guidance device has not moved to the destination, the guidance control unit 352 of the control unit 35 returns to step ST3 and continues the movement control. Further, the guidance control unit 352 ends the guidance operation when the guidance device moves to the destination.
  • the group can be guided at a movement speed suitable for the members of the group.
  • FIG. 6 is a flowchart illustrating other movement control operations.
  • the guidance control unit 352 determines whether or not the route plan has been acquired.
  • the movement control unit 352b of the guidance control unit 352 proceeds to step ST32 if the route plan generated by the route planning unit 352a has not been acquired, and proceeds to step ST33 if the route plan has been acquired.
  • step ST32 the guidance control unit acquires the route plan.
  • the movement control unit 352b of the guidance control unit 352 acquires the route plan generated by the route planning unit 352a and proceeds to step ST33.
  • step ST33 the guidance control unit determines whether the group is a company-related group.
  • the management unit 352c of the guidance control unit 352 determines whether the group is a company-related group based on the guidance request from the user, and if it is determined to be a company-related group, proceeds to step ST34 and proceeds to the company-related group. If it is determined that this is not the case, the process proceeds to step ST39.
  • step ST34 the guidance control unit determines whether the highest member has been set.
  • the management unit 352c of the guidance control unit 352 moves the information indicating the highest member when the highest member in the group (hereinafter referred to as "highest member") is indicated by, for example, a guidance request from the user. Notify the control unit 352b and proceed to step ST38. Further, the management unit 352c proceeds to step ST35 when it is determined that the highest-level member is not shown.
  • step ST35 the guidance control unit inquires about the top member.
  • the management unit 352c of the guidance control unit 352 uses the user interface unit 34 to inquire the user whether the top member can be set by image or voice, and proceeds to step ST36.
  • FIG. 7 illustrates the inquiry operation of the top member.
  • FIG. 7A illustrates an inquiry screen displayed on the display unit 341 of the user interface unit 34 by the inquiry operation of the highest-level member.
  • the setting screen shown in FIG. 7B is displayed.
  • the setting screen display for example, the names of the members of the group are displayed so that it is possible to set which member is the boss.
  • step ST36 the guidance control unit determines whether the highest member has been set.
  • the management unit 352c of the guidance control unit 352 determines that the highest member has been set in response to the inquiry, the management unit 352c notifies the movement control unit 352b of the information indicating the highest member, proceeds to step ST37, and is designated.
  • the process proceeds to step ST39.
  • step ST37 the guidance control unit determines whether to perform movement control according to the highest member.
  • the management unit 352c of the guidance control unit 352 determines whether to perform the movement control corresponding to the set highest-level member, and if the movement control corresponding to the highest-level member is performed, proceeds to step ST38 and becomes the highest-level member. If the corresponding movement control is not performed, the process proceeds to step ST39.
  • a selection screen for whether or not to perform a guidance operation in which the boss is met is displayed. It is displayed, and when the guidance start is selected, it is determined that the movement control according to the boss is performed. Further, when "Cancel" is selected, it is determined that the movement control according to the boss is not performed.
  • step ST38 the guidance control unit performs movement control according to the highest member.
  • the movement control unit 352b of the guidance control unit 352 sets the movement speed and the like according to the action ability of the highest-ranking member, and proceeds to step ST40.
  • step ST39 the guidance control unit performs movement control according to a group that is not related to the company.
  • the movement control unit 352b of the guidance control unit 352 sets the movement speed and the like according to the action ability of each member of the group, and proceeds to step ST40.
  • step ST40 the guidance control unit estimates its own position.
  • the movement control unit 352b of the guidance control unit 352 estimates the self-position of the guidance device itself based on the sensing data output from the sensor unit 31, and proceeds to step ST41.
  • step ST41 the guidance control unit generates a drive control signal.
  • the movement control unit 352b of the guidance control unit 352 sets the movement direction of the guidance device based on the self-position estimated in step ST40, and moves on the planned route at the movement speed or the like set in step ST38 or step ST39.
  • a drive control signal is generated so that the vehicle can move and is output to the drive unit 33.
  • step ST4 the control unit determines whether or not the destination has been reached. If the guidance device has not moved to the destination, the guidance control unit 352 of the control unit 35 returns to step ST3 and continues the movement control. Further, the guidance control unit 352 ends the guidance operation when the guidance device moves to the destination.
  • the setting of the top member is not limited to user operation, but information acquired via the network, for example, the company name or department indicated by the member's profile acquired from the company network or SNS (social networking service), etc. It may be set automatically based on the job title or the like.
  • the temporary setting is made.
  • the member that has been set may be set as the highest level member.
  • the guidance movement can be easily performed according to the behavioral ability of the highest member in the group.
  • Obstacle avoidance operation When guiding a group with a guidance device, the guidance device performs an obstacle avoidance operation so as to avoid obstacles existing on the route and guide the group.
  • FIG. 8 is a flowchart illustrating an obstacle avoidance operation.
  • the guidance control unit 352 determines whether or not the route plan has been acquired.
  • the movement control unit 352b of the guidance control unit 352 proceeds to step ST54 if it has not acquired the route plan generated by the route planning unit 352a, and proceeds to step ST52 if it has acquired it.
  • step ST52 the guidance control unit determines whether an obstacle has been detected.
  • the movement control unit 352b of the guidance control unit 352 detects an obstacle located in the guidance direction based on the sensing data output from the external sensor 312 of the sensor unit 31.
  • the movement control unit 352b proceeds to step ST53 when an obstacle is detected, and proceeds to step ST55 when no obstacle is detected.
  • step ST53 the guidance control unit performs obstacle notification processing.
  • the movement control unit 352b of the guidance control unit 352 notifies the route planning unit 352a of the obstacle information indicating the position, size, movement, etc. of the detected obstacle, and proceeds to step ST54.
  • step ST54 the guidance control unit acquires the route plan.
  • the movement control unit 352b of the guidance control unit 352 acquires the route plan generated based on the obstacle information generated by the route planning unit 352a, and proceeds to step ST55.
  • the avoidance plan is a shorter-term route plan than the route plan generated in step ST2.
  • step ST55 the guidance control unit estimates its own position.
  • the movement control unit 352b of the guidance control unit 352 estimates the self-position of the guidance device itself based on the sensing data output from the sensor unit 31, and proceeds to step ST56.
  • step ST56 the guidance control unit generates a drive control signal.
  • the movement control unit 352b of the guidance control unit 352 is planned by setting the movement direction and movement speed of the guidance device based on the acquired route plan, the self-position estimated in step ST55, and the action ability acquired in step ST1.
  • a drive control signal is generated and output to the drive unit 33 so that the vehicle can move on the path.
  • step ST4 the control unit determines whether or not the destination has been reached. If the guidance device has not moved to the destination, the guidance control unit 352 of the control unit 35 returns to step ST3 and continues the movement control. Further, the guidance control unit 352 ends the guidance operation when the guidance device moves to the destination.
  • the route planning unit 352a performs an operation of generating a route plan using the obstacle information as illustrated in FIG.
  • step ST61 the guidance control unit generates a route plan to avoid obstacles.
  • the route planning unit 352a of the guidance control unit 352 detects the self-position based on the sensing data output from the sensor unit 31, and avoids the obstacle indicated by the obstacle information from the detected self-position, for example.
  • a route plan showing the avoidance start distance, the movement speed at the time of avoidance, the bending angle at the time of avoidance, etc. is generated, and the process proceeds to step ST62.
  • step ST62 the guidance control unit determines whether or not it reflects the behavioral ability of all members.
  • the route planning unit 352a of the guidance control unit 352 determines whether or not a route plan for avoiding obstacles is generated based on the behavioral abilities of all the members.
  • the route planning unit 352a ends the route plan generation operation when the route plan is generated based on the action abilities of all the members. If the behavioral ability of any member is not considered in the generation of the route plan, the process proceeds to step ST63.
  • step ST63 the guidance control unit sets additional conditions.
  • the route planning unit 352a of the guidance control unit 352 sets additional conditions in the generation of the route plan based on the behavioral ability of the members not considered in the generation of the route plan. Further, when the obstacle information is supplied, the route planning unit 352a sets the obstacle information as an additional condition and returns to step ST61.
  • the route plan is updated to avoid the obstacle, so that the group You will be able to guide the group to your destination by performing obstacle avoidance actions according to the action ability and obstacle information of the members of. Further, by repeating the movement control and the generation operation of the route plan for avoiding obstacles, even if a plurality of obstacles exist, the obstacle avoidance operation corresponding to each obstacle can be performed.
  • FIG. 10 is a flowchart illustrating the withdrawal response operation.
  • the guidance control unit detects the position of the member.
  • the management unit 352c of the guidance control unit 352 uses the sensing data output from the external sensor 312 of the sensor unit 31 to recognize the members and measure the distance to the members for each member, and proceeds to step ST72.
  • step ST72 the guidance control unit determines whether or not there is a detached member.
  • the management unit 352c of the guidance control unit 352 proceeds to step ST73 when there is a withdrawal member who is farther than a preset threshold value from the guidance device, and ends the withdrawal response operation when there is no withdrawal member.
  • step ST73 the guidance control unit determines whether the leaving member can act autonomously.
  • the management unit 352c of the guidance control unit 352 determines that it is possible to act autonomously based on the behavioral ability of the withdrawal member, it terminates the withdrawal response operation, and when it determines that it is not possible to act autonomously. Proceed to step ST74.
  • step ST74 the guidance control unit determines whether withdrawal response control is necessary.
  • the management unit 352c of the guidance control unit 352 determines whether guidance corresponding to the withdrawal member is necessary based on the behavioral ability of the withdrawal member.
  • the management unit 352c determines that withdrawal response control, which is guidance control corresponding to the withdrawal member, is necessary when the withdrawal member is a member to be prioritized in the group, for example, an elderly person or a person with a high position in the group, and steps. Proceed to ST75, and if the leaving member is not a priority member, the process proceeds to step ST76.
  • step ST75 the guidance control unit performs withdrawal response control.
  • the management unit 352c of the guidance control unit 352 notifies the movement control unit 352b of the withdrawal member, and the movement control unit 352b adjusts the movement speed and the movement direction of the guidance device so as not to leave the withdrawal member, and performs a withdrawal response operation. To finish.
  • step ST76 the guidance control unit determines whether the warning has been completed.
  • the management unit 352c of the guidance control unit 352 uses a display or voice from the user interface unit 34 to give a withdrawal warning, for example, a display or voice from the user interface unit 34 so as to act in accordance with the moving speed or moving direction of the guidance device. If the warning to be performed is not output, the process proceeds to step ST77, and if the withdrawal warning has already been output, the withdrawal response operation is terminated.
  • step ST77 the guidance control unit outputs a warning.
  • the management unit 352c of the guidance control unit 352 outputs a withdrawal warning to the withdrawal member to call attention to the withdrawal member, and then ends the withdrawal response operation.
  • the guiding device needs to recognize the members in the group.
  • the member recognition process the feature amount of the member is calculated to discriminate each member.
  • individual codes are assigned to members in the group, and individual members are managed by individual codes.
  • the guidance device 30 performs member registration using, for example, an captured image which is sensing data output from the external sensor 312 of the sensor unit 31. In this case, the guidance device recognizes the subject using the captured image. In the subject recognition, the feature amount is calculated for each member from the image obtained by capturing the member.
  • a local feature amount (SIFT feature amount, SURF feature amount, etc.) indicating an edge, a corner, or the like may be used, or a color histogram may be used as the feature amount.
  • the guidance device 30 recognizes at least one of the member's face, body shape, belongings, etc. by subject recognition, and assigns an individual ID to the recognition result. After that, the guidance device recognizes the subject using the image generated by the sensor unit 31 during guidance, and discriminates the individual ID corresponding to the calculated feature amount, so that each member can be discriminated during guidance. ..
  • FIG. 11 is a flowchart illustrating the member registration operation.
  • the guidance control unit acquires a member image.
  • the management unit 352c of the guidance control unit 352 acquires a member image captured by the member to be registered from the sensor unit 31 and proceeds to step ST82.
  • the member image may be a captured image including all the members of the group, a plurality of captured images of individual members, or a plurality of captured images including a plurality of different members. ..
  • step ST82 the guidance control unit performs human recognition processing.
  • the management unit 352c of the guidance control unit 352 performs subject recognition using the member image acquired in step ST81, and detects the image area of the member.
  • step ST83 the guidance control unit calculates the color histogram.
  • the management unit 352c of the guidance control unit 352 calculates, for example, the number of pixels corresponding to each of the levels of the three primary colors, calculates the color histogram, and proceeds to step ST84.
  • FIG. 12 illustrates a color histogram, in which the horizontal axis represents the pixel value and the vertical axis represents the ratio (number of pixels). Note that FIG. 12A shows a red component, FIG. 12B shows a green component, and FIG. 12C shows a blue component, and the total number of pixels is the number of pixels in the image area of the member. It corresponds.
  • the histogram when the area size of the image area showing the same member is different, if the histogram is normalized so that the total number of pixels is the same, the histogram for each color component will be the same even if the area size of the image area is different. Therefore, individual members can be identified by using the colors of the members' clothes and belongings. Further, when the local feature amount is used, it is difficult to identify the user unless the user's feature point is included in the subsequent captured image. However, when the color histogram is used, it is compared with the case where the local feature amount is used. It becomes possible to easily identify individual members.
  • step ST84 the guidance control unit determines whether the individual ID has been registered.
  • the management unit 352c of the guidance control unit 352 proceeds to step ST85 when the individual ID is not assigned to the color histogram calculated in step ST83, and proceeds to step ST86 when the individual ID is assigned.
  • step ST85 the control unit assigns an individual ID.
  • the management unit 352c assigns an individual ID different from the other color histograms to the color histogram calculated in step ST83, and proceeds to step ST86.
  • step ST86 the control unit determines that the registration of all members has been completed.
  • the management unit 352c returns to step ST81 when the calculation of the color histogram of each member of the group and the assignment of the individual ID are not completed, and after acquiring the member image in which the member whose registration is not completed is captured, the person The recognition process and the like are repeated. Further, when the calculation of the color histogram of each member and the assignment of the individual ID are completed, the member registration operation is terminated.
  • FIG. 13 is a flowchart illustrating a member tracking operation in movement control.
  • step ST91 the guidance control unit acquires an captured image during the guidance operation.
  • the management unit 352c of the guidance control unit 352 acquires an captured image generated by imaging the surroundings with the sensor unit 31 during the guidance operation, and proceeds to step ST92.
  • step ST92 the guidance control unit performs human recognition processing.
  • the management unit 352c of the guidance control unit 352 performs a person recognition process using the captured image acquired in step ST91, and detects a person from the captured image.
  • step ST93 the guidance control unit calculates the color histogram.
  • the management unit 352c of the guidance control unit 352 calculates the color histogram based on the image of the person detected in step ST92 in the same manner as when the member is registered, and proceeds to step ST94.
  • step ST94 the guidance control unit determines whether or not there is a corresponding individual ID.
  • the management unit 352c of the guidance control unit 352 determines whether the color histogram calculated in step ST93 corresponds to any of the registered member color histograms, and is assigned to the individual color histograms assigned to the corresponding color histograms. Determine the ID.
  • the management unit 352c proceeds to step ST95 when the individual ID can be determined, and proceeds to step ST97 when the individual ID cannot be determined.
  • step ST95 the guidance control unit determines whether or not it is a tracking target member.
  • the management unit 352c of the guidance control unit 352 proceeds to step ST96 when the individual ID determined in step ST94 is the individual ID of the tracking target member, and proceeds to step ST97 when the individual ID is not the individual ID of the tracking target member.
  • step ST96 the guidance control unit sets the tracking.
  • the management unit 352c of the guidance control unit 352 sets the movement control unit 352b so as to track the recognized tracking target member and perform guidance control, and proceeds to step ST97.
  • step ST97 the guidance control unit determines whether the recognition of the person is completed.
  • the management unit 352c of the guidance control unit 352 returns to step ST92, recognizes a new person from the captured image, and performs the processing after step ST93. If the recognition of the person included in the captured image is completed, the recognition process is terminated.
  • the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
  • the program that records the processing sequence is installed in the memory in the computer embedded in the dedicated hardware and executed.
  • the program can be installed and executed on a general-purpose computer capable of executing various processes.
  • the program can be recorded in advance on a hard disk as a recording medium, an SSD (Solid State Drive), or a ROM (Read Only Memory).
  • the program is a flexible disc, CD-ROM (Compact Disc Read Only Memory), MO (Magneto optical) disc, DVD (Digital Versatile Disc), BD (Blu-Ray Disc (registered trademark)), magnetic disc, semiconductor memory card. It can be temporarily or permanently stored (recorded) on a removable recording medium such as an optical disc.
  • a removable recording medium can be provided as so-called package software.
  • the program may be transferred from the download site to the computer wirelessly or by wire via a network such as LAN (Local Area Network) or the Internet.
  • the computer can receive the program transferred in this way and install it on a recording medium such as a built-in hard disk.
  • the guidance device of the present technology can also have the following configuration.
  • the guidance control unit discriminates a member to be prioritized from the plurality of members and performs the guidance control according to the discriminated member to be prioritized.
  • the guidance device (4) The guidance device according to (3), wherein the guidance control unit generates a route plan to a destination according to the action ability of the member to be prioritized. (5) The guidance device according to (3) or (4), wherein the guidance control unit determines the priority member based on the behavioral ability of the member. (6) The guidance device according to (3) or (4), wherein the guidance control unit determines the priority member based on the profile of the member. (7) The guidance device according to any one of (1) to (6), wherein the guidance control unit recognizes the plurality of members from an image obtained by imaging the surroundings and performs the guidance control. (8) The guidance control unit detects a human region from the captured image and determines which member the human region represents based on the feature amount calculated from the image of the human region (7).
  • the induction device according to the description.
  • the guidance device which uses a color histogram as the feature amount.
  • the guidance control unit detects the positions of the plurality of members based on the recognition result of the object using the distance measuring sensor and the recognition result of the members using the captured image.
  • (11) The guidance device according to (10), wherein the guidance control unit determines a detached member based on the detection results of the positions of the plurality of members, and performs a warning operation according to the action ability of the determined detached member.
  • the guidance control unit When the guidance control unit detects an obstacle, the guidance control unit generates a route plan for avoiding the obstacle according to the action ability of the plurality of members, and performs the guidance control based on the generated route plan.
  • the guidance device according to any one of (1) to (11).
  • the behavioral ability includes at least one of physical behavioral ability and intellectual behavioral ability.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Psychiatry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Navigation (AREA)

Abstract

行動能力取得部(351)は、複数のメンバー、すなわち誘導対象のグループのメンバーの例えば身体的行動能力と知的行動能力の少なくともいずれかを含む行動能力を取得する。誘導制御部(352)は、行動能力取得部(351)で取得した行動能力に基づいて、グループの誘導制御を行う。例えば、誘導制御部は、グループのメンバーから優先すべきメンバーを判別して、判別した優先すべきメンバーの行動能力に応じて目的地までの経路計画を生成して、経路計画に基づいて誘導制御を行う。誘導対象のグループに応じた誘導動作を行うことができるようになる。

Description

誘導装置と誘導方法およびプログラム
 この技術は、誘導装置と誘導方法およびプログラムに関し、誘導対象のグループに応じた誘導を行えるようにする。
 従来、被誘導者を誘導する誘導装置が開示されている。例えば、特許文献1の案内ロボットは、擬人的な姿を有する人型ロボットであり、イベント会場などに配置されて、人を先導して目的地まで案内している。また、不特定多数の人を対象とする案内タスクを実行するときには、体の向きを後ろ方向に向けた状態で移動することで、人の関心を惹きつけながらの案内を可能としている。
特開2011-656号公報
 ところで、グループの誘導を行う場合、誘導するグループのメンバーは、行動能力等は同等レベルとは限らず、例えば運動能力の異なるメンバーや、誘導する施設に関する知識の差があるメンバー等が含まれる場合がある。このため、目的地までの誘導動作が予め規定されている場合、誘導対象のグループに適した誘導動作を行うことができない。
 そこで、この技術では、誘導対象のグループに応じた誘導動作を行うことができる誘導装置と誘導方法およびプログラムを提供することを目的とする。
 この技術の第1の側面は、
 複数のメンバーの行動能力を取得する行動能力取得部と、
 前記行動能力取得部で取得した行動能力に基づいて、前記複数のメンバーの誘導制御を行う誘導制御部と
を備える誘導装置にある。
 この技術において、行動能力取得部は、複数のメンバーの例えば身体的行動能力と知的行動能力の少なくともいずれかを含む行動能力を取得する。誘導制御部は、行動能力取得部で取得した行動能力に基づいて、複数のメンバーの誘導制御を行う。また、誘導制御部は、複数のメンバーから優先すべきメンバーを判別して、判別した優先すべきメンバーの行動能力に応じて目的地までの経路計画を生成して、経路計画に基づいて誘導制御を行う。優先すべきメンバーは、メンバーの行動能力に基づいて判別してもよく、メンバーのプロフィールに基づいて判別してもよい。
 誘導制御部は、周囲を撮像して得られた撮像画像から人領域を検出して、人領域の画像から算出した特徴量例えば色ヒストグラムに基づき、人領域がいずれのメンバーを示しているか判別することで、複数のメンバーを認識して誘導制御を行う。誘導制御において、誘導制御部は、測距センサを用いた物体の認識結果と撮像画像を用いたメンバーの認識結果に基づき複数のメンバーの位置を検出する。また、誘導制御部は、複数のメンバーの位置の検出結果に基づき離脱メンバーを判別して、判別した離脱メンバーの行動能力に応じて警告動作を行う。また、誘導制御部は、障害物を検出した場合、複数のメンバーの行動能力に応じて障害物を回避する経路計画を生成して、生成した経路計画に基づいて誘導制御を行う。
 この技術の第2の側面は、
 複数のメンバーの行動能力を行動能力取得部で取得することと、
 前記行動能力取得部で取得した行動能力に基づいて、前記複数のメンバーの誘導制御を誘導制御部で行うことと
を含む誘導方法にある。
 この技術の第3の側面は、
 誘導制御をコンピュータで実行させるプログラムであって、
 複数のメンバーの行動能力を取得する手順と、
 前記取得した行動能力に基づいて、前記複数のメンバーの誘導制御を行う手順と
を前記コンピュータで実行させるプログラムにある。
 なお、本技術のプログラムは、例えば、様々なプログラムコードを実行可能な汎用コンピュータに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、光ディスクや磁気ディスク、半導体メモリなどの記憶媒体、あるいは、ネットワークなどの通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ上でプログラムに応じた処理が実現される。
誘導装置を用いたシステムの構成を例示した図である。 誘導装置の構成を例示した図である。 制御部の動作を例示したフローチャートである。 経路計画の生成動作を例示したフローチャートである。 移動制御動作を例示したフローチャートである。 他の移動制御動作を例示したフローチャートである。 最上位メンバーの問い合わせ動作を例示した図である。 障害物回避動作を例示したフローチャートである。 障害物情報を利用した経路計画の生成動作を例示したフローチャートである。 離脱対応動作を例示したフローチャートである。 メンバー登録動作を例示したフローチャートである。 色ヒストグラムを例示した図である。 メンバー追跡動作を例示したフローチャートである。
 以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
 1.システムの構成
 2.誘導装置の構成
 3.誘導装置の動作
  3-1.誘導装置の経路計画の生成動作
  3-2.誘導装置の移動制御動作
  3-3.誘導装置の他の移動制御動作
  3-4.障害物回避動作
  3-5.離脱対応動作
  3-6.メンバーの識別処理
 <1.システムの構成>
 図1は、本技術の誘導装置を用いたシステムの構成を例示している。システム10は、誘導対象のグループを構成する複数のメンバーの行動能力が記憶されるデータベース20と、グループからの誘導依頼に基づき、グループの各メンバーの行動能力に基づき、目的地までグループを誘導する誘導装置30を有している。
 データベース20は、メンバーの行動能力を例えばメンバーからの要求に応じて登録する。メンバーが所持するスマートフォン等の携帯通信端末は、アプリケーションによって行動能力を判別する。さらに、携帯通信端末は、データベース20と通信を行いメンバーの行動能力をデータベース20に登録する。また、携帯通信端末は、メンバーのプロファイルをデータベース20に登録してもよい。データベース20は、誘導装置30からの要求に応じて、グループのメンバーの行動能力等を誘導装置30へ提供する。
 誘導装置30は、例えばグループからの誘導依頼に基づき、グループの各メンバーの行動能力を取得して、取得した行動能力に基づき目的地までの経路を設定して誘導を行う。また、誘導装置30は、移動中に離脱対応動作や障害物回避動作等を行ってもよい。
 <2.誘導装置の構成>
 図2は誘導装置の構成を例示している。誘導装置30は、センサ部31、通信部32、駆動部33、ユーザインタフェース部34、制御部35を有している。
 センサ部31は、内界センサ311と外界センサ312を有しており、自己位置の推定や周辺環境を把握するためのセンシングデータを取得する。
 内界センサ311は、位置センサや角度センサ、加速度センサ、ジャイロセンサ、IMU(Inertial Measurement Unit)センサ等を用いて構成されており、誘導装置自身に関するセンシングデータを取得して制御部35へ出力する。
 外界センサ312は、測距センサ(LIDAR(Light Detection and Ranging)やイメージセンサ等を用いて構成されており、誘導装置30の周辺環境に関するセンシングデータを取得して制御部35へ出力する。
 通信部32は、外部機器との通信を行う。通信部32は、例えばデータベース20とネットワーク等を介して無線通信を行い、データベース20から各メンバーの行動能力を取得して制御部35へ出力する。また、通信部32は、グループのメンバーと無線通信を行い、グループの要求やグループのメンバーの情報を取得して制御部35へ出力する。
 駆動部33は、制御部35から供給された駆動制御信号に基づきアクチュエータや車輪等を駆動して誘導装置30を移動させる。
 ユーザインタフェース部34は、表示部341や操作部342,音声入出力部343等を用いて構成されている。
 表示部341は、誘導装置30の動作設定等を行うためのメニュー表示や、案内動作中の各種情報の提示等を行う。
 操作部342は、操作スイッチや操作ボタン、タッチパネル、コードリーダ等を用いて構成されている。操作部342は、誘導装置30の各種設定操作や案内に関する情報の受け付け、目的地やメンバーのプロファイル情報等の受け付けを可能とする。例えば、空港で誘導を依頼する場合、航空券に示されたコードを読み取ることで搭乗ゲートを目的地として設定する。また、スマートフォン等の携帯通信端末のアプリケーションで生成されたユーザのプロファイルや行動能力に関する情報を示すコードを読み取り、誘導制御に利用できるようにしてもよい。
 音声入出力部343は、スピーカやマイク等を用いて構成されている。音声入出力部343は、スピーカから案内動作等に関する音声情報を出力する。また、音声入出力部343は、マイクによって取得した音声に基づき、グループのメンバー等からの音声指示等を受け付ける。
 制御部35は、グループから通信部32あるいはユーザインタフェース部34を介した要求に応じて、グループのメンバーの行動能力に基づいて目的地までの誘導動作を行う。
 制御部35は、複数のメンバーの行動能力を取得する行動能力取得部351と、行動能力取得部351で取得した行動能力に基づいて、複数のメンバーの誘導制御を行う誘導制御部352を有している。また、誘導制御部352は、後述するように経路計画部352a、移動制御部352b、管理部352cを有している。
 行動能力取得部351は、誘導制御部352からの指示に基づき、通信部32を介して、グループのメンバーの行動能力を取得する。行動能力取得部351は、取得した行動能力を誘導制御部352に出力する。
 誘導制御部352の経路計画部352aはセンサ部31から出力されたセンシングデータに基づき誘導装置自身の自己位置を推定する。例えば、経路計画部352aは、外界センサ312から出力されたセンシングデータと予め記憶されている地図情報を用いて自己位置を検出する。また、経路計画部352aは、検出した自己位置である誘導開始位置から管理部352cで示された目的地までの経路を、グループのメンバーの行動能力を考慮して決定する。また、経路計画部352aは、優先すべきメンバーが判別されている場合、優先すべきメンバーの行動能力に応じて目的地までの経路計画を生成する。
 移動制御部352bは、センサ部31から出力されたセンシングデータに基づき誘導装置自身の自己位置を推定しながら、経路計画部352aで決定された経路を移動するように駆動制御信号を生成して駆動部33へ出力する。例えば、移動制御部352bは、内界センサ311から出力されたセンシングデータに基づき、誘導装置30がどの方向にどの程度移動したか判定して自己位置を検出する。また、移動制御部352bは、外界センサ312から出力されたセンシングデータと予め記憶されている地図情報を用いて自己位置を検出してもよい。また、移動制御部352bは、内界センサ311から出力されたセンシングデータに基づく自己位置の検出結果と、外界センサ312から出力されたセンシングデータに基づく自己位置の検出結果を統合して、自己位置の検出結果を得るようにしてもよい。
 移動制御部352bは、グループのメンバーあるいは優先すべきメンバーの行動能力に基づいて設定した移動速度で目的に向けて移動するように、移動制御信号を生成する。なお、優先すべきメンバーは、例えば管理部352cから通知される。
 さらに、移動制御部352bは、センサ部31の外界センサ312によって取得されたセンシングデータに基づき、グループのメンバーの位置や障害物の検出を行う。また、移動制御部352bは、グループのメンバーや優先すべきメンバーの行動能力や位置、障害物の検出結果等に基づき、グループに適した誘導動作や障害物回避動作を行うように移動制御信号を生成する。
 管理部352cは、通信部32あるいはユーザインタフェース部34を介して誘導要求を受け付ける。また、誘導要求で示された目的値やグループのメンバー情報に基づき、誘導対象のグループに応じて目的地まで誘導動作を行うように行動能力取得部351と経路計画部352aと移動制御部352bを制御する。また、管理部352cは、メンバーの行動能力やメンバーのプロフィールに基づいて優先すべきメンバーを判別して、判別した優先すべきメンバーに関する情報(後述する特徴量や個別ID(メンバー識別コード)等)を移動制御部352bへ通知する。さらに、管理部352cは、ユーザインタフェース部34を利用して、グループのメンバーに対して画像や音声で各種情報や指示を通知する。
 なお、誘導制御部352の構成は例示であって例えば各部が一体に構成されてもよい。また、上述のシステムでは、メンバーの行動能力等をデータベース20から取得する場合を例示したが、メンバーの携帯通信端末から誘導装置に行動能力等を提供してもよい。例えば、メンバーの携帯通信端末は、アプリケーションによって行動能力やプロファイル等の情報を示すコードを生成して、誘導装置10は携帯通信端末で提示されたコードを操作部342で読み取ることで、データベース20を介することなく行動能力等を取得してもよい。
 <3.誘導装置の動作>
 次に、誘導装置の動作について説明する。グループは、家族グループ、会社関係グループ、友人関係グループ、同一目的グループ(例えばパッケージ旅行のグループや美術館や博物館での案内グループなど)等のグループである。
 誘導装置は、グループにおいて優先すべきメンバーに応じた誘導動作を行う。例えばグループが家族グループである場合、子供や老人を優先すべきメンバーとした誘導動作を行う。また、グループが会社関係グループの場合、地位の高い人を優先すべきメンバーとした誘導動作を行い、友人関係グループである場合、誘導対象施設の利用経験が少ないメンバーを優先すべきメンバーとしてもよく、いずれかのメンバーを優先することなく誘導動作を行ってもよい。さらに、グループが同一目的グループである場合、例えば同一目的グループのメンバーについてグレードが設定されている場合は上位のグレードのメンバーを優先すべきメンバーとした誘導動作等を行うようにしてもよい。また、誘導装置がメンバーの荷物の運搬も可能である場合、荷物から離れないように、荷物を誘導装置に預けたメンバーを優先すべきメンバーとしてもよい。
 誘導装置は、優先すべきメンバーに応じた誘導動作を行うために、例えばメンバーの行動能力に基づいて優先すべきメンバーを判別する。また、メンバーのプロフィールに基づいて優先すべきメンバーを判別してもよい。行動能力は、身体的行動能力と知的行動能力の少なくともいずれかが含まれる。なお、本技術において身体的行動能力を取得するとは、身体的な体力に関する情報、例えば年齢、体重、身長、性別、歩行速度、身体機能等に関する情報を取得することである。また、知的行動能力を取得するとは、行動に必要な知識に関する情報、例えば多言語能力、誘導対象施設の利用頻度、趣味趣向等に関する情報を取得することである。なお、身体的行動能力に関する情報には知的行動能力に関する上述のいずれかの情報が含まれてもよく、知的行動能力に関する情報には身体的行動能力に関する上述のいずれかの情報が含まれてもよい。
 誘導装置は、行動能力として歩行速度を用いることで、誘導時の移動速度の設定や障害物回避動作を適切に行うことができる。また、誘導装置は、老人や子供の判別等も可能となる。
 歩行能力は、例えば行動支援器具(杖や車いす等)の利用状況情報を用いる。誘導装置は、歩行能力を用いることで、誘導時の移動速度の設定や障害物回避動作を適切に行うことができる。また、誘導装置は、階段等を利用することのない目的地までの経路を設定できる。
 誘導装置は、反応速度を用いることで、障害物回避動作を適切に行うことができる。
 誘導装置は、年齢等に基づき、自力で移動が可能なメンバーあるいはトイレの利用を考慮した誘導を行う必要があるメンバーであるか等を判別できる。
 誘導装置は、体重、身長、性別等を用いることで、誘導時の移動速度の設定や障害物回避動作を適切に行うことも可能となる。
 誘導装置は、言語能力を用いることで、異なる言語環境の元で自律的に行動が可能なメンバーであるか判別できる。また、誘導装置は、誘導対象施設の知識を用いることで、誘導対象施設内で、自律的に行動が可能なメンバーであるか判別できる。
 さらに、誘導装置は、趣味趣向に関する情報を用いることで、趣味趣向に合った経路を選択して誘導動作を行うことが可能となる。さらに、誘導装置は、ユーザ指定の希望立ち寄り場所等の情報を用いることで、ユーザが指定した立ち寄り場所(店舗やATM等)を経由して、目的地までの誘導動作を行うことが可能となる。
 メンバーの行動能力はメンバーが個々に設定してもよく、メンバーが所持する携帯通信端末のアプリケーションで自動的に生成してもよい。例えば携帯通信端末は、センサでメンバーの動きを検出することで、身体的行動能力を示す情報を生成できる。また、携帯通信端末で検出された位置情報と経過時間あるいは加速度センサのセンシング出力等に基づき歩行速度を判別できる。また、加速度センサ等に基づいて検出した躓きあるいは転倒の頻度が高い場合、停止状態から歩行状態あるいは歩行状態から停止状態となるときの加速度が小さい場合、反応速度が遅いと判別してもよい。また、携帯通信端末は、施設あるいは施設内の一部の訪問履歴を位置情報等に基づき判別することで誘導対象施設の知識に関する知的行動能力を示す情報を生成できる。さらに、携帯通信端末は、メンバーの情報の検索履歴等に基づき趣味趣向に関する知的行動能力を示す情報を生成できる。
 図3は制御部の動作を例示したフローチャートである。ステップST1で制御部は行動能力を取得する。制御部35の行動能力取得部351は、データベース20からグループのメンバーの行動能力を取得してステップST2に進む。
 ステップST2で制御部は経路計画を生成する。制御部35の誘導制御部352は、誘導装置自身の位置とグループのメンバーの行動能力に基づいて、目的地までの経路計画を生成する。
 <3-1.誘導装置における経路計画の生成動作>
 図4は、経路計画の生成動作を例示したフローチャートである。ステップST11で誘導制御部は経路を計画する。誘導制御部352の経路計画部352aは、センサ部31から出力されたセンシングデータに基づき自己位置を検出して、検出した自己位置から目的地までの経路を計画してステップST12に進む。
 ステップST12で誘導制御部は全メンバーの行動能力を反映しているか判別する。誘導制御部352の経路計画部352aは、全メンバーの行動能力に基づいて経路計画の生成が行われているか判別する。経路計画部352aは、全メンバーの行動能力に基づいて経路計画を生成している場合に経路計画の生成を終了する。また、いずれかのメンバーの行動能力が経路計画の生成に考慮されていない場合はステップST13に進む。
 ステップST13で誘導制御部は追加条件を設定する。誘導制御部352の経路計画部352aは、経路計画の生成に考慮されていないメンバーの行動能力に基づき、経路計画の生成における追加条件を設定する。例えば、経路計画部352aは、経路計画の生成に考慮されていないメンバーの行動能力によって歩行障害等があることが示された場合、水平型エスカレータ(所謂「動く歩道」)の利用度を高くする等の追加条件を設定する。経路計画部352aは、追加条件を設定してステップST11に戻る。
 このように経路計画を生成すれば、グループのメンバーに適した経路で目的地までグループを誘導することが可能となる。
 <3-2.誘導装置の移動制御動作>
 図3に戻り、誘導制御部352は、ステップST2で経路計画の生成が完了すると、ステップST3で移動制御を行う。誘導制御部352は、誘導装置自身の位置とステップST2で生成された経路計画、およびステップST1で取得した行動能力に基づいて、経路計画で示された経路に沿って目的地まで誘導装置の移動制御を行う。
 図5は、移動制御動作を例示したフローチャートである。ステップST21で誘導制御部は経路計画を取得済みであるか判別する。誘導制御部352の移動制御部352bは、経路計画部352aで生成された経路計画を取得していない場合はステップST22に進み、取得している場合はステップST23に進む。
 ステップST22で誘導制御部は経路計画を取得する。誘導制御部352の移動制御部352bは、経路計画部352aで生成された経路計画を取得してステップST23に進む。
 ステップST23で誘導制御部は自己位置を推定する。誘導制御部352の移動制御部352bは、センサ部31から出力されたセンシングデータに基づき誘導装置自身の自己位置を推定してステップST24に進む。
 ステップST24で誘導制御部は駆動制御信号を生成する。誘導制御部352の移動制御部352bは、ステップST23で推定した自己位置と取得している行動能力に基づき誘導装置の移動方向や移動速度を設定して、計画された経路上を移動できるように駆動制御信号を生成して駆動部33に出力する。
 図3に戻り、ステップST4で制御部は目的地に到達したか判別する。制御部35の誘導制御部352は、誘導装置が目的地まで移動していない場合はステップST3に戻り、移動制御を継続する。また、誘導制御部352は、誘導装置が目的地まで移動した場合、誘導動作を終了する。
 このような移動制御を行えば、グループのメンバーに適した移動速度等でグループを誘導できるようになる。
 <3-3.誘導装置の他の移動制御動作>
 誘導装置の他の移動制御動作では、例えばグループが会社関係のグループである場合を例示している。
 図6は、他の移動制御動作を例示したフローチャートである。ステップST31で誘導制御部352は経路計画を取得済みであるか判別する。誘導制御部352の移動制御部352bは、経路計画部352aで生成された経路計画を取得していない場合はステップST32に進み、取得している場合はステップST33に進む。
 ステップST32で誘導制御部は経路計画を取得する。誘導制御部352の移動制御部352bは、経路計画部352aで生成された経路計画を取得してステップST33に進む。
 ステップST33で誘導制御部はグループが会社関係のグループであるか判別する。誘導制御部352の管理部352cは、ユーザからの誘導要求に基づきグループが会社関係のグループであるか判別して、会社関係のグループであると判別した場合にステップST34に進み、会社関係のグループでないと判別した場合にステップST39に進む。
 ステップST34で誘導制御部は最上位メンバーを設定済みであるか判別する。誘導制御部352の管理部352cは、例えばユーザからの誘導要求によって、グループ内の最も地位の高いメンバー(以下「最上位メンバー」という)が示されている場合、最上位メンバーを示す情報を移動制御部352bに通知してステップST38に進む。また、管理部352cは、最上位メンバーが示されていないと判別した場合にステップST35に進む。
 ステップST35で誘導制御部は最上位メンバーの問い合わせを行う。誘導制御部352の管理部352cはユーザインタフェース部34を利用して、最上位メンバーの設定が可能であるかユーザに対して画像や音声で問い合わせを行いステップST36に進む。
 図7は最上位メンバーの問い合わせ動作を例示している。図7の(a)は、最上位メンバーの問い合わせ動作でユーザインタフェース部34の表示部341に表示された問い合わせ画面を例示している。ここで、上司の方がいることがユーザ操作によって示された場合は、図7の(b)に示す設定画面表示を行う。設定画面表示では、例えばグループのメンバーの名前を表示して、いずれのメンバーが上司であるか設定可能とする。
 ステップST36で誘導制御部は最上位メンバーが設定されたか判別する。誘導制御部352の管理部352cは、問い合わせに対して最上位メンバーが設定されたと判別したときは最上位メンバーを示す情報を移動制御部352bに通知してステップST37に進み、指定が行われていないと判別したときはステップST39に進む。
 ステップST37で誘導制御部は最上位メンバーに応じた移動制御を行うか判別する。誘導制御部352の管理部352cは、設定された最上位メンバーに対応した移動制御を行うか判別して、最上位メンバーに対応した移動制御を行う場合にはステップST38に進み、最上位メンバーに応じた移動制御を行わない場合にはステップST39に進む。
 図7の(b)に示す設定画面表示を利用して上司が設定された場合、図7の(c)に示すように、例えば上司に会わせた誘導動作を行うか否かの選択画面を表示して、案内開始が選択された場合に、上司に合わせた移動制御を行うと判別する。また、「Cancel」が選択された場合、上司に合わせた移動制御を行わないと判別する。
 ステップST38で誘導制御部は最上位メンバーに応じた移動制御を行う。誘導制御部352の移動制御部352bは、最上位メンバーの行動能力に応じて移動速度等を設定してステップST40に進む。
 ステップST39で誘導制御部は会社関係でないグループに応じた移動制御を行う。誘導制御部352の移動制御部352bは、グループの各メンバーの行動能力に応じて移動速度等を設定してステップST40に進む。
 ステップST40で誘導制御部は自己位置を推定する。誘導制御部352の移動制御部352bは、センサ部31から出力されたセンシングデータに基づき誘導装置自身の自己位置を推定してステップST41に進む。
 ステップST41で誘導制御部は駆動制御信号を生成する。誘導制御部352の移動制御部352bは、ステップST40で推定した自己位置に基づき誘導装置の移動方向を設定して、ステップST38またはステップST39で設定された移動速度等で、計画された経路上を移動できるように駆動制御信号を生成して駆動部33に出力する。
 図3に戻り、ステップST4で制御部は目的地に到達したか判別する。制御部35の誘導制御部352は、誘導装置が目的地まで移動していない場合はステップST3に戻り、移動制御を継続する。また、誘導制御部352は、誘導装置が目的地まで移動した場合、誘導動作を終了する。
 なお、最上位メンバーの設定は、ユーザ操作に限らず、ネットワーク等を介して取得した情報、例えば会社のネットワークやSNS(social networking service)から取得したメンバーのプロフィールで示された会社名や部署、役職等に基づき自動的に設定してもよい。また、メンバー登録時に通信端末装置から取得したメンバーのプロフィールに基づきグループの最上位のメンバーを仮設定して、仮設定したメンバーを最上位メンバーとする旨のユーザ指示があった場合に、仮設定されているメンバーを最上位メンバーとして設定してもよい。
 このような移動制御を行えば、グループ内の最上位メンバーの行動能力に合わせて誘導動作を容易に行えるようになる。
 <3-4.障害物回避動作>
 誘導装置でグループを誘導する場合、誘導装置は経路上に存在する障害物を避けてグループを誘導できるように障害物回避動作を行う。
 次に、障害物回避動作について説明する。図8は、障害物回避動作を例示したフローチャートである。
  ステップST51で誘導制御部352は経路計画を取得済みであるか判別する。誘導制御部352の移動制御部352bは、経路計画部352aで生成された経路計画を取得していない場合はステップST54に進み、取得している場合はステップST52に進む。
 ステップST52で誘導制御部は障害物を検出したか判別する。誘導制御部352の移動制御部352bは、センサ部31の外界センサ312から出力されたセンシングデータに基づき、誘導方向に位置する障害物を検出する。移動制御部352bは、障害物を検出した場合にステップST53に進み、障害物を検出していない場合はステップST55に進む。
 ステップST53で誘導制御部は障害物通知処理を行う。誘導制御部352の移動制御部352bは、検出した障害物の位置や大きさや動き等を示す障害物情報を経路計画部352aに通知してステップST54に進む。
 ステップST54で誘導制御部は経路計画を取得する。誘導制御部352の移動制御部352bは、経路計画部352aで生成された障害物情報に基づき生成された経路計画を取得してステップST55に進む。なお、回避計画は、ステップST2で生成された経路計画よりも短期の経路計画である。
 ステップST55で誘導制御部は自己位置を推定する。誘導制御部352の移動制御部352bは、センサ部31から出力されたセンシングデータに基づき誘導装置自身の自己位置を推定してステップST56に進む。
 ステップST56で誘導制御部は駆動制御信号を生成する。誘導制御部352の移動制御部352bは、取得している経路計画とステップST55で推定した自己位置とステップST1で取得した行動能力に基づき誘導装置の移動方向や移動速度を設定して、計画された経路上を移動できるように駆動制御信号を生成して駆動部33に出力する。
 図3に戻り、ステップST4で制御部は目的地に到達したか判別する。制御部35の誘導制御部352は、誘導装置が目的地まで移動していない場合はステップST3に戻り、移動制御を継続する。また、誘導制御部352は、誘導装置が目的地まで移動した場合、誘導動作を終了する。
 次に、障害物情報を利用した経路計画の生成動作について説明する。誘導制御部352の経路計画部352aは、移動制御部352bから障害物情報が通知された場合、図9に例示したように障害物情報を利用した経路計画の生成動作を行う。
 ステップST61で誘導制御部は障害物を回避する経路計画を生成する。誘導制御部352の経路計画部352aは、センサ部31から出力されたセンシングデータに基づき自己位置を検出して、検出した自己位置から障害物情報で示された障害物を回避する経路計画、例えば回避開始の距離、回避時の移動速度、回避時の曲がり角度等を示す経路計画を生成してステップST62に進む。
 ステップST62で誘導制御部は全メンバーの行動能力を反映しているか判別する。誘導制御部352の経路計画部352aは、全メンバーの行動能力に基づいて障害物を回避する経路計画の生成が行われているか判別する。経路計画部352aは、全メンバーの行動能力に基づいて経路計画を生成している場合に経路計画の生成動作を終了する。また、いずれかのメンバーの行動能力が経路計画の生成に考慮されていない場合はステップST63に進む。
 ステップST63で誘導制御部は追加条件を設定する。誘導制御部352の経路計画部352aは、経路計画の生成に考慮されていないメンバーの行動能力に基づき、経路計画の生成における追加条件を設定する。また、経路計画部352aは、障害物情報が供給された場合、障害物情報を追加条件に設定してステップST61に戻る。
 このような移動制御と障害物を回避する経路計画の生成動作を行うことで、誘導経路上に障害物が存在している場合、障害物を回避するように経路計画が更新されるので、グループのメンバーの行動能力と障害物情報に応じた障害物回避動作を行って、目的地までグループを誘導できるようになる。また、移動制御と障害物を回避する経路計画の生成動作を繰り返すことで、複数の障害物が存在してもそれぞれの障害物に応じた障害物回避動作を行える。
 <3-5.離脱対応動作>
 誘導装置でグループを誘導する場合、グループのメンバーがグループから離脱する場合もあることから、誘導装置はメンバーの離脱に対応してグループを誘導できるように離脱対応動作を行うようにしてもよい。
 図10は、離脱対応動作を例示したフローチャートである。ステップST71で誘導制御部はメンバーの位置を検出する。誘導制御部352の管理部352cはセンサ部31の外界センサ312から出力されたセンシングデータを用いてメンバーの認識およびメンバー毎にメンバーまでの距離を測定してステップST72に進む。
 ステップST72で誘導制御部は離脱メンバーがいるか判別する。誘導制御部352の管理部352cは、誘導装置から予め設定された閾値よりも離れている離脱メンバーがいる場合はステップST73に進み、離脱メンバーがいない場合は離脱対応動作を終了する。
 ステップST73で誘導制御部は離脱メンバーの自律的行動が可能であるか判別する。誘導制御部352の管理部352cは、離脱メンバーの行動能力に基づき、自律的に行動が可能であると判別したときは離脱対応動作を終了して、自律的行動が可能でないと判別したときはステップST74に進む。
 ステップST74で誘導制御部は離脱対応制御が必要であるか判別する。誘導制御部352の管理部352cは、離脱メンバーの行動能力に基づき、離脱メンバーに対応した誘導が必要であるか判別する。管理部352cは、離脱メンバーがグループ内で優先すべきメンバー例えば老人やグループ内で地位の高い人である場合に離脱メンバーに対応した誘導制御である離脱対応制御が必要であると判別してステップST75に進み、離脱メンバーが優先すべきメンバーでない場合はステップST76に進む。
 ステップST75で誘導制御部は離脱対応制御を行う。誘導制御部352の管理部352cは、離脱メンバーを移動制御部352bに通知して、移動制御部352bは離脱メンバーから離れないように誘導装置の移動速度や移動方向を調整して、離脱対応動作を終了する。
 ステップST76で誘導制御部は警告済みであるか判別する。誘導制御部352の管理部352cは、ユーザインタフェース部34から表示や音声等で離脱警告、例えば誘導装置の移動速度や移動方向を合わせて行動するように、ユーザインタフェース部34から表示や音声等で行う警告を出力していない場合はステップST77に進み、離脱警告が出力済みである場合は離脱対応動作を終了する。
 ステップST77で誘導制御部は警告出力を行う。誘導制御部352の管理部352cは、離脱メンバーに対して離脱警告を出力して離脱メンバーに注意を促したのち離脱対応動作を終了する。
 このような離脱対応動作を繰り返すことで、離脱メンバーを考慮して誘導動作を行えるようになる。例えばグループ内に目的地までの誘導が必要ないメンバーが含まれている場合、誘導が必要ないメンバーがグループから離れても、警告等を行わないようにできる。また、誘導が必要であるメンバーに対しては、グループから離れないように注意を促すことができる。さらに、離脱警告を行ったメンバーに関する情報を記憶しておけば、同じメンバーに対して離脱警告が繰り返されることを防ぐこともできる。
 <3-6.メンバーの識別処理>
 ところで、グループを誘導する場合、誘導装置は、グループ内のメンバーを認識する必要がある。次に、メンバーの認識処理について説明する。メンバーの認識処理では、メンバーの特徴量を算出して個々のメンバーを判別する。また、グループ内のメンバーに対して個別コードを付与して、個々のメンバーを個別コードで管理する。誘導装置30は、例えばセンサ部31の外界センサ312から出力されたセンシングデータである撮像画像を用いてメンバー登録を行う。この場合、誘導装置は、撮像画像を用いて被写体認識を行う。被写体認識は、メンバーを撮像した画像から特徴量をメンバー毎に算出する。特徴量は、エッジやコーナー等を示す局所特徴量(SIFT特徴量やSURF特徴量等)を用いてもよく、色ヒストグラムを特徴量として用いてもよい。誘導装置30は、被写体認識によってメンバーの顔、身体の形状、持ち物等の少なくともいずれかを認識して、認識結果に個別IDを付与する。その後、誘導装置は、誘導中にセンサ部31で生成された画像を用いて被写体認識を行い、算出した特徴量に対応する個別IDを判別することで、誘導中に各メンバーを判別可能とする。
 図11は、メンバー登録動作を例示したフローチャートである。ステップST81で誘導制御部はメンバー画像を取得する。誘導制御部352の管理部352cは、センサ部31から登録するメンバーが撮像されたメンバー画像を取得してステップST82に進む。メンバー画像とは、グループのメンバーが全て含まれた撮像画像であってもよく、個々のメンバーを撮像した複数の撮像画像、あるいは異なる複数のメンバーが含まれた複数の撮像画像であってもよい。
 ステップST82で誘導制御部は人認識処理を行う。誘導制御部352の管理部352cは、ステップST81で取得したメンバー画像を用いて被写体認識を行い、メンバーの画像領域を検出する。
 ステップST83で誘導制御部は色ヒストグラムを算出する。誘導制御部352の管理部352cは、例えば三原色のレベル毎に対応する画素数を算出して色ヒストグラムを算出してステップST84に進む。なお、図12は、色ヒストグラムを例示しており、横軸は画素値、縦軸は割合(画素数)を示している。なお、図12の(a)は赤色成分、図12の(b)は緑色成分、図12の(c)は青色成分をそれぞれ示しており、画素数の総計はメンバーの画像領域の画素数に対応している。また、同一メンバーを示す画像領域の領域サイズが異なる場合、画素数の総計が等しくなるようにヒストグラムを正規化すれば、画像領域の領域サイズが異なる場合でも、色成分毎のヒストグラムは等しくなることから、メンバーの服や所持品等の色を利用して、個々のメンバーを判別できるようになる。また、局所特徴量を用いる場合、ユーザの特徴点がその後の撮像画像に含まれていないと、ユーザを識別することが困難であるが、色ヒストグラムを用いれば、局所特徴量を用いる場合に比べて容易に個々のメンバーを判別できるようになる。
 ステップST84で誘導制御部は個別IDが登録済みか判別する。誘導制御部352の管理部352cは、ステップST83で算出した色ヒストグラムに対して個別IDが付与されていない場合にステップST85に進み、付与されている場合にステップST86に進む。
 ステップST85で制御部は個別IDを付与する。管理部352cは、ステップST83で算出した色ヒストグラムに対して、他の色ヒストグラムとは異なる個別IDを付与してステップST86に進む。
 ステップST86で制御部は全メンバーの登録が完了した判別する。管理部352cは、グループの各メンバーの色ヒストグラムの算出と個別IDの付与が完了していない場合はステップST81に戻り、登録が完了していないメンバーが撮像されているメンバー画像を取得したのち人認識処理等を繰り返す。また、各メンバーの色ヒストグラムの算出と個別IDの付与が完了した場合は、メンバー登録動作を終了する。
 次に、メンバー認識結果を利用した移動制御について説明する。図13は、移動制御におけるメンバー追跡動作を例示したフローチャートである。
 ステップST91で誘導制御部は誘導動作中の撮像画像を取得する。誘導制御部352の管理部352cは、誘導動作中にセンサ部31で周囲を撮像することにより生成された撮像画像を取得してステップST92に進む。
 ステップST92で誘導制御部は人認識処理を行う。誘導制御部352の管理部352cは、ステップST91で取得された撮像画像を用いて人認識処理を行い、撮像画像から人物を検出する。
 ステップST93で誘導制御部は色ヒストグラムを算出する。誘導制御部352の管理部352cは、ステップST92で検出した人物の画像に基づき、メンバーの登録時と同様に色ヒストグラムを算出してステップST94に進む。
 ステップST94で誘導制御部は対応した個別IDがあるか判別する。誘導制御部352の管理部352cは、ステップST93で算出した色ヒストグラムが登録されているメンバーの色ヒストグラムのいずれかに対応しているか判別して、対応している色ヒストグラムに付与されている個別IDを判別する。管理部352cは個別IDを判別できた場合にステップST95に進み、個別IDを判別できない場合はステップST97に進む。
 ステップST95で誘導制御部は追跡対象メンバーであるか判別する。誘導制御部352の管理部352cは、ステップST94で判別した個別IDが追跡対象メンバーの個別IDである場合にステップST96に進み、追跡対象メンバーの個別IDでない場合にステップST97に進む。
 ステップST96で誘導制御部はトラッキング設定を行う。誘導制御部352の管理部352cは、認識された追跡対象メンバーを追跡して誘導制御を行うように移動制御部352bを設定してステップST97に進む。
 ステップST97で誘導制御部は人物の認識の完了であるか判別する。誘導制御部352の管理部352cは、撮像画像に含まれた人物の認識が完了していない場合にはステップST92に戻り、撮像画像から新たな人物を認識してステップST93以降の処理を行う。また、撮像画像に含まれた人物の認識が完了している場合は認識処理を終了する。
 このような処理を行えば、グループにおける優先すべきメンバーを追跡対象メンバーと設定することで、優先すべきメンバーに対して所定間隔を保った状態で誘導動作を行うことが可能となる。また、グループの各メンバーを追跡対象メンバーとして設定すれば、グループの各メンバーの動きを把握することが可能となり、各メンバーの動きを個々に把握して、グループに最適な誘導動作を行うことができる。
 明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
 例えば、プログラムは記録媒体としてのハードディスクやSSD(Solid State Drive)、ROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、BD(Blu-Ray Disc(登録商標))、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、本明細書に記載した効果はあくまで例示であって限定されるものではなく、記載されていない付加的な効果があってもよい。また、本技術は、上述した実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、請求の範囲を参酌すべきである。
 また、本技術の誘導装置は以下のような構成も取ることができる。
 (1) 複数のメンバーの行動能力を取得する行動能力取得部と、
 前記行動能力取得部で取得した行動能力に基づいて、前記複数のメンバーの誘導制御を行う誘導制御部と
を備える誘導装置。
 (2) 前記誘導制御部は、前記複数のメンバーの行動能力に応じて目的地までの経路計画を生成して、前記経路計画に基づいて前記誘導制御を行う(1)に記載の誘導装置。
 (3) 前記誘導制御部は、前記複数のメンバーから優先すべきメンバーを判別して、判別した前記優先すべきメンバーに合わせて前記誘導制御を行う(2)に記載の誘導装置。
 (4) 前記誘導制御部は、前記優先すべきメンバーの行動能力に応じて目的地までの経路計画を生成する(3)に記載の誘導装置。
 (5) 前記誘導制御部は、前記メンバーの行動能力に基づいて前記優先すべきメンバーを判別する(3)または(4)に記載の誘導装置。
 (6) 前記誘導制御部は、前記メンバーのプロフィールに基づいて前記優先すべきメンバーを判別する(3)または(4)に記載の誘導装置。
 (7) 前記誘導制御部は、周囲を撮像して得られた撮像画像から前記複数のメンバーを認識して前記誘導制御を行う(1)乃至(6)のいずれかに記載の誘導装置。
 (8) 前記誘導制御部は、前記撮像画像から人領域を検出して、前記人領域の画像から算出した特徴量に基づき、前記人領域がいずれのメンバーを示しているか判別する(7)に記載の誘導装置。
 (9) 前記特徴量として色ヒストグラムを用いる(8)に記載の誘導装置。
 (10) 前記誘導制御部は、測距センサを用いた物体の認識結果と前記撮像画像を用いたメンバーの認識結果に基づき前記複数のメンバーの位置を検出する(7)乃至(9)のいずれかに記載の誘導装置。
 (11) 前記誘導制御部は、前記複数のメンバーの位置の検出結果に基づき離脱メンバーを判別して、判別した離脱メンバーの行動能力に応じて警告動作を行う(10)に記載の誘導装置。
 (12) 前記誘導制御部は、障害物を検出した場合、前記複数のメンバーの行動能力に応じて前記障害物を回避する経路計画を生成して、生成した経路計画に基づいて前記誘導制御を行う(1)乃至(11)のいずれかに記載の誘導装置。
 (13) 前記行動能力は、身体的行動能力と知的行動能力の少なくともいずれかを含む(1)乃至(12)のいずれかに記載の誘導装置。
 10・・・システム
 20・・・データベース
 30・・・誘導装置
 31・・・センサ部
 32・・・通信部
 33・・・駆動部
 34・・・ユーザインタフェース部
 35・・・制御部
 311・・・内界センサ
 312・・・外界センサ
 341・・・表示部
 342・・・操作部
 343・・・音声入出力部
 351・・・行動能力取得部
 352・・・誘導制御部
 352a・・・経路計画部
 352b・・・移動制御部
 352c・・・管理部

Claims (15)

  1.  複数のメンバーの行動能力を取得する行動能力取得部と、
     前記行動能力取得部で取得した行動能力に基づいて、前記複数のメンバーの誘導制御を行う誘導制御部と
    を備える誘導装置。
  2.  前記誘導制御部は、前記複数のメンバーの行動能力に応じて目的地までの経路計画を生成して、前記経路計画に基づいて前記誘導制御を行う
    請求項1に記載の誘導装置。
  3.  前記誘導制御部は、前記複数のメンバーから優先すべきメンバーを判別して、判別した前記優先すべきメンバーに合わせて前記誘導制御を行う
    請求項2に記載の誘導装置。
  4.  前記誘導制御部は、前記優先すべきメンバーの行動能力に応じて目的地までの経路計画を生成する
    請求項3に記載の誘導装置。
  5.  前記誘導制御部は、前記メンバーの行動能力に基づいて前記優先すべきメンバーを判別する
    請求項3に記載の誘導装置。
  6.  前記誘導制御部は、前記メンバーのプロフィールに基づいて前記優先すべきメンバーを判別する
    請求項3に記載の誘導装置。
  7.  前記誘導制御部は、周囲を撮像して得られた撮像画像から前記複数のメンバーを認識して前記誘導制御を行う
    請求項1に記載の誘導装置。
  8.  前記誘導制御部は、前記撮像画像から人領域を検出して、前記人領域の画像から算出した特徴量に基づき、前記人領域がいずれのメンバーを示しているか判別する
    請求項7に記載の誘導装置。
  9.  前記特徴量として色ヒストグラムを用いる
    請求項8に記載の誘導装置。
  10.  前記誘導制御部は、測距センサを用いた物体の認識結果と前記撮像画像を用いたメンバーの認識結果に基づき前記複数のメンバーの位置を検出する
    請求項7に記載の誘導装置。
  11.  前記誘導制御部は、前記複数のメンバーの位置の検出結果に基づき離脱メンバーを判別して、判別した離脱メンバーの行動能力に応じて警告動作を行う
    請求項10に記載の誘導装置。
  12.  前記誘導制御部は、障害物を検出した場合、前記複数のメンバーの行動能力に応じて前記障害物を回避する経路計画を生成して、生成した経路計画に基づいて前記誘導制御を行う
    請求項1に記載の誘導装置。
  13.  前記行動能力は、身体的行動能力と知的行動能力の少なくともいずれかを含む
    請求項1に記載の誘導装置。
  14.  複数のメンバーの行動能力を行動能力取得部で取得することと、
     前記行動能力取得部で取得した行動能力に基づいて、前記複数のメンバーの誘導制御を誘導制御部で行うことと
    を含む誘導方法。
  15.  誘導制御をコンピュータで実行させるプログラムであって、
     複数のメンバーの行動能力を取得する手順と、
     前記取得した行動能力に基づいて、前記複数のメンバーの誘導制御を行う手順と
    を前記コンピュータで実行させるプログラム。
PCT/JP2020/047433 2020-01-30 2020-12-18 誘導装置と誘導方法およびプログラム WO2021153084A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/794,893 US20230072586A1 (en) 2020-01-30 2020-12-18 Guidance device, guidance method, and program
CN202080094194.XA CN115003984A (zh) 2020-01-30 2020-12-18 引导装置、引导方法和程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-013528 2020-01-30
JP2020013528 2020-01-30

Publications (1)

Publication Number Publication Date
WO2021153084A1 true WO2021153084A1 (ja) 2021-08-05

Family

ID=77078087

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/047433 WO2021153084A1 (ja) 2020-01-30 2020-12-18 誘導装置と誘導方法およびプログラム

Country Status (3)

Country Link
US (1) US20230072586A1 (ja)
CN (1) CN115003984A (ja)
WO (1) WO2021153084A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003340764A (ja) * 2002-05-27 2003-12-02 Matsushita Electric Works Ltd 案内ロボット
JP2004191083A (ja) * 2002-12-09 2004-07-08 Mitsubishi Electric Corp 人物検出装置
JP2010271223A (ja) * 2009-05-22 2010-12-02 Toyota Motor Corp 情報管理サーバ及び移動体搭載用の情報通信装置
JP2017170568A (ja) * 2016-03-24 2017-09-28 株式会社国際電気通信基礎技術研究所 サービス提供ロボットシステム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11074495B2 (en) * 2013-02-28 2021-07-27 Z Advanced Computing, Inc. (Zac) System and method for extremely efficient image and pattern recognition and artificial intelligence platform
US11532245B2 (en) * 2019-10-01 2022-12-20 Warner Bros. Entertainment Inc. Technical solutions for customized tours

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003340764A (ja) * 2002-05-27 2003-12-02 Matsushita Electric Works Ltd 案内ロボット
JP2004191083A (ja) * 2002-12-09 2004-07-08 Mitsubishi Electric Corp 人物検出装置
JP2010271223A (ja) * 2009-05-22 2010-12-02 Toyota Motor Corp 情報管理サーバ及び移動体搭載用の情報通信装置
JP2017170568A (ja) * 2016-03-24 2017-09-28 株式会社国際電気通信基礎技術研究所 サービス提供ロボットシステム

Also Published As

Publication number Publication date
CN115003984A (zh) 2022-09-02
US20230072586A1 (en) 2023-03-09

Similar Documents

Publication Publication Date Title
US11797915B2 (en) Network computer system to make effort-based determinations for delivery orders
KR20190078543A (ko) 이미지 획득 장치 및 그의 제어 방법
US11554495B2 (en) Method of localization using multi sensor and robot implementing same
KR20190100085A (ko) 인공 지능을 이용하여, 위험 상황을 감지할 수 있는 로봇 및 그의 동작 방법
US20210073570A1 (en) Method of performing simultaneous localization and mapping with respect to a salient object in an image
US11540690B2 (en) Artificial intelligence robot cleaner
US20200174489A1 (en) Electronic device and operation method therefor
EP3848674B1 (en) Location signaling with respect to an autonomous vehicle and a rider
JP7142718B2 (ja) 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
JPWO2020129309A1 (ja) 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
Nair et al. ASSIST: Personalized indoor navigation via multimodal sensors and high-level semantic information
WO2018179917A1 (ja) 車両制御装置、車両制御方法及びプログラム
JP7101815B2 (ja) 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
JP6609588B2 (ja) 自律型モビリティシステムおよび自律型モビリティの制御方法
KR102231922B1 (ko) 인공 지능을 이용하여, 복수의 로봇들을 제어하는 인공 지능 서버
WO2021153084A1 (ja) 誘導装置と誘導方法およびプログラム
JP7136680B2 (ja) エレベーターシステム
KR20190094312A (ko) 인공 지능을 이용하여, 복수의 로봇들을 제어하는 관제 시스템
JP7038232B2 (ja) 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
JP2021021590A (ja) 案内装置、方法、プログラムおよびシステム
JPWO2020148881A1 (ja) 情報提示装置、情報提示システム、情報提示方法、及び情報提示プログラム
KR20190132883A (ko) 객체 위치 추정 방법 및 이를 위한 장치
US20230162267A1 (en) In-store automatic payment method, system, and program
JP2021071967A (ja) 対応支援システム、方法及びプログラム
JP7380921B1 (ja) 施設内案内連動ビルシステム、情報処理装置、施設内案内方法、及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20917063

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 20917063

Country of ref document: EP

Kind code of ref document: A1