WO2018230539A1 - 案内システム - Google Patents

案内システム Download PDF

Info

Publication number
WO2018230539A1
WO2018230539A1 PCT/JP2018/022335 JP2018022335W WO2018230539A1 WO 2018230539 A1 WO2018230539 A1 WO 2018230539A1 JP 2018022335 W JP2018022335 W JP 2018022335W WO 2018230539 A1 WO2018230539 A1 WO 2018230539A1
Authority
WO
WIPO (PCT)
Prior art keywords
guidance
unit
user
information
guidance system
Prior art date
Application number
PCT/JP2018/022335
Other languages
English (en)
French (fr)
Inventor
安井 裕司
賢太郎 石坂
将行 渡邉
コビ アヘゴ
クリストファー ラング
立言 劉
伊藤 洋
寛隆 内富
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Publication of WO2018230539A1 publication Critical patent/WO2018230539A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator

Definitions

  • Patent Document 1 The technique described in Patent Document 1 has been difficult to provide entertainment guidance to users.
  • the presentation unit may be a projection device that presents the guidance information by projecting an image.
  • (4) is the guidance system according to the aspect of (2) or (3), wherein the presentation unit is a head mount device including a display unit that presents the guidance information by displaying an image. Also good.
  • (5) may be a guidance system according to any of the aspects (2) to (4), and may be a speaker that outputs the guidance information by voice.
  • (6) is the guidance system according to any one of (2) to (5), in which the presenting unit presents options, and the recognizing unit presents the options by the presenting unit.
  • the instruction may be recognized based on the action of the user in response.
  • (7) is the guidance system according to the aspect of (6), wherein the position detection unit that detects the position of the own device and the position of the own device detected by the position detection unit are positions where the options are presented.
  • a presentation position determination unit that determines whether or not the presentation unit presents the option when the presentation position determination unit determines that the position of the device is the position where the option is presented. Good.
  • (8) is the guidance system according to any one of the aspects (1) to (7), and includes an output unit that outputs object information related to the guidance target by voice, and the movement control unit includes the output unit While the object information is output, the unmanned mobile body may fly in the vicinity of the guidance object.
  • (10) is the guidance system according to any one of the aspects (1) to (9), and the unmanned moving body may be an unmanned flying body.
  • a guidance system is based on a head mount device, a recognition unit that recognizes a user instruction, and the instruction recognized by the recognition unit, And a display control unit that superimposes and displays a state in which a virtual unmanned moving body autonomously moves in a direction of guiding the user.
  • the user can be guided in the direction according to the user's intention.
  • FIG. 1 is a diagram showing an overview of a guidance system 1 according to the first embodiment.
  • the guidance system 1 includes, for example, an unmanned air vehicle 10 and a guide device 20 mounted on the unmanned air vehicle 10.
  • the unmanned air vehicle 10 is, for example, a drone that performs unmanned flight.
  • the guide device 20 controls the flight of the unmanned air vehicle 10.
  • the unmanned aerial vehicle 10 flies in the direction of guiding a user who receives guidance (hereinafter simply referred to as “user”) based on the control of the guidance device 20.
  • the object to be guided to the user is, for example, a building in a sightseeing spot, a sightseeing spot, an exhibit, or the like.
  • the direction of guidance includes the direction of the guidance target, the direction in which the user proceeds when moving to the guidance target, the direction of the viewing position of the guidance target, and the direction of travel of the user when moving to the viewing position of the guidance target Etc. are included.
  • the guidance system 1 guides the user to the guidance target by causing the user to follow the unmanned air vehicle 10.
  • the guidance system 1 recognizes the user's instruction and guides the user to the guidance target based on the instruction.
  • the user's instruction includes an instruction for designating a guidance target to be guided by the guidance system 1 (hereinafter, a target designation instruction).
  • the target designation instruction may be performed by the user's action indicating the guidance direction, or may be performed by voice in which the user calls the name of the guidance target. In the first embodiment, it is assumed that the target designation instruction is performed by voice calling the name of the guidance target. “I want to go to the torii” shown in the figure indicates the content of the voice uttered by the user.
  • a specific configuration of the guidance system 1 will be described.
  • FIG. 2 is an external configuration diagram showing an outline of the unmanned air vehicle 10 according to the first embodiment.
  • the unmanned aerial vehicle 10 includes, for example, a housing 11, a drive unit 12, and a rotary wing 13.
  • the housing 11 supports the drive unit 12 and the rotary blade 13.
  • the drive unit 12 rotates the rotor blade 13.
  • the unmanned aerial vehicle 10 flies by rotating the rotor blades 13 and generating lift. As described above, the flight of the unmanned air vehicle 10 is automatically controlled by the guide device 20.
  • the drive unit 12 of the unmanned air vehicle 10 and the guide device 20 are connected so that information can be transmitted and received.
  • FIG. 3 is a diagram illustrating an example of the configuration of the guide device 20 according to the first embodiment.
  • the guide device 20 includes, for example, a drive control unit 21, a sound detection unit 22, an imaging unit 23, a storage unit 24, and a control unit 25.
  • the drive control unit 21 drives the drive unit 12 based on an instruction from the control unit 25.
  • the sound detection unit 22 is, for example, a microphone.
  • the sound detection unit 22 detects sounds around the guidance system 1 including a user's target designation instruction.
  • the imaging unit 23 images a user at a predetermined time interval, and generates an image (hereinafter, user image UGP).
  • the storage unit 24 is realized by, for example, a flash memory, a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.
  • the storage unit 24 stores information such as the program 241.
  • the control unit 25 includes a recognition unit 251 and a flight control unit 252 as functional units.
  • Each functional unit of the control unit 25 is realized by a processor such as a CPU (Central Processing Unit) executing a program 241 stored in the storage unit 24.
  • Some or all of these functional units may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), or software. And hardware cooperation.
  • the recognition unit 251 recognizes the target designation instruction based on the sound around the guidance system 1 (unmanned air vehicle 10) detected by the sound detection unit 22. For example, the recognition unit 251 performs a speech recognition process on the surrounding sound detected by the sound detection unit 22 and extracts a target designation instruction from the recognition result.
  • the flight control unit 252 controls the flight of the unmanned air vehicle 10 so that the unmanned air vehicle 10 autonomously flies toward the guidance target indicated by the target designation instruction recognized by the recognition unit 251. Further, the flight control unit 252 controls the flight of the unmanned aerial vehicle 10 so as not to depart from the user by a predetermined distance or more while controlling the flight of the unmanned aerial vehicle 10 in the direction of the guidance target, for example. Specifically, the flight control unit 252 performs image recognition processing on the user image UGP imaged by the imaging unit 23, and roughly estimates the distance between the unmanned air vehicle 10 and the user from the recognition result. . The flight control unit 252 controls the flight of the unmanned air vehicle 10 so that the estimated distance does not exceed a predetermined distance. In this case, the guidance device 20 images the user by the imaging unit 23 before the unmanned air vehicle 10 starts flying to the guidance target, recognizes the target user's face in advance, and the user image. Fly while confirming that the user is shown on UGP.
  • FIG. 4 is a flowchart illustrating an example of the operation of the guide device 20 according to the first embodiment.
  • the imaging unit 23 images the user who guides to the guidance target and generates a user image UGP (step S100).
  • the sound detection unit 22 detects sounds around the guidance system 1 (step S110).
  • the recognition unit 251 determines whether or not the user's target designation instruction has been voice-recognized based on the surrounding sounds detected by the sound detection unit 22 (step S120).
  • the target designation instruction has the meaning of instructing the start of flight toward the guidance target.
  • the flight control unit 252 starts flying the unmanned air vehicle 10 in the direction of the guidance target (step S130).
  • the flight control unit 252 causes the unmanned air vehicle 10 to hover (step S140).
  • the unmanned aerial vehicle 10 does not start flying to the guidance object until the user designates a target.
  • the guidance device 20 repeats the processes of step S110, step S120, and step S140 until the recognition unit 251 recognizes the voice indicating the target designation instruction and starts flying in the direction of the guidance target.
  • the guidance system 1 of this embodiment includes the unmanned air vehicle 10 and the guidance device 20.
  • the recognition unit 251 recognizes a user instruction (in this example, a target designation instruction), and the flight control unit 252 indicates a guidance target indicated by the target designation instruction.
  • the unmanned air vehicle 10 is caused to autonomously fly in the direction.
  • the guidance system 1 of this embodiment can make the unmanned air vehicle 10 guide a user to a guidance target. Therefore, the guidance system 1 of the present embodiment can provide easy-to-understand and highly entertaining guidance for the user.
  • the guidance system 1 of this embodiment guides a user with the unmanned air vehicle 10 so that the user or other pedestrians do not come into contact with the unmanned air vehicle 10 even in a crowded place. Guidance can be provided.
  • FIG. 5 is a diagram showing an outline of the guidance system 2 according to the second embodiment.
  • the first embodiment the case where guidance to a certain guidance target is performed for the user has been described.
  • the second embodiment a case will be described in which guidance target options are presented and guidance is performed up to the guidance target according to the user's selection.
  • symbol is attached
  • the guidance system 2 includes an unmanned air vehicle 10 and a guidance device 20A.
  • the guide device 20A includes a projection unit, and guides a walking surface (for example, the ground surface) on which a user walks or a structure (for example, a wall surface of a building) that exists in the vicinity of a position where the user walks.
  • An image related to the image (hereinafter, a guide image IGP) is projected and displayed.
  • the guide device 20A presents an image showing two options for the guidance target at the branch point (in the example shown, the branch point ⁇ ).
  • the guide device 20A has an arrow image (guide image IGP1 and guide image IGP2) indicating directions of two guide objects, and a guide indicating the name of the guide object existing in the direction indicated by the guide image IGP1.
  • the image IGP3 and the guide image IGP4 indicating the name of the guide target existing in the direction indicated by the guide image IGP2 are projected and presented to the user.
  • the guide device 20A controls the flight of the unmanned aerial vehicle 10 based on a user instruction (hereinafter referred to as a selection instruction) for selecting a guidance target from the options, and guides the user to the guidance target.
  • a selection instruction for selecting a guidance target from the options
  • FIG. 6 is a diagram illustrating an example of a configuration of the guide device 20A according to the second embodiment.
  • 20 A of guidance apparatuses are provided with the drive control part 21, the sound detection part 22, the imaging part 23, the memory
  • the storage unit 24A stores a program 241, image information 242, presentation position information 243, and presentation information 244.
  • the image information 242 is information indicating a guide image IGP indicating options for a guide target.
  • the image information 242 is an example of “guidance information”.
  • the presentation position information 243 is information indicating a position where an option to be guided is presented (hereinafter, an option presentation position).
  • the presentation position information 243 is information indicating the position of a road branch point, for example.
  • the presentation information 244 is information indicating the guidance target options presented at the option presentation position indicated by the presentation position information 243.
  • the image information 242, the presentation position information 243, and the presentation information 244 are stored in association with each other.
  • the image information 242 includes a guide image IGP (in this example, guide image IGP1 to guide image IGP4) used when showing options at the branch point ⁇ , and a guide image used when showing options at the branch point ⁇ .
  • IGP in this example, guide image IGP7 to guide image IGP10
  • IGP guide image IGP7 to guide image IGP10
  • the projection unit 26 is a projector that magnifies and projects an image on a projection surface such as a ground surface or a wall surface and displays the image.
  • the projection unit 26 projects and displays the guide image IGP based on the control of the control unit 25A.
  • the projection unit 26 is an example of a “projection device”.
  • the position detector 27 detects the position of the unmanned air vehicle 10.
  • the position detection unit 27 is, for example, a method using a global navigation satellite system (Global Navigation System (GN)) such as GPS (Global Positioning System), a quasi-zenith satellite (QZS), or the like.
  • the position of the unmanned aerial vehicle 10 is detected by a method using a regional satellite positioning system (RNSS).
  • RNSS regional satellite positioning system
  • the position detection unit 27 may be configured to detect the position of the user instead of the configuration to detect the position of the unmanned air vehicle 10.
  • the position detector 27 may be provided.
  • control parts are provided with the recognition part 251, the flight control part 252, the presentation position determination part 253, and the projection control part 254 as the function part, for example.
  • the presentation position determination unit 253 determines whether or not the present position is a choice target position for guidance based on the position of the unmanned air vehicle 10 detected by the position detection unit 27 and the presentation position information 243. For example, when the position of the unmanned aerial vehicle 10 matches the position indicated by the presentation position information 243, the presentation position determination unit 253 determines that the position of the unmanned air vehicle 10 is an option presentation position to be guided.
  • the projection control unit 254 causes the projection unit 26 to project the guide image IGP stored as the image information 242 in the storage unit 24A.
  • the projection control unit 254 of the present embodiment uses the option associated with the option presentation position.
  • the projection control unit 254 displays a guidance image IGP (in the example of FIG. 5, “main hall” and “torii”) indicated by the presentation information 244 associated with the option presentation position.
  • Guide images IGP1 to IGP4 are projected onto the projection unit 26.
  • the projection unit 26 is an example of a “presentation unit”.
  • the projection control part 254 is based on the position of a guidance object, and the direction which the guidance image IGP shows based on the position of a guidance object based on the direction of the unmanned air vehicle 10.
  • the projection direction of the guide image IGP is controlled so as to be in the direction.
  • the flight control unit 252 determines that the direction indicated by the guide image IGP is the guidance target position based on the position of the guidance target and the orientation of the unmanned air vehicle 10. You may have the function to control the flight direction of the unmanned air vehicle 10 so that it may become a direction based.
  • the recognizing unit 251 recognizes the user's selection instruction in response to the projection unit 26 projecting the guide image IGP, that is, presenting the options to be guided.
  • the user's selection instruction may be performed by the user's action indicating the direction of the guidance target to be selected, or may be performed by voice in which the user names the guidance target to be selected. In an example of the present embodiment, the selection instruction is performed by a user's action indicating the direction of the guidance target to be selected.
  • the recognizing unit 251 recognizes a selection instruction made by the user's action indicating the guidance direction by image recognition. Specifically, the recognition unit 251 performs image recognition processing on the user image UGP imaged by the imaging unit 23, and recognizes the direction of the guidance target pointed by the user from the recognition result.
  • the flight control unit 252 controls the flight of the unmanned air vehicle 10 so that the unmanned air vehicle 10 autonomously flies to the guidance target indicated by the selection instruction recognized by the recognition unit 251.
  • FIG. 8 is a flowchart showing an example of the operation of the guide device 20A according to the second embodiment.
  • the position detector 27 detects the current position of the unmanned air vehicle 10 (step S210).
  • the presentation position determination unit 253 determines whether or not the position of the unmanned air vehicle 10 is an option presentation position (step S220). When the presentation position determination unit 253 determines that the position of the unmanned air vehicle 10 is not the option presentation position, the unmanned air vehicle 10 ends the process of presenting the guidance target option.
  • the projection unit 26 presents the presentation information 244 associated with the option presentation position to the user.
  • the projection control unit 254 causes the projection unit 26 to project a guide image IGP corresponding to the presentation information 244 (step S230).
  • the recognizing unit 251 recognizes a user's selection instruction given in response to the guide image IGP being projected by the projection unit 26 (step S240). If the user's selection instruction is recognized, the flight control unit 252 causes the unmanned air vehicle 10 to fly based on the selection instruction. Specifically, the flight control unit 252 causes the unmanned air vehicle 10 to fly in the direction of the selected guidance target (step S250). If the user's selection instruction cannot be recognized, the flight control unit 252 causes the unmanned air vehicle 10 to hover (step S260). In other words, the unmanned aerial vehicle 10 does not start flying from the option presenting position to the guidance object until the user's selection instruction is given.
  • the guide device 20A repeats Steps S210 to S260 at a predetermined time interval and presents options to the user.
  • the guidance system 2 of the present embodiment includes the unmanned air vehicle 10 and the guidance device 20A.
  • the position detector 27 detects the position of the unmanned air vehicle 10.
  • the presentation position determination unit 253 determines whether or not the position of the unmanned air vehicle 10 detected by the position detection unit 27 is an option presentation position.
  • the projection unit 26 selects options (this example is a guide image indicating options) based on the control of the projection control unit 254. IGP).
  • the recognizing unit 251 recognizes the user's selection instruction in response to the projection unit 26 presenting the guide image IGP.
  • the flight control unit 252 causes the unmanned air vehicle 10 to fly in the direction of the guidance target indicated by the option. According to the guidance system 2 of the present embodiment, guidance according to the user's needs can be performed.
  • the projection unit 26 may be configured to present guidance target options when the guidance system 2 starts user guidance.
  • the guidance system 2 may not include the presentation position determination unit 253.
  • FIG. 9 is a diagram showing an outline of the guidance system 3 according to the third embodiment.
  • a case will be described in which voice related to guidance is presented to a user and the user is guided.
  • symbol is attached
  • the guidance system 3 includes an unmanned air vehicle 10 and a guidance device 20B.
  • the guidance device 20B includes an output unit, and outputs a voice related to guidance (hereinafter, voice SD1).
  • voice SD1 a voice related to guidance
  • the guidance device 20B outputs the name and direction of the guidance target using the voice SD1 and presents it to the user.
  • the figure “I'm heading for Torii. Straight on this road” shows the content of the voice SD1 output from the guidance device 20B.
  • a specific configuration of the guidance device 20B included in the guidance system 3 will be described.
  • FIG. 10 is a diagram illustrating an example of a configuration of the guide device 20B according to the third embodiment.
  • the guide device 20B includes, for example, a drive control unit 21, a sound detection unit 22, an imaging unit 23, a storage unit 24B, a control unit 25B, a projection unit 26, a position detection unit 27, and an output unit 28. Prepare.
  • the storage unit 24B stores a program 241, image information 242, presentation position information 243, presentation information 244, and audio information 245.
  • the voice information 245 is information indicating a voice related to guidance (voice SD1).
  • the audio information 245 is an example of “guidance information”.
  • the output unit 28 is, for example, a speaker.
  • the output unit 28 outputs the audio SD1 based on the control of the control unit 25B.
  • the control unit 25B includes, for example, a recognition unit 251, a flight control unit 252, a presentation position determination unit 253, a projection control unit 254, and an output control unit 255 as functional units.
  • the output control unit 255 causes the output unit 28 to output the voice SD1 related to the guidance recognized by the recognition unit 251 among the voice information 245 stored in the storage unit 24B.
  • the guide device 20B included in the guide system 3 of the present embodiment includes the output device (in this example, the output unit 28). Based on the control of the output control unit 255 provided in the control unit 25B, the output unit 28 outputs information about the guidance (in this example, sound information 245) to the user by outputting the sound SD1.
  • the voice SD1 related to guidance can be presented, and the way (direction) to the guidance target can be taught to the user more easily.
  • the guidance system 3 may have a function of presenting guidance target options to the user by voice.
  • FIG. 11 is a diagram showing an outline in which the guidance system 3 according to the third embodiment presents options to the user by voice.
  • the control unit 25B outputs the voice by the output unit 28 indicating the guidance target option (hereinafter, voice SD2) and presents it to the user.
  • voice SD2 the guidance target option
  • “Go to the left is the“ main shrine ”
  • go to the right is the“ torii ”. Please choose which one to go.
  • the voice information 245 includes a voice indicating the guidance target option (hereinafter, voice SD2), and the voice information 245, the presentation position information 243, and the presentation information 244 are stored in association with each other.
  • the presentation position determination unit 253 determines whether or not the position of the unmanned air vehicle 10 is an option presentation position based on the position of the unmanned air vehicle 10 detected by the position detection unit 27 and the presentation position information 243.
  • the output unit 28 selects the guidance target options indicated by the presentation information 244 associated with the option presentation position (in the example of FIG. 11, “main hall” and “ The voice (voice SD2) related to “Torii” is output to the output unit 28.
  • the output unit 28 is an example of a “presentation unit”.
  • the recognizing unit 251 recognizes the user's selection instruction in response to the output unit 28 outputting the voice SD2, that is, presenting the options to be guided. Since the subsequent configuration is the same as that of the second embodiment described above, description thereof is omitted. Thereby, the guidance system 3 according to the present embodiment can provide guidance according to the needs of the user.
  • the projection control unit 254 may have a function of outputting the distance to the guidance target using the voice SD or the guidance image IGP.
  • the control unit 25C calculates the distance to the guidance target and causes the output control unit 255 to output the distance as the audio SD to the output unit 28, or causes the projection control unit 254 to output the distance as the guidance image IGP.
  • 26 has a function of projecting and displaying.
  • the flight control unit 252 acquires, for example, a road (distance) from the flight start position to the guidance object recognized by the recognition unit 251.
  • the flight control unit 252 calculates the distance to the guidance target based on the distance (distance) from the flight start position to the guidance target and the distance flew to the current position.
  • the output control unit 255 causes the output unit 28 to output the voice SD indicating the distance to the guidance target based on the distance to the guidance target calculated by the flight control unit 252.
  • the projection control unit 254 generates a guide image IGP indicating the distance to the guidance target based on the distance to the guidance target calculated by the flight control unit 252 and causes the projection unit 26 to project it.
  • the guidance system 3 of this embodiment can present the audio
  • the guidance system 3 may be configured to guide the user to the guidance target while the projection unit 26 projects the guidance image IGP and the output unit 28 outputs the voice SD.
  • FIG. 12 is a diagram showing an overview of the guidance system 3 according to the third embodiment guiding the user with the guidance image IGP and the voice SD.
  • the guidance device 20B included in the guidance system 3 projects a guidance image IGP (in the illustrated example, the guidance image IGP2 and the guidance image IGP4) related to guidance to the guidance target, and the sound SD (see illustration) related to the guidance target.
  • the voice SD1 is output.
  • the projection control unit 254 projects a guidance image IGP related to the guidance to the guidance target recognized by the recognition unit 251 by the projection unit 26, and the output control unit 255 outputs the voice SD related to the guidance to the guidance target. Is output by the output unit 28.
  • the guidance system 3 of this embodiment can teach the user the way to the guidance target more easily.
  • FIG. 13 is a diagram illustrating an outline of the guidance system 4 according to the fourth embodiment.
  • a guidance image IGP is displayed on the head mount device and the user is guided to a guidance target.
  • symbol is attached
  • the guidance system 4 of this embodiment includes an unmanned air vehicle 10, a guidance device 20C, and a head mount device 30.
  • the head mount device 30 is a device used by being mounted on the user's head.
  • the head mount device 30 includes a display unit such as a virtual screen, and displays an image of a background, which is the surrounding environment, and an image indicating various types of information on the display unit. Thereby, the user can check various information while looking at the background.
  • the head mount device 30 displays various images based on the control of the guide device 20C.
  • specific configurations of the guide device 20C and the head mount device 30 will be described.
  • FIG. 14 is a diagram illustrating an example of a configuration of a guide device 20C according to the fourth embodiment.
  • the guide device 20C includes, for example, a drive control unit 21, a sound detection unit 22, an imaging unit 23, a storage unit 24B, a control unit 25C, a position detection unit 27, and a communication unit 29.
  • the communication unit 29 transmits and receives information to and from the head mount device 30 by wireless communication.
  • the wireless communication between the communication unit 29 and the head mount device 30 is, for example, short-range wireless communication using BLE (Bluetooth (registered trademark) Low Energy) or Wi-Fi (registered trademark), LTE (Long Term Evolution), etc.
  • Wireless communication via a mobile communication network, wireless communication using infrared rays, and the like.
  • the control unit 25C includes a recognition unit 251, a flight control unit 252, a presentation position determination unit 253, and a selection unit 256 as functional units.
  • the selection unit 256 selects a guide image IGP to be displayed on the head mount device 30 from the guide images IGP included in the image information 242.
  • the selection unit 256 is, for example, a guidance image IGP related to guidance of a guidance target indicated by the target designation instruction recognized by the recognition unit 251, a guidance image IGP displayed when an option is presented to the user at the option presentation position, and an option A guide image IGP or the like related to the guidance of the guidance target indicated by the selection instruction recognized by the recognition unit 251 at the presentation position is selected from the image information 242.
  • the selection unit 256 transmits the selected guide image IGP to the head mount device 30 through the communication unit 29.
  • FIG. 15 is a diagram illustrating an example of the configuration of the head mount device 30 according to the fourth embodiment.
  • the head mount device 30 includes, for example, a communication unit 31, an imaging unit 32, a display unit 33, a storage unit 34, and a control unit 35.
  • the communication unit 31 transmits and receives information to and from the guide device 20 by wireless communication.
  • the imaging unit 32 captures an environment around the user and generates a background image (hereinafter, background image BGP).
  • background image BGP a background image
  • the imaging unit 32 is arranged at a position where the front of the user is imaged, images a landscape in front of the user, and generates a background image BGP.
  • the display unit 33 is configured by a virtual screen or the like, and displays an image based on the control of the control unit 35.
  • the control unit 35 is realized by a processor such as a CPU executing a program 341 stored in the storage unit 34.
  • the control unit 35 includes a display control unit 351 as its functional unit.
  • the display control unit 351 superimposes and displays the guide image IGP received by the communication unit 31 and the background image BGP captured by the imaging unit 32 on the display unit 33.
  • the head mount device 30 is an example of a “presentation unit”.
  • FIG. 16 is a diagram (part 1) illustrating an example of a display of the head mount device 30 according to the fourth embodiment.
  • the selection unit 256 of the guidance device 20C is displayed when the guidance target is presented at the option presentation position (the branch point ⁇ in this example) in the guidance image IGP included in the image information 242.
  • a guide image IGP (in this example, guide image IGP1 to guide image IGP4) is selected and transmitted to the head mount device 30.
  • the display unit 33 of the head mount device 30 has a background image BGP in front of the user imaged by the imaging unit 32 and an arrow indicating the direction of the guidance target received from the guidance device 20C.
  • Images (guide image IGP1 and guide image IGP2) and images (guide image IGP3 and guide image IGP4) indicating the names of options to be guided are displayed in a superimposed manner.
  • the head mount device 30 may include a line-of-sight detection unit that detects the line of sight of the user.
  • the head mount device 30 transmits information indicating the line of sight of the user detected by the line-of-sight detection unit to the guidance device 20C in response to the option presented on the display unit 33.
  • the guide device 20C recognizes the user's selection instruction based on the received information indicating the user's line of sight. With this configuration, the user can easily select the guidance target option.
  • the guidance system 4 of the present embodiment includes the unmanned air vehicle 10, the guidance device 20C, and the head mount device 30.
  • the selection unit 256 presents the guidance information (image information 242 in this example) to the user based on the target designation instruction and selection instruction recognized by the recognition unit 251 and the current position of the unmanned air vehicle 10.
  • Information in this example, guide image IGP1 to guide image IGP4 is selected.
  • the head mount device 30 superimposes and displays the guide image IGP selected by the selection unit 256 and the background image BGP.
  • the guidance system 4 of this embodiment can show the guidance image IGP regarding guidance, and can tell the user the way to guidance object more clearly.
  • the guidance system 4 displays a state in which a virtual unmanned air vehicle is flying on the display unit 33 of the head mount device 30 and displays the unmanned air vehicle so that the user can follow it. May be configured to guide to the guidance target.
  • the head mount device 30 includes a configuration other than the function units (drive control unit 21 and flight control unit 252) related to flight control of the unmanned air vehicle 10 among the function units included in the guide device 20C.
  • FIG. 17 is a diagram (part 2) illustrating an example of a display of the head mount device 30 according to the fourth embodiment.
  • a guide image IGP100 indicating a virtual unmanned air vehicle is displayed on the display unit 33.
  • the display control unit 351 controls the display of the guide image IGP100 so that the user can follow the unmanned air vehicle indicated by the guide image IGP100.
  • the display control unit 351 displays the guide image IGP (the guide image IGP2 and the guide image IGP4 shown in the figure) related to the guide to the guide target indicated by the target designation instruction recognized by the recognition unit and the guide image IGP100 together.
  • the structure displayed on the part 33 may be sufficient.
  • the display control unit 351 may be configured to display on the display unit 33 an image or the like of a character that performs guidance to a guidance target, instead of the guidance image IGP100 that shows a virtual unmanned aerial vehicle. Thereby, the guidance system 4 of 4th Embodiment can perform guidance with more entertainment with respect to a user.
  • FIG. 18 is a diagram showing an outline of the guidance system 5 according to the fifth embodiment. This embodiment demonstrates the case where the guidance system 5 provides a user with the information regarding a guidance object in the position of a guidance object.
  • symbol is attached
  • the guidance system 5 of this embodiment includes an unmanned air vehicle 10 and a guidance device 20D.
  • the guidance device 20D guides the user to the guidance target (“Torii” in the illustrated example) with the above-described configuration, and outputs information related to the guidance target at the position of the guidance target by voice SD (hereinafter, voice SD3).
  • voice SD voice SD
  • the information related to the guidance target is, for example, information related to the recording, explanation, history, and the like of the guidance target. "This torii was erected in XX " shows the contents of the voice SD3 output from the guidance device 20D.
  • voice SD3 voice SD
  • FIG. 19 is a diagram illustrating an example of a configuration of a guide device 20D according to the fifth embodiment.
  • the guide device 20D includes, for example, a drive control unit 21, a sound detection unit 22, an imaging unit 23, a storage unit 24D, and a control unit 25B.
  • the storage unit 24D stores a program 241, image information 242, presentation position information 243, presentation information 244, audio information 245, and target position information 246.
  • the voice information 245 includes information indicating the voice SD3 related to the guidance target.
  • the target position information 246 is information indicating the position of the guidance target.
  • the target position information 246 and the audio information 245 are associated with each other and stored in the storage unit 24D.
  • the audio information 245 is an example of “object information”.
  • the flight control unit 252 When the position of the unmanned air vehicle 10 detected by the position detection unit 27 and the position of the guidance target indicated by the target position information 246 coincide with each other, the flight control unit 252 is configured to fly in the vicinity of the guidance target. Control 10 flights. Further, when the position of the unmanned air vehicle 10 detected by the position detection unit 27 matches the position of the guidance target indicated by the target position information 246, the output control unit 255 includes the voice SD3 included in the voice information 245. The output unit 28 is caused to output the voice SD3 corresponding to the guidance target.
  • the guidance system 5 of the present embodiment includes the unmanned air vehicle 10 and the guidance device 20D. While the output unit 28 of the guidance device 20D outputs information about the guidance target by the voice SD3, and the flight control unit 252 of the guidance device 20D outputs the information about the guidance target by the voice SD3, the unmanned air vehicle 10 To fly in the vicinity of the guidance target. Thereby, the guidance system 5 of this embodiment can present the information regarding a guidance object to a user.
  • the guidance system 1 can communicate with, for example, a server in which various types of information are stored, and guide the user based on the various types of received information. It may be.
  • the guidance system is information related to the guidance object in the vicinity where the unmanned air vehicle 10 flies, that is, various information (presentation position information 243, presentation information 244, audio information 245, and target position used for guidance of the guidance object).
  • Information 246) is received from the server.
  • the guidance system guides the user to the guidance target based on the received various information. Thereby, the guidance system can guide the guidance target according to the position where the unmanned aerial vehicle 10 is arranged to the user.
  • the information received from the server may include information indicating a guidance area for each guidance target (hereinafter, guidance area information).
  • the guidance area is information indicating sections where the unmanned air vehicle 10 can fly when guiding a guidance target.
  • the guidance system can control the unmanned air vehicle 10 further based on the guidance area information, thereby suppressing the unmanned air vehicle 10 from moving to a section where the movement of the unmanned air vehicle 10 is restricted.
  • the guidance system may perform an effect of seeing off the user when the user moves outside the section indicated by the guidance area information.
  • the effects such as seeing off include presenting an image indicating the greeting, outputting a voice indicating the greeting, moving (leaving) from the spot after performing the greeting, and the like. As a result, it is possible to provide a user with a highly entertaining guide.
  • the guidance system may cause the unmanned air vehicle 10 to fly based on energy (for example, electric power) related to the flight of the unmanned air vehicle 10.
  • energy for example, electric power
  • the guidance system may be configured to communicate with another guidance system in response to the remaining battery level being less than a predetermined value.
  • the other guidance system flies the unmanned aerial vehicle 10 on which the apparatus is mounted, and flies to the position of the unmanned aerial vehicle 10 (guidance system) with a low remaining battery level.
  • the unmanned aerial vehicle 10 (guidance system) with a low remaining battery capacity takes over guidance to the user (for example, transmission / reception of information about the destination) to other guidance systems that have flew to the position of the device, Return (fly) to the feeding position. Thereby, the guidance system can provide guidance to the user regardless of the remaining battery level of the unmanned air vehicle 10.
  • an unmanned mobile body is, for example, a vehicle that autonomously moves (for example, an RC (Radio-Control) car), a robot that has an autonomous movement function, or the like.
  • the flight control unit 252 operates as a movement control unit that controls movement of the moving object.
  • the guidance system is a system mounted on the unmanned air vehicle 10 .
  • the present invention is not limited to this.
  • the guidance system 1 may have a configuration in which a part of the guidance system 1 is mounted.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Abstract

案内システムは、無人移動体と、利用者の指示を認識する認識部と、前記認識部により認識された前記指示に基づいて、前記利用者を案内する方向に前記無人移動体を自律移動させる移動制御部と、を備える。

Description

案内システム
 本発明は、案内システムに関する。
 本願は、2017年6月16日に、日本に出願された特願2017‐119023号に基づき優先権を主張し、その内容をここに援用する。
 従来、利用者に対して案内を行うシステムが知られている(例えば、特許文献1)。
特開2007-149053号公報
 特許文献1に記載の技術は、利用者に対して娯楽性のある案内を行うことが困難であった。
 本発明は、上記問題に鑑みて為されたものであり、直観的に分かりやすく且つ娯楽性に富んだ案内を提供することが可能な案内システムを提供することを目的とする。
 この発明に係る案内システムは、以下の構成を採用した。
 (1)この発明の一態様は、無人移動体と、利用者の指示を認識する認識部と、前記認識部により認識された前記指示に基づいて、前記利用者を案内する方向に前記無人移動体を自律移動させる移動制御部と、を備える案内システムである。
 (2)は、(1)の態様の案内システムであって、案内に関する案内情報を提示する提示部を備えていてもよい。
 (3)は、(2)の態様の案内システムであって、前記提示部とは、画像を投射することによって前記案内情報を提示する投射装置であってもよい。
 (4)は、(2)、又は(3)の態様の案内システムであって、前記提示部とは、画像を表示することによって前記案内情報を提示する表示部を備えるヘッドマウント装置であってもよい。
 (5)は、(2)から(4)のいずれかの態様の案内システムであって、音声によって前記案内情報を出力するスピーカであってもよい。
 (6)は、(2)から(5)のいずれかの態様の案内システムであって、前記提示部は、選択肢を提示し、前記認識部は、前記提示部が前記選択肢を提示することに応じた前記利用者の動作に基づいて、前記指示を認識してもよい。
 (7)は、(6)の態様の案内システムであって、自装置の位置を検出する位置検出部と、前記位置検出部が検出した自装置の位置が前記選択肢を提示する位置であるか否かを判定する提示位置判定部と、を備え、前記提示部は、前記提示位置判定部が自装置の位置が前記選択肢を提示する位置であると判定する場合、前記選択肢を提示してもよい。
 (8)は、(1)から(7)のいずれかの態様の案内システムであって、案内対象に関する対象物情報を音声によって出力する出力部を備え、前記移動制御部は、前記出力部が前記対象物情報を出力する間、前記無人移動体に前記案内対象の近傍を飛行させてもよい。
 (9)は、(8)の態様の案内システムであって、前記出力部は、音声によって前記対象物情報を出力してもよい。
 (10)は、(1)から(9)のいずれかの態様の案内システムであって、前記無人移動体とは、無人飛行体であってもよい。
 (11)この発明の一態様は、本発明の一態様に係る案内システムは、ヘッドマウント装置と、利用者の指示を認識する認識部と、前記認識部により認識された前記指示に基づいて、前記利用者を案内する方向に仮想的な無人移動体が自律移動する様子を風景に重畳させて表示させる表示制御部と、を備える案内システムである。
 上述した(1)~(5)、(8)~(11)の態様によれば、直観的に分かりやすく且つ娯楽性に富んだ案内を提供することができる。
 上述した(6)、(7)の態様によれば、利用者の意図に応じた方向に、利用者を案内することができる。
第1の実施形態に係る案内システムの概要を示す図である。 第1の実施形態に係る無人飛行体の外観構成図である。 第1の実施形態に係る案内装置の構成の一例を示す図である。 第1実施形態に係る案内装置の動作の一例を示すフローチャートである。 第2の実施形態に係る案内システムの概要を示す図である。 第2の実施形態に係る案内装置の構成の一例を示す図である。 第2の実施形態に係る画像情報と、提示位置情報と、提示情報との対応の一例を示す図である。 第2の実施形態に係る案内装置の動作の一例を示すフローチャートである。 第3の実施形態に係る案内システムの概要を示す図である。 第3の実施形態に係る案内装置の構成の一例を示す図である。 第3実施形態に係る案内システムが音声によって利用者に選択肢を提示する概要を示す図である。 第3実施形態に係る案内システムが画像、及び音声によって利用者を案内する概要を示す図である。 第4の実施形態に係る案内システムの概要を示す図である。 第4の実施形態に係る案内装置の構成の一例を示す図である。 第4の実施形態に係るヘッドマウント装置の構成の一例を示す図である。 第4の実施形態に係るヘッドマウント装置の表示の一例を示す図(その1)である。 第4実施形態に係るヘッドマウント装置の表示の一例を示す図(その2)である。 第5の実施形態に係る案内システムの概要を示す図である。 第5の実施形態に係る案内装置の構成の一例を示す図である。
[第1の実施形態]
 以下、第1の実施形態の案内システム1を、図面を参照して説明する。図1は、第1の実施形態に係る案内システム1の概要を示す図である。案内システム1は、例えば、無人飛行体10と、当該無人飛行体10に搭載される案内装置20とを備える。無人飛行体10は、例えば、無人飛行するドローンである。案内装置20は、無人飛行体10の飛行を制御する。無人飛行体10は、案内装置20の制御に基づいて、案内を受ける利用者(以下、単に「利用者」と記載する)を案内する方向に飛行する。利用者に対して案内する対象(以下、単に「案内対象」)は、例えば、観光地の建造物や、観光スポット、展示物、その他である。案内の方向には、案内対象の方向、案内対象に移動する際に利用者が進行する方向、案内対象の鑑賞位置の方向、及び案内対象の鑑賞位置に移動する際に利用者が進行する方向等が含まれる。第1の実施形態では、案内システム1は、利用者に無人飛行体10の後を追わせることによって、案内対象まで利用者を案内する。
 案内システム1は、利用者の指示を認識し、当該指示に基づいて、利用者を案内対象まで案内する。利用者の指示は、案内システム1に案内させる案内対象を指定する指示(以下、対象指定指示)を含む。対象指定指示は、案内方向を指し示す利用者の動作によって行われてもよく、利用者が案内対象の名称を称呼する音声によって行われてもよい。第1の実施形態では、対象指定指示が、案内対象の名称を称呼する音声によって行われるものとする。図示する「鳥居に行きたい」は、利用者によって発せられた音声の内容を示している。以下、案内システム1の具体的な構成について説明する。
 図2は、第1の実施形態に係る無人飛行体10の概要を示す外観構成図である。無人飛行体10は、例えば、筐体11と、駆動部12と、回転翼13とを備える。筐体11は、駆動部12と、回転翼13とを支持する。駆動部12は、回転翼13を回転させる。回転翼13が回転し、揚力が生じることにより、無人飛行体10が飛行する。上述したように、無人飛行体10の飛行は、案内装置20によって自動的に制御される。無人飛行体10の駆動部12と、案内装置20とは、情報を送受信可能に接続される。
 図3は、第1の実施形態に係る案内装置20の構成の一例を示す図である。案内装置20は、例えば、駆動制御部21と、音検出部22と、撮像部23と、記憶部24と、制御部25とを備える。駆動制御部21は、制御部25からの指示に基づいて、駆動部12を駆動する。音検出部22は、例えば、マイクロフォンである。音検出部22は、利用者の対象指定指示を含む、案内システム1の周囲の音を検出する。撮像部23は、所定の時間間隔において利用者を撮像し、画像(以下、利用者画像UGP)を生成する。
 記憶部24は、例えば、フラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)などにより実現される。記憶部24は、プログラム241などの情報を格納する。制御部25は、例えば、認識部251と、飛行制御部252とをその機能部として備える。制御部25の各機能部は、CPU(Central Processing Unit)などのプロセッサが、記憶部24に記憶されるプログラム241実行することによって実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
 認識部251は、音検出部22により検出された案内システム1(無人飛行体10)の周囲の音に基づいて、対象指定指示を認識する。認識部251は、例えば、音検出部22が検出した周囲の音に対して音声認識処理を行い、認識結果から対象指定指示を抽出する。
 飛行制御部252は、認識部251により認識された対象指定指示により示される案内対象に向けて無人飛行体10が自律飛行するように、無人飛行体10の飛行を制御する。
また、飛行制御部252は、例えば、案内対象の方向に無人飛行体10の飛行を制御しつつ、利用者から所定の距離以上離れないように無人飛行体10の飛行を制御する。具体的には、飛行制御部252は、撮像部23により撮像された利用者画像UGPに対して画像認識処理を行い、認識結果から無人飛行体10と、利用者との距離を大まかに推定する。
飛行制御部252は、推定した距離が所定の距離以上とならないように、無人飛行体10の飛行を制御する。この場合、案内装置20は、無人飛行体10に案内対象まで飛行を開始させる前に、撮像部23によって利用者を撮像し、対象の利用者の顔などを予め認識しておき、利用者画像UGPに利用者が映されていることを確認しつつ飛行する。
[案内装置の動作]
 図4は、第1実施形態に係る案内装置20の動作の一例を示すフローチャートである。
撮像部23は、案内対象まで案内する利用者を撮像し、利用者画像UGPを生成する(ステップS100)。次に、音検出部22が、案内システム1の周囲の音を検出する(ステップS110)。次に、認識部251は、音検出部22が検出する周囲の音に基づいて、利用者の対象指定指示を音声認識したか否かを判定する(ステップS120)。この場合における対象指定指示は、案内対象に向けての飛行開始を指示する意味合いである。利用者の対象指定指示を音声認識できた場合、飛行制御部252は、案内対象の方向に無人飛行体10を飛行開始させる(ステップS130)。また、利用者の対象指定指示を音声認識できなかった場合、飛行制御部252は、無人飛行体10をホバリング飛行させる(ステップS140)。換言すると、利用者の対象指定指示があるまで、無人飛行体10は、案内対象への飛行を開始しない。案内装置20は、認識部251が対象指定指示を示す音声認識し、案内対象の方向に飛行を開始するまでの間、ステップS110、ステップS120、及びステップS140の処理を繰り返す。
[第1の実施形態のまとめ]
 以上説明したように、本実施形態の案内システム1は、無人飛行体10と、案内装置20とを備える。本実施形態の案内システム1が備える案内装置20は、認識部251が、利用者の指示(この一例では、対象指定指示)を認識し、飛行制御部252が、対象指定指示が示す案内対象の方向に無人飛行体10を自律飛行させる。これにより、本実施形態の案内システム1は、案内対象まで無人飛行体10に利用者を案内させることができる。
したがって、本実施形態の案内システム1は、利用者に対してわかりやすく且つ娯楽性に富んだ案内を行うことができる。また、本実施形態の案内システム1は、無人飛行体10によって利用者を案内させることにより、混雑した場所であっても利用者や他の歩行者と、無人飛行体10とが接触することなく案内を行うことができる。
[第2の実施形態]
 以下、第2の実施形態の案内システム2を、図面を参照して説明する。図5は、第2の実施形態に係る案内システム2の概要を示す図である。第1の実施形態では、利用者に対して、ある案内対象までの案内を行う場合について説明した。第2の実施形態では、案内対象の選択肢を提示し、利用者の選択に応じた案内対象までの案内を行う場合について説明する。なお、上述した実施形態と同様の構成については、同一の符号を付して説明を省略する。
 案内システム2は、無人飛行体10と、案内装置20Aとを備える。案内装置20Aは、投射部を備えており、利用者が歩行する歩行面(例えば、地表面)や、利用者が歩行する位置の近傍に存在する構造物(例えば、建物の壁面)に、案内に関する画像(以下、案内画像IGP)を投射し、表示する。図示する一例では、案内装置20Aは、分岐点(図示する一例では、分岐点α)において2つの案内対象の選択肢を示す画像を提示する。具体的には、案内装置20Aは、2つの案内対象の方向をそれぞれ示す矢印の画像(案内画像IGP1、及び案内画像IGP2)と、案内画像IGP1が示す方向に存在する案内対象の名称を示す案内画像IGP3と、案内画像IGP2が示す方向に存在する案内対象の名称を示す案内画像IGP4とを投射し、利用者に提示する。案内装置20Aは、選択肢から案内対象を選択する利用者の指示(以下、選択指示)に基づいて、無人飛行体10の飛行を制御し、案内対象まで利用者を案内する。以下、案内システム2が備える案内装置20Aの具体的な構成について説明する。
 図6は、第2の実施形態に係る案内装置20Aの構成の一例を示す図である。案内装置20Aは、例えば、駆動制御部21と、音検出部22と、撮像部23と、記憶部24Aと、制御部25Aと、投射部26と、位置検出部27とを備える。
 記憶部24Aには、プログラム241と、画像情報242と、提示位置情報243と、提示情報244とが記憶される。画像情報242は、案内対象の選択肢を示す案内画像IGPを示す情報である。なお、本実施形態において、画像情報242とは、「案内情報」の一例である。提示位置情報243は、案内対象の選択肢を提示する位置(以下、選択肢提示位置)を示す情報である。提示位置情報243は、例えば、道の分岐点等の位置を示す情報である。提示情報244は、提示位置情報243が示す選択肢提示位置において提示される案内対象の選択肢を示す情報である。本実施形態の一例において、画像情報242と、提示位置情報243と、提示情報244とは対応付けられて記憶される。
 図7は、第2の実施形態に係る画像情報242と、提示位置情報243と、提示情報244との対応の一例を示す図である。本実施形態の一例では、提示位置情報243には、分岐点α(図5に示す分岐点)の位置を示す情報(図示する一例では、(X1,Y1))と、分岐点βの位置を示す情報(図示する一例では、(X2,Y2))とが含まれる。また、提示情報244には、分岐点αにおいて示される案内対象の選択肢(この一例では、「本殿」、及び「鳥居」)と、分岐点βにおいて示される案内対象の選択肢(この一例では、「本殿」、及び「拝殿」)とが含まれる。また、画像情報242には、分岐点αにおいて選択肢を示す際に用いられる案内画像IGP(この一例では、案内画像IGP1~案内画像IGP4)と、分岐点βにおいて選択肢を示す際に用いられる案内画像IGP(この一例では、案内画像IGP7~案内画像IGP10)とが含まれる。なお、ここでは、ある分岐点において2つの選択肢が対応付けられている場合について説明したが、分岐の数に応じた選択肢が対応付けられていてもよい。
 図6に戻り、投射部26は、例えば、地表面や壁面等の投射面に画像を拡大して投射し、表示するプロジェクタである。投射部26は、制御部25Aの制御に基づいて、案内画像IGPを投射し、表示する。本実施形態において、投射部26とは、「投射装置」の一例である。位置検出部27は、無人飛行体10の位置を検出する。位置検出部27は、例えば、GPS(Global Positioning System)などの全地球航法衛星システム(Global Navigation Satellite System(s):GNSS)を利用した方法や、準天頂衛星(quasi-zenith satellites:QZS)などの地域的衛星測位システム(Regional Navigation Satellite System:RNSS)を利用した方法によって無人飛行体10の位置を検出する。なお、位置検出部27は、無人飛行体10の位置を検出する構成に代えて、利用者の位置を検出する構成であってもよい。また、第1の実施形態においても位置検出部27を備えてよい。
 制御部25Aは、例えば、認識部251と、飛行制御部252と、提示位置判定部253と、投射制御部254とをその機能部として備える。
 提示位置判定部253は、位置検出部27が検出する無人飛行体10の位置と、提示位置情報243とに基づいて、案内対象の選択肢提示位置であるか否かを判定する。提示位置判定部253は、例えば、無人飛行体10の位置が提示位置情報243の示す位置と合致する場合、無人飛行体10の位置が案内対象の選択肢提示位置であると判定する。
 投射制御部254は、記憶部24Aに画像情報242として記憶される案内画像IGPを投射部26に投射させる。本実施形態の投射制御部254は、提示位置判定部253が無人飛行体10の位置を選択肢提示位置であると判定する場合、案内装置20Aは、当該選択肢提示位置に対応付けられた選択肢を利用者に提示する。具体的には、投射制御部254は、選択肢提示位置に対応付けられた提示情報244が示す案内対象の選択肢(図5の一例では、「本殿」、及び「鳥居」)を示す案内画像IGP(案内画像IGP1~案内画像IGP4)を投射部26に投射させる。なお、本実施形態の一例において、投射部26とは、「提示部」の一例である。
 ここで、投射部26の投射方向が可変の場合、投射制御部254は、案内対象の位置と、無人飛行体10の向きとに基づいて、案内画像IGPが示す方向が案内対象の位置に基づく方向となるように、案内画像IGPの投射方向を制御する。なお、投射部26の投射方向が固定されている場合、飛行制御部252は、案内対象の位置と、無人飛行体10の向きとに基づいて、案内画像IGPが示す方向が案内対象の位置に基づく方向となるように、無人飛行体10の飛行方向を制御する機能を有していていもよい。
 認識部251は、投射部26が案内画像IGPを投射すること、つまり、案内対象の選択肢を提示することに応じて、利用者の選択指示を認識する。利用者の選択指示は、選択する案内対象の方向を指し示す利用者の動作によって行われてもよく、選択する案内対象の名称を利用者が称呼する音声によって行われてもよい。本実施形態の一例では、選択指示は、選択する案内対象の方向を指し示す利用者の動作によって行われるものとする。認識部251は、案内方向を指し示す利用者の動作によって行われる選択指示を画像認識によって認識する。具体的には、認識部251は、撮像部23により撮像された利用者画像UGPに対して画像認識処理を行い、認識結果から利用者が指し示す案内対象の方向を認識する。飛行制御部252は、認識部251により認識された選択指示が示す案内対象に無人飛行体10が自律飛行するように、無人飛行体10の飛行を制御する。
[案内装置の動作]
 図8は、第2の実施形態に係る案内装置20Aの動作の一例を示すフローチャートである。位置検出部27は、無人飛行体10の現在位置を検出する(ステップS210)。提示位置判定部253は、無人飛行体10の位置が選択肢提示位置であるか否かを判定する(ステップS220)。提示位置判定部253が無人飛行体10の位置が選択肢提示位置ではないと判定する場合、無人飛行体10は、案内対象の選択肢を提示する処理を終了する。また、提示位置判定部253が無人飛行体10の位置が選択肢提示位置であると判定する場合、投射部26は、当該選択肢提示位置に対応付けられた提示情報244を利用者に提示する。具体的には、投射制御部254は、提示情報244に応じた案内画像IGPを投射部26に投射させる(ステップS230)。認識部251は、案内画像IGPが投射部26によって投射されたことに応じて行われる利用者の選択指示を認識する(ステップS240)。利用者の選択指示を認識した場合、飛行制御部252は、選択指示に基づいて無人飛行体10を飛行させる。具体的には、飛行制御部252は、選択された案内対象の方向に無人飛行体10を飛行させる(ステップS250)。また、利用者の選択指示を認識できなかった場合、飛行制御部252は、無人飛行体10をホバリング飛行させる(ステップS260)。換言すると、利用者の選択指示があるまで、無人飛行体10は、選択肢提示位置から案内対象への飛行を開始しない。案内装置20Aは、所定の時間間隔においてステップS210~ステップS260を繰り返し、利用者に選択肢を提示する。
[第2の実施形態のまとめ]
 以上説明したように、本実施形態の案内システム2は、無人飛行体10と、案内装置20Aを備える。位置検出部27は、無人飛行体10の位置を検出する。提示位置判定部253は、位置検出部27が検出する無人飛行体10の位置が、選択肢提示位置であるか否かを判定する。提示位置判定部253は、無人飛行体10の位置が選択肢提示位置であると判定する場合、投射部26は、投射制御部254の制御に基づいて、選択肢(この一例は、選択肢を示す案内画像IGP)を提示する。認識部251は、投射部26が案内画像IGPを提示することに応じた利用者の選択指示を認識する。飛行制御部252は、認識部251により認識された選択肢に基づいて、当該選択肢が示す案内対象の方向に無人飛行体10を飛行させる。本実施形態の案内システム2によれば、利用者のニーズに応じた案内を行うことができる。
 なお、上述では、投射部26が分岐点において選択肢を提示する場合について説明したが、これに限られない。投射部26は、例えば、案内システム2が利用者の案内を開始する際に、案内対象の選択肢を提示する構成であってもよい。ここで、飛行開始時に案内対象が選択されてから、案内対象までの道のりに選択肢提示位置が存在しない場合、案内システム2は、提示位置判定部253を備えていなくてもよい。
[第3の実施形態]
 以下、第3の実施形態の案内システム3を、図面を参照して説明する。図9は、第3の実施形態に係る案内システム3の概要を示す図である。第3の実施形態では、案内に関する音声を利用者に提示し、利用者を案内する場合について説明する。なお、上述した実施形態と同様の構成については、同一の符号を付して説明を省略する。
 案内システム3は、無人飛行体10と、案内装置20Bとを備える。案内装置20Bは、出力部を備えており、案内に関する音声(以下、音声SD1)を出力する。図示する一例では、案内装置20Bは、案内対象の名称や方向を音声SD1によって出力し、利用者に提示する。図示する「鳥居に向かっています。この道をまっすぐです。」は、案内装置20Bが出力する音声SD1の内容を示している。以下、案内システム3が備える案内装置20Bの具体的な構成について説明する。
 図10は、第3の実施形態に係る案内装置20Bの構成の一例を示す図である。案内装置20Bは、例えば、駆動制御部21と、音検出部22と、撮像部23と、記憶部24Bと、制御部25Bと、投射部26と、位置検出部27と、出力部28とを備える。
 記憶部24Bには、プログラム241と、画像情報242と、提示位置情報243と、提示情報244と、音声情報245とが記憶される。音声情報245は、案内に関する音声(音声SD1)を示す情報である。なお、本実施形態において、音声情報245とは、「案内情報」の一例である。
 出力部28は、例えば、スピーカである。出力部28は、制御部25Bの制御に基づいて、音声SD1を出力する。制御部25Bは、例えば、認識部251と、飛行制御部252と、提示位置判定部253と、投射制御部254と、出力制御部255とをその機能部として備える。出力制御部255は、記憶部24Bに記憶される音声情報245のうち、認識部251により認識された案内に関する音声SD1を出力部28に出力させる。
[第3の実施形態のまとめ]
 以上説明したように、本実施形態の案内システム3が備える案内装置20Bは、出力装置(この一例では、出力部28)を備える。出力部28は、制御部25Bが備える出力制御部255の制御に基づいて、音声SD1を出力することによって利用者に案内に関する情報(この一例では、音声情報245)を提示する。本実施形態の案内システム3によれば、案内に関する音声SD1を提示し、利用者に案内対象までの道のり(方向)をよりわかりやすく教示することができる。
<音声によって利用者に選択肢を提示する場合>
 なお、案内システム3は、音声によって利用者に案内対象の選択肢を提示する機能を有していてもよい。図11は、第3実施形態に係る案内システム3が音声によって利用者に選択肢を提示する概要を示す図である。この場合、制御部25Bは、例えば、出力部28が案内対象の選択肢を示す音声(以下、音声SD2)によって出力し、利用者に提示する。図示する「左に行くと「本殿」で、右に行くと「鳥居」です。どちら行くか選択してください。」は、案内装置20Bが出力する音声SD2の内容を示している。
 この場合、音声情報245には、案内対象の選択肢を示す音声(以下、音声SD2)が含まれており、音声情報245と、提示位置情報243と、提示情報244とは、対応付けられて記憶部24Bに記憶される。提示位置判定部253は、位置検出部27が検出する無人飛行体10の位置と、提示位置情報243とに基づいて、無人飛行体10の位置が選択肢提示位置であるか否かを判定する。出力部28は、無人飛行体10の位置が選択肢提示位置である場合、当該選択肢提示位置と対応付けられた提示情報244が示す案内対象の選択肢(図11の一例では、「本殿」、及び「鳥居」)に関する音声(音声SD2)を出力部28に出力させる。なお、本実施形態の一例において、出力部28とは、「提示部」の一例である。認識部251は、出力部28が音声SD2を出力すること、つまり、案内対象の選択肢を提示することに応じて、利用者の選択指示を認識する。以降の構成については、上述した第2実施形態と同様であるため、説明を省略する。これにより、本実施系他の案内システム3は、利用者のニーズに応じた案内を行うことができる。
<利用者に案内対象までの距離を提示する場合>
 なお、投射制御部254は、案内対象までの距離を音声SD、又は案内画像IGPによって出力する機能を有していてもよい。この場合、制御部25Cは、案内対象までの距離を算出し、出力制御部255に当該距離を音声SDとして出力部28に出力させる、又は投射制御部254に当該距離を案内画像IGPとして投射部26に投射し、表示させる機能を有する。飛行制御部252は、例えば、飛行開始位置から認識部251により認識された案内対象までの道のり(距離)を取得する。飛行制御部252は、飛行開始位置から案内対象までの道のり(距離)と、現在の位置までに飛行した距離とに基づいて、案内対象までの距離を算出する。出力制御部255は、飛行制御部252が算出した案内対象までの距離に基づいて、案内対象までの距離を示す音声SDを出力部28に出力させる。又は、投射制御部254は、飛行制御部252が算出した案内対象までの距離に基づいて、案内対象までの距離を示す案内画像IGPを生成し、投射部26に投射させる。これにより、本実施形態の案内システム3は、音声SDや案内画像IGPを提示し、利用者に案内対象までの距離を教示することができる。
<音声、及び画像によって利用者を案内対象まで案内する場合>
 なお、案内システム3は、投射部26が案内画像IGPを投射しつつ、かつ出力部28が音声SDを出力しながら利用者を案内対象まで案内する構成であってもよい。図12は、第3実施形態に係る案内システム3が案内画像IGP、及び音声SDによって利用者を案内する概要を示す図である。この場合、案内システム3が備える案内装置20Bは、案内対象への案内に関する案内画像IGP(図示する一例では、案内画像IGP2、及び案内画像IGP4)を投射しつつ、当該案内対象に関する音声SD(図示する一例では、音声SD1)を出力する。具体的には、投射制御部254は、認識部251により認識された案内対象への案内に関する案内画像IGPを投射部26によって投射し、出力制御部255は、当該案内対象への案内に関する音声SDを出力部28によって出力する。これにより、本実施形態の案内システム3は、利用者に案内対象までの道のりをよりわかりやすく教示することができる。
[第4の実施形態]
 以下、第4の実施形態の案内システム4を、図面を参照して説明する。図13は、第4の実施形態に係る案内システム4の概要を示す図である。第4の実施形態では、ヘッドマウント装置に案内画像IGPを表示し、利用者を案内対象まで案内する場合について説明する。なお、上述した実施形態と同様の構成については、同一の符号を付して説明を省略する。
 本実施形態の案内システム4は、無人飛行体10と、案内装置20Cと、ヘッドマウント装置30とを備える。ヘッドマウント装置30は、利用者の頭部に装着されて用いられる装置である。ヘッドマウント装置30は、仮想スクリーン等の表示部を備え、当該表示部に周囲環境である背景の画像と、各種情報を示す画像とを重畳して表示する。これにより、利用者は、背景を見ながら各種情報を確認することができる。ヘッドマウント装置30は、案内装置20Cの制御に基づいて、各種画像を表示する。以下、案内装置20Cと、ヘッドマウント装置30との具体的な構成について説明する。
 図14は、第4の実施形態に係る案内装置20Cの構成の一例を示す図である。案内装置20Cは、例えば、駆動制御部21と、音検出部22と、撮像部23と、記憶部24Bと、制御部25Cと、位置検出部27と、通信部29とを備える。通信部29は、無線通信によってヘッドマウント装置30と情報の送受信を行う。通信部29と、ヘッドマウント装置30との間の無線通信は、例えば、BLE(Bluetooth(登録商標) Low Energy)やWi-Fi(登録商標)による近距離無線通信、LTE(Long Term Evolution)などの移動体通信網を介した無線通信、及び赤外線による無線通信等によって行われる。
 制御部25Cは、認識部251と、飛行制御部252と、提示位置判定部253と、選択部256とをその機能部として備える。選択部256は、画像情報242に含まれる案内画像IGPのうち、ヘッドマウント装置30に表示させる案内画像IGPを選択する。
選択部256は、例えば、認識部251により認識された対象指定指示が示す案内対象の案内に関する案内画像IGP、選択肢提示位置において選択肢を利用者に提示する際に表示される案内画像IGP、及び選択肢提示位置において認識部251により認識された選択指示が示す案内対象の案内に関する案内画像IGP等を画像情報242から選択する。
選択部256は、選択した案内画像IGPを通信部29によってヘッドマウント装置30に送信する。
 図15は、第4の実施形態に係るヘッドマウント装置30の構成の一例を示す図である。ヘッドマウント装置30は、例えば、通信部31と、撮像部32と、表示部33と、記憶部34と、制御部35とを備える。通信部31は、無線通信によって案内装置20と情報の送受信を行う。撮像部32は、利用者の周囲環境を撮像し、背景画像(以下、背景画像BGP)を生成する。本実施形態の一例では、撮像部32は、利用者の前方を撮像する位置に配置され、利用者の周囲のうち、前方の風景を撮像し、背景画像BGPを生成する。表示部33は、仮想スクリーン等によって構成され、制御部35の制御に基づいて画像を表示する。
 制御部35は、CPUなどのプロセッサが、記憶部34に記憶されるプログラム341を実行することによって実現される。制御部35は、例えば、表示制御部351をその機能部として備える。表示制御部351は、通信部31が受信した案内画像IGPと、撮像部32により撮像された背景画像BGPとを表示部33に重畳して表示させる。本実施形態の一例において、ヘッドマウント装置30とは、「提示部」の一例である。
 図16は、第4の実施形態に係るヘッドマウント装置30の表示の一例を示す図(その1)である。図示する一例では、案内装置20Cの選択部256は、画像情報242に含まれる案内画像IGPのうち、選択肢提示位置(この一例では、分岐点α)において、案内対象を提示する際に表示される案内画像IGP(この一例では、案内画像IGP1~案内画像IGP4)を選択し、ヘッドマウント装置30に送信する。ヘッドマウント装置30の表示部33には、表示制御部351の制御に基づいて、撮像部32が撮像する利用者の前方の背景画像BGPと、案内装置20Cから受信した案内対象の方向を示す矢印の画像(案内画像IGP1、及び案内画像IGP2)と、案内対象の選択肢の名称を示す画像(案内画像IGP3、及び案内画像IGP4)とが重畳して表示される。
 ここで、ヘッドマウント装置30は、利用者の視線を検出する視線検出部を備えていてもよい。この場合、ヘッドマウント装置30は、表示部33に選択肢が提示されたことに応じて、視線検出部が検出した利用者の視線を示す情報を案内装置20Cに送信する。案内装置20Cは、受信した利用者の視線を示す情報に基づいて、利用者の選択指示を認識する。この構成により、利用者は、案内対象の選択肢を簡便に選択することができる。
[第4の実施形態のまとめ]
 以上説明したように、本実施形態の案内システム4は、無人飛行体10と、案内装置20Cと、ヘッドマウント装置30とを備える。選択部256は、認識部251により認識された対象指定指示、及び選択指示や、無人飛行体10の現在位置に基づいて、案内情報(この一例では、画像情報242)のうち、利用者に提示する情報(この一例では、案内画像IGP1~案内画像IGP4)を選択する。ヘッドマウント装置30は、選択部256が選択した案内画像IGPと、背景画像BGPとを重畳して表示する。これにより、本実施形態の案内システム4は、案内に関する案内画像IGPを提示し、利用者に案内対象までの道のりをよりわかりやすく教示することができる。
<無人飛行体を用いずに利用者を案内対象まで案内する場合>
 なお、上述では、案内システム4が無人飛行体10を備える場合について説明したが、これに限られない。案内システム4は、例えば、ヘッドマウント装置30の表示部33に仮想的な無人飛行体が飛行する様子を表示させ、当該無人飛行体を利用者に追わせるような表示を行うことにより、利用者を案内対象まで案内する構成であってもよい。この場合、ヘッドマウント装置30は、案内装置20Cが備える各機能部のうち、無人飛行体10の飛行制御に関する機能部(駆動制御部21、及び飛行制御部252)以外の構成を備える。
 図17は、第4実施形態に係るヘッドマウント装置30の表示の一例を示す図(その2)である。図17に示す通り、表示部33には、仮想的な無人飛行体を示す案内画像IGP100が表示される。表示制御部351は、利用者に案内画像IGP100が示す無人飛行体を追わせるように、案内画像IGP100の表示を制御する。なお、表示制御部351は、認識部により認識された対象指定指示が示す案内対象への案内に関する案内画像IGP(図示する案内画像IGP2、及び案内画像IGP4)と、案内画像IGP100とを合わせて表示部33に表示する構成であってもよい。また、表示制御部351は、仮想的な無人飛行体を示す案内画像IGP100に代えて、案内対象までの案内を行うキャラクターの画像等を表示部33に表示する構成であってもよい。これにより、第4実施形態の案内システム4は、利用者に対してより娯楽性のある案内を行うことができる。
[第5の実施形態]
 以下、第5の実施形態の案内システム5を、図面を参照して説明する。図18は、第5の実施形態に係る案内システム5の概要を示す図である。本実施形態では、案内システム5が案内対象の位置において案内対象に関する情報を利用者に提供する場合について説明する。なお、上述した実施形態と同様の構成については、同一の符号を付して説明を省略する。
 図18に示す通り、本実施形態の案内システム5は、無人飛行体10と、案内装置20Dとを備える。案内装置20Dは、上述した構成によって利用者を案内対象(図示する一例では、「鳥居」)まで案内し、当該案内対象の位置において、案内対象に関する情報を音声SD(以下、音声SD3)によって出力する。案内対象に関する情報とは、例えば、当該案内対象の記録、解説、及び歴史等に関する情報である。図示する「この鳥居はXX年に建立されて…」は、案内装置20Dが出力する音声SD3の内容を示している。以下、案内システム5が備える案内装置20Dの具体的な構成について説明する。
 図19は、第5の実施形態に係る案内装置20Dの構成の一例を示す図である。案内装置20Dは、例えば、駆動制御部21と、音検出部22と、撮像部23と、記憶部24Dと、制御部25Bとを備える。記憶部24Dには、プログラム241と、画像情報242と、提示位置情報243と、提示情報244と、音声情報245と、対象位置情報246とが記憶される。本実施形態において、音声情報245には、案内対象に関する音声SD3を示す情報が含まれる。対象位置情報246は、案内対象の位置を示す情報である。対象位置情報246と、音声情報245とは対応付けられて記憶部24Dに記憶される。なお、本実施形態において、音声情報245とは、「対象物情報」の一例である。
 飛行制御部252は、位置検出部27が検出した無人飛行体10の位置と、対象位置情報246が示す案内対象の位置とが一致する場合、当該案内対象の近傍を飛行するように無人飛行体10の飛行を制御する。また、出力制御部255は、位置検出部27が検出した無人飛行体10の位置と、対象位置情報246が示す案内対象の位置とが一致する場合、音声情報245に含まれる音声SD3のうち、当該案内対象に対応する音声SD3を出力部28に出力させる。
[第5の実施形態のまとめ]
 以上説明したように、本実施形態の案内システム5は、無人飛行体10と、案内装置20Dとを備える。案内装置20Dの出力部28が、案内対象に関する情報を音声SD3によって出力し、案内装置20Dの飛行制御部252が、出力部28が案内対象に関する情報を音声SD3によって出力する間、無人飛行体10に当該案内対象の近傍を飛行させる。これにより、本実施形態の案内システム5は、利用者に案内対象に関する情報を提示することができる。
<サーバとの連携について>
 なお、上述では、記憶部24に記憶された各種情報(提示位置情報243、提示情報244、音声情報245、及び対象位置情報246)に基づいて、案内システム1が各種処理を行う場合について説明したが、これに限られない。案内システム1~案内システム5(以下、単に「案内システム」と記載)は、例えば、各種情報が記憶されたサーバと通信可能であって、受信した各種情報に基づいて、利用者を案内する構成であってもよい。この場合、案内システムは、無人飛行体10が飛行する周辺の案内対象に関する情報、つまり、当該案内対象の案内に用いられる各種情報(提示位置情報243、提示情報244、音声情報245、及び対象位置情報246)をサーバから受信する。案内システムは、受信した各種情報に基づいて、利用者に案内対象を案内する。これにより、案内システムは、無人飛行体10が配置される位置に応じた案内対象を利用者に案内することができる。
 ここで、サーバから受信する情報には、各案内対象における案内エリアを示す情報(以下、案内エリア情報)が含まれていてもよい。案内エリアとは、案内対象を案内する際に無人飛行体10が飛行可能な区画を示す情報である。案内システムは、案内エリア情報に更に基づいて無人飛行体10を制御することにより、無人飛行体10の移動が制限されている区画に無人飛行体10が移動することを抑止することができる。また、案内システムは、案内エリア情報が示す区画の外に利用者が移動した場合、利用者を見送りするような演出を行ってもよい。見送りするような演出とは、あいさつを示す画像を提示する、あいさつを示す音声を出力する、あいさつを行った後、その場から移動する(去る)等である。これにより、利用者に娯楽性に富んだ案内を提供することができる。
<エネルギーマネジメントについて>
 また、案内システムは、無人飛行体10の飛行に係るエネルギー(例えば、電力)に基づいて、無人飛行体10を飛行させてもよい。以下、無人飛行体10は、当該無人飛行体10に搭載されるバッテリーによって駆動する場合について説明する。案内システムは、例えば、バッテリーの残量が所定の値より少なくなることに応じて、他の案内システムと通信する構成であってもよい。この場合、他の案内システムは、自装置を搭載する無人飛行体10を飛行させ、バッテリーの残量が少ない無人飛行体10(案内システム)の位置まで飛行する。バッテリーの残量が少ない無人飛行体10(案内システム)は、自装置の位置まで飛行してきた他の案内システムに利用者への案内の引き継ぎ(例えば、目的地に関する情報の送受信)等を行い、給電位置まで帰還(飛行)する。これにより、案内システムは、無人飛行体10のバッテリー残量に関わらず、利用者に案内を行うことができる。
 また、案内システム(無人飛行体10)は、案内を演出する際に用いられる演出用設備を備えていてもよい。演出用設備とは、例えば、発光LED(Light Emitting Diode)等の灯体である。案内システムは、灯体が発光する態様を案内対象の照明と連動して制御してもよい。例えば、案内システムは、案内対象の照明が滅灯している場合、同様に灯体を滅灯させてもよい。また、案内システムは、案内対象の照明が滅灯している場合、案内対象の経路を投光するように灯体を滅灯させてもよい。また、案内システムは、案内対象にプロジェクションマッピング等の演出が行われている場合、当該演出に合わせて発光するように灯体を制御してもよい。この場合、案内システムは、案内対象の照明の状態を示す信号を受信する構成を備える。案内システムは、受信した当該信号に応じて灯体を制御する。
 また、上述では、利用者を案内するのが無人飛行体10である場合について説明したが、これに限られない。例えば、無人移動体が利用者を案内する構成であってもよい。無人移動体とは、例えば、自律移動する車両(例えば、RC(Radio Control)カー等)や、自律移動機能を有するロボット等である。また、この場合、飛行制御部252は、移動体の移動を制御する移動制御部として動作する。
 なお、上述では、案内システムが無人飛行体10に搭載されるシステムである場合について説明したが、これに限られない。案内システム1には、例えば、案内システム1の一部が搭載される構成であってもよい。
 なお、上記の各実施形態における案内システムが備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。
 以上、本発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。上述した各実施形態に記載の構成を組み合わせてもよい。

Claims (11)

  1.  無人移動体と、
     利用者の指示を認識する認識部と、
     前記認識部により認識された前記指示に基づいて、前記利用者を案内する方向に前記無人移動体を自律移動させる移動制御部と、
     を備える案内システム。
  2.  案内に関する案内情報を提示する提示部、
     を備える請求項1に記載の案内システム。
  3.  前記提示部は、
     画像を投射することによって前記案内情報を提示する投射装置である、
     請求項2に記載の案内システム。
  4.  前記提示部は、
     画像を表示することによって前記案内情報を提示する表示部を備えるヘッドマウント装置、又は音声によって前記案内情報を出力するスピーカである、
     請求項2、又は請求項3に記載の案内システム。
  5.  前記提示部は、
     音声によって前記案内情報を出力するスピーカである、
     請求項2から請求項4のいずれか一項に記載の案内システム。
  6.  前記提示部は、選択肢を提示し、
     前記認識部は、
     前記提示部が前記選択肢を提示することに応じた前記利用者の動作に基づいて、前記指示を認識する、
     請求項2から請求項5のいずれか一項に記載の案内システム。
  7.  自装置の位置を検出する位置検出部と、
     前記位置検出部が検出した自装置の位置が前記選択肢を提示する位置であるか否かを判定する提示位置判定部と、
     を備え、
     前記提示部は、
     前記提示位置判定部が自装置の位置が前記選択肢を提示する位置であると判定する場合、前記選択肢を提示する、
     請求項6に記載の案内システム。
  8.  案内対象に関する対象物情報を音声によって出力する出力部
     を備え、
     前記移動制御部は、
     前記出力部が前記対象物情報を出力する間、前記無人移動体に前記案内対象の近傍を飛行させる、
     請求項1から請求項7のいずれか一項に記載の案内システム。
  9.  前記出力部は、
     音声によって前記対象物情報を出力する、
     請求項8に記載の案内システム。
  10.  前記無人移動体とは、
     無人飛行体である、
     請求項1から請求項9のいずれか一項に記載の案内システム。
  11.  ヘッドマウント装置と、
     利用者の指示を認識する認識部と、
     前記認識部により認識された前記指示に基づいて、前記利用者を案内する方向に仮想的な無人移動体が自律移動する様子を風景に重畳させて表示させる表示制御部と、
     を備える案内システム。
PCT/JP2018/022335 2017-06-16 2018-06-12 案内システム WO2018230539A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-119023 2017-06-16
JP2017119023 2017-06-16

Publications (1)

Publication Number Publication Date
WO2018230539A1 true WO2018230539A1 (ja) 2018-12-20

Family

ID=64660920

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/022335 WO2018230539A1 (ja) 2017-06-16 2018-06-12 案内システム

Country Status (1)

Country Link
WO (1) WO2018230539A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020170489A1 (ja) * 2019-02-19 2020-08-27 パナソニックIpマネジメント株式会社 無人飛行体、情報処理方法およびプログラム
CN113155117A (zh) * 2020-01-23 2021-07-23 阿里巴巴集团控股有限公司 导航系统、方法和装置
JP7481015B2 (ja) 2021-11-02 2024-05-10 Necプラットフォームズ株式会社 移動式投射装置、移動式投射システム、移動式投射装置の制御方法、及び、制御プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012063253A (ja) * 2010-09-16 2012-03-29 Olympus Corp 画像生成システム、プログラム及び情報記憶媒体
JP2016011905A (ja) * 2014-06-30 2016-01-21 アルパイン株式会社 案内システム、案内方法、サーバおよび電子装置
US20170018193A1 (en) * 2015-07-14 2017-01-19 International Business Machines Corporation Ambulatory route management based on a personal drone
JP2017059143A (ja) * 2015-09-18 2017-03-23 株式会社日立システムズ 自律飛行移動体、自律飛行移動体システム
JP2017067551A (ja) * 2015-09-29 2017-04-06 富士通株式会社 方向指示装置、ウエアラブルデバイス、車両、無線端末および通信システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012063253A (ja) * 2010-09-16 2012-03-29 Olympus Corp 画像生成システム、プログラム及び情報記憶媒体
JP2016011905A (ja) * 2014-06-30 2016-01-21 アルパイン株式会社 案内システム、案内方法、サーバおよび電子装置
US20170018193A1 (en) * 2015-07-14 2017-01-19 International Business Machines Corporation Ambulatory route management based on a personal drone
JP2017059143A (ja) * 2015-09-18 2017-03-23 株式会社日立システムズ 自律飛行移動体、自律飛行移動体システム
JP2017067551A (ja) * 2015-09-29 2017-04-06 富士通株式会社 方向指示装置、ウエアラブルデバイス、車両、無線端末および通信システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020170489A1 (ja) * 2019-02-19 2020-08-27 パナソニックIpマネジメント株式会社 無人飛行体、情報処理方法およびプログラム
JPWO2020170489A1 (ja) * 2019-02-19 2021-12-16 パナソニックIpマネジメント株式会社 無人飛行体、情報処理方法およびプログラム
JP7296554B2 (ja) 2019-02-19 2023-06-23 パナソニックIpマネジメント株式会社 無人飛行体、情報処理方法およびプログラム
CN113155117A (zh) * 2020-01-23 2021-07-23 阿里巴巴集团控股有限公司 导航系统、方法和装置
JP7481015B2 (ja) 2021-11-02 2024-05-10 Necプラットフォームズ株式会社 移動式投射装置、移動式投射システム、移動式投射装置の制御方法、及び、制御プログラム

Similar Documents

Publication Publication Date Title
US9718544B2 (en) Methods and systems for providing aerial assistance
WO2018230539A1 (ja) 案内システム
US11900815B2 (en) Augmented reality wayfinding in rideshare applications
US9079499B1 (en) Automatic activation of turn signals in a vehicle
WO2017150433A1 (ja) 無人航空機、無人航空機制御システム、飛行制御方法およびプログラム記憶媒体
US20180173222A1 (en) Automatic driving assistant system and method thereof
US20170293795A1 (en) Moving device, moving system, terminal device and method of controlling moving device
KR101871826B1 (ko) 무인 비행 장치를 이용한 교통 제어 장치 및 방법
KR102105093B1 (ko) 환경 생성 시스템
US20210034052A1 (en) Information processing device, instruction method for prompting information, program, and recording medium
JP6627214B2 (ja) 情報表示装置、制御方法、プログラム、及び記憶媒体
JP2015172548A (ja) 表示制御装置、制御方法、プログラム、及び記憶媒体
US20230021459A1 (en) Vehicle, and unmanned aerial system and method including the same
JP6723716B2 (ja) 無人飛行体及び飛行音キャンセル方法
JP2019164576A (ja) 音声伝達システム
US20200401139A1 (en) Flying vehicle and method of controlling flying vehicle
JP2016138854A (ja) ナビゲーションシステム、ナビゲーション装置、飛行体、ナビゲーション連携制御方法、ナビゲーション装置用連携制御プログラム及び飛行体用連携制御プログラム
CN114994712A (zh) 一种搜索无人机的方法、系统及无人机
US10780990B2 (en) Projection system, projection method, flying object system, and flying object
US20210200201A1 (en) Unmanned aerial vehicle, information processing method, and recording medium
US11538251B2 (en) Vehicle control and 3D environment experience with or without visualization based on 3D audio/visual sensors
US11492115B2 (en) Unmanned aerial vehicle display control system, display control device and display control method
WO2020061941A1 (zh) 通信方法、系统和可移动平台
JP7383473B2 (ja) 指示システム、無人航空機及び指示方法
CN220518585U (zh) 一种可自主避障的超低空抵近侦察无人机设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18817058

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18817058

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP