WO2020121439A1 - 案内支援制御装置及び案内支援システム - Google Patents

案内支援制御装置及び案内支援システム Download PDF

Info

Publication number
WO2020121439A1
WO2020121439A1 PCT/JP2018/045686 JP2018045686W WO2020121439A1 WO 2020121439 A1 WO2020121439 A1 WO 2020121439A1 JP 2018045686 W JP2018045686 W JP 2018045686W WO 2020121439 A1 WO2020121439 A1 WO 2020121439A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
guidance
control unit
preset
unit
Prior art date
Application number
PCT/JP2018/045686
Other languages
English (en)
French (fr)
Inventor
礼子 坂田
竜成 片岡
真実 相川
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2020559607A priority Critical patent/JP6840305B2/ja
Priority to PCT/JP2018/045686 priority patent/WO2020121439A1/ja
Priority to CN201880100013.2A priority patent/CN113168793A/zh
Publication of WO2020121439A1 publication Critical patent/WO2020121439A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/18Advertising or display means not otherwise provided for using special optical effects involving the use of optical projection means, e.g. projection of images on clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Definitions

  • the present invention relates to a guidance support control device and a guidance support system.
  • the guidance target space is, for example, an airport lobby.
  • the present invention has been made to solve the above problems, and an object thereof is to improve the degree of freedom of guidance by a guide in a guidance support system that uses an image projected in a guidance target space.
  • the guidance assistance control device of the present invention is a guidance assistance control device for a guidance assistance system that assists a guide to guide a guided person by using an image projected in a guidance target space by an output device.
  • An image selection control unit that executes control to select one of a plurality of preset images according to an operation input by a guide while the support system is operating, and a preset image selected by the image selection control unit.
  • a selected image output instruction unit for instructing the output device to perform projection.
  • the present invention since it is configured as described above, it is possible to improve the degree of freedom of guidance by a guide in a guidance support system that uses an image projected in a guidance target space.
  • FIG. 3 is an explanatory diagram showing a projector when each output device included in the guidance support system according to the first embodiment is configured by the projector.
  • FIG. 3 is a block diagram showing a main part of each output device included in the guidance support system according to the first embodiment.
  • FIG. 3 is an explanatory diagram showing a tablet PC when the terminal device included in the guidance support system according to the first embodiment is configured by the tablet PC.
  • FIG. 3 is a block diagram showing a main part of a terminal device included in the guidance support system according to the first embodiment.
  • FIG. 3 is a block diagram showing a main part of a control unit in the terminal device included in the guidance support system according to the first embodiment, which is a block diagram showing a main part of the guidance support control device according to the first embodiment. It is an explanatory view showing an example of a screen for selection.
  • FIG. 3 is an explanatory diagram showing a hardware configuration of a control unit in the terminal device included in the guidance support system according to the first embodiment.
  • 5 is an explanatory diagram showing another hardware configuration of a control unit in the terminal device included in the guidance support system according to the first embodiment.
  • FIG. 3 is a flowchart showing the operation of the guidance assistance control device according to the first embodiment.
  • 3 is a block diagram showing a main part of another guidance assistance control device according to the first embodiment.
  • FIG. 3 is an explanatory diagram showing a system configuration of another guidance support system according to the first embodiment.
  • FIG. FIG. 6 is a block diagram showing a main part of a guidance assistance control device according to a second embodiment. 7 is a flowchart showing the operation of the guidance assistance control device according to the second embodiment.
  • FIG. 9 is a block diagram showing a main part of a guidance assistance control device according to a third embodiment. It is explanatory drawing which shows the example of the screen for edit. It is explanatory drawing which shows the example of a produced image. It is explanatory drawing which shows the other example of a produced image. It is explanatory drawing which shows the other example of a produced image. 9 is a flowchart showing the operation of the guidance assistance control device according to the third embodiment.
  • FIG. 9 is a flowchart showing the operation of the guidance assistance control device according to the third embodiment.
  • FIG. 14 is a block diagram showing a main part of a guidance assistance control device according to a fourth embodiment.
  • 9 is a flowchart showing the operation of the guidance assistance control device according to the fourth embodiment.
  • 9 is a flowchart showing another operation of the guidance assistance control device according to the fourth embodiment.
  • FIG. 16 is a block diagram showing a main part of another guidance assistance control device according to the fourth embodiment.
  • FIG. 16 is a block diagram showing a main part of a guidance assistance control device according to a fifth embodiment. It is explanatory drawing which shows the example of the projection position of a produced image. It is explanatory drawing which shows the example of the projection position of the additional preset image corresponding to the produced image shown in FIG. 23A. It is explanatory drawing which shows the example of the screen for edit.
  • FIG. 26 is an explanatory diagram showing an example of a selected preset image corrected according to the position of the terminal device when the selected preset image is an additional preset image corresponding to the created image shown in FIG. 25.
  • 16 is a flowchart showing the operation of the guidance assistance control device according to the fifth embodiment. 16 is a flowchart showing another operation of the guidance assistance control device according to the fifth embodiment.
  • FIG. 1 is an explanatory diagram showing the system configuration of the guidance support system according to the first embodiment.
  • FIG. 2A is an explanatory diagram showing a projector when each output device included in the guidance support system according to the first embodiment is configured by the projector.
  • FIG. 2B is a block diagram showing a main part of each output device included in the guidance support system according to the first embodiment.
  • FIG. 3A is an explanatory diagram showing the tablet PC when the terminal device included in the guidance support system according to the first embodiment is configured by the tablet PC.
  • FIG. 3B is a block diagram showing a main part of a terminal device included in the guidance support system according to the first embodiment.
  • a guidance support system 200 according to the first embodiment will be described with reference to FIGS. 1 to 3.
  • Embodiments 1 to 6 an example in which the guidance target space R is the airport lobby, the guide is the staff of the airport, and the guided person is the user of the airport I will explain mainly.
  • the guidance support system 200 includes the output device group 1.
  • the output device group 1 is composed of a plurality of output devices 2.
  • the output device group 1 is configured by six output devices 2_1 to 2_6.
  • the plurality of output devices 2 are installed at different positions in the guidance target space R, for example.
  • the guidance support system 200 includes the terminal device 3.
  • the terminal device 3 is carried by a guide, for example.
  • the individual output devices 2 are, for example, projectors (see FIG. 2A). Each output device 2 projects an image for guidance on the floor surface, wall surface, or ceiling surface in the guidance target space R. Further, each output device 2 can communicate with the terminal device 3 via the network 4. That is, each output device 2 has a projection unit 11, a communication unit 12, and a control unit 13, as shown in FIG. 2B.
  • the projection unit 11 is used for projecting the image.
  • the communication unit 12 is used for the communication.
  • the control unit 13 is used for controlling various operations by the projection unit 11 and the communication unit 12.
  • each of the two output devices 2_1 and 2_2 is for projecting an image for guidance on the floor surface in a predetermined area corresponding to the first gate G1 in the lobby.
  • one output device 2_3 projects a guide image on the floor surface in a predetermined area corresponding to the second gate G2 in the lobby.
  • the single output device 2_4 projects a guide image on a wall surface in a predetermined area corresponding to the third gate G3 in the lobby.
  • the single output device 2_5 projects a guide image on the ceiling surface in a predetermined area corresponding to the fourth gate G4 in the lobby.
  • the single output device 2_6 projects a guide image on the floor surface in a predetermined area corresponding to the fourth gate G4 in the lobby.
  • a region in the guidance target space R onto which a guidance image is projected by each of the plurality of output devices 2 is referred to as a “projection target region”.
  • the guidance support system 200 is not limited to the case where it has the six output devices 2_1 to 2_6.
  • the guidance support system 200 may include five or less output devices 2, or may include seven or more output devices 2.
  • an example has been described in which the number of output devices 2 corresponding to each of the gates G1 to G5 and the predetermined area to be projected are different, but the same quantity and the same predetermined area may be used in all the gates.
  • three output devices 2 may be provided for each gate, and each output device 2 may be projected onto a floor surface, a wall surface, and a ceiling surface.
  • the terminal device 3 is composed of, for example, a tablet PC (Personal Computer) (see FIG. 3A).
  • the terminal device 3 can communicate with each output device 2 via the network 4. That is, the terminal device 3 has a communication unit 14, a control unit 15, a display unit 16, and an operation input unit 17, as shown in FIG. 3B.
  • the communication unit 14 is used for the communication.
  • the control unit 15 is used for controlling various operations by the communication unit 14, the display unit 16, and the operation input unit 17.
  • the display unit 16 is composed of, for example, a liquid crystal display or an organic EL (Electro Luminescence) display.
  • the operation input unit 17 includes, for example, a touch panel and a microphone for voice input.
  • the guidance support system 200 supports the guidance of a guided person by a guide by projecting a guidance image by at least one output device 2 of the plurality of output devices 2.
  • FIG. 4 is a block diagram showing a main part of a control unit in the terminal device included in the guidance support system according to the first embodiment, and is a block diagram showing a main part of the guidance support control device according to the first embodiment. is there.
  • the guidance assistance control device 100 according to the first embodiment will be described with reference to FIG.
  • the display control unit 21 executes control by the guidance support control device 100 to display various screens on the display unit 16.
  • the image data storage unit 22 prestores image data representing a plurality of images.
  • Each of the plurality of images is used for guiding the guided person by the guiding person.
  • the plurality of images will be referred to as “preset images”.
  • image data indicating each preset image is referred to as “preset image data”.
  • the image selection control unit 31 executes control to select one preset image from the plurality of preset images according to an operation input to the operation input unit 17 by a guide during the operation of the guidance support system 200. It is a thing.
  • the selected preset image will be referred to as a “selected preset image”.
  • the device selection control unit 32 is a control that selects at least one output device 2 of the plurality of output devices 2 in accordance with an operation input to the operation input unit 17 by a guide while the guidance support system 200 is operating. Is to execute.
  • the selected output device 2 will be referred to as a “selected output device”.
  • the selection control by the image selection control unit 31 and the selection control by the device selection control unit 32 are, for example, a state in which the display control unit 21 displays a dedicated screen (hereinafter referred to as “selection screen”) S1 on the display unit 16. Is executed in.
  • FIG. 5 shows a specific example of the selection screen S1.
  • the selection screen S1 has an area A1 in which a plurality of thumbnail images corresponding to a plurality of preset images are displayed. Each of the plurality of thumbnail images can be selected by a touch operation using the touch panel of the operation input unit 17.
  • the selection control by the image selection control unit 31 corresponds to the touch operation on the area A1.
  • the selection screen S1 has an area A2 in which a selection preset image is displayed.
  • the display size of the selected preset image in the area A2 is larger than the display size of each thumbnail image in the area A1. Thereby, the guide can easily visually recognize which preset image of the plurality of preset images is selected.
  • the selection screen S1 also has an area A3 in which a plurality of button images corresponding to the plurality of output devices 2 are displayed. Each of the plurality of button images can be pressed by a touch operation using the touch panel of the operation input unit 17.
  • the selection control by the device selection control unit 32 corresponds to the touch operation on the area A3.
  • Corresponding preset image data is used for displaying each of the plurality of thumbnail images in the area A1 and displaying the selected preset image in the area A2.
  • the preset image data is previously stored in the image data storage unit 22 as described above.
  • the display of the plurality of button images in the area A3 is based on the information indicating the installation position of each of the plurality of output devices 2 in the guidance target space R or each of the plurality of output devices 2 in the guidance target space R.
  • Information indicating the projection target area hereinafter referred to as “projection target area information” or the like is used. These pieces of information are stored in advance in the memory 43 (described later) of the terminal device 3, for example.
  • the selected image output instructing unit 33 instructs the selected output device 2 to output the selected preset image, that is, to project the selected preset image. More specifically, the selected image output instructing unit 33 sends to the selective output device 2 a signal instructing the output of the selected preset image, that is, a signal instructing the projection of the selected preset image (hereinafter referred to as “output instruction signal”). Execute the control to send.
  • the communication unit 14 is used to transmit the output instruction signal.
  • the communication unit 12 of the selective output device 2 receives the output instruction signal transmitted by the terminal device 3.
  • the control unit 13 of the selection output device 2 executes control to cause the projection unit 11 of the selection output device 2 to project the selection preset image.
  • the selected preset image is projected in the projection target area by the selective output device 2.
  • the guide can use the projected selection preset image to guide the guide.
  • the image selection control unit 31, the device selection control unit 32, and the selected image output instructing unit 33 constitute a main part of the guidance support control device 100.
  • the display control unit 21, the image data storage unit 22, and the guidance support control device 100 constitute a main part of the control unit 15.
  • control unit 15 Next, with reference to FIG. 6, a hardware configuration of a main part of the control unit 15 will be described.
  • the control unit 15 has a processor 41, a memory 42 and a memory 43.
  • the memory 42 stores programs corresponding to the functions of the display control unit 21, the image selection control unit 31, the device selection control unit 32, and the selected image output instruction unit 33.
  • the functions of the display control unit 21, the image selection control unit 31, the device selection control unit 32, and the selected image output instruction unit 33 are realized by the processor 41 reading and executing the program stored in the memory 42.
  • the function of the image data storage unit 22 is realized by the memory 43.
  • the control unit 15 has a memory 43 and a processing circuit 44.
  • the functions of the display control unit 21, the image selection control unit 31, the device selection control unit 32, and the selected image output instruction unit 33 are realized by the dedicated processing circuit 44.
  • the function of the image data storage unit 22 is realized by the memory 43.
  • control unit 15 has a processor 41, a memory 42, a memory 43, and a processing circuit 44 (not shown).
  • some of the functions of the display control unit 21, the image selection control unit 31, the device selection control unit 32, and the selected image output instruction unit 33 are realized by the processor 41 and the memory 42, and the remaining functions are performed. It is realized by a dedicated processing circuit 44. Further, the function of the image data storage unit 22 is realized by the memory 43.
  • the processor 41 is composed of, for example, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a microprocessor, a microcontroller, and a DSP (Digital Signal Processor).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • microprocessor a microcontroller
  • DSP Digital Signal Processor
  • the memory 42 is composed of a volatile memory and a non-volatile memory.
  • the volatile memory of the memory 42 is composed of, for example, a RAM (Random Access Memory).
  • the non-volatile memory of the memory 42 is, for example, a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Dirically ErasableEmryErallyEmableEmReadyEmryErableErableErableEmableEmReady-OlymableEmReady-O-Ready-Om- ry-Ready-O-Ready-O-Ready-O-Ready-O-Ready-Only- It is configured by at least one of (Hard Disk Drive).
  • the memory 43 is composed of a non-volatile memory. Specifically, for example, the memory 43 is composed of at least one of ROM, flash memory, EPROM, EEPROM, SSD, or HDD.
  • the processing circuit 44 includes, for example, an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), an FPGA (Field-Programmable Gate Array), and a So-C-Syc-System-Soc (Syc-Sy)-SocC-Syc-Syc-System-Cyclic System. At least one of the above.
  • ASIC Application Specific Integrated Circuit
  • PLD Programmable Logic Device
  • FPGA Field-Programmable Gate Array
  • So-C-Syc-System-Soc So-C-Syc-System-Cyclic System
  • the display control unit 21 causes the display unit 16 to display the selection screen S1 when an operation for instructing the display of the selection screen S1 is input to the operation input unit 17 during operation of the guidance support system 200. At least the processing of steps ST1 and ST2 among the processing of steps ST1 to ST3 shown in FIG. 7 is executed while the selection screen S1 is displayed on the display unit 16.
  • step ST1 the image selection control unit 31 executes control to select one preset image among a plurality of preset images according to an operation input on the selection screen S1.
  • step ST2 the device selection control unit 32 executes control for selecting at least one output device 2 among the plurality of output devices 2 in accordance with the operation input on the selection screen S1.
  • steps ST1 and ST2 may be executed in parallel with each other. Alternatively, the process of step ST2 may be executed first, and then the process of step ST1 may be executed.
  • the selected image output instruction unit 33 instructs the selected output device 2 to project the selected preset image. More specifically, the selected image output instructing section 33 executes control for transmitting an output instructing signal to the selective output device 2.
  • the communication unit 12 of the selective output device 2 receives the output instruction signal transmitted by the terminal device 3.
  • the control unit 13 of the selection output device 2 executes control to cause the projection unit 11 of the selection output device 2 to project the selection preset image.
  • the control unit 13 of the selection output device 2 executes control to end the projection of the selected preset image when a predetermined time (for example, 2 minutes or 3 minutes) Tref has elapsed since the projection of the selected preset image was started.
  • the guidance support control device 100 when the guide guides the guided person, it is possible to select a preset image to be projected from among a plurality of preset images in real time. Thereby, the degree of freedom of guidance by the guide can be improved.
  • the output device 2 which projects the selected preset image among the plurality of output devices 2 can be selected in real time.
  • the projection position of the selected preset image in the guidance target space R can be set in real time.
  • the guidance target space R is not limited to the airport lobby.
  • the guidance target space R may be any space as long as it requires a guide to guide the guided person.
  • the guidance target space R may be a station yard, a department store, a supermarket, an exhibition hall, or an event venue.
  • a space having a large area or a space having many blind spots due to many installations is suitable for using the guidance support system 200.
  • the image selection control unit 31 may be able to correct the selected preset image selected by the guide in the area A2 using the area A1 of the selection screen S1. For example, as shown in FIG. 5, in the situation where the selection preset image selected by the guide using the area A1 is displayed in the area A2, the guide moves, rotates, enlarges, or enlarges the selection preset image displayed in the area A2. When the image is reduced, the selected preset image projected by the output device 2 is also changed.
  • the guide is not limited to selecting one preset image at a time, and may be able to select multiple preset images at one time.
  • the image selection control unit 31 displays in the area A2 a plurality of selection preset images selected by the guide using the area A1 of the selection screen S1 within a predetermined time, and as the guide arranges them in the area A2. , And if modified, the output device 2 projects a plurality of selected preset images as modified.
  • the device selection control unit 32 may be provided outside the guidance support control device 100. That is, the image selection control unit 31 and the selected image output instructing unit 33 may constitute a main part of the guidance assistance control device 100.
  • the guidance support system 200 may include a server device (not shown).
  • the server device is communicable with the terminal device 3 via the network 4 and with each output device 2 via the network 4.
  • some or all of the functions of the guidance support control device 100 may be realized by the server device instead of the terminal device 3.
  • the guidance support system 200 may include a plurality of terminal devices 3.
  • the plurality of terminal devices 3 may be carried by a plurality of guides, for example.
  • three terminal devices 3_1 to 3_3 are included in the guidance support system 200.
  • some of the plurality of output devices 2 may be configured by a display instead of the projector.
  • one output device 2_4 among the six output devices 2_1 to 2_6 may be configured by a display installed in the third gate G3.
  • the output instruction signal may be a signal instructing the display of the selective preset image, instead of the signal instructing the projection of the selective preset image.
  • the guidance support control device 100 uses the image projected in the guidance target space R by the output device 2 to support the guidance of the guided person by the guide.
  • a selection control unit 31 and a selection image output instruction unit 33 that instructs the output device 2 to project the selection preset image by the image selection control unit 31.
  • the guidance support system 200 is a guidance support system 200 that assists a guide to guide a guided person by using an image projected in the guidance target space R by the output device 2.
  • An image selection control unit 31 that executes control to select any one of a plurality of preset images according to an operation input by a guide while the guidance support system 200 is operating, and an image selection control unit 31.
  • FIG. 10 is a block diagram showing a main part of the guidance assistance control device according to the second embodiment.
  • the guidance assistance control device 100a according to the second embodiment will be described with reference to FIG.
  • each output device 2 is the same as that described in Embodiment 1 with reference to FIG.
  • the configuration of the terminal device 3 is the same as that described in Embodiment 1 with reference to FIG.
  • the output continuation instructing unit 34 counts the number of times each of the plurality of preset images has been selected by the image selection control unit 31 within a predetermined period (for example, the latest 10-minute period) ⁇ T1 (hereinafter referred to as the “selection number”). It is a thing.
  • the output continuation instructing unit 34 sets the count value Vc of the number of selections corresponding to the selected preset image to a predetermined threshold value (for example, 5 times). This is to be compared with Vth.
  • the output continuation instructing unit 34 instructs the selection output device 2 to continue the output of the selected preset image, that is, to continue the projection of the selected preset image when the count value Vc is equal to or more than the threshold value Vth. More specifically, the output continuation instructing unit 34 transmits to the selection output device 2 a signal (hereinafter referred to as “continuation instruction signal”) instructing continuation of output of the selected preset image, that is, continuation of projection of the selected preset image. To do.
  • the communication unit 14 is used to transmit the continuation instruction signal.
  • the communication unit 12 of the selective output device 2 receives the transmitted continuation instruction signal.
  • the control unit 13 of the selection output device 2 executes control for continuing the projection of the selection preset image by the projection unit 11 of the selection output device 2 until a predetermined ending condition is satisfied.
  • termination conditions are as follows. That is, when an operation for instructing the end of projection of the selected preset image is input to the operation input unit 17, or when an operation for selecting another preset image is input to the operation input unit 17, the communication unit 14 determines that A signal indicating the effect is transmitted to the selective output device 2. The termination condition is satisfied when the communication unit 12 of the selective output device 2 receives the transmitted signal.
  • control unit 13 of the selective output device 2 executes the same control as that described in the first embodiment. That is, the control unit 13 of the selection output device 2 executes control to end the projection of the selected preset image when a predetermined time Tref has elapsed since the projection of the selected preset image started.
  • the image selection control unit 31, the device selection control unit 32, the selected image output instructing unit 33, and the output continuation instructing unit 34 constitute a main part of the guidance assistance control device 100a.
  • control unit 15 including the guidance assistance control device 100a is the same as that described in Embodiment 1 with reference to FIG. That is, the functions of the display control unit 21, the image selection control unit 31, the device selection control unit 32, the selected image output instruction unit 33, and the output continuation instruction unit 34 are realized by the processor 41 and the memory 42. Alternatively, it may be realized by a dedicated processing circuit 44.
  • step ST4 the output continuation instructing unit 34 compares the count value Vc of the number of selection times corresponding to the selected preset image in step ST1 with the threshold value Vth.
  • the output continuation instructing unit 34 instructs the selection output device 2 to continue projection of the selected preset image in step ST5. More specifically, the output continuation instructing unit 34 executes control for transmitting a continuation instructing signal to the selective output device 2.
  • step ST4 “NO” the process of step ST5 is skipped.
  • the guidance support control device 100a when the guide wants to continue the projection of the same preset image, the number of times the guide inputs the operation of selecting the preset image can be reduced. As a result, it is possible to save the labor of the guide by the operation.
  • the guidance support system 200 may include a plurality of terminal devices 3.
  • the count value Vc may be the total value of the number of selections made by the plurality of terminal devices 3.
  • the guidance support system 200 can adopt various modifications similar to those described in the first embodiment. Further, the guidance assistance control device 100a can employ various modifications similar to those described in the first embodiment.
  • the guidance assistance control device 100a continues the projection of the selected preset image when the count value Vc of the number of times the selected preset image is selected within the predetermined period ⁇ T1 is the threshold value Vth or more.
  • the output continuation instruction unit 34 for instructing the output device 2 is provided.
  • FIG. 12 is a block diagram showing a main part of the guidance assistance control device according to the third embodiment.
  • the guidance assistance control device 100b according to the third embodiment will be described with reference to FIG.
  • each output device 2 is the same as that described in Embodiment 1 with reference to FIG.
  • the configuration of the terminal device 3 is the same as that described in Embodiment 1 with reference to FIG.
  • the image creation control unit 51 responds to an image to be output by the output device group 1, that is, a projection target by the output device group 1, in accordance with an operation input to the operation input unit 17 by a guide.
  • the control for creating the image is performed.
  • the created image is referred to as a “created image”.
  • the image creation control by the image creation control unit 51 is executed, for example, in a state where the display control unit 21 displays a dedicated screen (hereinafter referred to as “editing screen”) S2 on the display unit 16.
  • editing screen a dedicated screen
  • a specific example of the editing screen S2 will be described later with reference to FIG.
  • a specific example of the created image will be described later with reference to FIGS. 14 to 16.
  • the created image output instruction unit 52 instructs the output device group 1 to output the created image, that is, to project the created image.
  • the created image output instruction unit 52 uses the projection target area information stored in the memory 43 of the terminal device 3 to determine whether the created image fits within the projection target area of any one output device 2. Determine whether or not. When the created image falls within the projection target area by any one of the output devices 2, the created image output instruction unit 52 instructs the one output device 2 to project the created image. On the other hand, when the created image extends over the projection target area of any two or more output devices 2, the created image output instruction unit 52 instructs the two or more output devices 2 to output the created image. More specifically, the created image output instruction unit 52 instructs each of the two or more output devices 2 to project a corresponding portion of the created image. For these projection instructions, output instruction signals similar to those described in the first embodiment are used.
  • the image selection control unit 31, the device selection control unit 32, the selected image output instructing unit 33, the image creation control unit 51, and the created image output instructing unit 52 constitute a main part of the guidance assistance control device 100b.
  • control unit 15 including the guidance support control device 100b is the same as that described in Embodiment 1 with reference to FIG. That is, the functions of the display control unit 21, the image selection control unit 31, the device selection control unit 32, the selected image output instruction unit 33, the image creation control unit 51, and the created image output instruction unit 52 are controlled by the processor 41 and the memory 42. It may be realized or may be realized by a dedicated processing circuit 44.
  • the editing screen S2 includes an image I1 corresponding to a plan view of the guidance target space R.
  • Information indicating a plan view of the guidance target space R (hereinafter referred to as “plan view information”) is used to display the image I1.
  • the plan view information is stored in advance in the memory 43 of the terminal device 3, for example.
  • the editing screen S2 includes a dot image I2 corresponding to the position P1 of the terminal device 3.
  • Information indicating the position P1 of the terminal device 3 (hereinafter referred to as “terminal position information”) is used to display the image I2.
  • the terminal position information is acquired by, for example, a GPS (Global Positioning System) receiver (not shown) provided in the terminal device 3.
  • GPS Global Positioning System
  • the terminal position information is stored in the memory 43 of the terminal device 3 in advance.
  • the guide uses the touch panel of the operation input unit 17 to draw an arrow-shaped image I3 by touching the editing screen S2.
  • the image I3 shows the guide route from the position P1 of the terminal device 3 to the guidance target point (for example, the fifth gate G5).
  • the image creation control unit 51 includes the arrow-shaped image I3 in the created image.
  • the arrow-shaped image I3 is projected on the floor surface in the guidance target space R.
  • the projection position of the image I3 on the floor in the guidance target space R is set based on the position P1 of the terminal device 3 using the terminal position information.
  • the created image is not limited to the arrow-shaped image I3.
  • the created image may include balloon-shaped images I4_1 and I4_2 in addition to the arrow-shaped image I3.
  • the text included in each of the images I4_1 and I4_2 and the position indicated by each of the images I4_1 and I4_2 may be set according to the voice input to the microphone of the operation input unit 17.
  • the guide uses the touch panel of the operation input unit 17 to draw an arrow-shaped image I3 by touching the editing screen S2.
  • the arrow-shaped image I3 has two bent portions B1 and B2.
  • the guide explains the guide route to the guided person by speaking while showing the editing screen S2 to the guided person while drawing the image I3 by the touch operation.
  • the image creation control unit 51 includes the text corresponding to the content of the utterance (that is, the text of “here corner”) and indicates the touch position (that is, the position corresponding to the bent portion B1) at this time.
  • a balloon-shaped image I4_1 is drawn.
  • the image creation control unit 51 includes the balloon-shaped image I4_1 in the created image.
  • the image creation control unit 51 includes the text (that is, the text of the "next corner") corresponding to the content of the utterance and indicates the touch position (that is, the position corresponding to the bent portion B2) at this time.
  • a balloon-shaped image I4_2 is drawn.
  • the image creation control unit 51 includes the balloon-shaped image I4_2 in the created image.
  • the image creation control unit 51 includes the arrow-shaped image I3 in the created image.
  • balloon-shaped images I4_1 and I4_2 are projected on the floor surface in the guidance target space R.
  • the guided person visually recognizes the projected images I3, I4_1 and I4_2 to determine where the "here corner” and the "next corner” in the description of the guide are in the actual guidance target space R. , Can be visually recognized easily. That is, according to the example shown in FIG. 15, when the guide gives the explanation using the pronoun, the contents of the explanation can be accurately and easily transmitted to the guide.
  • the created image may include balloon-shaped images I5_1 to I5_3 in addition to the arrow-shaped image I3.
  • the positions of the text included in each of the images I5_1 to I5_3 and each of the images I5_1 to I5_3 may be set according to the touch operation on the touch panel of the operation input unit 17.
  • the image creation control unit 51 includes the text indicating that the touch is the first touch (for example, the text “FIRST”), and the touch position at this time (that is, the position corresponding to the image I2). ), a balloon-shaped image I5_1 is drawn.
  • the image creation control unit 51 includes the balloon-shaped image I5_1 in the created image.
  • the guide I when the guide I has drawn the image I3 by the touch operation at the bent portion B1, the guide temporarily suspends the drawing of the image I3 for the purpose of explanation by utterance or gesture, and releases the finger or the like from the touch panel. I shall. After that, the guide touches the touch panel again to restart the drawing of the image I3.
  • the image creation control unit 51 includes the text (for example, the text “NEXT”) indicating that the touch is the second touch, and corresponds to the touch position at this time (that is, the bent portion B1).
  • a balloon-shaped image I5_2 indicating the position) is drawn.
  • the image creation control unit 51 includes the balloon-shaped image I5_2 in the created image.
  • the guide when the guide draws the image I3 by the touch operation and reaches the central portion between the bent portions B1 and B2, the guide temporarily interrupts the drawing of the image I3 for the purpose of explanation by a utterance or a gesture, and then touches the finger. Etc. are separated from the touch panel. After that, the guide touches the touch panel again to restart the drawing of the image I3.
  • the image creation control unit 51 includes text indicating that the touch is the third touch (for example, “THIRD” text), and the touch position at this time (that is, between the bent portions B1 and B2).
  • the balloon-shaped image I5_3 indicating the position (corresponding to the central portion of) is drawn.
  • the image creation control unit 51 includes the balloon-shaped image I5_3 in the created image.
  • the image creation control unit 51 includes the arrow-shaped image I3 in the created image.
  • balloon-shaped images I5_1 to I5_3 are projected on the floor surface in the guidance target space R.
  • the guided person can visually recognize where the position corresponding to the explanation by the guide's utterance or gesture is in the actual guidance target space R. Can be easily recognized. That is, according to the example shown in FIG. 16, when the guide gives an explanation using utterances or gestures, the contents of the explanation can be accurately and easily transmitted to the guide.
  • the balloon-shaped image may be drawn according to the number of taps at each position in the editing screen S2. For example, when an arbitrary position on the editing screen S2 is tapped once, a balloon-shaped image including the text "FIRST” and showing the tapped position may be drawn. Then, when another arbitrary position on the editing screen S2 is continuously tapped twice, a balloon-shaped image including the text "NEXT” and showing the tapped position is drawn. It may be. Next, when another arbitrary position on the editing screen S2 is continuously tapped three times, a balloon-shaped image including the text "THIRD” and showing the tapped position is drawn. It may be.
  • the display control unit 21 causes the display unit 16 to display the editing screen S2 when an operation for instructing the display of the editing screen S2 is input to the operation input unit 17 during the operation of the guidance support system 200.
  • At least the process of step ST11 among the processes of steps ST11 and ST12 shown in FIG. 17 is executed in a state where the editing screen S2 is displayed on the display unit 16.
  • step ST11 the image creation control unit 51 responds to an operation input to the operation input unit 17 by a guide, and an image to be output by the output device group 1, that is, an image to be projected by the output device group 1. Execute the control to create. Since a specific example of the image creation control by the image creation control unit 51 has already been described with reference to FIGS. 14 to 16, a repetitive description will be omitted.
  • step ST12 the created image output instruction unit 52 instructs the output device group 1 to output the created image, that is, to project the created image.
  • the specific example of the instruction by the created image output instruction unit 52 is as described above, and thus the repetitive description will be omitted.
  • the guidance support control device 100b when the guide guides the guided person, an image to be projected by the output device group 1 can be created in real time. As a result, the degree of freedom of guidance by the guide can be further improved. Further, as explained with reference to FIG. 15, when the guide gives the explanation using the pronoun, the contents of the explanation can be accurately and easily transmitted to the guided person. Further, as described with reference to FIG. 16, when the guide gives an explanation using utterances or gestures, the contents of the explanation can be accurately and easily transmitted to the guide.
  • the created image is not limited to the specific examples shown in FIGS. 14 to 16.
  • the guide can draw an arbitrary image by touch operation or voice input on the editing screen S2.
  • it may be an image including any shape such as an image showing only corners of the guide route that need to be bent, an image showing the final destination in an emphasized manner, or an image showing a person moving on the guide route as a character. ..
  • the image creation control unit 51 includes the drawn arbitrary image in the created image.
  • the created image output instruction unit 52 is not limited to instructing the plurality of output devices 2 forming the output device group 1 to output the created image at the same time, that is, to project the created image.
  • the created image output instruction unit 52 may instruct the plurality of output devices 2 forming the output device group 1 to project the created image with a time difference. By doing so, the timing at which each output device 2 displays the created image can be shifted, and the image projected by the entire output device group 1 can be moved and projected as an animation.
  • the texts of the balloon-shaped images I4_1 and I4_2 are not limited to the texts input by voice input to the microphone of the operation input unit 17.
  • the operation input unit 17 may include a keyboard, and the text input by the guide by keyboard input may be the text of the balloon-shaped images I4_1 and I4_2.
  • balloon-shaped images I4_1 and I4_2 are stored in the memory 43 in advance and are displayed as preset images in an area (not shown) at the edge of the editing screen S2, and the guide selects the preset image required and the image is displayed. It may be arranged on I1.
  • the guidance support system 200 can employ various modifications similar to those described in the first and second embodiments. Further, the guidance assistance control device 100b can employ various modifications similar to those described in the first and second embodiments.
  • the guidance assistance control device 100b executes the control of creating the image to be projected by the output device 2 in accordance with the operation input by the guide during the operation of the guidance assistance system 200.
  • An image creation control unit 51 and a created image output instruction unit 52 that instructs the output device 2 to project the created image by the image creation control unit 51.
  • FIG. 18 is a block diagram showing a main part of the guidance assistance control device according to the fourth embodiment.
  • the guidance assistance control device 100c according to the fourth embodiment will be described with reference to FIG.
  • each output device 2 is the same as that described in Embodiment 1 with reference to FIG.
  • the configuration of the terminal device 3 is the same as that described in Embodiment 1 with reference to FIG.
  • the same blocks as the blocks shown in FIG. 12 are designated by the same reference numerals, and the description thereof will be omitted.
  • the image registration control unit 53 when an image is created by the image creation control unit 51, executes control to register the created image as a new preset image. More specifically, the image registration control unit 53 performs control to additionally store image data indicating the created image (hereinafter referred to as “created image data”) in the image data storage unit 22 as new preset image data. Is what you do.
  • the image selection control unit 31 executes the control of selecting one preset image from the plurality of preset images
  • the past created images are added to the plurality of preset images. It can be included.
  • the preset image corresponding to the preset image data stored in advance in the image data storage unit 22 will be referred to as an “initial preset image”.
  • a preset image corresponding to the preset image data (that is, created image data) additionally stored in the image data storage unit 22 is referred to as “additional preset image”.
  • the selected image output instructing unit 33a instructs the selective output device 2 to project the selected preset image when the selected preset image is the initial preset image.
  • the instruction by the selected image output instructing section 33a is the same as the instruction by the selected image output instructing section 33, so detailed description will be omitted.
  • the selected image output instruction unit 33a instructs the output device group 1 to project the selected preset image.
  • the instruction by the selected image output instructing section 33a is the same as the instruction by the created image output instructing section 52, and thus detailed description will be omitted.
  • the image selection control unit 31, the device selection control unit 32, the selected image output instruction unit 33a, the image creation control unit 51, the created image output instruction unit 52, and the image registration control unit 53 constitute a main part of the guidance assistance control device 100c. ing.
  • control unit 15 including the guidance support control device 100c is the same as that described in Embodiment 1 with reference to FIG. That is, the respective functions of the display control unit 21, the image selection control unit 31, the device selection control unit 32, the selected image output instruction unit 33a, the image creation control unit 51, the created image output instruction unit 52, and the image registration control unit 53 are: It may be realized by the processor 41 and the memory 42, or may be realized by a dedicated processing circuit 44.
  • steps ST11 and ST12 are executed.
  • step ST13 the image registration control unit 53 executes control to register the created image in step ST11 as an additional preset image. More specifically, the image registration control unit 53 executes control to additionally store the created image data indicating the created image as new preset image data in the image data storage unit 22.
  • the processes of steps ST12 and ST13 may be executed in parallel with each other. Alternatively, the process of step ST13 may be executed first, and then the process of step ST12 may be executed.
  • the operation of the guidance assistance control device 100c will be described with reference to the flowchart of FIG. 20, focusing on the operations of the image selection control unit 31, the device selection control unit 32, and the selected image output instruction unit 33a. 20, the same steps as those shown in FIG. 7 are designated by the same reference numerals, and the description thereof will be omitted.
  • step ST1 the process of step ST1 is executed.
  • the selected preset image in step ST1 is the initial preset image (step ST21 “NO”)
  • the processes of steps ST2 and ST3 are executed.
  • step ST22 the selected image output instructing unit 33a instructs the output device group 1 to project the selected preset image.
  • the instruction by the selected image output instructing section 33a in step ST22 is the same as the instruction by the created image output instructing section 52 in step ST12, and therefore detailed description will be omitted.
  • the created image data stored in the image data storage unit 22 may represent only a part of the plurality of images. good. More specifically, the created image data stored in the image data storage unit 22 may indicate only an image having high versatility in guidance among the plurality of images.
  • the created image in the example illustrated in FIG. 15 includes balloon-shaped images I4_1 and I4_2 in addition to the arrow-shaped image I3.
  • the arrow-shaped image I3 is considered to be an image generally used in the guidance from the position P1 of the terminal device 3 to the guidance target point (for example, the fifth gate G5).
  • the balloon-shaped images I4_1 and I4_2 correspond to the utterance at the time of drawing by the guide, and it is considered that there is a low probability that they will be used in the subsequent guidance. Therefore, the image registration control unit 53 causes the image data storage unit 22 to store created image data indicating only the arrow-shaped image I3 of the created images. As a result, the arrow-shaped image I3 is registered as the additional preset image. The same applies to the example shown in FIG.
  • the image registration control unit 53 controls to delete the created image data stored in the image data storage unit 22, that is, the preset image data indicating the additional preset image, every time a predetermined period (for example, one day) ⁇ T2 elapses. May be performed.
  • the image registration control unit 53 may execute the control each time the logout process in the terminal device 3 is executed. As a result, it is possible to avoid an excessive increase in the number of preset image data stored in the image data storage unit 22.
  • the image registration control unit 53 executes control for excluding the additional preset image registered before that from the display target on the selection screen S1 every time a predetermined period (for example, one day) ⁇ T2 elapses. May be.
  • the image registration control unit 53 may execute the control each time the logout process in the terminal device 3 is executed. As a result, it is possible to avoid an excessive increase in the number of preset images displayed on the selection screen S1, more specifically, the number of thumbnail images displayed in the area A1.
  • the additional preset image is excluded from the display target, but it is still registered in the image data storage unit 22 and may be added again to the display target at the request of the guide.
  • the value of the predetermined period ⁇ T2 may be freely set by an operation input to the operation input unit 17.
  • the predetermined period ⁇ T2 may be set based on external information, for example, calendar information. For example, when the guidance target space R is a lobby of an airport, information indicating consecutive holidays such as Obon or New Year holidays is acquired as calendar information, and the consecutive holiday period is set as a predetermined period ⁇ T2. This allows the guide to use the same additional preset image during the period when it is expected that the number of airport users will increase.
  • the image selection control unit 31a has a function of setting the display priority on the selection screen S1 for each of the plurality of preset images.
  • the display priority is represented by, for example, a binary value of high and low.
  • a preset image whose display priority is set to a high value is referred to as a “recommended preset image”.
  • a preset image whose display priority is set to a low value is referred to as “non-recommended preset image”.
  • the image selection control unit 31a has a function of including the recommended preset image in the display target on the selection screen S1 and excluding the non-recommended preset image from the display target on the selection screen S1.
  • the image selection control unit 31a has a function of including another area (not shown) different from the area A1 in which the thumbnail image corresponding to the recommended preset image is displayed in the selection screen S1. ..
  • the setting of the display priority for each preset image is also a judgment as to whether or not each preset image is a recommended preset image.
  • a database including the following information hereinafter referred to as “recommended database”.
  • the recommended database is stored in the recommended database storage unit (hereinafter referred to as “recommended DB storage unit”) 23.
  • the function of the recommendation DB storage unit 23 is realized by, for example, the memory 43 of the terminal device 3.
  • the recommendation database includes information indicating a default guide route (hereinafter referred to as “initial setting information”) for each position P1 of the terminal device 3 and each guidance target point.
  • initial setting information information indicating a default guide route
  • the default guidance route is set based on the structure of the airport.
  • the image selection control unit 31a includes, for example, a preset image showing the initially set guide route in the recommended preset image until a predetermined period elapses after the introduction of the guidance support system 200.
  • the number of times the created image is registered as an additional preset image, that is, the created image data is stored in the image data storage unit 22 for each position P1 of the terminal device 3 and for each content of the created image. It includes information indicating the history of the number of times (hereinafter referred to as "registration history information").
  • the image selection control unit 31 a includes, for example, an additional preset image whose number of times indicated by the registration history information is a predetermined number of times (for example, 100 times) or more in the recommended preset image.
  • the recommended database includes information indicating the schedule in the guidance target space R (hereinafter referred to as "schedule information").
  • the schedule information indicates the departure and arrival schedule of airplanes for each airline company at the airport.
  • the schedule information indicates a train departure/arrival schedule at the station.
  • the schedule information indicates a seasonal event schedule in the department store.
  • the image selection control unit 31a determines whether each preset image is a recommended preset image according to these schedules.
  • recommended preset images are preset for each schedule, or when the guide newly registers the created image data, the information regarding the schedule is also registered, and at the time of the determination, based on the information regarding the schedule. Any method such as determining the corresponding schedule may be used.
  • the additional preset images registered during the event period at the end of the year will reduce demand for use by guides after the beginning of the new year, but during the event period at the end of the year after the following year. It is expected that the demand for use by guides will rise again.
  • additional preset images registered during the Obon event holding period it is possible to include, in the recommended preset image, an additional preset image that is highly used by the guide according to the event currently being held.
  • the image selection control unit 31a can use various information to determine whether each preset image is a recommended preset image.
  • the guidance support system 200 can adopt various modifications similar to those described in the first to third embodiments. Further, the guidance assistance control device 100c can employ various modifications similar to those described in the first to third embodiments.
  • the guidance assistance control device 100c includes the image registration control unit 53 that executes the control of including the created image in the plurality of preset images. Contains corresponding additional preset images. As a result, the created image can be used for subsequent guidance.
  • FIG. 22 is a block diagram showing a main part of the guidance assistance control device according to the fifth embodiment.
  • a guidance assistance control device 100d according to the fifth embodiment will be described with reference to FIG.
  • each output device 2 is the same as that described in Embodiment 1 with reference to FIG.
  • the configuration of the terminal device 3 is the same as that described in Embodiment 1 with reference to FIG.
  • the same blocks as the blocks shown in FIG. 18 are designated by the same reference numerals, and description thereof will be omitted.
  • the guide assistance control devices 100b and 100c were capable of drawing arbitrary images by guides. Therefore, in the guidance support control device 100c, the drawn arbitrary image (that is, the created image) can be registered as an additional preset image and used for the next and subsequent guidance.
  • the position P1 of the terminal device 3 at the time of projection of the created image (that is, at the time of the first projection) is changed to the created image.
  • the position P1 of the terminal device 3 at the time of projecting the corresponding additional preset image (that is, at the time of the second and subsequent projections) may be different. Therefore, based on the position P1 of the terminal device 3, the projection position (see FIG. 23B) of the additional preset image corresponding to the created image may shift from the projection position of the created image (see FIG. 23A).
  • the guidance support control device 100d avoids the occurrence of the deviation by limiting the drawing of the image to be projected.
  • the image creation control unit 51a determines an image to be output by the output device group 1, that is, a projection target by the output device group 1, in accordance with an operation input to the operation input unit 17 by a guide.
  • the control for creating the image is performed.
  • the image creation control by the image creation control unit 51a is executed, for example, in a state in which the display control unit 21 displays the editing screen S3 on the display unit 16.
  • FIG. 24 shows a specific example of the editing screen S3.
  • the editing screen S3 includes an image I1 corresponding to a plan view of the guidance target space R and a dot-shaped image I2 corresponding to the position P1 of the terminal device 3.
  • the editing screen S3 includes a plurality of dot-shaped images (hereinafter referred to as “auxiliary points”) I6 arranged in the image I1. That is, the plurality of auxiliary points I6 correspond to the plurality of fixed positions P2 in the guidance target space R, respectively.
  • auxiliary points dot-shaped images
  • auxiliary point position information Information indicating the corresponding position P2 in the guidance target space R (hereinafter referred to as “auxiliary point position information”) is used to display each of the plurality of auxiliary points I6.
  • the auxiliary point position information is stored in advance in the memory 43 of the terminal device 3, for example.
  • the editing screen S3 also includes an icon image I7 indicating the shape of the image to be drawn.
  • an icon image I7 indicating the shape of the image to be drawn.
  • the icon image I7 showing the shape of the arrow is displayed.
  • the image creation control unit 51a is an arrow-shaped image I3 that passes through the selected auxiliary point (hereinafter referred to as “selection auxiliary point”) I6, and is a guidance target point (for example, the fifth gate from the position P1 of the terminal device 3).
  • selection auxiliary point a guidance target point
  • FIG. 25 shows an example of an arrow-shaped image I3.
  • the image creation control unit 51a includes the arrow-shaped image I3 in the created image.
  • the arrow-shaped image I3 is projected on the floor surface in the guidance target space R.
  • the projection position of the image I3 on the floor in the guidance target space R is set based on the position P1 of the terminal device 3 and the position P2 corresponding to the selection auxiliary point I6 using the terminal position information and the auxiliary point position information. To be done.
  • the image registration control unit 53a when an image is created by the image creation control unit 51a, executes control to register the created image as a new preset image. More specifically, the image registration control unit 53a images information indicating the shape of the created image, that is, information indicating the shape of the icon image I7 when the created image is drawn (hereinafter referred to as “image shape information”). The control to be stored in the data storage unit 22 is executed.
  • the image shape information in the present embodiment is information indicating an arrow that is the shape of the image I3.
  • the image registration control unit 53a uses image data as information indicating an auxiliary point I6 through which the created image passes, that is, information indicating a selected auxiliary point I6 when the created image is drawn (hereinafter referred to as “selected auxiliary point information”). It is stored in the storage unit 22.
  • the created image data is configured by the image shape information and the selection assist point information.
  • the selected image output instructing section 33b instructs the selective output device 2 to project the selected preset image when the selected preset image is the initial preset image.
  • the instruction by the selected image output instructing section 33b is the same as the instruction by the selected image output instructing section 33, so detailed description will be omitted.
  • the selected image output instruction unit 33b instructs the output device group 1 to project the selected preset image.
  • the selected image output instructing section 33b instructs the output device group 1 to project the selected preset image corrected according to the position P1 of the terminal device 3 based on the terminal position information.
  • FIG. 26 shows an example of the selected preset image corrected according to the position P1 of the terminal device 3 when the selected preset image is an additional preset image corresponding to the created image shown in FIG.
  • the arrow-shaped image I3' shown in FIG. 26 is obtained by correcting the start point portion of the arrow-shaped image I3 shown in FIG. 25 according to the position P1 of the terminal device 3.
  • the projection position of the image I3′ on the floor in the guidance target space R is based on the position P1 of the terminal device 3 and the position P2 corresponding to the selection auxiliary point I6 using the terminal position information and the auxiliary point position information. Is set. This makes it possible to avoid the occurrence of the above deviation.
  • the image selection control unit 31, the device selection control unit 32, the selected image output instruction unit 33b, the image creation control unit 51a, the created image output instruction unit 52, and the image registration control unit 53a constitute a main part of the guidance assistance control device 100d. ing.
  • control unit 15 including the guidance assistance control device 100d is the same as that described with reference to FIG. 6 in the first embodiment, so illustration and description thereof will be omitted. That is, the functions of the display control unit 21, the image selection control unit 31, the device selection control unit 32, the selected image output instruction unit 33b, the image creation control unit 51a, the created image output instruction unit 52, and the image registration control unit 53a are It may be realized by the processor 41 and the memory 42, or may be realized by a dedicated processing circuit 44.
  • step ST11a the image creation control unit 51a, in response to an operation input to the operation input unit 17 by a guide, an image to be output by the output device group 1, that is, an image to be projected by the output device group 1. Execute the control to create.
  • a specific example of the image creation control performed by the image creation control unit 51a is as already described with reference to FIGS. 24 and 25, and thus the repetitive description is omitted.
  • step ST12 is executed.
  • step ST13a the image registration control unit 53a executes control to register the created image in step ST11a as an additional preset image. More specifically, the image registration control unit 53 executes control to store the image shape information and the selection auxiliary line information regarding the created image in the image data storage unit 22.
  • the processes of steps ST12 and ST13a may be executed in parallel with each other. Alternatively, the process of step ST13a may be executed first, and then the process of step ST12 may be executed.
  • step ST1 the process of step ST1 is executed.
  • the selected preset image in step ST1 is the initial preset image (step ST21 “NO”)
  • the processes of steps ST2 and ST3 are executed.
  • step ST21 “YES” the selected image output instruction unit 33b instructs the output device group 1 to project the selected preset image in step ST22a.
  • the selected image output instructing section 33b instructs the output device group 1 to project the selected preset image corrected according to the position P1 of the terminal device 3 based on the terminal position information.
  • the shape of the created image is not limited to the arrow.
  • the created image may have any shape as long as it includes a linear image passing through one or more auxiliary points I6.
  • the guidance support system 200 can adopt various modifications similar to those described in the first to fourth embodiments. Further, the guidance assistance control device 100d can employ various modifications similar to those described in the first to fourth embodiments.
  • the created image includes a linear image passing through one or more auxiliary points I6 among the plurality of auxiliary points I6, and includes a plurality of images.
  • the auxiliary points I6 correspond to a plurality of positions P2 in the guidance target space R, respectively.
  • FIG. 29 is a block diagram showing a main part of the guidance assistance control device according to the sixth embodiment.
  • the guidance assistance control device 100e according to the sixth embodiment will be described with reference to FIG.
  • each output device 2 is the same as that described in Embodiment 1 with reference to FIG.
  • the configuration of the terminal device 3 is the same as that described in Embodiment 1 with reference to FIG.
  • the same blocks as the blocks shown in FIG. 22 are designated by the same reference numerals, and description thereof will be omitted.
  • the space state information acquisition unit 61 uses sensors (not shown) provided in the guidance target space R to indicate information on the state inside the space state information acquisition unit 61 (hereinafter referred to as “spatial state information”). Is what you get.
  • the space state information includes information indicating the congestion degree distribution in the guidance target space R.
  • FIG. 30 shows an example of the congestion degree distribution indicated by the spatial state information.
  • the image modification control unit 62 uses space state information to determine whether the created image needs to be modified. When it is determined that the created image needs to be modified, the image modification control unit 62 uses the spatial state information to perform control for modifying the created image.
  • the image correction control unit 62 uses the spatial state information to correct the selected preset image. It is to determine whether or not. When it is determined that the selected preset image needs to be corrected, the image correction control unit 62 uses the spatial state information to execute the control for correcting the selected preset image.
  • the image correction control unit 62 determines that the created image needs to be modified, and modifies the created image so as to avoid an area having a high congestion degree.
  • FIG. 32 shows an example of the created image corrected by the image correction control unit 62.
  • the arrow-shaped image I3′′ is obtained by avoiding a region with a high degree of congestion. Since a specific example of modifying the selected preset image is similar to the specific example of modifying the created image, Illustration and description are omitted.
  • the created image modified by the image modification control unit 62 and the selected preset image modified by the image modification control unit 62 are collectively referred to as a “modified image”.
  • the corrected image output instruction unit 63 instructs the output device group 1 to output the corrected image, that is, to project the corrected image.
  • the instruction by the corrected image output instruction unit 63 is the same as the instruction by the created image output instruction unit 52 or the instruction by the selected image output instruction unit 33b when the selected preset image is an additional preset image, and thus detailed description will be omitted. To do.
  • the image selection control unit 31, the device selection control unit 32, the selected image output instruction unit 33b, the image creation control unit 51a, the created image output instruction unit 52, and the image registration control unit 53a constitute a first guidance support control unit 71.
  • the spatial state information acquisition unit 61, the image correction control unit 62, and the corrected image output instruction unit 63 form a second guidance support control unit 72.
  • the first guidance support control unit 71 and the second guidance support control unit 72 constitute a main part of the guidance support control device 100e.
  • the hardware configuration of the control unit 15 including the guidance assistance control device 100e is the same as that described in Embodiment 1 with reference to FIG. That is, the display control unit 21, the image selection control unit 31, the device selection control unit 32, the selected image output instruction unit 33b, the image creation control unit 51a, the created image output instruction unit 52, the image registration control unit 53a, the space state information acquisition unit.
  • the functions of 61, the image correction control unit 62, and the corrected image output instruction unit 63 may be realized by the processor 41 and the memory 42, or by a dedicated processing circuit 44. Is also good.
  • step ST11a the process of step ST11a is executed.
  • step ST31 the space state information acquisition unit 61 acquires space state information.
  • step ST32 the image correction control unit 62 determines whether or not the correction of the created image in step ST11a is necessary by using the acquired spatial state information. Since the specific example of the determination by the image correction control unit 62 is as described above, the repetitive description will be omitted.
  • step ST32 “NO” the processes of steps ST12 and ST13a are executed.
  • step ST33 the image correction control unit 62 uses the acquired space state information to create the created image. Perform control to correct the. Since the specific example of the correction by the image correction control unit 62 is as described above, the repetitive description will be omitted.
  • step ST34 the corrected image output instructing unit 63 instructs the output device group 1 to project the corrected image in step ST33. Then, the process of step ST13a is executed.
  • the image registered as the additional preset image is the created image, it may be a modified image. In this case, it is possible to regularly register a guide route that can avoid an area with a high congestion degree as an additional preset image.
  • the operation of the guidance assistance control device 100e will be described focusing on the operation of the image correction control unit 62 to correct the selected preset image when the selected preset image is an additional preset image. To do.
  • the same steps as those shown in FIG. 28 are designated by the same reference numerals, and the description thereof will be omitted.
  • step ST1 the process of step ST1 is executed.
  • the selected preset image in step ST1 is the initial preset image (step ST21 “NO”)
  • the processes of steps ST2 and ST3 are executed.
  • step ST21 “YES” when the selected preset image in step ST1 is the additional preset image (step ST21 “YES”), the spatial state information acquisition unit 61 acquires the spatial state information in step ST31a.
  • step ST32a the image correction control unit 62 determines whether or not the correction of the selected preset image in step ST1 is necessary by using the acquired spatial state information. Since the specific example of the determination by the image correction control unit 62 is as described above, the repetitive description will be omitted.
  • step ST32a “NO” the process of step ST22a is executed.
  • step ST32a if it is determined that the selected preset image needs to be corrected (step ST32a “YES”), the image correction control unit 62 uses the acquired space state information to select the selected preset image in step ST33a. Perform control to modify the preset image. Since the specific example of the correction by the image correction control unit 62 is as described above, the repetitive description will be omitted.
  • step ST34a the corrected image output instructing unit 63 instructs the output device group 1 to project the corrected image in step ST33a.
  • the sensors used to acquire the spatial state information are not limited to one or more motion sensors.
  • the space state information is not limited to the information indicating the congestion degree distribution in the guidance target space R.
  • one or more smoke sensors may be provided in the guidance target space R.
  • the space state information may include information indicating the smoke density distribution in the guidance target space R.
  • the correction by the image correction control unit 62 may be to correct the linear image included in the created image or the selected preset image so as to avoid a region having a high smoke density.
  • one or more temperature sensors may be provided in the guidance target space R.
  • the space state information may include information indicating the temperature distribution in the guidance target space R.
  • the correction by the image correction control unit 62 may be to correct the linear image included in the created image or the selected preset image so as to avoid a high temperature region.
  • the image I8 corresponding to the congestion degree distribution, smoke density distribution, or temperature distribution indicated by the spatial state information may be included in the editing screen S4.
  • the guide selects one or more auxiliary points I6 from the plurality of auxiliary points I6 so that a linear image avoiding areas of high congestion, smoke density or high temperature is drawn. May be
  • the guidance support system 200 can adopt various modifications similar to those described in the first to fifth embodiments. Further, the guidance assistance control device 100e can employ various modifications similar to those described in the first to fifth embodiments.
  • the guidance assistance control device 100e creates a spatial state information acquisition unit 61 that acquires spatial state information indicating the state in the guidance target space R and a created image using the spatial state information.
  • An image correction control unit 62 that executes control for correction and a corrected image output instruction unit 63 that instructs the output device 2 to project the corrected image by the image correction control unit 62 are provided. Thereby, it is possible to realize the guidance of an appropriate route according to the congestion degree distribution, the smoke density distribution, the temperature distribution, or the like in the guidance target space R.
  • the guidance assistance control device 100e includes a space state information acquisition unit 61 that acquires space state information indicating a state in the guidance target space R, and a space when the selected preset image is an additional preset image.
  • An image correction control unit 62 that executes control to correct the selected preset image using the state information, and a corrected image output instruction unit 63 that instructs the output device 2 to project the corrected image by the image correction control unit 62.
  • the invention of the present application is capable of freely combining the embodiments, modifying any constituent element of each embodiment, or omitting any constituent element in each embodiment. .
  • the guidance support control device and the guidance support system of the present invention can be used, for example, for guidance of users by staff in an airport lobby.

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

案内支援制御装置(100)は、出力装置(2)により案内対象空間(R)内に投影される画像を用いて、案内人による被案内人の案内を支援する案内支援システム(200)用の案内支援制御装置(100)であって、案内支援システム(200)の動作中における案内人による操作入力に応じて、複数個のプリセット画像のうちのいずれかのプリセット画像を選択する制御を実行する画像選択制御部(31)と、画像選択制御部(31)による選択プリセット画像の投影を出力装置(2)に指示する選択画像出力指示部(33)と、を備える。

Description

案内支援制御装置及び案内支援システム
 本発明は、案内支援制御装置及び案内支援システムに関する。
 従来、車両に設けられた投影装置により路面に投影される画像を用いて、当該車両に関する情報を歩行者又は他車両の搭乗者などに伝達する技術、いわゆる「路面ライティング」が開発されている(例えば、特許文献1参照。)。また、施設内に設けられた投影装置により床面、壁面又は天井面などに投影されるアニメーション画像を用いて、当該施設内の誘導対象者を誘導するシステム、いわゆる「アニメーションライティング誘導システム」が開発されている。
国際公開第2018/138842号
 近年、案内対象空間内に設けられた投影装置により床面、壁面又は天井面などに投影される画像を用いて、案内対象空間における案内人による被案内人の案内を支援するシステム(以下「案内支援システム」という。)が開発されている。案内対象空間は、例えば、空港のロビーである。
 従来の案内支援システムにおいては、予め定められた画像が投影装置により投影されるものであった。このため、案内人による案内の自由度が低いという問題があった。この結果、案内人による使い勝手が悪いという問題があった。
 本発明は、上記のような課題を解決するためになされたものであり、案内対象空間内に投影される画像を用いる案内支援システムにおいて、案内人による案内の自由度の向上を図ることを目的とする。
 本発明の案内支援制御装置は、出力装置により案内対象空間内に投影される画像を用いて、案内人による被案内人の案内を支援する案内支援システム用の案内支援制御装置であって、案内支援システムの動作中における案内人による操作入力に応じて、複数個のプリセット画像のうちのいずれかのプリセット画像を選択する制御を実行する画像選択制御部と、画像選択制御部による選択プリセット画像の投影を出力装置に指示する選択画像出力指示部と、を備えるものである。
 本発明によれば、上記のように構成したので、案内対象空間内に投影される画像を用いる案内支援システムにおいて、案内人による案内の自由度の向上を図ることができる。
実施の形態1に係る案内支援システムのシステム構成を示す説明図である。 実施の形態1に係る案内支援システムに含まれる個々の出力装置がプロジェクタにより構成されている場合における、当該プロジェクタを示す説明図である。 実施の形態1に係る案内支援システムに含まれる個々の出力装置の要部を示すブロック図である。 実施の形態1に係る案内支援システムに含まれる端末装置がタブレットPCにより構成されている場合における、当該タブレットPCを示す説明図である。 実施の形態1に係る案内支援システムに含まれる端末装置の要部を示すブロック図である。 実施の形態1に係る案内支援システムに含まれる端末装置における制御部の要部を示すブロック図であって、実施の形態1に係る案内支援制御装置の要部を示すブロック図である。 選択用画面の例を示す説明図である。 実施の形態1に係る案内支援システムに含まれる端末装置における制御部のハードウェア構成を示す説明図である。 実施の形態1に係る案内支援システムに含まれる端末装置における制御部の他のハードウェア構成を示す説明図である。 実施の形態1に係る案内支援制御装置の動作を示すフローチャートである。 実施の形態1に係る他の案内支援制御装置の要部を示すブロック図である。 実施の形態1に係る他の案内支援システムのシステム構成を示す説明図である。 実施の形態2に係る案内支援制御装置の要部を示すブロック図である。 実施の形態2に係る案内支援制御装置の動作を示すフローチャートである。 実施の形態3に係る案内支援制御装置の要部を示すブロック図である。 編集用画面の例を示す説明図である。 作成画像の例を示す説明図である。 作成画像の他の例を示す説明図である。 作成画像の他の例を示す説明図である。 実施の形態3に係る案内支援制御装置の動作を示すフローチャートである。 実施の形態4に係る案内支援制御装置の要部を示すブロック図である。 実施の形態4に係る案内支援制御装置の動作を示すフローチャートである。 実施の形態4に係る案内支援制御装置の他の動作を示すフローチャートである。 実施の形態4に係る他の案内支援制御装置の要部を示すブロック図である。 実施の形態5に係る案内支援制御装置の要部を示すブロック図である。 作成画像の投影位置の例を示す説明図である。 図23Aに示す作成画像に対応する追加プリセット画像の投影位置の例を示す説明図である。 編集用画面の例を示す説明図である。 作成画像の例を示す説明図である。 選択プリセット画像が図25に示す作成画像に対応する追加プリセット画像である場合における、端末装置の位置に応じて補正された選択プリセット画像の例を示す説明図である。 実施の形態5に係る案内支援制御装置の動作を示すフローチャートである。 実施の形態5に係る案内支援制御装置の他の動作を示すフローチャートである。 実施の形態6に係る案内支援制御装置の要部を示すブロック図である。 空間状態情報が示す混雑度分布の例を示す説明図である。 作成画像の例を示す説明図である。 修正画像の例を示す説明図である。 実施の形態6に係る案内支援制御装置の動作を示すフローチャートである。 実施の形態6に係る案内支援制御装置の他の動作を示すフローチャートである。 編集用画面の例を示す説明図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る案内支援システムのシステム構成を示す説明図である。図2Aは、実施の形態1に係る案内支援システムに含まれる個々の出力装置がプロジェクタにより構成されている場合における、当該プロジェクタを示す説明図である。図2Bは、実施の形態1に係る案内支援システムに含まれる個々の出力装置の要部を示すブロック図である。図3Aは、実施の形態1に係る案内支援システムに含まれる端末装置がタブレットPCにより構成されている場合における、当該タブレットPCを示す説明図である。図3Bは、実施の形態1に係る案内支援システムに含まれる端末装置の要部を示すブロック図である。図1~図3を参照して、実施の形態1に係る案内支援システム200について説明する。
 以下、実施の形態1~6において、案内対象空間Rが空港のロビーであり、かつ、案内人が当該空港のスタッフであり、かつ、被案内人が当該空港の利用者である場合の例を中心に説明する。
 案内支援システム200は、出力装置群1を含むものである。出力装置群1は、複数個の出力装置2により構成されている。図1に示す例においては、6個の出力装置2_1~2_6により出力装置群1が構成されている。複数個の出力装置2は、例えば、案内対象空間R内の互いに異なる位置に設置されている。また、案内支援システム200は、端末装置3を含むものである。端末装置3は、例えば、案内人により所持されるものである。
 個々の出力装置2は、例えば、プロジェクタにより構成されている(図2A参照)。個々の出力装置2は、案内対象空間R内の床面、壁面又は天井面に案内用の画像を投影するものである。また、個々の出力装置2は、ネットワーク4により端末装置3と通信自在なものである。すなわち、個々の出力装置2は、図2Bに示す如く、投影部11、通信部12及び制御部13を有している。投影部11は、当該画像の投影に用いられるものである。通信部12は、当該通信に用いられるものでる。制御部13は、投影部11及び通信部12による各種動作の制御等に用いられるものである。
 例えば、案内対象空間Rである空港のロビーに5個のゲートG1~G5が設置されている。2個の出力装置2_1,2_2の各々は、当該ロビーにおける、第1ゲートG1に対応する所定の領域内の床面に案内用の画像を投影するものである。また、1個の出力装置2_3は、当該ロビーにおける、第2ゲートG2に対応する所定の領域内の床面に案内用の画像を投影するものである。また、1個の出力装置2_4は、当該ロビーにおける、第3ゲートG3に対応する所定の領域内の壁面に案内用の画像を投影するものである。また、1個の出力装置2_5は、当該ロビーにおける、第4ゲートG4に対応する所定の領域内の天井面に案内用の画像を投影するものである。また、1個の出力装置2_6は、当該ロビーにおける、第4ゲートG4に対応する所定の領域内の床面に案内用の画像を投影するものである。以下、案内対象空間Rにおける、複数個の出力装置2の各々により案内用の画像が投影される領域を「投影対象領域」という。
 なお、案内支援システム200は6個の出力装置2_1~2_6を備える場合に限定されない。案内支援システム200は5個以下の出力装置2を備えていても、あるいは7個以上の出力装置2を備えていてもよい。また、ゲートG1~G5毎に対応する出力装置2の数量および投影する所定の領域が異なる例について説明しているが、全てのゲートにおいて同じ数量および同じ所定の領域としてもよい。この場合、ゲート毎に3台の出力装置2を備え、出力装置2毎に床面、壁面、および天井面に投影するとしてもよい。
 端末装置3は、例えば、タブレットPC(Personal Computer)により構成されている(図3A参照)。端末装置3は、ネットワーク4により個々の出力装置2と通信自在なものである。すなわち、端末装置3は、図3Bに示す如く、通信部14、制御部15、表示部16及び操作入力部17を有している。通信部14は、当該通信に用いられるものである。制御部15は、通信部14、表示部16及び操作入力部17による各種動作の制御等に用いられるものである。表示部16は、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイにより構成されている。操作入力部17は、例えば、タッチパネル及び音声入力用のマイクにより構成されている。
 このようにして、案内支援システム200の要部が構成されている。案内支援システム200は、複数個の出力装置2のうちの少なくとも1個の出力装置2による案内用の画像の投影により、案内人による被案内人の案内を支援するものである。
 図4は、実施の形態1に係る案内支援システムに含まれる端末装置における制御部の要部を示すブロック図であって、実施の形態1に係る案内支援制御装置の要部を示すブロック図である。図4を参照して、実施の形態1に係る案内支援制御装置100について説明する。
 表示制御部21は、案内支援制御装置100による各種画面を表示部16に表示させる制御を実行するものである。
 画像データ記憶部22には、複数個の画像を示す画像データが予め記憶されている。当該複数個の画像の各々は、案内人による被案内人の案内に用いられるものである。以下、当該複数個の画像を「プリセット画像」という。また、個々のプリセット画像を示す画像データを「プリセット画像データ」という。
 画像選択制御部31は、案内支援システム200の動作中に、案内人による操作入力部17に対する操作入力に応じて、複数個のプリセット画像のうちの1個のプリセット画像を選択する制御を実行するものである。以下、当該選択されたプリセット画像を「選択プリセット画像」という。
 装置選択制御部32は、案内支援システム200の動作中に、案内人による操作入力部17に対する操作入力に応じて、複数個の出力装置2のうちの少なくとも1個の出力装置2を選択する制御を実行するものである。以下、当該選択された出力装置2を「選択出力装置」という。
 画像選択制御部31による選択制御及び装置選択制御部32による選択制御は、例えば、表示制御部21が専用の画面(以下「選択用画面」という。)S1を表示部16に表示させている状態にて実行される。図5は、選択用画面S1の具体例を示している。
 図5に示す如く、選択用画面S1は、複数個のプリセット画像に対応する複数個のサムネイル画像が表示される領域A1を有している。当該複数個のサムネイル画像の各々は、操作入力部17のタッチパネルを用いたタッチ操作により選択自在である。画像選択制御部31による選択制御は、領域A1に対するタッチ操作に応じたものである。
 また、選択用画面S1は、選択プリセット画像が表示される領域A2を有している。領域A2における選択プリセット画像の表示サイズは、領域A1における個々のサムネイル画像の表示サイズに比して大きいものである。これにより、案内人は、複数個のプリセット画像のうちのいずれのプリセット画像が選択された状態であるのかを視覚的に容易に認識することができる。
 また、選択用画面S1は、複数個の出力装置2に対応する複数個のボタン画像が表示される領域A3を有している。当該複数個のボタン画像の各々は、操作入力部17のタッチパネルを用いたタッチ操作により押下自在である。装置選択制御部32による選択制御は、領域A3に対するタッチ操作に応じたものである。
 領域A1における複数個のサムネイル画像の各々の表示、及び領域A2における選択プリセット画像の表示には、対応するプリセット画像データが用いられる。このプリセット画像データは、上記のとおり画像データ記憶部22に予め記憶されている。また、領域A3における複数個のボタン画像の表示には、案内対象空間Rにおける複数個の出力装置2の各々の設置位置を示す情報、又は案内対象空間Rにおける複数個の出力装置2の各々による投影対象領域を示す情報(以下「投影対象領域情報」という。)などが用いられる。これらの情報は、例えば、端末装置3のメモリ43(後述)に予め記憶されている。
 選択画像出力指示部33は、選択プリセット画像の出力、すなわち選択プリセット画像の投影を選択出力装置2に指示するものである。より具体的には、選択画像出力指示部33は、選択プリセット画像の出力を指示する信号、すなわち選択プリセット画像の投影を指示する信号(以下「出力指示信号」という。)を選択出力装置2に送信する制御を実行する。出力指示信号の送信には、通信部14が用いられる。
 選択出力装置2の通信部12は、端末装置3により送信された出力指示信号を受信する。次いで、選択出力装置2の制御部13は、選択出力装置2の投影部11に選択プリセット画像を投影させる制御を実行する。これにより、選択出力装置2による投影対象領域内に選択プリセット画像が投影される。案内人は、当該投影された選択プリセット画像を用いて、被案内人の案内をすることができる。
 画像選択制御部31、装置選択制御部32及び選択画像出力指示部33により、案内支援制御装置100の要部が構成されている。表示制御部21、画像データ記憶部22及び案内支援制御装置100により、制御部15の要部が構成されている。
 次に、図6を参照して、制御部15の要部のハードウェア構成について説明する。
 図6Aに示す如く、制御部15はプロセッサ41、メモリ42及びメモリ43を有している。メモリ42には、表示制御部21、画像選択制御部31、装置選択制御部32及び選択画像出力指示部33の機能に対応するプログラムが記憶されている。メモリ42に記憶されているプログラムをプロセッサ41が読み出して実行することにより、表示制御部21、画像選択制御部31、装置選択制御部32及び選択画像出力指示部33の機能が実現される。また、画像データ記憶部22の機能は、メモリ43により実現される。
 または、図6Bに示す如く、制御部15はメモリ43及び処理回路44を有している。この場合、表示制御部21、画像選択制御部31、装置選択制御部32及び選択画像出力指示部33の機能が専用の処理回路44により実現される。また、画像データ記憶部22の機能がメモリ43により実現される。
 または、制御部15はプロセッサ41、メモリ42、メモリ43及び処理回路44を有している(不図示)。この場合、表示制御部21、画像選択制御部31、装置選択制御部32及び選択画像出力指示部33の機能のうちの一部の機能がプロセッサ41及びメモリ42により実現されて、残余の機能が専用の処理回路44により実現される。また、画像データ記憶部22の機能がメモリ43により実現される。
 プロセッサ41は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)のうちの少なくとも一つにより構成されている。
 メモリ42は、揮発性メモリ及び不揮発性メモリにより構成されている。メモリ42のうちの揮発性メモリは、例えば、RAM(Random Access Memory)により構成されている。メモリ42のうちの不揮発性メモリは、例えば、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、SSD(Solid State Drive)又はHDD(Hard Disk Drive)のうちの少なくとも一つにより構成されている。
 メモリ43は、不揮発性メモリにより構成されている。具体的には、例えば、メモリ43は、ROM、フラッシュメモリ、EPROM、EEPROM、SSD又はHDDのうちの少なくとも一つにより構成されている。
 処理回路44は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)、SoC(System-on-a-Chip)又はシステムLSI(Large-Scale Integration)のうちの少なくとも一つにより構成されている。
 次に、図7のフローチャートを参照して、案内支援制御装置100の動作について説明する。表示制御部21は、案内支援システム200の動作中に、選択用画面S1の表示を指示する操作が操作入力部17に入力されたとき、選択用画面S1を表示部16に表示させる。図7に示すステップST1~ST3の処理のうちの少なくともステップST1,ST2の処理は、選択用画面S1が表示部16に表示されている状態にて実行される。
 まず、ステップST1にて、画像選択制御部31は、選択用画面S1に対する操作入力に応じて、複数個のプリセット画像のうちの1個のプリセット画像を選択する制御を実行する。次いで、ステップST2にて、装置選択制御部32は、選択用画面S1に対する操作入力に応じて、複数個の出力装置2のうちの少なくとも1個の出力装置2を選択する制御を実行する。なお、ステップST1,ST2の処理は、互いに並列に実行されるものであっても良い。または、ステップST2の処理が先に実行されて、次いで、ステップST1の処理が実行されるものであっても良い。
 次いで、ステップST3にて、選択画像出力指示部33は、選択プリセット画像の投影を選択出力装置2に指示する。より具体的には、選択画像出力指示部33は、出力指示信号を選択出力装置2に送信する制御を実行する。
 次いで、選択出力装置2の通信部12は、端末装置3により送信された出力指示信号を受信する。次いで、選択出力装置2の制御部13は、選択出力装置2の投影部11に選択プリセット画像を投影させる制御を実行する。選択出力装置2の制御部13は、選択プリセット画像の投影が開始されてから所定時間(例えば2分又は3分)Trefが経過したとき、選択プリセット画像の投影を終了する制御を実行する。
 このように、案内支援制御装置100によれば、案内人が被案内人を案内するとき、複数個のプリセット画像のうちの投影対象となるプリセット画像をリアルタイムに選択することができる。これにより、案内人による案内の自由度を向上することができる。
 また、案内支援制御装置100によれば、案内人が被案内人を案内するとき、複数個の出力装置2のうちの選択プリセット画像を投影する出力装置2をリアルタイムに選択することができる。これにより、案内対象空間Rにおける選択プリセット画像の投影位置をリアルタイムに設定することができる。この結果、例えば、案内人の現在位置に対する遠方の案内対象地点に被案内人を案内するとき、案内人の移動が生ずるのを抑制することができる。この結果、案内人による案内の効率化を図ることができる。また、被案内人は、被案内人の現在位置から案内対象地点までの距離等を視覚的に認識することができる。
 次に、案内支援制御装置100の変形例及び案内支援システム200の変形例について説明する。
 まず、案内対象空間Rは空港のロビーに限定されるものではない。案内対象空間Rは、案内人による被案内人の案内を要する空間であれば、如何なる空間であっても良い。例えば、案内対象空間Rは、駅構内、百貨店、スーパーマーケット、展示場又はイベント会場であっても良い。特に、面積の広い空間又は設置物が多いことにより死角が多い空間などは、案内支援システム200を用いるのに好適である。
 また、画像選択制御部31は選択用画面S1の領域A1を用いて案内人が選択した選択プリセット画像を、領域A2において修正できるとしても良い。例えば、図5に示す如く案内人が領域A1を用いて選択した選択プリセット画像が領域A2に表示されている状況において、案内人が領域A2に表示された選択プリセット画像を移動、回転、拡大又は縮小すると、出力装置2が投影する選択プリセット画像も同様に変更される。
 また、案内人は一度に一つのプリセット画像を選択することに限定されず、一度に複数のプリセット画像を選択できるとしても良い。例えば、画像選択制御部31は所定の時間内に選択用画面S1の領域A1を用いて案内人が選択した複数の選択プリセット画像を、領域A2に表示し、案内人が領域A2において配置した通りに、また修正した場合は修正した通りに出力装置2が複数の選択プリセット画像を投影する。
 また、図8に示す如く、装置選択制御部32は案内支援制御装置100外に設けられているものであっても良い。すなわち、画像選択制御部31及び選択画像出力指示部33により案内支援制御装置100の要部が構成されているものであっても良い。
 また、案内支援システム200は、サーバ装置(不図示)を含むものであっても良い。サーバ装置は、ネットワーク4により端末装置3と通信自在であり、かつ、ネットワーク4により個々の出力装置2と通信自在である。この場合、案内支援制御装置100の機能のうちの一部の機能又は全部の機能が、端末装置3に代えてサーバ装置にて実現されるものであっても良い。
 また、図9に示す如く、案内支援システム200は、複数個の端末装置3を含むものであっても良い。複数個の端末装置3は、例えば、複数人の案内人によりそれぞれ所持されるものであっても良い。図9に示す例においては、3個の端末装置3_1~3_3が案内支援システム200に含まれている。
 また、複数個の出力装置2のうちの一部の出力装置2は、プロジェクタに代えてディスプレイにより構成されているものであっても良い。例えば、6個の出力装置2_1~2_6のうちの1個の出力装置2_4が、第3ゲートG3に設置されたディスプレイにより構成されているものであっても良い。また、選択出力装置2がディスプレイにより構成されたものである場合、出力指示信号は、選択プリセット画像の投影を指示する信号に代えて、選択プリセット画像の表示を指示する信号であっても良い。
 以上のように、実施の形態1に係る案内支援制御装置100は、出力装置2により案内対象空間R内に投影される画像を用いて、案内人による被案内人の案内を支援する案内支援システム200用の案内支援制御装置100であって、案内支援システム200の動作中における案内人による操作入力に応じて、複数個のプリセット画像のうちのいずれかのプリセット画像を選択する制御を実行する画像選択制御部31と、画像選択制御部31による選択プリセット画像の投影を出力装置2に指示する選択画像出力指示部33と、を備える。これにより、案内人が被案内人を案内するとき、複数個のプリセット画像のうちの投影対象となるプリセット画像をリアルタイムに選択することができる。この結果、案内人による案内の自由度を向上することができる。
 また、実施の形態1に係る案内支援システム200は、出力装置2により案内対象空間R内に投影される画像を用いて、案内人による被案内人の案内を支援する案内支援システム200であって、案内支援システム200の動作中における案内人による操作入力に応じて、複数個のプリセット画像のうちのいずれかのプリセット画像を選択する制御を実行する画像選択制御部31と、画像選択制御部31による選択プリセット画像の投影を出力装置2に指示する選択画像出力指示部と、を備える。これにより、案内支援制御装置100による上記効果と同様の効果を得ることができる。
実施の形態2.
 図10は、実施の形態2に係る案内支援制御装置の要部を示すブロック図である。図10を参照して、実施の形態2に係る案内支援制御装置100aについて説明する。
 なお、案内支援システム200のシステム構成は、実施の形態1にて図1を参照して説明したものと同様であるため、図示及び説明を省略する。また、個々の出力装置2の構成は、実施の形態1にて図2を参照して説明したものと同様であるため、図示及び説明を省略する。また、端末装置3の構成は、実施の形態1にて図3を参照して説明したものと同様であるため、図示及び説明を省略する。また、図10において、図4に示すブロックと同様のブロックには同一符号を付して説明を省略する。
 出力継続指示部34は、複数個のプリセット画像の各々が所定期間(例えば直近10分の期間)ΔT1内に画像選択制御部31により選択された回数(以下「選択回数」という。)をカウントするものである。出力継続指示部34は、選択画像出力指示部33が選択プリセット画像の投影を選択出力装置2に指示したとき、選択プリセット画像に対応する選択回数のカウント値Vcを所定の閾値(例えば5回)Vthと比較するものである。
 出力継続指示部34は、カウント値Vcが閾値Vth以上である場合、選択プリセット画像の出力の継続、すなわち選択プリセット画像の投影の継続を選択出力装置2に指示するものである。より具体的には、出力継続指示部34は、選択プリセット画像の出力の継続、すなわち選択プリセット画像の投影の継続を指示する信号(以下「継続指示信号」という。)を選択出力装置2に送信する。継続指示信号の送信には、通信部14が用いられる。
 端末装置3により継続指示信号が送信された場合、選択出力装置2の通信部12は、当該送信された継続指示信号を受信する。選択出力装置2の制御部13は、所定の終了条件が満たされるまで、選択出力装置2の投影部11による選択プリセット画像の投影を継続する制御を実行する。
 終了条件の具体例は以下のとおりである。すなわち、選択プリセット画像の投影の終了を指示する操作が操作入力部17に入力されたとき、又は他のプリセット画像を選択する操作が操作入力部17に入力されたとき、通信部14は、その旨を示す信号を選択出力装置2に送信する。選択出力装置2の通信部12が当該送信された信号を受信することにより、終了条件が満たされる。
 他方、端末装置3により継続指示信号が送信されなかった場合、選択出力装置2の制御部13により、実施の形態1にて説明したものと同様の制御が実行される。すなわち、選択出力装置2の制御部13は、選択プリセット画像の投影が開始されてから所定時間Trefが経過したとき、選択プリセット画像の投影を終了する制御を実行する。
 画像選択制御部31、装置選択制御部32、選択画像出力指示部33及び出力継続指示部34により、案内支援制御装置100aの要部が構成されている。
 案内支援制御装置100aを含む制御部15のハードウェア構成は、実施の形態1にて図6を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、表示制御部21、画像選択制御部31、装置選択制御部32、選択画像出力指示部33及び出力継続指示部34の各々の機能は、プロセッサ41及びメモリ42により実現されるものであっても良く、又は専用の処理回路44により実現されるものであっても良い。
 次に、図11のフローチャートを参照して、案内支援制御装置100aの動作について説明する。なお、図11において、図7に示すステップと同様のステップには同一符号を付して説明を省略する。
 まず、ステップST1~ST3の処理が実行される。次いで、ステップST4にて、出力継続指示部34は、ステップST1における選択プリセット画像に対応する選択回数のカウント値Vcを閾値Vthと比較する。カウント値Vcが閾値Vth以上である場合(ステップST4“YES”)、ステップST5にて、出力継続指示部34は、選択プリセット画像の投影の継続を選択出力装置2に指示する。より具体的には、出力継続指示部34は、継続指示信号を選択出力装置2に送信する制御を実行する。他方、カウント値Vcが閾値Vth未満である場合(ステップST4“NO”)、ステップST5の処理はスキップされる。
 このように、案内支援制御装置100aによれば、案内人が同一のプリセット画像の投影を継続させたいとき、案内人による当該プリセット画像を選択する操作の入力回数を低減することができる。これにより、案内人による操作の手間を省くことができる。
 なお、実施の形態1にて説明したとおり、案内支援システム200は、複数個の端末装置3を含むものであっても良い。この場合、カウント値Vcは、複数個の端末装置3による選択回数の合計値であっても良い。これにより、例えば、多数の被案内人に対して同様の案内が求められる状況において、各案内人による操作の手間を省くことができる。
 そのほか、案内支援システム200は、実施の形態1にて説明したものと同様の種々の変形例を採用することができる。また、案内支援制御装置100aは、実施の形態1にて説明したものと同様の種々の変形例を採用することができる。
 以上のように、実施の形態2に係る案内支援制御装置100aは、選択プリセット画像が所定期間ΔT1内に選択された回数のカウント値Vcが閾値Vth以上である場合、選択プリセット画像の投影の継続を出力装置2に指示する出力継続指示部34を備える。これにより、案内人が同一のプリセット画像の投影を継続させたいとき、案内人による当該プリセット画像を選択する操作の入力回数を低減することができる。この結果、案内人による操作の手間を省くことができる。
実施の形態3.
 図12は、実施の形態3に係る案内支援制御装置の要部を示すブロック図である。図12を参照して、実施の形態3に係る案内支援制御装置100bについて説明する。
 なお、案内支援システム200のシステム構成は、実施の形態1にて図1を参照して説明したものと同様であるため、図示及び説明を省略する。また、個々の出力装置2の構成は、実施の形態1にて図2を参照して説明したものと同様であるため、図示及び説明を省略する。また、端末装置3の構成は、実施の形態1にて図3を参照して説明したものと同様であるため、図示及び説明を省略する。また、図12において、図4に示すブロックと同様のブロックには同一符号を付して説明を省略する。
 以下、実施の形態3~6において、複数個の出力装置2の各々による投影対象領域が、案内対象空間R内の床面に設定されている場合の例を中心に説明する。また、出力装置群1により案内対象空間R内の略全体の床面に対する画像投影が可能となるように、複数個の出力装置2が配置されている場合の例を中心に説明する。
 画像作成制御部51は、案内支援システム200の動作中に、案内人による操作入力部17に対する操作入力に応じて、出力装置群1による出力対象となる画像、すなわち出力装置群1による投影対象となる画像を作成する制御を実行するものである。以下、当該作成された画像を「作成画像」という。
 画像作成制御部51による画像作成制御は、例えば、表示制御部21が専用の画面(以下「編集用画面」という。)S2を表示部16に表示させている状態にて実行される。編集用画面S2の具体例については、図13を参照して後述する。また、作成画像の具体例については、図14~図16を参照して後述する。
 作成画像出力指示部52は、作成画像の出力、すなわち作成画像の投影を出力装置群1に指示するものである。
 例えば、作成画像出力指示部52は、端末装置3のメモリ43に記憶されている投影対象領域情報を用いて、作成画像がいずれか1個の出力装置2による投影対象領域に収まるものであるか否かを判定する。作成画像がいずれか1個の出力装置2による投影対象領域に収まるものである場合、作成画像出力指示部52は、当該1個の出力装置2に作成画像の投影を指示する。他方、作成画像がいずれか2個以上の出力装置2による投影対象領域に跨るものである場合、作成画像出力指示部52は、当該2個以上の出力装置2に作成画像の出力を指示する。より具体的には、作成画像出力指示部52は、当該2個以上の出力装置2の各々に対して、作成画像のうちの対応する部分の投影を指示する。これらの投影の指示には、実施の形態1にて説明したものと同様の出力指示信号が用いられる。
 画像選択制御部31、装置選択制御部32、選択画像出力指示部33、画像作成制御部51及び作成画像出力指示部52により、案内支援制御装置100bの要部が構成されている。
 案内支援制御装置100bを含む制御部15のハードウェア構成は、実施の形態1にて図6を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、表示制御部21、画像選択制御部31、装置選択制御部32、選択画像出力指示部33、画像作成制御部51及び作成画像出力指示部52の各々の機能は、プロセッサ41及びメモリ42により実現されるものであっても良く、又は専用の処理回路44により実現されるものであっても良い。
 次に、図13を参照して、編集用画面S2の具体例について説明する。
 図13に示す如く、編集用画面S2は、案内対象空間Rの平面図に対応する画像I1を含むものである。画像I1の表示には、案内対象空間Rの平面図を示す情報(以下「平面図情報」という。)が用いられる。平面図情報は、例えば、端末装置3のメモリ43に予め記憶されている。
 また、編集用画面S2は、端末装置3の位置P1に対応する点状の画像I2を含むものである。画像I2の表示には、端末装置3の位置P1を示す情報(以下「端末位置情報」という。)が用いられる。端末位置情報は、例えば、端末装置3に設けられているGPS(Global Positioning System)受信機(不図示)により取得されるものである。または、例えば、案内対象空間Rにおける端末装置3の位置P1が固定されている場合、端末位置情報は、端末装置3のメモリ43に予め記憶されている。
 次に、図14~図16を参照して、作成画像の具体例について説明する。すなわち、画像作成制御部51による画像作成制御の具体例について説明する。
 図14に示す例において、案内人は、操作入力部17のタッチパネルを用いて、編集用画面S2に対するタッチ操作により、矢印状の画像I3を描画する。画像I3は、端末装置3の位置P1から案内対象地点(例えば第5ゲートG5)までの案内経路を示すものである。画像作成制御部51は、矢印状の画像I3を作成画像に含める。
 これにより、矢印状の画像I3が案内対象空間R内の床面に投影される。このとき、案内対象空間R内の床面における画像I3の投影位置は、端末位置情報を用いて、端末装置3の位置P1に基づき設定される。
 ここで、作成画像は矢印状の画像I3に限定されるものではない。例えば、図15に示す如く、作成画像は、矢印状の画像I3に加えて、吹き出し状の画像I4_1,I4_2を含むものであっても良い。画像I4_1,I4_2の各々に含まれるテキスト及び画像I4_1,I4_2の各々が示す位置は、操作入力部17のマイクに対する音声入力に応じて設定されるものであっても良い。
 すなわち、図15に示す例において、案内人は、操作入力部17のタッチパネルを用いて、編集用画面S2に対するタッチ操作により、矢印状の画像I3を描画する。
 ここで、矢印状の画像I3は、2個の折り曲げ部B1,B2を有している。案内人は、タッチ操作による画像I3の描画中に、編集用画面S2を被案内人に見せながら、発話により案内経路を被案内人に説明する。
 例えば、タッチ操作による画像I3の描画が折り曲げ部B1に到達したとき、案内人が説明用に「ここの角」と発話したものとする。また、当該発話の音声がマイクに入力されたものとする。このとき、画像作成制御部51は、当該発話の内容に対応するテキスト(すなわち「ここの角」のテキスト)を含み、かつ、このときのタッチ位置(すなわち折り曲げ部B1に対応する位置)を示す吹き出し状の画像I4_1を描画する。画像作成制御部51は、吹き出し状の画像I4_1を作成画像に含める。
 次いで、タッチ操作による画像I3の描画が折り曲げ部B2に到達したとき、案内人が説明用に「次の角」と発話したものとする。また、当該発話の音声がマイクに入力されたものとする。このとき、画像作成制御部51は、当該発話の内容に対応するテキスト(すなわち「次の角」のテキスト)を含み、かつ、このときのタッチ位置(すなわち折り曲げ部B2に対応する位置)を示す吹き出し状の画像I4_2を描画する。画像作成制御部51は、吹き出し状の画像I4_2を作成画像に含める。
 次いで、タッチ操作による矢印状の画像I3の描画が完了する。画像作成制御部51は、矢印状の画像I3を作成画像に含める。
 これにより、矢印状の画像I3に加えて、吹き出し状の画像I4_1,I4_2が案内対象空間R内の床面に投影される。被案内人は、当該投影された画像I3,I4_1,I4_2を視認することにより、案内人の説明における「ここの角」及び「次の角」が、実際の案内対象空間Rにおけるどこであるのかを、視覚的に容易に認識することができる。すなわち、図15に示す例によれば、指示代名詞を用いた説明を案内人がしたとき、当該説明の内容を被案内人に正確かつ容易に伝達することができる。
 または、例えば、図16に示す如く、作成画像は、矢印状の画像I3に加えて、吹き出し状の画像I5_1~I5_3を含むものであっても良い。画像I5_1~I5_3の各々に含まれるテキスト及び画像I5_1~I5_3の各々が示す位置は、操作入力部17のタッチパネルに対するタッチ操作に応じて設定されるものであっても良い。
 例えば、案内人は、矢印状の画像I3の描画を開始するとき、編集用画面S2における画像I2に対応する位置をタッチする。このとき、画像作成制御部51は、当該タッチが第1回目のタッチであることを示すテキスト(例えば「FIRST」のテキスト)を含み、かつ、このときのタッチ位置(すなわち画像I2に対応する位置)を示す吹き出し状の画像I5_1を描画する。画像作成制御部51は、吹き出し状の画像I5_1を作成画像に含める。
 次いで、案内人は、タッチ操作による画像I3の描画が折り曲げ部B1に到達したとき、発話又はジェスチャなどによる説明のために画像I3の描画を一時的に中断して、指等をタッチパネルから離したものとする。その後、案内人は、タッチパネルに再びタッチして、画像I3の描画を再開したものとする。このとき、画像作成制御部51は、当該タッチが第2回目のタッチであることを示すテキスト(例えば「NEXT」のテキスト)を含み、かつ、このときのタッチ位置(すなわち折り曲げ部B1に対応する位置)を示す吹き出し状の画像I5_2を描画する。画像作成制御部51は、吹き出し状の画像I5_2を作成画像に含める。
 次いで、案内人は、タッチ操作による画像I3の描画が折り曲げ部B1,B2間の中央部に到達したとき、発話又はジェスチャなどによる説明のために画像I3の描画を一時的に中断して、指等をタッチパネルから離したものとする。その後、案内人は、タッチパネルに再びタッチして、画像I3の描画を再開したものとする。このとき、画像作成制御部51は、当該タッチが第3回目のタッチであることを示すテキスト(例えば「THIRD」のテキスト)を含み、かつ、このときのタッチ位置(すなわち折り曲げ部B1,B2間の中央部に対応する位置)を示す吹き出し状の画像I5_3を描画する。画像作成制御部51は、吹き出し状の画像I5_3を作成画像に含める。
 次いで、タッチ操作による矢印状の画像I3の描画が完了する。画像作成制御部51は、矢印状の画像I3を作成画像に含める。
 これにより、矢印状の画像I3に加えて、吹き出し状の画像I5_1~I5_3が案内対象空間R内の床面に投影される。被案内人は、当該投影された画像I3,I5_1~I5_3を視認することにより、案内人の発話又はジェスチャなどによる説明に対応する位置が、実際の案内対象空間Rにおけるどこであるのかを、視覚的に容易に認識することができる。すなわち、図16に示す例によれば、発話又はジェスチャなどを用いた説明を案内人がしたとき、当該説明の内容を被案内人に正確かつ容易に伝達することができる。
 なお、吹き出し状の画像は、編集用画面S2内の各位置に対するタップ回数に応じて描画されるものであっても良い。例えば、編集用画面S2における任意の位置が1回タップされたとき、「FIRST」のテキストを含み、かつ、当該タップされた位置を示す吹き出し状の画像が描画されるものであっても良い。次いで、編集用画面S2における他の任意の位置が連続的に2回タップされたとき、「NEXT」のテキストを含み、かつ、当該タップされた位置を示す吹き出し状の画像が描画されるものであっても良い。次いで、編集用画面S2における他の任意の位置が連続的に3回タップされたとき、「THIRD」のテキストを含み、かつ、当該タップされた位置を示す吹き出し状の画像が描画されるものであっても良い。
 次に、図17のフローチャートを参照して、案内支援制御装置100bの動作について、画像作成制御部51及び作成画像出力指示部52の動作を中心に説明する。表示制御部21は、案内支援システム200の動作中に、編集用画面S2の表示を指示する操作が操作入力部17に入力されたとき、編集用画面S2を表示部16に表示させる。図17に示すステップST11,ST12の処理のうちの少なくともステップST11の処理は、編集用画面S2が表示部16に表示されている状態にて実行される。
 まず、ステップST11にて、画像作成制御部51は、案内人による操作入力部17に対する操作入力に応じて、出力装置群1による出力対象となる画像、すなわち出力装置群1による投影対象となる画像を作成する制御を実行する。画像作成制御部51による画像作成制御の具体例は、図14~図16を参照して既に説明したとおりであるため、再度の説明は省略する。
 次いで、ステップST12にて、作成画像出力指示部52は、作成画像の出力、すなわち作成画像の投影を出力装置群1に指示する。作成画像出力指示部52による指示の具体例は上記のとおりであるため、再度の説明は省略する。
 このように、案内支援制御装置100bによれば、案内人が被案内人を案内するとき、出力装置群1による投影対象となる画像をリアルタイムに作成することができる。これにより、案内人による案内の自由度を更に向上することができる。また、図15を参照して説明したように、指示代名詞を用いた説明を案内人がしたとき、当該説明の内容を被案内人に正確かつ容易に伝達することができる。また、図16を参照して説明したように、発話又はジェスチャなどを用いた説明を案内人がしたとき、当該説明の内容を被案内人に正確かつ容易に伝達することができる。
 なお、作成画像は、図14~図16に示す具体例に限定されるものではない。案内人は、編集用画面S2に対するタッチ操作又は音声入力により、任意の画像を描画することができる。例えば、案内経路の内の曲がる必要のある角のみを示す画像、最終目的地を強調して示す画像、または案内経路を移動する人物をキャラクタで示す画像など如何なる形状を含む画像であっても良い。画像作成制御部51は、当該描画された任意の画像を作成画像に含める。
 また、作成画像出力指示部52が出力装置群1を形成する複数の出力装置2に対して同時に作成画像の出力、すなわち作成画像の投影を指示することに限定されない。例えば、作成画像出力指示部52が出力装置群1を形成する複数の出力装置2に対して時間差を付けて作成画像の投影を指示してもよい。このようにすることで、各出力装置2が作成画像を表示するタイミングをずらすことができ、出力装置群1全体にて投影された画像に動きが生まれ、アニメーションとして投影することができる。
 また、吹き出し状の画像I4_1,I4_2のテキストは操作入力部17のマイクに対する音声入力によって入力されたテキストに限らない。例えば、操作入力部17がキーボードを備え、案内人がキーボード入力によって入力されたテキストを吹き出し状の画像I4_1,I4_2のテキストとしても良い。あるいは、あらかじめ吹き出し状の画像I4_1,I4_2がメモリ43に記憶され、編集用画面S2の端の領域(不図示)にプリセット画像として表示されており、案内人が必要なプリセット画像を選択し、画像I1上に配置するとしても良い。
 そのほか、案内支援システム200は、実施の形態1,2にて説明したものと同様の種々の変形例を採用することができる。また、案内支援制御装置100bは、実施の形態1,2にて説明したものと同様の種々の変形例を採用することができる。
 以上のように、実施の形態3の案内支援制御装置100bは、案内支援システム200の動作中における案内人による操作入力に応じて、出力装置2による投影対象となる画像を作成する制御を実行する画像作成制御部51と、画像作成制御部51による作成画像の投影を出力装置2に指示する作成画像出力指示部52と、を備える。これにより、案内人による案内の自由度を更に向上することができる。また、指示代名詞を用いた説明を案内人がしたとき、当該説明の内容を被案内人に正確かつ容易に伝達することができる。また、発話又はジェスチャなどを用いた説明を案内人がしたとき、当該説明の内容を被案内人に正確かつ容易に伝達することができる。
実施の形態4.
 図18は、実施の形態4に係る案内支援制御装置の要部を示すブロック図である。図18を参照して、実施の形態4に係る案内支援制御装置100cについて説明する。
 なお、案内支援システム200のシステム構成は、実施の形態1にて図1を参照して説明したものと同様であるため、図示及び説明を省略する。また、個々の出力装置2の構成は、実施の形態1にて図2を参照して説明したものと同様であるため、図示及び説明を省略する。また、端末装置3の構成は、実施の形態1にて図3を参照して説明したものと同様であるため、図示及び説明を省略する。また、図18において、図12に示すブロックと同様のブロックには同一符号を付して説明を省略する。
 画像登録制御部53は、画像作成制御部51により画像が作成されたとき、当該作成画像を新たなプリセット画像として登録する制御を実行するものである。より具体的には、画像登録制御部53は、当該作成画像を示す画像データ(以下「作成画像データ」という。)を新たなプリセット画像データとして追加的に画像データ記憶部22に記憶させる制御を実行するものである。
 したがって、案内支援制御装置100cにおいては、画像選択制御部31が複数個のプリセット画像のうちの1個のプリセット画像を選択する制御を実行するとき、当該複数個のプリセット画像に過去の作成画像が含まれ得るものである。以下、当該複数個のプリセット画像のうち、画像データ記憶部22に予め記憶されていたプリセット画像データに対応するプリセット画像を「初期プリセット画像」という。また、当該複数個のプリセット画像のうち、画像データ記憶部22に追加的に記憶されたプリセット画像データ(すなわち作成画像データ)に対応するプリセット画像を「追加プリセット画像」という。
 選択画像出力指示部33aは、選択プリセット画像が初期プリセット画像である場合、選択プリセット画像の投影を選択出力装置2に指示するものである。この場合における選択画像出力指示部33aによる指示は、選択画像出力指示部33による指示と同様であるため、詳細な説明は省略する。
 他方、選択プリセット画像が追加プリセット画像である場合、選択画像出力指示部33aは、選択プリセット画像の投影を出力装置群1に指示する。この場合における選択画像出力指示部33aによる指示は、作成画像出力指示部52による指示と同様であるため、詳細な説明は省略する。
 画像選択制御部31、装置選択制御部32、選択画像出力指示部33a、画像作成制御部51、作成画像出力指示部52及び画像登録制御部53により、案内支援制御装置100cの要部が構成されている。
 案内支援制御装置100cを含む制御部15のハードウェア構成は、実施の形態1にて図6を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、表示制御部21、画像選択制御部31、装置選択制御部32、選択画像出力指示部33a、画像作成制御部51、作成画像出力指示部52及び画像登録制御部53の各々の機能は、プロセッサ41及びメモリ42により実現されるものであっても良く、又は専用の処理回路44により実現されるものであっても良い。
 次に、図19のフローチャートを参照して、案内支援制御装置100cの動作について、画像作成制御部51、作成画像出力指示部52及び画像登録制御部53の動作を中心に説明する。なお、図19において、図17に示すステップと同様のステップには同一符号を付して説明を省略する。
 まず、ステップST11,ST12の処理が実行される。
 次いで、ステップST13にて、画像登録制御部53は、ステップST11における作成画像を追加プリセット画像として登録する制御を実行する。より具体的には、画像登録制御部53は、当該作成画像を示す作成画像データを新たなプリセット画像データとして追加的に画像データ記憶部22に記憶させる制御を実行する。なお、ステップST12,ST13の処理は、互いに並列に実行されるものであっても良い。または、ステップST13の処理が先に実行されて、次いで、ステップST12の処理が実行されるものであっても良い。
 次に、図20のフローチャートを参照して、案内支援制御装置100cの動作について、画像選択制御部31、装置選択制御部32及び選択画像出力指示部33aの動作を中心に説明する。なお、図20において、図7に示すステップと同様のステップには同一符号を付して説明を省略する。
 まず、ステップST1の処理が実行される。ステップST1における選択プリセット画像が初期プリセット画像である場合(ステップST21“NO”)、ステップST2,ST3の処理が実行される。
 他方、ステップST1における選択プリセット画像が追加プリセット画像である場合(ステップST21“YES”)、ステップST22にて、選択画像出力指示部33aは、選択プリセット画像の投影を出力装置群1に指示する。ステップST22における選択画像出力指示部33aによる指示は、ステップST12における作成画像出力指示部52による指示と同様であるため、詳細な説明は省略する。
 なお、作成画像が複数個の画像により構成されている場合、画像データ記憶部22に記憶される作成画像データは、当該複数個の画像のうちの一部の画像のみを示すものであっても良い。より具体的には、画像データ記憶部22に記憶される作成画像データは、当該複数個の画像のうちの案内における汎用性が高い画像のみを示すものであっても良い。
 例えば、図15に示す例における作成画像は、矢印状の画像I3に加えて、吹き出し状の画像I4_1,I4_2を含むものであった。矢印状の画像I3は、端末装置3の位置P1から案内対象地点(例えば第5ゲートG5)までの案内において、汎用的に使用される画像であると考えられる。他方、吹き出し状の画像I4_1,I4_2は、案内人による描画時の発話に応じたものであり、次回以降の案内において使用される蓋然性が低いと考えられる。そこで、画像登録制御部53は、作成画像のうちの矢印状の画像I3のみを示す作成画像データを画像データ記憶部22に記憶させる。これにより、矢印状の画像I3が追加プリセット画像として登録される。図16に示す例についても同様である。
 また、画像登録制御部53は、所定期間(例えば1日)ΔT2が経過する毎に、画像データ記憶部22に記憶されている作成画像テータ、すなわち追加プリセット画像を示すプリセット画像データを削除する制御を実行するものであっても良い。または、画像登録制御部53は、端末装置3におけるログアウト処理が実行される毎に、当該制御を実行するものであっても良い。これにより、画像データ記憶部22におけるプリセット画像データの記憶数が過度に増加するのを回避することができる。
 また、画像登録制御部53は、所定期間(例えば1日)ΔT2が経過する毎に、それ以前に登録された追加プリセット画像を選択用画面S1における表示対象から除外する制御を実行するものであっても良い。または、画像登録制御部53は、端末装置3におけるログアウト処理が実行される毎に、当該制御を実行するものであっても良い。これにより、選択用画面S1におけるプリセット画像の表示数、より具体的には領域A1におけるサムネイル画像の表示数が過度に増加するのを回避することができる。
 なお、当該制御において追加プリセット画像は表示対象から除外されるが、画像データ記憶部22には登録されたままであり、案内人の要求により再度表示対象に追加する制御を実行してもよい。
 ここで、所定期間ΔT2の値は、操作入力部17に対する操作入力により設定自在なものであっても良い。あるいは、所定期間ΔT2として外部情報、例えばカレンダ情報に基づいて、設定してもよい。例えば、案内対象空間Rが空港のロビーである場合において、お盆又は年末年始などの連休を示す情報をカレンダ情報として取得し、当該連休中期間を所定期間ΔT2として設定する。これにより空港利用者が増加することが想定される期間において、案内人は同じ追加プリセット画像を利用することができる。
 次に、図21を参照して、実施の形態4に係る他の案内支援制御装置100cについて説明する。
 図21に示す例において、画像選択制御部31aは、複数個のプリセット画像の各々について、選択用画面S1における表示優先度を設定する機能を有している。表示優先度は、例えば、高低の2値により表されるものである。以下、複数個のプリセット画像のうち、表示優先度が高値に設定されているプリセット画像を「推奨プリセット画像」という。また、複数個のプリセット画像のうち、表示優先度が低値に設定されているプリセット画像を「非推奨プリセット画像」という。
 画像選択制御部31aは、推奨プリセット画像を選択用画面S1における表示対象に含めるとともに、非推奨プリセット画像を選択用画面S1における表示対象から除外する機能を有している。または、画像選択制御部31aは、領域A1と異なる他の領域(不図示)であって、推奨プリセット画像に対応するサムネイル画像が表示される領域を選択用画面S1に含める機能を有している。
 すなわち、各プリセット画像に対する表示優先度の設定は、各プリセット画像が推奨プリセット画像であるか否かの判定でもある。各プリセット画像が推奨プリセット画像であるか否かの判定には、例えば、以下のような情報を含むデータベース(以下「推奨用データベース」という。)が用いられる。推奨用データベースは、推奨用データベース記憶部(以下「推奨用DB記憶部」と記載する。)23に記憶されている。推奨用DB記憶部23の機能は、例えば、端末装置3のメモリ43により実現される。
 第一に、推奨用データベースは、端末装置3の位置P1毎にかつ案内対象地点毎に、初期設定の案内経路を示す情報(以下「初期設定情報」という。)を含むものである。初期設定の案内経路は、例えば、案内対象空間Rが空港のロビーである場合、当該空港の構造に基づき設定されたものである。画像選択制御部31aは、例えば、案内支援システム200が導入されてから所定期間が経過するまで、初期設定の案内経路を示すプリセット画像を推奨プリセット画像に含める。
 第二に、推奨用データベースは、端末装置3の位置P1毎にかつ作成画像の内容毎に、作成画像が追加プリセット画像として登録された回数、すなわち作成画像データが画像データ記憶部22に記憶された回数の履歴を示す情報(以下「登録履歴情報」という。)を含むものである。画像選択制御部31aは、例えば、登録履歴情報の示す回数が所定回数(例えば100回)以上である追加プリセット画像を推奨プリセット画像に含める。
 第三に、推奨用データベースは、案内対象空間Rにおけるスケジュールを示す情報(以下「スケジュール情報」という。)を含むものである。例えば、案内対象空間Rが空港のロビーである場合、スケジュール情報は、当該空港における航空会社毎の飛行機の発着スケジュールを示すものである。または、案内対象空間Rが駅構内である場合、スケジュール情報は、当該駅における電車の発着スケジュールを示すものである。または、案内対象空間Rが百貨店である場合、スケジュール情報は、当該百貨店における季節毎のイベントスケジュールを示すものである。画像選択制御部31aは、これらのスケジュールに応じて、各プリセット画像が推奨プリセット画像であるか否かを判定する。判定方法としては、スケジュール毎に推奨プリセット画像が予め設定されている、あるいは案内人が作成画像データを新たに登録する際にスケジュールに関する情報も合わせて登録し、判定時には当該スケジュールに関する情報に基づいて該当スケジュールを判定するなどの方法であればよい。
 例えば、案内対象空間Rが百貨店である場合において、年末のイベント開催期間中に登録された追加プリセット画像は、年明け後に案内人による使用需要が低下する一方、翌年以降の年末のイベント開催期間中に案内人による使用需要が再び上昇すると考えられる。また、お盆のイベント開催期間中に登録された追加プリセット画像についても同様である。これに対して、スケジュール情報を用いることにより、現在開催中のイベントに応じて、案内人による使用需要が高い追加プリセット画像を推奨プリセット画像に含めることができる。
 なお、推奨用データベースに含まれる情報は、上記の具体例に限定されるものではない。画像選択制御部31aは、各プリセット画像が推奨プリセット画像であるか否かの判定に種々の情報を用いることができる。
 そのほか、案内支援システム200は、実施の形態1~3にて説明したものと同様の種々の変形例を採用することができる。また、案内支援制御装置100cは、実施の形態1~3にて説明したものと同様の種々の変形例を採用することができる。
 以上のように、実施の形態4に係る案内支援制御装置100cは、作成画像を複数個のプリセット画像に含める制御を実行する画像登録制御部53を備え、複数個のプリセット画像は、作成画像に対応する追加プリセット画像を含む。これにより、作成画像を次回以降の案内に用いることができる。
実施の形態5.
 図22は、実施の形態5に係る案内支援制御装置の要部を示すブロック図である。図22を参照して、実施の形態5に係る案内支援制御装置100dについて説明する。
 なお、案内支援システム200のシステム構成は、実施の形態1にて図1を参照して説明したものと同様であるため、図示及び説明を省略する。また、個々の出力装置2の構成は、実施の形態1にて図2を参照して説明したものと同様であるため、図示及び説明を省略する。また、端末装置3の構成は、実施の形態1にて図3を参照して説明したものと同様であるため、図示及び説明を省略する。また、図22において、図18に示すブロックと同様のブロックには同一符号を付して説明を省略する。
 案内支援制御装置100b,100cにおいては、案内人による任意の画像の描画が可能なものであった。このため、案内支援制御装置100cにおいては、当該描画された任意の画像(すなわち作成画像)が追加プリセット画像として登録されて、次回以降の案内に使用され得るものであった。
 ここで、案内対象空間Rにおける端末装置3の位置P1が固定されていない場合、作成画像の投影時(すなわち第1回目の投影時)における端末装置3の位置P1に対して、当該作成画像に対応する追加プリセット画像の投影時(すなわち第2回目以降の投影時)における端末装置3の位置P1が異なり得るものである。このため、端末装置3の位置P1に基づき、作成画像の投影位置(図23A参照)に対して、当該作成画像に対応する追加プリセット画像の投影位置(図23B参照)がずれる可能性がある。
 これに対して、案内支援制御装置100dは、投影対象となる画像の描画に制限を設けることにより、当該ずれの発生を回避するものである。
 画像作成制御部51aは、案内支援システム200の動作中に、案内人による操作入力部17に対する操作入力に応じて、出力装置群1による出力対象となる画像、すなわち出力装置群1による投影対象となる画像を作成する制御を実行するものである。画像作成制御部51aによる画像作成制御は、例えば、表示制御部21が編集用画面S3を表示部16に表示させている状態にて実行される。
 図24は、編集用画面S3の具体例を示している。図24に示す如く、編集用画面S3は、案内対象空間Rの平面図に対応する画像I1、及び端末装置3の位置P1に対応する点状の画像I2を含むものである。これに加えて、編集用画面S3は、画像I1内に配列された複数個の点状の画像(以下「補助点」という。)I6を含むものである。すなわち、複数個の補助点I6は、案内対象空間Rにおける固定された複数個の位置P2にそれぞれ対応するものである。
 複数個の補助点I6の各々の表示には、案内対象空間Rにおける対応する位置P2を示す情報(以下「補助点位置情報」という。)が用いられる。補助点位置情報は、例えば、端末装置3のメモリ43に予め記憶されている。
 また、編集用画面S3は、描画対象となる画像の形状を示すアイコン画像I7を含むものである。図24に示す例においては、矢印状の画像I3が描画対象であるため、矢印の形状を示すアイコン画像I7が表示されている。
 表示部16に編集用画面S3が表示された状態にて、案内人は、操作入力部17のタッチパネルを用いたタッチ操作により、複数個の補助点I6のうちの1個以上の補助点I6を選択する。画像作成制御部51aは、当該選択された補助点(以下「選択補助点」という。)I6を通る矢印状の画像I3であって、端末装置3の位置P1から案内対象地点(例えば第5ゲートG5)までの案内経路に対応する矢印状の画像I3を描画する。図25は、矢印状の画像I3の例を示している。画像作成制御部51aは、矢印状の画像I3を作成画像に含める。
 これにより、矢印状の画像I3が案内対象空間R内の床面に投影される。このとき、案内対象空間R内の床面における画像I3の投影位置は、端末位置情報及び補助点位置情報を用いて、端末装置3の位置P1及び選択補助点I6に対応する位置P2に基づき設定される。
 画像登録制御部53aは、画像作成制御部51aにより画像が作成されたとき、当該作成画像を新たなプリセット画像として登録する制御を実行するものである。より具体的には、画像登録制御部53aは、当該作成画像の形状を示す情報、すなわち当該作成画像の描画時におけるアイコン画像I7の形状を示す情報(以下「画像形状情報」という。)を画像データ記憶部22に記憶させる制御を実行する。ここで、本実施の形態において画像形状情報は、画像I3の形状である矢印を示す情報である。また、画像登録制御部53aは、当該作成画像が通る補助点I6を示す情報、すなわち当該作成画像の描画時における選択補助点I6を示す情報(以下「選択補助点情報」という。)を画像データ記憶部22に記憶させる。案内支援制御装置100dにおいては、画像形状情報及び選択補助点情報により作成画像データが構成されている。
 選択画像出力指示部33bは、選択プリセット画像が初期プリセット画像である場合、選択プリセット画像の投影を選択出力装置2に指示するものである。この場合における選択画像出力指示部33bによる指示は、選択画像出力指示部33による指示と同様であるため、詳細な説明は省略する。
 他方、選択プリセット画像が追加プリセット画像である場合、選択画像出力指示部33bは、選択プリセット画像の投影を出力装置群1に指示する。このとき、選択画像出力指示部33bは、端末位置情報に基づき、端末装置3の位置P1に応じて補正された選択プリセット画像の投影を出力装置群1に指示する。
 図26は、選択プリセット画像が図25に示す作成画像に対応する追加プリセット画像である場合における、端末装置3の位置P1に応じて補正された選択プリセット画像の例を示している。図26に示す矢印状の画像I3’は、図25に示す矢印状の画像I3に対して、端末装置3の位置P1に応じて当該矢印の始点部が補正されたものである。
 ここで、案内対象空間R内の床面における画像I3’の投影位置は、端末位置情報及び補助点位置情報を用いて、端末装置3の位置P1及び選択補助点I6に対応する位置P2に基づき設定される。これにより、上記ずれの発生を回避することができる。
 画像選択制御部31、装置選択制御部32、選択画像出力指示部33b、画像作成制御部51a、作成画像出力指示部52及び画像登録制御部53aにより、案内支援制御装置100dの要部が構成されている。
 案内支援制御装置100dを含む制御部15のハードウェア構成は、実施の形態1にて図6を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、表示制御部21、画像選択制御部31、装置選択制御部32、選択画像出力指示部33b、画像作成制御部51a、作成画像出力指示部52及び画像登録制御部53aの各々の機能は、プロセッサ41及びメモリ42により実現されるものであっても良く、又は専用の処理回路44により実現されるものであっても良い。
 次に、図27のフローチャートを参照して、案内支援制御装置100dの動作について、画像作成制御部51a、作成画像出力指示部52及び画像登録制御部53aの動作を中心に説明する。なお、図27において、図19に示すステップと同様のステップには同一符号を付して説明を省略する。
 まず、ステップST11aにて、画像作成制御部51aは、案内人による操作入力部17に対する操作入力に応じて、出力装置群1による出力対象となる画像、すなわち出力装置群1による投影対象となる画像を作成する制御を実行する。画像作成制御部51aによる画像作成制御の具体例は、図24及び図25を参照して既に説明したとおりであるため、再度の説明は省略する。
 次いで、ステップST12の処理が実行される。
 次いで、ステップST13aにて、画像登録制御部53aは、ステップST11aにおける作成画像を追加プリセット画像として登録する制御を実行する。より具体的には、画像登録制御部53は、当該作成画像に係る画像形状情報及び選択補助線情報を画像データ記憶部22に記憶させる制御を実行する。なお、ステップST12,ST13aの処理は、互いに並列に実行されるものであっても良い。または、ステップST13aの処理が先に実行されて、次いで、ステップST12の処理が実行されるものであっても良い。
 次に、図28のフローチャートを参照して、案内支援制御装置100dの動作について、画像選択制御部31、装置選択制御部32及び選択画像出力指示部33bの動作を中心に説明する。なお、図28において、図20に示すステップと同様のステップには同一符号を付して説明を省略する。
 まず、ステップST1の処理が実行される。ステップST1における選択プリセット画像が初期プリセット画像である場合(ステップST21“NO”)、ステップST2,ST3の処理が実行される。
 他方、ステップST1における選択プリセット画像が追加プリセット画像である場合(ステップST21“YES”)、ステップST22aにて、選択画像出力指示部33bは、選択プリセット画像の投影を出力装置群1に指示する。このとき、選択画像出力指示部33bは、端末位置情報に基づき、端末装置3の位置P1に応じて補正された選択プリセット画像の投影を出力装置群1に指示する。
 なお、作成画像の形状は矢印に限定されるものではない。作成画像は、1個以上の補助点I6を通る線状の画像を含むものであれば、如何なる形状によるものであっても良い。
 そのほか、案内支援システム200は、実施の形態1~4にて説明したものと同様の種々の変形例を採用することができる。また、案内支援制御装置100dは、実施の形態1~4にて説明したものと同様の種々の変形例を採用することができる。
 以上のように、実施の形態5に係る案内支援制御装置100dにおいて、作成画像は、複数個の補助点I6のうちの1個以上の補助点I6を通る線状の画像を含み、複数個の補助点I6は、案内対象空間Rにおける複数個の位置P2にそれぞれ対応するものである。これにより、選択プリセット画像が追加プリセット画像である場合に、上記ずれの発生を回避することができる。
実施の形態6.
 図29は、実施の形態6に係る案内支援制御装置の要部を示すブロック図である。図29を参照して、実施の形態6に係る案内支援制御装置100eについて説明する。
 なお、案内支援システム200のシステム構成は、実施の形態1にて図1を参照して説明したものと同様であるため、図示及び説明を省略する。また、個々の出力装置2の構成は、実施の形態1にて図2を参照して説明したものと同様であるため、図示及び説明を省略する。また、端末装置3の構成は、実施の形態1にて図3を参照して説明したものと同様であるため、図示及び説明を省略する。また、図29において、図22に示すブロックと同様のブロックには同一符号を付して説明を省略する。
 空間状態情報取得部61は、案内対象空間R内に設けられているセンサ類(不図示)を用いて、空間状態情報取得部61内の状態を示す情報(以下「空間状態情報」という。)を取得するものである。
 具体的には、例えば、案内対象空間R内に1個以上の人感センサが設けられている。この場合、空間状態情報は、案内対象空間R内の混雑度分布を示す情報を含むものである。図30は、空間状態情報が示す混雑度分布の例を示している。
 画像修正制御部62は、画像作成制御部51aにより画像が作成されたとき、空間状態情報を用いて、当該作成画像の修正の要否を判定するものである。画像修正制御部62は、当該作成画像の修正が要であると判定された場合、空間状態情報を用いて、当該作成画像を修正する制御を実行するものである。
 また、画像修正制御部62は、画像選択制御部31によりプリセット画像が選択されたとき、当該選択プリセット画像が追加プリセット画像である場合、空間状態情報を用いて、当該選択プリセット画像の修正の要否を判定するものである。画像修正制御部62は、当該選択プリセット画像の修正が要であると判定された場合、空間状態情報を用いて、当該選択プリセット画像を修正する制御を実行するものである。
 例えば、図31に示す如く、作成画像が矢印状の画像I3を含むものであり、かつ、画像I3の一部が混雑度の高い領域を通過しているものとする。この場合、画像修正制御部62は、作成画像の修正が要であると判定して、混雑度の高い領域を回避するように作成画像を修正する。図32は、画像修正制御部62により修正された作成画像の例を示している。図32に示す如く、矢印状の画像I3”は、混雑度の高い領域を回避したものである。なお、選択プリセット画像の修正の具体例は作成画像の修正の具体例と同様であるため、図示及び説明を省略する。
 以下、画像修正制御部62により修正された作成画像及び画像修正制御部62により修正された選択プリセット画像を総称して「修正画像」という。
 修正画像出力指示部63は、修正画像の出力、すなわち修正画像の投影を出力装置群1に指示するものである。修正画像出力指示部63による指示は、作成画像出力指示部52による指示、又は選択プリセット画像が追加プリセット画像である場合における選択画像出力指示部33bによる指示と同様であるため、詳細な説明は省略する。
 画像選択制御部31、装置選択制御部32、選択画像出力指示部33b、画像作成制御部51a、作成画像出力指示部52及び画像登録制御部53aにより、第1案内支援制御部71が構成されている。空間状態情報取得部61、画像修正制御部62及び修正画像出力指示部63により、第2案内支援制御部72が構成されている。第1案内支援制御部71及び第2案内支援制御部72により、案内支援制御装置100eの要部が構成されている。
 案内支援制御装置100eを含む制御部15のハードウェア構成は、実施の形態1にて図6を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、表示制御部21、画像選択制御部31、装置選択制御部32、選択画像出力指示部33b、画像作成制御部51a、作成画像出力指示部52、画像登録制御部53a、空間状態情報取得部61、画像修正制御部62及び修正画像出力指示部63の各々の機能は、プロセッサ41及びメモリ42により実現されるものであっても良く、又は専用の処理回路44により実現されるものであっても良い。
 次に、図33のフローチャートを参照して、案内支援制御装置100eの動作について、画像修正制御部62が作成画像を修正する動作を中心に説明する。なお、図33において、図27に示すステップと同様のステップには同一符号を付して説明を省略する。
 まず、ステップST11aの処理が実行される。
 次いで、ステップST31にて、空間状態情報取得部61が空間状態情報を取得する。次いで、ステップST32にて、画像修正制御部62は、当該取得された空間状態情報を用いて、ステップST11aにおける作成画像に対する修正の要否を判定する。画像修正制御部62による判定の具体例は上記のとおりであるため、再度の説明は省略する。当該作成画像の修正が不要であると判定された場合(ステップST32“NO”)、ステップST12,ST13aの処理が実行される。
 他方、当該作成画像の修正が要であると判定された場合(ステップST32“YES”)、ステップST33にて、画像修正制御部62は、上記取得された空間状態情報を用いて、当該作成画像を修正する制御を実行する。画像修正制御部62による修正の具体例は上記のとおりであるため、再度の説明は省略する。次いで、ステップST34にて、修正画像出力指示部63は、ステップST33における修正画像の投影を出力装置群1に指示する。次いで、ステップST13aの処理が実行される。なお、追加プリセット画像として登録される画像を作成画像としているが、修正画像であってもよい。この場合、常習的に混雑度の高い領域を回避できる案内経路を追加プリセット画像として登録することができる。
 次に、図34のフローチャートを参照して、案内支援制御装置100eの動作について、選択プリセット画像が追加プリセット画像である場合における、画像修正制御部62が選択プリセット画像を修正する動作を中心に説明する。なお、図34において、図28に示すステップと同様のステップには同一符号を付して説明を省略する。
 まず、ステップST1の処理が実行される。ステップST1における選択プリセット画像が初期プリセット画像である場合(ステップST21“NO”)、ステップST2,ST3の処理が実行される。
 他方、ステップST1における選択プリセット画像が追加プリセット画像である場合(ステップST21“YES”)、ステップST31aにて、空間状態情報取得部61が空間状態情報を取得する。次いで、ステップST32aにて、画像修正制御部62は、当該取得された空間状態情報を用いて、ステップST1における選択プリセット画像に対する修正の要否を判定する。画像修正制御部62による判定の具体例は上記のとおりであるため、再度の説明は省略する。当該選択プリセット画像の修正が不要であると判定された場合(ステップST32a“NO”)、ステップST22aの処理が実行される。
 他方、当該選択プリセット画像の修正が要であると判定された場合(ステップST32a“YES”)、ステップST33aにて、画像修正制御部62は、上記取得された空間状態情報を用いて、当該選択プリセット画像を修正する制御を実行する。画像修正制御部62による修正の具体例は上記のとおりであるため、再度の説明は省略する。次いで、ステップST34aにて、修正画像出力指示部63は、ステップST33aにおける修正画像の投影を出力装置群1に指示する。
 なお、空間状態情報の取得に用いられるセンサ類は、1個以上の人感センサに限定されるものではない。また、空間状態情報は、案内対象空間R内の混雑度分布を示す情報に限定されるものではない。
 例えば、案内対象空間R内に1個以上の煙センサが設けられているものであっても良い。この場合、空間状態情報は、案内対象空間R内の煙濃度分布を示す情報を含むものであっても良い。画像修正制御部62による修正は、作成画像又は選択プリセット画像に含まれる線状の画像を、煙濃度の高い領域を回避するように修正するものであっても良い。
 また、案内対象空間R内に1個以上の温度センサが設けられているものであっても良い。この場合、空間状態情報は、案内対象空間R内の温度分布を示す情報を含むものであっても良い。画像修正制御部62による修正は、作成画像又は選択プリセット画像に含まれる線状の画像を、温度の高い領域を回避するように修正するものであっても良い。
 これにより、例えば、火災発生時に適切な避難経路の案内を実現することができる。
 また、図35に示す如く、空間状態情報が示す混雑度分布、煙濃度分布又は温度分布に対応する画像I8が編集用画面S4に含まれるものであっても良い。これにより、混雑度、煙濃度又は温度の高い領域を回避した線状の画像が描画されるように、案内人が複数個の補助点I6のうちの1個以上の補助点I6を選択するものであっても良い。
 そのほか、案内支援システム200は、実施の形態1~5にて説明したものと同様の種々の変形例を採用することができる。また、案内支援制御装置100eは、実施の形態1~5にて説明したものと同様の種々の変形例を採用することができる。
 以上のように、実施の形態6に係る案内支援制御装置100eは、案内対象空間R内の状態を示す空間状態情報を取得する空間状態情報取得部61と、空間状態情報を用いて作成画像を修正する制御を実行する画像修正制御部62と、画像修正制御部62による修正画像の投影を出力装置2に指示する修正画像出力指示部63と、を備える。これにより、案内対象空間R内の混雑度分布、煙濃度分布又は温度分布などに応じて、適切な経路の案内を実現することができる。
 また、実施の形態6に係る案内支援制御装置100eは、案内対象空間R内の状態を示す空間状態情報を取得する空間状態情報取得部61と、選択プリセット画像が追加プリセット画像である場合、空間状態情報を用いて選択プリセット画像を修正する制御を実行する画像修正制御部62と、画像修正制御部62による修正画像の投影を出力装置2に指示する修正画像出力指示部63と、を備える。これにより、案内対象空間R内の混雑度分布、煙濃度分布又は温度分布などに応じて、適切な経路の案内を実現することができる。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 本発明の案内支援制御装置及び案内支援システムは、例えば、空港のロビーにおけるスタッフによる利用者の案内に用いることができる。
 1 出力装置群、2 出力装置、3 端末装置、4 ネットワーク、11 投影部、12 通信部、13 制御部、14 通信部、15 制御部、16 表示部、17 操作入力部、21 表示制御部、22 画像データ記憶部、23 推奨用データベース記憶部(推奨用DB記憶部)、31,31a 画像選択制御部、32 装置選択制御部、33,33a,33b 選択画像出力指示部、34 出力継続指示部、41 プロセッサ、42 メモリ、43 メモリ、44 処理回路、51,51a 画像作成制御部、52 作成画像出力指示部、53,53a 画像登録制御部、61 空間状態情報取得部、62 画像修正制御部、63 修正画像出力指示部、71 第1案内支援制御部、72 第2案内支援制御部、100,100a,100b,100c,100d,100e 案内支援制御装置、200 案内支援システム。

Claims (8)

  1.  出力装置により案内対象空間内に投影される画像を用いて、案内人による被案内人の案内を支援する案内支援システム用の案内支援制御装置であって、
     前記案内支援システムの動作中における前記案内人による操作入力に応じて、複数個のプリセット画像のうちのいずれかのプリセット画像を選択する制御を実行する画像選択制御部と、
     前記画像選択制御部による選択プリセット画像の投影を前記出力装置に指示する選択画像出力指示部と、
     を備えることを特徴とする案内支援制御装置。
  2.  前記選択プリセット画像が所定期間内に選択された回数のカウント値が閾値以上である場合、前記選択プリセット画像の投影の継続を前記出力装置に指示する出力継続指示部を備えることを特徴とする請求項1記載の案内支援制御装置。
  3.  前記案内支援システムの動作中における前記案内人による操作入力に応じて、前記出力装置による投影対象となる画像を作成する制御を実行する画像作成制御部と、
     前記画像作成制御部による作成画像の投影を前記出力装置に指示する作成画像出力指示部と、
     を備えることを特徴とする請求項1記載の案内支援制御装置。
  4.  前記作成画像を前記複数個のプリセット画像に含める制御を実行する画像登録制御部を備え、
     前記複数個のプリセット画像は、前記作成画像に対応する追加プリセット画像を含む
     ことを特徴とする請求項3記載の案内支援制御装置。
  5.  前記作成画像は、複数個の補助点のうちの1個以上の補助点を通る線状の画像を含み、
     前記複数個の補助点は、前記案内対象空間における複数個の位置にそれぞれ対応するものである
     ことを特徴とする請求項4記載の案内支援制御装置。
  6.  前記案内対象空間内の状態を示す空間状態情報を取得する空間状態情報取得部と、
     前記空間状態情報を用いて前記作成画像を修正する制御を実行する画像修正制御部と、
     前記画像修正制御部による修正画像の投影を前記出力装置に指示する修正画像出力指示部と、
     を備えることを特徴とする請求項5記載の案内支援制御装置。
  7.  前記案内対象空間内の状態を示す空間状態情報を取得する空間状態情報取得部と、
     前記選択プリセット画像が前記追加プリセット画像である場合、前記空間状態情報を用いて前記選択プリセット画像を修正する制御を実行する画像修正制御部と、
     前記画像修正制御部による修正画像の投影を前記出力装置に指示する修正画像出力指示部と、
     を備えることを特徴とする請求項5記載の案内支援制御装置。
  8.  出力装置により案内対象空間内に投影される画像を用いて、案内人による被案内人の案内を支援する案内支援システムであって、
     当該案内支援システムの動作中における前記案内人による操作入力に応じて、複数個のプリセット画像のうちのいずれかのプリセット画像を選択する制御を実行する画像選択制御部と、
     前記画像選択制御部による選択プリセット画像の投影を前記出力装置に指示する選択画像出力指示部と、
     を備えることを特徴とする案内支援システム。
PCT/JP2018/045686 2018-12-12 2018-12-12 案内支援制御装置及び案内支援システム WO2020121439A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020559607A JP6840305B2 (ja) 2018-12-12 2018-12-12 案内支援制御装置及び案内支援システム
PCT/JP2018/045686 WO2020121439A1 (ja) 2018-12-12 2018-12-12 案内支援制御装置及び案内支援システム
CN201880100013.2A CN113168793A (zh) 2018-12-12 2018-12-12 引导支援控制装置及引导支援系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/045686 WO2020121439A1 (ja) 2018-12-12 2018-12-12 案内支援制御装置及び案内支援システム

Publications (1)

Publication Number Publication Date
WO2020121439A1 true WO2020121439A1 (ja) 2020-06-18

Family

ID=71075300

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/045686 WO2020121439A1 (ja) 2018-12-12 2018-12-12 案内支援制御装置及び案内支援システム

Country Status (3)

Country Link
JP (1) JP6840305B2 (ja)
CN (1) CN113168793A (ja)
WO (1) WO2020121439A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149053A (ja) * 2005-10-24 2007-06-14 Shimizu Corp 道案内システムおよび道案内方法
JP2014123277A (ja) * 2012-12-21 2014-07-03 Sony Corp 表示制御システム及び記録媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4049115B2 (ja) * 2004-03-15 2008-02-20 セイコーエプソン株式会社 プロジェクタ
JP5870586B2 (ja) * 2011-09-28 2016-03-01 カシオ計算機株式会社 プロジェクタ制御装置、表示装置及びプログラム。
KR101290722B1 (ko) * 2011-10-18 2013-07-29 성균관대학교산학협력단 이미지를 우산 창에 표시하는 방법, 이미지 표시 우산 및 이미지 표시 우산 시스템
US9250779B2 (en) * 2013-03-15 2016-02-02 Intel Corporation System and method for content creation
JP2016011905A (ja) * 2014-06-30 2016-01-21 アルパイン株式会社 案内システム、案内方法、サーバおよび電子装置
CN104368094A (zh) * 2014-10-30 2015-02-25 无锡艾科瑞思产品设计与研究有限公司 一种投影式应急逃生指示装置
JP6167308B2 (ja) * 2014-12-25 2017-07-26 パナソニックIpマネジメント株式会社 投影装置
US10262519B2 (en) * 2014-12-26 2019-04-16 Maxell, Ltd. Lighting apparatus
JP6885668B2 (ja) * 2015-09-24 2021-06-16 カシオ計算機株式会社 投影システム
JP6930076B2 (ja) * 2016-08-31 2021-09-01 株式会社リコー 画像投影システム、情報処理装置、画像投影方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007149053A (ja) * 2005-10-24 2007-06-14 Shimizu Corp 道案内システムおよび道案内方法
JP2014123277A (ja) * 2012-12-21 2014-07-03 Sony Corp 表示制御システム及び記録媒体

Also Published As

Publication number Publication date
CN113168793A (zh) 2021-07-23
JP6840305B2 (ja) 2021-03-10
JPWO2020121439A1 (ja) 2021-03-11

Similar Documents

Publication Publication Date Title
US11956609B2 (en) Context-aware voice guidance
AU2018324085B2 (en) Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments
US10592998B2 (en) Graphical user interface based airline travel planning
EP2672377B1 (en) Context-aware voice guidance
KR101351162B1 (ko) 플리킹을 이용한 리스트 선택 지원 단말 장치 및 방법
US9140570B1 (en) Time-inclusive route and trip planning
JP2020531941A (ja) 時間的近接性ベースの地図ユーザインタラクション
JP2018528416A (ja) ナビゲーション経路の表示方法、装置及び記憶媒体
US20120005630A1 (en) Highly Responsive Screen Output Device, Screen Output System, and Screen Output Method
WO2019000404A1 (zh) 控制终端和无人机及其控制方法
WO2016008410A1 (zh) 视频播放方法及系统
CN115756167A (zh) 对环境进行注释、测量和建模的系统、方法和用户界面
JP2008158342A (ja) 情報処理装置および情報処理装置の制御方法およびプログラムおよび記録媒体
WO2020121439A1 (ja) 案内支援制御装置及び案内支援システム
US8018452B1 (en) Incremental update of complex artwork rendering
CN112764627B (zh) 一种升级包安装进度显示方法及显示设备
US20150301707A1 (en) System And Method Of Graphical User Interface With Map Overlay For Area Marking On Electronic Devices
JPWO2017163639A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20200010144A (ko) 모바일 기기의 입력 인터페이스 내에서 맞춤법 검사를 지원하는 방법 및 시스템
US20130152108A1 (en) Method and apparatus for video processing
US20210090310A1 (en) Editing device, editing method, editing program storing medium, and editing system
US20070061602A1 (en) Information processing method, information-processing appartus, recording medium, and program
KR102392178B1 (ko) 출발 타이머 제공 방법 및 시스템
US20220187096A1 (en) Vehicle and Control Method Thereof
JPH08335157A (ja) スクロール制御装置および表示装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2020559607

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18943090

Country of ref document: EP

Kind code of ref document: A1