WO2023112463A1 - 空間浮遊映像情報表示システム - Google Patents

空間浮遊映像情報表示システム Download PDF

Info

Publication number
WO2023112463A1
WO2023112463A1 PCT/JP2022/038557 JP2022038557W WO2023112463A1 WO 2023112463 A1 WO2023112463 A1 WO 2023112463A1 JP 2022038557 W JP2022038557 W JP 2022038557W WO 2023112463 A1 WO2023112463 A1 WO 2023112463A1
Authority
WO
WIPO (PCT)
Prior art keywords
floating image
user
information display
display system
spatial
Prior art date
Application number
PCT/JP2022/038557
Other languages
English (en)
French (fr)
Inventor
宏明 ▲高▼橋
浩二 平田
浩司 藤田
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Publication of WO2023112463A1 publication Critical patent/WO2023112463A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/346Image reproducers using prisms or semi-transparent mirrors

Definitions

  • the present invention relates to a spatial floating image information display system.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2019-128722
  • the spatially floating image by the spatially floating image information display system as a user interface or man-machine interface that can be operated by the user, we would like to realize an interface that is excellent in usability and convenience.
  • the user can intuitively grasp the operation method, etc.
  • devices generally called "kiosk terminals” we would like to provide a user interface that is excellent in usability and convenience by means of spatially floating images.
  • the user interface formed by floating images in space for example, the operation menu such as push buttons
  • the operation menu such as push buttons
  • the risk of contact infection is minimized. It has the advantage of being able to limit We would like to realize a spatially floating image information display system that makes the most of these advantages.
  • a spatially floating image information display system is a spatially floating image information display system that forms a spatially floating image in the air.
  • retroreflecting member for forming the spatially floating image in the air by retroreflecting the image light
  • a sensing system including a sensor for detecting a user's operation on the spatially floating image
  • the image display device and a housing provided with the retroreflective member, and a control device that executes a predetermined process based on the detected operation, and when it is detected that the user approaches the housing , the image of the object is displayed as the spatial floating image.
  • the space floating image information display system is highly user-friendly and convenient, and provides an interface and necessary information using a space floating image suitable for users such as kiosk terminals. can provide. Problems, configurations, effects, etc. other than those described above will be described in the mode for carrying out the invention.
  • FIG. 1 is a diagram showing an example of a usage pattern of a spatially floating image information display system according to an embodiment
  • FIG. 1 is a diagram showing an example of an internal configuration of a spatial floating image information display system according to an embodiment
  • FIG. 1 is a diagram showing an example of a configuration of main parts and a configuration of a retroreflection part of a spatially floating image information display system according to an embodiment
  • FIG. 10 is a diagram showing another example of the configuration of the main part and the configuration of the retroreflection part of the spatially floating image information display system according to one embodiment
  • FIG. 4 is a perspective view showing an example of arrangement of members that block extraordinary rays generated by retroreflection according to an embodiment.
  • FIG. 4 is a cross-sectional view showing an example of arrangement of a member that blocks an extraordinary ray generated by retroreflection according to an embodiment
  • FIG. 2 is an explanatory diagram of a first sensing technique used in a spatially floating image information display system according to an embodiment
  • FIG. 10 is an explanatory diagram of a second sensing technique used in the spatially floating image information display system according to one embodiment
  • FIG. 4 is an explanatory diagram of the operation and device of a sensing system used in the spatially floating image information display system according to one embodiment; It is a figure which shows the characteristic of the spectral irradiance of sunlight.
  • FIG. 2 is an explanatory diagram of a first sensing technique used in a spatially floating image information display system according to an embodiment
  • FIG. 10 is an explanatory diagram of a second sensing technique used in the spatially floating image information display system according to one embodiment
  • FIG. 4 is an explanatory diagram of the operation and device of a sensing system used in the spatially floating image
  • FIG. 10 is a diagram showing reflection characteristics of polarized light incident on a medium with a refractive index of 1.5 with respect to the incident angle of light;
  • FIG. 10 is an explanatory diagram of a technique for inputting/drawing characters and the like in a spatially floating image according to an embodiment;
  • 1 is a diagram showing the main configuration of a spatially floating image information display system according to an embodiment of the present invention;
  • FIG. 10 is a diagram showing the main configuration of another spatially floating image information display system according to an embodiment of the present invention; It is a figure which shows an example of a kiosk terminal.
  • 1 is a diagram showing an appearance example of a kiosk terminal according to an example (Embodiment 1);
  • FIG. 3 is a diagram showing an example of a cross-sectional structure of a kiosk terminal according to Embodiment 1;
  • FIG. FIG. 10 is a diagram showing an appearance example of a kiosk terminal according to an example (Embodiment 2);
  • FIG. 10 is a diagram illustrating an example of a cross-sectional structure of a kiosk terminal according to Embodiment 2;
  • FIG. 10 is a diagram showing a display example of a kiosk terminal according to an example (Embodiment 3);
  • FIG. 10 is a diagram showing a first operation flow of a kiosk terminal according to Embodiment 3;
  • FIG. 12 is a diagram showing a second operation flow of the kiosk terminal according to Embodiment 3;
  • FIG. 10 is a diagram showing cooperative operation between a kiosk terminal and a mobile terminal according to an example (Embodiment 4);
  • FIG. 13 is a diagram showing an example of sign operation/display at a kiosk terminal according to an example (Embodiment 5);
  • FIG. 10 is a diagram showing a display example of a kiosk terminal according to a modification of the third embodiment;
  • FIG. 3 is a cross-sectional view showing a specific configuration example of a light source device; It is a structural diagram showing a specific configuration example of a light source device. It is a figure which shows the specific structural example of the light source device of another system.
  • FIG. 10 is a diagram showing an appearance example of a vending machine according to an example (another embodiment);
  • the main body as hardware for them is the processor or the controller composed of the processor etc. , devices, computers, systems, etc.
  • a computer executes processing according to a program read out on a memory by a processor while appropriately using resources such as a memory and a communication interface.
  • the processor is composed of, for example, a CPU (Central Processing Unit), a semiconductor device such as a GPU, or the like.
  • a processor is composed of devices and circuits capable of performing predetermined operations.
  • the processing can be implemented not only by software program processing but also by dedicated circuits. FPGA (field-programmable gate array), ASIC (application specific integrated circuit), CPLD (Complex Programmable Logic Device), etc. can be applied to the dedicated circuit.
  • the program may be pre-installed as data on the target computer, or may be distributed as data from the program source to the target computer.
  • the program source may be a program distribution server on a communication network, or a non-transitory computer-readable storage medium (eg, memory card).
  • a program may consist of a plurality of modules.
  • a computer system may be configured by a plurality of devices.
  • the computer system may be configured as a client-server system, a cloud computing system, or the like.
  • Various types of data and information are composed of, for example, structures such as tables and lists, but are not limited to this. Expressions such as identification information, identifier, ID (identification), name, number, etc. are interchangeable.
  • a spatially floating image information display system (hereinafter sometimes simply referred to as a system) according to one embodiment first eliminates ghost images that significantly reduce the visibility of spatially floating images, and improves the brightness of spatially floating images. It has a configuration for improving visibility by A system according to one embodiment is applied to a kiosk terminal or the like, and provides a user interface such as an operation menu on a screen based on spatial floating images.
  • the system of one embodiment first displays a concierge (such as a concierge image) as a predetermined human image on the screen of the floating image in space. may be listed) is displayed.
  • the system greets, guides, explains, etc. to the user by means of a concierge of spatial floating images.
  • the concierge image when the user approaches the spatially floating image or performs an operation on the spatially floating image, the concierge image is automatically displayed using a predetermined operation menu or the like, for example, a plurality of The operation menu screen has numeric buttons, option buttons, etc., and the buttons can be pressed.
  • the system appropriately guides and explains the operation menu to the user by means of a concierge of floating images in space.
  • the concierge guides the user through the operation menu in detail.
  • the concierge guides the user through the operation menu in detail.
  • the spatially floating image information display system of one embodiment has a function of identifying and specifying a user by, for example, face recognition using a camera.
  • the system refers to user attribute information such as age and system usage history for users identified by the function.
  • the system is controlled so as to change the method and content of the guidance by the concierge of the floating image in space according to the user's attribute.
  • the spatially floating image information display system of one embodiment also provides a function that allows the user to input arbitrary characters and figures on the surface of the spatially floating image with fingers.
  • the system detects the contact state of fingers on the plane of the floating image and draws the input lines on the plane of the floating image. The system takes this input line as the user's signature, for example.
  • images floating in space and images displayed in the air may be expressed by the term “space floating image”.
  • expressions such as “aerial image”, “aerial image”, “aerial floating image”, “aerial floating optical image of displayed image”, “aerial floating optical image of displayed image”, etc. may be used.
  • space floating image mainly used in the description of the embodiments is used as a representative example of these terms.
  • the present disclosure transmits an image by image light from a large-area image light source through a transparent member that partitions the space, such as the glass of a show window, and displays it inside or outside the store space as a floating image. It relates to a displayable information display system. The present disclosure also relates to a large-scale digital signage system configured using a plurality of such information display systems.
  • the angle of divergence of the emitted image light is made small, that is, an acute angle, and furthermore, by aligning it with a specific polarized wave, only the regular reflected light is efficiently emitted to the retroreflective member (retroreflective member) or retroreflective plate. It can reflect well.
  • the light utilization efficiency is high, and the ghost image that occurs in addition to the main space floating image, which has been a problem in the conventional retroreflection method, can be suppressed, and clear space floating can be obtained. You can get pictures.
  • the apparatus including the light source of the present disclosure can provide a novel and highly usable spatial floating image information display system capable of significantly reducing power consumption.
  • the technology of the present disclosure for example, it is possible to display a so-called unidirectional spatial floating image that is visible outside the vehicle through shield glass including the windshield, rear glass, and side glass of the vehicle.
  • a spatial floating image information display system for vehicles can be provided.
  • conventional spatial floating image information display systems combine organic EL panels and display panels (sometimes referred to as liquid crystal display panels, liquid crystal panels, etc.) as high-resolution color display image sources with retroreflective members.
  • the image light is diffused over a wide angle. Therefore, when using the retroreflective member 2 in the first embodiment constituted by the polyhedron shown in FIG.
  • image light obliquely incident on the retroreflective member 2 (retroreflective portion 2a) shown in FIG. 3C causes a ghost image. As a result, the image quality of the spatially floating image is degraded.
  • the conventional spatial floating image display device in addition to the normal spatial floating image, a plurality of ghost images corresponding to the number of reflecting surfaces are generated. As a result, the image floating in the same space, which is a ghost image, can be viewed by people other than the viewer, which poses a serious problem from the viewpoint of security.
  • FIG. 1A shows an example of usage of the spatially floating image information display system of the embodiment, and shows an explanatory diagram of the overall configuration of the spatially floating image information display system.
  • a show window (also referred to as window glass) 105 which is a translucent member (also referred to as a transparent member) such as glass, partitions the space.
  • a spatially floating image can be displayed in one direction to the outside of the store space through such a transparent member.
  • the image display device 10 light with a narrow-angle directional characteristic and a specific polarized wave is emitted from the image display device 10 as an image light beam.
  • the emitted image light flux is once incident on the retroreflection member 2, retroreflected, transmitted through the window glass 105, and forms a space floating image (aerial image) 3, which is a real image, outside the store space.
  • FIG. 1A the inside of the store inside the transparent member (here, the window glass) 105 is taken as the depth direction, and the outside of the window glass 105 (for example, the sidewalk) is shown in front.
  • the video display device 10 includes a video display unit 1102 that displays an original image of an aerial image, a video control unit 1160 that converts the input video in accordance with the resolution of the panel, and video/audio signals for receiving/inputting video/audio signals. and a signal receiver 1130 .
  • the video/audio signal receiving unit 1130 supports wired input signals through input interfaces such as HDMI (High-Definition Multimedia Interface) (registered trademark) and Wi-Fi (Wireless Fidelity) (registered trademark) and other wireless input signals.
  • the video/audio signal reception unit 1130 can function independently as a video reception/display device.
  • the video/audio signal receiving unit 1130 can display/output video/audio information from a tablet terminal, a smartphone, or the like.
  • the video/audio signal receiving unit 1130 can be connected to a processor (arithmetic processing unit) such as a stick PC as necessary. Capabilities such as analysis processing can also be provided.
  • FIG. 2 shows a functional block diagram of the spatial floating image information display system 1.
  • the image display unit 1102 modulates light passing through the panel of the image display unit 1102 based on the image signal to generate an image.
  • the video display unit 1102 may use a transmissive liquid crystal display panel, and in some cases, a reflective liquid crystal display panel that modulates light reflected on the panel based on a video signal, or a DMD panel (DMD: Digital Micromirror). Device (registered trademark) or the like.
  • DMD Digital Micromirror
  • the retroreflection unit 1101 retroreflects the light modulated by the image display unit 1102 .
  • the light output to the outside of the spatially floating image information display system 1 forms the spatially floating image 3 .
  • a light source 1105 generates light for the image display section 1102 .
  • a solid-state light source such as an LED light source or a laser light source is used as the light source 1105 .
  • the power supply 1106 converts AC current input from the outside into DC current to power the light source 1105 . In addition, power supply 1106 supplies the necessary DC current to each of the other units.
  • the light guide 1104 guides the light generated by the light source 1105 and irradiates the image display section 1102 with the light.
  • the combination of light guide 1104 and light source 1105 can also be called a backlight of image display section 1102 .
  • Various methods can be considered for the combination of the light guide 1104 and the light source 1105 . A specific configuration example will be described later. Note that, as shown in FIG. 2, a portion composed of three parts, ie, the image display section 1102, the light guide 1104, and the light source 1105, is particularly referred to as the image display device 10.
  • FIG. 2 a portion composed of three parts, ie, the image display section 1102, the light guide 1104, and the light source 1105, is particularly referred to as the image display device 10.
  • the mid-air operation detection sensor 1351 detects an operation (also referred to as mid-air operation) of the floating image 3 by the user's fingers. It is a sensor that senses the range superimposed on .
  • the aerial operation detection sensor 1351 can detect two-dimensional plane coordinates by using distance sensors using invisible light such as infrared rays, invisible light lasers, ultrasonic waves, or the like, as a specific sensor configuration. It may be configured. Further, the mid-air operation detection sensor 1351 may be configured as a ToF (Time of Flight) type LiDAR (Light Detection and Ranging), which will be described later.
  • ToF Time of Flight
  • LiDAR Light Detection and Ranging
  • the mid-air operation detection unit 1350 acquires the sensing signal acquired by the mid-air operation detection sensor 1351, and based on this, determines whether or not the user's finger touches the floating image 3, and determines the position of the touch on the floating image 3. is calculated.
  • the aerial operation detection unit 1350 may be configured by a circuit such as FPGA.
  • the aerial operation detection sensor 1351 and the aerial operation detection unit 1350 may be configured to be incorporated in the spatial floating image information display system 1, but the spatial floating image information display system 1 It may be provided outside a separate body. When provided separately, it may be configured so that information or signals can be transmitted to the spatially floating image information display system 1 via a wired or wireless communication connection path or image signal transmission path. Both the aerial operation detection sensor 1351 and the aerial operation detection unit 1350 may be provided separately. In this case, it is possible to construct a system in which only the aerial operation detection function can be added as an option using the space floating image information display system 1 without the aerial operation detection function as the main body.
  • the mid-air operation detection sensor 1351 may be provided separately, and the mid-air operation detection unit 1350 may be incorporated in the floating image information display system 1 . If it is desired to arrange the mid-air operation detection sensor 1351 more freely with respect to the installation position of the spatially floating image information display system 1, there is an advantage in the configuration in which only the mid-air operation detection sensor 1351 is separate.
  • the imaging unit 1180 is a so-called camera having an image sensor, and images the space near the floating image 3 and/or the user's face, arms, fingers, and the like.
  • the imaging unit 1180 may use a plurality of cameras or a camera with a depth sensor depending on the application.
  • the imaging unit 1180 may be provided separately from the spatial floating image information display system 1 .
  • the imaging unit 1180 detects a user's touch operation on the spatially floating image 3, in other words, an operation of touching the surface of the spatially floating image 3. Part 1350 may be assisted.
  • the aerial operation detection sensor 1351 targets the plane to which the spatial floating image 3 belongs and is configured as an object intrusion sensor into the plane, an object (for example, a user's finger) that has not entered the plane is detected.
  • the aerial operation detection sensor 1351 alone cannot detect how close it is to the plane.
  • an object for example, a user's finger
  • This calculated information can be used for various display controls in the spatial floating image 3 .
  • the present system may be configured such that the aerial operation detection unit 1350 detects a user's touch operation on the floating image 3 based on the imaging result of the imaging unit 1180 without using the aerial operation detection sensor 1351. good.
  • the image capturing unit 1180 may capture an image of the face of the user who operates the floating image 3, and the control unit 1110 may perform user identification/specification processing or user authentication processing based on the captured image. .
  • the user who operates the floating image 3 may operate the floating image 3 in order to determine whether or not another person is standing around or behind the user who operates the floating image 3 and is peeking at the user's operation on the floating image 3.
  • the imaging unit 1180 may be configured to capture an image including the surroundings of the user.
  • the operation input unit 1107 is an operation button or a remote control light receiving unit, and inputs a signal related to a user's operation, which is different from the aerial operation for the spatial floating image 3 .
  • the operation input unit 1107 may be used by an administrator of the spatially floating image information display system 1 to operate this system, apart from the above-described user who touch-operates the spatially floating image 3 .
  • the video signal input unit 1131 has a function of connecting an external video output device and inputting video data.
  • the audio signal input unit 1133 has a function of connecting an external audio output device and inputting audio data.
  • audio signal output section 1140 has a function of outputting an audio signal based on audio data input to audio signal input section 1133 .
  • the audio signal output unit 1140 may output an audio signal based on audio data such as numbers and character strings recorded in the storage unit 1170 in advance, and other operation sound and error warning sound data.
  • the video signal input section 1131 and the audio signal input section 1133 are collectively referred to as the video/audio signal input section 1130 .
  • the video signal input section 1131 and the audio signal input section 1133 may be configured individually, or may be combined into one.
  • the audio signal output unit 1140 is connected to the speaker or the super-directional speaker 30.
  • the audio signal output unit 1140 may be connected to a speaker that outputs audio in a normal audible band, but as in the case of the kiosk terminal described later, it is particularly necessary to consider security due to high secrecy. In some cases, it may be connected to a super-directional speaker so that it cannot be heard by anyone other than the user.
  • a super-directional speaker is one in which only human ears existing in a specific limited spatial area can hear sound in the audible band, and those outside the specific spatial area can hear sound in the audible band. It is a speaker that has the characteristic that the voice cannot be heard.
  • the super-directional speaker 30 is configured by, for example, arranging a plurality of ultrasonic output elements capable of generating ultrasonic signals of about 40 kHz on a plane. At this time, as the number of ultrasonic output elements used increases, the sound volume obtained by the super-directional speaker increases.
  • the principle of a super-directional speaker will be briefly explained. As is well known, ultrasonic waves are more linear than sounds in the audible band (for example, human speech). Therefore, by using an ultrasonic signal of 40 kHz as a carrier and modulating the carrier with an audio signal in the audible band (for example, AM modulation), it is possible to make sounds audible only in a specific limited spatial region. becomes.
  • the positions of the user's face and ears are specified, and according to the specified result, the output from the super-directional speaker 30 is used in the vicinity of the user's ears You can only hear audio.
  • the phase (in other words, delay time) of the ultrasonic signal input to the ultrasonic output element that constitutes the super-directional speaker 30 the sound can be heard only in a specified limited spatial region.
  • the phase in other words, delay time
  • the ultrasonic output element that constitutes the super-directional speaker 30 the sound can be heard only in a specified limited spatial region.
  • a plurality of ultrasonic output elements on, for example, a concave surface rather than on a flat surface, it is possible to make sounds audible only in a specific limited spatial region.
  • the non-volatile memory 1108 stores various data used in the spatial floating image information display system 1.
  • the data stored in the non-volatile memory 1108 includes data for various operations displayed as the spatial floating image 3, user interface image information such as icons and buttons, object data and layout information for user operation, and the like. may be included.
  • a memory 1109 stores image data to be displayed as the spatial floating image 3 and control data for the apparatus.
  • the control unit 1110 corresponds to the controller (in other words, control device) of the spatial floating image information display system 1, and controls the operation of each connected unit.
  • the control unit 1110 includes a device such as a processor.
  • the control unit 1110 executes processing according to a program read from the nonvolatile memory 1108 or storage unit 1170 to the memory 1109 or built-in memory. As a result, various functions are realized.
  • the control unit 1110 may cooperate with a program stored in the memory 1109 to perform arithmetic processing based on information acquired from each connected unit.
  • the control unit 1110 may be mounted using a microcomputer or the like inside the housing that constitutes the spatial floating image information display system 1, or may be connected/mounted outside the housing.
  • the communication unit 1132 communicates with external devices, external servers, etc. via a wired or wireless communication interface.
  • the communication unit 1132 transmits and receives video, image, audio, and various data through the communication.
  • the storage unit 1170 records videos, images, sounds, various data, and the like.
  • videos, images, sounds, various data, and the like may be recorded in the storage unit 1170 in advance at the time of product shipment.
  • Videos, images, sounds, various data, and the like acquired from an external device, an external server, or the like via the communication unit 1132 may be recorded in the storage unit 1170 .
  • Videos, images, various data, and the like recorded in the storage unit 1170 can be output as the space-floating video 3 via the video display unit 1102, the video display device 10, and the retroreflection unit 1101.
  • Data such as icons, buttons, and objects for user operation displayed as a user interface (including operation menus and concierge images to be described later) on the floating image 3, and data constituting the concierge image are also stored in the storage unit 1170. It may be included in the video or image data to be recorded. In addition, information such as operation menus such as icons, buttons, and objects displayed as a user interface on the floating image 3, layout information of the concierge, and various metadata related to the operation menus and the concierge are included in various data recorded in the storage unit 1170. may be included. Also, audio data for the concierge of the spatial floating image 3 to output audio may be recorded in the storage unit 1170 . Audio data recorded in the storage unit 1170 may be output as an audio signal from the speaker or the super-directional speaker 30 via the audio signal output unit 1140 .
  • Control unit 1110, video control unit 1160, or audio signal output unit 1140 generates an operation menu based on various data for configuring an operation menu or concierge stored in storage unit 1170, nonvolatile memory 1108, or the like. and video data and audio data for displaying and outputting the concierge may be created as appropriate.
  • a video control unit 1160 performs various controls on video signals input to the video display unit 1102 .
  • the image control unit 1160 performs image switching control such as which image is to be input to the image display unit 1102, for example, between the image stored in the memory 1109 and the image input by the image signal input unit 1131. may Alternatively, the image control unit 1160 may superimpose the image stored in the memory 1109 and the image input by the image signal input unit 1131 to generate a composite image input to the image display unit 1102 . Further, the image control unit 1160 may control image processing for image data input by the image signal input unit 1131 and images stored in the memory 1109 .
  • Examples of image processing include scaling processing for enlarging, reducing, and transforming an image, brightness adjustment processing for changing brightness, contrast adjustment processing for changing the contrast curve of an image, and decomposing an image into light components.
  • the image control unit 1160 may perform special effect image processing, etc. for assisting the user's aerial operation on the image input to the image display unit 1102 .
  • the special effect video processing may be controlled based on the user operation detection result by the mid-air operation detection unit 1350 and the user imaging result by the imaging unit 1180 .
  • the spatial floating image information display system 1 can be equipped with various functions. However, the spatial floating image information display system 1 does not necessarily have to have all of the configurations described above. The spatially floating image information display system 1 may have any configuration as long as it has at least the function of generating the spatially floating image 3 .
  • FIG. 3 shows the main configuration of the spatially floating image information display system of the embodiment, and also shows an example (first method) relating to the formation of the spatially floating image 3 and the configuration of the retroreflective member 2 .
  • this spatial floating image information display system projects image light of a specific polarized wave obliquely onto a transparent member 100, which is a transmissive plate such as glass.
  • a video display device 10 that diverges to a narrow angle is provided.
  • the image display device 10 includes a liquid crystal display panel 11 and a light source device 13 that generates specific polarized light having narrow-angle diffusion characteristics.
  • the specific polarized image light emitted from the image display device 10 is reflected by the polarization separation member 101 provided on the transparent member 100 and having a film that selectively reflects the specific polarized image light.
  • a sheet-shaped polarization separation member 101 is adhered to a transparent member 100 .
  • a retroreflective member 2 is provided in the other diagonal direction with respect to the transparent member 100 .
  • a ⁇ /4 plate 21 (in other words, a quarter-wave plate) is provided on the image light incident surface of the retroreflective member 2 .
  • the image light passes through the ⁇ /4 plate 21 a total of two times, when it enters the retroreflecting member 2 and when it exits, thereby changing from a specific polarized wave (one polarized wave) to the other polarized wave. polarization conversion.
  • the polarization separating member 101 that selectively reflects the image light of the specific polarized wave has the property of transmitting the polarized light of the other polarized wave after polarization conversion. Therefore, the image light of the other polarized wave after the polarization conversion passes through the polarization separation member 101 .
  • the image light transmitted through the polarization separation member 101 forms a space floating image 3, which is a real image, outside the transparent member 100, as shown.
  • the light that forms the floating image 3 is a set of light rays converging from the retroreflective member 2 to the optical image of the floating image 3, and these light rays travel straight even after passing through the optical image of the floating image 3. do. Therefore, the floating image 3 is an image having high directivity, unlike diffuse image light formed on a screen by a general projector or the like.
  • the image 3 when the user views the image 3 from the direction of arrow A, the image 3 is viewed as a bright image.
  • the floating image 3 cannot be visually recognized as an image at all.
  • Such characteristics of the floating image 3 are very suitable for use in a system that displays images that require high security or highly confidential images that should be kept secret from a person facing the user.
  • the polarization axes of the reflected image light may become uneven.
  • part of the image light whose polarization axes are not aligned is reflected by the polarization separation member 101 described above and returns to the image display device 10 .
  • a part of this image light is reflected again by the image display surface of the liquid crystal display panel 11 constituting the image display device 10, and generates a ghost image. This can be a factor causing deterioration in the image quality of the spatial floating image 3 .
  • the image display surface of the image display device 10 is provided with the absorptive polarizing plate 12 .
  • the absorptive polarizer 12 transmits the image light emitted from the image display device 10 and absorbs the reflected light returning from the polarization separation member 101. , can suppress re-reflection. Therefore, according to the present embodiment using the absorptive polarizing plate 12, it is possible to prevent or suppress deterioration in image quality due to the ghost image of the floating image 3.
  • the polarization separation member 101 described above may be formed of, for example, a reflective polarizing plate or a metal multilayer film that reflects a specific polarized wave.
  • FIG. 3B shows the surface shape of a typical retroreflective member 2, a retroreflective member manufactured by Nippon Carbide Industries Co., Ltd., used in this study.
  • the retroreflective member 2 has regularly arranged hexagonal prismatic retroreflective portions (retroreflective elements) 2a on its surface.
  • a light beam incident on the inside of the hexagonal prism is reflected by the wall surface and the bottom surface of the hexagonal prism, and is emitted as retroreflected light in a direction corresponding to the incident light.
  • a floating image 3 is displayed.
  • the resolution of this spatially floating image 3 largely depends on the resolution of the liquid crystal display panel 11 as well as the outer shape D and the pitch P of the retroreflective portion 2a of the retroreflective member 2 shown in FIG. 3(B).
  • the resolution of the liquid crystal display panel 11 as well as the outer shape D and the pitch P of the retroreflective portion 2a of the retroreflective member 2 shown in FIG. 3(B).
  • the diameter D of the retroreflective portion 2a is 240 ⁇ m and the pitch P is 240 ⁇ m. is 300 ⁇ m
  • one pixel of the spatial floating image 3 corresponds to 300 ⁇ m. Therefore, the effective resolution of the spatially floating image 3 is reduced to about 1/3.
  • the diameter D and the pitch P of the retroreflection portion 2a be close to one pixel of the liquid crystal display panel 11.
  • the respective pitch ratios outside the integral multiple of one pixel.
  • the retroreflective portion 2a is arranged so that no one side of the retroreflective portion 2a overlaps any one side of one pixel of the liquid crystal display panel 11.
  • this method is a method of aligning the retroreflective portions 2a and shaping them on a film.
  • the reverse shape of the shape to be shaped is formed on the surface of the roll, UV curable resin is applied on the base material for fixing, and it is passed between the rolls to shape the required shape, and the UV is irradiated and cured to obtain a retroreflective member 2 having a desired shape.
  • FIG. 4 shows another example (referred to as a second method) of the formation of the spatially floating image 3 and the configuration of the retroreflective member in the spatially floating image information display system of this embodiment.
  • FIG. 4A shows an overview of formation of the spatially floating image 3 using the retroreflective member 330 in the second method.
  • Light from an object P (corresponding point P) in one space (in this example, the space below in the Z direction) with respect to the retroreflective member 330 enters the retroreflective member 330 and is retroreflected. , forms a spatial floating image 331 (corresponding point Q) in the other space (the upper space in the Z direction in this example).
  • FIG. 4 shows a surface shape for explaining the operation principle of the retroreflective member manufactured by Asukanet Co., Ltd. used in this study as a representative retroreflective member 330 .
  • the retroreflective member 330 has four-sided structures (in other words, tetrahedrons) 330A that are regularly arranged on the surface (the XY plane in the drawing). A plurality of structures 330A are arranged between sidewalls 330B.
  • the four-sided structure 330A is, for example, a micromirror having a quadrangular prism shape extending in the Z direction. For example, light from an object P (also referred to as object light) enters the four-sided structure 330A.
  • a light ray incident on the four-sided structure 330A is reflected by two surfaces (for example, the reflective surface RS1 and the reflective surface RS2) of the wall surfaces of the four-sided structure 330A.
  • the reflected light rays (both the light rays emitted upward from the reflecting surface RS1 and the light rays emitted upward from the reflecting surface RS2) are shown as reflected light R0.
  • the reflected light R0 is emitted as retroreflected light in a direction corresponding to the incident light, and forms and displays a floating image 331, which is a real image based on the object P, as shown in FIG. 4A.
  • the retroreflective member 2 of the first method in FIG. Highly dependent on PT.
  • the external shape (diameter) DS of the retroreflective portion is 120 ⁇ m and the pitch is 120 ⁇ m.
  • PT is 150 ⁇ m
  • one pixel of the spatial floating image 331 corresponds to 150 ⁇ m. Therefore, the effective resolution of the spatially floating image 331 is reduced to about 1/2.
  • the diameter DS and the pitch PT of the retroreflective portion (structure 330A) be close to one pixel of the liquid crystal display panel.
  • the retroreflective portion (structure 330A) be arranged so that no one side of the retroreflective portion (structure 330A) overlaps any one side of one pixel of the liquid crystal display panel.
  • the light forming the floating image 331 is a set of light rays converging from the retroreflective member 330 to the optical image of the floating image 331, and these light rays travel straight after passing through the optical image of the floating image 331. do. Therefore, the spatially floating image 331 is an image having high directivity, unlike diffuse image light formed on a screen by a general projector or the like.
  • the floating image 331 when viewed by the user from the direction of arrow A, the floating image 331 is viewed as a bright image.
  • the floating image 331 cannot be visually recognized as an image at all.
  • Such characteristics of the floating image 331 are similar to the image floating in the air using the retroreflective member 2 of the first method described above. It is very suitable for use in systems that display high-resolution images.
  • the light from the object P is incident on the retroreflective member 330 from one side (lower side in the Z direction). , are reflected by the two reflecting surfaces (RS1 and RS2) provided on the four wall surfaces constituting the retroreflective member 330, and are reflected as reflected light R0 on the other side (upper side in the Z direction) at the position of the point Q , to form a spatial floating image 331 .
  • the two reflecting surfaces (RS1, RS2) abnormal lights R1, R2 are generated as lights with reflection directions different from that of the reflected light R0.
  • ghost images 332 and 333 as shown in FIG. 4A are generated by the extraordinary lights R1 and R2 generated by the two reflecting surfaces (RS1 and RS2). For this reason, the ghost images 332 and 333 can be factors that cause deterioration in the image quality of the spatially floating image 331 .
  • the retroreflective member 2 of the first method produces a ghost image according to the number of reflecting surfaces.
  • the retroreflective member 330 of the second method produces ghost images only in two specific directions depending on the incident angle of the object light. Therefore, the retroreflective member 330 of the second method is less affected by the ghost image, and enables high-quality spatial image display. Therefore, as the spatial floating image display device and the spatial floating image information display system described below, the description will focus on the case where the retroreflective member 330 of the second method is applied.
  • FIG. 5 shows a specific method and configuration example for applying the image light control sheet to a spatially floating image display device.
  • an image light control sheet 334 is provided on the exit surface of a liquid crystal display panel 335, which is an image display element.
  • the exit surface of the liquid crystal display panel 335 is shown as a plane (XY plane) defined by the illustrated X-axis and Y-axis.
  • the image light control sheet 334 has a transmitting portion and a light absorbing portion on the main surface (XY plane).
  • moire may occur due to interference due to the pitch between the pixels of the liquid crystal display panel 335 and the transmission portions and light absorption portions of the image light control sheet 334 .
  • the following two methods are effective.
  • the ratio (B/A) of these is calculated from an integer multiple. selected value. Since one pixel of the liquid crystal display panel 335 is composed of sub-pixels of three colors of RGB arranged side by side and is generally square, it is impossible to suppress the occurrence of moire over the entire screen. For this reason, the inclination ⁇ 0 shown in the first method (1) is set within the range of 5 degrees to 25 degrees so that the moire generation position can be intentionally shifted to a location where the floating image is not displayed. should be optimized.
  • the liquid crystal display panel and the image light control sheet 334 have been described.
  • the same method and configuration can be applied to the moire that occurs in between. Since the retroreflective member 330 and the image light control sheet 334 are both linear structures, the image light control sheet 334 can be optimally tilted with attention paid to the X axis and the Y axis of the retroreflective member 330. . As a result, it is possible to reduce large moire patterns with a long wavelength and a low frequency that can be visually recognized.
  • FIG. 6 shows a vertical sectional view of the image display device 10 having a configuration in which the image light control sheet 334 is arranged on the image light output surface 3351 of the liquid crystal display panel 335 .
  • the image light control sheet 334 is configured by alternately arranging light transmitting portions 336 and light absorbing portions 337 on the main surface, and is adhesively fixed to the image light output surface 3351 of the liquid crystal display panel 335 by an adhesive layer 338 .
  • the pitch B of the image light control sheet 334 is set to 340 ⁇ m when the distance d2 of the transmission portion 336 is 300 ⁇ m and the distance d1 of the light absorption portion 337 is 40 ⁇ m.
  • the image light control sheet 334 controls sufficient transmission characteristics and diffusion characteristics of the image light from the image display device 10 that causes abnormal light, thereby reducing ghost images.
  • the thickness of the image control sheet 334 is set to 2/3 or more of the pitch B, the ghost reduction effect is greatly improved.
  • FIG. 6B shows a vertical sectional view of a configuration in which an image light control sheet 334 is arranged on the image light exit surface of the retroreflective member 330 (FIG. 4).
  • the image light control sheet 334 is configured by alternately arranging light transmitting portions 336 and light absorbing portions 337, and has a predetermined inclination angle ⁇ 1 with respect to the retroreflecting member 330 in accordance with the emitting direction of the retroreflected light 3341. are slanted.
  • the image light control sheet 334 absorbs the abnormal lights R1 and R2 ((B) in FIG. 4) generated by the above-described retroreflection, while normal reflected light is lost as retroreflected light 3341. can pass through without
  • the retroreflective member 330 has an array of spaces 3301 corresponding to the retroreflective portions formed by the four-sided structures 330A (FIG. 4).
  • a space 3301 corresponding to the retroreflective portion is separated by the surface of the side wall 330B.
  • the space 3301 has, for example, a reflecting surface R1 and a reflecting surface R2.
  • the light a1 incident on the retroreflective member 330 from, for example, the lower side is reflected by, for example, the reflective surface R1 of the space 3301, and the reflected light a2 is further reflected by, for example, the reflective surface R2, and reaches the upper side of the retroreflective member 330.
  • the emitted light is incident on the image light control sheet 334 and emitted as retroreflected light 3341 .
  • the pitch B of the image light control sheet 334 is such that the distance d2 of the transmitting portion 336 of the retroreflective member 330 is 400 ⁇ m and the distance d1 of the light absorbing portion 337 is 20 ⁇ m. Assume that the pitch B is 420 ⁇ m. In this case, the image light control sheet 334 controls sufficient transmission characteristics and diffusion characteristics of the image light from the image display device 10 that causes abnormal light to be generated in the retroreflective member 330, thereby reducing ghost images.
  • the above-described image light control sheet 334 also prevents external light from entering the space-floating image display device, leading to improved reliability of the components.
  • the image light control sheet 334 for example, viewing angle control film (VCF) manufactured by Shin-Etsu Polymer Co., Ltd. is suitable.
  • VCF viewing angle control film
  • the structure of the VCF is a sandwich structure in which transparent silicon and black silicon are alternately arranged, and a synthetic resin is arranged on the light input/output surface. Therefore, when this VCF is applied as the image light control sheet 334 of this embodiment, the above effects can be expected.
  • a user (sometimes referred to as a user, a supervisor, an operator, etc.) is bidirectionally connected to the system via the spatially floating image 3 (FIG. 2, etc.) provided by the spatially floating image information display system 1 .
  • the user uses a system application (for example, a kiosk terminal ticket sales function) or the like by viewing and operating the floating image 3 .
  • a sensing technique is required for the user to operate the spatially floating image 3 in a pseudo manner and to sense the operation.
  • the "sensing technology” here includes the aerial operation detection sensor 1351 and the aerial operation detection unit 1350 described with reference to FIG. technology.
  • Aerial operation detection sensor 1351 and aerial operation detection unit 1350 may be referred to as a sensing system.
  • FIG. 7 shows a principle diagram for explaining the first sensing technique.
  • a spatially floating image FI by the spatially floating image information display system 1 is divided into a plurality of areas (in other words, regions).
  • the plane of the spatially floating image FI is shown as the xy plane, and the front-rear direction with respect to the plane is shown as the z direction.
  • the illustrated area A301 is one upper left area of the sensing plane a3.
  • a first distance measuring device 340 incorporating a TOF (Time of Flight) system corresponding to each area of the spatially floating image FI is provided.
  • a first rangefinder 340 is provided in place of the aerial operation detection sensor 1351 in FIG.
  • a light emitting unit of the first distance measuring device 340 emits light from an LED (Light Emitting Diode) as a light source in synchronization with a system signal.
  • An optical element for controlling the divergence angle is provided on the light emitting side of the LED, and a pair of highly sensitive avalanche diodes (APD) with picosecond time resolution are used as light receiving elements so as to correspond to 12 areas. , are aligned in 4 columns and 3 rows.
  • the light source LED emits light
  • the light is reflected by the object to be measured (here, the tip of the user's finger UH), and only the time until it returns to the light receiving part , the phase ( ⁇ t in FIG. 9 to be described later) shifts.
  • the arithmetic unit of the sensing system shown in FIG. 9B receives the signal from the system and the signal generated by the avalanche diode, which is the light receiving part of the first rangefinder 340, and from these signals the phase Calculate the distance to the object by calculating the shift.
  • a distance is calculated for each TOF system (TOF1 to TOF12) associated with each area.
  • the sensing surfaces are arranged in order of proximity to the object.
  • sensing plane a0 is shown as a measurement hierarchy on the side away from the spatial floating image FI.
  • Distance L1 is the distance to sensing surface a0
  • distance L2 is the distance to sensing surface a1
  • distance L3 is the distance to sensing surface a2
  • distance L4 is the distance to sensing surface a1.
  • the sensing system recognizes which of the 12 areas the target object (finger UH) has passed through in each measurement layer (sensing planes a3 to a1), and performs each measurement. It can be recognized as a system by calculating the travel time between floors using the method described above.
  • FIG. 9 shows the light emission timing of the LED light source and the light reception timing of the light receiving element for each of the 12 measurement areas.
  • SU1 to SU12 indicate light emission timing and light reception timing for each sensing unit associated with each area and TOF.
  • the sensing system standardizes individual data by delaying the timing of LED light emission for each area.
  • the sensing system uses these sensing signals (S1 to S3) to calculate and obtain the contact position with the spatially floating image FI from the moving direction of the finger UH and the time difference in crossing each sensing surface.
  • a sensing plane a0 is set at a position farther away from the spatial floating image FI.
  • the sensing system detects, as an end signal, that the finger UH has passed through the spatially floating image FI based on sensing on the sensing surface a0.
  • a point of contact with the floating image FI is obtained as a three-dimensional coordinate.
  • FIG. 7B shows an operation of selecting a portion of the floating image FI with the user's finger UH (especially the fingertip) and an operation of the user's finger UH leaving the portion of the floating image FI. show.
  • the sensing system further senses the first sensing signal S3 sensed at the first sensing surface a1 based on the third sensing signal S3 sensed at the third sensing surface a3 and the second sensing signal S2 sensed at the second sensing surface a2.
  • the sensing signal S1 is sequentially transmitted to the arithmetic unit of the sensing system for calculation processing. As a result, the system recognizes that the user's finger UH has left the specific coordinates of the floating image FI.
  • FIG. 8 shows a principle diagram for explaining the second sensing technology.
  • the second sensing technology is different from the first sensing technology shown in FIG. Realize accurate sensing.
  • the first rangefinder 340 and the second rangefinder 341 may be installed side by side.
  • a second sensing technique uses a second ranging device 341 (especially a CMOS sensor) as a second sensing system in combination with the first sensing system.
  • the second rangefinder 341 senses the same range (sensing planes a1, a2, a3, a0) as the first rangefinder 340.
  • the first distance measuring device 340 incorporates a TOF system corresponding to each of a plurality of areas divided into, for example, 12 areas in the spatial floating image FI (Fig. 8(B) 1st sensing system).
  • the second distance measuring device 341 applies a two-dimensional image sensor, for example, a 1/4 inch CMOS sensor for sensing camera applications.
  • the aspect ratio of this CMOS sensor is generally 3:4.
  • the TOF system of the first distance measuring device 340 is also divided vertically into 3 parts and horizontally into 4 parts as described above, for a total of 12 areas, in accordance with the aspect ratio of the CMOS sensor.
  • the resolution of the CMOS sensor is sufficient even with a resolution of about 1 million pixels, but unlike a normal camera system, there is no need to install an RGB color separation filter. For this reason, the CMOS sensor not only can realize miniaturization and high sensitivity with the same number of pixels, but also has high sensitivity to near-infrared light. Therefore, in the second sensing technology, the object (tip of the finger UH) to be ranged is illuminated by the light source light of the TOF system of the first rangefinder 340 at a timing determined for each area, so detection Greatly improves accuracy.
  • FIG. 9B shows the system described above as a functional block diagram.
  • FIG. 8B shows sensing surfaces a1, a2, and a3 by the first distance measuring device 340 and sensing surfaces b1, b2, and b3 by the second distance measuring device 341 provided corresponding thereto. indicates FIG. 8B shows an action of selecting a part of the spatially floating image FI and an action of leaving the part by the finger UH with respect to those sensing surfaces.
  • the spatially floating image information display system using the second sensing technology when the user intentionally extends the finger UH toward the spatially floating image FI, the following occurs. Become. In this case, three-dimensional information is obtained by the second distance measuring device 341 in addition to the three-dimensional information by the first distance measuring device 340 described above.
  • the planar resolution of the sensing surface b3 of the second rangefinder 341 corresponding to the sensing surface a3 of the first rangefinder 340, which is the farthest from the floating image FI, is highly accurate according to the resolution of the CMOS sensor used.
  • the sensing surface b2 corresponds to the sensing surface a2
  • the sensing surface b1 corresponds to the sensing surface a1. This makes it possible to realize a sensing system with greatly improved planar resolution.
  • the moving direction of the object (the tip of the user's finger UH) is determined from the time difference across the sensing surfaces of the first rangefinder 340 and the second rangefinder 341, and the floating image FI. can be obtained by calculation.
  • a sensing plane a0 is set that is farther away from the spatial floating image FI.
  • the sensing system detects that the finger UH has passed through the floating image FI as an end signal, and from the position coordinates on the sensing plane a0 and the two sensing signals described above, the point of contact with the floating image FI is determined as follows. It can be calculated as three-dimensional coordinates with higher definition.
  • the detection information by the second sensing technique is systematized with the position information by the first sensing technique by a synchronization signal supplied from the system.
  • the A third sensing signal S3 sensed by the three sensing surfaces a3, a second sensing signal S2 sensed by the second sensing surface a2, and a first sensing signal S1 sensed by the first sensing surface a1 are sequentially sensed. It is communicated to the arithmetic units of the system. Then, the system recognizes that the user's finger UH has moved away from the specific coordinates of the spatially floating image FI through calculation processing in the arithmetic unit.
  • the LED light source used in the TOF sensor of the first rangefinder 340 of the sensing system described above prevents the accuracy of the rangefinder from deteriorating due to external light such as sunlight, and the visible light range (380 nm to 780 nm) invisible to the naked eye. ), it is preferable to use near-infrared light, which has high light energy in a region exceeding .
  • FIG. 10 shows a characteristic diagram of spectral irradiance of sunlight.
  • the wavelength of the light source light of the LED of the TOF sensor it is preferable to use the light of wavelength ⁇ 1 of 920 nm, which has less energy in the spectral irradiance of the sunlight shown in FIG.
  • the spatially floating image information display system can draw a line segment connecting these two points as an image on the plane of the spatially floating image based on the detection information of the contact position and the separation position.
  • a spatially floating image information display system detects the point of contact between the spatially floating image and a user's fingertip, then moves the fingertip to another position within the plane, and the fingertip moves from the spatially floating image at the tip of the movement. Detects departure and departure points.
  • This makes it possible to draw, for example, graphics such as line segments and curves, or characters such as alphabets and numbers on the surface of the spatially floating image.
  • it is possible to input figures and characters on the surface of the floating image in the same way as drawing figures and characters on the surface of a liquid crystal display with a touch panel.
  • the spatially floating image information display system uses sensing technology to sample the movement of the user's fingertip with respect to the spatially floating image at predetermined time intervals (for example, 100 milliseconds), and connects each sampling point. Draw a line in the space floating image.
  • time intervals for example, 100 milliseconds
  • characters and figures that can be drawn with a single stroke such as numbers 1, 2, and 3, and alphabets L and M, can be drawn as floating images.
  • FIG. 12 shows an explanatory diagram of a technique for inputting/drawing an image such as a character or a figure with the user's fingers for the spatially floating image.
  • FIG. 12 shows a schematic diagram of the spatially floating image FI displayed by the spatially floating image information display system 1 as viewed from the user's viewpoint.
  • the spatially floating image FI is arranged diagonally with respect to the horizontal plane of the system housing 1201, and the user views the spatially floating image FI slightly obliquely downward.
  • the spatially floating image FI includes the display of a rectangular frame 1202 (note that this is not a frame-like device). Assume that the frame 1202 is initially displayed in a predetermined color (for example, green) and only a predetermined background color is displayed within the frame 1202 .
  • a predetermined color for example, green
  • FIG. 12 shows how the user's fingertip UF draws the alphabet L as an example of a simple character on the surface of the floating image FI.
  • the user informs the spatial floating image information display system 1 of his/her intention to draw the character in some way.
  • a character input button 1203 is provided as a physical push button at an arbitrary location on the spatial floating image information display system 1, in this example, at the lower right position on the housing 1201.
  • the system recognizes that the user intends to input characters or the like to the spatial floating image FI, and enters a mode for inputting/drawing to the spatial floating image FI (also referred to as a character input mode). Transition.
  • a character input button may be displayed as a user interface in part of the spatially floating image FI provided by the spatially floating image information display system 1.
  • the system similarly transitions to a mode for inputting/drawing the spatial floating image FI.
  • the spatially floating image information display system 1 changes the entire screen of the spatially floating image FI to, for example, white display. Also, in the character input mode, the system changes the frame 1202 of the spatially floating image FI to a predetermined color, such as red. The system three-dimensionally senses the movement and contact position of the user's finger UF with respect to the surface of the spatially floating image FI as described above. Then, based on the sensing, the system draws the contact position corresponding to the movement of the finger UF on the surface of the spatially floating image FI in a predetermined color different from the background white, such as black or blue.
  • a predetermined color such as red
  • the trajectory of the movement of the finger UF is drawn as a line on the white background of the spatially floating image FI. Then, the user himself/herself can draw a desired character or figure while looking at the line drawn by himself/herself in the spatial floating image FI.
  • the system is divided into two states: a state in which the finger UF is not in contact with the surface of the spatially floating image FI (in other words, a state in which the fingertip is in front of the surface) and a state in which the finger UF is in contact with the surface of the spatially floating image FI (in other words, The display is controlled so that the display state of the spatially floating image FI is different between the state in which the fingertip is inserted deep into the surface). This allows the user to more easily recognize whether or not his or her finger UF is touching the surface of the floating image FI.
  • step S121 the user inserts the finger UF in the depth direction (in other words, maintains contact) at an arbitrary position on the spatially floating image FI.
  • step S122 the user moves the finger UF downward on the spatial floating image FI while maintaining the contact state.
  • a downward arrow indicates the moving direction of the finger UF (downward along the plane).
  • the system draws a vertical line (first line) 1211 of the letter L as part of the spatial floating image FI.
  • step S122 shows a state in which the finger UF has reached the lower terminal position of the first vertical line 1211 . Up to this point, the vertical first line 1211 has been drawn. The contact of the finger UF is maintained in this state.
  • step S123 the user moves the finger UF rightward after the first line 1211 is drawn. The system draws a horizontal line (second line 1212) of the letter L upon detection of this movement. The position of the finger UF reaches the right end position of the second horizontal line 1212 .
  • step S124 the user removes the finger UF located at the right end position of the second line 1212 from the surface of the spatial floating image FI toward the near side.
  • the system detects this release of the finger UF and terminates the drawing of the second line 1212 .
  • the user can draw the letter L on the spatial floating image FI with a single stroke.
  • the character input button 1203 When the character input button 1203 is pressed by the user to enter the character input mode, not only does the entire screen (background surface) of the spatial floating image FI change to white, but also the portion of the frame 1202 of the spatial floating image FI changes to white. For example, it changes from green to red. This is preferable because the user can easily recognize that it is in the character input mode. Also, when the user wants to end the character input mode, the user can press the character input button 1203 again. In that case, the system exits the character input mode and returns to the original mode. In the above example, the entire screen of the spatially floating image FI is changed to white. However, the color is not limited to white, and may be a color other than white, such as black or another color.
  • the frame 1202 of the spatially floating image FI may be changed to red, for example, by the user touching the spatially floating image FI (touching the finger UF) in the character input mode. .
  • the user can recognize that his or her finger is in contact with the surface of the spatially floating image FI and is ready to draw characters.
  • the frame 1202 of the floating image FI may also be colored in a color other than red, such as blue or another color.
  • the entire screen of the spatial floating image FI is used as an area in which images such as graphics and characters can be input and drawn.
  • the area in which an image can be input and drawn is not limited to this, and may be a predetermined part of the screen of the spatial floating image FI.
  • the user can use the spatially floating image FI as a user interface such as an operation menu. ) makes it possible to input and draw arbitrary characters and figures. As a result, the application range of the spatially floating image and the spatially floating image display device can be further expanded, which is preferable.
  • FIG. 13 shows the main configuration of a spatially floating image information display system 1 according to an embodiment.
  • the spatially floating image information display system 1 of FIG. 13 is a system suitable for a user who is a supervisor to observe the spatially floating image 3 obliquely from above.
  • the housing 350 of the spatial floating image information display system 1 is arranged on the horizontal plane (XY plane), and the spatial floating image 3 is arranged in the vertical direction (Z direction) in the front-rear direction (Y direction).
  • the viewpoint E When viewing the surface of the spatially floating image 3 directly from the user's viewpoint E, the viewpoint E is aligned with the optical axis J2 with respect to the surface of the spatially floating image 3 in the Y direction, as shown in the figure. It is placed slightly obliquely upward. The user can preferably visually recognize the spatially floating image 3 with a line of sight slightly obliquely downward from the viewpoint E in the Y direction.
  • the image display device 10 and the like are arranged in a predetermined positional relationship within the housing 350 .
  • the upper surface (XY plane) of the housing 350 is an opening, and the retroreflective member 330 is arranged at a predetermined angle ⁇ 1.
  • the optical axis J1 of the image display device 10 is directed obliquely upward at a predetermined angle ⁇ 1 with respect to the Y direction.
  • the image display device 10 includes a liquid crystal display panel 11 as an image display element, and a light source device 13 that generates specific polarized light having narrow-angle diffusion characteristics.
  • the liquid crystal display panel 11 can be applied from a small screen size of about 5 inches to a large screen size exceeding 80 inches, and is composed of a panel selected from them.
  • Image light from the liquid crystal display panel 11 is emitted along the optical axis J1 toward a retroreflective member 330 (also referred to as a retroreflective portion or a retroreflective plate).
  • a retroreflective member 330 also referred to as a retroreflective portion or a retroreflective plate.
  • Light from a light source device 13 having a narrow divergence angle which will be described later, is incident on the liquid crystal display panel 11 .
  • an image light flux ⁇ 1 with a narrow divergence angle is generated.
  • the image light flux ⁇ 1 with a narrow divergence angle is made incident on the retroreflective member 330 from below in the Z direction along the optical axis J1. Due to the retroreflection by the retroreflection member 330, an image light beam ⁇ 2 with a narrow divergence angle is generated upward in the Z direction with respect to the retroreflection member 330 and in the direction of the optical axis J2, according to the principle explained with reference to FIG. be.
  • a spatially floating image 3 (a spatially floating image 331 in FIG. 4) is obtained at a predetermined position outside the housing 350 by the image light flux ⁇ 2.
  • the optical axis J2 is directed obliquely upward at a predetermined angle ⁇ 2 with respect to the Y direction.
  • the spatially floating image 3 is formed at a symmetrical position of the image display device 10 with the retroreflective member 330 as the plane of symmetry.
  • the surface of the image display device 10 and the surface of the floating image 3 are arranged at substantially symmetrical or symmetrical positions with respect to the obliquely arranged retroreflective member 330 .
  • r2 indicates the center position corresponding to the optical axis J2
  • r1 indicates the lower end position corresponding to the lower end ray of the image light beam ⁇ 2
  • r3 corresponds to the upper end ray of the image light beam ⁇ 2. Indicates the top position.
  • a control sheet 334 (more specifically, (A) in FIGS. 5 and 6) is provided. This controls the diffusion characteristics in unwanted directions.
  • the image light from the liquid crystal display panel 11 can in principle have a higher reflectance at the reflecting member such as the retroreflecting member 330, so that the S polarized wave (the electric field component is perpendicular to the plane of incidence).
  • electromagnetic waves S stands for senkrecht.
  • the illustrated depolarization element 339 is provided as an element that optically converts part of the image light of the specific polarized wave into the other polarized wave to artificially convert it into natural light.
  • a depolarizing element 339 is arranged on the output side of the image light control sheet 334 .
  • COSMOSHINE SRF manufactured by Toyobo Co., Ltd.
  • depolarizing adhesive manufactured by Nagase & Co., Ltd.
  • COSMOSHINE SRF manufactured by Toyobo Co., Ltd.
  • a depolarizing adhesive it is used by laminating a colorless transparent plate and an image display device via the depolarizing adhesive.
  • an image light control sheet 334B (similar to the image light control sheet 334; details are shown in FIG. 6B) is provided on the image output surface of the retroreflective member 330 as well.
  • the ghost images 332 and 333 (FIG. 4) generated on both sides of the normal image of the space floating image 3 due to unnecessary light are eliminated.
  • the retroreflective member 330 is tilted at a predetermined angle ⁇ 1 with respect to the horizontal axis (Y direction), and the spatial floating image 3 is obliquely with respect to the horizontal axis (in particular, at an angle closer to the vertical plane than to the horizontal plane). diagonal).
  • a first distance measuring device 340 is mounted at a predetermined position on the housing 350 . That is, this system implements the same sensing technology as in FIG. As a result, the user can access and interact with the floating image 3 in space.
  • a first sensing system including the first distance measuring device 340 detects the state of operation by the user's finger or the like on the floating image 3 .
  • a second sensing system including a second distance measuring device 341 may be added.
  • the mounting position and viewing angle ⁇ 3 of the first distance measuring device 340 should be appropriately selected so that the size of the spatially floating image 3 can be sufficiently covered.
  • the first distance measuring device 340 is located on the back side of the housing 350 in the Y direction (on the back side with respect to the position of the user and the floating image 3) and on the extension of the slope of the retroreflective member 330. , and is attached at a position shown in the drawing, which is a position a little apart so as not to block the image light flux of the image light.
  • the viewing angle ⁇ 3 (the range from the upper end A to the lower end B) of the first distance measuring device 340 is the angle of view of the entire spatial floating image 3 and the user viewing it from the viewpoint E at the reference position (opposing position).
  • the viewing angle is wide enough to cover areas including the face.
  • the viewing angle ⁇ 3 includes the viewing angle ⁇ 2 that captures the entire space-floating image 3 .
  • the viewing angle ⁇ 2 corresponds to the sensing planes a0, a1, a2, and a3 in FIG. 7, for example.
  • the TOF sensor of the first rangefinder 340 uses a rangefinder system in which the sensing surface of the floating image 3 is divided into a plurality of areas, as shown in FIG. 7 (or FIG. 8). This increases the resolution for each sensing area. Furthermore, when using the second sensing technique using a CMOS sensor as shown in FIGS. 8 and 9B, the detection accuracy can be further improved.
  • a light source that emits visible light having a narrow-angle directional characteristic is used as the light source device 13, and the first distance measuring device 340 is positioned to the outside of the narrow-angle image light flux on the housing 350 side. position.
  • a second rangefinder 341 may also be arranged.
  • FIG. 14 shows another embodiment of the spatial floating image information display system.
  • the spatial image information display system 1 of FIG. 13 is a system suitable for the user to observe the spatial floating image 3 obliquely from above.
  • the housing 350 of the spatial floating image information display system 1 is arranged on the horizontal plane (XY plane), and the spatial floating image 3 is arranged in the vertical direction (Z direction) in the front-rear direction (Y direction).
  • the viewpoint E When viewing the surface of the spatially floating image 3 directly from the user's viewpoint E, the viewpoint E is aligned with the optical axis J2 with respect to the surface of the spatially floating image 3 in the Y direction, as shown in the figure. It is placed slightly obliquely upward. The user can preferably visually recognize the spatially floating image 3 with a line of sight slightly obliquely downward from the viewpoint E in the Y direction.
  • the image display device 10, the mirror 360, etc. are arranged in a predetermined positional relationship.
  • the opening of the housing 350 in this example, an opening having a plane (XZ plane) that stands roughly in the vertical direction, has a predetermined angle ⁇ 1 (a slightly downward inclined angle) with respect to the Z direction.
  • a retroreflective member 330 is arranged.
  • Mirror 360 is a plane mirror.
  • image light from the image display device 10 is reflected by the mirror 360 and then enters the retroreflective member 330 .
  • the housing 350 has a portion protruding upward in the Z direction, and the image display device 10 is arranged within that portion.
  • the optical axis J1 of the image display device 10 is directed downward in the Z direction, backward in the Y direction, and obliquely downward at a predetermined angle ⁇ 1 with respect to the Z direction.
  • the image display device 10 includes a liquid crystal display panel 11 as an image display element, and a light source device 13 that generates specific polarized light having narrow-angle diffusion characteristics.
  • the liquid crystal display panel 11 can be applied from a small screen size of about 5 inches to a large screen size exceeding 80 inches, and is composed of a panel selected from them.
  • the image light from the liquid crystal display panel 11 is turned back on the optical axis J1 by the mirror 360, which is an optical path turning mirror, and is emitted toward the retroreflecting portion 330 on the optical axis J1B after being turned back.
  • Light from a light source device 13 having a narrow divergence angle, which will be described later, is incident on the liquid crystal display panel 11 .
  • an image light flux ⁇ 1 with a narrow divergence angle is generated.
  • the image light flux ⁇ 1 with a narrow divergence angle becomes image light flux ⁇ 1B after being reflected by the mirror 360 .
  • the image light beam ⁇ 1B having a narrow divergence angle is made incident on the retroreflective member 330 from the right side in the Y direction shown in the figure along the optical axis J1B. Due to the retroreflection by the retroreflection member 330, an image light flux ⁇ 2 with a narrow divergence angle is generated in the left direction of the retroreflection member 330 in the Y direction and in the direction of the optical axis J2, according to the principle explained with reference to FIG. be.
  • a spatially floating image 3 (a spatially floating image 331 in FIG. 4) is obtained at a predetermined position outside the opening of the housing 350 by the image light flux ⁇ 2.
  • the optical axis J2 is directed obliquely upward at a predetermined angle ⁇ 2 with respect to the Y direction (an angle (90° ⁇ 2) with respect to the Z direction).
  • the spatially floating image 3 is formed at a roughly symmetrical position with respect to the mirror 360 with the retroreflective member 330 as a plane of symmetry.
  • the image display device 10 is arranged above the spatially floating image 3 in the Z direction.
  • the retroreflective member 330 is positioned on the bottom surface of the housing 350 along the vertical axis ( Z direction) can be realized by arranging it at a predetermined angle ⁇ 1.
  • the spatial floating image 3 that can be generated by external light entering the retroreflecting member 330 and entering the housing 350. image quality deterioration can be prevented.
  • this embodiment In order to eliminate the ghost image (FIG. 4) that may occur in the spatially floating image 3 and obtain a higher quality spatially floating image 3, in the same way as in the second embodiment (FIG. 13), in this embodiment also: By providing an image light control sheet 334 ((A) in FIGS. 5 and 6) on the exit side of the liquid crystal display panel 11, diffusion characteristics in unnecessary directions may be controlled. Also, by providing an image light control sheet 334B ((B) in FIG. 6) on the image exit surface of the retroreflection member 330, ghost images generated on both sides of the normal image of the space floating image 3 due to unnecessary light are eliminated. You may
  • the image light from the liquid crystal display panel 11 may be S-polarized as in FIG. 13, or P-polarized for polarized sunglasses.
  • An element 339 may be provided.
  • the retroreflective member 330 is tilted at a predetermined angle ⁇ 1 with respect to the vertical axis (Z direction), and the spatial floating image 3 is tilted with respect to the horizontal axis (in particular, at an angle closer to the vertical plane than the horizontal plane). diagonal).
  • a first distance measuring device 340 ( FIG. 7 ) is mounted at a predetermined position on the housing 350 . That is, this system implements the same sensing technology as in FIG. As a result, the user can access and interact with the floating image 3 in space.
  • a first sensing system including the first distance measuring device 340 detects the state of operation by the user's finger or the like on the floating image 3 .
  • a second sensing system including a second distance measuring device 341 may be added.
  • the mounting position and viewing angle ⁇ 3 of the first distance measuring device 340 should be appropriately selected so that the size of the floating image 3 can be sufficiently covered.
  • the first distance measuring device 340 is located near the front of the retroreflective member 330 in the Y direction on the bottom surface of the housing 350 and is slightly away so as not to block the image light beam. position, shown.
  • the viewing angle ⁇ 3 of the first distance measuring device 340 is, in this example, a sufficiently wide field of view so as to cover the entire space-floating image 3 and the area including the face of the user viewing it from the viewpoint E at the reference position. It is said to be a corner.
  • the viewing angle ⁇ 3 includes the viewing angle that captures the entire space-floating image 3 .
  • CMOS sensor such as (B) in FIGS. 8 and 9 may also be used.
  • a light source that emits visible light having a narrow-angle directional characteristic is used as the light source device 13, and the first rangefinder 340 (further, the second rangefinder 341) is mounted on the housing. On the 350 side, it is arranged at an outer position with respect to the narrow-angle image light flux. As a result, it is possible to eliminate the adverse effect of the image light forming the spatially floating image 3 on the sensing accuracy.
  • a capacitive touch panel 361 may be fixed with a supporting member 362 between the floating image 3 and the retroreflective member 330 as shown in the drawing.
  • the supporting member 362 has a frame shape, for example, and supports the touch panel 361 inside.
  • the support member 362 is fixed to the bottom surface of the housing 350, for example.
  • the touch panel 361 is composed of a member that transmits image light for forming the spatially floating image 3 and light from the first distance measuring device 340 .
  • This touch panel 361 detects the state of proximity of the user's fingers to the surface of the touch panel using a capacitive method. Alternatively, the touch panel 361 detects the contact state of the user's fingers on the surface of the touch panel. By using the third sensing technology including the touch panel 361 together with the first sensing technology or the like, detection accuracy can be further improved. Similarly, the size and mounting position of the capacitive touch panel 361 should be selected so that the floating image 3 can be sufficiently covered.
  • a touch panel of this type for example, has ITO, which is a transparent electrode (Y-axis electrode) having a minute line-to-line distance, and a copper thin film, which is a transparent electrode (X-axis electrode) having a minute line-to-line distance, on a transparent glass substrate. It is manufactured by patterning by photolithographic etching on both sides of the . Therefore, when an object (for example, a fingertip) approaches this transparent glass substrate, the X-axis electrode and the Y-axis electrode detect changes in capacitance, and the relative coordinates of the object can be obtained. In addition, this method can achieve multi-point detection because the shorter the line-to-line distance of the transparent electrodes is, the higher the resolution can be obtained. Therefore, this method enables simultaneous input with a plurality of fingers.
  • Embodiment 1 related to kiosk terminal>
  • Embodiment 1 an example (referred to as Embodiment 1) in which the spatial floating image information display system 1 described above is applied to a so-called kiosk terminal will be described below.
  • a kiosk terminal is an information terminal that allows an unspecified number of people to access necessary information and use various services through a man-machine interface such as a touch panel operation or a user interface.
  • Kiosk terminals are installed in public facilities, transportation facilities, entertainment facilities such as amusement parks, and in recent years, inside so-called convenience stores. Kiosk terminals are also used for selling various types of tickets and administrative services (for example, issuance of resident cards).
  • kiosk terminal is used to refer to an information terminal having a specific configuration. Instead of the term “kiosk terminal”, “information terminal”, “information display device”, “information processing terminal”, “ticket issuing terminal”, “document issuing terminal”, “administrative terminal”, “service terminal” and so on.
  • the term “kiosk terminal” mainly used in the description of the embodiments is used as a representative example of these terms.
  • FIG. 15 shows an example of the appearance of a general kiosk terminal based on conventional technology.
  • This kiosk terminal 1400 includes a metal housing 1450 having a height of, for example, about 120 to 50 cm. and an input button 1420 are provided.
  • the liquid crystal display screen 1410 is a part of the liquid crystal display device, and is a screen with a touch panel that displays various information and accepts a user's touch operation.
  • the input button 1420 is a physical button for inputting a personal identification number or the like unique to the user, or a touch button in a screen configured with a touch panel.
  • a part of the surface of the housing 1450 is provided with an outlet 1430 .
  • the take-out port 1430 is a take-out port for taking out tickets, administrative documents, etc. issued as a result of an operation on the kiosk terminal 1400 .
  • FIG. 16 shows an example of the external configuration of a kiosk terminal as the spatially floating image information display system of the first embodiment.
  • FIG. 16 shows an outline of the kiosk terminal 1500 viewed obliquely from the right.
  • the kiosk terminal 1500 in FIG. 16 differs from the kiosk terminal 1400 in FIG. 15 as follows.
  • the kiosk terminal 1500 of FIG. 16 in addition to the liquid crystal display screen 1510 by the liquid crystal display device on the surface of the housing 1550 (especially the slope 1570), there is a space floating image display unit for displaying the space floating image 3 described above. 1520 is provided.
  • the kiosk terminal 1500 has two screens, the liquid crystal display screen 1510 and the spatially floating image display section 1520, with two types of images. It is a configuration divided into two display units.
  • the screen of the floating image display unit 1520 (also referred to as the first screen) is used as a basis.
  • a concierge and an operation menu are displayed as a user interface using the space floating image 3 .
  • the first screen of the spatial floating image display unit 1520 is based on an area of a predetermined size vertically and horizontally. In this example, the first screen has a slightly oblong size.
  • the liquid crystal display screen 1510 (also referred to as the second screen) can display arbitrary images, and is used for purposes such as displaying advertisements, for example, similar to general kiosk terminals.
  • the liquid crystal display screen 1510 is, for example, a liquid crystal touch panel screen equipped with a touch sensor.
  • the second screen which is the liquid crystal display screen 1510, may be combined with the first screen of the spatial floating image display unit 1520 to be used as a user interface such as an operation menu.
  • both the concierge and the operation menu may be displayed as one floating image 3 on the first screen of the floating image display unit 1520 in FIG.
  • the displayed contents may be small and detailed, making it difficult to see. Therefore, in the embodiment of FIG. 16, display switching and the like are controlled so that one of the concierge and the operation menu is displayed as large as possible in the first screen.
  • the positional relationship between the liquid crystal display screen 1510 and the floating image display section 1520 is not limited to the configuration example of FIG.
  • the vertical arrangement of these may be reversed. That is, on the slope 1570, the floating image display unit 1520 may be arranged on the upper part and the liquid crystal display screen 1510 may be arranged on the lower part. In addition, they may be arranged side by side on the slope 1570 .
  • FIG. 17 which will be described later, in a configuration in which a kiosk terminal 1500 includes a liquid crystal display screen 1510 and a spatial floating image display unit 1520, the liquid crystal display screen 1510 is arranged above and the spatial floating image display unit 1520 is arranged below. This configuration is more suitable for component arrangement in housing 1550 .
  • the screens of these two display units are the liquid crystal display screen 1510 and the floating image display unit 1520, respectively.
  • “This is a liquid crystal screen” or "This is a floating image” may be displayed on each screen. This improves usability for the user.
  • notations such as “liquid crystal screen” and "space floating image” may be physically displayed in advance near the frame portion of each screen.
  • a concierge 1521 (also referred to as a person image or a concierge image) is displayed as the spatial floating image 3 in the spatial floating image display section 1520 .
  • an operation menu displayed on the floating image display unit 1520 can be operated.
  • the concierge 1521 provides operation guidance (also referred to as operation guide, operation explanation, etc.) to the user by video and audio.
  • the user can feel as if a real person (concierge) is present on the kiosk terminal 1500. Moreover, the concierge carefully explains to the user how to operate the kiosk terminal 1500 and the like. Therefore, even a user or the like who touches the kiosk terminal for the first time can easily operate the kiosk terminal 1500 and receive a desired service without being confused.
  • the spatial floating image display unit 1520 in the embodiment of FIG. 16 may apply the configuration of the retroreflective member 2 or the like in FIG. 3 as a method for forming the spatial floating image 3,
  • the configuration of the retroreflective member 330 or the like shown in FIGS. 13 and 14 may be applied.
  • other methods that can display a spatially floating image in the air may be applied. Both are applicable.
  • FIG. 17 a case in which the configuration of FIG. 14 is applied is shown.
  • the detection method for detecting the user's operation on the spatially floating image 3 in the embodiment of FIG.
  • a method based on the first or second sensing technique shown in FIGS. 7 and 8 may be applied.
  • other methods that can detect mid-air operations on a spatially floating image may be applied. Either method is applicable.
  • This embodiment shows a case (FIG. 17) in which the configurations of FIGS. 7 and 14 are applied.
  • the kiosk terminal 1500 of FIG. 16 is provided with two cameras 1541 and 1542 at the left and right positions of the housing 1550 (especially the slope 1570). These cameras are stereo cameras corresponding to the imaging unit 1180 in FIG. Cameras 1541 and 1542 capture an area including the face and iris of a user (for example, the user who operates the floating image 3) who is near the front of the kiosk terminal 1500 (front side in the Y direction in the drawing). .
  • the control unit 1110 (FIG. 2) of the kiosk terminal 1500 which is the spatial floating image information display system 1, performs processing for detecting that the user has approached the kiosk terminal 1500 based on the images captured by the cameras 1541 and 542, and identifies the user. - It is configured to perform identification processing or user authentication processing.
  • a camera may be arranged inside the housing 1550, or a configuration may be adopted in which imaging information captured by a camera arranged outside is transmitted to the kiosk terminal 1500 by wire or wirelessly.
  • the two cameras 1541 and 1542 on the left and right can be used for stereo imaging, and the user's face can be imaged as a stereoscopic image, and the distance and position to an object such as the face can be calculated. Therefore, in this system, compared to the case where a single camera captures the user's face as a two-dimensional image, the accuracy of user face authentication can be improved, and it is also suitable from the viewpoint of preventing unauthorized use.
  • the kiosk terminal 1500 in FIG. 16 is provided with two speakers, particularly two super-directional speakers 1551 and 1552 (corresponding to the speaker/super-directional speaker 30 in FIG. 2) on the left and right sides of the housing 1550. It is By providing the super-directional speaker, it is possible to emit highly directional sound that can only be heard by the user who is trying to operate the kiosk terminal 1500 .
  • the kiosk terminal 1500 may be equipped with a speaker that outputs normal audible sound, but in the following cases, a super-directive speaker is used so that other people other than the target user cannot hear it. It is preferable to adopt a configuration in which the audio speakers 1551 and 1552 are provided.
  • the voice emitted from the kiosk terminal 1500 according to the user's operation for example, is the user's name, date of birth, input number information, etc.
  • application of a super-directional speaker is suitable.
  • the super-directional speakers 1551 and 1552 are installed so as to protrude outside the housing 1550, but they may be arranged inside the housing 1550 without being limited to this.
  • the super-directional speakers 1551 and 1552 may output an audio signal indicating that a button or the like for the operation menu of the floating image 3 has been pressed so that only the user can hear it.
  • FIG. 17 shows an explanatory diagram of the internal structure of the kiosk terminal 1500 of FIG.
  • FIG. 17 shows a YZ cross section of the internal see-through when the housing 1550 of FIG. 16 is viewed from the right side.
  • the upper portion of housing 1550 is shaped to have a slope 1570 .
  • the image display device 10, the mirror 360, the retroreflection member 330, etc. which are the constituent elements of the spatially floating image information display system 1 explained in FIG. 14, are accommodated. Since this configuration is similar to that of FIG. 14, detailed description thereof will be omitted. Note that the touch panel 361 in FIG. 14 is not applied in FIG.
  • a control device implementing the control unit 1110 of FIG. 2 a communication device implementing the communication unit 1132, and a power supply device may be accommodated.
  • a human sensor 1560 may be provided on the lower portion (for example, the front surface) of the housing 1550 as shown. Human sensor 1560 detects that a person has approached kiosk terminal 1500 .
  • the direction of image light emitted from the image display device 10 in the housing 1550 is changed by the mirror 360 and made incident on the retroreflective member 330 .
  • the retroreflected light from the retroreflecting member 330 is emitted obliquely upward on the side opposite to the image display device 10 (the front side in the Y direction).
  • a spatially floating image 3 is generated at the position of the spatially floating image display section 1520 .
  • a slope 1570 of the housing 1550 has a predetermined angle ⁇ 1 with respect to the horizontal plane (Y direction).
  • an opening (indicated by a dotted line) of the spatially floating image display section 1520 is provided at a position obliquely below the liquid crystal display screen 1510 above.
  • a transparent member or the like may be provided in the opening.
  • the image light from the retroreflection member 330 passes obliquely upward through the opening and forms the space-floating image 3 which is a real image at a predetermined position outside the slope 1570 .
  • This spatially floating image 3 is formed so as to be tilted forward at a predetermined angle ⁇ 2 with respect to the slope 1570 .
  • the spatially floating image 3 appears to protrude in front of the slope 1570 and float.
  • the user can preferably view the spatially floating image 3 displayed on the spatially floating image display unit 1520 by looking diagonally downward from the obliquely upper viewpoint E, as in FIG. 14 .
  • the optical path is turned back by the mirror 360 inside the housing 1550, so a longer optical path can be secured inside the housing 1550.
  • a longer distance can be ensured for the spatially floating image 3 to project obliquely upward in front of the retroreflective member 330 .
  • the thickness dimension of the housing 1550 in the depth direction (Y direction) can be suppressed.
  • the first distance measuring device 340 (including the above-described TOF sensor, etc.) senses the range covering the entire spatially floating image 3 through the opening of the spatially floating image display unit 1520. .
  • the lower end B of the sensing range of the first distance measuring device 340 is slanted above the horizontal plane (Y direction) to match the opening. (Y direction).
  • the sensing range can be designed by changing the position of the opening of the housing 1550 and the arrangement position of the first rangefinder 340 .
  • the sensing system including the first distance measuring device 340 detects whether the user has sufficiently approached the kiosk terminal 1500 (the slope 1570 of the housing 1550, or the spatially floating image 3, etc.), or is combined with the camera. may be used to assist in its detection. 17 with the first distance measuring device 340 and the second distance measuring device 341 as shown in FIG. Alternatively, the optical axis for distance measurement may be brought closer to the horizontal plane (Y direction).
  • the kiosk terminal 1500 uses a sensing system including the first distance measuring device 340 to sense the operation of the user's fingers on the spatially floating image 3 of the spatially floating image display unit 1520 .
  • the control unit 1110 of the kiosk terminal 1500 controls the display contents of the spatially floating image 3 on the spatially floating image display unit 1520 (user interfaces such as the concierge 1521 and an operation menu to be described later) according to the detection information including the sensing. do.
  • the kiosk terminal which is the spatially floating image information display system of Embodiment 1, the user-friendliness and convenience are high, and the user of the kiosk terminal or the like can be provided with an interface and necessary information using a suitable spatially floating image.
  • the system of the first embodiment even a user who has never operated a user interface such as an operation menu displayed as a floating image in space, a user who is unfamiliar with the operation, or an elderly user may be able to , provides operation guidance by a concierge as a friendly person image displayed as a space floating image. As a result, it is possible to avoid or reduce erroneous user input and erroneous operation with respect to the space-floating image interface, thereby enabling more reliable operation.
  • FIG. 18 shows an external configuration example of another embodiment (referred to as Embodiment 2) related to the kiosk terminal.
  • the kiosk terminal 1600 shown in FIG. 18 is different from the configuration in FIG. there is One screen by this spatial floating image display unit 1620 is larger in size than the screen of the spatial floating image display unit 1520 in FIG.
  • the spatially floating image display unit 1620 has one vertically long screen on which one spatially floating image 3 is displayed.
  • both the concierge and the operation menu are displayed side by side within the space floating image 3 of this one screen, and the concierge guides the operation of the operation menu.
  • the space floating image 3 is displayed on the front side of the slope 1670.
  • the spatial floating image 3 has a concierge 1621 projected on the top and an operation menu 1622 projected on the bottom.
  • the operation menu 1622 includes, for example, operation buttons (indicated by circles and triangles).
  • a concierge 1621 explains and guides how to operate the operation menu 1622 . 18, the user can easily operate the kiosk terminal 1600, especially the operation menu 1622, following the guidance of the concierge 1621, and receive the desired service, as in the case of FIG.
  • FIG. 18 also includes cameras 1641 and 1642, super-directional speakers 1651 and 1652, and a human sensor 1660 in the housing 1650, which is the same as the configuration of FIG.
  • FIG. 19 shows an explanatory diagram of an example of the internal structure of the kiosk terminal 1600 in FIG. 18, and shows a YZ cross section of the internal see-through when the kiosk terminal 1600 is viewed from the right side.
  • This kiosk terminal 1600 accommodates the constituent elements of the spatial floating image information display system 1 of FIG. That is, the video display device 10, the retroreflective member 330, and the like are arranged in the upper part of the housing 1650. As shown in FIG.
  • the video display device 10 is arranged roughly on a horizontal plane (more specifically, a state in which the back side is tilted slightly upward with respect to the Y direction) on the upper bottom surface of the housing 1650 .
  • the optical axis J1 of the image display device 10 is generally directed vertically upward (in the Z direction).
  • an opening (indicated by a dotted line) for the spatial floating image display section 1620 is provided on the slope 1670 of the upper portion of the housing 1650 .
  • a retroreflective member 330 is arranged at a predetermined angle within the upper portion of the housing 1650 and near the opening thereof.
  • the beveled surface 1670 has a predetermined angle ⁇ 1, and the retroreflective member 330 is arranged at a predetermined angle ⁇ 3 with respect to the beveled surface 1670.
  • a spatially floating image 3 which is a real image, is generated at a predetermined position outside the opening in the spatially floating image display section 1620 of the slope 1670.
  • This spatially floating image 3 is obliquely arranged at a predetermined angle ⁇ 2 with respect to the slope 1670.
  • the user can preferably visually recognize the spatially floating image 3 from an obliquely upper viewpoint E and an obliquely downward line of sight.
  • a first distance measuring device 340 (including a TOF sensor, etc.) is installed at a predetermined position in the upper portion of the housing 1650, in this example, at a position near the upper end of the retroreflective member 330. It is The optical axis of the first distance measuring device 340 faces the spatially floating image 3 and the viewing angle is set to cover the entire spatially floating image 3 .
  • a sensing system including the first distance measuring device 340 mounted on the kiosk terminal 1600 senses an operation of the user's finger UH on the spatially floating image 3 of the spatially floating image display unit 1620 .
  • both a concierge 1621 as the spatial floating image 3 and an operation menu 1622 as the spatial floating image 3 are displayed on one spatial floating image display unit 1620 at the same time.
  • the display method of the spatial floating image on the kiosk terminal is not limited to this.
  • the display of the concierge and the display of the operation menu may be switched within one screen of the floating image display unit 1620 .
  • FIG. 20 shows an example of display of spatial floating image 3 on a kiosk terminal as an example (referred to as Embodiment 3).
  • the kiosk terminal in FIG. 20 shows a configuration based on the kiosk terminal 1500 in FIG.
  • the kiosk terminal of FIG. 20 is a kiosk terminal to which the spatially floating image 3 formed by the spatially floating image information display system 1 is applied as a user interface.
  • 21 and 22 show the operation flow when the user operates the kiosk terminal of FIG.
  • FIG. 21 shows the first operation flow involved when the kiosk terminal in FIG. 20 is activated.
  • the first operation flow shows basic operations.
  • the kiosk terminal is in a standby state (in other words, a sleep state).
  • the kiosk terminal detects whether a user approaches the kiosk terminal. A user who intends to use the kiosk terminal approaches the kiosk terminal, or the user stands at a predetermined position near the kiosk terminal. When the user approaches this kiosk terminal, it is detected that the user has approached this kiosk terminal (in particular, the front of the slope 1570) based on the images taken by the cameras 1541 and 1542.
  • FIG. instead of the camera, a motion sensor 1560 using infrared rays in FIG. If it is detected that the user has approached the kiosk terminal (YES), in step S102, the kiosk terminal transitions to the activated state. Then, in the activated state, the user can use the kiosk terminal.
  • step S103 the kiosk terminal displays the concierge 1521 or the operation menu 1522 on the space-floating image display unit 1520, and guides the user on the operation method etc. while performing the operation (in other words, inputting) on the operation menu 1522. ), and performs predetermined processing (application or service processing) according to the detection of the operation.
  • predetermined processing application or service processing
  • FIG. 20A a concierge 1521 is displayed on the space-floating image display unit 1520, and the image and sound of the concierge 1521 greet the user and provide operational guidance.
  • the display of the floating image display unit 1520 automatically transitions from the concierge 1521 to the operation menu 1522 as shown in FIG. 20B.
  • the user operates the operation menu 1522 with fingers.
  • the kiosk terminal detects an operation using sensing technology and performs processing according to the detected operation.
  • the image of the concierge 1521 may be a moving image of an actual person taken in advance, a person image created by CG or the like, or an animation representing a person's appearance.
  • it is not limited to people, and may be animals, fictional characters, or the like.
  • step S104 it is detected whether the user has left the kiosk terminal.
  • the kiosk terminal When the user leaves the kiosk terminal, it is detected that the user has left the kiosk terminal (especially the slope 1570 on the front) based on images taken by the cameras 1541 and 1542 .
  • the motion sensor 1560 or the like in FIG. 16 may detect that the user has left the kiosk terminal. If it is detected that the user has left the kiosk terminal (Y), the kiosk terminal transitions to a standby state in step S105.
  • FIG. 22 shows the second operation flow related to the activation of the kiosk terminal in Embodiment 3 of FIG.
  • the second operation flow shows a more detailed embodiment than the first operation flow.
  • the second operation flow shows an operation flow for performing user authentication and the like as operations after the kiosk terminal is activated.
  • the kiosk terminal when the flow starts, the kiosk terminal is in a standby state.
  • the user approaches the front of the kiosk terminal or stands at a predetermined position near the kiosk terminal.
  • the kiosk terminal detects whether or not the user has approached this kiosk terminal (especially the front of the slope 1570) by stereo photography with two cameras or the like. If the user is detected (Y), in step S202, the kiosk terminal first displays the concierge 1521 on the floating image display unit 1520 as shown in FIG. , greeting the user, for example, "Welcome, thank you for using the service.”, and also displays a greeting message.
  • the kiosk terminal authenticates the detected user.
  • the kiosk terminal also displays a message indicating that authentication is in progress, such as "authenticating", as the floating image 3 in space.
  • the kiosk terminal performs face authentication of an approaching person (that is, a detected user) based on the captured images (especially face images) of the two cameras 1551 and 1552, thereby identifying and specifying the user.
  • face authentication may be based on an iris image of the user's eye.
  • the authentication is based on the stereo image obtained by photographing the user's face or iris within a predetermined range in front of the kiosk terminal with two cameras. is the authorized user of this kiosk terminal registered in advance in this system.
  • authentication based on the user's image is possible even by photographing with one camera, but by using stereo images from two cameras 1551 and 1552, it is possible to perform authentication based on the image from one camera. , it is possible to perform user authentication with higher accuracy and less fraudulent use. For example, it is possible to detect unauthorized authentication using a face image in which an image of the face taken only from the front is printed on paper.
  • the following are also applicable as other methods of user authentication, not limited to the face authentication described above. It is also possible to apply a method of user authentication by having the kiosk terminal read information on personal identification such as a personal number card possessed by the user and information on a commuter pass. A method of performing user authentication by exchanging user information stored in a portable terminal or the like owned by the user through short-range wireless communication between the portable terminal and the kiosk terminal can also be applied.
  • code information such as a QR code (registered trademark) containing personal information that can identify the user (for example, name, address, date of birth, kiosk terminal usage history, etc.) is displayed on a mobile terminal such as a smartphone owned by the user. Then, the code information is presented to the space-floating image display unit 1520 of the kiosk terminal (for example, held up to the cameras 1551 and 1552). A method of performing user authentication by reading the presented user information with the cameras 1551 and 1552 of the kiosk terminal can also be applied.
  • QR code registered trademark
  • step S204 the kiosk terminal confirms whether or not the above-mentioned user authentication has succeeded, and proceeds to step S206 in the case of success, and proceeds to step S205 in the case of failure.
  • step S205 the kiosk prompts for another authentication method and returns to step S203 to attempt authentication with the other authentication method.
  • the kiosk terminal may present a predetermined operation menu screen (an operation menu corresponding to an unspecified number of users) on the spatial floating image display unit 1520, or alternatively, the user may be authenticated. You may make it present the optimal menu screen (personal operation menu) for each user identified by .
  • the display of the floating image display unit 1520 changes/transitions from the concierge 1521 to the operation menu 1522 as shown in (A) to (B) of FIG. 20 .
  • the operation menu 1522 in (B) displays a message (text image) as an example of the contents, "Please select an item by touching it.” , "2. Ticket purchase", "3. Registered information", and "4. Another menu” are displayed.
  • "1 Issuance of resident's card” is an item related to administrative procedures such as issuance of resident's card.
  • "2 Ticket purchase” is an item related to the purchase and receipt of tickets for concerts, movies, trains, and the like.
  • "3 Registered information” is an item related to confirmation and change of registered information related to the user.
  • Another menu is an item for transitioning to another menu.
  • the user presses, for example, the button for the item "2 Purchase ticket” depending on the purpose.
  • the kiosk terminal causes the display to transition to the next operation menu according to the pressed button. A more detailed example is provided below.
  • the spatial floating image information display system 1 of the kiosk terminal accesses the kiosk server on the communication network via the communication unit 1132 (FIG. 2) and notifies the user authentication result information.
  • the kiosk terminal determines whether the user has used the kiosk terminal in the past by acquiring and referring to the user's attribute information from the user database in the kiosk server. do.
  • the kiosk terminal may acquire and refer to the user's attribute information and the like based on the code information and the like from the user's portable terminal.
  • the user attribute information includes, for example, the user's sex, age, past usage history of the kiosk terminal, and the like.
  • the kiosk terminal may acquire user information including user attribute information from the user's portable terminal through wireless communication.
  • the kiosk terminal receives other predetermined data related to the user and the operation menu from an external device such as a kiosk server, such as ticket reservation information and other information that the user has entered and registered in advance. You may acquire it together.
  • the kiosk terminal may determine attributes such as age of the user based on the images of the cameras 1541 and 1542. FIG. The user attribute information acquired in step S206 is used in the determination of the next step S207.
  • step S207 the kiosk terminal determines whether the user is a "first-time user” or an "elderly user” using the kiosk terminal based on the user attribute information obtained in step S206. to judge. If it is determined that the user satisfies such a predetermined condition (YES), the process proceeds to step S208, and if it is determined that the user does not satisfy the condition (NO), the process proceeds to step S209.
  • the kiosk terminal omits the operation guidance by the concierge, or uses simplified operation guidance compared to the second processing flow.
  • the kiosk terminal provides detailed operational guidance by the concierge.
  • step S208 the kiosk terminal performs "operation guidance with audio by the concierge" on the spatial floating image display unit 1520.
  • “concierge” means “guide”, and as shown in FIG. ) is displayed.
  • the concierge 1521 provides the user with voice and gestures for the first time to operate a kiosk terminal using the floating image 3 as a user interface, or for an elderly user who is unfamiliar with the operation. Guidance on methods, etc. will be provided.
  • the concierge 1521 explains and guides the user regarding the operation of the operation menu 1522 as shown in (B) where the user does not understand.
  • step S208 first, an image of the concierge 1521 appears on the screen of the floating image display unit 1520, as shown in FIG. 20(A).
  • the concierge 1521 outputs text video and voice such as "I will guide you on how to operate, so please operate the menu according to my explanation.”
  • the audio is provided in a manner audible only to the user, for example, by super-directional speakers 1551, 1552 of FIG. 20(A).
  • the concierge 1521 guides the user by sequentially telling the user how to use the kiosk terminal and the operation menu.
  • step S208 the guidance by the concierge 1521 continues even after the screen of the floating image 3 is switched to the operation menu 1522.
  • FIG. The kiosk terminal appropriately switches between display of the concierge 1521 and display of the operation menu 1522 on the floating image display unit 1520 .
  • the user operates the operation menu 1522 on the screen of the space floating image display unit 1520 according to the operation guide of the concierge 1521 .
  • step S210 the user performs a predetermined series of operations on the operation menu 1522 of the kiosk terminal, such as inputting a personal identification number for issuing a ticket.
  • the kiosk terminal detects the operation, processes it, and issues a ticket.
  • a user receives a ticket from the outlet 1530 . If the user's desired operation and the corresponding kiosk terminal operation, for example, ticket issuance are completed (Y), the process proceeds to step S212.
  • step S212 the kiosk terminal again displays the operation menu 1622 (for example, the first menu screen, the next menu screen if there is a next menu, or the last menu screen, etc.) on the screen of the floating image display unit 1520. ).
  • the kiosk terminal ends the display on the floating image display unit 1520 .
  • the kiosk terminal may display the concierge 1521 on the screen at the end and output to the user that the display has ended (“Thank you for using the service”, etc.).
  • step S209 the kiosk terminal performs display assuming that the user is familiar with the operation to some extent, not the first time.
  • the kiosk terminal switches the screen display of the space floating image display unit 1520 to the operation menu 1522 as shown in FIG. 20B. Thereafter, the user performs desired operations such as selection of items according to the operation menu 1622 on the screen.
  • step S211 similarly to step S210, if a series of predetermined operations and corresponding operations (for example, ticket issuance) are completed (Y), the process proceeds to step S212.
  • step S212 is provided in consideration of the possibility that the user's operation may not go well even if the process proceeds to step S209.
  • step S211 if the user does not complete the predetermined series of operations (N), the process proceeds to step S212.
  • step S212 the kiosk terminal determines whether the user's operation in the operation menu 1522 is successful. In a specific example, the kiosk terminal determines whether the user's operation in the operation menu 1522 has stopped (in other words, there is no input) for a period of time longer than a predetermined period of time (for example, 30 seconds). The user may stop the operation when he/she does not understand the operation of the operation menu 1522 as the floating image 3 in space. The kiosk terminal uses a camera, sensing technology, etc. to detect the long-term inactivity. If it is determined that the operation has been stopped for a long time (Y), the process proceeds to step S206, and if not (N), the process proceeds to step S209.
  • the kiosk terminal may determine whether the user is performing an incorrect operation on the surface of the floating image 3 (operation menu 1522). For example, it may be determined that the finger is about to touch at a position away from the item button or the like.
  • the kiosk terminal displays the concierge 1521 on the spatial floating image display unit 1520 for the user, and guides the operation by the concierge 1521.
  • the kiosk terminal may reproduce an operation guide according to predetermined contents as the operation guide by the concierge 1521, but more preferably, the operation of the operation menu 1522 where the user has stopped the operation in step S212 is performed. guide. For example, when the user's operation is stopped in the operation menu after the "2. Purchase ticket" button in (B) of FIG.
  • the concierge 1521 guides the operator as to whether the operation should be performed.
  • the kiosk terminal when the user approaches the kiosk terminal, displays the concierge 1521 as the floating image 3 and starts operation guidance by the concierge 1521 . Therefore, even a user who operates a kiosk terminal for the first time or a user such as an elderly person who is inexperienced in operation can receive operation guidance from the concierge 1521, sound from a super-directional speaker (operation guidance that other people cannot hear), etc. Accordingly, the predetermined operation can be reliably performed.
  • the user is identified by authentication, and based on the user's age and system usage history, the concierge provides information to the user who is performing the operation for the first time, the user who is unfamiliar with the operation, and the elderly user.
  • the concierge provides information to the user who is performing the operation for the first time, the user who is unfamiliar with the operation, and the elderly user.
  • FIG. 25 shows a display example in the modified example.
  • the kiosk terminal displays the image of the operation menu 1522 as large as possible within one screen of the spatially floating image 3 by the spatially floating image display unit 1520 .
  • the kiosk terminal superimposes an image of the concierge 1521 on its operation menu 1522 in a relatively small size.
  • the kiosk terminal guides the operation of the operation menu 1522 by the concierge 1521 .
  • the concierge 1521 is a moving image including gestures, hand gestures, mouth and eye movements, etc., rather than a still image.
  • the kiosk terminal may appropriately change the display presence or absence of the concierge 1521 and the display position within the screen of the operation menu 1522 .
  • FIG. 23 shows, as another example (referred to as Embodiment 4), an example in which a kiosk terminal and a portable terminal held by a user perform cooperative operations.
  • a kiosk terminal 1700 in FIG. 23 is a kiosk terminal to which the spatially floating image 3 formed by the spatially floating image information display system 1 is applied as a user interface.
  • the kiosk terminal 1700 and a portable terminal 1740 such as a smart phone possessed by the user 1710 are linked.
  • the kiosk terminal 1700 in FIG. 23 is based on the configuration of the kiosk terminal 1600 in FIG.
  • the kiosk terminal 1700 authenticates the user 1710 and displays the concierge 1721 and the operation menu 1722 on the spatial floating image display unit 1720. do.
  • the user operates the operation menu 1722 according to the guidance of the concierge 1721 or the like. For example, "2 Ticket purchase” is selected and operated from the operation menu 1522 as shown in FIG. 20(B).
  • the kiosk terminal displays an operation menu 1722 transitioning from "2 Ticket purchase” on the screen of the floating image display unit 1720 in space.
  • a user 1720 performs detailed operations for purchasing a ticket using an operation menu 1722 .
  • a ticket is issued in a form printed on paper, for example, and the user 1710 receives the paper ticket.
  • a method of obtaining a ticket it is possible not only to receive a ticket printed on paper, but also to receive it in the form of a so-called electronic ticket (or “e-ticket”).
  • user 1710 receives the same information as the ticket printed on paper (that is, an electronic ticket) on portable terminal 1740 owned by user 1710 instead of the ticket printed on paper.
  • a communication interface such as Bluetooth (registered trademark).
  • the electronic ticket is directly transmitted from the kiosk terminal 1700 to the mobile terminal 1740 of the user.
  • the kiosk terminal guides the communication operation by the concierge 1721 .
  • the kiosk terminal 1700 displays the information content of the electronic ticket as a floating image 3 (for example, part of the operation menu 1722) on the screen of the floating image display unit 1720.
  • Code information 1760 (in other words, code image) such as a barcode or QR code (registered trademark) is displayed.
  • User 1710 reads the code information using his mobile terminal 1740 .
  • the user 1710 performs an operation of reading the code information 1760 displayed in the operation menu 1722 with a reader function such as a camera of the portable terminal 1740 under the guidance of the concierge 1721 .
  • Concierge 1721 guides the reading operation.
  • the mobile terminal 1740 acquires an electronic ticket based on the read code information 1760 and holds it in a memory or the like inside the mobile terminal 1740 .
  • the items and information that the user 1710 can receive from the kiosk terminal 1700 are not limited to paper tickets and electronic tickets, but may be, for example, coupons that can be used for shopping, point information, electronic books, and the like. Tickets and coupons printed on paper may be lost, but electronic tickets and coupons are held inside the mobile terminal 1740, so the possibility of loss can be reduced. In addition to reducing the possibility of loss, by holding electronic tickets and coupons inside the mobile terminal 1740, it is easier to use a mobile phone than tickets and coupons printed on paper. A form of use is possible, such as presenting a terminal or reading an electronic ticket held in a mobile terminal by a ticket issuer. This improves usability for the user.
  • the kiosk terminal transmits information (for example, access history information, operation history information, etc.) related to the operation menu to the user's portable terminal by wireless communication in response to the user's operation on the operation menu of the floating image 3.
  • information for example, access history information, operation history information, etc.
  • FIG. 24 shows, as an example (embodiment 5), a detailed example of a function (FIG. 12) that allows the user to input and draw arbitrary characters and graphics on the floating image 3 described above. For example, when a user receives a paper-based ticket or an electronic ticket from a kiosk terminal through the series of procedures described in FIG. )I do.
  • a kiosk terminal 2000 in FIG. 24 is an example based on the configuration of the kiosk terminals in FIGS.
  • (A) shows a state in which a concierge 2021 is displayed as the spatially floating image 3 on the spatially floating image display unit 2020 .
  • (B) shows a state in which a user interface for sign input is displayed as a floating image 3 in space.
  • (C) shows a state in which the user's signature is input and drawn in the user interface.
  • D shows a state in which a concierge 2021 is displayed as the spatial floating image 3 in response to the completion of sign input.
  • the concierge 2021 outputs video and audio of a message to the user, for example, "Lastly, please sign to confirm that the customer has received the ticket.” This prompts the user to sign for the floating image 3 (in other words, sign for acceptance).
  • the kiosk terminal erases the display of the concierge 2021, and as shown in FIG. user interface).
  • the words "Please sign for ticket receipt” are displayed as characters drawn as the space floating image 3 on the signature screen 2022.
  • a frame line (sign frame line area) 2023 indicating an area to be signed is displayed under the text.
  • the frame line 2021 is displayed, for example, based on a predetermined background color (eg, black), and the frame lines on the four sides are displayed in a predetermined color (eg, green).
  • a predetermined background color eg, black
  • the frame lines on the four sides are displayed in a predetermined color (eg, green).
  • the frame line 2021 is displayed in its predetermined color (for example, green).
  • the user uses the tip of his/her finger UH or a predetermined conductive pen to sign his/her name, in this example, within the frame line 2023. Then, perform the operation to draw “Tom” in cursive.
  • the kiosk terminal uses sensing technology to detect mid-air operations on the surface of the floating image 3, as in the case described above (FIG. 12), and adjusts the floating image according to the detected contact position of the fingertip. 3 (inside the frame line 2023), a line segment is drawn in real time.
  • a line segment 2024 is a one-stroke line corresponding to the input/drawn signature (“Tom”). Line segment 2024 is displayed in a predetermined color.
  • the kiosk terminal determines and detects that a predetermined time (for example, 5 seconds) has elapsed after the fingertip is released, it considers that the user's signature input has been completed. Then, the kiosk terminal causes a transition to a screen 2025 indicating the end of signature input, as shown in FIG. 24(D). On this screen 2025, for example, along with the appearance of the concierge 2021, a message such as "Thank you for your signature” is displayed and output as a voice. This completes the series of operations for the user to "sign" for acknowledging that the user has received the ticket.
  • a predetermined time for example, 5 seconds
  • the frame line 2023 is not limited to red, but may be of another predetermined color, such as blue. may be displayed in Also, the frame line 2023 may be blinked when there is contact. Furthermore, in the touched state, the background area within the frame line 2023 may be changed to white, and the color of the line segment written in the background area may be another predetermined color, such as black. Alternatively, the background area within the frame line 2023 may be black, and the line segments written in the background area may be white.
  • the kiosk terminal controls the display in the sign frame area 2023 so that the user can easily recognize the line segments of characters and figures drawn according to the movement of the user's fingertip in the sign frame area 2023 .
  • the kiosk terminal controls so as to change the mode of display in the sign frame area 2023 according to the state of fingertip contact with the sign frame area 2023 .
  • Embodiment 5 a function (aerial sign function) is provided that allows the user to move his or her fingers to input any character or the like as a sign for the spatially floating image 3 . Also, with this function, the display of the frame line 2023 and the like changes depending on whether or not the fingertip is in contact with the surface of the floating image 3. It is easy to understand the state of whether or not you are doing it, and it is easy to enter your signature. In the above example, an example in which the input for the spatially floating image 3 is used for a sign has been shown, but it is not limited to this and can be used for other applications.
  • FIG. 26 shows an example of a more specific configuration of the image display device 10 that constitutes the spatial floating image information display system 1.
  • the light source device 13 of FIG. 26 has the same configuration as the light source device of FIG. 27 and the like, which will be described later.
  • the light source device 13 is configured by housing an LED, a collimator, a polarization conversion element, a synthetic diffusion block, a light guide, etc. in a case made of plastic, for example.
  • a liquid crystal display panel 11 is attached to the upper surface of the light source device 13 .
  • an LED element 102A which is a semiconductor light source
  • an LED substrate 102 on which a control circuit for the LED element is mounted are attached.
  • a heat sink (not shown), which is a member for cooling the heat generated by the LED elements 102A and the control circuit, is attached to the outer surface of the LED substrate 102 .
  • the liquid crystal display panel frame attached to the upper surface of the case includes the liquid crystal display panel 11 attached to the frame, and a flexible printed circuit (FPC) electrically connected to the liquid crystal display panel 11. ) etc. are attached. That is, the liquid crystal display panel 11, which is a liquid crystal display element, together with the LED element 102A, which is a solid-state light source, modulates the intensity of transmitted light based on a control signal from a control circuit that constitutes the electronic device, thereby displaying a display image. Generate.
  • FPC flexible printed circuit
  • FIG. 26 shows a cross section, so only one LED element and collimator are visible, but a plurality of LED elements are arranged on the LED substrate 102, and a plurality of collimators are arranged correspondingly. are arrayed.
  • the collimators 15 are each made of translucent resin such as acrylic.
  • the collimator 15 has a conical convex outer peripheral surface 156 obtained by rotating a parabolic section, and a convex portion (that is, a convex lens surface) 157 is formed in the central portion of the top portion (the side in contact with the LED substrate 102). It has a recess 153 .
  • the central portion of the planar portion (the side opposite to the top portion) of the collimator 15 has an outwardly projecting convex lens surface (or an inwardly recessed concave lens surface) 154 .
  • the paraboloid 156 forming the conical outer peripheral surface of the collimator 15 is set within an angle range capable of totally reflecting the light emitted from the LED element 102A in the peripheral direction. faces are formed.
  • the LED elements 102A (LED elements 14a and 14b in FIG. 17A) are arranged at predetermined positions on the surface of the LED substrate 102, respectively.
  • the LED substrate 102 is fixed to the collimator 15 so that the LED elements 102A on the surface thereof are located in the center of the concave portions 153, respectively.
  • the collimator 15 As such a configuration, of the light emitted from the LED 102A by the collimator 15 described above, particularly the light emitted upward (to the right in the drawing) from the central portion forms the outer shape of the collimator 15.
  • the light is condensed by the two convex lens surfaces 157 and 154 and becomes substantially parallel light.
  • the light emitted in the peripheral direction from other portions is reflected by the paraboloid forming the conical outer peripheral surface of the collimator 15 and similarly condensed into substantially parallel light.
  • the collimator 15 having a convex lens in the center and a paraboloid in the periphery, almost all the light generated by the LED element 102A can be extracted as parallel light. This makes it possible to improve the utilization efficiency of the generated light.
  • a polarization conversion element 21 (in other words, a polarization conversion member) is provided on the light exit side of the collimator 15 .
  • the polarization conversion element 21 is an element that converts the polarization characteristics of incident light.
  • the polarization conversion element 21 includes a columnar (parallelogram prism) transparent member having a parallelogram cross section and a columnar (triangular prism) transparent member having a triangular cross section.
  • An optical member is combined with the collimator 15 and arranged in an array parallel to a plane perpendicular to the optical axis of the parallel light from the collimator 15 .
  • a polarizing beam splitter (PBS film) 211 and a reflective film 212 are alternately provided on the interface between the adjacent light-transmitting members arranged in an array.
  • a ⁇ /2 phase plate 213 (in other words, a half-wave plate) is provided on the emission surface from which the light that has entered the polarization conversion element 21 and passed through the PBS film 211 is emitted.
  • a rectangular composite diffusion block 16 is provided on the exit surface of the polarization conversion element 21 .
  • the light emitted from the LED element 102A becomes parallel light by the action of the collimator 15, and after the polarization characteristics are converted by the polarization conversion element 21, it enters the synthesis diffusion block 16 and is diffused by the texture 161 on the output side. After that, it reaches the light guide 17 .
  • the light guide 17 is a rod-shaped member with a substantially triangular cross section made of translucent resin such as acrylic.
  • the light guide body 17 includes a light guide body light entrance portion 171 including an incident surface facing the exit surface of the combined diffusion block 16 via the first diffuser plate 18a. , a light guide light reflecting portion 172 including a reflective surface forming an inclined surface, and a light guide light emitting portion 173 including an emitting surface facing the liquid crystal display panel 11 via the second diffusion plate 18b. ing.
  • the light guide body light reflecting portion 172 of the light guide body 17 has a large number of reflecting surfaces 172a and connecting surfaces 172b alternately formed in a sawtooth shape.
  • the reflecting surface 172a (a line segment rising to the right in the drawing) forms an angle ⁇ n (n is a natural number and is 1 to 130 in this example) with respect to the horizontal plane.
  • ⁇ n is set to 43 degrees or less (however, 0 degrees or more).
  • the light guide entrance portion 171 is formed in a curved convex shape that is inclined toward the light source. According to this, the parallel light from the output surface of the synthetic diffusion block 16 is diffused through the first diffusion plate 18a and enters. As is clear from the drawing, this incident light is slightly bent and deflected upward by the light guide entrance portion 171, reaches the light guide light reflection portion 172, and is reflected there. This reflected light is emitted from the emission surface of the light guide emitting portion 173 on the upper side in the drawing, and reaches the liquid crystal display panel 11 provided for the emission surface.
  • the image display device 10 it is possible to further improve the light utilization efficiency and the uniform lighting characteristics, and to manufacture the device including the modularized S-polarized light source device 13 at a small size and at a low cost.
  • the polarization conversion element 21 is attached after the collimator 15 , but the invention is not limited to this.
  • the light guide body light reflecting portion 172 a large number of reflecting surfaces 172a and connecting surfaces 172b are alternately formed in a sawtooth shape. Head. Further, the light guide body light emitting portion 173 is provided with a narrow-angle diffusion plate, and enters the light direction conversion panel 54 for adjusting the directional characteristics as a substantially parallel diffused light flux, and enters the liquid crystal display panel 11 from an oblique direction.
  • the light direction changing panel 54 is provided between the light emitting surface of the light guide 17 and the liquid crystal display panel 11, but the light direction changing panel 54 may be provided on the light emitting surface of the liquid crystal display panel 11 in the same manner. effect is obtained.
  • ⁇ Second Configuration Example of Image Display Device> Next, another example of the specific configuration of the video display device 10 will be described with reference to FIG. 28 .
  • a plurality of LED elements constituting a light source are provided on the LED substrate 102, as in the above-described example (however, since this is a cross-sectional view, only one element is shown). there).
  • These LED elements are attached to the collimator 15 at predetermined positions.
  • a divergent luminous flux of light (a mixture of P-polarized light and S-polarized light) from the LED element is converted into a substantially parallel luminous flux by the collimator 15, and reflected toward the liquid crystal display panel 11 by the reflective surface of the reflective light guide 304. do.
  • the reflected light enters the reflective polarizing plate 49 arranged between the liquid crystal display panel 11 and the reflective light guide 304 .
  • a specific polarized wave (for example, P-polarized light) is transmitted through the reflective polarizing plate 49 and enters the liquid crystal display panel 11 .
  • the other polarized wave (for example, S-polarized light) is reflected by the reflective polarizing plate 49 and directed to the reflective light guide 304 again.
  • the reflective polarizing plate 49 is installed with an inclination so as not to be perpendicular to the principal ray of light from the reflecting surface of the reflective light guide 304 , and the principal ray of light reflected by the reflective polarizing plate 49 is is incident on the transmission surface of the reflective light guide 304 .
  • the light incident on the transmissive surface of the reflective light guide 304 is transmitted through the back surface of the reflective light guide 304, transmitted through the ⁇ /4 plate 270 as a retardation plate, and reflected by the reflector 271.
  • the light reflected by the reflecting plate 271 passes through the ⁇ /4 plate 270 again and passes through the transmitting surface of the reflective light guide 304 .
  • the light transmitted through the transmission surface of the reflective light guide 304 enters the reflective polarizing plate 49 again.
  • the light incident on the reflective polarizing plate 49 again passes through the ⁇ /4 plate 270 twice, and thus is polarization-converted into a polarized wave (for example, P-polarized light) that passes through the reflective polarizing plate 49. . Therefore, the light that has undergone polarization conversion passes through the reflective polarizing plate 49 and enters the liquid crystal display panel 11 .
  • polarization design related to polarization conversion from the above description, it is also possible to reverse the polarization between the S-polarized light and the P-polarized light.
  • the light from the LED element as the light source is aligned to a specific polarized wave (for example, P-polarized light), enters the liquid crystal display panel 11, is luminance-modulated in accordance with the video signal, and displays an image on the panel surface. indicate.
  • a specific polarized wave for example, P-polarized light
  • the collimators 15 in FIG. 28 are each made of translucent resin such as acrylic or glass. Like the collimator 15 in FIG. 27, the collimator 15 in FIG. 28 may have a conical convex outer peripheral surface obtained by rotating the parabolic cross section, and the top has a convex part in the center (that is, You may have the recessed part which formed the convex lens surface. In addition, the collimator 15 may have an outwardly protruding convex lens surface (or an inwardly concave concave lens surface) at the central portion of the “flat portion” of the collimator 15. The paraboloid is set within a range of angles in which the light emitted from the LED in the peripheral direction can be totally reflected inside, or a reflective surface is formed.
  • the LED elements in FIG. 28 are arranged at predetermined positions on the surface of the LED substrate 102 respectively.
  • the LEDs on the surface of the LED substrate 102 are arranged and fixed to the collimator 15 so as to be positioned at the center of the top of the conical projection (if the top has a recess, the recess).
  • the collimator 15 According to such a configuration, of the light emitted from the LED elements by the collimator 15, particularly the light emitted from the central portion is collected by the convex lens surface forming the outer shape of the collimator 15 and becomes parallel light. Also, the light emitted in the peripheral direction from other portions is reflected by the paraboloid forming the conical outer peripheral surface of the collimator 15, and is similarly condensed into parallel light. In other words, with the collimator 15 having a convex lens in the center and a parabolic surface in the periphery, almost all of the light generated by the LED element can be extracted as parallel light. Light utilization efficiency can be improved.
  • the configuration of the light source device 13 and the like described above can be applied as the light source device 13 of the image display device 10 constituting the spatial floating image information display system 1 shown in FIGS.
  • the light converted into substantially parallel light by the collimator 15 shown in FIG. 28 is reflected by the reflective light guide 304 .
  • the light of a specific polarized wave is transmitted through the reflective polarizing plate 49 by the action of the reflective polarizing plate 49, and the light of the other polarized wave reflected by the action of the reflective polarizing plate 49 is , passes through the light guide 304 again.
  • This light is reflected by the reflector 271 located opposite to the liquid crystal display panel 11 with respect to the reflective light guide 304 .
  • this light is polarization-converted by passing through the ⁇ /4 plate 270, which is a retardation plate, twice.
  • the light reflected by the reflector 271 passes through the light guide 304 again and enters the reflective polarizing plate 49 provided on the opposite surface. Since this incident light has undergone polarization conversion, it passes through the reflective polarizing plate 49 and enters the liquid crystal display panel 11 with the polarization direction aligned. As a result, all the light from the light source can be used, so that the geometrical optics utilization efficiency of light is doubled.
  • the degree of polarization (in other words, extinction ratio) of the reflective polarizing plate can be added to the extinction ratio of the entire system, the use of the light source device 13 of this embodiment significantly improves the contrast ratio of the entire display device. .
  • the reflection diffusion angle of light on each reflecting surface can be adjusted.
  • the surface roughness of the reflective surface of the reflective light guide 304 and the surface roughness of the reflector 271 may be adjusted for each design so that the uniformity of the light incident on the liquid crystal display panel 11 is more favorable.
  • FIG. 29 is a diagram showing a case where the present invention is applied to, for example, a drink vending machine.
  • the vending machine main body 2900 is provided with a spatial floating image display section 2920.
  • the vending machine 2900 also includes a drink display section 2980 for displaying drinks sold by the vending machine 2900, a bill insertion section 2981 for inserting bills, and a coin insertion section for inserting coins. 2982, a change take-out port 2983 for taking out change, and a drink take-out port 2984 for taking out a drink purchased by the user.
  • the vending machine main body 2900 is equipped with a camera or a motion sensor in the same way as the kiosk terminal, and when the user approaches, the space floating image display unit 2920 is activated.
  • a concierge appears on the space-floating image display section 2920 and says, for example, "Welcome. Thank you for using our service.”
  • the screen changes to number buttons. Please select the item number you want.”
  • the space floating image display unit 2920 disappears from the concierge, and then the numeric buttons and the enter button are displayed.
  • a cancel button and a return button may be displayed in addition to the numeric buttons and the enter button.
  • the user selects a drink by operating the numeric buttons and decision button displayed on the floating image display unit 2920, and inserts a predetermined amount of money into the bill insertion unit 2981 or the coin insertion unit 2982.
  • a drink is dispensed in a form that can be removed from the drink outlet 2984 .
  • the floating image display unit 2920 disappears from the numeric buttons and the decision button, and the concierge appears again, and utters, for example, "Thank you very much. We look forward to seeing you again.” .
  • the voice may be emitted from a normal speaker, or may be emitted from a super-directional speaker so that only the user can hear it.
  • the user can purchase the desired drink.
  • a floating image display unit is shown, but vending machines are also provided with both a liquid crystal display device and a floating image display unit, as in the example of a kiosk terminal.
  • the spatially floating image display units may be provided at two or more locations instead of one location. If the floating image display units are provided at two locations, one of the floating image display units displays the concierge, and the other floating image display unit displays numbers. A button and an OK button may be displayed.
  • a concierge you may display multiple characters with different ages and genders, different personal images and animations.
  • Data for displaying a plurality of different human figures and animated characters of different ages and genders are stored in the non-volatile memory 1108 in FIG. One of them may be selected and displayed as a concierge on the spatial floating video display. In that case, it may be determined which person image or character to display according to the attributes of the user (age, etc.).
  • a floating image display unit is provided, so that the user can select and purchase products without contact.
  • it since it detects the user's approach to the vending machine and displays a floating image in space, it is possible to display a person image or character as a concierge in a display method not found in conventional vending machines.
  • a person image or character as a concierge in a display method not found in conventional vending machines.
  • the technology according to the embodiment by displaying high-resolution and high-brightness video information in a floating state in space, the user can operate without feeling anxious about contact infection of infectious diseases, for example. do. If the technology according to this embodiment is applied to a system used by an unspecified number of users, it will be possible to reduce the risk of contact infection of infectious diseases and provide a non-contact user interface that can be used without anxiety. According to the present invention that provides such technology, it contributes to "3 good health and well-being for all" of the Sustainable Development Goals (SDGs) advocated by the United Nations.
  • SDGs Sustainable Development Goals
  • the technique according to the embodiment by reducing the angle of divergence of emitted image light and aligning it to a specific polarized wave, only normal reflected light is efficiently reflected by the retroreflective member.
  • the utilization efficiency of is high, and it is possible to obtain a bright and clear spatial floating image.
  • the technology according to the embodiment it is possible to provide a highly usable non-contact user interface capable of significantly reducing power consumption.
  • the Sustainable Development Goals SDGs: Sustainable Development Goals
  • the technology according to the embodiment enables the formation of a spatially floating image by image light with high directivity (straightness).
  • highly directional image light is displayed even when displaying images that require high security, such as so-called kiosk terminals, or highly confidential images that should be kept secret from a person facing the user. By doing so, it is possible to provide a non-contact user interface that is less likely to be peered into by someone other than the user.
  • the present invention contributes to "11 Sustainable Development Goals" of the Sustainable Development Goals (SDGs) advocated by the United Nations.

Abstract

キオスク端末等の利用者に対して好適に映像を表示し、必要な情報を提供すること。本発明によれば、持続可能な開発目標の「3すべての人に健康と福祉を」、「9産業と技術革新の基盤をつくろう」、「11住み続けられるまちづくりを」に貢献する。空間浮遊映像情報表示システムとしてのキオスク端末1500は、映像表示装置と、映像表示装置からの映像光を再帰反射させることで空中に空間浮遊映像3を形成するための再帰性反射部材と、空間浮遊映像3に対するユーザによる操作を検出するためのセンサを含むセンシングシステムと、筐体1550と、検出された操作に基づいて所定の処理を実行する制御装置とを備える。キオスク端末1500は、筐体1550に対しユーザが近付いたことを検知した場合に、空間浮遊映像表示部1520に空間浮遊映像3として例えばコンシェルジュ1521の映像を表示する。

Description

空間浮遊映像情報表示システム
 本発明は、空間浮遊映像情報表示システムに関する。
 空間浮遊映像情報表示システムとして、直接外部に向かって映像を空間像として表示する映像表示装置および表示方法については、既に知られている。また、表示された空間像の操作面における操作に対する誤検知を低減する検知システムについても、例えば、特開2019-128722号公報(特許文献1)に記載されている。
特開2019-128722号公報
 特許文献1では、空気中に形成される像に対する操作の誤検知を低減することを目的として、ユーザが予め定めた方向から像に接近する場合、ユーザの動きを操作として受け付けることで、目的を達成する旨が記載されている。
 しかしながら、特許文献1のような先行技術例では、空間浮遊映像として表示されるユーザインタフェースの取り扱いに不慣れなユーザ等に対しては、配慮が十分ではなく、特に、初めてシステムを利用するユーザにとっては、どのように操作すればよいか等、直感的な把握が難しく、使い勝手や利便性の観点で課題がある。
 そこで、空間浮遊映像情報表示システムによる空間浮遊映像を、ユーザが操作可能なユーザインタフェースないしマン・マシン・インタフェースとして用いる場合に、使い勝手や利便性に優れたインタフェースを実現したい。特に、初めてシステムを利用するユーザや不慣れなユーザを含む、不特定多数のユーザが、空間浮遊映像によるインタフェースを使用する場合にも、ユーザが直感的に操作方法等を把握でき、かつ、誤操作や誤入力を低減できる、好適な空間浮遊映像情報表示システムを提供したい。また、例えば一般に「キオスク端末」と呼ばれる装置においても、空間浮遊映像による使い勝手や利便性に優れたユーザインタフェースを提供したい。
 また、空間浮遊映像により形成されたユーザインタフェース、例えば押しボタン等の操作メニューは、非接触ユーザインタフェースであるため、物理的な押しボタン等の一般的な接触インタフェースに比べ、接触感染のリスクを最小限にできるといった利点を有する。このような利点を最大限活かした空間浮遊映像情報表示システムを実現したい。さらに、空間浮遊映像に係わるゴースト像を防止または低減できる等、空間浮遊映像によるユーザインタフェースの視認性を改善または向上できるシステムを実現したい。
 本発明の目的は、空間浮遊映像情報表示システムに関して、使い勝手や利便性が高く、キオスク端末などの利用者に対して好適な空間浮遊映像によるインタフェースおよび必要な情報を提供できる技術を提供することである。
 上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。本発明は、上記課題を解決する手段を複数含んでいるが、一例を挙げるならば以下の通りである。実施の形態の空間浮遊映像情報表示システムは、空中に空間浮遊映像を形成する空間浮遊映像情報表示システムであって、少なくとも1個のオブジェクトの映像を表示する映像表示装置と、前記映像表示装置からの映像光を再帰反射させることで空中に前記空間浮遊映像を形成するための再帰性反射部材と、前記空間浮遊映像に対するユーザによる操作を検出するためのセンサを含むセンシングシステムと、前記映像表示装置および前記再帰性反射部材を備えた筐体と、検出された前記操作に基づいて所定の処理を実行する制御装置と、を備え、前記筐体に対し前記ユーザが近付いたことを検知した場合に、前記空間浮遊映像として前記オブジェクトの映像を表示する。
 本開示のうち代表的な実施の形態によれば、空間浮遊映像情報表示システムに関して、使い勝手や利便性が高く、キオスク端末などの利用者に対して好適な空間浮遊映像によるインタフェースおよび必要な情報を提供できる。上記した以外の課題、構成および効果等については、発明を実施するための形態において示される。
一実施例に係る空間浮遊映像情報表示システムの使用形態の一例を示す図である。 一実施例に係る空間浮遊映像情報表示システムの内部構成の一例を示す図である。 一実施例に係る空間浮遊映像情報表示システムの主要部構成と再帰反射部構成の一例を示す図である。 一実施例に係る空間浮遊映像情報表示システムの主要部構成と再帰反射部構成の他の例を示す図である。 一実施例に係る再帰反射で発生する異常光線を遮る部材の配置例を示す斜視図である。 一実施例に係る再帰反射で発生する異常光線を遮る部材の配置例を示す断面図である。 一実施例に係る空間浮遊映像情報表示システムで用いる第1のセンシング技術の説明図である。 一実施例に係る空間浮遊映像情報表示システムで用いる第2のセンシング技術の説明図である。 一実施例に係る空間浮遊映像情報表示システムで用いるセンシングシステムの動作および装置についての説明図である。 太陽光の分光放射照度の特性を示す図である。 屈折率1.5の媒質に入射する偏光光の光線入射角度に対する反射特性を示す図である。 一実施例に係る、空間浮遊映像に文字などを入力・描画する技術についての説明図を示す。 本発明の一実施例に係る空間浮遊映像情報表示システムの主要部構成を示す図である。 本発明の一実施例に係る他の空間浮遊映像情報表示システムの主要部構成を示す図である。 キオスク端末の一例を示す図である。 一実施例(実施の形態1)に係るキオスク端末の外観例を示す図である。 実施の形態1に係るキオスク端末の断面構造例を示す図である。 一実施例(実施の形態2)に係るキオスク端末の外観例を示す図である。 実施の形態2に係るキオスク端末の断面構造例を示す図である。 一実施例(実施の形態3)に係るキオスク端末の表示例を示す図である。 実施の形態3に係るキオスク端末の第1動作フローを示す図である。 実施の形態3に係るキオスク端末の第2動作フローを示す図である。 一実施例(実施の形態4)に係るキオスク端末と携帯端末との連携動作を示す図である。 一実施例(実施の形態5)に係るキオスク端末でのサインの操作・表示例を示す図である。 実施の形態3等の変形例に係るキオスク端末での表示例を示す図である。 光源装置の具体的な構成例を示す断面図である。 光源装置の具体的な構成例を示す構造図である。 別方式の光源装置の具体的な構成例を示す図である。 一実施例(他の実施の形態)に係る自動販売機の外観例を示す図である。
 以下、本発明の実施の形態(実施例とも記載)を、図面を参照しながら詳細に説明する。図面において、同一部には原則として同一符号を付し、繰り返しの説明を省略する。図面において、構成要素の表現は、発明の理解を容易にするために、実際の位置、大きさ、形状、および範囲等を表していない場合がある。
 説明上、プログラムによる処理について説明する場合に、プログラムや機能や処理部等を主体として説明する場合があるが、それらについてのハードウェアとしての主体は、プロセッサ、あるいはそのプロセッサ等で構成されるコントローラ、装置、計算機、システム等である。計算機は、プロセッサによって、適宜にメモリや通信インタフェース等の資源を用いながら、メモリ上に読み出されたプログラムに従った処理を実行する。これにより、所定の機能や処理部等が実現される。プロセッサは、例えばCPU(Central Processing Unit)やGPU等の半導体デバイス等で構成される。プロセッサは、所定の演算が可能な装置や回路で構成される。処理は、ソフトウェアプログラム処理に限らず、専用回路でも実装可能である。専用回路は、FPGA(field-programmable gate array)、ASIC(application specific integrated circuit)、CPLD(Complex Programmable Logic Device)等が適用可能である。
 プログラムは、対象計算機に予めデータとしてインストールされていてもよいし、プログラムソースから対象計算機にデータとして配布されてもよい。プログラムソースは、通信網上のプログラム配布サーバでもよいし、非一過性のコンピュータ読み取り可能な記憶媒体(例えばメモリカード)でもよい。プログラムは、複数のモジュールから構成されてもよい。コンピュータシステムは、複数台の装置によって構成されてもよい。コンピュータシステムは、クライアントサーバシステム、クラウドコンピューティングシステム等で構成されてもよい。各種のデータや情報は、例えばテーブルやリスト等の構造で構成されるが、これに限定されない。識別情報、識別子、ID(identification)、名、番号等の表現は互いに置換可能である。
 一実施の形態の空間浮遊映像情報表示システム(以下、単にシステムと記載する場合もある)は、まず、空間浮遊映像の視認性を著しく低下させるゴースト像を無くし、空間浮遊映像の明るさを向上させることで、視認性を改善する構成を備える。一実施の形態のシステムは、キオスク端末などに適用され、空間浮遊映像による画面で操作メニューなどのユーザインタフェースを提供する。その上で、一実施の形態のシステムは、ユーザがシステム(キオスク端末)の筐体に近づいてきた時に、空間浮遊映像の画面上に、はじめに、所定の人物像としてのコンシェルジュ(コンシェルジュ映像などと記載する場合もある)を表示する。システムは、空間浮遊映像のコンシェルジュによって、ユーザに対し、あいさつ、ガイド、説明などを行う。
 一実施の形態の空間浮遊映像情報表示システムは、ユーザが空間浮遊映像に近づいた場合や空間浮遊映像に対し操作した場合に、コンシェルジュ映像を、自動的に、所定の操作メニュー等、例えば複数の数字ボタンや選択肢ボタンなどを有しそのボタンを押下できる方式の操作メニュー画面に遷移・変化させる。システムは、適宜に、空間浮遊映像のコンシェルジュによって、ユーザに対し、操作メニューのガイドや説明を行う。特に、システムは、初めてのユーザや高齢のユーザであると判定した場合に、コンシェルジュによって、ユーザに対し、操作メニューを詳しくガイドする。また、システムは、ユーザが空間浮遊映像の操作方法などがよくわからない状態であると判定した場合には、コンシェルジュによって、ユーザに対し、操作メニューを詳しくガイドする。
 また、一実施の形態の空間浮遊映像情報表示システムは、例えばカメラを用いた顔認証などによりユーザを識別・特定する機能を備える。システムは、その機能によって特定したユーザについて、年齢やシステム使用履歴などのユーザ属性情報を参照する。システムは、ユーザの属性に応じて、空間浮遊映像のコンシェルジュによるガイド等の方式や内容を変えるように制御する。
 また、一実施の形態の空間浮遊映像情報表示システムは、空間浮遊映像の面に対し、ユーザが手指によって任意の文字や図形を入力することができる機能も提供する。システムは、空間浮遊映像の面に対する手指の接触の状態を検出し、空間浮遊映像の面で入力された線を描画する。システムは、この入力された線を例えばユーザのサインとして取得する。
 なお、以下の実施の形態の説明において、空間に浮遊する映像、空中に表示される映像を、「空間浮遊映像」という用語で表現する場合がある。この用語の代わりに、「空中像」、「空間像」、「空中浮遊映像」、「表示映像の空間浮遊光学像」、「表示映像の空中浮遊光学像」等と表現しても構わない。実施の形態の説明で主に用いる「空間浮遊映像」の用語は、これらの用語の代表例として用いている。
 <空間浮遊映像情報表示システム>
 本開示は、例えば、大面積な映像発光源からの映像光による映像を、ショーウィンドのガラス等の、空間を仕切る透明部材を介して透過して、店舗空間の内部または外部に空間浮遊映像として表示可能な情報表示システムに関する。また、本開示は、かかる情報表示システムを複数用いて構成される大規模なデジタルサイネージシステムに関する。
 以下の実施の形態によれば、例えば、ショーウィンドのガラス面や光透過性の板材上に高解像度な映像情報を空間浮遊した状態で表示可能となる。この時、出射する映像光の発散角を小さく、即ち鋭角とし、さらに特定の偏波に揃えることで、再帰反射部材(再帰性反射部材)または再帰反射板に対して正規の反射光だけを効率良く反射させることができる。このため、実施の形態によれば、光の利用効率が高く、従来の再帰反射方式での課題となっていた主空間浮遊像の他に発生するゴースト像を抑えることができ、鮮明な空間浮遊映像を得ることができる。
 また、本開示の光源を含む装置により、消費電力を大幅に低減可能な、新規で利用性に優れた空間浮遊映像情報表示システムを提供できる。また、本開示の技術によれば、例えば、車両のフロントガラスやリアガラスやサイドガラスを含むシールドガラスを介して、車両外部において視認可能である、いわゆる、一方向性の空間浮遊映像の表示が可能な車両用空間浮遊映像情報表示システムを提供できる。
 一方、従来の空間浮遊映像情報表示システムは、高解像度なカラー表示映像源として有機ELパネルや表示パネル(液晶表示パネル、液晶パネル等と記載する場合がある)を、再帰反射部材と組み合わせる。従来技術による空間浮遊映像表示装置では、映像光が広角で拡散する。そのため、図3の(B)に示す多面体で構成された第一の実施例での再帰反射部材2を用いる場合、再帰反射部材2で正規に反射する反射光(それによる正規な空間浮遊映像)の他に、図3の(C)に示す再帰反射部材2(再帰反射部2a)に斜めから入射する映像光によって、ゴースト像が発生する。これにより、空間浮遊映像の画質が低下する。また、従来技術による空間浮遊映像表示装置では、正規な空間浮遊映像の他に、反射面の数に応じたゴースト像が複数発生する。このため、観視者以外の人にも、ゴースト像である同一空間浮遊映像を観視され、セキュリティ上の観点からも大きな課題があった。
 <空間浮遊映像情報表示システムの第1の構成例>
 図1の(A)は、実施例の空間浮遊映像情報表示システムの使用形態の一例を示し、空間浮遊映像情報表示システムの全体構成の説明図を示す。図1の(A)で、例えば、店舗等においては、ガラス等の透光性の部材(透明部材とも記載)であるショーウィンド(ウィンドガラスとも言う)105により、空間が仕切られている。本空間浮遊情報表示システムによれば、かかる透明部材を透過して、空間浮遊映像を、店舗空間の外部に対して一方向に表示が可能である。
 具体的には、本システムによれば、映像表示装置10から挟角な指向特性でかつ特定偏波の光が、映像光束として出射される。出射された映像光束は、再帰反射部材2に一旦入射し、再帰反射されて、ウィンドガラス105を透過して、店舗空間の外側に、実像である空間浮遊映像(空中像)3を形成する。図1の(A)では、透明部材(ここではウィンドガラス)105の内側の店舗内を奥行方向とし、ウィンドガラス105の外側(例えば歩道)が手前になるように示している。他方、ウィンドガラス105に特定偏波を反射する部材を設け、かかる部材によって映像光束を反射させて、店舗内の所望の位置に空中像を形成することもできる。
 図1の(B)は、映像表示装置10の内部構成を示す。映像表示装置10は、空中像の原画像を表示する映像表示部1102と、入力された映像をパネルの解像度に合わせて変換する映像制御部1160と、映像音声信号を受信・入力する映像・音声信号受信部1130とを含む。
 このうち、映像・音声信号受信部1130は、例えば、HDMI(High-Definition Multimedia Interface)(登録商標)などの入力インタフェースを通じての有線での入力信号への対応と、Wi-Fi(Wireless Fidelity)(登録商標)などの無線入力信号への対応を行う役割を担う。また、映像・音声信号受信部1130は、映像受信・表示装置として単独で機能することもできる。さらに、映像・音声信号受信部1130は、タブレット端末、スマートフォンなどからの映像・音声情報を表示・出力することもできる。さらにまた、映像・音声信号受信部1130は、必要に応じてスティックPCなどのプロセッサ(演算処理装置)を接続することもでき、この場合、映像信号・音声信号受信部全体として、計算処理や映像解析処理などの能力を持たせることもできる。
 [空間浮遊映像情報表示システムの機能ブロック]
 図2は、空間浮遊映像情報表示システム1の機能ブロック図を示す。映像表示部1102は、映像信号に基づいて、映像表示部1102のパネルを透過する光を変調することで、映像を生成する。映像表示部1102は、例えば、透過型液晶表示パネルを用いてもよく、場合によっては、映像信号に基づいてパネルに反射する光を変調する反射型液晶表示パネルや、DMDパネル(DMD:Digital Micromirror Device、登録商標)などを用いて構成されてもよい。
 再帰性反射部1101は、映像表示部1102により変調された光を再帰反射する。再帰性反射部1101からの反射光のうち、空間浮遊映像情報表示システム1の外部に出力された光が空間浮遊映像3を形成する。光源1105は、映像表示部1102用の光を発生する。光源1105は、例えばLED光源、レーザ光源等の固体光源が用いられる。電源1106は、外部から入力されるAC電流をDC電流に変換し、光源1105に電力を供給する。さらに、電源1106は、その他各部にそれぞれ必要なDC電流を供給する。
 導光体1104は、光源1105で発生した光を導いて映像表示部1102に照射する。導光体1104と光源1105との組み合わせを映像表示部1102のバックライトと称することもできる。導光体1104や光源1105の組み合わせは、様々な方式が考えられる。具体的な構成例は後述する。なお、図2に示すように、映像表示部1102と導光体1104と光源1105の3つの部品から構成される部分を、特に、映像表示装置10と呼ぶ。
 空中操作検出センサ1351は、ユーザの手指による空間浮遊映像3の操作(空中操作とも記載)を検出するために、空間浮遊映像3の表示範囲と少なくとも一部に重畳する範囲、またはすべての表示範囲に重畳する範囲をセンシングするセンサである。空中操作検出センサ1351は、具体的なセンサ構成としては、赤外線などの非可視光、非可視光レーザ、超音波などを用いた距離センサや、これを複数組み合わせて2次元平面の座標を検出できる構成としたものでもよい。また、空中操作検出センサ1351は、後述するToF(Time of Flight)方式のLiDAR(Light Detection and Ranging)として構成してもよい。
 空中操作検出部1350は、空中操作検出センサ1351が取得したセンシング信号を取得し、これに基づいて、ユーザの手指による空間浮遊映像3への接触の有無や、空間浮遊映像3における当該接触の位置の算出を行う。空中操作検出部1350は、FPGAなどの回路で構成されてもよい。
 空中操作検出センサ1351および空中操作検出部1350(これらをセンシングシステムと記載する場合がある)は、空間浮遊映像情報表示システム1に内蔵する構成としてもよいが、空間浮遊映像情報表示システム1とは別体の外部に設けてもよい。別体に設ける場合は、有線または無線の通信接続路や映像信号伝送路を介して空間浮遊映像情報表示システム1に情報または信号を伝達できるように構成すればよい。空中操作検出センサ1351および空中操作検出部1350の両者を別体で設けてもよい。この場合は、空中操作検出機能の無い空間浮遊映像情報表示システム1を本体として、空中操作検出機能のみをオプションで追加できるシステムを構築可能である。また、空中操作検出センサ1351のみを別体とし、空中操作検出部1350を空間浮遊映像情報表示システム1に内蔵してもよい。空間浮遊映像情報表示システム1の設置位置に対して空中操作検出センサ1351をより自由に配置したい場合などは、空中操作検出センサ1351のみを別体とする構成に利点がある。
 撮像部1180は、イメージセンサを有する、いわゆるカメラであり、空間浮遊映像3の付近の空間、および/または、ユーザの顔、腕、指などを撮像する。撮像部1180は、用途に応じて、複数のカメラや、深度センサ付きカメラが用いられてもよい。撮像部1180は、空間浮遊映像情報表示システム1とは別体に設けてもよい。撮像部1180は、複数のカメラや深度センサ付きカメラを用いる場合には、ユーザによる空間浮遊映像3へのタッチ操作、言い換えると空間浮遊映像3の面に接触する操作、の検出について、空中操作検出部1350を補助してもよい。例えば、空中操作検出センサ1351が、空間浮遊映像3が属する平面を対象として、当該平面内への物体侵入センサとして構成された場合、当該平面内へ侵入していない物体(例えばユーザの指)がどのくらい当該平面に近いのか、空中操作検出センサ1351のみでは検出できない場合がある。このような場合には、撮像部1180における複数のカメラの撮像結果による深度算出情報や深度センサによる深度情報を用いることにより、当該空間浮遊映像3の平面内へ侵入していない物体(例えばユーザの指)と当該平面との距離を算出可能となる。この算出情報を、空間浮遊映像3における各種表示制御に用いることができる。
 あるいは、本システムは、空中操作検出センサ1351を用いずに、撮像部1180の撮像結果に基づいて、空中操作検出部1350がユーザによる空間浮遊映像3のタッチ操作を検出するように構成されてもよい。
 撮像部1180が空間浮遊映像3を操作するユーザの顔などを撮像し、撮像画像に基づいて、制御部1110がユーザの識別・特定処理、あるいはユーザの認証処理を行うように構成されてもよい。あるいは、空間浮遊映像3を操作するユーザの周辺や背後に他の人が立っていて、空間浮遊映像3に対するユーザの操作を覗き見ていないか等を判別するために、空間浮遊映像3を操作するユーザの周辺を含めて撮像するように、撮像部1180が構成されてもよい。
 操作入力部1107は、操作ボタンやリモコン受光部であり、空間浮遊映像3に対する空中操作とは異なる、ユーザによる操作に関する信号を入力する。操作入力部1107は、空間浮遊映像3をタッチ操作する上述のユーザとは別に、空間浮遊映像情報表示システム1の管理者が、本システムを操作するために用いてもよい。
 映像信号入力部1131は、外部の映像出力装置を接続して映像データを入力する機能を有する。音声信号入力部1133は、外部の音声出力装置を接続して音声データを入力する機能を有する。一方、音声信号出力部1140は、音声信号入力部1133に入力された音声データに基づいた音声信号を出力する機能を有する。また、音声信号出力部1140は、予めストレージ部1170に記録されている、数字や文字列等の音声データ、その他の操作音やエラー警告音のデータに基づいた音声信号を出力してもよい。なお、映像信号入力部1131、音声信号入力部1133を合わせて、映像・音声信号入力部1130と呼ぶ。映像信号入力部1131と音声信号入力部1133はそれぞれの構成でもよいが、合わせて1つでも構わない。
 音声信号出力部1140は、スピーカまたは超指向性スピーカ30に接続される。音声信号出力部1140は、通常の可聴帯域の音声を出力するスピーカに接続してもよいが、後述のキオスク端末などの実施例のように、特に、秘匿性が高くセキュリティに配慮する必要がある場合には、ユーザ以外の他の人には聞き取ることができないように、超指向性スピーカに接続してもよい。超指向性スピーカとは、特定の限られた空間領域に存在する人の耳のみには可聴帯域の音声を聴取でき、その特定の空間領域の外に存在する人の耳にはその可聴帯域の音声を聴取できないという特性を有するスピーカである。
 超指向性スピーカ30は、例えば、40kHz程度の超音波信号を発生できる超音波出力素子を平面上に複数個並べることで構成される。このとき、使用する超音波出力素子の数が多いほど、超指向性スピーカによって得られる音声の音量は大きくなる。超指向性スピーカの原理を簡単に説明する。よく知られるように、超音波は可聴帯域の音声(例えば人の話し声)と比較して直進性が高い。したがって、40kHzの超音波信号をキャリア(搬送波)として、キャリアを可聴帯域の音声信号で変調(例えばAM変調)することで、特定の限られた空間領域だけで音声が聞こえるようにすることが可能となる。
 例えば、撮像部1180として複数のカメラを用いることで、ユーザの顔や耳の位置を特定し、その特定の結果に応じて、超指向性スピーカ30からの出力によって、ユーザの耳の近傍領域においてのみ音声が聞こえるようにすることができる。具体的には、超指向性スピーカ30を構成する超音波出力素子に入力する超音波信号の位相(言い換えると遅延時間)を制御することで、特定された限られた空間領域だけで音声が聞こえるようにすることができる。また、複数の超音波出力素子を、平面上ではなく、例えば、凹面状の面に配置する構成によっても、特定の限られた空間領域だけで音声が聞こえるようにすることができる。
 不揮発性メモリ1108は、空間浮遊映像情報表示システム1で用いる各種データを格納する。不揮発性メモリ1108に格納されるデータには、空間浮遊映像3として表示される各種操作用のデータ、アイコンやボタン等のユーザインタフェース映像情報、ユーザが操作するためのオブジェクトのデータやレイアウト情報なども含まれてもよい。メモリ1109は、空間浮遊映像3として表示する映像データや装置の制御用データを記憶する。
 制御部1110は、空間浮遊映像情報表示システム1のコントローラ(言い換えると制御装置)に相当し、接続される各部の動作を制御する。制御部1110は、プロセッサなどのデバイスを備えている。制御部1110は、不揮発性メモリ1108やストレージ部1170からメモリ1109または内蔵メモリに読み出したプログラムに従った処理を実行する。これにより、各種の機能が実現される。制御部1110は、メモリ1109に格納されるプログラムと協働して、接続される各部から取得した情報に基づいた演算処理を行ってもよい。制御部1110は、空間浮遊映像情報表示システム1を構成する筐体内に、マイコンなどを用いて実装されてもよいし、筐体外に接続・実装されてもよい。
 通信部1132は、有線または無線の通信インタフェースを介して、外部機器や外部のサーバ等と通信を行う。通信部1132は、当該通信により、映像、画像、音声、各種データを送受信する。
 ストレージ部1170は、映像、画像、音声、各種データなどを記録する。例えば、製品出荷時に、予め、映像、画像、音声、各種データなどをストレージ部1170に記録しておいてもよい。通信部1132を介して外部機器や外部のサーバ等から取得した映像、画像、音声、各種データなどをストレージ部1170に記録してもよい。ストレージ部1170に記録された映像、画像、各種データなどは、映像表示部1102、映像表示装置10、および再帰性反射部1101を介して、空間浮遊映像3として出力可能である。
 空間浮遊映像3にユーザインタフェース(後述の操作メニューやコンシェルジュ映像を含む)として表示する、アイコン、ボタン、ユーザが操作するためのオブジェクトなどのデータや、コンシェルジュ映像を構成するデータも、ストレージ部1170に記録する映像や画像のデータに含まれていてもよい。また、空間浮遊映像3にユーザインタフェースとして表示するアイコン、ボタン、オブジェクトなどの操作メニューやコンシェルジュのレイアウト情報や、操作メニューやコンシェルジュに関する各種メタデータなどの情報も、ストレージ部1170に記録する各種データに含まれていてもよい。また、空間浮遊映像3のコンシェルジュが音声出力するための音声データも、ストレージ部1170に記録されていてもよい。ストレージ部1170に記録されている音声データは、音声信号出力部1140を介して、スピーカまたは超指向性スピーカ30から音声信号として出力すればよい。
 制御部1110、または、映像制御部1160や音声信号出力部1140は、ストレージ部1170や不揮発性メモリ1108などに記憶されている、操作メニューやコンシェルジュを構成するための各種データに基づいて、操作メニューやコンシェルジュを表示・出力するための映像データや音声データを適宜に作成してもよい。
 映像制御部1160は、映像表示部1102に入力する映像信号についての各種制御を行う。映像制御部1160は、例えば、メモリ1109に格納する映像と、映像信号入力部1131で入力した映像などのうち、どの映像を映像表示部1102に入力する映像とするか等の映像切り替え制御を行ってもよい。あるいは、映像制御部1160は、メモリ1109に格納する映像と、映像信号入力部1131で入力した映像とを重畳し、映像表示部1102に入力する合成映像を生成する制御を行ってもよい。また、映像制御部1160は、映像信号入力部1131で入力した映像データやメモリ1109に格納する映像などに対して画像処理の制御を行ってもよい。画像処理としては、例えば、画像の拡大、縮小、変形等を行うスケーリング処理や、輝度を変更するブライト調整処理や、画像のコントラストカーブを変更するコントラスト調整処理や、画像を光の成分に分解して成分ごとの重みづけを変更するレティネックス処理等がある。
 また、映像制御部1160は、映像表示部1102に入力する映像に対して、ユーザの空中操作を補助するための特殊効果映像処理等を行ってもよい。特殊効果映像処理は、空中操作検出部1350によるユーザ操作の検出結果や、撮像部1180によるユーザの撮像結果に基づいて制御されればよい。
 上述のように、空間浮遊映像情報表示システム1には、様々な機能を搭載可能である。しかしながら、空間浮遊映像情報表示システム1は、必ずしも上述した構成の全てを有する必要は無い。空間浮遊映像情報表示システム1は、少なくとも空間浮遊映像3を生成する機能があれば、どのような構成でもよい。
 [空間浮遊映像の形成に関する第1方式]
 図3は、実施例の空間浮遊映像情報表示システムにおける主要部構成を示し、また、空間浮遊映像3の形成、および再帰反射部材2の構成に関する一例(第1方式とする)を示す。
 図3の(A)に示すように、この空間浮遊映像情報表示システムは、ガラス等の透光性を有する透過性プレートである透明部材100に対し、斜め方向に、特定偏波の映像光を挟角に発散させる映像表示装置10を備える。映像表示装置10は、液晶表示パネル11と、挟角な拡散特性を有する特定偏波の光を生成する光源装置13とを備えている。
 映像表示装置10から出射された特定偏波の映像光は、透明部材100に設けられた、特定偏波の映像光を選択的に反射する膜を有する偏光分離部材101で反射され、反射された光が、再帰反射部材2に入射する。図3中では、シート状に形成された偏光分離部材101が、透明部材100に粘着されている。
 透明部材100に対し、他方の斜め方向に、再帰反射部材2が設けられている。再帰反射部材2の映像光入射面には、λ/4板21(言い換えると四分の一波長板)が設けられている。映像光は、再帰反射部材2への入射の際と出射の際との計2回、λ/4板21を通過させられることで、特定偏波(一方の偏波)から他方の偏波へ偏光変換される。
 ここで、特定偏波の映像光を選択的に反射する偏光分離部材101は、偏光変換後の他方の偏波の偏光については透過する性質を有する。よって、偏光変換後の他方の偏波の映像光は、偏光分離部材101を透過する。偏光分離部材101を透過した映像光は、図示のように、透明部材100の外側に、実像である空間浮遊映像3を形成する。
 なお、空中浮遊映像3を形成する光は、再帰反射部材2から空中浮遊映像3の光学像へ収束する光線の集合であり、これらの光線は、空中浮遊映像3の光学像を通過後も直進する。よって、空中浮遊映像3は、一般的なプロジェクタなどでスクリーン上に形成される拡散映像光とは異なり、高い指向性を有する映像である。
 よって、図3の構成では、矢印Aの方向からユーザが視認する場合には空中浮遊映像3は明るい映像として視認されるが、例えば矢印Bの方向から他の人物が視認する場合には、空中浮遊映像3は映像として一切視認できない。このような空中浮遊映像3の特性は、高いセキュリティが求められる映像や、ユーザに正対する人物には秘匿したい秘匿性の高い映像を表示するシステムなどに採用する場合に、非常に好適である。
 なお、再帰反射部材2の性能によっては、反射後の映像光の偏光軸が不揃いになることがある。この場合、偏光軸が不揃いになった一部の映像光は、上述した偏光分離部材101で反射されて映像表示装置10の方に戻る。この一部の映像光は、映像表示装置10を構成する液晶表示パネル11の映像表示面で再反射し、ゴースト像を発生させる。これにより、空間浮遊像3の画質の低下を引き起こす要因になり得る。
 そこで、本実施例では、映像表示装置10の映像表示面に吸収型偏光板12が設けられている。吸収型偏光板12は、映像表示装置10から出射する映像光を当該吸収型偏光板12にて透過させ、偏光分離部材101から戻ってくる反射光を当該吸収型偏光板12で吸収させることで、再反射を抑制できる。したがって、吸収型偏光板12を用いる本実施の形態によれば、空間浮遊映像3のゴースト像による画質低下を防止または抑制できる。
 上述した偏光分離部材101は、例えば反射型偏光板や特定偏波を反射させる金属多層膜などで形成すればよい。
 図3の(B)は、第1方式で用いる再帰反射部材2の構成例を示す。図3の(B)には、代表的な再帰反射部材2として、今回の検討に用いた日本カ-バイト工業株式会社製の再帰反射部材の表面形状を示す。この再帰反射部材2は、表面において、規則的に配列された6角柱の再帰反射部(再帰反射素子)2aを有する。6角柱の内部に入射した光線は、6角柱の壁面と底面で反射され、再帰反射光として、入射光に対応した方向に出射し、映像表示装置10に表示した映像に基づいて実像である空間浮遊映像3を表示する。
 この空間浮遊映像3の解像度は、液晶表示パネル11の解像度の他に、図3の(B)で示す再帰反射部材2の再帰反射部2aの外形DとピッチPに大きく依存する。例えば、7インチのWUXGA(1920×1200画素)の液晶表示パネル11を用いる場合には、1画素(1トリプレット)が約80μmであっても、例えば再帰反射部2aの直径Dが240μmでピッチPが300μmであれば、空間浮遊映像3の1画素は300μm相当となる。このため、空間浮遊映像3の実効的な解像度は、1/3程度に低下する。そこで、空間浮遊映像3の解像度を映像表示装置10の解像度と同等にするためには、再帰反射部2aの直径DとピッチPを液晶表示パネル11の1画素に近づけることが望まれる。他方、再帰反射部材2aと液晶表示パネル11の画素によるモアレの発生を抑えるためには、それぞれのピッチ比を1画素の整数倍から外して設計するとよい。また、形状は、再帰反射部2aのいずれの一辺も液晶表示パネル11の1画素のいずれの一辺と重ならないように配置するとよい。
 一方、再帰反射部材2を低価格で製造するためには、ロールプレス法を用いて成形するとよい。この方法は、具体的には、再帰反射部2aを整列させフィルム上に賦形する方法である。この方法は、賦形する形状の逆形状をロール表面に形成し、固定用のベース材の上に紫外線硬化樹脂を塗布し、ロール間を通過させることで、必要な形状を賦形し、紫外線を照射して硬化させ、所望形状の再帰反射部材2を得る。
 [空間浮遊映像の形成に関する第2方式]
 次に、図4は、本実施例の空間浮遊映像情報表示システムにおける空間浮遊映像3の形成、および再帰反射部材の構成に関する他の一例(第2方式とする)を示す。図4の(A)は、第2方式での再帰反射部材330を用いた空間浮遊映像3の形成の概要を示す。再帰反射部材330に対し、一方の空間(本例ではZ方向で下側の空間)内にある物体P(対応する点P)からの光は、再帰反射部材330に入射し、再帰反射されて、他方の空間(本例ではZ方向で上側の空間)内に、空間浮遊映像331(対応する点Q)を形成する。
 図4の(B)は、代表的な再帰反射部材330として、今回の検討に用いた株式会社アスカネット製の再帰反射部材の動作原理を説明するための表面形状を示す。再帰反射部材330は、表面(図示のX-Y面)において、規則的に配列された4面の構造体(言い換えると四面体)330Aを有する。側壁330B間に、複数の構造体330Aが配列されている。4面の構造体330Aは、例えばZ方向に延在する四角柱形状を有するマイクロミラーである。例えば物体Pからの光(物体光とも記載)が4面の構造体330Aの内部に入射する。4面の構造体330Aの内部に入射した光線は、4面の構造体330Aの壁面のうち、2つの面(例えば反射面RS1と反射面RS2)で反射される。反射された光線(反射面RS1から上側へ出射される光線と、反射面RS2から上側へ出射される光線との両方)を、反射光R0として示す。反射光R0は、再帰反射光として、入射光に対応した方向に出射し、図4の(A)のように、物体Pに基づいた実像である空間浮遊映像331を形成・表示する。
 この空間浮遊映像331の解像度も、前述した図3の第1方式の再帰反射部材2と同様に、再帰反射部材330の再帰反射部(4面の構造体330A)の外形(直径)DSとピッチPTに大きく依存する。例えば、7インチのWUXGA(1920×1200画素)の液晶表示パネルを用いる場合には、1画素(1トリプレット)が約80μmであっても、例えば再帰反射部の外形(直径)DSが120μmでピッチPTが150μmであれば、空間浮遊像331の1画素は150μm相当となる。このため、空間浮遊映像331の実効的な解像度は、1/2程度に低下する。そこで、空間浮遊映像331の解像度を映像表示装置10の解像度と同等にするためには、再帰反射部(構造体330A)の直径DSとピッチPTを、液晶表示パネルの1画素に近づけることが望まれる。他方、再帰反射部材330と液晶表示パネルの画素によるモアレの発生を抑えるためには、前述のようにそれぞれのピッチ比を1画素の整数倍から外して設計するとよい。また、形状は、再帰反射部(構造体330A)のいずれの一辺も液晶表示パネルの1画素のいずれの一辺と重ならないように配置するとよい。
 なお、空間浮遊映像331を形成する光は、再帰反射部材330から空中浮遊映像331の光学像へ収束する光線の集合であり、これらの光線は、空中浮遊映像331の光学像を通過後も直進する。よって、空間浮遊映像331は、一般的なプロジェクタなどでスクリーン上に形成される拡散映像光とは異なり、高い指向性を有する映像となる。
 図4の構成では、矢印Aの方向からユーザが視認する場合には、空間浮遊映像331は、明るい映像として視認されるが、例えば矢印Bの方向から他の人物が視認する場合には、空間浮遊映像331は映像として一切視認できない。このような空間浮遊映像331の特性は、前述の第1方式の再帰反射部材2を用いた空中浮遊映像と同様に、高いセキュリティが求められる映像や、ユーザに正対する人物には秘匿したい秘匿性の高い映像を表示するシステムなどに採用する場合に、非常に好適である。
 なお、第2方式の再帰反射部材330においては、物体Pからの光は、図4(B)に示すように、再帰反射部材330に対して一方の側(Z方向の下側)から入射し、再帰反射部材330を構成する4面の壁面に設けられた2つの反射面(RS1,RS2)で反射し、反射光R0として、他方の側(Z方向の上側)に、点Qの位置に、空間浮遊映像331を結像する。この時、2つの反射面(RS1,RS2)では、反射光R0とは反射方向が異なる光として異常光R1,R2が発生する。2つの反射面(RS1,RS2)で発生した異常光R1,R2により、図4の(A)に示すようなゴースト像332,333を発生させる。このため、ゴースト像332,333が空間浮遊映像331の画質の低下を引き起こす要因となり得る。
 上述したように、第1方式での再帰反射部材2は、反射面の数に応じてゴースト像が発生する。それに対し、第2方式での再帰反射部材330は、物体光の入射角度により特定の2方向にのみゴースト像が発生する。よって、第2方式での再帰反射部材330の方が、ゴースト像の影響が少なく、高画質な空間映像表示が可能となる。そのため、以下に示す空間浮遊映像表示装置および空間浮遊映像情報表示システムとしては、第2方式の再帰反射部材330を適用する場合に絞って説明する。
 [ゴースト像を低減する技術手段]
 ゴースト像を低減した高画質な空間浮遊映像を形成できる空間映像表示装置などを実現するためには、映像表示素子としての液晶表示パネルからの映像光の発散角を制御して、所望の方向に曲げるために、液晶表示パネルの出射面に映像光制御シートを設けるとよい。さらに、再帰反射部材330の光線出射面、または光線入射面、またはそれらの両面に、映光制御シートを設けて、ゴースト像を発生させる要因となる異常光R1,R2(図4の(B))を吸収させるとよい。
 図5には、上記映像光制御シートを空間浮遊映像表示装置に適用する具体的な方法および構成例を示す。図5では、映像光制御シート334が、映像表示素子である液晶表示パネル335の出射面に設けられる。図5では、液晶表示パネル335の出射面を、図示のX軸とY軸とが為す平面(X-Y面)として示している。映像光制御シート334は、主面(X-Y面)において、透過部と光吸収部とを有している。この場合に、液晶表示パネル335の画素と映像光制御シート334の透過部および光吸収部とのピッチによる干渉によってモアレが発生し得る。このモアレを低減するためには、以下に示す2つの方法が有効である。
 (1)第1の方法としては、映像光制御シート334の透過部と光吸収部により生じる縦縞(図示の斜め線)を、液晶表示パネル335の画素の配列(X軸およびY軸)に対して、所定の角度(傾き)θ0だけ傾けて配置する。
 (2)第2の方法としては、液晶表示パネル335の画素寸法をA、映像光制御シート334の縦縞のピッチをBとした場合に、これらの比率(B/A)を、整数倍から外した値に選択する。液晶表示パネル335の1画素は、RGBの3色のサブ画素が並列して成り、一般的には正方形であるため、上述したモアレの発生を画面全体で抑えることはできない。このため、(1)の第1の方法に示した傾きθ0は、空間浮遊映像を表示させない箇所にモアレの発生位置を意図的にずらして配置できるように、5度から25度の範囲内で最適化すればよい。
 上記モアレを低減するために、液晶表示パネルと映像光制御シート334を題材に述べたが、再帰反射部材330に映像光制御シート334を設ける場合に再帰反射部材330と映像光制御シート334との間に発生するモアレについても、同様の方法・構成が適用できる。再帰反射部材330と映像光制御シート334は、両者が線状の構造体であるため、映像光制御シート334を、再帰反射部材330のX軸およびY軸に着目して最適に傾ければよい。これにより、目視でも視認できる、波長が長く周波数が低い大柄なモアレを低減できる。
 図6の(A)は、液晶表示パネル335の映像光出射面3351に映像光制御シート334が配置された構成を有する映像表示装置10の垂直断面図を示す。映像光制御シート334は、主面において、光透過部336と光吸収部337とが交互に配置して構成され、粘着層338により、液晶表示パネル335の映像光出射面3351に粘着固定されている。
 また、前述したように、映像表示装置10として7インチのWUXGA(1920×1200画素)の液晶表示パネルを用いる場合には、1画素(1トリプレット)(図中のAで示す)が約80μmであっても、以下の構成で、空間浮遊映像331の両側に発生する図4の(A)のゴースト像332,333を軽減できる。例えば、映像光制御シート334のピッチBとして、透過部336の距離d2が300μmと、光吸収部337の距離d1が40μmとからなるピッチBを340μmとする。この場合、映像光制御シート334により、十分な透過特性と、異常光の発生原因となる映像表示装置10からの映像光の拡散特性とを制御することで、ゴースト像を軽減できる。この場合、映像制御シート334の厚さは、ピッチBの2/3以上とすると、ゴースト低減効果が大幅に向上する。
 図6の(B)は、再帰反射部材330(図4)の映像光出射面に映像光制御シート334が配置された構成の垂直断面図を示す。映像光制御シート334は、光透過部336と光吸収部337とが交互に配置されて構成され、再帰反射部材330に対し、再帰反射光3341の出射方向に合わせて所定の傾斜角θ1を持って傾斜配置されている。この結果、映像光制御シート334によって、前述した再帰反射に伴って発生する異常光R1,R2(図4の(B))を吸収し、他方、正常反射光は、再帰反射光3341として、損失無く透過させることができる。
 再帰反射部材330は、前述の4面の構造体330A(図4)による再帰反射部に対応する空間3301が配列されている。再帰反射部に対応する空間3301は、側壁330Bの面によって区切られている。空間3301内は例えば反射面R1や反射面R2を有する。再帰反射部材330に対し、例えば下側から入射した光a1は、例えば空間3301の反射面R1で反射され、反射された光a2はさらに例えば反射面R2で反射されて、再帰反射部材330の上側に出射する。その出射した光は、映像光制御シート334に入射されて、再帰反射光3341として出射される。
 7インチのWUXGA(1920×1200画素)の液晶表示パネルを用いる場合には、1画素(1トリプレット)が約80μmであっても、図4(A)のような構成で、空間浮遊映像331の両側に発生するゴースト像332,333を軽減できる。図6の(B)に示すように、例えば、映像光制御シート334のピッチBとして、再帰反射部材330の透過部336の距離d2が400μmと、光吸収部337の距離d1が20μmとからなるピッチBが420μmとする。この場合、映像光制御シート334により、十分な透過特性と、再帰反射部材330での異常光の発生原因となる映像表示装置10からの映像光の拡散特性を制御し、ゴースト像を軽減できる。
 上述した映像光制御シート334は、他方、外界からの外光が空間浮遊映像表示装置内に侵入する妨げにもなるため、構成部品の信頼性向上にも繋がる。この映像光制御シート334としては、例えば信越ポリマー(株)の視野角制御フィルム(VCF)が適している。そのVCFの構造は、透明シリコンと黒色シリコンとが交互に配置され、光入出射面に合成樹脂が配置されて、サンドウィッチ構造となっている。そのため、このVCFを本実施例の映像光制御シート334として適用した場合に、上述の効果が期待できる。
 [空間浮遊映像に対する操作をセンシングする技術]
 ユーザ(利用者、監視者、操作者などと記載する場合もある)は、空間浮遊映像情報表示システム1による空間浮遊映像3(図2等)を介して、システムと双方向で接続される。言い換えると、ユーザは、空間浮遊映像3を見て操作することで、システムのアプリケーション(例えばキオスク端末のチケット販売機能)等を利用する。そのために、ユーザが空間浮遊映像3を疑似的に操作してその操作をセンシングするためのセンシング技術が必要である。このセンシング技術の例について、以下に具体例を挙げて説明する。ここでいう「センシング技術」とは、図2を用いて説明した空中操作検出センサ1351および空中操作検出部1350を含み、特に、3次元空間におけるユーザの操作(言い換えると空中操作)を検出するための技術である。空中操作検出センサ1351および空中操作検出部1350を、センシングシステムと記載する場合がある。
 図7の(A)は、第1のセンシング技術を説明するための原理図を示す。空間浮遊映像情報表示システム1による空間浮遊映像FIが、複数のエリア(言い換えると領域)に分割される。本実施例では、空間浮遊映像FIは、縦横で3×4=12のエリアに12分割されている。図7の(A)では、空間浮遊映像FIの面をx-y面として示しており、面に対する前後方向をz方向で示している。例えば図示のエリアA301は、センシング面a3のうちの左上の1つのエリアである。
 第1のセンシング技術では、空間浮遊映像FIのそれぞれのエリアに対応したTOF(Time of Flight)システムを内蔵した第1の測距装置340が設けられる。第1の測距装置340は、図2での空中操作検出センサ1351の代わりに設けられる。第1の測距装置340の発光部から、システムの信号に同期させて、光源であるLED(Light Emitting Diode)を発光させる。LEDの光線出射側には、発散角を制御するための光学素子が設けられ、受光素子としてピコ秒の時間分解能を持つ高感度なアバランシェダイオード(APD)を一対として、12エリアに対応するように、縦4列、横3行に整列配置される。システムからの信号に同期させて、光源であるLEDが発光し、その光が、測距すべき対象物(ここではユーザの手指UHの先端)に反射して、受光部に戻るまでの時間だけ、位相(後述の図9中のΔt)がずれる。
 図9の(B)に示すセンシングシステムの演算ユニットは、システムからの信号と、第1の測距装置340の受光部であるアバランシェダイオードによって生成される信号とを受け取り、これらの信号から、位相シフトを計算することで、対象物までの距離を算出する。エリアごとに対応付けられたTOFシステム(TOF1~TOF12)ごとに、距離が算出される。図7の(A)で、空間浮遊映像FIの面に対し、z方向で、対象物(手指UH)に近い側には、測距装置340の計測階層として、対象物に近い順に、センシング面a3,a2,a1(第1センシング面a3、第2センシング面a2、第3センシング面a1とも記載)を示し、さらに空間浮遊映像FIから離れる側に、計測階層として、センシング面a0を示す。距離L1はセンシング面a0までの距離、距離L2はセンシング面a1までの距離、距離L3はセンシング面a2までの距離、距離L4はセンシング面a1までの距離を示す。
 次に、センシングシステムは、対象物(手指UH)の移動の方向については、それぞれの計測階層(センシング面a3~a1)において、12のエリアのどのエリアを通過したかを認識し、それぞれの計測階層の移動時間を前述した方法で算出することで、システムとして認識できる。
 図9の(A)には、12の測定エリアごとのLED光源の発光のタイミングと受光素子の受光のタイミングを示す。SU1~SU12は、各エリアおよびTOFに対応付けられたセンシングユニットごとの発光タイミングと受光タイミングを示す。センシングシステムは、LEDの発光のタイミングをそれぞれのエリアごとに遅延させることで、個々のデータを画一化させる。
 実際に、システムに双方向で接続されるために、ユーザが、意思によって、空間浮遊映像FIに向けて手指UHを伸ばしたとする。その場合、センシングシステムは、空中浮遊映像FIから最も遠いセンシング面a3において例えばエリアA301で感知した第1感知信号S1と、例えばセンシング面a2の特定エリアで感知した第2の感知信号S2と、例えば第3センシング面a1の特定エリアで感知した第3の感知信号S3とを得る。センシングシステムは、これらの感知信号(S1~S3)によって、手指UHの移動方向とそれぞれのセンシング面を横切った時間差から、空間浮遊映像FIとの接点位置を計算処理して求める。
 さらに高精度な位置情報を取得するため、空間浮遊映像FIから奥に離れた位置のセンシング面a0が設定される。センシングシステムは、センシング面a0での感知に基づいて、空間浮遊映像FIを手指UHが通過したことを終了信号として検知するとともに、その感知の位置座標と、前述した2つの感知信号とから、空間浮遊映像FIへの接触点を3次元座標として求める。
 また、図7の(B)は、ユーザの手指UH(特に指先端)によって空間浮遊映像FIの一部を選択する動作と、ユーザの手指UHが空間浮遊映像FIの一部から離れる動作とを示す。図7の(B)に示すように、第1のセンシング技術では、ユーザが空間浮遊映像FIの所望の位置座標に接触した後、手指UHを戻した場合には、以下のようになる。すなわち、センシングシステムは、第3センシング面a3で感知した第3の感知信号S3と第2センシング面a2で感知した第2の感知信号S2とによって、更に第1センシング面a1で感知した第1の感知信号S1を、順次、センシングシステムの演算ユニットに伝達し、計算処理する。これにより、空間浮遊映像FIの特定座標からユーザの手指UHが離れたことが、システム上で認識される。
 次に、空間浮遊映像を疑似的に操作するためのさらに高精度なセンシング技術について以下に説明する。
 図8の(A)は、第2のセンシング技術を説明するための原理図を示す。第2のセンシング技術は、図7の(A)に示した第1のセンシング技術との違いとしては、第1の測距装置340に加え、第2の測距装置341が配置され、より高精度なセンシングを実現する。第1の測距装置340と第2の測距装置341が併設されてもよい。第2のセンシング技術では、第2の測距装置341(特にCMOSセンサ)を第2センシングシステムとして、第1センシングシステムと組み合わせて用いる。図8の(A)に示すように、第2の測距装置341は、第1の測距装置340と同様の範囲(センシング面a1,a2,a3,a0)を対象としてセンシングする。
 第1の測距装置340は、上述したように、空間浮遊映像FIにおける例えば12個に分割された複数のエリアの各エリアに対応したTOFシステムを内蔵している(図8の(B)での第1センシングシステム)。他方、第2の測距装置341は、2次元の画像センサ、例えばセンシングカメラ用途の1/4インチCMOSセンサを適用する。このCMOSセンサの縦横比は、3:4が一般的である。このため、本実施例では、そのCMOSセンサの縦横比に合わせて、第1の測距装置340のTOFシステムについても、センシングエリアを上述のように縦3分割、横4分割として合計12エリアとしている。
 また、CMOSセンサの解像度は、100万画素程度でも十分な分解能が得られるが、通常のカメラシステムとは異なり、RGBの色分離フィルターを設ける必要が無い。そのため、CMOSセンサは、同一画素数では小型化や高感度化が実現できるばかりでなく、近赤外光に対する感度が高い。そのため、第2のセンシング技術では、第1の測距装置340のTOFシステムの光源光によって測距すべき対象物(手指UHの先端)がエリアごとに決められたタイミングで照明されるので、検知精度が大幅に向上する。詳解は省くが、図9の(B)には、以上述べたシステムを機能ブロック図として示している。
 図8の(B)は、第1の測距装置340によるセンシング面a1,a2,a3と、それらに対応して設けられた、第2の測距装置341によるセンシング面b1,b2,b3とを示す。そして、図8の(B)は、それらのセンシング面に対する、手指UHによる、空間浮遊映像FIの一部を選択する動作や、一部から離れる動作を示す。図8の(B)に示すように、第2のセンシング技術を用いた空間浮遊映像情報表示システムにおいては、ユーザが意思によって空間浮遊映像FIに向けて手指UHを伸ばした場合、以下のようになる。この場合、上述した第1の測距装置340による3次元情報の他に、第2の測距装置341による3次元情報が得られる。空中浮遊映像FIから最も遠い第1の測距装置340のセンシング面a3に対応した第2の測距装置341のセンシング面b3の平面分解能は、使用しているCMOSセンサの解像度に合わせて高精度化できる。同様に、センシング面a2にはセンシング面b2が対応し、センシング面a1にはセンシング面b1が対応している。これにより、平面方向の分解能を大幅に向上させたセンシングシステムが実現できる。
 このとき、対象物(ユーザの手指UHの先端)の移動方向については、第1の測距装置340および第2の測距装置341のそれぞれのセンシング面を横切った時間差から、空間浮遊映像FIとの接点位置が、計算処理で求められる。更に高精度な位置情報を取得するため、空間浮遊映像FIから奥側に離れたセンシング面a0が設定される。センシングシステムは、空間浮遊映像FIを手指UHが通過したことを終了信号として検知するとともに、そのセンシング面a0での位置座標と前述した2つの感知信号から、空間浮遊映像FIへの接触点を、より精細度の高い3次元座標として算出できる。また、CMOSセンサのフレームレートを1/20秒から1/30秒、1/120秒と高速化した場合には、平面方向の検知精度に加え、単位時間当たりに取り込む平面情報が増えるため、分解能が大幅に向上する。このとき、第2のセンシング技術による検出情報は、第1のセンシング技術による位置情報とは、システムから供給される同期信号により、系統付けされる。
 更に、図8の(B)に示すように、ユーザが空間浮遊映像FIの所望の位置座標に接触した後、手指UHを戻した場合には、上述した第1のセンシング技術と同様に、第3センシング面a3で感知した第3の感知信号S3、第2センシング面a2で感知した第2の感知信号S2、および第1のセンシング面a1で感知した第1の感知信号S1が、順次にセンシングシステムの演算ユニットに伝達される。そして、演算ユニットでの計算処理によって、空間浮遊映像FIの特定座標からユーザの手指UHが離れたことが、システム上で認識される。
 以上述べたセンシングシステムの第1の測距装置340のTOFセンサで使用するLED光源は、測距装置の太陽光などの外光に対する精度低下を防ぎ、肉眼で視認できない可視光範囲(380nm~780nm)を超えた領域で光のエネルギーが高い近赤外光を用いるとよい。
 図10には、太陽光の分光放射照度の特性図を示している。TOFセンサのLEDの光源光の波長としては、図10に示した太陽光の分光放射照度のエネルギーが少ない920nmの波長λの光を用いるとよい。
 <空間浮遊映像に対し文字や図形を入力する技術>
 次に、実施例の空間浮遊映像情報表示システムとして、ユーザが空間浮遊映像に文字や図形などの任意の像を入力できる技術について説明する。この技術を用いることで、ユーザが空間浮遊映像に対し例えばサイン(署名)の入力を行うことができる。
 前述の図2の空中操作検出センサ1351を用いたセンシング技術や、図7や図8のTOFシステムを用いたセンシング技術を用いることで、対象物としてユーザの手指の指先位置や移動方向、空間浮遊映像との接点位置、空間浮遊映像から指が離れた位置(離脱位置とも記載)などを求めることができる。よって、空間浮遊映像情報表示システムは、上記接点位置および離脱位置の検出情報に基づいて、それらの2点を結ぶ線分を、空間浮遊映像の面に像として描画が可能となる。
 本実施例では、上記センシング技術を利用することで、空間浮遊映像の面上で、ユーザの手指の動き、言い換えると接点の位置の移動を検出することで、文字などの線を入力・表示することができる。
 例えば、空間浮遊映像情報表示システムは、空間浮遊映像とユーザの指先との接点位置を検出し、その後、指先が面内で別の位置に移動し、その移動した先で指先が空間浮遊映像から離れたことおよび離脱点を検出する。これにより、空間浮遊映像の面上で、例えば、線分や曲線などの図形、あるいは、アルファベットや数字のような文字の描画が可能となる。これにより、あたかも、タッチパネル付きの液晶ディスプレイの面上で図形や文字を描くことと同様に、空間浮遊映像の面上で図形や文字の入力ができる。
 また、図示しないが、空間浮遊映像情報表示システムは、センシング技術を用いて、空間浮遊映像に対するユーザの指先の動きを、所定の時間間隔(例えば100ミリ秒)でサンプリングし、各サンプリング点を結ぶように空間浮遊映像に線を描画する。これにより、例えば数字の1、2、3、アルファベットのLやMなどのような、一筆書きができる文字や図形である場合、空間浮遊映像として描画が可能である。
 さらに、例えば、4やHなどのような、一筆書きができない文字や図形の場合には、以下のように対応できる。すなわち、ユーザが例えばHの文字を入力する場合、システムは、まず、空間浮遊映像の面に対する指の連続的な接触による縦の線(第1の線)を検出・描画する。次に、システムは、ユーザが面から一旦指を離してから再び指を別の位置に接触したことを検出して、横の線(第2の線)を検出・描画する。最後に、システムは、ユーザが面から指を離して再び別の位置に接触したことを検出して、縦の線(第3の線)を検出・描画する。これにより、空間浮遊像の面にHの文字を描画できる。
 図12は、上記空間浮遊映像に対するユーザの手指による文字や図形などの像を入力・描画する技術についての説明図を示す。図12では、空間浮遊映像情報表示システム1により表示される空間浮遊映像FIをユーザの視点から見た場合の模式図を示す。本例では、空間浮遊映像FIは、システムの筐体1201の水平面に対し斜めに配置されており、ユーザの視点からはやや斜め下に空間浮遊映像FIを見る。本例では、空間浮遊映像FIは、四角形の枠1202(なお、これは枠状のデバイスではない)の表示を含んでいる。最初、枠1202は所定の色(例えば緑色)で表示されており、枠1202内には所定の背景色のみが表示されているとする。
 図12の例では、ユーザの手指の指先UFによって、空間浮遊映像FI面上に、単純な文字の例として、アルファベットのLを描く様子を示している。その際、ユーザは、文字を描くという意思を、何らかの方法で空間浮遊映像情報表示システム1に伝える。例えば、一実施例では、物理的な押しボタンとして、文字入力ボタン1203が、空間浮遊映像情報表示システム1の任意の箇所、本例では筐体1201上の右下の位置に設けられている。ユーザが文字入力ボタン1203を押した場合、システムは、ユーザが空間浮遊映像FIに対し文字などを入力する意思として捉え、空間浮遊映像FIに対し入力・描画するモード(文字入力モードとも記載)に遷移する。また、物理的な押しボタンではなく、音声で文字を描くという意思を空間浮遊映像情報表示システム1に伝えることも可能となる。
 これに限らず、他の実施例では、空間浮遊映像情報表示システム1が提供する空間浮遊映像FIの一部に、ユーザインタフェースとして、文字入力ボタンが表示されてもよい。ユーザがその文字入力ボタンをタッチ操作することで、同様に、システムは、空間浮遊映像FIに対し入力・描画するモードに遷移する。
 空間浮遊映像情報表示システム1は、文字入力モードでは、空間浮遊映像FIの画面全体を例えば白色の表示に変化させる。また、システムは、文字入力モードでは、空間浮遊映像FIの枠1202を、所定の色、例えば赤色に変化させる。システムは、空間浮遊映像FIの面に対するユーザの指UFの動きや接点位置を前述のように3次元的にセンシングする。そして、システムは、そのセンシングに基づいて、空間浮遊映像FIの面において、指UFの動きに対応した接点位置を、背景である白色とは異なる所定の色、例えば黒色あるいは青色などで描画する。これにより、指UFの動きの軌跡が、空間浮遊映像FIの白色の背景面上に、線として描画される。そうすれば、ユーザ自身が、空間浮遊映像FIにおける自分が描いた線を見ながら、所望の文字や図形を描くことができる。
 システムは、空間浮遊映像FIの面に指UFが接触していない状態(言い換えると指先が面の手前にある状態)と、空間浮遊映像FIの面に指UFが接触している状態(言い換えると指先が面の奥に差し込まれた状態)とで、空間浮遊映像FIの表示状態が異なるように表示を制御する。これにより、ユーザは、自分の指UFが空間浮遊映像FIの面に触れているか否かをより容易に認識できる。
 図12で、ユーザが空間浮遊映像FIの面上にアルファベットのLを描く場合の手順を説明する。まず、手順S121として、ユーザは、空間浮遊映像FI上の任意の位置に対し、奥方向に指UFを差し込む(言い換えると接触を維持させる)。次に、手順S122として、ユーザは、空間浮遊映像FI上で、その指UFを、接触の状態のまま、下方に移動させる。下向きの矢印は、指UFの移動方向(面に沿って下方)を示す。システムは、この移動の検出に伴い、Lという文字のうちの縦の線(第1の線)1211を、空間浮遊映像FIの一部として描画する。
 次に、手順S122は、縦の第1の線1211の下方の終端位置まで指UFが達した状態を示す。ここまでで縦の第1の線1211が描画された。この状態で指UFの接触は維持されている。次に、手順S123は、第1の線1211が描かれた時点から、ユーザが指UFを右向きに移動させる。システムは、この移動の検出に伴い、Lという文字のうちの横の線(第2の線1212)を描画する。指UFの位置は、横の第2の線1212の右端位置まで達している。
 次に、手順S124として、ユーザは、第2の線1212の右端位置にある指UFを、空間浮遊映像FIの面から手前側に離す。システムは、この指UFの離脱を検出し、第2の線1212の描画終了とする。上記のような一連の操作により、ユーザは、Lという文字を空間浮遊映像FI上に一筆書きで描くことができる。
 ユーザにより、文字入力ボタン1203が押下されて文字入力モードになった場合、空間浮遊映像FIは、画面全体(背景面)が白色に変化するのみならず、空間浮遊映像FIの枠1202の部分が例えば緑色から赤色に変化する。これにより、ユーザは文字入力モードであることを容易に認識できるので、好適である。また、文字入力モードを終了したいときには、ユーザは、再び、文字入力ボタン1203を押下すればよい。その場合、システムは、文字入力モードを終了させて、元のモードに戻る。上記例では、空間浮遊映像FIの画面全体が白色に変化するとしたが、これに限らず、白色以外の色、例えば黒色やその他の色でも構わない。
 なお、上記文字入力モードとした上で、ユーザが空間浮遊映像FIにタッチ(指UFが接触)することで、空間浮遊映像FIの枠1202の部分が、例えば赤色に変化するようにしてもよい。空間浮遊映像FIの枠1202の部分を赤色に変化させることで、ユーザは、自分の指が空間浮遊映像FIの面に接触していて文字を描画できる状態であることを認識できる。
 上記した一連の動きにより、ユーザが指先を移動させることで、所望の文字や図形などを空間浮遊映像FIの像として入力・描画できる。なお、空間浮遊映像FIの枠1202の部分についても、赤色以外の色、例えば青色やその他の色としても構わない。さらに、上記例では、図形や文字などの像を入力・描画できる領域を空間浮遊映像FIの画面全体とした。これに限らず、像を入力・描画できる領域は、空間浮遊映像FIの画面のうちの所定の一部としても構わない。
 ユーザは、空間浮遊映像FIを、操作メニューなどのユーザインタフェースとして用いることができるのみならず、上記文字入力モードにおいては、空間浮遊映像FI上に、自分の手指(あるいは導電性の材質によるペンなどでもよい)により、任意の文字や図形を入力・描画可能となる。これにより、空間浮遊映像および空間浮遊映像表示装置の適用範囲を従来よりもさらに広げることができ、好適である。
 <空間浮遊映像情報表示システムの第2の構成例>
 図13は、一実施例に係る空間浮遊映像情報表示システム1の主要部構成を示す。図13の空間浮遊映像情報表示システム1は、監視者であるユーザが空間浮遊映像3を斜め上方から観察するのに適したシステムである。図13中の座標系(X,Y,Z)では、空間浮遊映像情報表示システム1の筐体350が水平面(X-Y面)に配置されており、空間浮遊映像3は、鉛直方向(Z方向)に対し、前後方向(Y方向)でやや斜めに傾いて形成されている。ユーザの視点Eから、空間浮遊映像3の面を正対して好適に視認する場合、視点Eは、図示のように、空間浮遊映像3の面に対し、光軸J2に合わせて、Y方向でやや斜め上に配置される。ユーザは、視点EからY方向でやや斜め下の視線で空間浮遊映像3を好適に視認できる。
 筐体350内には、映像表示装置10などが所定の位置関係で配置されている。筐体350の上面(X-Y面)は、開口部となっており、所定の角度α1で、再帰反射部材330が配置されている。映像表示装置10の光軸J1は、Y方向に対し所定の角度β1で斜め上を向いている。
 映像表示装置10は、映像表示素子としての液晶表示パネル11と、挟角な拡散特性を有する特定偏波の光を生成する光源装置13とを備えて構成されている。液晶表示パネル11は、画面サイズが5インチ程度の小型のものから80インチを超える大型なものまで適用可能であり、それらから選択されたパネルで構成される。液晶表示パネル11からの映像光は、光軸J1上、再帰反射部材330(再帰反射部または再帰反射板とも記載)に向けて出射される。液晶表示パネル11には、後述する狭発散角な光源装置13からの光を入射させる。これにより、狭発散角な映像光束φ1が生成される。その狭発散角な映像光束φ1を、光軸J1に沿って、Z方向で下側から再帰反射部材330に入射させる。この再帰反射部材330での再帰反射により、前述の図4で説明した原理に従って、再帰反射部材330に対しZ方向で上側に、光軸J2の方向に、狭発散角な映像光束φ2が生成される。その映像光束φ2により、筐体350の外の所定の位置に、空間浮遊映像3(図4での空間浮遊映像331)が得られる。光軸J2は、Y方向に対し所定の角度β2で斜め上を向いている。
 空間浮遊映像3は、再帰反射部材330を対称面とした映像表示装置10の対称位置に形成される。斜めに配置された再帰反射部材330の面に対し、映像表示装置10の面と空間浮遊映像3の面とが略対称な位置または対称的な位置に配置されている。空間浮遊映像3の面において、r2は光軸J2に対応した中心位置を示し、r1は映像光束φ2の下端の光線に対応した下端位置を示し、r3は映像光束φ2の上端の光線に対応した上端位置を示す。
 この構成において、図4で説明した、再帰反射部材330により発生するゴースト像332,333を消去して高画質な空間浮遊映像3を得るために、液晶表示パネル11の出射側には、映像光制御シート334(詳しくは前述の図5や図6の(A))が設けられている。これにより、不要な方向の拡散特性が制御される。
 さらに、液晶表示パネル11からの映像光は、図11に示すように、再帰反射部材330等の反射部材での反射率を原理的に高くできるので、S偏波(電界成分が入射面に垂直な電磁波、Sはsenkrechtの略)を使用するとよい。しかしながら、ユーザが偏光サングラスを使用した場合には、空中浮遊映像3が偏光サングラスで反射または吸収されるため、これに対策する場合には、P偏波(電界成分が入射面に平行な電磁波、Pはparallelの略)を使用するとよい。そのためには、特定偏波の映像光の一部を光学的に他方の偏波に変換して疑似的に自然光に変換する素子として、図示の偏光解消素子339が設けられる。例えば偏光解消素子339が映像光制御シート334の出射側に配置されている。これにより、ユーザが偏光サングラスを使用している場合でも、良好な空間浮遊映像3を監視できる。
 偏光解消素子339の市販品としては、コスモシャインSRF(東洋紡社製)、偏光解消粘着剤(長瀬産業社製)が挙げられる。コスモシャインSRF(東洋紡社製)の場合、画像表示装置上に粘着剤を貼合することにより、界面の反射を低減して輝度を向上させることができる。また、偏光解消粘着剤(長瀬産業社製)の場合、無色透明板と画像表示装置とを偏光解消粘着剤を介して貼合することで使用される。
 また、本実施例では、再帰反射部材330の映像出射面にも、映像光制御シート334B(映像光制御シート334と同様のもの。詳しくは前述の図6の(B))が設けられる。これにより、不要光による空間浮遊映像3の正規像の両側に発生するゴースト像332,333(図4)が消去される。
 本実施例では、再帰反射部材330を水平軸(Y方向)に対して所定の角度α1で傾斜させ、空間浮遊映像3を水平軸に対して斜め(特に、水平面よりは垂直面に近い角度での斜め)に生成する構成とした。これに限らず、構成要素の配置を変更すれば、空間浮遊映像3の配置の位置や傾きを設計可能である。
 また、本実施例では、筐体350の所定の位置に、第1の測距装置340が装着されている。すなわち、このシステムには、図7と同様のセンシング技術が実装されている。これにより、ユーザが空間浮遊映像3にアクセス、インタラクトできるシステムとする。第1の測距装置340を含む第1のセンシングシステムは、空間浮遊映像3に対するユーザの手指などによる操作の状態を検出する。さらに、図8や図9の(B)と同様に、第2の測距装置341を含む第2のセンシングシステムを追加した構成としてもよい。
 第1の測距装置340の取り付け位置と視野角α3は、空間浮遊映像3の大きさを十分カバーできるように適宜選択するとよい。本例では、第1の測距装置340は、筐体350のうち、Y方向で奥側(ユーザおよび空間浮遊映像3の位置に対し奥側)で、再帰反射部材330の斜面の延長上で、かつ、映像光の映像光束を遮らないように少し離れた位置である、図示の位置に取り付けられている。第1の測距装置340の視野角α3(上端Aから下端Bまでの範囲)は、本例では、空間浮遊映像3全体とそれを基準位置(正対する位置)の視点Eから視認するユーザの顔を含む領域とをカバーできるように、十分に広い視野角とされている。視野角α3は、空間浮遊映像3全体を捉える視野角α2を内包している。視野角α2は、例えば図7のセンシング面a0,a1,a2,a3と対応している。
 第1の測距装置340のTOFセンサは、図7(あるいは図8)に示したように、空間浮遊映像3のセンシング面を複数のエリアに分割した測距システムを使用する。これにより、センシングの領域ごとの分解能が高められる。さらに、図8および図9の(B)のようなCMOSセンサを使用した第2のセンシング技術を使用する場合には、検知精度をより一層向上できる。
 また、本実施例では、光源装置13として、狭角の指向特性を有する可視光を発散させる光源を使用し、第1測距装置340を、筐体350側において挟角の映像光束に対し外側の位置に配置する。また、第2の測距装置341は配置されてもよい。これにより、空間浮遊映像3を形成する映像光のセンシング精度に対する悪影響を除くことができる。
 <空間浮遊映像情報表示システムの第3の構成例>
 図14は、空間浮遊映像情報表示システムの他の実施例を示す。図13の空間映像情報表示システム1は、ユーザが空間浮遊映像3を斜め上方から観察するのに適したシステムである。図14中の座標系(X,Y,Z)では、空間浮遊映像情報表示システム1の筐体350が水平面(X-Y面)に配置されており、空間浮遊映像3は、鉛直方向(Z方向)に対し、前後方向(Y方向)でやや斜めに傾いて形成されている。ユーザの視点Eから、空間浮遊映像3の面を正対して好適に視認する場合、視点Eは、図示のように、空間浮遊映像3の面に対し、光軸J2に合わせて、Y方向でやや斜め上に配置される。ユーザは、視点EからY方向でやや斜め下の視線で空間浮遊映像3を好適に視認できる。
 筐体350内には、映像表示装置10、ミラー360等が所定の位置関係で配置されている。筐体350の開口部、本例では概略的に鉛直方向に立つ面(X-Z面)を持つ開口部には、Z方向に対し所定の角度γ1(やや斜め下に傾いた角度)で、再帰反射部材330が配置されている。ミラー360は平面ミラーである。
 本実施例では、映像表示装置10からの映像光は、ミラー360で反射されてから、再帰反射部材330に入射される。筐体350は、Z方向で上側に凸状に出ている部分を有し、その部分内に映像表示装置10が配置されている。映像表示装置10の光軸J1は、Z方向で下側、Y方向で奥側に、Z方向に対する所定の角度δ1で斜め下を向いている。
 映像表示装置10は、映像表示素子としての液晶表示パネル11と、挟角な拡散特性を有する特定偏波の光を生成する光源装置13とを備えて構成されている。液晶表示パネル11は、画面サイズが5インチ程度の小型のものから80インチを超える大型なものまで適用可能であり、それらから選択されたパネルで構成される。液晶表示パネル11からの映像光は、光軸J1上、光路折り返しミラーであるミラー360によって折り返され、折り返し後の光軸J1B上で、再帰反射部330材に向けて出射される。液晶表示パネル11には、後述する狭発散角な光源装置13からの光を入射させる。これにより、狭発散角な映像光束φ1が生成される。狭発散角な映像光束φ1は、ミラー360で反射後、映像光束φ1Bとなる。その狭発散角な映像光束φ1Bを、光軸J1Bに沿って、図示のY方向で右側から再帰反射部材330に入射させる。この再帰反射部材330での再帰反射により、前述の図4で説明した原理に従って、再帰反射部材330に対しY方向で左側に、光軸J2の方向に、狭発散角な映像光束φ2が生成される。その映像光束φ2により、筐体350の開口部に対して外の所定の位置に、空間浮遊映像3(図4での空間浮遊映像331)が得られる。光軸J2は、Y方向に対し所定の角度δ2(Z方向に対しては角度(90度-δ2))で斜め上を向いている。
 空間浮遊映像3は、再帰反射部材330を対称面として、ミラー360に対し概略的に対称位置に形成される。本実施例では、ミラー360により光路を折り返す構成であるため、映像表示装置10は、Z方向で空間浮遊映像3よりも上に配置されている。この結果、映像光線が再帰反射部材330に対し斜め上方から入射し、斜め上方に出射して、図示のように斜めに傾いた空間浮遊映像3を形成するシステムを実現できる。
 また、空間浮遊映像3を筐体350に対して斜め上向き(図示の光軸J2上)に結像させるためには、再帰反射部材330を、図示のように筐体350の底面の垂直軸(Z方向)に対して所定の角度γ1で傾斜させて配置することで実現できる。また、このように再帰反射部材330の出射軸がやや斜め下に傾いた構成の結果、外光が再帰反射部材330に入射して筐体350内部に侵入することで発生し得る空間浮遊映像3の画質低下を防止できる。
 空間浮遊映像3で発生し得るゴースト像(図4)を消去してより高画質な空間浮遊映像3を得るためには、第2の実施例(図13)と同様に、本実施例でも、液晶表示パネル11の出射側に、映像光制御シート334(図5、図6の(A))を設けることで、不要な方向の拡散特性を制御してもよい。また、再帰反射部材330の映像出射面にも、映像光制御シート334B(図6の(B))を設けることで、不要光により空間浮遊映像3の正規像の両側に発生するゴースト像を消去してもよい。
 以上述べた構造物が筐体350の内部に配置されることで、再帰反射部材330に対し外光が入射することを防止し、ゴースト像の発生を防止することができる。
 本実施例でも、液晶表示パネル11からの映像光は、図13と同様に、S偏波を使用してもよいし、偏光サングラスに対応する場合には、P偏波を使用して偏光解消素子339を設けてもよい。
 本実施例では、再帰反射部材330を鉛直軸(Z方向)に対して所定の角度γ1で傾斜させ、空間浮遊映像3を水平軸に対して斜め(特に、水平面よりは垂直面に近い角度での斜め)に生成する構成とした。これに限らず、構成要素の配置を変更すれば、空間浮遊映像3の配置の位置や傾きを調整可能である。
 また、本実施例では、筐体350の所定の位置に、第1の測距装置340(図7)が装着されている。すなわち、このシステムには、図7と同様のセンシング技術が実装されている。これにより、ユーザが空間浮遊映像3にアクセス、インタラクトできるシステムとする。第1の測距装置340を含む第1のセンシングシステムは、空間浮遊映像3に対するユーザの手指などによる操作の状態を検出する。さらに、図8や図9の(B)と同様に、第2の測距装置341を含む第2のセンシングシステムを追加した構成としてもよい。
 第1の測距装置340の取り付け位置と視野角γ3は、空間浮遊映像3の大きさを十分カバーできるように適宜選択するとよい。本例では、第1の測距装置340は、筐体350の底面部のうち、Y方向で再帰反射部材330の手前の近傍で、かつ、映像光の映像光束を遮らないように少し離れた位置である、図示の位置に取り付けられている。第1の測距装置340の視野角γ3は、本例では、空間浮遊映像3全体とそれを基準位置の視点Eから視認するユーザの顔を含む領域とをカバーできるように、十分に広い視野角とされている。視野角γ3は、空間浮遊映像3全体を捉える視野角を内包している。
 第1の測距装置340のみならず、さらに、図8および図9の(B)のようなCMOSセンサを使用した第2のセンシング技術を使用してもよい。
 また、本実施例では、光源装置13として、狭角の指向特性を有する可視光を発散させる光源を使用し、第1測距装置340(さらには第2の測距装置341)を、筐体350側において挟角の映像光束に対し外側の位置に配置する。これにより、空間浮遊映像3を形成する映像光のセンシング精度に対する悪影響を除くことができる。
 さらに、本実施例では、空間浮遊映像3と再帰反射部材330との間に、図示のように、静電容量方式のタッチパネル361を、支持部材362で固定して配置してもよい。支持部材362は、例えば枠状として、内側にタッチパネル361を支持する。支持部材362は、例えば筐体350の底面部に対し固定されている。このタッチパネル361は、空間浮遊映像3を形成するための映像光、および第1の測距装置340からの光を透過させる部材で構成されている。
 このタッチパネル361は、静電容量方式で、当該タッチパネルの面に対するユーザの手指の近接の状態を検出する。もしくは、このタッチパネル361は、当該タッチパネルの面に対するユーザの手指の接触の状態を検出する。このタッチパネル361を含む第3のセンシング技術を、第1のセンシング技術等と併用することで、検知精度をより一層向上できる。この静電容量方式のタッチパネル361の大きさと取り付け位置についても、同様に、空間浮遊映像3を十分カバーできるように選択するとよい。
 高精度な位置情報を取り込むことができる静電容量方式のタッチパネル361としては、例えば投影型静電容量方式を採用できる。この方式のタッチパネルは、例えば、微細な線間距離を有する透明電極(Y軸電極)であるITOと微細な線間距離を有する透明電極(X軸電極)である銅薄膜とを、透明ガラス基板の両面にフォトリソエッチングによりパターンニングすることで製造される。そのため、この透明ガラス基板に対象物(例えば指先端)が近づいた場合に、X軸電極とY軸電極のそれぞれで静電容量の変化を捉え、対象物の相対座標が得られる。また、この方式は、透明電極の線間距離が短いほど、高い分解能を得られるので、多点検出が可能である。そのため、この方式では、複数の指での同時入力も可能となる。
 <キオスク端末に係わる実施の形態1>
 本発明の一実施の形態として、これまでに説明した空間浮遊映像情報表示システム1を、いわゆるキオスク端末に適用した実施例(実施の形態1とする)について以下に説明する。
 キオスク端末とは、従来、不特定多数の人が、タッチパネル操作などのマン・マシン・インタフェースやユーザインタフェースを通じて、必要な情報にアクセスしたり、様々なサービスを利用したりするための情報端末である。キオスク端末は、公共施設や交通機関、遊園地等のエンタテイメント施設、また、近年では、いわゆるコンビニエンスストアの店内などにも設置されている。キオスク端末は、各種のチケットの販売や、行政サービス(例えば、住民票の発行)にも用いられている。
 なお、以下の実施の形態の説明において、特定の構成を有する情報端末を、「キオスク端末」という用語で表現している。この「キオスク端末」という用語の代わりに、「情報端末」の他、「情報表示装置」、「情報処理端末」、「発券端末」、「書類発行端末」、「行政端末」、「サービス端末」などと表現してもよい。実施の形態の説明で主として用いる「キオスク端末」の用語は、これらの用語の代表例として用いている。
 図15には、従来技術に基づいた一般的なキオスク端末の外観の一例を示す。このキオスク端末1400は、例えば高さ120~50cmほどの金属製の筐体1450を備えており、筐体1450の表面(ユーザに対向する側の面、特に斜面1451)には、液晶表示画面1410や入力ボタン1420が設けられている。液晶表示画面1410は、液晶表示装置の一部であり、各種情報を表示して利用者のタッチ操作を受け付けるタッチパネル付きの画面である。入力ボタン1420は、利用者に固有の暗証番号等を入力するための物理的なボタン、あるいはタッチパネルで構成された画面内のタッチボタンである。また、筐体1450の表面の一部には、取り出し口1430が設けられている。取り出し口1430は、キオスク端末1400に対する操作の結果、例えば発行されたチケットや行政書類などを取り出すための取り出し口である。
 図16は、実施の形態1の空間浮遊映像情報表示システムとしてのキオスク端末の外観構成例を示す。図16ではキオスク端末1500を斜め右から見た場合の概要を示す。図16のキオスク端末1500は、図15のキオスク端末1400との違いとしては、以下がある。図16のキオスク端末1500では、筐体1550の表面(特に斜面1570)に、液晶表示装置による液晶表示画面1510に加え、下方に、前述の空間浮遊映像3を表示するための空間浮遊映像表示部1520を備えている。言い換えると、このキオスク端末1500は、液晶表示画面1510と空間浮遊映像表示部1520との2種類の映像による2画面を有し、斜面1570において液晶表示画面1510と空間浮遊映像表示部1520との2つの表示部に分かれている構成である。
 図16の構成では、2画面のうち、基本として使用されるのは、空間浮遊映像表示部1520の画面(第1画面とも記載)である。この第1画面において、空間浮遊映像3によるユーザインタフェースとして、コンシェルジュや操作メニューが表示される。空間浮遊映像表示部1520の第1画面は、縦横に所定のサイズの領域を基本としている。本例では、第1画面は、若干横長のサイズを有する。
 他方、液晶表示画面1510(第2画面とも記載)は、任意の映像が表示可能であるが、例えば、一般的なキオスク端末と同様に、広告表示などの用途で使用される。液晶表示画面1510は、例えばタッチセンサを備えた液晶タッチパネル画面である。
 なお、変形例では、液晶表示画面1510である第2画面を、空間浮遊映像表示部1520の第1画面と合わせて、操作メニューなどのユーザインタフェースとして使用してもよい。
 また、変形例として、液晶表示画面1510である第2画面を設けない構成も可能である。
 また、変形例として、図16の空間浮遊映像表示部1520の第1画面に、1つの空間浮遊映像3としてコンシェルジュと操作メニューとの両方を表示させてもよい。ただし、第1画面のサイズが限られているので、第1画面内にそれらの両方を表示させた場合、小さく細かい表示内容となり、見にくい可能性がある。よって、図16の実施例では、第1画面内には、コンシェルジュと操作メニューとの一方を、なるべく大きく表示するように、表示の切り替え等が制御される。
 勿論、液晶表示画面1510と空間浮遊映像表示部1520との位置関係は、図16の構成例に限らず可能である。例えばこれらの上下の配置を逆としてもよい。すなわち、斜面1570において、空間浮遊映像表示部1520が上部に配置され、下部に液晶表示画面1510が配置されてもよい。また、斜面1570において、それらが左右に並列して配置されてもよい。ただし、後述の図17に示すように、キオスク端末1500として液晶表示画面1510に加え空間浮遊映像表示部1520も備える構成では、液晶表示画面1510を上、空間浮遊映像表示部1520を下に配置する構成とした方が、筐体1550内の部品配置として、より好適である。
 また、図16に示すように2つの表示部による2画面を有する構成である場合、それらの2つの表示部の画面がそれぞれ液晶表示画面1510と空間浮遊映像表示部1520であることがユーザにわかりやすいように、それぞれの画面上に、例えば「これは液晶画面です」、「これは空間浮遊映像です」のように、その旨を伝える表示をしてもよい。これにより、ユーザにとっての使い勝手が良くなる。また、画面上の表示ではなく、それぞれの画面の枠部分などの近傍位置に、予め物理的に「液晶画面」、「空間浮遊映像」といった表記をしておいてもよい。
 図16に示す例では、空間浮遊映像表示部1520には、空間浮遊映像3として、コンシェルジュ1521(人物像、コンシェルジュ映像とも記載)が表示されている。詳細は後述するが、図16に示す構成では、ユーザは、液晶表示画面1510に表示された画像または映像情報に加え、空間浮遊映像表示部1520に表示されるコンシェルジュ1521による操作案内に従って、画面(特に空間浮遊映像表示部1520に表示される操作メニューなど)を操作可能である。コンシェルジュ1521は、ユーザに対し、映像と音声によって、操作案内(操作ガイド、操作説明などとも記載)などを行う。
 したがって、ユーザは、あたかも、キオスク端末1500上に実際の人(コンシェルジュ)が存在するような感覚が得られる。しかも、そのコンシェルジュが、ユーザに対し、キオスク端末1500の操作方法などについての説明を丁寧に行う。そのため、初めてキオスク端末に触れるユーザ等であっても、戸惑うことなく、キオスク端末1500をより容易に操作でき、所望のサービスを受けることができる。
 ここで、図16の実施例における空間浮遊映像表示部1520は、空間浮遊映像3を形成するための方式としては、前述の図3の再帰反射部材2等の構成を適用してもよいし、あるいは、前述の図13や図14の再帰反射部材330等の構成を適用してもよい。また、上記方式に限らず、空中に空間浮遊映像を表示できる他の方式を適用してもよい。いずれも適用可能である。本実施例では特に図14の構成を適用した場合(図17)を示す。
 さらに、図16の実施例における、空間浮遊映像3に対するユーザの操作を検出する検出方式(センシング技術)については、前述の図2の空中操作検出センサ1351と空中操作検出部1350の組合せによる方式を適用してもよいし、前述の図7や図8の、第1または第2のセンシング技術による方式を適用してもよい。また、上記方式に限らず、空間浮遊映像に対する空中操作を検出できる他の方式を適用してもよい。いずれの方式も適用可能である。本実施例では特に図7および図14の構成を適用した場合(図17)を示す。
 さらに、図16のキオスク端末1500には、筐体1550(特に斜面1570)の左右の位置に、2つのカメラ1541,1542が備えられている。これらのカメラは、図2の撮像部1180に対応するステレオカメラである。カメラ1541,1542は、このキオスク端末1500の正面(図示のY方向での手前側)に対し近くにいるユーザ(例えば空間浮遊映像3を操作するユーザ)の顔や虹彩などを含む領域を撮像する。空間浮遊映像情報表示システム1であるキオスク端末1500の制御部1110(図2)は、カメラ1541,542の撮像画像に基づいて、ユーザがキオスク端末1500に近付いたことを検出する処理、ユーザを識別・特定する処理、あるいはユーザの認証処理などを行うように構成されている。本実施例では2つのカメラ1541,1542が配置されているが、1つまたは2つ以上でも構わない。また、カメラが筐体1550内部に配置されてもよいし、外部に配置されたカメラが撮像した撮像情報を有線または無線でキオスク端末1500に送信するような構成されてもよい。
 また、左右の2つのカメラ1541,1542により、ステレオ撮影が可能であり、ユーザの顔などを立体像として撮像でき、顔などの対象物までの距離や位置も計算可能である。よって、このシステムでは、1つのカメラによりユーザの顔を平面像として撮像する場合と比較して、ユーザの顔認証などの精度を高めることができ、不正使用防止の観点からも好適である。
 また、図16のキオスク端末1500には、筐体1550の左右の位置に、2つのスピーカ、特に2つの超指向性スピーカ1551,1552(図2のスピーカ/超指向性スピーカ30と対応)が備えられている。超指向性スピーカを備えることで、このキオスク端末1500を操作しようとしているユーザのみにしか聞き取ることのできない、指向性が非常に高い音声を発することができる。キオスク端末1500には、通常の可聴帯域の音声を出力するスピーカを備えてもよいが、以下のような場合には、対象ユーザ以外の他の人には聞き取ることができないように、特に超指向性スピーカ1551,1552を備える構成とすると好適である。すなわち、ユーザの操作などに応じてキオスク端末1500から発する音声を、例えばユーザの氏名や生年月日や入力番号情報などとする場合などには、特に秘匿性を高くしてセキュリティに配慮する必要がある。このような場合には、超指向性スピーカの適用が好適である。
 なお、図16では、超指向性スピーカ1551,1552は、筐体1550の外部に張り出すように設置されているが、これに限らず、筐体1550の内部に配置されてもよい。超指向性スピーカ1551,1552により、空間浮遊映像3の操作メニューのボタン等が押下されたことを表す音声信号を、ユーザにのみ聞こえるように出力してもよい。
 図17は、図16のキオスク端末1500の内部構造の説明図を示す。図17では、図16の筐体1550を右側面から見た場合の内部透視のY-Z断面を示している。筐体1550の上部は、斜面1570を有する形状である。その上部の中に、図14で説明した空間浮遊映像情報表示システム1の構成要素である、映像表示装置10、ミラー360、再帰反射部材330等が収容されている。この構成は、図14と同様であるため、詳細説明を省略する。なお、図17では、図14でのタッチパネル361は適用していない。
 筐体1550の下部の中には、図2の制御部1110を実装した制御装置や、通信部1132を実装した通信装置や、電源装置などの他の構成要素が収容されていてもよい。また、筐体1550の下部(例えば前面)には、図示のように、人感センサ1560が設けられてもよい。人感センサ1560は、キオスク端末1500に人が近付いたことを検出する。
 図17の構成では、図13と同様に、筐体1550内の映像表示装置10から発される映像光の向きをミラー360によって変えて再帰反射部材330に入射させる。そして、再帰反射部材330による再帰反射光を、映像表示装置10とは反対側(Y方向で手前側)での斜め上に出射させる。これにより、空間浮遊映像表示部1520の位置に空間浮遊映像3が生成される。
 筐体1550の斜面1570は、水平面(Y方向)に対し所定の角度ε1を有する。斜面1570上において、上方の液晶表示画面1510に対し、斜め下の位置に、空間浮遊映像表示部1520の開口部(点線で示す)が設けられている。開口部には透明部材などが設けられてもよい。再帰反射部材330からの映像光は、その開口部を斜め上に通過し、斜面1570の外の所定の位置に、実像である空間浮遊映像3を形成する。この空間浮遊映像3は、斜面1570に対しては所定の角度ε2で前側に傾いて形成される。そのため、ユーザからは、空間浮遊映像3は、斜面1570に対し手前に張り出して浮遊したように見える。ユーザは、空間浮遊映像表示部1520に表示される空間浮遊映像3を、図14と同様に、斜め上の視点Eから斜め下への視線によって好適に視認できる。
 なお、このようにキオスク端末1500に図14の構成を適用した場合、筐体1550内でミラー360によって光路を折り返す構成であるため、筐体1550内での光路をより長く確保できる。これにより、再帰反射部材330に対し空間浮遊映像3が前方斜め上に飛び出す距離をより長く確保できる。また、これにより、筐体1550の奥行方向(Y方向)での厚さ寸法は抑えることができる。
 また、図17の構成では、第1の測距装置340(前述のTOFセンサ等を含む)は、空間浮遊映像表示部1520の開口部を通じて、空間浮遊映像3の全体をカバーする範囲をセンシングする。なお、図17では、第1の測距装置340によるセンシングの範囲の下端Bは、開口部に合わせて、水平面(Y方向)に対し斜め上となっているが、これに限らず、水平方向(Y方向)に近付けてもよい。筐体1550の開口部の位置や第1の測距装置340の配置位置を変更することで、そのセンシングの範囲を設計可能である。
 また、第1の測距装置340を含むセンシングシステムを、ユーザがキオスク端末1500(筐体1550の斜面1570、または空間浮遊映像3など)に対し十分に近付いたかどうかの検出、あるいは、カメラと合わせてその検出の補助に用いてもよい。また、図17の構成で図8のような第1の測距装置340と第2の測距装置341を設ける場合には、それらを例えば再帰反射部材330に対しX方向で左右の位置に配置し、測距の光軸を水平面(Y方向)に近付けてもよい。
 キオスク端末1500は、第1の測距装置340を含むセンシングシステムを用いて、空間浮遊映像表示部1520の空間浮遊映像3に対するユーザの手指による操作をセンシングする。キオスク端末1500の制御部1110は、そのセンシングを含む検出情報などに応じて、空間浮遊映像表示部1520での空間浮遊映像3の表示内容(コンシェルジュ1521や後述の操作メニューなどのユーザインタフェース)を制御する。
 実施の形態1の空間浮遊映像情報表示システムであるキオスク端末によれば、使い勝手や利便性が高く、キオスク端末などの利用者に対して好適な空間浮遊映像によるインタフェースおよび必要な情報を提供できる。実施の形態1のシステムによれば、空間浮遊映像として表示された操作メニュー等のユーザインタフェースの操作が初めてのユーザ、操作に不慣れなユーザ、あるいは高齢のユーザなどであっても、当該ユーザに対し、空間浮遊映像として表示された親しみやすい人物像としてのコンシェルジュによる操作案内を提供する。これにより、空間浮遊映像のインタフェースに対するユーザの誤入力や誤操作を回避または低減でき、より確実な操作を可能とする。
 <キオスク端末に係わる実施の形態2>
 図18は、キオスク端末に係わる他の実施例(実施の形態2とする)の外観構成例を示す。図18に示すキオスク端末1600は、図16の構成に対する違いとしては、液晶表示画面1510を備えず、筐体1650の斜面1670において、概略的に全面に、空間浮遊映像表示部1620が備えられている。この空間浮遊映像表示部1620による1つの画面は、図16での空間浮遊映像表示部1520の画面よりもサイズが大きい。図18の実施例では、空間浮遊映像表示部1620は、縦長のサイズの1つの画面を有し、1つの空間浮遊映像3が表示される。本例では、この1つの画面の空間浮遊映像3内に、コンシェルジュと操作メニューとの両方が並列で表示され、コンシェルジュが操作メニューの操作についてガイドする。
 空間浮遊映像表示部1620では、斜面1670に対し手前側に、空間浮遊映像3が表示される。本例では、空間浮遊映像3は、上部にコンシェルジュ1621が映し出されており、下部には、操作メニュー1622が映し出されている。操作メニュー1622には、例えば操作ボタン(丸や三角で示す)などが含まれている。コンシェルジュ1621は、操作メニュー1622に関する操作方法などを説明、ガイドする。この図18の構成の場合でも、図16の場合と同様に、ユーザは、コンシェルジュ1621によるガイド等に従って、キオスク端末1600、特に操作メニュー1622を容易に操作でき、所望のサービスを受けることができる。
 図18の構成でも、筐体1650に、カメラ1641,1642や、超指向性スピーカ1651,1652や、人感センサ1660を備えており、図16の構成と同様である。
 図19は、図18のキオスク端末1600の内部構造の例の説明図を示し、キオスク端末1600を右側面から見た場合の内部透視のY-Z断面を示している。このキオスク端末1600は、筐体1650内に、前述の図13の空間浮遊映像情報表示システム1の構成要素が収容されている。すなわち、筐体1650内の上部に、映像表示装置10、再帰反射部材330等が配置されている。
 図19の構成では、筐体1650内の上部の底面部の上に、映像表示装置10が概略的に水平面(詳しくはY方向に対し奥側がやや上に傾いた状態)に沿って配置されており、映像表示装置10の光軸J1は概略的に鉛直上方(Z方向)を向いている。また、筐体1650の上部の斜面1670には、空間浮遊映像表示部1620の開口部(点線で示す)が設けられている。筐体1650の上部内で、その開口部に対し近くには、再帰反射部材330が所定の角度で配置されている。斜面1670は所定の角度ε1を有しており、再帰反射部材330は、斜面1670に対し所定の角度ε3で配置されている。
 図19の構成では、図13の場合と同様に、映像表示装置10からの映像光を再帰反射部材330に入射し、再帰反射光を映像表示装置10とは反対側、すなわち斜面1670の開口部の方に出射する。これにより、斜面1670の空間浮遊映像表示部1620における、開口部の外側の所定の位置に、実像である空間浮遊映像3が生成される。この空間浮遊映像3は、斜面1670に対し所定の角度ε2で斜めに配置されている。ユーザは、空間浮遊映像3に対し、斜め上の視点Eから、斜め下の視線によって、この空間浮遊映像3を好適に視認できる。
 また、図19の構成では、筐体1650の上部内の所定の位置、本例では再帰反射部材330の上端の付近の位置に、第1の測距装置340(TOFセンサ等を含む)が設置されている。この第1の測距装置340の光軸は、空間浮遊映像3の方を向いており、視野角は、空間浮遊映像3の全体をカバーする広さとされている。このキオスク端末1600に実装されている、第1の測距装置340を含むセンシングシステムは、空間浮遊映像表示部1620の空間浮遊映像3に対するユーザの手指UHによる操作をセンシングする。
 図18では、1つの空間浮遊映像表示部1620に、空間浮遊映像3としてのコンシェルジュ1621の姿と、空間浮遊映像3としての操作メニュー1622との両方が、同時に映し出されている。キオスク端末での空間浮遊映像の表示方法は、これに限らない。
 変形例としては、空間浮遊映像表示部1620の1画面内で、コンシェルジュの表示と操作メニューの表示とが切り替えられてもよい。
 <キオスク端末に係わる実施の形態3>
 図20は、一実施例(実施の形態3とする)として、キオスク端末における空間浮遊映像3の表示の一例を示す。図20のキオスク端末は、図16のキオスク端末1500をベースとした場合の構成を示す。図20のキオスク端末は、空間浮遊映像情報表示システム1により形成される空間浮遊映像3をユーザインタフェースとして適用したキオスク端末である。図21,図22は、図20のキオスク端末をユーザが操作する場合の動作フローを示す。
 図21は、図20のキオスク端末の起動時に係わる第1動作フローを示す。第1動作フローは基本的な動作を示す。ステップS100で、フロー開始時、キオスク端末は、待機状態(言い換えるとスリープ状態)である。ステップS101で、キオスク端末は、ユーザがこのキオスク端末に近付いたかどうかを検知する。キオスク端末を利用しようとするユーザが、キオスク端末に近づいてくる、あるいは、ユーザがキオスク端末の近傍の所定の位置に立つ。ユーザがこのキオスク端末に近づいた際には、カメラ1541,1542による撮像に基づいて、ユーザがこのキオスク端末(特に斜面1570の正面)に近付いたことが検知される。もしくは、カメラの代わりに、図16の赤外線を用いた人感センサ1560等によって、ユーザがこのキオスク端末1500に近づいたことを検知してもよい。ユーザがキオスク端末に近付いたことを検知した場合(YES)、ステップS102で、キオスク端末は、起動状態に遷移する。その後、起動状態で、ユーザは、キオスク端末を使用できる。
 ステップS103で、キオスク端末は、空間浮遊映像表示部1520に、コンシェルジュ1521または操作メニュー1522を表示して、ユーザに対し、操作方法等をガイド等しながら、操作メニュー1522での操作(言い換えると入力)を受け付け、その操作の検出に応じた所定の処理(アプリケーションやサービスの処理)を行う。具体例では、最初時には、図20の(A)のように、空間浮遊映像表示部1520にコンシェルジュ1521が表示され、コンシェルジュ1521の映像および音声により、ユーザに対し、あいさつや操作案内を行う。そして、あいさつ等が終わると、自動的に、図20の(B)のように、空間浮遊映像表示部1520の表示はコンシェルジュ1521から操作メニュー1522に遷移する。ユーザは操作メニュー1522に対し手指で操作を行う。キオスク端末は、センシング技術を用いて操作を検出し、検出した操作に応じた処理を行う。
 なお、コンシェルジュ1521の映像は、実際の人を予め撮影した動画でもよいし、CG等で作成した人物像でもよいし、人の姿を表すアニメーションなどでもよい。また、人に限らず、動物やフィクション上のキャラクター等としてもよい。
 ステップS104では、ユーザがこのキオスク端末から離れたかどうかを検知する。ユーザがこのキオスク端末から離れた場合、カメラ1541,1542による撮像に基づいて、ユーザがこのキオスク端末(特に正面の斜面1570)から離れたことが検知される。もしくは、カメラの代わりに、図16の人感センサ1560等によって、ユーザがこのキオスク端末から離れたことを検知してもよい。ユーザがキオスク端末から離れたことを検知した場合(Y)、ステップS105で、キオスク端末は、待機状態に遷移する。
 図22は、図20の実施の形態3でのキオスク端末の起動時に係わる第2動作フローを示す。第2動作フローは、第1動作フローよりも詳しい実施例を示す。第2動作フローは、キオスク端末が起動状態となった後の動作として、ユーザの認証などを行う場合の動作フローを示す。
 ステップS200で、フロー開始時、キオスク端末は、待機状態である。ユーザは、キオスク端末の正面に近づいてくる、あるいは、キオスク端末の近傍の所定の位置に立つ。ステップS201で、キオスク端末は、このキオスク端末(特に斜面1570の正面)にユーザが近付いたかどうかを2台のカメラによるステレオ撮影等によって検知する。ユーザを検知した場合(Y)、ステップS202で、キオスク端末は、空間浮遊映像表示部1520に、図20の(A)のように、まず、コンシェルジュ1521を表示し、コンシェルジュ1521の映像および音声により、ユーザに対し、例えば「いらっしゃいませ、ご利用ありがとうございます。」等のあいさつを行い、また、あいさつのメッセージも表示する。
 次に、ステップS203で、キオスク端末は、検知したユーザの認証を行う。この際、キオスク端末は、空間浮遊映像3として、「認証しています」等の、認証中を表すメッセージも表示する。キオスク端末は、認証として、2台のカメラ1551,1552の撮像画像(特に顔画像)に基づいて、近づいてきた人(すなわち検知したユーザ)の顔認証を行うことで、ユーザを識別・特定してもよい。または、ユーザの目の虹彩画像に基づいた認証が行われてもよい。ここでの認証とは、キオスク端末の正面前方の所定の範囲内に存在しているユーザの顔または虹彩などの部分を、2台のカメラで撮影して得られたステレオ画像に基づいて、ユーザが、予め本システムに登録された、このキオスク端末の正規のユーザであるか否かを判定することである。
 ここで、1台のカメラによる撮影によってもユーザの画像の基づいた認証は可能であるが、2台のカメラ1551,1552によるステレオ画像を用いることで、1台のカメラ画像による認証と比較して、より精度が高く、不正利用のしにくいユーザ認証が可能となる。例えば、顔を正面からのみ撮影した画像が紙に印刷された顔画像を用いた、不正な認証を、見抜くことが可能となる。
 上記顔認証などに限らず、ユーザの認証の他の方法としては、以下も適用できる。ユーザが所持しているマイナンバーカード等の本人確認証の情報や、定期券などの情報を、キオスク端末に読み込ませることで、ユーザ認証する方法も適用可能である。また、ユーザが所持する携帯端末などに記憶されているユーザ情報を、携帯端末とキオスク端末との近距離無線通信で授受することで、ユーザ認証を行う方法も適用できる。
 また、ユーザが所持するスマートフォン等の携帯端末に、ユーザを特定できる個人情報(例えば氏名、住所、生年月日、キオスク端末の使用履歴など)を含むQRコード(登録商標)等のコード情報を表示し、そのコード情報をキオスク端末の空間浮遊映像表示部1520に対し提示(例えばカメラ1551,1552に対しかざす)させる。そして、キオスク端末のカメラ1551,1552により、上記提示されたユーザの情報を読み込むことで、ユーザ認証を行う方法も適用できる。
 ステップS204では、キオスク端末は、上記ユーザの認証が成功したかを確認し、成功の場合にはステップS206へ、失敗の場合にはステップS205へ進む。ステップS205では、キオスク端末は、他の認証方法を促し、ステップS203に戻り、他の認証方法での認証を試みる。上記ユーザの認証のプロセスを経たあと、キオスク端末は、空間浮遊映像表示部1520に、所定の操作メニュー画面(不特定多数のユーザに対応した操作メニュー)を提示してもよいし、あるいは、認証で特定された個々のユーザに最適なメニュー画面(個人用の操作メニュー)を提示するようにしてもよい。
 具体例では、認証成功後、図20の(A)から(B)に示すように、空間浮遊映像表示部1520の表示は、コンシェルジュ1521から操作メニュー1522に変化・遷移する。(B)の操作メニュー1522は、内容例としては、「タッチして項目を選んでください」とメッセージ(文字画像)が表示され、選択肢、項目となる押しボタンとして、例えば、「1 住民票発行」、「2 チケット購入」、「3 登録情報」、「4 別のメニュー」が表示されている。「1 住民票発行」は、住民票の発行などの行政手続きに係わる項目である。「2 チケット購入」は、コンサートや映画など、または電車などのチケットの購入や受け取りに係わる項目である。「3 登録情報」は、ユーザに係わる登録情報の確認や変更などに係わる項目である。「4 別のメニュー」は、別のメニューに遷移するための項目である。ユーザは、目的に応じて、例えば「2 チケット購入」項目のボタンを押す。キオスク端末は、押されたボタンに応じて、次の操作メニューの表示に遷移させる。さらに詳細な例について以下に示す。
 [コンシェルジュによる操作案内]
 図22のステップS206で、キオスク端末の空間浮遊映像情報表示システム1は、通信部1132(図2)を介して、通信網上のキオスクサーバにアクセスし、上記ユーザ認証の結果情報を通知する。また、キオスク端末は、当該ユーザが過去に当該キオスク端末を使用したことのあるユーザであるか否かを、キオスクサーバ内の利用者データベースから当該ユーザの属性情報などを取得・参照することで判断する。もしくは、キオスク端末は、上記ユーザの携帯端末からのコード情報等に基づいて、ユーザの属性情報などを取得・参照してもよい。ユーザの属性情報には、例えばユーザの性別、年齢、過去のキオスク端末の使用履歴などの情報を含む。
 また、ステップS206では、キオスク端末は、ユーザの携帯端末から無線通信でユーザ属性情報を含むユーザ情報などを取得してもよい。また、キオスク端末は、ユーザ属性情報のみならず、キオスクサーバ等の外部装置から、当該ユーザおよび操作メニューに係わる他の所定のデータ、例えばチケット予約情報などのユーザが予め入力・登録済みの情報を併せて取得してもよい。また、ステップS206で、キオスク端末は、カメラ1541,1542の画像に基づいて、当該ユーザの年齢などの属性を判断してもよい。ステップS206で取得されたユーザ属性情報は、次のステップS207の判定で使用される。
 次のステップS207では、キオスク端末は、ステップS206で得られた、ユーザの属性情報に基づいて、当該ユーザが、当該キオスク端末を利用する「初めてのユーザ」、あるいは「高齢のユーザ」であるかを判断する。そのような所定の条件に該当するユーザであると判定された場合(YES)にはステップS208に進み、条件に該当しないユーザであると判定された場合(NO)にはステップS209に進む。
 本システムは、ステップS207の判定結果に応じて、対応を分岐する。ここでは大きく2つの対応に分かれる。一方は、慣れたユーザを想定した第1処理フロー(ステップS209からのフロー)であり、他方は、不慣れなユーザ(初めてのユーザや高齢のユーザ)を想定した第2処理フロー(ステップS208からのフロー)である。第1処理フローでは、キオスク端末は、コンシェルジュによる操作ガイドを省略する、または、第2処理フローに比べて簡易化した操作ガイドとする。第2処理フローでは、キオスク端末は、コンシェルジュによる詳しい操作ガイドを行う。
 ステップS208では、キオスク端末は、空間浮遊映像表示部1520において、「コンシェルジュによる音声付操作ガイド」を行う。なお、「コンシェルジュ」とは、「案内人」を意味し、例えば図20の(A)に示すように、空間浮遊映像3として、例えば、人物の上半身の映像としてのコンシェルジュ1521(図面では模式で図示している)が表示される。コンシェルジュ1521は、空間浮遊映像3をユーザインタフェースとして用いたキオスク端末の操作が初めてのユーザ、あるいは、その操作に不慣れな高齢のユーザのために、音声や身振りをまじえて、当該ユーザに対し、操作方法等に関するガイドを行う。コンシェルジュ1521は、(B)のような操作メニュー1522の操作に関してユーザがわからない箇所について説明やガイドを行う。
 より具体的には、ステップS208では、まず、図20の(A)に示すように、空間浮遊映像表示部1520の画面上に、コンシェルジュ1521の映像が現れる。コンシェルジュ1521は、「私が、操作方法についてご案内させていただきますので、お客様は、私の説明に従って、メニュー操作をしてください。」などの文字映像および音声を出力する。音声は、例えば図20の(A)の超指向性スピーカ1551,1552により、当該ユーザにのみ聞き取ることができる方法で提供される。コンシェルジュ1521は、キオスク端末および操作メニューの使用方法を、逐次、ユーザに伝えることによって、操作ガイドを行う。
 次に、ステップS208とステップS209とのいずれの場合でも、図20の(A)から(B)のように、空間浮遊映像3としてのコンシェルジュ1521の映像は、空間浮遊映像3としての操作メニュー1522の映像に切り替わる。ここで、ステップS208では、空間浮遊映像3の画面が操作メニュー1522に切り替わった後でも、コンシェルジュ1521によるガイドが継続する。キオスク端末は、適宜に、空間浮遊映像表示部1520でのコンシェルジュ1521の表示と操作メニュー1522の表示とを切り替える。ユーザは、コンシェルジュ1521の操作ガイドに従って、空間浮遊映像表示部1520の画面上の操作メニュー1522の操作を行う。
 次に、ステップS210では、ユーザが、キオスク端末の操作メニュー1522に対し、所定の一連の操作、例えばチケットを発行するための、暗証番号の入力操作などを行う。キオスク端末は、その操作を検出して処理を行い、チケットを発行する。ユーザは、取り出し口1530からチケットを受け取る。ユーザの所望の操作およびそれに対応したキオスク端末の動作、例えばチケット発行が完了した場合(Y)、ステップS212に移行する。
 ステップS212では、キオスク端末は、空間浮遊映像表示部1520の画面に、再び操作メニュー1622(例えば最初のメニュー画面、または、次のメニューがある場合の次のメニュー画面、あるいは、最後のメニュー画面など)を表示する。もしくは、キオスク端末は、空間浮遊映像表示部1520での表示を終了する。また、キオスク端末は、表示終了の際には、画面に最後にコンシェルジュ1521を表示し、ユーザに対し終了の旨(「ご利用ありがとうございました」等)を出力させてもよい。
 一方、ステップS209では、キオスク端末は、操作が初めてではなくある程度慣れているユーザを想定した表示を行う。キオスク端末は、空間浮遊映像表示部1520の画面の表示を、図20の(B)のように、操作メニュー1522に切り替える。その後、ユーザは、画面の操作メニュー1622に従って、項目の選択などの所望の操作を行う。ステップS211では、ステップS210と同様に、所定の一連の操作およびそれに対応する動作(例えばチケット発行)が完了した場合(Y)、ステップS212に移行する。
 ここで、ステップS209に進んだ場合でも、ユーザによる操作がうまくいかない可能性を考慮し、ステップS212が設けられている。ステップS211で、ユーザの所定の一連の操作が完了しない場合(N)、ステップS212に進む。ステップS212で、キオスク端末は、操作メニュー1522において、ユーザの操作がうまくいっているかどうかを判断する。具体例では、キオスク端末は、操作メニュー1522において、ユーザによる操作が、所定の時間(例えば30秒)よりも長い時間、停止(言い換えると入力が無い)しているかどうかを判断する。ユーザは、空間浮遊映像3としての操作メニュー1522の操作がよくわからない場合などに操作を停止している可能性がある。キオスク端末は、カメラやセンシング技術などを用いて、その長時間操作停止を検出する。長時間操作停止している等と判断された場合(Y)にはステップS206に進み、そうでない場合(N)にはステップS209に進む。
 また、他の例では、ステップS212で、キオスク端末は、ユーザが空間浮遊映像3の面(操作メニュー1522)に対し誤った操作をしているかどうかを判断してもよい。例えば手指が項目のボタン等から離れた位置でタッチしようとしている等が判断されてもよい。
 ステップS212からステップS208に進んだ場合、キオスク端末は、当該ユーザに対し、空間浮遊映像表示部1520にコンシェルジュ1521を表示し、コンシェルジュ1521による操作ガイドを行う。この際、キオスク端末は、コンシェルジュ1521による操作ガイドとして、予め規定された内容による操作ガイドの再生としてもよいが、より好ましくは、ステップS212で当該ユーザが操作停止した操作メニュー1522の箇所についての操作ガイドを行う。例えば、図20の(B)の「2.チケット購入」ボタンが押された後の操作メニューでユーザの操作が止まっていた場合には、キオスク端末は、その操作メニュー内で次にどのような操作をすればよいかを、コンシェルジュ1521によってガイドする。
 なお、上述した動作例は、図18の実施例、すなわち1つの空間浮遊映像3の画面内にコンシェルジュ1621と操作メニュー1622との両方を並列に表示する構成例にも、同様に適用できる。この場合、画面内で、コンシェルジュ1621が操作メニュー1622を例えば指先で指し示しながら操作ガイドすること等が可能である。
 実施の形態3によれば、キオスク端末は、ユーザがキオスク端末に近づいたことを契機として、空間浮遊映像3としてコンシェルジュ1521を表示し、コンシェルジュ1521による操作ガイドを開始する。そのため、キオスク端末を初めて操作するユーザや、操作に不慣れな高齢者等のユーザであっても、コンシェルジュ1521による操作ガイドや、超指向性スピーカの音声(他の人には聞こえない操作ガイド)などに従って、所定の操作を確実に行うことができる。
 実施の形態3によれば、認証によりユーザを特定し、ユーザの年齢やシステム利用履歴に基づいて、初めて操作を行うユーザや、操作に不慣れなユーザや、高齢のユーザに対しては、コンシェルジュにより丁寧に操作方法などを説明する。よって、そのようなユーザでも、空間浮遊映像としての操作メニューに対し、確実なキー入力操作などを行うことができる。慣れたユーザに対しては操作ガイドを省略または簡易化することで、効率的なサービスも可能である。
 実施の形態3等の変形例として以下も可能である。図25は、その変形例での表示例を示す。キオスク端末は、空間浮遊映像表示部1520による空間浮遊映像3の1画面内に、操作メニュー1522の映像をベースとしてなるべく大きく表示する。キオスク端末は、その操作メニュー1522上に、コンシェルジュ1521の映像を、相対的に小さいサイズで重畳表示させる。そして、キオスク端末は、そのコンシェルジュ1521により操作メニュー1522の操作をガイドさせる。コンシェルジュ1521は、静止画とするよりは、例えば身振り、手振り、口や目の動き等をまじえて動くような映像とすると好ましい。キオスク端末は、操作メニュー1522の画面内で適宜にコンシェルジュ1521の表示有無や表示位置などを変えてもよい。
 <キオスク端末に係わる実施の形態4>
 図23は、他の実施例(実施の形態4とする)として、キオスク端末と、ユーザが保持する携帯端末との連携動作を行う実施例を示す。図23のキオスク端末1700は、空間浮遊映像情報表示システム1により形成された空間浮遊映像3をユーザインタフェースとして適用したキオスク端末である。ユーザ1710がこのキオスク端末1700を操作する場合に、キオスク端末1700と、ユーザ1710が所持するスマートフォン等の携帯端末1740との連携を行う。図23のキオスク端末1700は、図18のキオスク端末1600の構成をベースとしている。
 一例として、ユーザ1710がキオスク端末1700を利用してチケット(例えばあるコンサートのチケット)を購入する手続きを行う場合について説明する。前述の図21,図22と同様に、ユーザ1710がキオスク端末1700に近づいた場合、キオスク端末1700は、ユーザ1710の認証を行い、空間浮遊映像表示部1720に、コンシェルジュ1721や操作メニュー1722を表示する。ユーザは、コンシェルジュ1721によるガイド等に従い、操作メニュー1722を操作する。例えば図20の(B)のような操作メニュー1522から、「2 チケット購入」が選択操作される。キオスク端末は、空間浮遊映像表示部1720の画面内に、「2 チケット購入」から遷移する操作メニュー1722を表示する。ユーザ1720は、操作メニュー1722で、チケットを購入するための詳細な操作を行う。
 チケットは、例えば紙に印刷された形で発行され、ユーザ1710は、その紙のチケットを受け取る。あるいは、チケットの入手方法としては、紙に印刷されたチケットを受け取るだけではなく、いわゆる電子チケット(あるいは「eチケット」)の形で受け取ることも可能である。この場合、ユーザ1710は、紙に印刷されたチケットの代わりに、紙に印刷されたチケットと同一の情報(すなわち電子チケット)を、ユーザ1710が所有する携帯端末1740で受信する。本例では、操作メニュー1722での操作の際に、携帯端末1740とキオスク端末1700との間で、例えばBluetooth(登録商標)などの通信インタフェースでの近距離無線通信が行われる。キオスク端末1700から、ユーザの携帯端末1740に、上記電子チケットを直接送信する。この際に、キオスク端末は、コンシェルジュ1721により、その通信の操作をガイドする。
 他の例として、図23中に示すように、キオスク端末1700は、空間浮遊映像表示部1720の画面上に、空間浮遊映像3(例えば操作メニュー1722の一部)として、上記電子チケットの情報内容を含む、バーコードまたはQRコード(登録商標)等のコード情報1760(言い換えるとコード映像)を表示する。ユーザ1710は、自分の携帯端末1740を用いて、そのコード情報を読み取る。例えば、ユーザ1710は、コンシェルジュ1721によるガイドに従い、操作メニュー1722内に表示されたコード情報1760を携帯端末1740のカメラ等のリーダ機能によって読み取る操作を行う。コンシェルジュ1721は、その読み取りの操作をガイドする。携帯端末1740は、読み取ったコード情報1760に基づいて、電子チケットを取得し、携帯端末1740内部のメモリ等に保持する。
 ユーザ1710がキオスク端末1700から受け取ることができる物や情報は、紙のチケットや電子チケットに限らず、例えば買い物に利用できるクーポンやポイントの情報、さらには電子書籍などであってもよい。紙に印刷されたチケットやクーポンは、紛失する可能性があるが、電子チケットやクーポンであれば、携帯端末1740の内部に保持されるので、紛失する可能性を低減できる。また、紛失の可能性を低減するのみならず、電子チケットやクーポンを携帯端末1740の内部に保持することで、紙に印刷されたチケットやクーポンに比べ、実際にチケットを利用する場合に、携帯端末を提示する、または、携帯端末に保持された電子チケットをチケット発行者が読み取る等の利用形態が可能である。これにより、ユーザにとっての使い勝手が向上する。
 キオスク端末は、空間浮遊映像3の操作メニューに対するユーザの操作に応じて、ユーザの携帯端末に対し、無線通信で、その操作メニューに関連する情報(例えばアクセス履歴情報、操作履歴情報など)を送信してもよい。
 <キオスク端末に係わる実施の形態5>
 図24は、一実施例(実施の形態5とする)として、前述の空間浮遊映像3に対しユーザが任意の文字や図形を入力・描画できる機能(図12)に関する詳しい実施例を示す。例えば、図23等で説明した一連の手続きによって、ユーザがキオスク端末から紙ベースのチケットまたは電子チケットを受け取った場合に、ユーザが、チケットを受け取ったことをユーザが認めるための「サイン」(署名)を行う。
 図24のキオスク端末2000は、図18や図23のキオスク端末の構成をベースとした例で、空間浮遊映像表示部2020のみを図示している。(A)は、空間浮遊映像表示部2020に、空間浮遊映像3としてコンシェルジュ2021が表示された状態を示す。(B)は、空間浮遊映像3としてサイン入力のためのユーザインタフェースが表示された状態を示す。(C)は、そのユーザインタフェース内にユーザによりサインが入力され描画された状態を示す。(D)は、空間浮遊映像3としてサイン入力の終了に応じたコンシェルジュ2021が表示された状態を示す。
 キオスク端末がチケットを発行してユーザがそのチケットを受け取った後、キオスク端末は、図24の(A)に示すように、空間浮遊映像表示部2020に、空間浮遊映像3としてのコンシェルジュ2021を表示する。コンシェルジュ2021は、ユーザに対し、例えば「お客様がチケットをお受け取りになったことを確認するため、最後に、サインをお願いいたします」といったメッセージの映像および音声を出力する。これにより、ユーザに対し、空間浮遊映像3に対するサイン(言い換えると受領サイン)を行うことを促す。
 次に、キオスク端末は、コンシェルジュ2021の姿の表示を消し、図20の(B)に示すように、空間浮遊映像表示部2020に、空間浮遊映像3としてのサイン用画面2022(言い換えるとサイン入力のユーザインタフェース)を表示する。
 図24の(B)の例では、サイン用画面2022上に空間浮遊映像3として描かれた文字として「チケット受領サインをお願い致します」といった文言が表示される。その文言の下には、サインをする領域を示す枠線(サイン枠線領域)2023が表示される。枠線2021は、例えば所定の背景色(例えば黒)をベースに、4辺の枠線が所定の色(例えば緑色)で表示される。枠線2021内に指先が差し込まれていない時には、枠線2021はその所定の色(例えば緑色)で表示される。
 次に、図24の(C)に示すように、ユーザは、自身の手指UHの指先、もしくは所定の導電性のペンを用いて、枠線2023内に、サインとして、自分の名前、本例では筆記体で“Tom”、を描くように操作を行う。この際、キオスク端末は、前述(図12)と同様に、センシング技術を用いて、空間浮遊映像3の面での空中操作を検出し、検出した指先の接点位置などに合わせて、空間浮遊映像3の面内(枠線2023内)に、リアルタイムで線分を描画する。線分2024は、入力・描画されたサイン(“Tom”)に相当する一筆書きの線である。線分2024は、所定の色で表示される。
 ユーザは、自分の名前をサインとして描き終えると、指先を空間浮遊映像3のサイン枠線領域2023から手前に離す。キオスク端末は、指先が離された後、所定の時間(例えば5秒)が経過したことを判断・検出すると、ユーザによるサインの入力が完了したとみなす。そして、キオスク端末は、図24の(D)のように、サイン入力終了を表す画面2025に遷移させる。この画面2025では、例えばコンシェルジュ2021の姿と共に、「サインを頂き、ありがとうございました」といった文言が表示および音声出力される。以上で、ユーザがチケットを受け取ったことをユーザ自身が認めるための「サイン」を行う一連の操作が終了する。
 なお、図24の(B)に示した、ユーザが自身の指先等を用いて空間浮遊映像3としての枠線2023内に自分の名前をサインとして記入する技術は、前述の図12で説明した技術を同様に適用できる。また、図12の説明では、ユーザが自身の指先を空間浮遊映像3の面上の任意の位置に対し奥に差し込んだ時に、空間浮遊映像3全体の枠が例えば赤色に変化する例を記載した。これに対し、図24の(B)の例では、空間浮遊映像3全体の枠ではなく、空間浮遊映像3内の一部の領域(サイン枠線領域2023)のみを、サインを入力し描画するための領域とする。そして、キオスク端末は、その領域内に指先が差し込まれた(言い換えると接触した)ことを検出した時に、その領域の枠線2023を、例えば赤色に変化させてもよい。
 また、ユーザが自身の指先を空間浮遊映像3の面上の任意の位置に差し込んだ時、すなわち接触有りの状態の時に、枠線2023は、赤色に限らず、別の所定の色、例えば青色に表示されてもよい。また、接触有りの状態の時に、枠線2023を点滅させるようにしてもよい。さらに、接触有りの状態の時に、枠線2023内の背景領域を、白色に変化させ、その背景領域に書き込まれた線分の色を、別の所定の色、例えば黒色としてもよい。また、枠線2023内の背景領域を黒色とし、その背景領域に書き込まれた線分の色を白色としてもよい。すなわち、サイン枠線領域2023において、ユーザの指先の動きに従って描かれた文字や図形の線分が、ユーザにとって認識しやすいように、キオスク端末は、サイン枠線領域2023での表示を制御する。キオスク端末は、サイン枠線領域2023に対する指先の接触有無などの状態に応じて、サイン枠線領域2023での表示の態様を変えるように制御する。
 従来の空間浮遊映像表示装置は、空間浮遊映像による操作メニューにおいてユーザが選択肢のボタンから選択する操作を行うことが主である。それに対し、実施の形態5では、空間浮遊映像3に対し、ユーザが手指を動かして任意の文字などをサインとして入力できる機能(空中サイン機能)が提供される。また、この機能では、空間浮遊映像3の面に指先が接触しているか否かに応じて枠線2023などの表示が変化するので、ユーザは、自分が空間浮遊映像3の面に指先が接触しているか否かの状態がわかりやすく、サインが入力しやすい。上記例では、空間浮遊映像3に対する入力を、サインに利用する例を示したが、これに限らず、他のアプリケーションにも利用できる。
 <映像表示装置の第1構成例>
 次に、図26以降を用いて、空間浮遊映像情報表示システム1の詳細構成例を説明する。図26は、空間浮遊映像情報表示システム1を構成する映像表示装置10についてのより具体的な構成の一例を示す。図26の光源装置13は、後述の図27等の光源装置と同様の構成を有する。この光源装置13は、例えばプラスチックなどのケース内に、LED、コリメータ、偏光変換素子、合成拡散ブロック、導光体等を収納して構成されている。その光源装置13の上面には、液晶表示パネル11が取り付けられている。また、光源装置13のケースの1つの側面には、半導体光源であるLED素子102Aや、LED素子の制御回路を実装したLED基板102が取り付けられている。それと共に、LED基板102の外側面には、LED素子102Aおよび制御回路で発生する熱を冷却するための部材であるヒートシンク(図示せず)が取り付けられる。
 また、ケースの上面に取り付けられた液晶表示パネルフレームには、当該フレームに取り付けられた液晶表示パネル11と、更に、液晶表示パネル11に電気的に接続されたフレキシブル配線基板(Flexible Printed Circuit:FPC)等が取り付けられて構成されている。即ち、液晶表示素子である液晶表示パネル11は、固体光源であるLED素子102Aと共に、電子装置を構成する制御回路からの制御信号に基づいて、透過光の強度を変調することによって、表示映像を生成する。
 <光源装置の第1構成例>
 続いて、上記映像表示装置の第1構成例における、ケース内に収納されている光源装置等の光学系の構成例について、図26と共に、図27を参照しながら、詳細に説明する。図26で、光源を構成するLED102Aは、コリメータ15に対し、所定の位置に取り付けられている。なお、図26では、一断面を図示しているので、1つのLED素子やコリメータしか見えていないが、LED基板102には複数のLED素子が配列されており、それらに対応させて複数のコリメータが配列されている。コリメータ15は、各々、例えばアクリル等の透光性の樹脂により形成されている。コリメータ15は、放物断面を回転して得られる円錐凸形状の外周面156を有すると共に、頂部(LED基板102に接する側)における中央部に、凸部(即ち凸レンズ面)157が形成された凹部153を有する。
 また、コリメータ15の平面部(上記頂部とは逆の側)の中央部には、外側に突出した凸レンズ面(あるいは、内側に凹んだ凹レンズ面でもよい)154を有している。なお、コリメータ15の円錐形状の外周面を形成する放物面156は、LED素子102Aから周辺方向に出射する光を内部で全反射することが可能な角度の範囲内において設定され、あるいは、反射面が形成されている。
 また、LED素子102A(図17の(A)ではLED素子14a,14b)は、LED基板102の表面上の所定の位置にそれぞれ配置されている。このLED基板102は、コリメータ15に対し、表面上のLED素子102Aが、それぞれ、凹部153の中央部に位置するように配置されて固定されている。
 かかる構成によれば、上述したコリメータ15によって、LED102Aから放射される光のうち、特に、中央部分から上方(図面での右方向)に向かって放射される光は、コリメータ15の外形を形成する2つの凸レンズ面157,154により集光されて略平行光となる。また、その他の部分から周辺方向に向かって出射される光は、コリメータ15の円錐形状の外周面を形成する放物面によって反射され、同様に、集光されて、略平行光となる。換言すれば、中央部に凸レンズを構成すると共に周辺部に放物面を形成したコリメータ15によれば、LED素子102Aにより発生された光のほぼ全てを平行光として取り出すことが可能となる。これにより、発生した光の利用効率を向上可能となる。
 なお、コリメータ15の光の出射側には、偏光変換素子21(言い換えると偏光変換部材)が設けられている。偏光変換素子21は、入射された光の偏光特性を変換する素子である。偏光変換素子21は、図27の(A)に示すように、断面が平行四辺形である柱状(平行四辺形柱)の透光性部材と、断面が三角形である柱状(三角形柱)の透光性部材とを組み合わせ、コリメータ15からの平行光の光軸に対して直交する面に平行に、複数、アレイ状に配列して構成されている。更に、これらアレイ状に配列された隣接する透光性部材間の界面には、交互に、偏光ビームスプリッタ(PBS膜)211と反射膜212とが設けられている。また、偏光変換素子21へ入射してPBS膜211を透過した光が出射する出射面には、λ/2位相板213(言い換えると半波長板)が備えられている。
 偏光変換素子21の出射面には、更に、図27の(A)にも示すように、矩形状の合成拡散ブロック16が設けられている。LED素子102Aから出射された光は、コリメータ15の働きにより平行光となって、偏光変換素子21を通じて偏光特性が変換された後、合成拡散ブロック16へ入射し、出射側のテクスチャー161により拡散された後、導光体17に到る。
 導光体17は、図22の(B)に示すように、例えばアクリル等の透光性の樹脂により断面が略三角形の棒状に形成された部材である。そして、導光体17は、図26にも示すように、合成拡散ブロック16の出射面に対し、第1の拡散板18aを介して対向する入射面を含んだ導光体光入射部171と、斜面を形成する反射面を含んだ導光体光反射部172と、第2の拡散板18bを介して液晶表示パネル11と対向する出射面を含んだ導光体光出射部173とを備えている。
 導光体17の導光体光反射部172には、図27の(B)にも示すように、多数の反射面172aと連接面172bとが交互に鋸歯状に形成されている。そして、反射面172a(図面では右上がりの線分)は、水平面に対して、角度として、αn(nは自然数であり本例では1~130である)を形成している。一例として、ここでは、αnを43度以下(ただし0度以上)に設定している。
 導光体入射部171は、光源側に傾斜した湾曲の凸形状に形成されている。これによれば、合成拡散ブロック16の出射面からの平行光は、第1の拡散板18aを介して拡散されて入射する。この入射光は、図面からも明らかなように、導光体入射部171により上方に僅かに屈曲、偏向しながら、導光体光反射部172に達してここで反射される。この反射光は、図面での上方の導光体出射部173の出射面から出射して、当該出射面に対し設けられた液晶表示パネル11に到る。
 以上の映像表示装置10によれば、光利用効率や均一な照明特性をより向上するとともに、モジュール化されたS偏波の光源装置13を含め、小型かつ低コストで製造可能となる。なお、上記説明では、偏光変換素子21をコリメータ15の後に取り付けるものとしたが、これに限定されず、偏光変換素子21は液晶表示パネル11に到る光路中に設けられればよい。
 なお、導光体光反射部172には、多数の反射面172aと連接面172bとが交互に鋸歯状に形成されており、照明光束は、各々の反射面172a上で全反射されて上方に向かう。更に、導光体光出射部173には挟角拡散板を設けて、略平行な拡散光束として指向特性を調整する光方向変換パネル54に入射し、斜め方向から液晶表示パネル11へ入射する。本実施例では、光方向変換パネル54を導光体17の出射面と液晶表示パネル11との間に設けたが、光方向変換パネル54を液晶表示パネル11の出射面に設けても同様の効果が得られる。
 <映像表示装置の第2構成例>
 続いて、図28を用いて、映像表示装置10の具体的な構成の他の例を説明する。図28の映像表示装置10の光源装置は、前述の例と同様に、LED基板102に、光源を構成する複数のLED素子が設けられている(ただし断面図であるため1個のみ図示されている)。これらのLED素子はコリメータ15に対し所定の位置に取り付けられている。LED素子からの光(P偏光とS偏光が混在する光)の発散光束を、コリメータ15により略平行光束に変換し、反射型導光体304の反射面により、液晶表示パネル11に向けて反射する。反射光は、液晶表示パネル11と反射型導光体304との間に配置された反射型偏光板49に入射する。
 反射型偏光板49では、特定の偏波(例えばP偏光)を透過して、液晶表示パネル11に入射する。反射型偏光板49では、他方の偏波(例えばS偏光)は反射され、再び反射型導光体304へ向かう。反射型偏光板49は、反射型導光体304の反射面からの光の主光線に対して垂直とならないように傾きをもって設置されており、反射型偏光板49で反射された光の主光線は、反射型導光体304の透過面に入射する。
 反射型導光体304の透過面に入射した光は、反射型導光体304の背面を透過し、位相差板であるλ/4板270を透過し、反射板271で反射される。反射板271で反射された光は、再びλ/4板270を透過し、反射型導光体304の透過面を透過する。反射型導光体304の透過面を透過した光は、再び反射型偏光板49に入射する。
 このとき、反射型偏光板49に再度入射する光は、λ/4板270を2回通過しているため、反射型偏光板49を透過する偏波(例えばP偏光)へ偏光変換されている。よって、偏光変換されている光は、反射型偏光板49を透過し、液晶表示パネル11に入射する。なお、偏光変換に係る偏光設計について、上述の説明から、S偏光とP偏光との偏波を逆にする構成としてもかまわない。
 この結果、光源であるLED素子からの光は、特定の偏波(例えばP偏光)に揃えられて、液晶表示パネル11に入射し、映像信号に合わせて輝度変調されて、パネル面に映像を表示する。
 図28でのコリメータ15は、各々例えばアクリル等の透光性の樹脂またはガラスにより形成されている。図28でのコリメータ15は、図27でのコリメータ15と同様に、放物断面を回転して得られる円錐凸形状の外周面を有してもよく、頂部では、中央部に凸部(即ち凸レンズ面)を形成した凹部を有してもよい。また、コリメータ15の「平面部の中央部には、外側に突出した凸レンズ面(あるいは、内側に凹んだ凹レンズ面でもよい)を有してもよい。コリメータ15の円錐形状の外周面を形成する放物面は、LEDから周辺方向に出射する光を内部で全反射可能な角度の範囲内において設定され、あるいは、反射面が形成されている。
 図28でのLED素子は、LED基板102の表面上の所定の位置にそれぞれ配置されている。LED基板102の表面上のLEDは、それぞれ、コリメータ15に対し、円錐凸形状の頂部の中央部(頂部に凹部が有る場合はその凹部)に位置するように配置されて固定されている。
 かかる構成によれば、コリメータ15によって、LED素子から放射される光のうち、特に、中央部分から放射される光は、コリメータ15の外形を形成する凸レンズ面により集光されて平行光となる。また、その他の部分から周辺方向に向かって出射される光は、コリメータ15の円錐形状の外周面を形成する放物面によって反射され、同様に、集光されて平行光となる。換言すれば、中央部に凸レンズを構成すると共に、周辺部に放物面を形成したコリメータ15によれば、LED素子により発生された光のほぼ全てを平行光として取り出すことが可能となり、発生した光の利用効率を向上可能となる。
 以上説明した光源装置13等の構成は、前述の図13や図14等に示した空間浮遊映像情報表示システム1を構成する映像表示装置10の光源装置13として適用できる。
 さらに、図28に示したコリメータ15により略平行光に変換された光は、反射型導光体304で反射される。この反射光のうち、反射型偏光板49の作用により、特定の偏波の光は、反射型偏光板49を透過し、反射型偏光板49の作用により反射された他方の偏波の光は、再度導光体304を透過する。この光は、反射型導光体304に対し、液晶表示パネル11とは逆の位置にある反射板271で反射される。この時、この光は、位相差板であるλ/4板270を2度通過することで偏光変換される。
 反射板271で反射した光は、再び導光体304を透過して、反対面に設けられた反射型偏光板49に入射する。この入射光は、偏光変換がなされているので、反射型偏光板49を透過して、偏光方向を揃えて、液晶表示パネル11に入射される。この結果、光源の光を全て利用できるので、光の幾何光学的な利用効率が2倍になる。また、反射型偏光板の偏光度(言い換えると消光比)もシステム全体の消光比に乗せられるので、本実施例の光源装置13を用いることで、表示装置全体としてのコントラスト比が大幅に向上する。
 なお、反射型導光体304の反射面の面粗さおよび反射板271の面粗さを調整することで、それぞれの反射面での光の反射拡散角を調整できる。液晶表示パネル11に入射する光の均一性がより好適になるように、設計毎に、反射型導光体304の反射面の面粗さおよび反射板271の面粗さを調整すればよい。
 <自動販売機に係る実施の形態>
 ここで、図29を用いて、本発明の他の実施の形態として、空間浮遊映像情報表示システムを、自動販売機に適用した例について説明する。図29は、例えば、ドリンク類の自動販売機に本発明を適用した場合を示す図である。
 図29において、自動販売機本体2900には、空間浮遊映像表示部2920が備えられている。また、この自動販売機2900には、自動販売機2900により販売されているドリンク類を表示するドリンク類ディスプレイ部2980、お札を投入するためのお札投入部2981、コインを投入するためのコイン投入部2982、つり銭を取り出すためのつり銭取り出し口2983、利用者によって購入されたドリンクを取り出すためのドリンク取り出し口2984が備えられている。
 自動販売機本体2900には、キオスク端末と同様に、カメラまたは人感センサ―が備えられており、利用者が近づくと、空間浮遊映像表示部2920が起動する。次に、図29に示すように、空間浮遊映像表示部2920には、コンシェルジュが表れて、利用者に対して、例えば、「いらっしゃいませ。ご利用ありがとうございます。画面が数字ボタンに変わります。ご希望の商品番号をお選びください。」という音声を発する。その後、空間浮遊映像表示部2920は、コンシェルジュの姿が消え、続いて、数字ボタンと決定ボタンが表示される。このとき、図示しないが、数字ボタンと決定ボタンに加えて、取り消しボタンや、戻るボタンが表示されてもよい。
 利用者が、空間浮遊映像表示部2920に表示された数字ボタンと決定ボタンを操作することによりドリンクを選択し、所定の金額を、お札投入部2981やコイン投入部2982に投入することで、当該ドリンクがドリンク取り出し口2984から取り出すことができる形で供出される。その後、空間浮遊映像表示部2920には、数字ボタンと決定ボタンが消えて、再び、コンシェルジュが表れ、例えば、「ありがとうございました。またのご利用をお持ちいたしております。」という音声を発する。この場合でも、キオスク端末と同様に、音声は、通常のスピーカから発せられてもよいし、超指向性スピーカにより、利用者だけが聞こえるように発せられてもよい。
 上記の一連の操作により、利用者は所望のドリンクを購入することができる。なお、図29の例では、空間浮遊映像表示部だけの例を示したが、自動販売機においても、キオスク端末の例と同様に、液晶表示装置と空間浮遊映像表示部の両方が備えられていてもよいし、また、空間浮遊映像表示部が1ヵ所ではなく、2か所以上に備えられてもよい。なお、空間浮遊映像表示部が2か所に備えられている場合には、そのうちのいずれか1つの空間浮遊映像表示部には、コンシェルジュが表示され、他の空間浮遊映像表示部には、数字ボタンと決定ボタンが表示されるようにしてもよい。
 また、コンシェルジュとして、複数の、年齢や性別の異なる、別の人物像やアニメーションによるキャラクターを表示するようにしてもよい。上記複数の、年齢や性別の異なる、別の人物像やアニメーションによるキャラクターを表示するためのデータは、図2の不揮発性メモリ1108に格納されており、適宜、それら複数の人物像やアニメーションによるキャラクターのうちの1つが選択されて、コンシェルジュとして、空間浮遊映像表示部に表示されるようにしてもよい。その場合、利用者の属性(年齢など)に応じて、いずれの人物像またはキャラクターを表示するかを決定するようにしてもよい。
 以上記載したように、本実施の形態でも、キオスク端末の場合と同様に、空間浮遊映像表示部を備えているので、利用者は非接触で商品を選択して購入することができる。また、利用者が自動販売機に近づくことを検知して、空間浮遊映像が表示されるので、従来の自動販売機にはない表示方法によりコンシェルジュとしての人物像やキャラクターが表示できる。この結果、通常の自動販売機に比べて、もの珍しさから、利用者をより引き付けることができるという効果もあり、自動販売機での商品の売り上げ向上にも資することが期待できる。
 以上、本発明を実施の形態に基づいて具体的に説明したが、本発明は前述の実施の形態に限定されず、要旨を逸脱しない範囲で種々変更可能である。各実施の形態は、必須構成要素を除き、構成要素の追加・削除・置換などが可能である。特に限定しない場合、各構成要素は、単数でも複数でもよい。各実施の形態を組み合わせた形態も可能である。
 実施の形態に係る技術では、空間浮遊映像を高解像度かつ高輝度な映像情報を空間浮遊した状態で表示することにより、例えば、ユーザは感染症の接触感染に対する不安を感じることなく操作を可能にする。不特定多数のユーザが使用するシステムに本実施例に係る技術を用いれば、感染症の接触感染のリスクを低減し、不安を感じることなく使用できる非接触ユーザインタフェースを提供可能にする。このような技術を提供する本発明によれば、国連の提唱する持続可能な開発目標(SDGs:Sustainable Development Goals)の「3すべての人に健康と福祉を」に貢献する。
 また、実施の形態に係る技術では、出射する映像光の発散角を小さくし、さらに特定の偏波に揃えることで、再帰反射部材に対して正規の反射光だけを効率良く反射させるため、光の利用効率が高く、明るく鮮明な空間浮遊映像を得ることが可能になる。実施の形態に係る技術によれば、消費電力を大幅に低減可能な、利用性に優れた非接触ユーザインタフェースを提供できる。このような技術を提供する本発明によれば、国連の提唱する持続可能な開発目標(SDGs:Sustainable Development Goals)の「9産業と技術革新の基盤をつくろう」および「11住み続けられるまちづくりを」に貢献する。
 さらに、実施の形態に係る技術では、指向性(直進性)の高い映像光による空間浮遊映像の形成を可能にする。本実施例に係る技術では、いわゆるキオスク端末のような高いセキュリティが求められる映像や、ユーザに正対する人物には秘匿したい秘匿性の高い映像を表示する場合でも、指向性の高い映像光を表示することで、ユーザ以外に空間浮遊映像を覗き込まれる危険性が少ない非接触ユーザインタフェースを提供可能にする。本発明は、以上のような技術を提供することにより、国連の提唱する持続可能な開発目標(SDGs:Sustainable Development Goals)の「11住み続けられるまちづくりを」に貢献する。
 1…空間浮遊映像情報表示システム、2…再帰反射部材、3…空間浮遊映像、10…映像表示装置、11…液晶表示パネル、13…光源装置、1500…キオスク端末、1510…液晶表示画面、1520…空間浮遊映像表示部、1521…コンシェルジュ、1522…操作メニュー、1530…取り出し口、1541,1542…カメラ、1550…筐体、1551,1552…超指向性スピーカ、1560…人感センサ、1570…斜面。

Claims (29)

  1.  空中に空間浮遊映像を形成する空間浮遊映像情報表示システムであって、
     少なくとも1個のオブジェクトの映像を表示する映像表示装置と、
     前記映像表示装置からの映像光を再帰反射させることで空中に前記空間浮遊映像を形成するための再帰性反射部材と、
     前記空間浮遊映像に対するユーザによる操作を検出するためのセンサを含むセンシングシステムと、
     前記映像表示装置および前記再帰性反射部材を備えた筐体と、
     検出された前記操作に基づいて所定の処理を実行する制御装置と、
     を備え、
     前記筐体に対し前記ユーザが近付いたことを検知した場合に、前記空間浮遊映像として前記オブジェクトの映像を表示する、
     空間浮遊映像情報表示システム。
  2.  請求項1に記載の空間浮遊映像情報表示システムにおいて、
     前記オブジェクトは、人物像としての形状を有する、
     空間浮遊映像情報表示システム。
  3.  請求項2に記載の空間浮遊映像情報表示システムにおいて、
     前記人物像は、前記ユーザに対し前記操作をガイドするコンシェルジュである、
     空間浮遊映像情報表示システム。
  4.  請求項1に記載の空間浮遊映像情報表示システムにおいて、
     前記筐体に対し前記ユーザが近付いたことを検知した場合に、前記空間浮遊映像として、最初に、前記オブジェクトとしての人物像を表示し、次に、操作メニューを表示する、
     空間浮遊映像情報表示システム。
  5.  請求項1に記載の空間浮遊映像情報表示システムにおいて、
     前記筐体に対し前記ユーザが近付いたことを検知した場合に、前記空間浮遊映像として、前記オブジェクトとしての人物像と操作メニューとの両方を表示する、
     空間浮遊映像情報表示システム。
  6.  請求項1に記載の空間浮遊映像情報表示システムにおいて、
     前記ユーザを撮像する撮像装置を備え、
     前記撮像装置により取得した前記ユーザが写った画像に基づいて、前記ユーザが近付いたことを検知する、
     空間浮遊映像情報表示システム。
  7.  請求項4に記載の空間浮遊映像情報表示システムにおいて、
     前記制御装置は、前記ユーザの認証を行い、前記認証の結果に基づいて、前記オブジェクトとして前記人物像の表示から前記操作メニューの表示へ遷移させる、
     空間浮遊映像情報表示システム。
  8.  請求項1に記載の空間浮遊映像情報表示システムにおいて、
     前記ユーザを撮像する撮像装置を備え、
     前記撮像装置により取得した前記ユーザが写った画像に基づいて、前記ユーザの認証を行う、
     空間浮遊映像情報表示システム。
  9.  請求項1に記載の空間浮遊映像情報表示システムにおいて、
     前記空間浮遊映像として、少なくとも2つ以上の選択肢を含んだ操作メニューを表示する、
     空間浮遊映像情報表示システム。
  10.  請求項3に記載の空間浮遊映像情報表示システムにおいて、
     前記空間浮遊映像として、前記コンシェルジュと、少なくとも2つ以上の選択肢を含んだ操作メニューとを表示し、
     前記コンシェルジュの映像および音声により、前記操作メニューに対する操作をガイドする、
     空間浮遊映像情報表示システム。
  11.  請求項1に記載の空間浮遊映像情報表示システムにおいて、
     前記ユーザにのみ聴取可能に音声信号を出力する超指向性スピーカを備える、
     空間浮遊映像情報表示システム。
  12.  請求項3に記載の空間浮遊映像情報表示システムにおいて、
     前記制御装置は、前記ユーザの属性情報を取得し、前記属性情報に基づいて、前記ユーザが前記空間浮遊映像情報表示システムを初めて使用するユーザであるか、所定の年齢以上のユーザであるか、の少なくともいずれかを含む条件を判定し、
     前記条件を満たすユーザに対し、前記空間浮遊映像として前記コンシェルジュによるガイドを行う、
     空間浮遊映像情報表示システム。
  13.  請求項10に記載の空間浮遊映像情報表示システムにおいて、
     前記制御装置は、検出された前記操作に基づいて、書類を発行する処理を実行し、
     前記筐体の一部に、前記書類の取り出し口を備える、
     空間浮遊映像情報表示システム。
  14.  請求項13に記載の空間浮遊映像情報表示システムにおいて、
     前記空間浮遊映像情報表示システムは、前記書類としてチケットまたは行政証書を発行する機能を有するキオスク端末である、
     空間浮遊映像情報表示システム。
  15.  請求項1に記載の空間浮遊映像情報表示システムにおいて、
     前記ユーザの所持する携帯端末との間で無線通信を行う通信部を備える、
     空間浮遊映像情報表示システム。
  16.  請求項15に記載の空間浮遊映像情報表示システムにおいて、
     前記無線通信に基づいて、前記携帯端末から送信された前記ユーザの情報を受信する、
     空間浮遊映像情報表示システム。
  17.  請求項15に記載の空間浮遊映像情報表示システムにおいて、
     前記制御装置は、検出された前記操作に基づいて、書類を発行する処理を実行し、
     前記無線通信に基づいて、前記書類の情報を前記携帯端末に送信する、
     空間浮遊映像情報表示システム。
  18.  請求項1記載の空間浮遊映像情報表示システムにおいて、
     前記空間浮遊映像として、前記ユーザの携帯端末に読み取らせるためのコード情報を表示する、
     空間浮遊映像情報表示システム。
  19.  請求項1記載の空間浮遊映像情報表示システムにおいて、
     前記ユーザを撮像する撮像装置を備え、
     前記撮像装置により、前記ユーザの携帯端末に表示されたコード情報を読み取る、
     空間浮遊映像情報表示システム。
  20.  空中に空間浮遊映像を形成する空間浮遊映像情報表示システムであって、
     少なくとも1個のオブジェクトの映像を表示する映像表示装置と、
     前記映像表示装置からの映像光を再帰反射させることで空中に前記空間浮遊映像を形成するための再帰性反射部材と、
     前記空間浮遊映像に対するユーザによる操作を検出するためのセンサを含むセンシングシステムと、
     前記映像表示装置および前記再帰性反射部材を備えた筐体と、
     検出された前記操作に基づいて所定の処理を実行する制御装置と、
     を備え、
     前記操作として、前記空間浮遊映像の面に対する前記ユーザの手指または所持物による接触の状態を、前記センシングシステムを用いて検出し、
     前記空間浮遊映像の面において前記接触がされた位置に線を前記空間浮遊映像として描画する、
     空間浮遊映像情報表示システム。
  21.  請求項20に記載の空間浮遊映像情報表示システムにおいて、
     前記制御装置は、前記空間浮遊映像の面において文字や図形として描画された前記線を、前記ユーザによる入力情報として取得する、
     空間浮遊映像情報表示システム。
  22.  請求項21に記載の空間浮遊映像情報表示システムにおいて、
     前記制御装置は、前記空間浮遊映像の面において文字や図形として描画された前記線を、前記ユーザによるサインとして取得する、
     空間浮遊映像情報表示システム。
  23.  請求項20に記載の空間浮遊映像情報表示システムにおいて、
     前記空間浮遊映像の面において描画される前記線は、前記ユーザの氏名または属性に関する情報である、
     空間浮遊映像情報表示システム。
  24.  請求項20に記載の空間浮遊映像情報表示システムにおいて、
     前記空間浮遊映像の全体または一部の領域に、枠を表示し、
     前記制御装置は、前記空間浮遊映像の面における前記一部の領域に対する前記ユーザの手指または所持物による接触の有無に応じて、前記枠の色を変えるように、表示を制御する、
     空間浮遊映像情報表示システム。
  25.  請求項20に記載の空間浮遊映像情報表示システムにおいて、
     前記空間浮遊映像の全体または一部の領域に、枠を表示し、
     前記制御装置は、前記空間浮遊映像の面における前記枠の内側の領域に対する前記ユーザの手指または所持物による接触の有無に応じて、前記枠の内側の領域の背景色を変えるように、表示を制御する、
     空間浮遊映像情報表示システム。
  26.  請求項20に記載の空間浮遊映像情報表示システムにおいて、
     前記空間浮遊映像の全体または一部の領域に、枠を表示し、
     前記制御装置は、前記空間浮遊映像に対し前記線を描画するモードと、前記空間浮遊映像に対し前記線を描画しないモードとの切り替えを制御し、前記線を描画するモードと前記線を描画しないモードとで、前記枠の色を変えるように、表示を制御する、
     空間浮遊映像情報表示システム。
  27.  請求項20に記載の空間浮遊映像情報表示システムにおいて、
     前記空間浮遊映像の全体または一部の領域に、枠を表示し、
     前記制御装置は、前記空間浮遊映像の面に対する前記ユーザの手指または所持物による接触の有無に応じて、前記枠を点滅させるように、表示を制御する、
     空間浮遊映像情報表示システム。
  28.  請求項20に記載の空間浮遊映像情報表示システムにおいて、
     前記筐体の所定の箇所に、前記空間浮遊映像の面に対する前記操作の検出および前記線の描画を行うモードに移行させるための物理的なボタンを備える、
     空間浮遊映像情報表示システム。
  29.  請求項20に記載の空間浮遊映像情報表示システムにおいて、
     前記空間浮遊映像の面に対する前記操作の検出および前記線の描画を行うモードに移行させるためのボタンを、前記空間浮遊映像の一部として表示する、
     空間浮遊映像情報表示システム。
PCT/JP2022/038557 2021-12-13 2022-10-17 空間浮遊映像情報表示システム WO2023112463A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-201690 2021-12-13
JP2021201690A JP2023087356A (ja) 2021-12-13 2021-12-13 空間浮遊映像情報表示システム

Publications (1)

Publication Number Publication Date
WO2023112463A1 true WO2023112463A1 (ja) 2023-06-22

Family

ID=86774408

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/038557 WO2023112463A1 (ja) 2021-12-13 2022-10-17 空間浮遊映像情報表示システム

Country Status (2)

Country Link
JP (1) JP2023087356A (ja)
WO (1) WO2023112463A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009280A (ja) * 2007-06-27 2009-01-15 Toyota Infotechnology Center Co Ltd 3次元署名認証システム
JP2009259127A (ja) * 2008-04-18 2009-11-05 Konica Minolta Business Technologies Inc 表示操作部を備えた装置
CN102023784A (zh) * 2009-09-16 2011-04-20 创新科技有限公司 非接触式输入字符的方法和设备
JP2013157845A (ja) * 2012-01-31 2013-08-15 Seiko Epson Corp 電子鏡およびそのプログラム
JP2014182459A (ja) * 2013-03-18 2014-09-29 Fujitsu Ltd 情報処理装置及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009280A (ja) * 2007-06-27 2009-01-15 Toyota Infotechnology Center Co Ltd 3次元署名認証システム
JP2009259127A (ja) * 2008-04-18 2009-11-05 Konica Minolta Business Technologies Inc 表示操作部を備えた装置
CN102023784A (zh) * 2009-09-16 2011-04-20 创新科技有限公司 非接触式输入字符的方法和设备
JP2013157845A (ja) * 2012-01-31 2013-08-15 Seiko Epson Corp 電子鏡およびそのプログラム
JP2014182459A (ja) * 2013-03-18 2014-09-29 Fujitsu Ltd 情報処理装置及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Aerial Video & Interactive Solution (AirMAGIC) | AirSynapse", 27 May 2021 (2021-05-27), XP093072111, Retrieved from the Internet <URL:http://web.archive.org/web/20210527060916/https://airsynapse.co.jp/airmagic/> *
ANONYMOUS: "Self-supporting cabinet type KIOSK model | Toppan Printing", 20 September 2021 (2021-09-20), XP093072120, Retrieved from the Internet <URL:http://web.archive.org/web/20210920120851/https://www.toppan.co.jp/solution/service/kiosk.html> *

Also Published As

Publication number Publication date
JP2023087356A (ja) 2023-06-23

Similar Documents

Publication Publication Date Title
WO2020151126A1 (zh) 屏下光学指纹识别系统、指纹识别显示装置及电子设备
US8272743B2 (en) Projection of images onto tangible user interfaces
TW505812B (en) Front-illuminating device and reflective-type liquid crystal display using such a device
JP2016009271A (ja) 映像表示システム
CN110785771B (zh) 屏下光学指纹识别系统、指纹识别显示装置及电子设备
WO2022138297A1 (ja) 空間浮遊映像表示装置
WO2022158209A1 (ja) 空間浮遊映像表示装置
WO2022137940A1 (ja) 空間浮遊映像表示装置
WO2023112463A1 (ja) 空間浮遊映像情報表示システム
WO2023276921A1 (ja) 空中浮遊映像表示装置
WO2022113745A1 (ja) 空間浮遊映像表示装置
WO2023243181A1 (ja) 空間浮遊映像情報表示システム
JP2022097901A (ja) 空間浮遊映像表示装置
JP2022089271A (ja) 空間浮遊映像表示装置
WO2022270384A1 (ja) 空中浮遊映像表示システム
WO2024062749A1 (ja) 空中浮遊映像表示装置
WO2023176159A1 (ja) 空間浮遊映像表示装置
WO2023085069A1 (ja) 空中浮遊映像表示装置
WO2023068021A1 (ja) 空中浮遊映像表示システム
JP2023006618A (ja) 空間浮遊映像表示装置
JP2023122259A (ja) 空中浮遊映像表示装置
JP2023137232A (ja) 空間浮遊映像表示装置
KR101540099B1 (ko) 사용자 인터랙션형 영상 디스플레이 시스템
JP2024008616A (ja) 空間浮遊映像表示装置
JP2024029819A (ja) 空間浮遊映像表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22906998

Country of ref document: EP

Kind code of ref document: A1