JP2022100561A - Spatial floating image display apparatus - Google Patents

Spatial floating image display apparatus Download PDF

Info

Publication number
JP2022100561A
JP2022100561A JP2020214603A JP2020214603A JP2022100561A JP 2022100561 A JP2022100561 A JP 2022100561A JP 2020214603 A JP2020214603 A JP 2020214603A JP 2020214603 A JP2020214603 A JP 2020214603A JP 2022100561 A JP2022100561 A JP 2022100561A
Authority
JP
Japan
Prior art keywords
floating image
display device
space
light
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020214603A
Other languages
Japanese (ja)
Inventor
宏明 ▲高▼橋
Hiroaki Takahashi
克行 渡辺
Katsuyuki Watanabe
浩二 平田
Koji Hirata
浩司 藤田
Koji Fujita
寿紀 杉山
Toshinori Sugiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2020214603A priority Critical patent/JP2022100561A/en
Priority to PCT/JP2021/042793 priority patent/WO2022137940A1/en
Publication of JP2022100561A publication Critical patent/JP2022100561A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/346Image reproducers using prisms or semi-transparent mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Abstract

To provide a suitable spatial floating image display apparatus and the like with high convenience for a user.SOLUTION: A spatial floating image display apparatus 1000 includes: a light source and an image source (display device 1); a retroreflective member 2 that forms a spatial floating image of predetermined directivity on the basis of image light; a housing 60 that houses the display device and the retroreflective member; a drive mechanism 62 that drives the housing 60 to move; a controller (control board 61) that controls display of a spatial floating image 3 formed at a predetermined position in a space outside the housing 60; a first sensor (sensor 31) for detecting operation to the spatial floating image 3 by a user who visually recognizes and operates the spatial floating image 3; and a second sensor (camera 32) for detecting a position of a face UF of the user to the spatial floating image 3. The controller adjusts the state of the spatial floating image 3 according to the position of the face UF of the user by moving the housing 60 using the drive mechanism 62 according to the position of the face UF of the user to the spatial floating image 3.SELECTED DRAWING: Figure 26

Description

本発明は、空間浮遊映像表示装置等の技術に関する。 The present invention relates to a technique such as a space floating image display device.

空間浮遊映像表示装置等に関する先行技術例としては、特開2019-128722号公報(特許文献1)が挙げられる。特許文献1には、表示された空間像の操作面における誤検知を低減する旨の技術が記載されている。 As an example of the prior art relating to the space floating image display device and the like, Japanese Patent Application Laid-Open No. 2019-128722 (Patent Document 1) can be mentioned. Patent Document 1 describes a technique for reducing false positives on the operation surface of a displayed spatial image.

特開2019-128722号公報Japanese Unexamined Patent Publication No. 2019-128722

従来技術例の空間浮遊映像表示装置は、ユーザによる空間浮遊映像の視認性や操作のしやすさ等の点について改善の余地がある。 The spatial floating image display device of the prior art example has room for improvement in terms of visibility and ease of operation of the spatial floating image by the user.

本発明の目的は、ユーザの利便性が高い好適な空間浮遊映像表示装置等を提供することである。 An object of the present invention is to provide a suitable space floating image display device or the like that is highly convenient for the user.

上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。本発明の実施の形態の空間浮遊映像表示装置は、光源と、前記光源からの光に基づいて映像光を出射する映像源と、前記映像光に基づいて所定の指向性の空間浮遊映像を形成する再帰反射部材と、前記光源、前記映像源、および前記再帰反射部材を収容する筐体と、前記筐体または前記筐体内の構成要素を移動させる駆動機構と、前記筐体の外部の空間内の所定の位置に形成される前記空間浮遊映像の表示を制御するコントローラと、前記空間浮遊映像に対する視認および操作を行うユーザによる、前記空間浮遊映像に対する操作を検出するための第1センサと、前記空間浮遊映像に対する前記ユーザの顔または頭の位置を検出するための第2センサと、を備え、前記コントローラは、前記空間浮遊映像に対する前記ユーザの顔または頭の位置に応じて、前記筐体または前記筐体内の構成要素を前記駆動機構によって移動させる。 In order to solve the above problems, for example, the configuration described in the claims is adopted. The spatial floating image display device according to the embodiment of the present invention forms a light source, an image source that emits image light based on the light from the light source, and a spatial floating image having a predetermined directionality based on the image light. A retroreflection member, a housing that houses the light source, the image source, and the retroreflection member, a drive mechanism that moves the housing or components inside the housing, and a space outside the housing. A controller for controlling the display of the spatial floating image formed at a predetermined position, a first sensor for detecting an operation on the spatial floating image by a user who visually recognizes and operates the spatial floating image, and the above. The controller comprises a second sensor for detecting the position of the user's face or head with respect to the spatial floating image, and the controller may use the housing or the housing or the housing according to the position of the user's face or head with respect to the spatial floating image. The components in the housing are moved by the drive mechanism.

本発明によれば、ユーザの利便性が高い好適な空間浮遊映像表示装置等を提供することができる。上記以外の課題や構成や効果等については、[発明を実施するための形態]において示される。 According to the present invention, it is possible to provide a suitable space floating image display device or the like that is highly convenient for the user. Issues, configurations, effects, etc. other than the above are shown in [Modes for Carrying Out the Invention].

本発明の一実施例に係る空間浮遊映像表示装置の使用形態の一例を示す図である。It is a figure which shows an example of the usage form of the space floating image display device which concerns on one Embodiment of this invention. 本発明の一実施例に係る空間浮遊映像表示装置の主要部構成と再帰反射部構成の一例を示す図である。It is a figure which shows an example of the main part structure and the retroreflection part structure of the space floating image display device which concerns on one Embodiment of this invention. 空間浮遊映像表示装置の設置方法の一例を示す図である。It is a figure which shows an example of the installation method of a space floating image display device. 空間浮遊映像表示装置の設置方法の他の例を示す図である。It is a figure which shows another example of the installation method of a space floating image display device. 空間浮遊映像表示装置の構成例を示す図である。It is a figure which shows the configuration example of the space floating image display device. 本発明の一実施例に係る空間浮遊映像表示装置の主要部構成の他の例を示す図である。It is a figure which shows the other example of the main part composition of the space floating image display device which concerns on one Embodiment of this invention. 空間浮遊映像表示装置で用いるセンシング装置の機能を説明するための説明図である。It is explanatory drawing for demonstrating the function of the sensing apparatus used in the space floating image display apparatus. 空間浮遊映像表示装置で用いる3次元映像表示の原理の説明図である。It is explanatory drawing of the principle of 3D image display used in a space floating image display apparatus. 反射型偏光板の特性を評価した測定系の説明図である。It is explanatory drawing of the measurement system which evaluated the characteristic of a reflective polarizing plate. 反射型偏光板透過軸の光線入射角度に対する透過率特性を示す特性図である。It is a characteristic diagram which shows the transmittance characteristic with respect to the ray incident angle of a reflective polarizing plate transmission axis. 反射型偏光板反射軸の光線入射角度に対する透過率特性を示す特性図である。It is a characteristic diagram which shows the transmittance characteristic with respect to the ray incident angle of a reflective polarizing plate reflection axis. 反射型偏光板透過軸の光線入射角度に対する透過率特性を示す特性図である。It is a characteristic diagram which shows the transmittance characteristic with respect to the ray incident angle of a reflective polarizing plate transmission axis. 反射型偏光板反射軸の光線入射角度に対する透過率特性を示す特性図である。It is a characteristic diagram which shows the transmittance characteristic with respect to the ray incident angle of a reflective polarizing plate reflection axis. 光源装置の具体的な構成の一例を示す断面図である。It is sectional drawing which shows an example of the specific structure of a light source device. 光源装置の具体的な構成の一例を示す断面図である。It is sectional drawing which shows an example of the specific structure of a light source device. 光源装置の具体的な構成の一例を示す断面図である。It is sectional drawing which shows an example of the specific structure of a light source device. 本発明の一実施例に係る空間浮遊映像表示装置の主要部を示す配置図である。It is a layout drawing which shows the main part of the space floating image display device which concerns on one Embodiment of this invention. 本発明の一実施例に係る表示装置の構成を示す断面図である。It is sectional drawing which shows the structure of the display device which concerns on one Embodiment of this invention. 光源装置の具体的な構成の一例を示す断面図である。It is sectional drawing which shows an example of the specific structure of a light source device. 光源装置の具体的な構成の一例を示す断面図である。It is sectional drawing which shows an example of the specific structure of a light source device. 光源装置の具体的な構成の一例を示す断面図である。It is sectional drawing which shows an example of the specific structure of a light source device. 表示装置の光源拡散特性を説明するための説明図である。It is explanatory drawing for demonstrating the light source diffusion characteristic of a display device. 表示装置の拡散特性を説明するための説明図である。It is explanatory drawing for demonstrating the diffusion characteristic of a display device. 表示装置の拡散特性を説明するための説明図である。It is explanatory drawing for demonstrating the diffusion characteristic of a display device. ゴースト像の発生原理を説明するための説明図である。It is explanatory drawing for demonstrating the generation principle of a ghost image. 従来技術におけるゴースト像の発生原理を説明するための説明図である。It is explanatory drawing for demonstrating the generation principle of a ghost image in the prior art. 本発明の一実施例に係る表示装置の構成を示す断面図である。It is sectional drawing which shows the structure of the display device which concerns on one Embodiment of this invention. 実施の形態1の空間浮遊映像表示装置の構成を示す説明図である。It is explanatory drawing which shows the structure of the space floating image display apparatus of Embodiment 1. FIG. 実施の形態1で、空間浮遊映像の表示例を示す説明図である。It is explanatory drawing which shows the display example of the space floating image in Embodiment 1. 実施の形態1で、縦置きの場合の構成を示す説明図である。It is explanatory drawing which shows the structure in the case of the vertical installation in Embodiment 1. 実施の形態1で、上から見た構成を示す説明図である。It is explanatory drawing which shows the structure which was seen from the top in Embodiment 1. FIG. 実施の形態1で、カメラによる顔の位置の判別についての説明図である。FIG. 1 is an explanatory diagram for determining the position of a face by a camera in the first embodiment. 実施の形態1で、筐体の回転移動についての説明図である。In Embodiment 1, it is explanatory drawing about the rotational movement of a housing. 実施の形態1の変形例で、筐体の平行移動についての説明図である。It is a modification of Embodiment 1 and is explanatory drawing about the translation | translation of a housing. 実施の形態1の変形例で、奥行き方向の顔の位置の判別についての説明図である。FIG. 5 is an explanatory diagram for determining the position of a face in the depth direction in a modified example of the first embodiment. 実施の形態1の変形例で、カメラ画像における顔の位置についての説明図である。It is a modification of Embodiment 1 and is explanatory drawing about the position of the face in the camera image. 実施の形態1の変形例で、コードの読み取りについての説明図である。It is a modification of Embodiment 1 and is explanatory drawing about the reading of a code. 実施の形態2の空間浮遊映像表示装置の構成を示す説明図である。It is explanatory drawing which shows the structure of the space floating image display apparatus of Embodiment 2. 実施の形態2で、空間浮遊映像の表示例を示す説明図である。It is explanatory drawing which shows the display example of the space floating image in Embodiment 2. 実施の形態2で、処理フローを示す説明図である。It is explanatory drawing which shows the processing flow in Embodiment 2. 実施の形態2で、操作の特性の判別(その1)についての説明図である。It is explanatory drawing about the determination (the 1) of the characteristic of an operation in Embodiment 2. 実施の形態2で、操作の特性の判別(その2)についての説明図である。FIG. 2 is an explanatory diagram for determining operation characteristics (No. 2) in the second embodiment. 実施の形態2で、操作の特性の判別(その3)についての説明図である。FIG. 2 is an explanatory diagram for determining the operation characteristics (No. 3) in the second embodiment. 実施の形態2の変形例で、コードの読み取りについての説明図である。It is a modification of Embodiment 2 and is explanatory drawing about the reading of a code.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、本発明は実施例の説明に限定されるものではなく、本明細書に開示される技術的思想の範囲内において当業者による様々な変更および修正が可能である。図面において、同一の機能を有するものには同一の符号を付与し、繰り返しの説明を省略する場合がある。図面において、各構成要素の表現は、発明の理解を容易にするために、実際の位置、大きさ、形状、および範囲等を表していない場合があり、本発明は、図面に開示された位置等には必ずしも限定されない。説明上、プログラムによる処理について説明する場合に、プログラムや機能や処理部等を主体として説明する場合があるが、それらについてのハードウェアとしての主体は、プロセッサ、あるいはそのプロセッサ等で構成されるコントローラ等である。装置は、プロセッサによって、適宜にメモリや通信インタフェース等の資源を用いながら、メモリ上に読み出されたプログラムに従った処理を実行する。これにより、所定の機能や処理部等が実現される。プロセッサは、例えばCPUやGPU等の半導体デバイス等で構成される。プロセッサは、所定の演算が可能な装置や回路で構成される。処理は、ソフトウェアプログラム処理に限らず、専用回路でも実装可能である。専用回路は、FPGA、ASIC等が適用可能である。プログラムは、対象装置に予めデータとしてインストールされていてもよいし、プログラムソースから対象装置にデータとして配布されてインストールされてもよい。プログラムソースは、通信網上のプログラム配布サーバでもよいし、非一過性のコンピュータ読み取り可能な記憶媒体でもよい。プログラムは、複数のプログラムモジュールから構成されてもよい。また、識別情報、識別子、ID、名、番号等の表現は、互いに置換可能である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the present invention is not limited to the description of the examples, and various modifications and modifications by those skilled in the art can be made within the scope of the technical idea disclosed in the present specification. In the drawings, those having the same function may be given the same reference numerals, and the repeated description may be omitted. In the drawings, the representation of each component may not represent the actual position, size, shape, range, etc. to facilitate understanding of the invention, and the invention is the position disclosed in the drawings. Etc. are not always limited. In the description, when explaining the processing by the program, the program, the function, the processing unit, etc. may be mainly described, but the main body as the hardware for them is the processor or the controller composed of the processor or the like. And so on. The apparatus executes processing according to the program read out on the memory by the processor while appropriately using resources such as the memory and the communication interface. As a result, a predetermined function, a processing unit, and the like are realized. The processor is composed of, for example, a semiconductor device such as a CPU or a GPU. A processor is composed of a device or a circuit capable of performing a predetermined operation. The processing is not limited to software program processing, but can be implemented by a dedicated circuit. FPGA, ASIC, etc. can be applied to the dedicated circuit. The program may be pre-installed as data in the target device, or may be distributed and installed as data from the program source to the target device. The program source may be a program distribution server on a communication network or a non-transient computer-readable storage medium. The program may be composed of a plurality of program modules. In addition, expressions such as identification information, identifiers, IDs, names, and numbers can be replaced with each other.

以下の実施例は、映像発光源からの映像光による映像を、ガラス等の空間を仕切る透明な部材を介して透過して、前記透明な部材の外部に空間浮遊映像として表示することが可能な空間浮遊映像表示装置に関する。 In the following embodiment, it is possible to transmit an image by image light from an image emitting source through a transparent member that partitions a space such as glass, and display it as a space floating image outside the transparent member. Regarding the space floating image display device.

以下の実施例によれば、例えば、銀行のATMや駅の券売機やデジタルサイネージ等において好適な空間浮遊映像表示装置を実現できる。例えば、現状、銀行のATMや駅の券売機等では、通常、タッチパネルが用いられているが、透明なガラス面や光透過性の板材を用いて、このガラス面や光透過性の板材上に高解像度な映像情報を空間浮遊した状態で表示可能となる。この時、出射する映像光の発散角を小さく、即ち鋭角とし、さらに特定の偏波に揃えることで、再帰反射部材に対して正規の反射光だけを効率良く反射させるため、光の利用効率が高く、従来の再帰反射方式での課題となっていた主空間浮遊像の他に発生するゴースト像を抑えることができ、鮮明な空間浮遊映像を得ることができる。また、本実施例の光源を含む装置により、消費電力を大幅に低減することが可能な、新規で利用性に優れた空間浮遊映像表示装置(空間浮遊映像表示システム)を提供することができる。また、例えば、車両において車両内部および/または外部において視認可能である、いわゆる、一方向性の空間浮遊映像表示が可能な車両用空間浮遊映像表示装置を提供することができる。 According to the following embodiment, for example, a space floating image display device suitable for an ATM of a bank, a ticket vending machine at a station, a digital signage, or the like can be realized. For example, at present, a touch panel is usually used in ATMs of banks, ticket vending machines of stations, etc., but a transparent glass surface or a light-transmitting plate material is used on the glass surface or the light-transmitting plate material. High-resolution video information can be displayed in a floating state. At this time, by making the divergence angle of the emitted image light small, that is, making it a sharp angle, and further aligning it with a specific polarization, only the regular reflected light is efficiently reflected to the retroreflective member, so that the light utilization efficiency is improved. It is expensive, and it is possible to suppress ghost images generated in addition to the main spatial floating image, which has been a problem in the conventional retroreflection method, and it is possible to obtain a clear spatial floating image. Further, the device including the light source of the present embodiment can provide a new and highly usable spatial floating image display device (spatial floating image display system) capable of significantly reducing power consumption. Further, for example, it is possible to provide a so-called unidirectional space floating image display device capable of displaying a so-called unidirectional space floating image that can be visually recognized inside and / or outside the vehicle.

一方、従来の技術では、図23、図24に示すように、高解像度なカラー表示映像源150として有機ELパネルや液晶パネルを再帰反射部材151と組合せる。従来の技術では映像光が広角で拡散するため、再帰反射部材151で正規に反射する反射光の他に、図24に示すように再帰反射部材2aに斜めから入射する映像光よってゴースト像301及び302が発生し空間浮遊映像の画質を損ねていた。また、図23に示すように正規な空間浮遊映像300の他に第1ゴースト像301や第2ゴースト像302などが複数発生する。このため監視者以外にもゴースト像である同一空間浮遊映像を監視されてしまいセキュリティ上大きな課題があった。 On the other hand, in the conventional technique, as shown in FIGS. 23 and 24, an organic EL panel or a liquid crystal panel is combined with the retroreflective member 151 as a high-resolution color display image source 150. In the conventional technique, the image light is diffused at a wide angle. Therefore, in addition to the reflected light normally reflected by the retroreflective member 151, the ghost image 301 and the ghost image 301 are generated by the image light obliquely incident on the retroreflective member 2a as shown in FIG. 302 was generated and the image quality of the floating image in space was impaired. Further, as shown in FIG. 23, a plurality of first ghost images 301, second ghost images 302, and the like are generated in addition to the normal space floating image 300. For this reason, other than the observer, the floating image in the same space, which is a ghost image, is monitored, which poses a big problem in terms of security.

<空間浮遊映像表示装置の例1>
図1は、本発明の一実施例に係る空間浮遊映像表示装置の使用形態の一例を示す図であり、本実施例に係る空間浮遊映像表示装置の全体構成を示す図である。空間浮遊映像表示装置の具体的な構成については、図2等を用いて詳述するが、表示装置1から挟角な指向特性でかつ特定偏波の光が、映像光束として出射し、再帰反射部材2に一旦入射し、再帰反射して透明な部材100(ガラス等)を透過して、ガラス面の外側に、実像である空中像(空間浮遊映像3)を形成する。
<Example 1 of space floating image display device>
FIG. 1 is a diagram showing an example of a usage mode of the space floating image display device according to an embodiment of the present invention, and is a diagram showing an overall configuration of the space floating image display device according to the present embodiment. The specific configuration of the spatial floating image display device will be described in detail with reference to FIG. 2, etc., but light having a narrow directional characteristic and a specific polarization is emitted from the display device 1 as an image light beam and is retroreflected. Once incident on the member 2, it is retroreflected and transmitted through the transparent member 100 (glass or the like) to form an aerial image (spatial floating image 3) which is a real image on the outside of the glass surface.

また、店舗等においては、ガラス等の透光性の部材であるショーウィンド(「ウィンドガラス」とも言う)105により空間が仕切られている。本実施例の空間浮遊映像表示装置によれば、かかる透明な部材を透過して、浮遊映像を店舗(空間)の外部および/または内部に対して一方向に表示することが可能である。 Further, in a store or the like, a space is partitioned by a show window (also referred to as "wind glass") 105 which is a translucent member such as glass. According to the spatial floating image display device of the present embodiment, it is possible to display the floating image in one direction with respect to the outside and / or the inside of the store (space) through the transparent member.

図1(A)では、ウィンドガラス105の内側(店舗内)を奥行方向にしてその外側(例えば、歩道)が手前になるように示している。他方、ウィンドガラス105に特定偏波を反射する手段を設けることで反射させ、店内の所望の位置に空中像を形成することもできる。 In FIG. 1A, the inside of the wind glass 105 (inside the store) is oriented in the depth direction, and the outside (for example, a sidewalk) is shown to be in front. On the other hand, it is also possible to reflect the specific polarization by providing the wind glass 105 with a means for reflecting the specific polarization, and to form an aerial image at a desired position in the store.

図1(B)は、上述した空間浮遊映像表示装置1000(映像表示装置)の構成を示す概略ブロック図である。空間浮遊映像表示装置1000は、空中像の原画像を表示する映像表示部と、入力された映像をパネルの解像度に合わせて変換する映像制御部と、映像信号を受信する映像信号受信部とを含んでいる。映像信号受信部は、HDMI(High-Definition Multimedia Interface)入力など有線での入力信号への対応と、Wi-Fi(登録商標、Wireless Fidelity)などの無線入力信号への対応を行い、映像受信・表示装置として単独で機能するものでもあり、タブレット、スマートフォンなどからの映像情報を表示することもできる。更にステックPCなどを接続すれば計算処理や映像解析処理などの能力を持たせることもできる。 FIG. 1B is a schematic block diagram showing the configuration of the above-mentioned space floating image display device 1000 (image display device). The spatial floating image display device 1000 includes a video display unit that displays an original image of an aerial image, a video control unit that converts an input video according to the resolution of the panel, and a video signal receiving unit that receives a video signal. Includes. The video signal receiver supports wired input signals such as HDMI (High-Definition Multimedia Interface) input and wireless input signals such as Wi-Fi (registered trademark, Wireless Fidelity) to receive video. It also functions independently as a display device, and can also display video information from tablets, smartphones, and the like. Furthermore, if a stick PC or the like is connected, it is possible to have capabilities such as calculation processing and video analysis processing.

図2は、本発明の一実施例に係る空間浮遊映像表示装置の主要部構成と再帰反射部構成の一例を示す図である。図2を用いて、空間浮遊映像表示装置の構成をより具体的に説明する。図2(A)に示すように、ガラス等の透明な部材100の斜め方向には、特定偏波の映像光を挟角に発散させる表示装置1を備える。表示装置1は、液晶表示パネル11と挟角な拡散特性を有する特定偏波の光を生成する光源装置13とを備えている。 FIG. 2 is a diagram showing an example of a main part configuration and a retroreflective part configuration of the spatial floating image display device according to the embodiment of the present invention. The configuration of the space floating image display device will be described more specifically with reference to FIG. As shown in FIG. 2A, a display device 1 is provided in an oblique direction of a transparent member 100 such as glass to diverge video light having a specific polarization in a narrow angle. The display device 1 includes a liquid crystal display panel 11 and a light source device 13 that generates light having a specific polarization having a diffusion characteristic with a narrow angle.

表示装置1からの特定偏波の映像光は、透明な部材100に設けた特定偏波の映像光を選択的に反射する膜を有する偏光分離部材101(図中は偏光分離部材101をシート状に形成して透明な部材100に粘着している)で反射され、再帰反射部材2に入射する。再帰反射部材の映像光入射面にはλ/4板21を設ける。映像光は、再帰反射部材への入射のときと出射のときの2回、λ/4板21を通過させられることで特定偏波から他方の偏波へ偏光変換される。ここで、特定偏波の映像光を選択的に反射する偏光分離部材101は偏光変換された他方の偏波の偏光は透過する性質を有するので、偏光変換後の特定偏波の映像光は、偏光分離部材101を透過する。偏光分離部材101を透過した映像光が、透明な部材100の外側に実像である空間浮遊映像3を形成する。 The image light of the specific polarization from the display device 1 is a polarization separation member 101 having a film provided on the transparent member 100 for selectively reflecting the image light of the specific polarization (in the figure, the polarization separation member 101 is in the form of a sheet). It is formed on the surface of the transparent member 100 and is reflected by the transparent member 100), and is incident on the retroreflective member 2. A λ / 4 plate 21 is provided on the image light incident surface of the retroreflective member. The image light is polarized and converted from a specific polarization to the other polarization by being passed through the λ / 4 plate 21 twice, when it is incident on the retroreflective member and when it is emitted. Here, since the polarization separating member 101 that selectively reflects the image light of the specific polarization has the property of transmitting the polarization of the other polarization that has been polarized, the image light of the specific polarization after the polarization conversion can be obtained. It passes through the polarization separating member 101. The image light transmitted through the polarization separating member 101 forms a spatial floating image 3 which is a real image on the outside of the transparent member 100.

なお、空間浮遊映像3を形成する光は再帰反射部材2から空間浮遊映像3の光学像へ収束する光線の集合であり、これらの光線は、空間浮遊映像3の光学像を通過後も直進する。よって、空間浮遊映像3は、一般的なプロジェクタなどでスクリーン上に形成される拡散映像光とは異なり、高い指向性を有する映像である。よって、図2の構成では、矢印Aの方向からユーザが視認する場合は、空間浮遊映像3は明るい映像として視認される。しかし、矢印Bの方向から他の人物が視認する場合は、空間浮遊映像3は映像として一切視認することはできない。この特性は、高いセキュリティが求められる映像や、ユーザに正対する人物には秘匿したい秘匿性の高い映像を表示するシステムに採用する場合に非常に好適である。 The light forming the spatial floating image 3 is a set of light rays that converge from the retroreflective member 2 to the optical image of the spatial floating image 3, and these rays travel straight even after passing through the optical image of the spatial floating image 3. .. Therefore, the spatial floating image 3 is an image having high directivity, unlike the diffused image light formed on the screen by a general projector or the like. Therefore, in the configuration of FIG. 2, when the user visually recognizes from the direction of the arrow A, the space floating image 3 is visually recognized as a bright image. However, when another person visually recognizes from the direction of the arrow B, the space floating image 3 cannot be visually recognized as an image at all. This characteristic is very suitable for use in a system that displays a video that requires high security or a video that is highly confidential and that is desired to be kept secret from the person facing the user.

なお、再帰反射部材2の性能によっては、反射後の映像光の偏光軸が不揃いになることがある。この場合、偏光軸が不揃いになった一部の映像光は、上述した偏光分離部材101で反射され表示装置1に戻る。この光が、表示装置1を構成する液晶表示パネル11の映像表示面で再反射し、ゴースト像を発生させ空間浮遊像の画質を低下させる可能性がある。そこで、本実施例では表示装置1の映像表示面に吸収型偏光板12を設ける。表示装置1から出射する映像光は吸収型偏光板12を透過させ、偏光分離部材101から戻ってくる反射光は吸収型偏光板12で吸収させることで、上記再反射を抑制できる。これにより、空間浮遊像のゴースト像による画質低下を防止することができる。 Depending on the performance of the retroreflective member 2, the polarization axes of the reflected image light may be uneven. In this case, a part of the video light whose polarization axes are not aligned is reflected by the above-mentioned polarization separation member 101 and returns to the display device 1. This light may be re-reflected on the image display surface of the liquid crystal display panel 11 constituting the display device 1 to generate a ghost image and deteriorate the image quality of the spatial floating image. Therefore, in this embodiment, the absorption type polarizing plate 12 is provided on the image display surface of the display device 1. The image light emitted from the display device 1 is transmitted through the absorption type polarizing plate 12, and the reflected light returned from the polarization separating member 101 is absorbed by the absorption type polarizing plate 12, so that the rereflection can be suppressed. This makes it possible to prevent deterioration of image quality due to the ghost image of the spatial floating image.

上述した偏光分離部材101は、例えば反射型偏光板や特定偏波を反射させる金属多層膜などで形成すればよい。 The above-mentioned polarization separating member 101 may be formed of, for example, a reflective polarizing plate or a metal multilayer film that reflects a specific polarization.

次に、図2(B)に代表的な再帰反射部材2として、今回の検討に用いた日本カーバイト工業株式会社製の再帰反射部材の表面形状を示す。規則的に配列された6角柱の内部に入射した光線は、6角柱の壁面と底面で反射され再帰反射光として入射光に対応した方向に出射し、表示装置1に表示した映像に基づき実像である空間浮遊映像を表示する。この空間浮遊像の解像度は液晶表示パネル11の解像度の他に、図2(B)で示す再帰反射部材2の再帰反射部の外形(直径)DとピッチPに大きく依存する。例えば、7インチのWUXGA(1920×1200画素)液晶表示パネルを用いる場合には、1画素(1トリプレット)が約80μmであっても、例えば再帰反射部の直径Dが240μmでピッチPが300μmであれば空間浮遊像の1画素は300μm相当となる。このため、空間浮遊映像の実効的な解像度は1/3程度に低下する。そこで空間浮遊映像の解像度を表示装置1の解像度と同等にするためには、再帰反射部の直径とピッチを液晶表示パネルの1画素に近づけることが望まれる。他方、再帰反射部材と液晶表示パネルの画素によるモアレの発生を抑えるため、それぞれのピッチ比を1画素の整数倍から外して設計すると良い。また形状は再帰反射部のいずれの一辺も液晶表示パネルの1画素のいずれの一辺と重ならないように配置すると良い。 Next, as a typical retroreflective member 2 in FIG. 2B, the surface shape of the retroreflective member manufactured by Nippon Carbite Industries Co., Ltd. used in this study is shown. The light rays incident on the inside of the regularly arranged hexagonal prisms are reflected by the wall surface and the bottom surface of the hexagonal prisms and emitted as retroreflected light in the direction corresponding to the incident light, and are a real image based on the image displayed on the display device 1. Display a floating image in a certain space. The resolution of this spatial floating image largely depends on the outer shape (diameter) D and pitch P of the retroreflective portion 2 of the retroreflective member 2 shown in FIG. 2B, in addition to the resolution of the liquid crystal display panel 11. For example, when a 7-inch WUXGA (1920 x 1200 pixels) liquid crystal display panel is used, even if one pixel (1 triplet) is about 80 μm, for example, the diameter D of the retroreflective part is 240 μm and the pitch P is 300 μm. If so, one pixel of the spatial floating image is equivalent to 300 μm. Therefore, the effective resolution of the spatial floating image is reduced to about 1/3. Therefore, in order to make the resolution of the spatial floating image equal to the resolution of the display device 1, it is desired that the diameter and pitch of the retroreflective portion be close to one pixel of the liquid crystal display panel. On the other hand, in order to suppress the occurrence of moire due to the pixels of the retroreflective member and the liquid crystal display panel, it is advisable to design by excluding each pitch ratio from an integral multiple of one pixel. Further, the shape may be arranged so that neither side of the retroreflective portion overlaps with any one side of one pixel of the liquid crystal display panel.

一方、再帰反射部材を低価格で製造するためには、ロールプレス法を用いて成形すると良い。具体的には再帰部を整列させフィルム上に賦形する方法であり、賦形する形状の逆形状をロール表面に形成し、固定用のベース材の上に紫外線硬化樹脂を塗布しロール間を通過させることで、必要な形状を賦形し紫外線を照射して硬化させ、所望形状の再帰反射部材2を得る。 On the other hand, in order to manufacture the retroreflective member at a low price, it is preferable to mold it by using the roll press method. Specifically, it is a method of aligning the recursive parts and shaping them on the film. The inverted shape of the shape to be shaped is formed on the roll surface, and the UV curable resin is applied on the base material for fixing to make the space between the rolls. By passing it through, a required shape is formed and cured by irradiating with ultraviolet rays to obtain a retroreflective member 2 having a desired shape.

<<空間浮遊映像表示装置の設置方法>>
次に、空間浮遊映像表示装置の設置方法について説明する。空間浮遊映像表示装置は、使用形態に応じて設置方法を自在に変更することが可能である。図3Aは、空間浮遊映像表示装置の設置方法の一例を示す図である。図3Aに示す空間浮遊映像表示装置は、空間浮遊映像3が形成される側の面が上方を向くように横置きにして設置される。すなわち、図3Aでは、空間浮遊映像表示装置は、透明な部材100が上方を向くように設置され、空間浮遊映像3が、空間浮遊映像表示装置の上方に形成される。
<< How to install a floating image display device >>
Next, a method of installing the space floating image display device will be described. The installation method of the space floating image display device can be freely changed according to the usage pattern. FIG. 3A is a diagram showing an example of an installation method of a space floating image display device. The space floating image display device shown in FIG. 3A is installed horizontally so that the surface on the side where the space floating image 3 is formed faces upward. That is, in FIG. 3A, the space floating image display device is installed so that the transparent member 100 faces upward, and the space floating image 3 is formed above the space floating image display device.

図3Bは、空間浮遊映像表示装置の設置方法の他の例を示す図である。図3Bに示す空間浮遊映像表示装置は、空間浮遊映像3が形成される側の面が側方(ユーザ230の方向)を向くように縦置きにして設置される。すなわち、図3Bでは、空間浮遊映像表示装置は、透明な部材100が側方を向くように設置され、空間浮遊映像3が、空間浮遊映像表示装置の側方(ユーザ230の方向)に形成される。 FIG. 3B is a diagram showing another example of the installation method of the space floating image display device. The space floating image display device shown in FIG. 3B is installed vertically so that the surface on which the space floating image 3 is formed faces sideways (direction of the user 230). That is, in FIG. 3B, the space floating image display device is installed so that the transparent member 100 faces sideways, and the space floating image 3 is formed on the side of the space floating image display device (direction of the user 230). To.

<<空間浮遊映像表示装置の構成>>
次に、空間浮遊映像表示装置1000の構成について説明する。図3Cは、空間浮遊映像表示装置1000の内部構成の一例を示すブロック図である。空間浮遊映像表示装置1000は、再帰性反射部1101、映像表示部1102、導光体1104、光源1105、電源1106、操作入力部1107、不揮発性メモリ1108、メモリ1109、制御部1110、映像信号入力部1131、音声信号入力部1133、通信部1132、空中操作検出センサ1351(後述の第1センサ)、空中操作検出部1350、音声出力部1140、映像制御部1160、ストレージ部1170、撮像部1180(後述の第2センサ)等を備えている。制御部1110は、空間浮遊映像表示装置1000のコントローラに相当する。
<< Configuration of space floating image display device >>
Next, the configuration of the space floating image display device 1000 will be described. FIG. 3C is a block diagram showing an example of the internal configuration of the space floating image display device 1000. The space floating image display device 1000 includes a retroreflective unit 1101, an image display unit 1102, a light guide body 1104, a light source 1105, a power supply 1106, an operation input unit 1107, a non-volatile memory 1108, a memory 1109, a control unit 1110, and a video signal input. Unit 1131, audio signal input unit 1133, communication unit 1132, aerial operation detection sensor 1351 (first sensor described later), aerial operation detection unit 1350, audio output unit 1140, video control unit 1160, storage unit 1170, image pickup unit 1180 ( It is equipped with a second sensor), which will be described later. The control unit 1110 corresponds to the controller of the space floating image display device 1000.

空間浮遊映像表示装置1000の各構成要素は、筐体1190に収容されている。なお、図3Cに示す撮像部1180および空中操作検出センサ1351は、筐体1190の外側に設けられてもよい。 Each component of the space floating image display device 1000 is housed in the housing 1190. The imaging unit 1180 and the aerial operation detection sensor 1351 shown in FIG. 3C may be provided on the outside of the housing 1190.

図3Cの再帰性反射部1101は、図2の再帰反射部材2に対応している。再帰性反射部1101は、映像表示部1102により変調された光を再帰性反射する。再帰性反射部1101からの反射光のうち、空間浮遊映像情報装置1000の外部に出力された光により空間浮遊映像3が形成される。 The retroreflective unit 1101 of FIG. 3C corresponds to the retroreflective member 2 of FIG. The retroreflective unit 1101 retroreflects the light modulated by the image display unit 1102. Of the light reflected from the retroreflective unit 1101, the light output to the outside of the spatial floating image information device 1000 forms the spatial floating image 3.

図3Cの映像表示部1102は、図2の液晶表示パネル11に対応している。図3Cの光源1105は、図2の光源装置13と対応している。そして、図3Cの映像表示部1102、導光体1104、および光源1105は、図2の表示装置1に対応している。液晶表示パネル11または映像表示部1102は、映像光を生成する映像源に相当する。 The image display unit 1102 of FIG. 3C corresponds to the liquid crystal display panel 11 of FIG. The light source 1105 of FIG. 3C corresponds to the light source device 13 of FIG. The image display unit 1102, the light guide body 1104, and the light source 1105 of FIG. 3C correspond to the display device 1 of FIG. The liquid crystal display panel 11 or the image display unit 1102 corresponds to an image source that generates image light.

映像表示部1102は、後述する映像制御部1160による制御により入力される映像信号に基づいて、透過する光を変調して映像を生成する表示部である。映像表示部1102として、例えば透過型液晶パネルが用いられる。また、映像表示部1102として、例えば反射する光を変調する方式の反射型液晶パネルやDMD(Digital Micromirror Device:登録商標)パネル等が用いてられてもよい。 The video display unit 1102 is a display unit that modulates the transmitted light to generate an image based on the image signal input by the control by the image control unit 1160 described later. As the image display unit 1102, for example, a transmissive liquid crystal panel is used. Further, as the image display unit 1102, for example, a reflective liquid crystal panel of a type that modulates the reflected light, a DMD (Digital Micromirror Device: registered trademark) panel, or the like may be used.

光源1105は、映像表示部1102用の光を発生するもので、LED光源、レーザ光源等の固体光源である。電源1106は、外部から入力されるAC電流をDC電流に変換し、光源1105に電力を供給する。また、電源1106は、空間浮遊映像表示装置1000内の各部に、それぞれ必要なDC電流を供給する。 The light source 1105 generates light for the image display unit 1102, and is a solid-state light source such as an LED light source and a laser light source. The power supply 1106 converts an AC current input from the outside into a DC current and supplies electric power to the light source 1105. Further, the power supply 1106 supplies a required DC current to each part in the space floating image display device 1000.

導光体1104は、光源1105で発生した光を導光し、映像表示部1102に照射させる。導光体1104と光源1105とを組み合わせたものを、映像表示部1102のバックライトと称することもできる。導光体1104と光源1105との組み合わせには、さまざまな方式が考えられる。導光体1104と光源1105との組み合わせについての具体的な構成例については、後で詳しく説明する。 The light guide body 1104 guides the light generated by the light source 1105 and irradiates the image display unit 1102. A combination of the light guide body 1104 and the light source 1105 can also be referred to as a backlight of the image display unit 1102. Various methods can be considered for the combination of the light guide body 1104 and the light source 1105. A specific configuration example of the combination of the light guide body 1104 and the light source 1105 will be described in detail later.

空中操作検出センサ1351は、ユーザ230の指による空間浮遊映像3の操作を検出するセンサである。空中操作検出センサ1351は、例えば空間浮遊映像3の表示範囲の全部と重畳する範囲をセンシングする。なお、空中操作検出センサ1351は、空間浮遊映像3の表示範囲の少なくとも一部と重畳する範囲のみをセンシングしてもよい。 The aerial operation detection sensor 1351 is a sensor that detects the operation of the space floating image 3 by the finger of the user 230. The aerial operation detection sensor 1351 senses, for example, a range that overlaps with the entire display range of the space floating image 3. The aerial operation detection sensor 1351 may sense only a range that overlaps with at least a part of the display range of the space floating image 3.

空中操作検出センサ1351の具体例としては、赤外線などの非可視光、非可視光レーザ、超音波等を用いた距離センサが挙げられる。また、空中操作検出センサ1351は、複数のセンサを複数組み合わせ、2次元平面の座標を検出できるように構成されたものでもよい。また、空中操作検出センサ1351は、ToF(Time of Flight)方式のLiDAR(Light Detection and Ranging)や、画像センサで構成されてもよい。 Specific examples of the aerial operation detection sensor 1351 include a distance sensor using invisible light such as infrared rays, an invisible light laser, and ultrasonic waves. Further, the aerial operation detection sensor 1351 may be configured so that a plurality of sensors can be combined to detect the coordinates of the two-dimensional plane. Further, the aerial operation detection sensor 1351 may be composed of a ToF (Time of Light) type LiDAR (Light Detection and Ringing) or an image sensor.

空中操作検出センサ1351は、ユーザが指で空間浮遊映像3として表示されるオブジェクトに対するタッチ操作等を検出するためのセンシングができればよい。このようなセンシングは、既存の技術を用いて行うことができる。 The aerial operation detection sensor 1351 may be capable of sensing for detecting a touch operation or the like on an object displayed as a space floating image 3 by a user with a finger. Such sensing can be performed using existing techniques.

空中操作検出部1350は、空中操作検出センサ1351からセンシング信号を取得し、センシング信号に基づいてユーザ230の指による空間浮遊映像3のオブジェクトに対する接触の有無や、ユーザ230の指とオブジェクトとが接触した位置(接触位置)の算出等を行う。空中操作検出部1350は、例えば、FPGA(Field Programmable Gate Array)等の回路で構成される。また、空中操作検出部1350の一部の機能は、例えば制御部1110で実行される空間操作検出用プログラムによりソフトウェアで実現されてもよい。 The aerial operation detection unit 1350 acquires a sensing signal from the aerial operation detection sensor 1351, and based on the sensing signal, the presence or absence of contact with the object of the spatial floating image 3 by the finger of the user 230, and the contact between the finger of the user 230 and the object. The position (contact position) is calculated. The aerial operation detection unit 1350 is composed of, for example, a circuit such as an FPGA (Field Programmable Gate Array). Further, some functions of the aerial operation detection unit 1350 may be realized by software, for example, by a spatial operation detection program executed by the control unit 1110.

空中操作検出センサ1351および空中操作検出部1350は、空間浮遊映像表示装置1000に内蔵された構成としてもよいが、空間浮遊映像表示装置1000とは別体で外部に設けられてもよい。空間浮遊映像表示装置1000と別体で設ける場合、空中操作検出センサ1351および空中操作検出部1350は、有線または無線の通信接続路や映像信号伝送路を介して空間浮遊映像表示装置1000に情報や信号を伝達できるように構成される。 The aerial operation detection sensor 1351 and the aerial operation detection unit 1350 may be configured to be built in the space floating image display device 1000, but may be provided outside separately from the space floating image display device 1000. When provided separately from the space floating image display device 1000, the aerial operation detection sensor 1351 and the aerial operation detection unit 1350 provide information to the space floating image display device 1000 via a wired or wireless communication connection path or a video signal transmission path. It is configured to be able to transmit signals.

また、空中操作検出センサ1351および空中操作検出部1350が別体で設けられてもよい。これにより、空中操作検出機能の無い空間浮遊映像表示装置1000を本体として、空中操作検出機能のみをオプションで追加できるようなシステムを構築することが可能である。また、空中操作検出センサ1351のみを別体とし、空中操作検出部1350が空間浮遊映像表示装置1000に内蔵された構成でもよい。空間浮遊映像表示装置1000の設置位置に対して空中操作検出センサ1351をより自由に配置したい場合等には、空中操作検出センサ1351のみを別体とする構成に利点がある。 Further, the aerial operation detection sensor 1351 and the aerial operation detection unit 1350 may be provided separately. This makes it possible to construct a system in which only the air operation detection function can be added as an option, with the space floating image display device 1000 having no air operation detection function as the main body. Further, only the aerial operation detection sensor 1351 may be a separate body, and the aerial operation detection unit 1350 may be built in the space floating image display device 1000. When it is desired to arrange the aerial operation detection sensor 1351 more freely with respect to the installation position of the space floating image display device 1000, there is an advantage in the configuration in which only the aerial operation detection sensor 1351 is separated.

撮像部1180は、イメージセンサを有するカメラであり、空間浮遊映像3付近の空間、および/またはユーザ230の顔、腕、指などを撮像する。撮像部1180は、複数設けられてもよい。複数の撮像部1180を用いることで、あるいは深度センサ付きの撮像部を用いることで、ユーザ230による空間浮遊映像3のタッチ操作の検出処理の際、空中操作検出部1350を補助することができる。 The image pickup unit 1180 is a camera having an image sensor, and images the space near the space floating image 3 and / or the face, arms, fingers, and the like of the user 230. A plurality of image pickup units 1180 may be provided. By using a plurality of image pickup units 1180 or by using an image pickup unit with a depth sensor, it is possible to assist the aerial operation detection unit 1350 when the user 230 detects the touch operation of the spatial floating image 3.

例えば、空中操作検出センサ1351が、空間浮遊映像3の表示面を含む平面(侵入検出平面)を対象として、この侵入検出平面内への物体の侵入の有無を検出する物体侵入センサとして構成された場合、侵入検出平面内に侵入していない物体(例えば、ユーザの指)が侵入検出平面からどれだけ離れているのか、あるいは物体が侵入検出平面にどれだけ近いのかといった情報を、空中操作検出センサ1351では検出できない場合がある。 For example, the aerial operation detection sensor 1351 is configured as an object intrusion sensor that detects the presence or absence of intrusion of an object into the intrusion detection plane for a plane (intrusion detection plane) including the display surface of the spatial floating image 3. In the case, the aerial operation detection sensor provides information such as how far an object that has not entered the intrusion detection plane (for example, the user's finger) is from the intrusion detection plane, or how close the object is to the intrusion detection plane. It may not be detected by 1351.

このような場合、複数の撮像部1180の撮像画像に基づく物体の深度算出情報や深度センサによる物体の深度情報等の情報を用いることにより、物体と侵入検出平面との距離を算出することができる。そして、これらの情報や、物体と侵入検出平面との距離等の各種情報は、空間浮遊映像3に対する各種表示制御に用いられる。 In such a case, the distance between the object and the intrusion detection plane can be calculated by using information such as the depth calculation information of the object based on the captured images of the plurality of imaging units 1180 and the depth information of the object by the depth sensor. .. Then, these information and various information such as the distance between the object and the intrusion detection plane are used for various display controls for the space floating image 3.

また、空中操作検出センサ1351を用いずに、撮像部1180の撮像画像に基づき、空中操作検出部1350がユーザ230による空間浮遊映像3のタッチ操作を検出するようにしてもよい。 Further, instead of using the aerial operation detection sensor 1351, the aerial operation detection unit 1350 may detect the touch operation of the space floating image 3 by the user 230 based on the image captured by the image pickup unit 1180.

また、撮像部1180が空間浮遊映像3を操作するユーザ230の顔を撮像し、制御部1110がユーザ230の識別処理を行うようにしてもよい。また、空間浮遊映像3を操作するユーザ230の周辺や背後に他人が立っており、他人が空間浮遊映像3に対するユーザ230の操作を覗き見ていないか等を判別するため、撮像部1180は、空間浮遊映像3を操作するユーザ230と、ユーザ230の周辺領域とを含めた範囲を撮像するようにしてもよい。 Further, the image pickup unit 1180 may take an image of the face of the user 230 who operates the space floating image 3, and the control unit 1110 may perform the identification process of the user 230. Further, in order to determine whether or not another person is standing around or behind the user 230 who operates the space floating image 3 and another person is looking into the operation of the user 230 with respect to the space floating image 3, the imaging unit 1180 may be used. The range including the user 230 who operates the space floating image 3 and the peripheral area of the user 230 may be imaged.

操作入力部1107は、例えば操作ボタンやリモートコントローラの受光部であり、ユーザ230による空中操作(タッチ操作)とは異なる操作についての信号を入力する。空間浮遊映像3をタッチ操作する前述のユーザ230とは別に、操作入力部1107は、例えば管理者が空間浮遊映像表示装置1000を操作するために用いられてもよい。 The operation input unit 1107 is, for example, an operation button or a light receiving unit of a remote controller, and inputs a signal for an operation different from the aerial operation (touch operation) by the user 230. Apart from the above-mentioned user 230 who touch-operates the space floating image 3, the operation input unit 1107 may be used, for example, for the administrator to operate the space floating image display device 1000.

映像信号入力部1131は、外部の映像出力装置を接続して映像データを入力する。音声信号入力部1133は、外部の音声出力装置を接続して音声データを入力する。音声出力部1140は、音声信号入力部1133に入力された音声データに基づいた音声出力を行うことが可能である。また、音声出力部1140は内蔵の操作音やエラー警告音を出力してもよい。 The video signal input unit 1131 connects an external video output device and inputs video data. The voice signal input unit 1133 connects an external voice output device and inputs voice data. The voice output unit 1140 can output voice based on the voice data input to the voice signal input unit 1133. Further, the voice output unit 1140 may output a built-in operation sound or an error warning sound.

不揮発性メモリ1108は、空間浮遊映像表示装置1000で用いる各種データを格納する。不揮発性メモリ1108に格納されるデータには、例えば、空間浮遊映像3に表示する各種操作用のデータ、表示アイコン、ユーザが操作するためのオブジェクトのデータやレイアウト情報等が含まれる。メモリ1109は、空間浮遊映像3として表示する映像データや装置の制御用データ等を記憶する。 The non-volatile memory 1108 stores various data used in the space floating image display device 1000. The data stored in the non-volatile memory 1108 includes, for example, data for various operations displayed on the spatial floating image 3, display icons, object data for user operation, layout information, and the like. The memory 1109 stores video data to be displayed as the space floating video 3, control data of the device, and the like.

制御部1110は、接続される各部の動作を制御する。また、制御部1110は、メモリ1109に記憶されるプログラムと協働して、空間浮遊映像表示装置1000内の各部から取得した情報に基づく演算処理を行ってもよい。通信部1132は、有線または無線のインタフェースを介して、外部機器や外部のサーバ等と通信を行う。通信部1132を介した通信により、映像データ、画像データ、音声データ等の各種データが送受信される。 The control unit 1110 controls the operation of each connected unit. Further, the control unit 1110 may perform arithmetic processing based on the information acquired from each unit in the space floating image display device 1000 in cooperation with the program stored in the memory 1109. The communication unit 1132 communicates with an external device, an external server, or the like via a wired or wireless interface. Various data such as video data, image data, and audio data are transmitted and received by communication via the communication unit 1132.

ストレージ部1170は、映像データ、画像データ、音声データ等の各種データおよび各種情報を記録する記憶装置である。ストレージ部1170には、例えば、製品出荷時に予め映像データ、画像データ、音声データ等の各種データ等の各種情報が記録されていてもよい。また、ストレージ部1170は、通信部1132を介して外部機器や外部のサーバ等から取得した映像データ、画像データ、音声データ等の各種データ等の各種情報を記録してもよい。 The storage unit 1170 is a storage device that records various data such as video data, image data, audio data, and various information. For example, various information such as various data such as video data, image data, and audio data may be recorded in the storage unit 1170 in advance at the time of product shipment. Further, the storage unit 1170 may record various information such as various data such as video data, image data, audio data, etc. acquired from an external device, an external server, or the like via the communication unit 1132.

ストレージ部1170に記録された映像データ、画像データ等は、映像表示部1102と再帰性反射部1101とを介して空間浮遊映像3として出力される。空間浮遊映像3として表示される、表示アイコンやユーザが操作するためのオブジェクト等の映像データ、画像データ等も、ストレージ部1170に記録される。 The video data, image data, and the like recorded in the storage unit 1170 are output as a spatial floating image 3 via the image display unit 1102 and the retroreflective unit 1101. Video data, image data, and the like, such as display icons and objects for the user to operate, which are displayed as the spatial floating video 3, are also recorded in the storage unit 1170.

空間浮遊映像3として表示される表示アイコンやオブジェクト等のレイアウト情報や、オブジェクトに関する各種メタデータの情報等もストレージ部1170に記録される。ストレージ部1170に記録された音声データは、例えば音声出力部1140から音声として出力される。 Layout information such as display icons and objects displayed as the spatial floating image 3 and information on various metadata related to the objects are also recorded in the storage unit 1170. The audio data recorded in the storage unit 1170 is output as audio from, for example, the audio output unit 1140.

映像制御部1160は、映像表示部1102に入力する映像信号に関する各種制御を行う。映像制御部1160は、例えば、メモリ1109に記憶させる映像信号と、映像信号入力部1131に入力された映像信号(映像データ)等のうち、どの映像信号を映像表示部1102に入力するかといった映像切り替えの制御等を行う。 The video control unit 1160 performs various controls related to the video signal input to the video display unit 1102. The video control unit 1160 is a video such as which video signal is input to the video display unit 1102 among the video signal stored in the memory 1109 and the video signal (video data) input to the video signal input unit 1131. Controls switching, etc.

また、映像制御部1160は、メモリ1109に記憶させる映像信号と、映像信号入力部1131から入力された映像信号とを重畳した重畳映像信号を生成し、重畳映像信号を映像表示部1102に入力することで、合成映像を空間浮遊映像3として形成する制御を行ってもよい。 Further, the video control unit 1160 generates a superimposed video signal in which the video signal stored in the memory 1109 and the video signal input from the video signal input unit 1131 are superimposed, and the superimposed video signal is input to the video display unit 1102. Therefore, control may be performed to form the composite image as the spatial floating image 3.

また、映像制御部1160は、映像信号入力部1131から入力された映像信号やメモリ1109に記憶させる映像信号等に対して画像処理を行う制御を行ってもよい。画像処理としては、例えば、画像の拡大、縮小、変形等を行うスケーリング処理、輝度を変更するブライト調整処理、画像のコントラストカーブを変更するコントラスト調整処理、画像を光の成分に分解して成分ごとの重みづけを変更するレティネックス処理等がある。 Further, the video control unit 1160 may perform control to perform image processing on a video signal input from the video signal input unit 1131, a video signal stored in the memory 1109, and the like. Image processing includes, for example, scaling processing for enlarging, reducing, and transforming an image, bright adjustment processing for changing brightness, contrast adjustment processing for changing the contrast curve of an image, and decomposition of an image into light components for each component. There is a Retinex process that changes the weighting of.

また、映像制御部1160は、映像表示部1102に入力する映像信号に対して、ユーザ230の空中操作(タッチ操作)を補助するための特殊効果映像処理等を行ってもよい。特殊効果映像処理は、例えば、空中操作検出部1350によるユーザ230のタッチ操作の検出結果や、撮像部1180によるユーザ230の撮像画像に基づいて行われる。 Further, the video control unit 1160 may perform special effect video processing or the like for assisting the user 230 in the air operation (touch operation) with respect to the video signal input to the video display unit 1102. The special effect video processing is performed based on, for example, the detection result of the touch operation of the user 230 by the aerial operation detection unit 1350 and the image captured by the user 230 by the image pickup unit 1180.

ここまで説明したように空間浮遊映像表示装置1000には、さまざまな機能が搭載されている。ただし、空間浮遊映像表示装置1000は、これらのすべての機能を備える必要はなく、空間浮遊映像3を形成する機能があればどのような構成でもよい。 As described above, the space floating image display device 1000 is equipped with various functions. However, the space floating image display device 1000 does not have to have all of these functions, and may have any configuration as long as it has a function of forming the space floating image 3.

<空間浮遊映像表示装置の例2>
図4は、本発明の一実施例に係る空間浮遊映像表示装置の主要部構成の他の例を示す図である。表示装置1は、液晶表示パネル11と挟角な拡散特性を有する特定偏波の光を生成する光源装置13を備え、例えば、画面サイズが5インチ程度の小型のものから80インチを超える大型な液晶表示パネルで構成され、折り返しミラー22の表面には反射型偏光板のような偏光分離部材101を設け、液晶表示パネル11からの映像光を再帰反射部材2に向けて反射する。表示装置1からの特定偏波の映像光は、透明な部材100に設けた特定偏波の映像光を選択的に反射する膜(図中はシート101を粘着)で反射され、再帰反射部材2に入射する。
<Example 2 of space floating image display device>
FIG. 4 is a diagram showing another example of the configuration of the main part of the space floating image display device according to the embodiment of the present invention. The display device 1 includes a liquid crystal display panel 11 and a light source device 13 that generates light having a specific polarization having a narrow angle diffusion characteristic. For example, a small screen size of about 5 inches to a large screen size of more than 80 inches is provided. It is composed of a liquid crystal display panel, and a polarization separating member 101 such as a reflective polarizing plate is provided on the surface of the folded mirror 22, and the image light from the liquid crystal display panel 11 is reflected toward the retroreflective member 2. The image light of the specific polarization from the display device 1 is reflected by a film (adhesive to the sheet 101 in the figure) that selectively reflects the image light of the specific polarization provided on the transparent member 100, and is reflected by the retroreflective member 2. Incident to.

再帰反射部材2の光入射面にはλ/4板21を設け、映像光を2度通過させることで偏光変換し特定偏波を他方の偏波に変換することで、偏光分離部材101を透過させ、透明な部材100の外側に実像である空間浮遊映像3を表示する。透明な部材100の外光入射面には吸収型の偏光板を設ける。上述した偏光分離部材101では再帰反射することで偏光軸が不揃いになるため一部の映像光は反射し表示装置1に戻る。この光が再度表示装置1を構成する液晶表示パネル11の映像表示面で反射し、ゴースト像を発生させ空間浮遊像の画質を著しく低下させる。そこで、本実施例では表示装置1の映像表示面に吸収型偏光板12を設け、映像光は透過させ、上述した反射光を吸収させることで空間浮遊像のゴースト像による画質低下を防止する。更に、セット外部の太陽光や照明光による画質低下を軽減するため、透明な部材100の表面に吸収型偏光板を設けると良い。偏光分離部材101としては反射型偏光板や特定偏波を反射させる金属多層膜から形成される。 A λ / 4 plate 21 is provided on the light incident surface of the retroreflective member 2, and the polarization is converted by passing the video light twice, and the specific polarization is converted to the other polarization, so that the polarization separation member 101 is transmitted. The space floating image 3 which is a real image is displayed on the outside of the transparent member 100. An absorption-type polarizing plate is provided on the external light incident surface of the transparent member 100. In the polarization separating member 101 described above, the polarization axes become uneven due to retroreflection, so that a part of the image light is reflected and returns to the display device 1. This light is reflected again on the image display surface of the liquid crystal display panel 11 constituting the display device 1, generates a ghost image, and significantly deteriorates the image quality of the spatial floating image. Therefore, in this embodiment, an absorbent polarizing plate 12 is provided on the image display surface of the display device 1, the image light is transmitted, and the above-mentioned reflected light is absorbed to prevent deterioration of the image quality due to the ghost image of the spatial floating image. Further, in order to reduce the deterioration of image quality due to sunlight or illumination light outside the set, it is preferable to provide an absorption type polarizing plate on the surface of the transparent member 100. The polarization separating member 101 is formed of a reflective polarizing plate or a metal multilayer film that reflects a specific polarization.

次に、上述した空間浮遊映像表示装置により得られた空間浮遊映像に対して対象物とセンサ44の距離と位置の関係をセンシングするように、TOF機能を有するセンサ44を図5に示すように複数層に配置して、対象物の平面方向の座標の他に奥行方向の座標と対象物の移動方向、移動速度も感知することが可能となる。2次元の距離と位置を読み取るために紫外線発光部と受光部の組み合わせを複数直線的に配置し、発光点からの光を対象物に照射し反射した光を受光部で受光する。発光した時間と受光した時間との差と、光速の積により対象物との距離が明確になる。また平面上の座標は複数の発光部と受光部で、発光時間と受光時間の差が最も小さい部分での座標から読み取ることができる。以上により平面(2次元)での対象物の座標と、前述したセンサを複数組み合わせることで3次元の座標情報を得ることもできる。 Next, the sensor 44 having a TOF function is shown in FIG. 5 so as to sense the relationship between the distance and the position of the object and the sensor 44 with respect to the spatial floating image obtained by the above-mentioned spatial floating image display device. By arranging them in a plurality of layers, it is possible to detect not only the coordinates in the plane direction of the object but also the coordinates in the depth direction, the moving direction of the object, and the moving speed. In order to read the two-dimensional distance and position, a plurality of combinations of the ultraviolet light emitting part and the light receiving part are arranged linearly, the light from the light emitting point is irradiated to the object, and the reflected light is received by the light receiving part. The distance to the object becomes clear by the product of the difference between the time when light is emitted and the time when light is received and the speed of light. Further, the coordinates on the plane are a plurality of light emitting parts and light receiving parts, and can be read from the coordinates at the part where the difference between the light emitting time and the light receiving time is the smallest. From the above, it is possible to obtain three-dimensional coordinate information by combining the coordinates of an object in a plane (two-dimensional) and a plurality of the above-mentioned sensors.

更に、上述した空間浮遊映像表示装置として3次元の空間浮遊映像を得る方法について図6を用いて説明する。図6は、空間浮遊映像表示装置で用いる3次元映像表示の原理の説明図である。図4に示す表示装置1の液晶表示パネル11の映像表示画面の画素に合わせて水平レンチキュラーレンズを配置する。この結果、図6に示すように画面水平方向の運動視差P1、P2、P3の3方向からの運動視差を表示するには、3方向からの映像を3画素ごとに1つのブロックとして、1画素ごとに3方向からの映像情報を表示し、対応するレンチキュラーレンズ(図6中に縦線で示す)の作用により光の出射方向を制御して3方向に分離出射する。この結果、3視差の立体像が表示可能となる。 Further, a method of obtaining a three-dimensional floating image of space as the above-mentioned floating image of space image will be described with reference to FIG. FIG. 6 is an explanatory diagram of the principle of three-dimensional image display used in the space floating image display device. A horizontal lenticular lens is arranged so as to match the pixels of the image display screen of the liquid crystal display panel 11 of the display device 1 shown in FIG. As a result, as shown in FIG. 6, in order to display the motion deviation from the three directions P1, P2, and P3 in the horizontal direction of the screen, the image from the three directions is regarded as one block for every three pixels, and one pixel. Image information from three directions is displayed for each, and the emission direction of light is controlled by the action of the corresponding lenticular lens (indicated by a vertical line in FIG. 6) to separate and emit light in three directions. As a result, a three-dimensional image with three parallax can be displayed.

<反射型偏光板>
本実施例の空間浮遊映像表示装置において、偏光分離部材101は、映像の画質を決めるコントラスト性能を、一般的なハーフミラーよりも向上させるために用いられる。本実施例の偏光分離部材101の一例として反射型偏光板の特性を説明する。図7は、反射型偏光板の特性を評価した測定系の説明図である。図7の反射型偏光板の偏光軸に対して垂直方向からの光線入射角に対する透過特性と反射特性をV-AOIとして、図8及び図9にそれぞれ示す。同様に反射型偏光板の偏光軸に対して水平方向からの光線入射角に対する透過特性と反射特性をH-AOIとして、図10及び図11にそれぞれ示す。
<Reflective polarizing plate>
In the spatial floating image display device of this embodiment, the polarization splitting member 101 is used to improve the contrast performance that determines the image quality of the image as compared with a general half mirror. The characteristics of the reflective polarizing plate will be described as an example of the polarization separating member 101 of this embodiment. FIG. 7 is an explanatory diagram of a measurement system for evaluating the characteristics of the reflective polarizing plate. The transmission characteristics and reflection characteristics with respect to the incident angle of light rays from the direction perpendicular to the polarization axis of the reflective polarizing plate of FIG. 7 are shown as V-AOI in FIGS. 8 and 9, respectively. Similarly, the transmission characteristics and the reflection characteristics with respect to the incident angle of light rays from the horizontal direction with respect to the polarization axis of the reflective polarizing plate are shown as H-AOI in FIGS. 10 and 11, respectively.

図8及び図9に示すようにグリッド構造の反射型偏光板は、偏光軸に対して垂直方向からの光についての特性は低下する。このため、偏光軸に沿った仕様が望ましく、液晶表示パネルからの出射映像光を挟角で出射可能な本実施例の光源が理想的な光源となる。また、水平方向の特性も同様に斜めからの光については特性低下がある。以上の特性を考慮して、以下、液晶表示パネルからの出射映像光をより挟角に出射可能な光源を液晶表示パネルのバックライトとして使用する、本実施例の構成例について説明する。これにより、高コントラストな空間浮遊映像が提供可能となる。 As shown in FIGS. 8 and 9, the reflective polarizing plate having a grid structure has reduced characteristics for light from a direction perpendicular to the polarization axis. Therefore, the specifications along the polarization axis are desirable, and the light source of the present embodiment capable of emitting the image light emitted from the liquid crystal display panel at a narrow angle is an ideal light source. Similarly, the characteristics in the horizontal direction also deteriorate with respect to light from an angle. In consideration of the above characteristics, a configuration example of this embodiment will be described below in which a light source capable of emitting the image light emitted from the liquid crystal display panel at a narrower angle is used as the backlight of the liquid crystal display panel. This makes it possible to provide a high-contrast spatial floating image.

<表示装置>
次に、本実施例の表示装置1について図を用いて説明する。本実施例の表示装置1は、映像表示素子11(液晶表示パネル)と共に、その光源を構成する光源装置13を備えており、図12では、光源装置13を液晶表示パネルと共に展開斜視図として示している。
<Display device>
Next, the display device 1 of this embodiment will be described with reference to the drawings. The display device 1 of this embodiment includes a light source device 13 constituting the light source together with the image display element 11 (liquid crystal display panel), and in FIG. 12, the light source device 13 is shown as a developed perspective view together with the liquid crystal display panel. ing.

この液晶表示パネル(映像表示素子11)は、図12に矢印30で示すように、バックライト装置である光源装置13からの光により挟角な拡散特性を有する、即ち、指向性(直進性)が強く、かつ、偏光面を一方向に揃えたレーザ光に似た特性の照明光束を得て、入力される映像信号に応じて変調をかけた映像光を、再帰反射部材2により反射し透明な部材100を透過して実像である空間浮遊像を形成する。(図1参照)。また、図12では、表示装置1を構成する液晶表示パネル11と、更に、光源装置13からの出射光束の指向特性を制御する光方向変換パネル54、および、必要に応じて挟角拡散板(図示せず)を備えて構成されている。即ち、液晶表示パネル11の両面には偏光板が設けられ、特定の偏波の映像光が映像信号により光の強度を変調して出射する(図12の矢印30を参照)構成となっている。これにより、所望の映像を指向性(直進性)の高い特定偏波の光として、光方向変換パネル54を介して、再帰反射部材2に向けて投射し、再帰反射部材2で反射後、店舗(空間)の外部の監視者の眼に向けて透過して空間浮遊映像3を形成する。なお、上述した光方向変換パネル54の表面には保護カバー50(図13、図14を参照)を設けてよい。 As shown by the arrow 30 in FIG. 12, the liquid crystal display panel (image display element 11) has a diffusion characteristic with a narrow angle due to the light from the light source device 13 which is a backlight device, that is, directional (straightness). The retroreflective member 2 reflects the video light that is modulated according to the input video signal to obtain an illumination light beam that is strong and has characteristics similar to laser light with the planes of polarization aligned in one direction, and is transparent. A spatial floating image, which is a real image, is formed by passing through the member 100. (See FIG. 1). Further, in FIG. 12, a liquid crystal display panel 11 constituting the display device 1, an optical direction conversion panel 54 for controlling the directivity characteristic of the luminous flux emitted from the light source device 13, and an angle diffuser plate (if necessary). (Not shown). That is, polarizing plates are provided on both sides of the liquid crystal display panel 11, and the video light having a specific polarization is emitted by modulating the light intensity with the video signal (see the arrow 30 in FIG. 12). .. As a result, the desired image is projected as light having a specific polarization having high directivity (straightness) toward the retroreflective member 2 via the optical direction conversion panel 54, reflected by the retroreflective member 2, and then stored in the store. The spatial floating image 3 is formed by transmitting through the eyes of the observer outside the (space). A protective cover 50 (see FIGS. 13 and 14) may be provided on the surface of the above-mentioned optical direction conversion panel 54.

本実施例では、光源装置13からの出射光束(矢印)30の利用効率を向上させ、消費電力を大幅に低減するために、光源装置13と液晶表示パネル11を含んで構成される表示装置1において、光源装置13からの光(矢印30)を、再帰反射部材2に向けて投射し、再帰反射部材2で反射後、透明な部材100(ウィンドガラス105等)の表面に設けた透明シート(図示せず)により、浮遊映像を所望の位置に形成するよう指向性を制御することもできる。具体的には、この透明シートは、フレネルレンズやリニアフレネルレンズ等の光学部品によって高い指向性を付与したまま浮遊映像の結像位置を制御する。このことによれば、表示装置1からの映像光は、レーザ光のようにショーウィンド105の外側(例えば、歩道)にいる観察者に対して高い指向性(直進性)で効率良く届くこととなり、その結果、高品位な浮遊映像を高解像度で表示すると共に、光源装置13のLED素子201を含む表示装置1による消費電力を著しく低減することが可能となる。 In this embodiment, the display device 1 including the light source device 13 and the liquid crystal display panel 11 is configured in order to improve the utilization efficiency of the luminous flux (arrow) 30 emitted from the light source device 13 and significantly reduce the power consumption. In the transparent sheet (arrow 30) provided on the surface of the transparent member 100 (wind glass 105 or the like) after the light (arrow 30) from the light source device 13 is projected toward the retroreflective member 2 and reflected by the retroreflective member 2. By (not shown), the directivity can be controlled so as to form a floating image at a desired position. Specifically, this transparent sheet controls the imaging position of a floating image while imparting high directivity by an optical component such as a Fresnel lens or a linear Fresnel lens. According to this, the image light from the display device 1 efficiently reaches the observer outside the show window 105 (for example, a sidewalk) with high directivity (straightness) like a laser beam. As a result, it is possible to display a high-quality floating image with high resolution and to significantly reduce the power consumption of the display device 1 including the LED element 201 of the light source device 13.

<表示装置の例1>
図13には、表示装置1の具体的な構成の一例を示す。図13では、図12の光源装置13の上に液晶表示パネル11と光方向変換パネル54を配置している。この光源装置13は、図12に示したケース上に、例えば、プラスチックなどにより形成され、その内部にLED素子201、導光体203を収納して構成されており、導光体203の端面には、図12等にも示したように、それぞれのLED素子201からの発散光を略平行光束に変換するために、受光部に対して対面に向かって徐々に断面積が大きくなる形状を有し、内部を伝搬する際に複数回全反射することで発散角が徐々に小さくなるような作用を有するレンズ形状を設けている。その上面には、表示装置1を構成する液晶表示パネル11が取り付けられている。また、光源装置13のケースのひとつの側面(本例では左側の端面)には、半導体光源であるLED素子201や、その制御回路を実装したLED基板202が取り付けられると共に、LED基板202の外側面には、LED素子および制御回路で発生する熱を冷却するための部材であるヒートシンクが取り付けられてもよい。
<Example 1 of display device>
FIG. 13 shows an example of a specific configuration of the display device 1. In FIG. 13, a liquid crystal display panel 11 and an optical direction conversion panel 54 are arranged on the light source device 13 of FIG. The light source device 13 is formed of, for example, plastic on the case shown in FIG. 12, and is configured by accommodating the LED element 201 and the light guide body 203 inside the case, and is configured on the end surface of the light guide body 203. As shown in FIG. 12 and the like, has a shape in which the cross-sectional area gradually increases toward the light receiving portion in order to convert the divergent light from each LED element 201 into a substantially parallel light beam. However, a lens shape is provided that has the effect of gradually reducing the divergence angle by totally reflecting the light a plurality of times when propagating inside. A liquid crystal display panel 11 constituting the display device 1 is attached to the upper surface thereof. Further, an LED element 201 which is a semiconductor light source and an LED board 202 on which the control circuit thereof is mounted are attached to one side surface (the left end face in this example) of the case of the light source device 13, and the outside of the LED board 202. A heat sink, which is a member for cooling the heat generated by the LED element and the control circuit, may be attached to the side surface.

また、光源装置13のケースの上面に取り付けられる液晶表示パネルのフレーム(図示せず)には、当該フレームに取り付けられた液晶表示パネル11と、更に、当該液晶表示パネルに電気的に接続されたFPC(Flexible Printed Circuits:フレキシブル配線基板)(図示せず)などが取り付けられて構成される。即ち、液晶表示素子である液晶表示パネル11は、固体光源であるLED素子201と共に、電子装置を構成する制御回路(図示せず)からの制御信号に基づいて、透過光の強度を変調することによって表示映像を生成する。この時、生成される映像光は拡散角度が狭く特定の偏波成分のみとなるため、映像信号により駆動された面発光レーザ映像源に近い、従来にない新しい表示装置が得られることとなる。なお、現状では、レーザ装置により、上述した表示装置1で得られる画像と同等のサイズのレーザ光束を得ることは、技術的にも安全上からも不可能である。そこで、本実施例では、例えば、LED素子を備えた一般的な光源からの光束から、上述した面発光レーザ映像光に近い光を得る。 Further, the frame (not shown) of the liquid crystal display panel attached to the upper surface of the case of the light source device 13 is electrically connected to the liquid crystal display panel 11 attached to the frame and further to the liquid crystal display panel. An FPC (Flexible Printed Circuits: Flexible Wiring Board) (not shown) or the like is attached and configured. That is, the liquid crystal display panel 11 which is a liquid crystal display element, together with the LED element 201 which is a solid light source, modulates the intensity of transmitted light based on a control signal from a control circuit (not shown) constituting an electronic device. Generates a display image by. At this time, since the generated video light has a narrow diffusion angle and only a specific polarization component, it is possible to obtain a new display device that is close to a surface-emitting laser image source driven by a video signal. At present, it is technically and safety-wise impossible to obtain a laser luminous flux having the same size as the image obtained by the display device 1 described above by using the laser device. Therefore, in this embodiment, for example, light close to the above-mentioned surface emission laser image light is obtained from a light flux from a general light source provided with an LED element.

続いて、光源装置13のケース内に収納されている光学系の構成について、図13と共に、図14を参照しながら詳細に説明する。図13および図14は断面図であるため、光源を構成する複数のLED素子201が1つだけ示されており、これらは導光体203の受光端面203aの形状により略コリメート光に変換される。このため導光体端面の受光部とLED素子は所定の位置関係を保って取り付けられている。なお、この導光体203は、各々、例えば、アクリル等の透光性の樹脂により形成されている。そして、この導光体端部のLED受光面は、例えば、放物断面を回転して得られる円錐凸形状の外周面を有し、その頂部では、その中央部に凸部(即ち、凸レンズ面)を形成した凹部を有し、その平面部の中央部には、外側に突出した凸レンズ面(あるいは、内側に凹んだ凹レンズ面でも良い)を有するものである(図示せず)。なお、LED素子201を取り付ける導光体の受光部外形形状は、円錐形状の外周面を形成する放物面形状をなし、LED素子から周辺方向に出射する光をその内部で全反射することが可能な角度の範囲内において設定され、あるいは、反射面が形成されている。 Subsequently, the configuration of the optical system housed in the case of the light source device 13 will be described in detail with reference to FIG. 13 and FIG. Since FIGS. 13 and 14 are cross-sectional views, only one plurality of LED elements 201 constituting the light source are shown, and these are converted into substantially collimated light by the shape of the light receiving end surface 203a of the light guide body 203. .. Therefore, the light receiving portion on the end surface of the light guide body and the LED element are attached while maintaining a predetermined positional relationship. Each of the light guides 203 is made of a translucent resin such as acrylic. The LED light receiving surface at the end of the light guide has, for example, a conical convex outer peripheral surface obtained by rotating a paraboloid cross section, and at the top thereof, a convex portion (that is, a convex lens surface) is formed at the center thereof. ) Is formed, and a convex lens surface protruding outward (or a concave lens surface recessed inward may be used) is provided in the central portion of the flat surface portion (not shown). The external shape of the light receiving portion of the light receiving body to which the LED element 201 is attached has a radial surface shape forming a conical outer peripheral surface, and the light emitted from the LED element in the peripheral direction may be totally reflected inside the light receiving portion. It is set within a possible angle range, or a reflective surface is formed.

他方、LED素子201は、その回路基板である、LED基板202の表面上の所定の位置にそれぞれ配置されている。このLED基板202は、LEDコリメータ(受光端面203a)に対して、その表面上のLED素子201が、それぞれ、前述した凹部の中央部に位置するように配置されて固定される。 On the other hand, the LED element 201 is arranged at a predetermined position on the surface of the LED substrate 202, which is the circuit board thereof. The LED substrate 202 is fixed to the LED collimator (light receiving end surface 203a) by arranging and fixing the LED elements 201 on the surface thereof so as to be located at the center of the recess described above.

かかる構成によれば、導光体203の受光端面203aの形状によって、LED素子201から放射される光は略平行光として取り出すことが可能となり、発生した光の利用効率を向上することが可能となる。 According to this configuration, the shape of the light receiving end surface 203a of the light guide body 203 makes it possible to take out the light radiated from the LED element 201 as substantially parallel light, and it is possible to improve the utilization efficiency of the generated light. Become.

以上述べたように、光源装置13は、導光体203の端面に設けた受光部である受光端面203aに光源であるLED素子201を複数並べた光源ユニットを取り付けて構成され、LED素子からの発散光束を導光体端面の受光端面203aのレンズ形状によって略平行光として、矢印で示すように、導光体203内部を導光し(図面に平行な方向)、光束方向変換手段204によって、導光体に対して略平行に配置された液晶表示パネル11に向かって(図面から手前に垂直な方向)出射する。導光体内部または表面の形状によってこの光束方向変換手段の分布(密度)を最適化することで、液晶表示パネル11に入射する光束の均一性を制御することができる。上述した光束方向変換手段204は導光体表面の形状や導光体内部に例えば屈折率の異なる部分を設けることで、導光体内を伝搬した光束を、導光体に対して略平行に配置された液晶表示パネル11に向かって(図面から手前に垂直な方向)出射する。この時、液晶表示パネル11を画面中央に正対し画面対角寸法と同じ位置に視点を置いた状態で画面中央と画面周辺部の輝度を比較した場合の相対輝度比が20%以上あれば実用上問題なく、30%を超えていれば更に優れた特性となる。 As described above, the light source device 13 is configured by attaching a light source unit in which a plurality of LED elements 201 as a light source are arranged on a light receiving end surface 203a which is a light receiving portion provided on the end surface of the light guide body 203, and is configured from the LED element. The divergent light is guided as substantially parallel light by the lens shape of the light receiving end surface 203a of the light source end surface, and the inside of the light source 203 is guided (direction parallel to the drawing) as shown by the arrow, and the light source direction changing means 204 is used. The light is emitted toward the liquid crystal display panel 11 arranged substantially parallel to the light guide (direction perpendicular to the front from the drawing). By optimizing the distribution (density) of the light flux direction changing means according to the shape of the inside or the surface of the light guide body, the uniformity of the light flux incident on the liquid crystal display panel 11 can be controlled. The above-mentioned luminous flux direction changing means 204 arranges the light flux propagating in the light guide body substantially parallel to the light guide body by providing, for example, a portion having a different refractive index inside the light guide body and the shape of the surface of the light guide body. It emits light toward the liquid crystal display panel 11 (in the direction perpendicular to the front from the drawing). At this time, it is practical if the relative brightness ratio when comparing the brightness of the center of the screen and the peripheral portion of the screen with the liquid crystal display panel 11 facing the center of the screen and the viewpoint at the same position as the diagonal dimension of the screen is 20% or more. There is no problem, and if it exceeds 30%, the characteristics will be even better.

なお、図13は上述した導光体203とLED素子201を含む光源装置13において、偏光変換する本実施例の光源の構成とその作用を説明するための断面配置図である。図13において、光源装置13は、例えば、プラスチックなどにより形成される表面または内部に光束方向変換手段204を設けた導光体203、光源としてのLED素子201、反射シート205、位相差板206、レンチキュラーレンズなどから構成されており、その上面には、光源光入射面と映像光出射面に偏光板を備える液晶表示パネル11が取り付けられている。 Note that FIG. 13 is a cross-sectional layout diagram for explaining the configuration of the light source of the present embodiment for polarization conversion and its operation in the light source device 13 including the light guide body 203 and the LED element 201 described above. In FIG. 13, the light source device 13 includes, for example, a light guide body 203 provided with a light beam direction changing means 204 on a surface or inside formed of plastic or the like, an LED element 201 as a light source, a reflection sheet 205, and a retardation plate 206. It is composed of a lenticular lens or the like, and a liquid crystal display panel 11 having a light source light incident surface and a video light emitting surface having a polarizing plate is attached to the upper surface thereof.

また、光源装置13に対応した液晶表示パネル11の光源光入射面(図の下面)にはフィルムまたはシート状の反射型偏光板49を設けており、LED素子201から出射した自然光束210のうち片側の偏波(例えばP波)212を選択的に反射させ、導光体203の一方(図の下方)の面に設けた反射シート205で反射して、再度、液晶表示パネル52に向かうようにする。そこで、反射シート205と導光体203の間もしくは導光体203と反射型偏光板49の間に位相差板(λ/4板)を設けて反射シート205で反射させ、2回通過させることで反射光束をP偏光からS偏光に変換し、映像光としての光源光の利用効率を向上する。液晶表示パネル11で映像信号により光強度を変調された映像光束は(図13の矢印213)、再帰反射部材2に入射して、図1に示したように、反射後にウィンドガラス105を透過して店舗(空間)の内部または外部に実像である空間浮遊像を得ることができる。 Further, a film or sheet-shaped reflective polarizing plate 49 is provided on the light incident surface (lower surface of the figure) of the liquid crystal display panel 11 corresponding to the light source device 13, and among the natural light beams 210 emitted from the LED element 201. The polarization (for example, P wave) 212 on one side is selectively reflected, reflected by the reflection sheet 205 provided on one surface (lower part of the figure) of the light guide 203, and directed toward the liquid crystal display panel 52 again. To. Therefore, a retardation plate (λ / 4 plate) is provided between the reflective sheet 205 and the light guide 203 or between the light guide 203 and the reflective polarizing plate 49, and the light is reflected by the reflective sheet 205 and passed twice. Converts the reflected light beam from P-polarized light to S-polarized light to improve the efficiency of using the light source light as the image light. The image luminous flux whose light intensity is modulated by the image signal on the liquid crystal display panel 11 (arrow 213 in FIG. 13) is incident on the retroreflective member 2 and passes through the wind glass 105 after reflection as shown in FIG. It is possible to obtain a floating image of space, which is a real image, inside or outside the store (space).

図14は、図13と同様に、導光体203とLED素子201を含む光源装置13において、偏光変換する本実施例の光源の構成と作用を説明するための断面配置図である。光源装置13も、同様に、例えばプラスチックなどにより形成される表面または内部に光束方向変換手段204を設けた導光体203、光源としてのLED素子201、反射シート205、位相差板206、レンチキュラーレンズなどから構成されており、その上面には、映像表示素子として、光源光入射面と映像光出射面に偏光板を備える液晶表示パネル11が取り付けられている。 FIG. 14 is a cross-sectional layout diagram for explaining the configuration and operation of the light source of the present embodiment for polarization conversion in the light source device 13 including the light guide body 203 and the LED element 201, similarly to FIG. Similarly, the light source device 13 also has a light guide body 203 provided with a light beam direction changing means 204 on the surface or inside formed of, for example, plastic, an LED element 201 as a light source, a reflection sheet 205, a retardation plate 206, and a lenticular lens. As an image display element, a liquid crystal display panel 11 having a light source light incident surface and an image light emitting surface having a polarizing plate is attached to the upper surface thereof.

また、光源装置13に対応した液晶表示パネル11の光源光入射面(図の下面)にはフィルムまたはシート状の反射型偏光板49を設け、LED光源201から出射した自然光束210うち片側の偏波(例えばS波)211を選択的に反射させ、導光体203の一方(図の下方)の面に設けた反射シート205で反射して、再度液晶表示パネル11に向かう。反射シート205と導光体203の間もしくは導光体203と反射型偏光板49の間に位相差板(λ/4板)を設けて反射シート205で反射させ、2回通過させることで反射光束をS偏光からP偏光に変換し、映像光として光源光の利用効率を向上する。液晶表示パネル11で映像信号により光強度変調された映像光束は(図14の矢印214)、再帰反射部材2に入射して、図1に示すように、反射後にウィンドガラス105を透過して店舗(空間)の内部または外部に実像である空間浮遊像を得ることができる。 Further, a film or sheet-shaped reflective polarizing plate 49 is provided on the light incident surface (lower surface of the figure) of the liquid crystal display panel 11 corresponding to the light source device 13, and one side of the natural light beam 210 emitted from the LED light source 201 is biased. The wave (for example, S wave) 211 is selectively reflected, reflected by the reflection sheet 205 provided on one surface (lower part of the figure) of the light guide body 203, and directed to the liquid crystal display panel 11 again. A retardation plate (λ / 4 plate) is provided between the light guide sheet 205 and the light guide 203 or between the light guide 203 and the reflective polarizing plate 49, and the light is reflected by the reflection sheet 205 and reflected twice. The light beam is converted from S-polarized light to P-polarized light, and the utilization efficiency of the light source light as video light is improved. The image luminous flux whose light intensity is modulated by the image signal on the liquid crystal display panel 11 (arrow 214 in FIG. 14) enters the retroreflective member 2 and, as shown in FIG. 1, passes through the wind glass 105 after reflection and is stored in the store. A spatial floating image, which is a real image, can be obtained inside or outside the (space).

図13および図14に示す光源装置においては、対応する液晶表示パネル11の光入射面に設けた偏光板の作用の他に、反射型偏光板で片側の偏光成分を反射するため、理論上得られるコントラスト比は、反射型偏光板のクロス透過率の逆数と液晶表示パネルに付帯した2枚の偏光板により得られるクロス透過率の逆数を乗じたものとなる。これにより、高いコントラスト性能が得られる。実際には、表示画像のコントラスト性能が10倍以上向上することを実験により確認した。この結果、自発光型の有機ELに比較しても遜色ない高品位な映像が得られた。 In the light source device shown in FIGS. 13 and 14, in addition to the action of the polarizing plate provided on the light incident surface of the corresponding liquid crystal display panel 11, the reflective polarizing plate reflects the polarization component on one side, which is theoretically obtained. The contrast ratio obtained is the product of the inverse of the cross transmittance of the reflective polarizing plate and the inverse of the cross transmittance obtained by the two polarizing plates attached to the liquid crystal display panel. As a result, high contrast performance can be obtained. In fact, it was confirmed by experiments that the contrast performance of the displayed image was improved by 10 times or more. As a result, a high-quality image comparable to that of the self-luminous organic EL was obtained.

<表示装置の例2>
図15には、表示装置1の具体的な構成の他の一例を示す。図15の光源装置13は、図17等の光源装置と同様である。この光源装置13は、例えばプラスチックなどのケース内にLED、コリメータ、合成拡散ブロック、導光体等を収納して構成されており、その上面には液晶表示パネル11が取り付けられている。また、光源装置13のケースのひとつの側面には、半導体光源であるLED素子14a,14bや、その制御回路を実装したLED基板102が取り付けられると共に、LED基板102の外側面には、LED素子および制御回路で発生する熱を冷却するための部材であるヒートシンク103が取り付けられている(図17、図18等も参照)。
<Example 2 of display device>
FIG. 15 shows another example of a specific configuration of the display device 1. The light source device 13 of FIG. 15 is similar to the light source device of FIG. 17 and the like. The light source device 13 is configured by accommodating an LED, a collimator, a synthetic diffusion block, a light guide, and the like in a case such as plastic, and a liquid crystal display panel 11 is attached to the upper surface thereof. Further, LED elements 14a and 14b, which are semiconductor light sources, and an LED board 102 on which the control circuit thereof is mounted are attached to one side surface of the case of the light source device 13, and LED elements are mounted on the outer surface of the LED board 102. A heat sink 103, which is a member for cooling the heat generated in the control circuit, is attached (see also FIGS. 17 and 18).

また、ケースの上面に取り付けられた液晶表示パネルフレームには、当該フレームに取り付けられた液晶表示パネル11と、更に、液晶表示パネル11に電気的に接続されたFPC403(図7参照)などが取り付けられて構成されている。即ち、液晶表示素子である液晶表示パネル11は、固体光源であるLED素子14a,14bと共に、電子装置を構成する制御回路(ここでは図示せず)からの制御信号に基づいて、透過光の強度を変調することによって表示映像を生成する。 Further, the liquid crystal display panel 11 attached to the frame and the FPC 403 electrically connected to the liquid crystal display panel 11 (see FIG. 7) are attached to the liquid crystal display panel frame attached to the upper surface of the case. It is composed of. That is, the liquid crystal display panel 11 which is a liquid crystal display element has the intensity of transmitted light based on the control signal from the control circuit (not shown here) constituting the electronic device together with the LED elements 14a and 14b which are solid light sources. Is generated by modulating the display image.

<表示装置の例3>
続いて、図16を用いて表示装置1の具体的な構成の他の例を説明する。この表示装置1の光源装置は、LEDからの自然光(P偏波とS偏波が混在)の発散光束をLEDコリメータ18により略平行光束に変換し、反射型導光体304により液晶表示パネル11に向け反射する。反射光は液晶表示パネル11と反射型導光体304の間に配置された波長板と反射型偏光板49に入射する。反射型偏光板で特定の偏波(例えばS偏波)が反射され波長板で位相が変換され反射面に戻り再び位相差板を通過して反射型偏光板を透過する偏波(例えばP偏波)に変換される。
<Example 3 of display device>
Subsequently, another example of a specific configuration of the display device 1 will be described with reference to FIG. The light source device of the display device 1 converts the divergent light beam of natural light (mixed with P-polarized light and S-polarized light) from the LED into a substantially parallel light beam by the LED collimator 18, and the liquid crystal display panel 11 by the reflective light guide body 304. Reflects towards. The reflected light is incident on the wave plate and the reflective polarizing plate 49 arranged between the liquid crystal display panel 11 and the reflective light guide 304. A specific polarization (for example, S polarization) is reflected by the reflection type polarizing plate, the phase is converted by the wavelength plate, and the polarization returns to the reflection surface, passes through the retardation plate again, and passes through the reflection type polarizing plate (for example, P bias). Wave) is converted.

この結果、LEDからの自然光は特定の偏波(例えばP偏波)に揃えられ、液晶表示パネル11に入射し、映像信号に合わせて輝度変調されパネル面に映像を表示する。上述の例と同様に光源を構成する複数のLEDが示されており(ただし、縦断面のため図16では1個のみ図示)、これらはLEDコリメータ18に対して所定の位置に取り付けられている。なお、このLEDコリメータ18は、各々、例えばアクリル等の透光性の樹脂またはガラスにより形成されている。そして、このLEDコリメータ18は、放物断面を回転して得られる円錐凸形状の外周面を有すると共に、その頂部では、その中央部に凸部(即ち、凸レンズ面)を形成した凹部を有する。また、その平面部の中央部には、外側に突出した凸レンズ面(あるいは、内側に凹んだ凹レンズ面でも良い)を有している。なお、LEDコリメータ18の円錐形状の外周面を形成する放物面は、LEDから周辺方向に出射する光をその内部で全反射することが可能な角度の範囲内において設定され、あるいは、反射面が形成されている。 As a result, the natural light from the LED is aligned with a specific polarization (for example, P polarization), is incident on the liquid crystal display panel 11, is brightly modulated according to the video signal, and displays the video on the panel surface. Similar to the above example, a plurality of LEDs constituting the light source are shown (however, only one is shown in FIG. 16 because of the vertical cross section), and these are mounted in a predetermined position with respect to the LED collimator 18. .. The LED collimator 18 is made of a translucent resin such as acrylic or glass, respectively. The LED collimator 18 has a conical convex outer peripheral surface obtained by rotating a parabolic cross section, and at the top thereof, has a concave portion having a convex portion (that is, a convex lens surface) formed in the central portion thereof. Further, the central portion of the flat surface portion has a convex lens surface protruding outward (or a concave lens surface recessed inward). The paraboloid surface forming the conical outer peripheral surface of the LED collimator 18 is set within an angle range at which light emitted from the LED in the peripheral direction can be totally reflected inside the paraboloid surface, or is a reflective surface. Is formed.

以上の構成は図17、図18等に示した表示装置の光源装置と同様の構成である。更に図16に示したLEDコリメータ15により略平行光に変換された光は、反射型導光体304で反射し反射型偏光板49の作用により特定の偏波の光を透過させ、反射した他方の偏波の光は再度導光体304を透過して、液晶表示パネル11と接しない導光体の他方の面に設けた反射板271で反射する。この時、反射板271と液晶表示パネル11の間に配置した位相差板(λ/4板)270を2度通過することで偏光変換され、再び導光体304を透過して、反対面に設けた反射型偏光板49を透過して、偏光方向を揃えて液晶表示パネル11に入射させる。この結果、光源の光を全て利用できるので光の利用効率が2倍になる。 The above configuration is the same as that of the light source device of the display device shown in FIGS. 17, 18 and the like. Further, the light converted into substantially parallel light by the LED collimator 15 shown in FIG. 16 is reflected by the reflective light guide 304, and the light of a specific polarization is transmitted by the action of the reflective polarizing plate 49 and reflected. The polarized light of the above passes through the light guide 304 again and is reflected by the reflector 271 provided on the other surface of the light guide that does not come into contact with the liquid crystal display panel 11. At this time, the polarization is converted by passing twice through the retardation plate (λ / 4 plate) 270 arranged between the reflection plate 271 and the liquid crystal display panel 11, and the light guide body 304 is transmitted again to the opposite surface. It is transmitted through the provided reflective polarizing plate 49, and is incident on the liquid crystal display panel 11 with the polarization directions aligned. As a result, all the light from the light source can be used, so that the light utilization efficiency is doubled.

液晶表示パネルからの出射光は、従来のTVセットでは画面水平方向(図22(a)X軸で表示)と画面垂直方向(図22(b)Y軸で表示)ともに同様な拡散特性を持っている。これに対して、本実施例の液晶表示パネルからの出射光束の拡散特性は、例えば図22の例1に示すように輝度が正面視(角度0度)の50%になる視野角が13度とすることで、従来の62度に対して1/5となる。同様に垂直方向の視野角は上下不均等として上側の視野角を下側の視野角に対して1/3程度に抑えるように反射型導光体の反射角度と反射面の面積等を最適化する。この結果、従来の液晶TVに比べ監視方向に向かう映像光量が大幅に向上し、輝度は50倍以上となる。 The light emitted from the liquid crystal display panel has the same diffusion characteristics in the conventional TV set in both the horizontal direction of the screen (displayed on the X-axis in FIG. 22 (a)) and the vertical direction of the screen (displayed on the Y-axis in FIG. 22 (b)). ing. On the other hand, as for the diffusion characteristic of the luminous flux emitted from the liquid crystal display panel of this embodiment, for example, as shown in Example 1 of FIG. 22, the viewing angle at which the brightness is 50% of the front view (angle 0 degree) is 13 degrees. By setting it to, it becomes 1/5 of the conventional 62 degrees. Similarly, the viewing angle in the vertical direction is uneven up and down, and the reflection angle of the reflective light guide and the area of the reflecting surface are optimized so that the upper viewing angle is suppressed to about 1/3 of the lower viewing angle. do. As a result, the amount of video light in the monitoring direction is significantly improved as compared with the conventional liquid crystal TV, and the brightness is 50 times or more.

更に、図22の例2に示す視野角特性とすれば輝度が正面視(角度0度)の50%になる視野角が5度とすることで従来の62度に対して1/12となる。同様に垂直方向の視野角は上下均等として視野角を従来に対して1/12程度に抑えるように反射型導光体の反射角度と反射面の面積等を最適化する。この結果、従来の液晶TVに比べ監視方向に向かう映像光量が大幅に向上し、輝度は100倍以上となる。以上述べたように視野角を挟角とすることで監視方向に向かう光束量を集中できるので光の利用効率が大幅に向上する。この結果、従来のTV用の液晶表示パネルを使用しても、光源装置の光拡散特性を制御することで同様な消費電力で大幅な輝度向上が実現可能で、明るい屋外に向けての空間浮遊映像表示装置に対応した表示装置とすることができる。 Further, if the viewing angle characteristic shown in Example 2 of FIG. 22 is used, the brightness becomes 50% of the front view (angle 0 degree). By setting the viewing angle to 5 degrees, it becomes 1/12 of the conventional 62 degrees. .. Similarly, the viewing angle in the vertical direction is set to be even in the vertical direction, and the reflection angle of the reflective light guide and the area of the reflecting surface are optimized so that the viewing angle is suppressed to about 1/12 of the conventional one. As a result, the amount of video light in the monitoring direction is significantly improved as compared with the conventional liquid crystal TV, and the brightness is 100 times or more. As described above, by setting the viewing angle as the narrowing angle, the amount of light flux toward the monitoring direction can be concentrated, so that the efficiency of light utilization is greatly improved. As a result, even if a conventional liquid crystal display panel for TV is used, it is possible to realize a significant improvement in brightness with the same power consumption by controlling the light diffusion characteristics of the light source device, and the space floats toward bright outdoors. It can be a display device compatible with a video display device.

大型の液晶表示パネルを使用する場合には、画面周辺の光は画面中央を監視者が正対した場合に監視者の方向に向かうように内側に向けることで、画面明るさの全面性が向上する。図20は監視者のパネルからの距離Lと、パネルサイズ(画面比16:10)とをパラメータとしたときのパネル長辺と短辺の収斂角度を求めたものである。画面を縦長として監視する場合には、短辺に合わせて収斂角度を設定すればよく、例えば22”(インチ)パネルの縦使いで監視距離が0.8mの場合には収斂角度を10度とすれば画面4コーナからの映像光を有効に監視者に向けることができる。 When using a large LCD panel, the light around the screen is directed inward so that the center of the screen faces the observer when the observer faces it, thereby improving the overall brightness of the screen. do. FIG. 20 shows the convergence angles of the long side and the short side of the panel when the distance L from the observer's panel and the panel size (screen ratio 16:10) are used as parameters. When monitoring the screen vertically, the convergence angle may be set according to the short side. For example, when the 22 "(inch) panel is used vertically and the monitoring distance is 0.8 m, the convergence angle is 10 degrees. Then, the image light from the screen 4 corner can be effectively directed to the observer.

同様に、15”(インチ)パネルの縦使いで監視する場合には監視距離が0.8mの場合には収斂角度を7度とすれば画面4コーナからの映像光を有効に監視者に向けることができる。以上述べたように液晶表示パネルのサイズ及び縦使いか横使いかによって画面周辺の映像光を、画面中央を監視するのに最適な位置にいる監視者に向けることで画面明るさの全面性を向上できる。 Similarly, when monitoring with a vertical use of a 15 "(inch) panel, if the monitoring distance is 0.8 m and the convergence angle is 7 degrees, the image light from the screen 4 corners is effectively directed to the observer. As described above, depending on the size of the liquid crystal display panel and whether it is used vertically or horizontally, the screen brightness can be directed to the observer at the optimum position for monitoring the center of the screen. Can improve the overallness of.

基本構成としては、図16に示すように光源装置により挟角な指向特性の光束を液晶表示パネル11に入射させ、映像信号に合わせて輝度変調することで、液晶表示パネル11の画面上に表示した映像情報を、再帰反射部材で反射させ得られた空間浮遊映像を、透明な部材100を介して室外または室内に表示する。 As a basic configuration, as shown in FIG. 16, a light flux having a narrow-angle directional characteristic is incident on the liquid crystal display panel 11 by a light source device, and the luminance is modulated according to the video signal, so that the light flux is displayed on the screen of the liquid crystal display panel 11. The spatially floating image obtained by reflecting the generated image information by the retroreflective member is displayed outdoors or indoors via the transparent member 100.

<光源装置の例1>
続いて、ケース内に収納されている光源装置等の光学系の構成について、図17と共に、図18(a)および(b)を参照しながら、詳細に説明する。図17および図18には、光源を構成するLED14a,14bが示されており、これらはLEDコリメータ15に対して所定の位置に取り付けられている。なお、このLEDコリメータ15は、各々、例えばアクリル等の透光性の樹脂により形成されている。そして、このLEDコリメータ15は、図18(b)にも示すように、放物断面を回転して得られる円錐凸形状の外周面156を有すると共に、その頂部では、その中央部に凸部(即ち、凸レンズ面)157を形成した凹部153を有する。また、その平面部の中央部には、外側に突出した凸レンズ面(あるいは、内側に凹んだ凹レンズ面でも良い)154を有している。なお、LEDコリメータ15の円錐形状の外周面を形成する放物面156は、LED14a,14bから周辺方向に出射する光をその内部で全反射することが可能な角度の範囲内において設定され、あるいは、反射面が形成されている。
<Example 1 of light source device>
Subsequently, the configuration of the optical system such as the light source device housed in the case will be described in detail together with FIG. 17 with reference to FIGS. 18 (a) and 18 (b). 17 and 18 show LEDs 14a, 14b constituting the light source, which are attached at predetermined positions with respect to the LED collimator 15. Each of the LED collimators 15 is made of a translucent resin such as acrylic. As shown in FIG. 18B, the LED collimator 15 has a conical convex outer peripheral surface 156 obtained by rotating a parabolic cross section, and at the top thereof, a convex portion (convex portion) at the center thereof. That is, it has a concave portion 153 forming a convex lens surface) 157. Further, the central portion of the flat surface portion has a convex lens surface protruding outward (or a concave lens surface recessed inward) 154. The parabolic surface 156 forming the conical outer peripheral surface of the LED collimator 15 is set within an angle range at which the light emitted from the LEDs 14a and 14b in the peripheral direction can be totally reflected inside the paraboloid surface 156. , A reflective surface is formed.

また、LED14a,14bは、その回路基板である、LED基板102の表面上の所定の位置にそれぞれ配置されている。このLED基板102は、LEDコリメータ15に対して、その表面上のLED14aまたは14bが、それぞれ、その凹部153の中央部に位置するように配置されて固定される。 Further, the LEDs 14a and 14b are respectively arranged at predetermined positions on the surface of the LED substrate 102, which is the circuit board thereof. The LED substrate 102 is arranged and fixed to the LED collimator 15 so that the LEDs 14a or 14b on the surface thereof are respectively located at the center of the recess 153.

かかる構成によれば、上述したLEDコリメータ15によって、LED14aまたは14bから放射される光のうち、特に、その中央部分から上方(図の右方向)に向かって放射される光は、LEDコリメータ15の外形を形成する2つの凸レンズ面157,154により集光されて平行光となる。また、その他の部分から周辺方向に向かって出射される光は、LEDコリメータ15の円錐形状の外周面を形成する放物面によって反射され、同様に、集光されて平行光となる。換言すれば、その中央部に凸レンズを構成すると共に、その周辺部に放物面を形成したLEDコリメータ15によれば、LED14aまたは14bにより発生された光のほぼ全てを平行光として取り出すことが可能となり、発生した光の利用効率を向上することが可能となる。 According to such a configuration, among the light radiated from the LED 14a or 14b by the LED collimator 15 described above, the light radiated upward (to the right in the figure) from the central portion thereof is the light of the LED collimator 15. The two convex lens surfaces 157 and 154 forming the outer shape are focused to form parallel light. Further, the light emitted from the other portion toward the peripheral direction is reflected by the paraboloid forming the conical outer peripheral surface of the LED collimator 15, and is similarly condensed into parallel light. In other words, according to the LED collimator 15 having a convex lens formed in the center thereof and a paraboloid formed in the peripheral portion thereof, almost all the light generated by the LEDs 14a or 14b can be taken out as parallel light. Therefore, it is possible to improve the utilization efficiency of the generated light.

なお、LEDコリメータ15の光の出射側には偏光変換素子21が設けられている。この偏光変換素子21は、図18からも明らかなように、断面が平行四辺形である柱状(以下、平行四辺形柱)の透光性部材と、断面が三角形である柱状(以下、三角形柱)の透光性部材とを組み合わせ、LEDコリメータ15からの平行光の光軸に対して直交する面に平行に、複数、アレイ状に配列して構成されている。更に、これらアレイ状に配列された隣接する透光性部材間の界面には、交互に、偏光ビームスプリッタ(以下、「PBS膜」と省略する)211と反射膜212とが設けられており、また、偏光変換素子21へ入射してPBS膜211を透過した光が出射する出射面には、λ/2位相板213が備えられている。 A polarization conversion element 21 is provided on the light emitting side of the LED collimator 15. As is clear from FIG. 18, the polarization conversion element 21 has a columnar (hereinafter, parallelogram) translucent member having a parallelogram cross section and a columnar (hereinafter, triangular column) having a triangular cross section. ) Is combined with the translucent member, and a plurality of pieces are arranged in an array in parallel with the plane orthogonal to the optical axis of the parallel light from the LED collimator 15. Further, at the interface between the adjacent translucent members arranged in an array, a polarizing beam splitter (hereinafter abbreviated as "PBS film") 211 and a reflective film 212 are alternately provided. Further, a λ / 2 phase plate 213 is provided on the exit surface where the light incident on the polarization conversion element 21 and transmitted through the PBS film 211 is emitted.

この偏光変換素子21の出射面には、更に、図18(a)にも示す矩形状の合成拡散ブロック16が設けられている。即ち、LED14aまたは14bから出射された光は、LEDコリメータ15の働きにより平行光となって合成拡散ブロック16へ入射し、出射側のテクスチャー161により拡散された後、導光体17に到る。 Further, a rectangular synthetic diffusion block 16 shown in FIG. 18A is provided on the emission surface of the polarization conversion element 21. That is, the light emitted from the LED 14a or 14b becomes parallel light by the action of the LED collimator 15 and enters the synthetic diffusion block 16, diffused by the texture 161 on the exit side, and then reaches the light guide body 17.

導光体17は、例えばアクリル等の透光性の樹脂により断面が略三角形(図18(b)参照)の棒状に形成された部材であり、そして、図17からも明らかなように、合成拡散ブロック16の出射面に第1の拡散板18aを介して対向する導光体光入射部(面)171と、斜面を形成する導光体光反射部(面)172と、第2の拡散板18bを介して、液晶表示素子である液晶表示パネル11と対向する導光体光出射部(面)173とを備えている。 The light guide body 17 is a member formed of a translucent resin such as acrylic into a rod shape having a substantially triangular cross section (see FIG. 18 (b)), and as is clear from FIG. 17, it is synthesized. A light guide body light incident portion (plane) 171 facing the emission surface of the diffusion block 16 via the first diffuser plate 18a, a light guide body light reflection portion (plane) 172 forming a slope, and a second diffusion. A light guide body light emitting portion (plane) 173 facing the liquid crystal display panel 11 which is a liquid crystal display element is provided via the plate 18b.

この導光体17の導光体光反射部(面)172には、その一部拡大図である図17にも示すように、多数の反射面172aと連接面172bとが交互に鋸歯状に形成されている。そして、反射面172a(図では右上がりの線分)は、図において一点鎖線で示す水平面に対してαn(n:自然数であり、本例では、例えば、1~130である)を形成しており、その一例として、ここでは、αnを43度以下(ただし、0度以上)に設定している。 As shown in FIG. 17, which is a partially enlarged view of the light guide body light reflecting portion (plane) 172 of the light guide body 17, a large number of reflecting surfaces 172a and connecting surfaces 172b are alternately serrated. It is formed. Then, the reflecting surface 172a (a line segment rising to the right in the figure) forms αn (n: a natural number, for example, 1 to 130 in this example) with respect to the horizontal plane indicated by the alternate long and short dash line in the figure. As an example, here, αn is set to 43 degrees or less (however, 0 degrees or more).

導光体光入射部(面)171は、光源側に傾斜した湾曲の凸形状に形成されている。これによれば、合成拡散ブロック16の出射面からの平行光は、第1の拡散板18aを介して拡散されて入射し、図からも明らかなように、導光体光入射部(面)171により上方に僅かに屈曲(偏向)しながら導光体光反射部(面)172に達し、ここで反射して図の上方の出射面に設けた液晶表示パネル11に到る。 The light incident part (plane) 171 of the light guide body is formed in a curved convex shape inclined toward the light source side. According to this, the parallel light from the emission surface of the synthetic diffusion block 16 is diffused and incident through the first diffusion plate 18a, and as is clear from the figure, the light incident part (plane) of the light guide body. It reaches the light guide body light reflecting portion (plane) 172 while being slightly bent (deflected) upward by 171 and is reflected here to reach the liquid crystal display panel 11 provided on the upper exit surface in the figure.

以上に詳述した表示装置1によれば、光利用効率やその均一な照明特性をより向上すると同時に、モジュール化されたS偏光波の光源装置を含め、小型かつ低コストで製造することが可能となる。なお、上記の説明では、偏光変換素子21をLEDコリメータ15の後に取り付けるものとして説明したが、本発明はそれに限定されることなく、液晶表示パネル11に到る光路中に設けることによっても同様の作用・効果が得られる。 According to the display device 1 described in detail above, it is possible to further improve the light utilization efficiency and its uniform lighting characteristics, and at the same time, to manufacture the modular S polarized wave light source device in a small size and at low cost. It becomes. In the above description, the polarization conversion element 21 is attached after the LED collimator 15, but the present invention is not limited thereto, and the same can be applied by providing the polarization conversion element 21 in the optical path leading to the liquid crystal display panel 11. Action / effect can be obtained.

なお、導光体光反射部(面)172には、多数の反射面172aと連接面172bとが交互に鋸歯状に形成されており、照明光束は、各々の反射面172a上で全反射されて上方に向かい、更には、導光体光出射部(面)173には挟角拡散板を設けて略平行な拡散光束として指向特性を制御する光方向変換パネル54に入射し、斜め方向から液晶表示パネル11へ入射する。本実施例では光方向変換パネル54を導光体出射部(面)173と液晶表示パネル11の間に設けたが、液晶表示パネル11の出射面に設けても、同様の効果が得られる。 A large number of reflecting surfaces 172a and connecting surfaces 172b are alternately formed in a sawtooth shape on the light guide body light reflecting portion (surface) 172, and the illumination light beam is totally reflected on each reflecting surface 172a. Further upward, the light emitting portion (plane) 173 of the light guide body is provided with a narrowing angle diffuser plate to be incident on the optical direction conversion panel 54 that controls the directivity characteristics as a substantially parallel diffused light beam, and is incident from an oblique direction. It is incident on the liquid crystal display panel 11. In this embodiment, the light direction conversion panel 54 is provided between the light guide body emitting portion (plane) 173 and the liquid crystal display panel 11, but the same effect can be obtained by providing the light direction changing panel 54 on the emitting surface of the liquid crystal display panel 11.

<光源装置の例2>
光源装置13等の光学系の構成について、他の例を図19に示す。図18に示した例と同様に、光源を構成する複数(本例では、2個)のLED14a,14bが示されており、これらはLEDコリメータ15に対して所定の位置に取り付けられている。なお、このLEDコリメータ15は、各々、例えばアクリル等の透光性の樹脂により形成されている。そして、図18に示した例と同様に、このLEDコリメータ15は、放物断面を回転して得られる円錐凸形状の外周面156を有すると共に、その頂部では、その中央部に凸部(即ち、凸レンズ面)157を形成した凹部153を有する。また、その平面部の中央部には、外側に突出した凸レンズ面(あるいは、内側に凹んだ凹レンズ面でも良い)154を有している。なお、LEDコリメータ15の円錐形状の外周面を形成する放物面156は、LED14aから周辺方向に出射する光をその内部で全反射することが可能な角度の範囲内において設定され、あるいは、反射面が形成されている。
<Example 2 of light source device>
FIG. 19 shows another example of the configuration of the optical system such as the light source device 13. Similar to the example shown in FIG. 18, a plurality of (two in this example) LEDs 14a and 14b constituting the light source are shown, and these are attached to the LED collimator 15 at a predetermined position. Each of the LED collimators 15 is made of a translucent resin such as acrylic. And, like the example shown in FIG. 18, this LED collimator 15 has a conical convex outer peripheral surface 156 obtained by rotating a parabolic cross section, and at the top thereof, a convex portion (that is, a convex portion) is formed in the center thereof. , Convex lens surface) It has a recess 153 forming 157. Further, the central portion of the flat surface portion has a convex lens surface protruding outward (or a concave lens surface recessed inward) 154. The paraboloid surface 156 forming the conical outer peripheral surface of the LED collimator 15 is set or reflected within an angle range within which the light emitted from the LED 14a in the peripheral direction can be totally reflected. A surface is formed.

また、LED14a、14bは、その回路基板である、LED基板102の表面上の所定の位置にそれぞれ配置されている。このLED基板102は、LEDコリメータ15に対して、その表面上のLED14aまたは14bが、それぞれ、その凹部153の中央部に位置するように配置されて固定される。 Further, the LEDs 14a and 14b are respectively arranged at predetermined positions on the surface of the LED substrate 102, which is the circuit board thereof. The LED substrate 102 is arranged and fixed to the LED collimator 15 so that the LEDs 14a or 14b on the surface thereof are respectively located at the center of the recess 153.

かかる構成によれば、上述したLEDコリメータ15によって、LED14aまたは14bから放射される光のうち、特に、その中央部分から上方(図の右方向)に向かって放射される光は、LEDコリメータ15の外形を形成する2つの凸レンズ面157,154により集光されて平行光となる。また、その他の部分から周辺方向に向かって出射される光は、LEDコリメータ15の円錐形状の外周面を形成する放物面によって反射され、同様に、集光されて平行光となる。換言すれば、その中央部に凸レンズを構成すると共に、その周辺部に放物面を形成したLEDコリメータ15によれば、LED14aまたは14bにより発生された光のほぼ全てを平行光として取り出すことが可能となり、発生した光の利用効率を向上することが可能となる。 According to such a configuration, among the light radiated from the LED 14a or 14b by the LED collimator 15 described above, the light radiated upward (to the right in the figure) from the central portion thereof is the light of the LED collimator 15. The two convex lens surfaces 157 and 154 forming the outer shape are focused to form parallel light. Further, the light emitted from the other portion toward the peripheral direction is reflected by the paraboloid forming the conical outer peripheral surface of the LED collimator 15, and is similarly condensed into parallel light. In other words, according to the LED collimator 15 having a convex lens formed in the center thereof and a paraboloid formed in the peripheral portion thereof, almost all the light generated by the LEDs 14a or 14b can be taken out as parallel light. Therefore, it is possible to improve the utilization efficiency of the generated light.

なお、LEDコリメータ15の光の出射側には第一の拡散板18aを介して導光体170が設けられている。導光体170は、例えばアクリル等の透光性の樹脂により断面が略三角形(図19(a)参照)の棒状に形成された部材であり、そして、図19(a)からも明らかなように、拡散ブロック16の出射面に第1の拡散板18aを介して対向する導光体光入射部(面)171と、斜面を形成する導光体光反射部(面)172と、反射式偏光板200を介して液晶表示素子である液晶表示パネル11と対向する導光体光出射部(面)173とを備えている。 A light guide body 170 is provided on the light emitting side of the LED collimator 15 via the first diffuser plate 18a. The light guide body 170 is a member formed of a translucent resin such as acrylic into a rod shape having a substantially triangular cross section (see FIG. 19A), and as is clear from FIG. 19A. In addition, a light guide body light incident portion (plane) 171 facing the emission surface of the diffusion block 16 via the first diffuser plate 18a, a light guide body light reflection portion (plane) 172 forming a slope, and a reflection type. It includes a light guide body light emitting unit (plane) 173 facing the liquid crystal display panel 11 which is a liquid crystal display element via the polarizing plate 200.

この反射型偏光板200は、例えばP偏光を反射(S偏光は透過)させる特性を有する物を選択すれば、光源であるLEDから発した自然光のうちP偏光を反射し、図19(b)に示した導光体光反射部172に設けたλ/4板202を通過して反射面201で反射し、再びλ/4板202を通過することでS偏光に変換され、液晶表示パネル11に入射する光束は全てS偏光に統一される。 If, for example, a reflective polarizing plate 200 having a property of reflecting P-polarized light (transmitting S-polarized light) is selected, the reflective polarizing plate 200 reflects P-polarized light among the natural light emitted from the LED as a light source, and FIG. 19 (b) shows. It passes through the λ / 4 plate 202 provided in the light guide body light reflecting unit 172 shown in the above, is reflected by the reflecting surface 201, and is converted into S-polarized light by passing through the λ / 4 plate 202 again to be converted into S-polarized light. All the light rays incident on the are unified to S polarization.

同様に、反射型偏光板200としてS偏光を反射(P偏光は透過)させる特性を有する物を選択すれば、光源であるLEDから発した自然光のうちS偏光を反射し、図19(b)に示した導光体光反射部172に設けたλ/4板202を通過して反射面201で反射し、再びλ/4板202を通過することでP偏光に変換され、液晶表示パネル52に入射する光束は全てP偏光に統一される。以上述べた構成でも偏光変換が実現できる。 Similarly, if a reflective polarizing plate 200 having a characteristic of reflecting S-polarized light (transmitting P-polarized light) is selected, the S-polarized light among the natural light emitted from the LED as the light source is reflected, and FIG. 19 (b) shows. It passes through the λ / 4 plate 202 provided in the light guide body light reflecting unit 172 shown in the above, is reflected by the reflecting surface 201, and is converted into P-polarized light by passing through the λ / 4 plate 202 again to be converted into P-polarized light, and is converted into P-polarized light. All the light rays incident on the are unified to P polarization. Polarization conversion can be realized even with the above-mentioned configuration.

<光源装置の例3>
光源装置等の光学系の構成についての他の例を、図16を用いて説明する。第3の例では、図16に示すようにLED102からの自然光(P偏光とS偏光が混在)の発散光束をコリメータレンズ18により略平行光束に変換し、反射型導光体304により液晶表示パネル11に向け反射する。反射光は液晶表示パネル11と反射型導光体304の間に配置された反射型偏光板206に入射する。反射型偏光板206で特定の偏波(例えばS偏波)が反射され導光体304の反射面を繋ぐ面を透過し、導光体304の反対面に面して配置された反射板271で反射され位相板(λ/4波長板)270を2度透過することで偏光変換され、導光体と反射型偏光板を透過して液晶表示パネル11に入射し映像光に変調される。この時、特定偏波と偏光変換された偏波面を合わせることで光の利用効率が通常の2倍となり、反射型偏光板の偏光度(消光比)もシステム全体の消光比に乗せられるので、本実施例の光源装置を用いることで情報表示システムのコントラスト比が大幅に向上する。
<Example 3 of light source device>
Another example of the configuration of an optical system such as a light source device will be described with reference to FIG. In the third example, as shown in FIG. 16, the divergent luminous flux of natural light (a mixture of P-polarized light and S-polarized light) from the LED 102 is converted into a substantially parallel luminous flux by the collimator lens 18, and the liquid crystal display panel by the reflective light guide 304. It reflects toward 11. The reflected light is incident on the reflective polarizing plate 206 arranged between the liquid crystal display panel 11 and the reflective light guide 304. A reflective plate 271 is arranged so that a specific polarization (for example, S polarization) is reflected by the reflective polarizing plate 206, passes through a surface connecting the reflective surfaces of the light guide 304, and faces the opposite surface of the light guide 304. It is reflected by and transmitted through the phase plate (λ / 4 wavelength plate) 270 twice to be polarized, transmitted through the light guide and the reflective polarizing plate, incident on the liquid crystal display panel 11, and modulated by video light. At this time, by matching the specific polarization and the polarization plane that has been polarized, the efficiency of light utilization is doubled, and the degree of polarization (extinguishing ratio) of the reflective polarizing plate is also added to the extinguishing ratio of the entire system. By using the light source device of this embodiment, the contrast ratio of the information display system is significantly improved.

この結果、LEDからの自然光は特定の偏波(例えばP偏波)に揃えられる。上述の例と同様に光源を構成する複数のLEDが設けられており(ただし、縦断面のため図16では1個のみ図示)、これらはLEDコリメータ18に対して所定の位置に取り付けられている。なお、このLEDコリメータ18は、各々、例えばアクリル等の透光性の樹脂またはガラスにより形成されている。そして、このLEDコリメータ18は、放物断面を回転して得られる円錐凸形状の外周面を有すると共に、その頂部では、その中央部に凸部(即ち、凸レンズ面)を形成した凹部を有する。また、その平面部の中央部には、外側に突出した凸レンズ面(あるいは、内側に凹んだ凹レンズ面でも良い)を有している。なお、LEDコリメータ18の円錐形状の外周面を形成する放物面は、LED18から周辺方向に出射する光をその内部で全反射することが可能な角度の範囲内において設定され、あるいは、反射面が形成されている。 As a result, the natural light from the LED is aligned with a specific polarization (for example, P polarization). Similar to the above example, a plurality of LEDs constituting the light source are provided (however, only one is shown in FIG. 16 because of the vertical cross section), and these are attached to the LED collimator 18 at a predetermined position. .. The LED collimator 18 is made of a translucent resin such as acrylic or glass, respectively. The LED collimator 18 has a conical convex outer peripheral surface obtained by rotating a parabolic cross section, and at the top thereof, has a concave portion having a convex portion (that is, a convex lens surface) formed in the central portion thereof. Further, the central portion of the flat surface portion has a convex lens surface protruding outward (or a concave lens surface recessed inward). The paraboloid surface forming the conical outer peripheral surface of the LED collimator 18 is set within an angle range at which the light emitted from the LED 18 in the peripheral direction can be totally reflected inside the paraboloid surface, or is a reflective surface. Is formed.

また、LEDは、その回路基板である、LED基板102の表面上の所定の位置にそれぞれ配置されている。このLED基板102は、LEDコリメータ18に対して、その表面上のLEDが、それぞれ、その凹部の中央部に位置するように配置されて固定される。 Further, the LEDs are arranged at predetermined positions on the surface of the LED substrate 102, which is the circuit board thereof. The LED substrate 102 is fixed to the LED collimator 18 by arranging and fixing LEDs on the surface thereof so as to be located at the center of the recess.

かかる構成によれば、LEDコリメータ18によって、LEDから放射される光のうち、特に、その中央部分から放射される光は、LEDコリメータ18の外形を形成する2つの凸レンズ面により集光されて平行光となる。また、その他の部分から周辺方向に向かって出射される光は、LEDコリメータ18の円錐形状の外周面を形成する放物面によって反射され、同様に、集光されて平行光となる。換言すれば、その中央部に凸レンズを構成すると共に、その周辺部に放物面を形成したLEDコリメータ18によれば、LEDにより発生された光のほぼ全てを平行光として取り出すことが可能となり、発生した光の利用効率を向上することが可能となる。 According to such a configuration, among the light radiated from the LED by the LED collimator 18, the light radiated from the central portion thereof is collected and parallel by the two convex lens surfaces forming the outer shape of the LED collimator 18. It becomes light. Further, the light emitted from the other portion toward the peripheral direction is reflected by the paraboloid forming the conical outer peripheral surface of the LED collimator 18, and is similarly condensed into parallel light. In other words, according to the LED collimator 18 in which a convex lens is formed in the central portion thereof and a paraboloid is formed in the peripheral portion thereof, almost all the light generated by the LED can be taken out as parallel light. It is possible to improve the utilization efficiency of the generated light.

<光源装置の例4>
更に、光源装置等の光学系の構成についての他の例を、図25を用いて説明する。LEDコリメータ18の光の出射側には図面の垂直方向と水平方向(図の前後方向で図示せず)の拡散特性を変換する光学シート207を2枚用い、LEDコリメータ18からの光を2枚の光学シート207(拡散シート)の間に入射させる。この光学シート207は、1枚で構成する場合には表面と裏面の微細形状で垂直と水平の拡散特性を制御する。また、拡散シートを複数枚使用して作用を分担しても良い。光学シート207の表面形状と裏面形状により、LEDコリメータ18からの光の画面垂直方向の拡散角を拡散シートの反射面の垂直面の幅に合わせ、水平方向は液晶表示パネル11から出射する光束の面密度が均一になるように、LEDの数量とLED基板(光学素子)102からの発散角を設計パラメータとして最適設計すると良い。つまり、導光体の代わりに複数の拡散シートの表面形状により拡散特性を制御する。本実施例では、偏光変換は上述した光源装置の例3と同様の方法で行われる。これに対し、LEDコリメータ18と拡散フィルム207の間に偏光変換素子21を設けて、偏光変換を行った後、拡散シート207に光源光を入射させても良い。
<Example 4 of light source device>
Further, another example of the configuration of an optical system such as a light source device will be described with reference to FIG. 25. On the light emitting side of the LED collimator 18, two optical sheets 207 that convert the diffusion characteristics in the vertical direction and the horizontal direction (not shown in the front-rear direction of the figure) in the drawing are used, and two pieces of light from the LED collimator 18 are used. It is incident between the optical sheets 207 (diffuse sheets) of the above. When the optical sheet 207 is composed of one sheet, the vertical and horizontal diffusion characteristics are controlled by the fine shapes of the front surface and the back surface. Further, a plurality of diffusion sheets may be used to share the action. Depending on the front surface shape and back surface shape of the optical sheet 207, the diffusion angle of the light from the LED collimator 18 in the vertical direction of the screen is matched with the width of the vertical surface of the reflection surface of the diffusion sheet, and the horizontal direction is the light flux emitted from the liquid crystal display panel 11. It is preferable to optimally design the number of LEDs and the divergence angle from the LED substrate (optical element) 102 as design parameters so that the surface density becomes uniform. That is, the diffusion characteristics are controlled by the surface shapes of a plurality of diffusion sheets instead of the light guide. In this embodiment, the polarization conversion is performed in the same manner as in Example 3 of the light source device described above. On the other hand, a polarization conversion element 21 may be provided between the LED collimator 18 and the diffusion film 207 to perform polarization conversion, and then the light source light may be incident on the diffusion sheet 207.

前述した反射型偏光板206は、S偏光を反射(P偏光は透過)させる特性を有する物を選択すれば、光源であるLEDから発した自然光のうちS偏光を反射し、図25に示した位相差板270を通過して、反射面271で反射し、再び位相差板270を通過することでP偏光に変換され液晶表示パネル11に入射する。この位相差板の厚さは位相差板への光線の入射角度により最適値を選ぶ必要があり、λ/16からλ/4の範囲に最適値が存在する。 If the above-mentioned reflective polarizing plate 206 has a characteristic of reflecting S-polarization (P-polarization is transmitted), S-polarization is reflected among the natural light emitted from the LED as a light source, and is shown in FIG. 25. It passes through the retardation plate 270, is reflected by the reflecting surface 271, and is converted into P-polarized light by passing through the retardation plate 270 again to be incident on the liquid crystal display panel 11. It is necessary to select the optimum value for the thickness of the retardation plate according to the angle of incidence of the light beam on the retardation plate, and the optimum value exists in the range of λ / 16 to λ / 4.

<レンチキュラーレンズ>
液晶表示パネル11からの映像光の拡散分布を制御するためには、光源装置13と液晶表示パネル11の間、あるいは、液晶表示パネル11の表面に、レンチキュラーレンズを設けてレンズ形状を最適化することで、一方向の出射特性を制御できる。更に、マイクロレンズアレイをマトリックス状に配置することで表示装置1からの映像光束をX軸およびY軸方向に出射特性を制御することができ、この結果所望の拡散特性を有する空間浮遊映像表示装置を得ることができる。
<Lenticular lens>
In order to control the diffusion distribution of the image light from the liquid crystal display panel 11, a lenticular lens is provided between the light source device 13 and the liquid crystal display panel 11 or on the surface of the liquid crystal display panel 11 to optimize the lens shape. This makes it possible to control the emission characteristics in one direction. Further, by arranging the microlens arrays in a matrix, it is possible to control the emission characteristics of the image luminous flux from the display device 1 in the X-axis and Y-axis directions, and as a result, the spatial floating image display device having desired diffusion characteristics. Can be obtained.

レンチキュラーレンズによる作用について説明する。レンチキュラーレンズは、レンズ形状を最適化することで、上述した表示装置1から出射されて透明な部材100を透過又は反射して効率良く空間浮遊像を得ることが可能となる。即ち、表示装置1からの映像光に対し、2枚のレンチキュラーレンズを組み合わせ、またはマイクロレンズアレイをマトリックス状に配置して拡散特性を制御するシートを設けて、X軸およびY軸方向において、映像光の輝度(相対輝度)をその反射角度(垂直方向を0度)に応じて制御することができる。本実施例では、このようなレンチキュラーレンズにより、従来に比較し、図22(b)に示すように垂直方向の輝度特性を急峻にし、更に上下(Y軸の正負方向)方向の指向特性のバランスを変化させることで反射や拡散による光の輝度(相対輝度)を高めることにより、面発光レーザ映像源からの映像光のように、拡散角度が狭く(高い直進性)かつ特定の偏波成分のみの映像光とし、従来技術を用いた場合に再帰反射部材で発生していたゴースト像を抑え、効率良く監視者の眼に再帰反射による空間浮遊像が届くように制御できる。 The operation of the lenticular lens will be described. By optimizing the lens shape of the lenticular lens, it is possible to efficiently obtain a spatial floating image by transmitting or reflecting the transparent member 100 emitted from the display device 1 described above. That is, for the image light from the display device 1, two lenticular lenses are combined, or a microlens array is arranged in a matrix to provide a sheet for controlling the diffusion characteristics, and the image is imaged in the X-axis and Y-axis directions. The brightness of light (relative brightness) can be controlled according to the reflection angle (0 degrees in the vertical direction). In this embodiment, as shown in FIG. 22B, the luminance characteristic in the vertical direction is steepered by such a lenticular lens as compared with the conventional case, and the directional characteristic in the vertical direction (positive / negative direction of the Y axis) is balanced. By increasing the brightness (relative brightness) of the light due to reflection and diffusion by changing, the diffusion angle is narrow (high straightness) and only a specific polarization component, like the image light from a surface-emitting laser image source. It is possible to suppress the ghost image generated by the retroreflective member when the conventional technique is used, and to efficiently control the spatial floating image due to the retroreflective to the observer's eye.

また上述した光源装置により、図22の(a)(b)に示した一般的な液晶表示パネルからの出射光拡散特性特性(図中では従来と表記)に対してX軸方向およびY軸方向ともに大幅に挟角な指向特性とすることで、特定方向に対して平行に近い映像光束を出射する特定偏波の光を出射する表示装置が実現できる。 Further, by the above-mentioned light source device, the X-axis direction and the Y-axis direction with respect to the emission light diffusion characteristic characteristics (denoted as conventional in the figure) from the general liquid crystal display panel shown in FIGS. 22 (a) and 22 (b). By setting both of them to have a directional characteristic with a significantly narrow angle, it is possible to realize a display device that emits light of a specific polarization that emits an image light source that is almost parallel to a specific direction.

図21には、本実施例で採用するレンチキュラーレンズの特性の一例を示している。この例では、特に、X方向(垂直方向)における特性を示しており、特性Oは、光の出射方向のピークが垂直方向(0度)から上方に30度付近の角度であり上下に対称な輝度特性を示している。また、図21の特性AやBは、更に、30度付近においてピーク輝度の上方の映像光を集光して輝度(相対輝度)を高めた特性の例を示している。このため、これらの特性AやBでは、30度を超えた角度において、特性Oに比較して、急激に光の輝度(相対輝度)が低減する。 FIG. 21 shows an example of the characteristics of the lenticular lens used in this embodiment. In this example, in particular, the characteristic in the X direction (vertical direction) is shown. In the characteristic O, the peak in the light emission direction is at an angle of about 30 degrees upward from the vertical direction (0 degrees) and is vertically symmetrical. It shows the brightness characteristics. Further, the characteristics A and B in FIG. 21 further show an example of a characteristic in which the image light above the peak luminance is condensed at around 30 degrees to increase the luminance (relative luminance). Therefore, in these characteristics A and B, the brightness (relative brightness) of light is sharply reduced as compared with the characteristic O at an angle exceeding 30 degrees.

即ち、上述したレンチキュラーレンズを含んだ光学系によれば、表示装置1からの映像光束を再帰反射部材2に入射させる際、光源装置13で挟角に揃えられた映像光の出射角度や視野角を制御でき再帰反射シート(再帰反射部材2)の設置の自由度を大幅に向上できる。その結果透明な部材100を反射又は透過して所望の位置に結像する空間浮遊像の結像位置の関係の自由度を大幅に向上できる。この結果、拡散角度が狭く(高い直進性)かつ特定の偏波成分のみの光として効率良く室外または室内の監視者の眼に届くようにすることが可能となる。このことによれば、表示装置からの映像光の強度(輝度)が低減しても、監視者は映像光を正確に認識して情報を得ることができる。換言すれば、表示装置の出力を小さくすることにより、消費電力の低い空間浮遊映像表示装置を実現することが可能となる。 That is, according to the above-mentioned optical system including the lenticular lens, when the image light beam from the display device 1 is incident on the retroreflective member 2, the emission angle and viewing angle of the image light aligned to the narrow angle by the light source device 13 Can be controlled, and the degree of freedom in installing the retroreflective sheet (retroreflective member 2) can be greatly improved. As a result, the degree of freedom of the relationship between the image formation positions of the spatial floating image formed at a desired position by reflecting or transmitting the transparent member 100 can be greatly improved. As a result, it is possible to efficiently reach the eyes of the observer outdoors or indoors as light having a narrow diffusion angle (high straightness) and only a specific polarization component. According to this, even if the intensity (luminance) of the video light from the display device is reduced, the observer can accurately recognize the video light and obtain information. In other words, by reducing the output of the display device, it is possible to realize a space floating image display device with low power consumption.

(実施の形態1)
次に、図26以降を用いて、実施の形態1の空間浮遊映像表示装置について説明する。実施の形態1の基本構成は前述の図1~図3C等と同様である。
(Embodiment 1)
Next, the space floating image display device of the first embodiment will be described with reference to FIGS. 26 and 26. The basic configuration of the first embodiment is the same as that of FIGS. 1 to 3C described above.

[空間浮遊映像表示装置]
図26は、実施の形態1の空間浮遊映像表示装置1000の構成を示す。この空間浮遊映像表示装置1000は、銀行、病院など適用される空間内に配置される。図26は、図3Aと同様に、横置きの場合である。この空間浮遊映像表示装置1000は、例えば、銀行のATM装置の一部として、ATM装置の筐体内に収容されたり、外つけユニットとしてATM装置に接続されるなど、利用される場所に配置される。空間浮遊映像表示装置1000の透明な部材100は、外側に露出するように配置される。この空間浮遊映像表示装置1000は、前述の仕組みにより、高輝度で高い指向性を持った空間浮遊映像3を空間内に形成・表示する装置である。空間浮遊映像3に対して標準的な位置(背伸びしたり屈むことなく映像が見える標準的な身長を有した人の目線位置)で正対するユーザ230は、その位置の目UEからこの空間浮遊映像3を好適に視認できる。
[Spatial floating image display device]
FIG. 26 shows the configuration of the space floating image display device 1000 of the first embodiment. The space floating image display device 1000 is arranged in an applicable space such as a bank or a hospital. FIG. 26 shows the case of horizontal placement as in FIG. 3A. The space floating image display device 1000 is arranged in a place where it is used, for example, as a part of an ATM device of a bank, it is housed in a housing of the ATM device, or is connected to the ATM device as an external unit. .. The transparent member 100 of the space floating image display device 1000 is arranged so as to be exposed to the outside. The space floating image display device 1000 is a device that forms and displays a space floating image 3 having high brightness and high directivity in the space by the above-mentioned mechanism. The user 230 facing the space floating image 3 at a standard position (the line-of-sight position of a person having a standard height who can see the image without stretching or bending) can see this space floating image from the eye UE at that position. 3 can be preferably visually recognized.

ユーザ230は、この空間浮遊映像表示装置1000を利用・操作する人であり、模式的に図示している。ユーザ230の顔、目、手指は、それぞれUF、UE、UHで示される。空間浮遊映像表示装置1000は、前述の撮像部1180(図3C)に相当するカメラ32を用いて、ユーザ230の顔UFを検出し、顔UFの撮像位置に合わせて空間浮遊映像3の表示状態を調整する制御を行う。空間浮遊映像表示装置1000は、前述の空中操作検出部1351(図3C)に相当するセンサ31を用いて、空間浮遊映像3に対する手指UHによるタッチ操作の検出を同様に行う。 The user 230 is a person who uses and operates the space floating image display device 1000, and is schematically shown. The face, eyes, and fingers of the user 230 are represented by UF, UE, and UH, respectively. The space floating image display device 1000 detects the face UF of the user 230 by using the camera 32 corresponding to the above-mentioned image pickup unit 1180 (FIG. 3C), and displays the space floating image 3 according to the image pickup position of the face UF. Control to adjust. The space floating image display device 1000 similarly detects a touch operation by the finger UH on the space floating image 3 by using the sensor 31 corresponding to the above-mentioned aerial operation detection unit 1351 (FIG. 3C).

ここでは、説明上、空間の座標系および方向を(X,Y,Z)で図示している。X方向およびY方向は、水平面を構成する2つの方向であり、Z方向は鉛直方向である。X方向は、空間浮遊映像表示装置1000およびユーザ230の左右方向であり、Y方向は、空間浮遊映像表示装置1000およびユーザ230の前後方向であり、Z方向は、空間浮遊映像表示装置1000およびユーザ230の上下方向、高さ方向である。また、空間浮遊映像3での座標系および方向を(x,y,z)で図示している。空間浮遊映像3の画面内において、x方向が水平方向、y方向が垂直方向であり、z方向はそれらに垂直である奥行き・深さ方向である。空間浮遊映像3の面に対する操作の際には、手指UH(図示の例では人差し指)がz方向等において進入等移動する。 Here, for the sake of explanation, the coordinate system and direction of space are illustrated by (X, Y, Z). The X direction and the Y direction are two directions constituting the horizontal plane, and the Z direction is a vertical direction. The X direction is the left-right direction of the space floating image display device 1000 and the user 230, the Y direction is the front-back direction of the space floating image display device 1000 and the user 230, and the Z direction is the space floating image display device 1000 and the user. The vertical direction and the height direction of 230. Further, the coordinate system and the direction in the space floating image 3 are illustrated by (x, y, z). In the screen of the spatial floating image 3, the x direction is the horizontal direction, the y direction is the vertical direction, and the z direction is the depth / depth direction perpendicular to them. When operating on the surface of the space floating image 3, the finger UH (index finger in the illustrated example) moves in the z direction or the like.

この空間浮遊映像表示装置1000は、筐体60と、制御基板61と、駆動機構62とを備える。筐体60(前述の図3Cの筐体1190に相当する)には、前述の各構成要素として、表示装置1と、再帰反射部材2と、透明な部材100と、偏光分離部材101とが収容され、それらは所定の位置関係で固定されている。また、筐体60には、第1センサであるセンサ31と、第2センサであるカメラ32とが設置されている。表示装置1は、前述の光源装置13と、液晶表示パネル11と、吸収型偏光板12とを備える。再帰反射部材2の出射面には、λ/4板21を備える。透明な部材100の裏面には、偏光分離部材101を備える。 The space floating image display device 1000 includes a housing 60, a control board 61, and a drive mechanism 62. The housing 60 (corresponding to the housing 1190 in FIG. 3C described above) houses the display device 1, the retroreflective member 2, the transparent member 100, and the polarization separating member 101 as the above-mentioned components. And they are fixed in a predetermined positional relationship. Further, in the housing 60, a sensor 31 which is a first sensor and a camera 32 which is a second sensor are installed. The display device 1 includes the above-mentioned light source device 13, a liquid crystal display panel 11, and an absorption-type polarizing plate 12. The emission surface of the retroreflective member 2 is provided with a λ / 4 plate 21. A polarization separating member 101 is provided on the back surface of the transparent member 100.

筐体60内の各構成要素は、制御基板61と信号線等で接続されている。構成要素間では無線通信を適用してもよい。制御基板61は、図3Cでの制御部1110等の各部を実装した部分に相当し、表示装置1等の各構成要素を制御する。本例では筐体60内に制御基板61を有するが、これに限らず筐体60外部等にも実装可能である。 Each component in the housing 60 is connected to the control board 61 by a signal line or the like. Wireless communication may be applied between the components. The control board 61 corresponds to a portion on which each unit such as the control unit 1110 in FIG. 3C is mounted, and controls each component such as the display device 1. In this example, the control board 61 is provided inside the housing 60, but the present invention is not limited to this and can be mounted on the outside of the housing 60 or the like.

筐体60の上面を除いて下面や側面の周囲には、駆動機構62が配置されている。駆動機構62は、例えばモータや駆動回路基板等を含む。駆動機構62は、制御基板61からの制御に基づいて、後述のように筐体60を移動させるように駆動する。なお、駆動機構62にも筐体を有することで、筐体60と駆動機構62とで二重の筐体を有する形態としてもよい。 A drive mechanism 62 is arranged around the lower surface and the side surface except for the upper surface of the housing 60. The drive mechanism 62 includes, for example, a motor, a drive circuit board, and the like. The drive mechanism 62 drives the housing 60 so as to move, as will be described later, based on the control from the control board 61. By also having a housing in the drive mechanism 62, the housing 60 and the drive mechanism 62 may have a double housing.

筐体60の上面で、所定の位置には、第1センサであるセンサ31が、所定の向きで配置されている。センサ31の位置および向きは、例えば図示のように検出軸(破線で示す)が空間浮遊映像3の面と平行になるような位置および向きである。本例では、センサ31の位置は、Y方向でユーザ230に近い手前側の位置であり、センサ31の向きは、Y方向で奥側に斜め上の方向である。図26では、空間浮遊映像3の光軸(再帰反射部材2からの反射光の光軸等にも対応する軸)、すなわち、空間浮遊映像3の面とユーザ230の目UEの位置とを垂直に結ぶ線を一点鎖線で示している。また、空間浮遊映像3の面および第1センサの検出軸の水平面に対する角度を角度a1で示している。 A sensor 31, which is a first sensor, is arranged at a predetermined position on the upper surface of the housing 60 in a predetermined direction. The position and orientation of the sensor 31 are, for example, a position and orientation such that the detection axis (indicated by a broken line) is parallel to the plane of the space floating image 3 as shown in the figure. In this example, the position of the sensor 31 is a position on the front side close to the user 230 in the Y direction, and the direction of the sensor 31 is an obliquely upward direction toward the back side in the Y direction. In FIG. 26, the optical axis of the spatial floating image 3 (the axis corresponding to the optical axis of the reflected light from the retroreflective member 2), that is, the surface of the spatial floating image 3 and the position of the eye UE of the user 230 are perpendicular to each other. The line connecting to is indicated by a alternate long and short dash line. Further, the angle with respect to the horizontal plane of the surface of the space floating image 3 and the detection axis of the first sensor is shown by the angle a1.

第2センサであるカメラ32は、筐体60の上面の所定の位置に所定の向きで配置されている。カメラ32の位置および向きは、例えば図示のように、空間浮遊映像3を視認するユーザ230が標準的な身長で、顔UFの位置が標準的な場合を想定しており、光軸がその標準的な位置の顔UFの領域をカバーできる撮像範囲となるような位置および向きである。図26では、カメラ32(第2センサ)の光軸を二点鎖線で示し、画角範囲(撮像範囲)を破線で示している。第2センサの光軸の水平面に対する角度を角度a2で示している。第2センサのZ方向での画角を角度αで示している。また、カメラ32の座標系を(CX,CY,CZ)で示している。CZはカメラ32の光軸方向であり、(CX,CY)はカメラ32の撮像画像内の水平方向および垂直方向である。 The camera 32, which is the second sensor, is arranged at a predetermined position on the upper surface of the housing 60 in a predetermined direction. As shown in the figure, the position and orientation of the camera 32 assume that the user 230 who visually recognizes the spatial floating image 3 has a standard height and the position of the face UF is standard, and the optical axis is the standard. The position and orientation are such that the imaging range can cover the area of the face UF at a specific position. In FIG. 26, the optical axis of the camera 32 (second sensor) is indicated by a two-dot chain line, and the angle of view range (imaging range) is indicated by a broken line. The angle of the optical axis of the second sensor with respect to the horizontal plane is indicated by the angle a2. The angle of view of the second sensor in the Z direction is shown by the angle α. Further, the coordinate system of the camera 32 is shown by (CX, CY, CZ). CZ is the optical axis direction of the camera 32, and (CX, CY) is the horizontal direction and the vertical direction in the captured image of the camera 32.

空間浮遊映像表示装置1000(制御基板61)は、カメラ32で撮像した画像から、空間(X,Y,Z)内でのユーザ230の顔UF(または頭)の位置を判断する。この判断は、例えば、公知の画像解析や顔認識の技術を用いて、顔UFまたは頭の領域や、その領域内での目UFや鼻や口等の位置の検出に基づいて可能である。空間浮遊映像表示装置1000は、例えば、顔UFの領域内で左右の両方の目UFの間の中心点を、顔位置として算出してもよい。図26では、標準的な顔位置を、目UFに対応した位置座標(X0,Y0,Z0)の点として示している。空間内の顔UFの位置と、カメラ32の画像内での顔UFの位置とは、所定の対応関係を有しており、換算が可能である。 The space floating image display device 1000 (control board 61) determines the position of the face UF (or head) of the user 230 in the space (X, Y, Z) from the image captured by the camera 32. This determination is possible, for example, using known image analysis and face recognition techniques, based on the detection of the face UF or head region and the positions of the eye UF, nose, mouth, etc. within that region. The space floating image display device 1000 may calculate, for example, the center point between the left and right eye UFs in the area of the face UF as the face position. In FIG. 26, the standard face position is shown as a point of position coordinates (X0, Y0, Z0) corresponding to the eye UF. The position of the face UF in the space and the position of the face UF in the image of the camera 32 have a predetermined correspondence relationship and can be converted.

筐体60は、後述のように、駆動機構62によって回転移動が可能となっており、回転軸J1は、その回転移動の際の回転軸の配置例を示す。この回転軸J1の場合、筐体60は、Y-Z面内で回転することにより、上面である透明な部材100は、ユーザ230に対してY方向で手前や奥に傾くように配置状態が変わる。すなわち、そのような筐体60および透明な部材100の回転移動に伴い、空間浮遊映像3もユーザ230に対してY方向で手前や奥に傾くように表示状態が変わる。 As will be described later, the housing 60 can be rotated and moved by the drive mechanism 62, and the rotation shaft J1 shows an example of arrangement of the rotation shaft during the rotation movement. In the case of the rotation axis J1, the housing 60 is rotated in the YZ plane, so that the transparent member 100 on the upper surface is arranged so as to be tilted toward the front or the back in the Y direction with respect to the user 230. change. That is, with the rotational movement of the housing 60 and the transparent member 100, the display state of the space floating image 3 also changes so as to be tilted toward the front or the back in the Y direction with respect to the user 230.

実施の形態1では、空間浮遊映像表示装置1000(制御基板61)は、駆動機構62を用いて筐体60全体を移動させることで、空間浮遊映像3の位置等の状態を調整する。筐体60内には、複数の構成要素が所定の位置関係で固定されている。よって、駆動機構62によって筐体60を回転等で移動させた場合、それに伴って複数の構成要素も所定の位置関係を維持したまま移動する。実施の形態1では、筐体60の移動の例として回転移動の場合を示す。 In the first embodiment, the space floating image display device 1000 (control board 61) adjusts the state such as the position of the space floating image 3 by moving the entire housing 60 by using the drive mechanism 62. A plurality of components are fixed in the housing 60 in a predetermined positional relationship. Therefore, when the housing 60 is moved by rotation or the like by the drive mechanism 62, the plurality of components also move while maintaining a predetermined positional relationship. In the first embodiment, the case of rotational movement is shown as an example of the movement of the housing 60.

第1センサであるセンサ31(空中操作検出センサ1351)は、例えばTOF方式の測距センサ、赤外線センサ、またはステレオカメラ等、各種のセンサを適用できる。センサ31は、空間浮遊映像3に対する手指UHによる操作、例えば空間浮遊映像3の面に対しz方向に指を進入させてボタン等を押すタッチ操作等を検出できるように、図示の位置や向きで配置されている。z方向(深さ方向)の手指UHの位置等の状態は、例えば前述の図5と同様に検出可能である。 As the first sensor, the sensor 31 (aerial operation detection sensor 1351), various sensors such as a TOF type distance measuring sensor, an infrared sensor, and a stereo camera can be applied. The sensor 31 is positioned and oriented as shown in the figure so as to detect an operation by the finger UH on the space floating image 3, for example, a touch operation in which a finger is inserted in the z direction with respect to the surface of the space floating image 3 and a button or the like is pressed. Have been placed. The state such as the position of the finger UH in the z direction (depth direction) can be detected, for example, in the same manner as in FIG. 5 described above.

第2センサであるカメラ32(撮像部1180)は、一般的なCCD等のカメラを適用できる。カメラ32の配置位置は、前述した標準的な位置に正対する顔UFに対して、カメラの光軸の延長上に目UEが位置するように、図示の位置や向き、および画角α等で配置されている。第2センサは、上述したカメラに限らず、ユーザの顔UFを含む領域を2次元画像として撮像・検出できるセンサであればよい。 A camera such as a general CCD can be applied to the camera 32 (imaging unit 1180) which is the second sensor. The camera 32 is arranged at the position and orientation shown in the figure, the angle of view α, and the like so that the eye UE is located on the extension of the optical axis of the camera with respect to the face UF facing the standard position described above. Have been placed. The second sensor is not limited to the camera described above, and may be any sensor that can capture and detect a region including the user's face UF as a two-dimensional image.

[空間浮遊映像]
図27は、図26のような標準的な位置で正対するユーザ230の目UEから見た空間浮遊映像3の表示例を示す。筐体60や駆動機構62は、実際には例えばATM装置内に収容されており、ユーザ230からは見えない。この空間浮遊映像3の例は、ATMでの暗証番号入力画面例である。
[Spatial floating image]
FIG. 27 shows a display example of the spatial floating image 3 seen from the eye UE of the user 230 facing the standard position as shown in FIG. 26. The housing 60 and the drive mechanism 62 are actually housed in, for example, an ATM device and are not visible to the user 230. The example of the space floating image 3 is an example of a password input screen at an ATM.

なお、この空間浮遊映像表示装置1000で空間浮遊映像3として表示可能な映像内容やグラフィカルユーザインタフェースは、本例に限定されない。他の例として、パソコンのキーボードのようなGUIでもよいし、店舗の広告やアート映像、無人レジでの商品や金額の確認画面など、各種の用途に適用可能である。 The image content and the graphical user interface that can be displayed as the space floating image 3 by the space floating image display device 1000 are not limited to this example. As another example, a GUI such as a keyboard of a personal computer may be used, and it can be applied to various uses such as store advertisements, art videos, and confirmation screens for products and prices at unmanned cash registers.

[縦置き]
図28は、図26の空間浮遊映像表示装置1000を、図3Bと同様に縦置きで利用する場合の配置例を示す。この状態では、透明な部材100は縦(Z方向)に配置されている。空間浮遊映像3は、透明な部材100から外側にY方向で斜め上の向きに出射した位置に形成されている。空間浮遊映像3の面は、Y方向で斜め下に傾いた状態で形成されている。
[Vertical placement]
FIG. 28 shows an arrangement example in which the space floating image display device 1000 of FIG. 26 is used vertically in the same manner as in FIG. 3B. In this state, the transparent member 100 is arranged vertically (Z direction). The spatial floating image 3 is formed at a position where it is emitted outward from the transparent member 100 in an obliquely upward direction in the Y direction. The surface of the space floating image 3 is formed in a state of being inclined diagonally downward in the Y direction.

センサ31は、筐体60の前面(透明な部材100がある面)において、Z方向で上側の位置に、検出軸が空間浮遊映像3の面と平行になる向きで配置されている。カメラ32は、筐体60の前面において、Z方向で下側の位置に、光軸が斜め上の向きで、標準的な位置の顔UFをカバーする撮像範囲となるように配置されている。空間浮遊映像表示装置1000は、図26のように横置きで利用する場合と、図28のように縦置きで利用する場合とのいずれでも適用可能であり、仕組みや作用は概略的に同様である。以下では図26のような横置きの場合を例に説明する。 The sensor 31 is arranged on the front surface of the housing 60 (the surface where the transparent member 100 is located) at a position on the upper side in the Z direction so that the detection axis is parallel to the surface of the space floating image 3. The camera 32 is arranged on the front surface of the housing 60 at a position lower in the Z direction, with the optical axis oriented diagonally upward, so as to cover an image pickup range covering the face UF at a standard position. The spatial floating image display device 1000 can be applied to both the case of using it horizontally as shown in FIG. 26 and the case of using it vertically as shown in FIG. 28, and the mechanism and operation are substantially the same. be. Hereinafter, the case of horizontal placement as shown in FIG. 26 will be described as an example.

図29は、空間浮遊映像表示装置1000を上から見たX-Y面での各センサの配置例を示す。センサ31は、本例では、X方向で左右の2つのセンサ31R,31Lから構成される。センサ31R,31Lは、X方向の位置として、筐体60の中央位置XCに対し左右の位置(XR,XL)とされている。なお、他の方式でのセンサ31とする場合、筐体60の中央位置XC等に設置されてもよい。 FIG. 29 shows an example of arrangement of each sensor on the XY plane when the space floating image display device 1000 is viewed from above. In this example, the sensor 31 is composed of two sensors 31R and 31L on the left and right in the X direction. The sensors 31R and 31L are located at the left and right positions (XR, XL) with respect to the center position XC of the housing 60 as the positions in the X direction. When the sensor 31 is used by another method, it may be installed at the center position XC or the like of the housing 60.

カメラ32は、本例では、1つのカメラとする。その場合に、カメラ32のX方向の位置は、筐体60の中央位置XCとされている。カメラ32のX方向での画角は、標準位置での顔UFを含む、例えば筐体60の手前の一辺をカバーできる広さの範囲である。第2センサの位置や方向や撮像範囲は、本例に限らず可能であり、想定される標準位置(X0,Y0,Z0)での顔UF(標準的な顔UFA)を撮影できる位置等であればよい。他の例では、カメラ32は左右の2台のカメラ(32R,32L)としてもよい。その場合、2台のカメラ(32R,32L)の位置は、例えば図示の左右の位置(XR,XL)である。 In this example, the camera 32 is one camera. In that case, the position of the camera 32 in the X direction is the center position XC of the housing 60. The angle of view of the camera 32 in the X direction is a range wide enough to cover, for example, one side in front of the housing 60, including the face UF in the standard position. The position, direction, and imaging range of the second sensor are not limited to this example, and can be taken at a position where a face UF (standard face UFA) can be photographed at an assumed standard position (X0, Y0, Z0). All you need is. In another example, the camera 32 may be two left and right cameras (32R, 32L). In that case, the positions of the two cameras (32R, 32L) are, for example, the left and right positions (XR, XL) in the figure.

想定される標準位置(X0,Y0,Z0)は、図26や図29のように空間浮遊映像3に対し顔UFが正対し、空間浮遊映像3の光軸と目UEの視線方向とが図示の一点鎖線のように一致する状態に対応する位置である。空間浮遊映像3の高い指向性等の特性から、この標準位置では、ユーザ230の目UEから空間浮遊像3を好適に視認でき、この標準位置から外れるほど空間浮遊映像3を視認しにくくなる。 As for the assumed standard positions (X0, Y0, Z0), the face UF faces the space floating image 3 as shown in FIGS. 26 and 29, and the optical axis of the space floating image 3 and the line-of-sight direction of the eye UE are shown. It is a position corresponding to a matching state like a one-dot chain line. Due to the characteristics such as high directivity of the spatial floating image 3, the spatial floating image 3 can be suitably visually recognized from the eye UE of the user 230 at this standard position, and the more deviated from this standard position, the more difficult it becomes to visually recognize the spatial floating image 3.

[カメラによる顔の位置の判別]
次に、図30は、図26の第2センサであるカメラ32による顔UFの位置の判別についての模式説明図である。図30の(A)は、図26と同様に、空間浮遊映像表示装置1000を側面から見たY-Z面の状態(ここでは駆動機構62の図示を省略している)で、ユーザ230の顔UFの位置として、Z方向での高さ位置が3種類の高さ位置(ZA,ZB,ZC)に変化する場合を示す。ユーザ230の身長や動き等に応じて、空間(X,Y,Z)内での顔UFの位置が変化する。顔UFの位置Aは、標準位置(X0,Y0,Z0)にある場合であり、高さ位置がZ0=ZAである。顔UFの位置Bは、標準位置よりも高い位置にある場合であり、高さ位置はZBである。顔UFの位置Cは、標準位置よりも低い位置にある場合であり、高さ位置はZCである。ZC<ZA<ZBである。
[Determination of face position by camera]
Next, FIG. 30 is a schematic explanatory view for determining the position of the face UF by the camera 32, which is the second sensor of FIG. 26. FIG. 30A shows the state of the YZ plane when the space floating image display device 1000 is viewed from the side (the drive mechanism 62 is not shown here) of the user 230, as in FIG. 26. As the position of the face UF, a case where the height position in the Z direction changes to three types of height positions (ZA, ZB, ZC) is shown. The position of the face UF in the space (X, Y, Z) changes according to the height, movement, and the like of the user 230. The position A of the face UF is the case where it is in the standard position (X0, Y0, Z0), and the height position is Z0 = ZA. The position B of the face UF is a position higher than the standard position, and the height position is ZB. The position C of the face UF is a position lower than the standard position, and the height position is ZC. ZC <ZA <ZB.

図30の(B)は、(A)の顔UFの位置A,B,Cの例に対応した、カメラ32で撮像した画角αの画像3001における顔UFの位置を示す。(B)のカメラ32の画像3001において、ユーザ230の顔UFは、CX方向では中心位置(CX0)にあり、CY方向では、高さ位置ZA,ZB,ZCに応じた位置にある。顔UFが標準位置(X0,Y0,Z0)に対応した位置A(高さ位置ZA)にある場合、図示のように、顔UFは画像3001の中心付近に写っている。顔UFが位置Bや位置Cにある場合、図示のように、顔は画像3001の中心から上側や下側の位置に写っている。 FIG. 30B shows the position of the face UF in the image 3001 of the angle of view α captured by the camera 32, which corresponds to the example of the positions A, B, and C of the face UF in (A). In the image 3001 of the camera 32 of (B), the face UF of the user 230 is in the center position (CX0) in the CX direction, and is in the position corresponding to the height positions ZA, ZB, and ZC in the CY direction. When the face UF is in the position A (height position ZA) corresponding to the standard position (X0, Y0, Z0), the face UF is shown near the center of the image 3001 as shown in the figure. When the face UF is in the position B or the position C, the face is reflected in the upper or lower position from the center of the image 3001 as shown in the figure.

よって、空間浮遊映像表示装置1000の制御基板61は、カメラ32の画像3001の内容を解析することで、空間(X,Y,Z)内における空間浮遊映像表示装置1000および空間浮遊映像3に対するユーザ230の顔UFの位置を判別できる。一例として、制御基板61は、画像3001の中心点(CX0,CY0)(一点鎖線の交点として示す)を標準位置として、その中心点から、写っている顔UFの位置までの距離を算出してもよい。画像3001内の顔UFの位置は、例えば両目の中間点等で定義される。制御基板61は、画像3001内の顔UFの位置から、換算によって、空間(X,Y,Z)内での顔UFの位置を算出できる。 Therefore, the control board 61 of the space floating image display device 1000 analyzes the contents of the image 3001 of the camera 32, and the user for the space floating image display device 1000 and the space floating image 3 in the space (X, Y, Z). The position of the face UF of 230 can be determined. As an example, the control board 61 calculates the distance from the center point of the image 3001 (CX0, CY0) (shown as the intersection of the alternate long and short dash lines) to the position of the face UF in the image as a standard position. May be good. The position of the face UF in the image 3001 is defined, for example, at the midpoint of both eyes. The control board 61 can calculate the position of the face UF in the space (X, Y, Z) by conversion from the position of the face UF in the image 3001.

特に、制御基板61は、顔UFの高さ位置を含む位置座標を判別する。また、制御基板61は、顔UFの高さ位置を、簡略的には複数の種類の高さ位置(例えば高さ位置ZA,ZB,ZC等)に区分して判別してもよい。例えば、制御基板62は、少なくとも、標準位置(X0,Y0,Z0)付近の高さ位置と、それよりも上側に所定の距離以上にある高さ位置と、下側に所定の距離以上にある位置との3種類の高さ位置を判別してもよい。この場合、例えば、空間浮遊映像表示装置1000の位置設定の初期値を標準位置(X0,Y0,Z0)に正対する操作者に合わせた位置に設定し、その後カメラ32で顔の位置を検出し視認しやすい他の位置(例えば(X1,Y1,Z1))に調整し、一連の操作が終了し操作者が空間浮遊映像表示装置1000から離れた後、再び空間浮遊映像表示装置1000の位置を標準位置に戻す。次の操作者としては、平均身長などから設定した標準位置に正対する人の割合が多いため、よりスムーズな操作への準備が可能となる。 In particular, the control board 61 determines the position coordinates including the height position of the face UF. Further, the control board 61 may discriminate the height position of the face UF by dividing it into a plurality of types of height positions (for example, height positions ZA, ZB, ZC, etc.). For example, the control board 62 is at least at a height position near the standard position (X0, Y0, Z0), a height position above the standard position by a predetermined distance or more, and a height position below the standard position by a predetermined distance or more. Three types of height positions with respect to the position may be discriminated. In this case, for example, the initial value of the position setting of the spatial floating image display device 1000 is set to a position suitable for the operator facing the standard position (X0, Y0, Z0), and then the position of the face is detected by the camera 32. Adjust to another position (for example, (X1, Y1, Z1)) that is easy to see, and after the series of operations is completed and the operator leaves the space floating image display device 1000, the position of the space floating image display device 1000 is changed again. Return to standard position. As the next operator, there are many people who face the standard position set from the average height, etc., so it is possible to prepare for smoother operation.

制御基板61は、判別した顔UFの位置に基づいて、空間浮遊映像3の位置や向きの調整を、筐体60の移動によって行う。 The control board 61 adjusts the position and orientation of the space floating image 3 based on the determined position of the face UF by moving the housing 60.

[筐体の回転移動]
図31は、空間浮遊映像表示装置1000における筐体60の回転移動についての模式説明図である。図31の(A)は、同様に空間浮遊映像表示装置1000を側面から見たX-Z面の状態で、駆動機構62によって、筐体60を、図30のような標準的な状態から、回転移動させた後の状態の一例を示す。筐体60は、X方向に延在する回転軸J1を中心としてY-Z面で例えば角度θでY方向の奥側に傾くように回転されている。面AAは、標準位置での筐体60の上面(透明な部材100がある面)を示す。面ABは、角度θでの回転後の筐体60の上面を示す。標準位置での空間浮遊映像3Aは、回転後、空間浮遊映像3Bの状態となっている。なお、回転軸J1は、この例には限定されず、回転機構の詳細についても特に限定されない。
[Rotation movement of housing]
FIG. 31 is a schematic explanatory view of the rotational movement of the housing 60 in the space floating image display device 1000. FIG. 31A shows the housing 60 from the standard state as shown in FIG. 30 by the drive mechanism 62 in the state of the XX plane when the space floating image display device 1000 is similarly viewed from the side. An example of the state after the rotation is shown. The housing 60 is rotated about the rotation axis J1 extending in the X direction so as to be tilted toward the back side in the Y direction at an angle θ, for example, on the YZ plane. The surface AA indicates the upper surface of the housing 60 (the surface on which the transparent member 100 is located) in the standard position. The surface AB indicates the upper surface of the housing 60 after rotation at an angle θ. The space floating image 3A at the standard position is in the state of the space floating image 3B after rotation. The rotation axis J1 is not limited to this example, and the details of the rotation mechanism are not particularly limited.

破線で示す顔UFの位置UFAは、標準位置を示す。実線で示す顔UFBは、標準位置よりも上側の位置の例を示す。標準の空間浮遊映像3Aに対し、上側の位置の顔UFBにある場合、空間浮遊映像3Aの内容を視認しにくい。 The position UFA of the face UF shown by the broken line indicates the standard position. The face UFB shown by the solid line shows an example of a position above the standard position. When the face UFB is located at an upper position with respect to the standard space floating image 3A, it is difficult to visually recognize the contents of the space floating image 3A.

図31の(B)は、(A)の例に対応した、カメラ32の画像3101内での顔UFの位置を示す。画像3101内において、顔FBは、上側の位置の顔UFBである場合の顔領域を示す。空間浮遊映像表示装置1000は、画像3101から顔FBの位置(例えば位置(CXB,CYB))を判別し、その位置から空間内での顔UFBの位置(例えば(XB,YB,ZB))を判別する。空間浮遊映像表示装置1000の制御基板61は、このような顔UFの位置の判別に応じて、駆動機構62によって筐体60を回転移動させることで、顔UFがカメラ32の画像3101内の中心(CX0,CY0)の付近に写るように制御する。 (B) of FIG. 31 shows the position of the face UF in the image 3101 of the camera 32 corresponding to the example of (A). In the image 3101, the face FB indicates a face region in the case of the face UFB at the upper position. The space floating image display device 1000 determines the position of the face FB (for example, the position (CXB, CYB)) from the image 3101, and determines the position of the face UFB in the space (for example, (XB, YB, ZB)) from the position. Determine. The control board 61 of the spatial floating image display device 1000 rotates and moves the housing 60 by the drive mechanism 62 in response to the determination of the position of the face UF, so that the face UF is centered in the image 3101 of the camera 32. It is controlled so that the image is captured in the vicinity of (CX0, CY0).

本例では、画像3101内の顔FBRの領域は、筐体60の角度θでの回転後に顔が中心付近に写った状態を示す。この回転に伴い、空間浮遊映像3Aは、回転後の空間浮遊映像3Bの状態に変更されている。すなわち、この回転後の状態では、ユーザ230は、Z方向で上側の位置にある顔UFBの対応する目UEから、その空間浮遊映像3Bの内容を好適に視認できる。この回転後の状態では、顔UFBの目UEと空間浮遊映像3Bとの空間的な関係が、回転前の標準的な顔UFAの目UEと空間浮遊映像3Aとの空間的な関係と類似の関係となるように調整されている。 In this example, the region of the face FBR in the image 3101 shows a state in which the face is reflected near the center after the housing 60 is rotated at the angle θ. Along with this rotation, the space floating image 3A is changed to the state of the space floating image 3B after the rotation. That is, in this post-rotation state, the user 230 can suitably visually recognize the contents of the spatial floating image 3B from the corresponding eye UE of the face UFB located at the upper position in the Z direction. In this post-rotation state, the spatial relationship between the face UFB eye UE and the spatial floating image 3B is similar to the spatial relationship between the standard face UFA eye UE before rotation and the spatial floating image 3A. It is adjusted to be a relationship.

上記のように、実施の形態1では、空間浮遊映像表示装置1000に対向するユーザ230の例えば身長の違いに応じて、空間浮遊映像3を好適な状態に調整することができ、ユーザ230は空間浮遊映像3(例えば図27)を好適に視認し操作することができる。他の例として図30のように顔UFが標準位置から下側の位置C(高さ位置ZC)にある場合でも、上記と同様の調整が可能である。その場合、回転移動の方向は、図31の角度θの反時計回りとは逆の時計回りの方向とすればよい。 As described above, in the first embodiment, the space floating image 3 can be adjusted to a suitable state according to, for example, the difference in height of the user 230 facing the space floating image display device 1000, and the user 230 can adjust the space. The floating image 3 (for example, FIG. 27) can be suitably visually recognized and operated. As another example, even when the face UF is located at the lower position C (height position ZC) from the standard position as shown in FIG. 30, the same adjustment as described above is possible. In that case, the direction of rotational movement may be a clockwise direction opposite to the counterclockwise direction of the angle θ in FIG.

上記のように、実施の形態1によれば、空間浮遊映像3の視認および操作に関して、ユーザの利便性を高めることができる。ユーザ230の状態に応じて、空間浮遊映像表示装置1000が自動的に空間浮遊映像3を調整するので、ユーザ230は特に何らの面倒な動作や操作を要せずに、空間浮遊映像3の好適な視認および操作が可能となる。 As described above, according to the first embodiment, the convenience of the user can be enhanced with respect to the visual recognition and operation of the spatial floating image 3. Since the space floating image display device 1000 automatically adjusts the space floating image 3 according to the state of the user 230, the user 230 is suitable for the space floating image 3 without requiring any troublesome operation or operation. Visualization and operation are possible.

[変形例-平行移動]
図32は、実施の形態1の変形例を示す。この変形例では、筐体60の移動の他の方式として平行移動の場合、特に高さ方向(Z方向)の平行移動の場合を示す。図32は、空間浮遊映像表示装置1000を側面から見たY-Z面の状態で、ユーザ230の顔UFが標準よりも上側の位置の顔UFBである場合に、筐体60を標準位置からZ方向で上方に平行移動させた場合を示す。空間浮遊映像表示装置1000は、カメラ32で撮像した画像に基づいて、図31と同様の仕組みで、空間浮遊映像3の状態を調整する。制御基板61は、駆動機構62によって、筐体60を上方へ距離DZで平行移動させる。上面ACは、標準の筐体60の上面AAの位置から上方に距離DZで平行移動させた後の上面の位置を示す。距離DZは、カメラ32の画像内で顔UFの位置が中央付近となるように算出した距離である。この平行移動に伴い、空間浮遊映像3Aは、空間浮遊映像3Bの状態に変更されている。ユーザ230は、顔UFBの位置(高さ位置ZB)から、調整後の空間浮遊映像3Bを好適に視認し操作することができる。
[Modification example-translation]
FIG. 32 shows a modified example of the first embodiment. In this modification, a case of parallel movement as another method of movement of the housing 60, particularly a case of parallel movement in the height direction (Z direction) is shown. FIG. 32 shows the housing 60 from the standard position when the face UF of the user 230 is the face UFB at a position higher than the standard in the state of the YZ plane when the space floating image display device 1000 is viewed from the side. The case where it is translated upward in the Z direction is shown. The space floating image display device 1000 adjusts the state of the space floating image 3 by the same mechanism as in FIG. 31 based on the image captured by the camera 32. The control board 61 is translated by the drive mechanism 62 upward at a distance DZ. The upper surface AC indicates the position of the upper surface after being translated upward by a distance DZ from the position of the upper surface AA of the standard housing 60. The distance DZ is a distance calculated so that the position of the face UF is near the center in the image of the camera 32. Along with this translation, the space floating image 3A is changed to the state of the space floating image 3B. The user 230 can suitably visually recognize and operate the adjusted spatial floating image 3B from the position of the face UFB (height position ZB).

[変形例-構成要素移動]
他の変形例として、図示はしないが、筐体60自体ではなく、筐体60内の構成要素を移動することで、筐体自体を移動した場合と同様の効果を得ることができる。例えば、筐体60内の構成要素である表示装置1と再帰反射部材2を、相互の位置関係を保ったままで回転移動させることで、空間浮遊映像3が表示される空間上の位置を、例えば、より上側の位置となるように調整することができる。
[Transformation example-Move component]
As another modification, although not shown, by moving the components in the housing 60 instead of the housing 60 itself, the same effect as when the housing itself is moved can be obtained. For example, by rotating and moving the display device 1 and the retroreflective member 2, which are the constituent elements in the housing 60, while maintaining the mutual positional relationship, the position on the space where the space floating image 3 is displayed can be determined, for example. , Can be adjusted to a higher position.

上記の結果、ユーザ230は、標準位置から、上側にずれた位置にある顔UFの位置からでも、調整後の空間浮遊映像3Bをより好適に視認することができる。 As a result of the above, the user 230 can more preferably visually recognize the adjusted spatial floating image 3B even from the position of the face UF located at a position shifted upward from the standard position.

[変形例-左右方向の制御]
他の変形例として以下も可能である。この変形例では、空間浮遊映像表示装置1000およびユーザ230の左右方向(X方向)での顔UFの位置に応じた空間浮遊映像3の調整を行う機能を有する。前述の図29を用いて、X方向での調整を行う例を示す。X方向で、顔UFの位置XEは、標準的な中央の位置XAに対し、例えば右側にずれた位置の例である。ユーザ230はこの位置XEからは標準的な空間浮遊映像3(3A)を視認しにくい。距離DXは、位置XAと位置XEとのX方向での距離である。空間浮遊映像表示装置1000は、カメラ32の画像に基づいて、このような顔UFのX方向の位置XEやずれの距離DXを判別し、その顔UFのX方向の位置等に応じて、筐体60を移動させて、空間浮遊映像3の状態が好適となるように調整する。この場合、駆動機構62による筐体60の移動は、例えばX方向での平行移動、あるいはX-Y面でのZ軸周りの回転が挙げられる。これにより、ユーザ100は、X方向である程度ずれた位置からでも、調整後の空間浮遊映像3の好適な視認が可能となる。
[Modification example-control in the left-right direction]
The following is also possible as another modification. This modification has a function of adjusting the spatial floating image 3 according to the position of the face UF in the left-right direction (X direction) of the spatial floating image display device 1000 and the user 230. An example of making adjustments in the X direction is shown with reference to FIG. 29 described above. In the X direction, the face UF position XE is, for example, an example of a position offset to the right with respect to the standard central position XA. It is difficult for the user 230 to visually recognize the standard space floating image 3 (3A) from this position XE. The distance DX is the distance between the position XA and the position XE in the X direction. The spatial floating image display device 1000 determines the position XE of the face UF in the X direction and the distance DX of the deviation based on the image of the camera 32, and determines the position X of the face UF in the X direction and the like. The body 60 is moved to adjust the state of the spatial floating image 3 to be suitable. In this case, the movement of the housing 60 by the drive mechanism 62 includes, for example, translation in the X direction or rotation around the Z axis in the XY plane. As a result, the user 100 can preferably visually recognize the adjusted spatial floating image 3 even from a position shifted to some extent in the X direction.

[変形例-奥行き方向の制御]
図33および図34は、他の変形例を示す。この変形例では、空間浮遊映像表示装置1000およびユーザ230の奥行き方向・前後方向であるY方向での顔UFの位置に応じた空間浮遊映像3の調整を行う機能を有する。図33および図34を用いて、Y方向での調整を行う例を示す。予め設定された顔UFの標準位置(顔UFA)は、Z方向では高さ位置ZA、Y方向では位置YA、X方向では図29の位置XAであるとする。その標準位置に合わせて設定された標準的な空間浮遊映像3は、空間浮遊映像3Aであるとする。顔UFDは、顔UFがY方向で位置YDにある場合を示す。距離YDは、顔UFDの位置YDと、標準の顔UFAの位置YAとの距離である。ユーザ230はこの位置YDからは標準的な空間浮遊映像3(3A)を視認しにくい。
[Transformation example-Control in the depth direction]
33 and 34 show other variants. This modification has a function of adjusting the spatial floating image 3 according to the position of the face UF in the depth direction and the Y direction of the user 230 of the spatial floating image display device 1000 and the user 230. 33 and 34 are used to show an example of making adjustments in the Y direction. It is assumed that the preset standard position of the face UF (face UFA) is the height position ZA in the Z direction, the position YA in the Y direction, and the position XA in FIG. 29 in the X direction. It is assumed that the standard space floating image 3 set according to the standard position is the space floating image 3A. The face UFD indicates a case where the face UF is in the position YD in the Y direction. The distance YD is the distance between the position YD of the face UFD and the position YA of the standard face UFA. It is difficult for the user 230 to visually recognize the standard space floating image 3 (3A) from this position YD.

空間浮遊映像表示装置1000は、カメラ32の画像に基づいて、このようなY方向での顔UFの位置YDやずれの距離DY等を判別し、その判別した顔UFの状態に応じて、筐体60を移動させて、空間浮遊映像3の状態が好適となるように調整する。この場合、駆動機構62による筐体60の移動は、例えばY方向での平行移動、あるいはY-Z面でのX軸周りの回転が挙げられる。これにより、ユーザ100は、Y方向である程度ずれた位置からでも、調整後の空間浮遊映像3の好適な視認が可能となる。 The spatial floating image display device 1000 determines the position YD of the face UF in the Y direction, the deviation distance DY, and the like based on the image of the camera 32, and depending on the state of the determined face UF, the housing The body 60 is moved to adjust the state of the spatial floating image 3 to be suitable. In this case, the movement of the housing 60 by the drive mechanism 62 includes, for example, translation in the Y direction or rotation around the X axis on the YZ plane. As a result, the user 100 can preferably visually recognize the adjusted spatial floating image 3 even from a position shifted to some extent in the Y direction.

[変形例-空間浮遊映像の制御]
さらに、変形例として以下も可能である。ユーザ230が移動することで顔UFの位置が図30のようにZ方向で変化する場合、図29のようにX方向で変化する場合、および図33のようにY方向で変化する場合、のいずれの場合にも、空間浮遊映像表示装置1000は、以下のように、空間浮遊映像3の表示および調整の開始や終了の制御を行う。ここでは、図33のようにY方向で変化する場合を例に説明する。図33で、例えばユーザ230がY方向で空間浮遊映像表示装置1000に対し遠方から手前に近付いてきた場合を考える。位置YFは、遠方の位置の例である。
[Transformation example-Control of floating image in space]
Further, as a modification, the following is also possible. When the position of the face UF changes in the Z direction as shown in FIG. 30, when the user 230 moves, the position changes in the X direction as shown in FIG. 29, and when the position changes in the Y direction as shown in FIG. 33. In any case, the space floating image display device 1000 controls the start and end of the display and adjustment of the space floating image 3 as follows. Here, a case of changing in the Y direction as shown in FIG. 33 will be described as an example. In FIG. 33, for example, consider a case where the user 230 approaches the space floating image display device 1000 in the Y direction from a distance to the front. Position YF is an example of a distant position.

空間浮遊映像表示装置1000は、カメラ32の画像による検出に基づいて、最初、付近にユーザ230の顔UFが無い場合には、空間浮遊映像3を表示せず、言い換えると待機状態にする。あるいは、空間浮遊映像表示装置1000は、カメラ32の画像内に顔UFが写っている場合でも、画像内での顔のサイズ等から、顔UFのY方向での位置を判別し、その位置が閾値以上である場合には、ユーザ230が空間浮遊映像表示装置1000の手前の位置には来ていないと判定し、空間浮遊映像3を表示しない。例えば、閾値HYは、Y方向の距離の閾値の例であり、例えば標準の位置YAとの所定の距離である。空間浮遊映像表示装置1000は、顔UFの位置が閾値HY以内の位置になったと判定した場合、空間浮遊映像3の表示および調整を開始する。例えば、最初、空間浮遊映像表示装置1000は、標準位置に空間浮遊映像3(3A)を表示する。その後、空間浮遊映像表示装置1000は、閾値HY以内での顔UFの位置や距離DYに応じて、空間浮遊映像3の状態を調整する。 Based on the detection by the image of the camera 32, the space floating image display device 1000 does not display the space floating image 3 when there is no face UF of the user 230 in the vicinity at first, in other words, puts it in a standby state. Alternatively, the spatial floating image display device 1000 determines the position of the face UF in the Y direction from the size of the face in the image even when the face UF is shown in the image of the camera 32, and the position is determined. When it is equal to or more than the threshold value, it is determined that the user 230 has not come to the position in front of the space floating image display device 1000, and the space floating image 3 is not displayed. For example, the threshold HY is an example of a threshold for the distance in the Y direction, for example, a predetermined distance from the standard position YA. When the space floating image display device 1000 determines that the position of the face UF is within the threshold value HY, the space floating image display device 1000 starts displaying and adjusting the space floating image 3. For example, initially, the space floating image display device 1000 displays the space floating image 3 (3A) at a standard position. After that, the space floating image display device 1000 adjusts the state of the space floating image 3 according to the position of the face UF within the threshold value HY and the distance DY.

図34は、図33の例に対応したカメラ32の画像3401の例である。顔UFが位置YFのように標準位置に対し遠方にある場合、カメラ32の画像3401では、標準位置にある場合の顔FAの領域よりもサイズが相対的に小さい顔FFの領域として写っている。また、その顔FFの領域は、標準位置にある場合の顔FAの高さ位置よりも下側の位置(例えば位置(CXF,CYF))として写っている。 FIG. 34 is an example of the image 3401 of the camera 32 corresponding to the example of FIG. 33. When the face UF is far from the standard position like the position YF, the image 3401 of the camera 32 shows the area of the face FF whose size is relatively smaller than the area of the face FA when the face UF is in the standard position. .. Further, the region of the face FF is shown as a position below the height position of the face FA when it is in the standard position (for example, a position (CXF, CYF)).

制御基板61は、カメラ32で撮像した画像3401の解析に基づいて、ユーザ230の顔UFの領域のサイズおよびその変化を判断することで、ユーザ230の顔UFのY方向での移動を判別する。制御基板61は、顔UFの位置が閾値HY内の位置になったかどうかや、標準的な位置YAとの距離DY等を判別する。その際、例えば、制御基板61は、画像3401内の顔または頭の画素領域を検出し、画素数等によってサイズ(言い換えると面積)を判断してもよい。制御基板61は、そのサイズから、換算で、Y方向での位置を判断してもよい。制御基板61は、そのサイズと、サイズ閾値とを比較することで、顔UFの位置が閾値HY内の位置になったかどうか(例えば顔UFが標準的な位置YAの付近に来たかどうか)等を判断してもよい。 The control board 61 determines the movement of the face UF of the user 230 in the Y direction by determining the size of the region of the face UF of the user 230 and its change based on the analysis of the image 3401 captured by the camera 32. .. The control board 61 determines whether or not the position of the face UF is within the threshold value HY, the distance DY from the standard position YA, and the like. At that time, for example, the control board 61 may detect the pixel region of the face or the head in the image 3401 and determine the size (in other words, the area) based on the number of pixels or the like. The position of the control board 61 may be determined in the Y direction by conversion from its size. By comparing the size of the control board 61 with the size threshold value, whether or not the position of the face UF is within the threshold value HY (for example, whether or not the face UF is near the standard position YA) and the like. May be judged.

制御基板61は、例えば、顔UFのY方向の位置に応じた距離DYが、所定の閾値超えである場合には、X方向、Y方向、およびZ方向での空間浮遊映像3の調整を開始せず、所定の閾値内になった場合には、X方向、Y方向、およびZ方向での空間浮遊映像3の調整を開始してもよい。 For example, when the distance DY corresponding to the position of the face UF in the Y direction exceeds a predetermined threshold value, the control board 61 starts adjusting the spatial floating image 3 in the X direction, the Y direction, and the Z direction. If it falls within a predetermined threshold, the adjustment of the spatial floating image 3 in the X direction, the Y direction, and the Z direction may be started.

上記のように、変形例では、ユーザ230の状態に応じて空間浮遊映像3の表示および調整に関するオン/オフ等の制御を行うことにより、ユーザ230による空間浮遊映像3の利用の利便性を高めることができる、なお、ユーザ230の顔UFのY方向の位置の検出については、第2センサとして、特にTOF方式のセンサやステレオカメラ等を適用すれば、Y方向での位置の測定をより容易・高精度にできるため、より効率的な制御が可能である。 As described above, in the modified example, the convenience of using the space floating image 3 by the user 230 is enhanced by controlling on / off and the like regarding the display and adjustment of the space floating image 3 according to the state of the user 230. Regarding the detection of the position of the face UF of the user 230 in the Y direction, if a TOF type sensor, a stereo camera, or the like is applied as the second sensor, it is easier to measure the position in the Y direction.・ Because it can be made highly accurate, more efficient control is possible.

[変形例-コード読み取り]
実施の形態1の変形例として以下も可能である。この変形例では、空間浮遊映像表示装置1000は、QRコード(登録商標)等のコードを使用する用途に適用される。例えば、ATM装置でQRコードを利用する用途でもよいし、店舗の無人レジ等でQRコードを使用する用途でもよい。この変形例では、空間浮遊映像表示装置1000は、前述の顔UFの位置に応じた空間浮遊映像3の調整の機能の他に、空間浮遊映像3でのQRコードの読み取りの機能を有する。
[Modification example-code reading]
The following is also possible as a modification of the first embodiment. In this modification, the space floating image display device 1000 is applied to an application using a code such as a QR code (registered trademark). For example, the QR code may be used in an ATM device, or the QR code may be used in an unmanned cash register in a store. In this modification, the space floating image display device 1000 has a function of reading a QR code in the space floating image 3 in addition to the function of adjusting the space floating image 3 according to the position of the face UF described above.

図35の(A)は、変形例において、空間浮遊映像表示装置1000を側面からみたX-Z面の状態で、ユーザ230が空間浮遊映像3の面に自分のスマートフォンSPの表示画面のQRコードをかざす操作を行う様子を示す。ユーザ230の顔UFは、前述の標準位置(高さ位置ZA等)にあるとする。 FIG. 35A shows a modified example in which the user 230 uses the QR code of the display screen of his / her smartphone SP on the surface of the space floating image 3 in the state of the XZ surface when the space floating image display device 1000 is viewed from the side. Shows how to perform the operation of holding the. It is assumed that the face UF of the user 230 is in the above-mentioned standard position (height position ZA or the like).

図35の(B)は、空間浮遊映像表示装置1000による空間浮遊映像3の表示例として、QRコードをかざすようにガイドする画像3501の表示例を示す。画像3501において、領域3502には、「ここにQRコードをかざしてください」といったようにユーザ230に対しQRコードをかざす操作をガイドするメッセージ等のGUIが表示されている。領域3502は、空間浮遊映像表示装置1000の制御基板61によってカメラ32の画像からQRコードを読み取った場合に、読み取り結果が表示される領域である。読み取り結果は、そのQRコードに応じた内容である。 FIG. 35B shows a display example of the image 3501 that guides the person to hold the QR code as a display example of the space floating image 3 by the space floating image display device 1000. In the image 3501, the area 3502 displays a GUI such as a message that guides the user 230 to hold the QR code, such as "Please hold the QR code here." The area 3502 is an area in which the reading result is displayed when the QR code is read from the image of the camera 32 by the control board 61 of the space floating image display device 1000. The reading result is the content corresponding to the QR code.

ユーザ230は、空間浮遊映像表示装置1000の手前の位置で、図35の(B)のような空間浮遊映像3の画像3501を視認して確認し、ガイドに従って、スマートフォンSPの表示画面に表示されているQRコードを、領域3502に重ね合わせるようにかざす。その際、カメラ32は、空間浮遊映像3の領域3502においてかざされたQRコードを含む、画角αの範囲を撮像する。制御基板61は、そのカメラ32の画像から、QRコードを読み取る。すなわち、制御基板61は、QRコード画像からQRコード情報を認識する。制御基板61は、QRコードの読み取り結果を、空間浮遊映像3の画像3501の領域3503に表示する。 The user 230 visually confirms the image 3501 of the space floating image 3 as shown in FIG. 35 (B) at a position in front of the space floating image display device 1000, and displays the image 3501 on the display screen of the smartphone SP according to the guide. Hold the QR code over the area 3502. At that time, the camera 32 captures a range of the angle of view α including the QR code held over in the area 3502 of the space floating image 3. The control board 61 reads a QR code from the image of the camera 32. That is, the control board 61 recognizes the QR code information from the QR code image. The control board 61 displays the reading result of the QR code in the area 3503 of the image 3501 of the space floating image 3.

このように、この変形例では、前述の空間浮遊映像3の調整用の第2センサであるカメラ32を、QRコード等のコードの読み取りに兼用できる。カメラ32は、前述のように、標準的な顔UF、および空間浮遊映像3の少なくとも一部、を含む範囲を画角αで撮像できるように設計されている。そのため、カメラ32は、空間浮遊映像3に対し重ねるように配置されたQRコードを高精度に撮像することができ、QRコードの読み取りを高精度に実現できる。 As described above, in this modification, the camera 32, which is the second sensor for adjusting the spatial floating image 3 described above, can also be used for reading a code such as a QR code. As described above, the camera 32 is designed so that a range including a standard face UF and at least a part of the spatial floating image 3 can be captured at an angle of view α. Therefore, the camera 32 can image the QR code arranged so as to overlap the spatial floating image 3 with high accuracy, and can realize the reading of the QR code with high accuracy.

また、空間浮遊映像表示装置1000は、上記QRコードの読み取りの操作の際に、カメラ32の画像に基づいて、前述のように、顔UFの位置に応じて空間浮遊映像3の状態を調整する。これにより、ユーザ230個人の状態に応じて好適な空間浮遊映像3の状態とすることで、ユーザ230は、空間浮遊映像3の面に対するQRコードの操作をより容易に行うことができ、空間浮遊映像表示装置1000は、QRコードの読み取りをより高精度に可能である。 Further, the space floating image display device 1000 adjusts the state of the space floating image 3 according to the position of the face UF as described above based on the image of the camera 32 at the time of the operation of reading the QR code. .. As a result, by setting the state of the spatial floating image 3 suitable for the individual state of the user 230, the user 230 can more easily operate the QR code on the surface of the spatial floating image 3, and the spatial floating image 3 can be operated. The video display device 1000 can read the QR code with higher accuracy.

また、図35の(A)では、空間浮遊映像3の面に対し、z方向で少し手前側にスマートフォンSPのQRコードがかざされている。空間浮遊映像3の面においてコードを読み取る際に、空間浮遊映像3の面と、コード(対応するスマートフォンSPの画面)の面との距離については、予め、コード読み取りの判定条件として設定可能である。判定条件の例としては、その距離が、空間浮遊映像3の面を0として前後に±で所定の閾値以内である場合に、コードの読み取りを開始する、というものとしてもよい。 Further, in FIG. 35A, the QR code of the smartphone SP is held slightly toward the front side in the z direction with respect to the surface of the space floating image 3. When reading a code on the surface of the space floating image 3, the distance between the surface of the space floating image 3 and the surface of the code (the screen of the corresponding smartphone SP) can be set in advance as a determination condition for reading the code. .. As an example of the determination condition, the reading of the code may be started when the distance is within a predetermined threshold value by ± in the front-back direction with the surface of the space floating image 3 as 0.

特に、空間浮遊映像3の面の位置に対し、QRコード等のコードの画像や物体を高精度に位置合わせしなければならないという条件にする場合も考えられる。その場合に、空間浮遊映像表示装置1000は、前述の顔UFの位置に応じた空間浮遊映像3の調整を併せて行うことで、ユーザ230は、空間浮遊映像3の面の位置に対し、コードの画像や物体を高精度に位置合わせすることが容易となる。 In particular, there may be a case where the image or object of a code such as a QR code must be aligned with high accuracy with respect to the position of the surface of the spatial floating image 3. In that case, the space floating image display device 1000 also adjusts the space floating image 3 according to the position of the face UF described above, so that the user 230 can use the code with respect to the position of the surface of the space floating image 3. It becomes easy to align the image and the object of the above with high accuracy.

上記変形例は、QRコードに限らず、IDカードや本人確認証等を空間浮遊映像3の位置で読み取らせる用途に適用できる。 The above modification is not limited to the QR code, and can be applied to an application in which an ID card, an identity verification certificate, or the like is read at the position of the space floating image 3.

他の変形例として、カメラ32の方向や撮像範囲に関して以下のようにしてもよい。図26等の構成例では、空間浮遊映像3の光軸の方向と、カメラ32の光軸の方向とは別の方向となっている。カメラ32の光軸は、空間浮遊映像3の上辺よりも上側を通過して、標準的な顔UFや目UEを捉えるように設計されている。この設計に限らずに可能である。例えば、カメラ32の光軸の方向を、空間浮遊映像3の光軸の方向と平行にしてもよい。この場合、空間浮遊映像3の座標系とカメラ32の画像の座標系とをより近いものにすることができる。また、カメラ32の光軸が空間浮遊映像3の領域を通過するようにしてもよい。 As another modification, the direction of the camera 32 and the imaging range may be as follows. In the configuration example shown in FIG. 26 and the like, the direction of the optical axis of the spatial floating image 3 is different from the direction of the optical axis of the camera 32. The optical axis of the camera 32 is designed to pass above the upper side of the space floating image 3 and capture a standard face UF or eye UE. Not limited to this design, it is possible. For example, the direction of the optical axis of the camera 32 may be parallel to the direction of the optical axis of the spatial floating image 3. In this case, the coordinate system of the spatial floating image 3 and the coordinate system of the image of the camera 32 can be made closer to each other. Further, the optical axis of the camera 32 may pass through the region of the space floating image 3.

(実施の形態2)
図36以降を用いて、実施の形態2の空間浮遊映像表示装置1000について説明する。実施の形態2で、適用する用途の例としては、銀行のATM装置とする。実施の形態2での空間浮遊映像表示装置1000は、ユーザ230の銀行口座に関連付けられたユーザ認証を行う機能を有する。この空間浮遊映像表示装置1000は、空間浮遊映像3として表示される画面(例えば銀行口座の暗証番号入力画面)を利用・操作するユーザ230個人をユーザ認証し、そのユーザ認証結果に応じて空間浮遊映像3の画面の表示を制御する。
(Embodiment 2)
The space floating image display device 1000 of the second embodiment will be described with reference to FIGS. 36 and later. In the second embodiment, an example of the application is an ATM device of a bank. The spatial floating image display device 1000 according to the second embodiment has a function of performing user authentication associated with the bank account of the user 230. The space floating image display device 1000 user-authenticates 230 individuals who use and operate the screen displayed as the space floating image 3 (for example, the password input screen of the bank account), and the space floating according to the user authentication result. Control the display of the screen of the image 3.

また、実施の形態2では、空間浮遊映像表示装置1000は、空間浮遊映像3の画面に対する手指UHによる操作の検出・判定に関する感度を調整する機能を有する。ユーザ230が空間浮遊映像3の画面のボタン等を押下する操作の際、空中での操作でもあるため、ユーザ230個人毎に、手指UHの動かし方等の特性(言い換えると癖)が異なる。ユーザ230個人によっては、第1センサを用いた空中操作の検出・判定がしにくいことが想定される。そこで、実施の形態2の空間浮遊映像表示装置1000は、第1センサ、第2センサ、または後述の第3センサを用いて、ユーザ230個人毎の空間浮遊映像3の操作の特性を判別する。そして、実施の形態2の空間浮遊映像表示装置1000は、そのユーザ230個人の操作の特性に応じて、その個人用に空間浮遊映像3の画面の操作の感度を調整する。感度の調整は、具体的には、個人の操作の特性に合わせるように、第1センサ(および前述の図3Cの空中操作検出部1350)を用いた空間浮遊映像3の操作の判定のための判定条件を変更・調整することである。 Further, in the second embodiment, the space floating image display device 1000 has a function of adjusting the sensitivity regarding the detection / determination of the operation by the finger UH on the screen of the space floating image 3. When the user 230 presses a button or the like on the screen of the spatial floating image 3, the operation is also in the air, so that the characteristics (in other words, the habit) such as how to move the finger UH are different for each user 230. It is assumed that it is difficult for some users 230 to detect and determine the aerial operation using the first sensor. Therefore, the space floating image display device 1000 of the second embodiment determines the operation characteristics of the space floating image 3 for each user 230 by using the first sensor, the second sensor, or the third sensor described later. Then, the space floating image display device 1000 of the second embodiment adjusts the sensitivity of the operation of the screen of the space floating image 3 for the individual according to the operation characteristics of the user 230 individual. The adjustment of the sensitivity is specifically for determining the operation of the space floating image 3 using the first sensor (and the above-mentioned aerial operation detection unit 1350 in FIG. 3C) so as to match the characteristics of the individual operation. It is to change / adjust the judgment conditions.

実施の形態2では、ユーザ認証を含む空間浮遊映像3の操作に関して、個人の操作の特性を用いて感度を調整できるので、ユーザ230は、ユーザ認証を含む空間浮遊映像3の操作をより容易に利用できる。 In the second embodiment, the sensitivity of the operation of the space floating image 3 including the user authentication can be adjusted by using the characteristics of the individual operation, so that the user 230 can more easily operate the space floating image 3 including the user authentication. Available.

[ユーザ認証]
図36は、実施の形態2における空間浮遊映像表示装置1000等の構成を側面からみたX-Z面の状態を示す。吹き出しには、主に制御基板61(特に図3Cの制御部1110)によって行われるユーザ認証の処理の概要を示す。実施の形態2の例では、制御基板61(特に制御部1110を構成するプロセッサ)が、ユーザ認証に係わる処理として、2段階のユーザ認証に係わる処理を行う。2段階のうち、第1ユーザ認証は、第2センサであるカメラ32を用いて、ユーザ230の顔UFを撮影した画像を用いた、顔認証である。制御基板61は、カメラ32でユーザ230の顔UFを撮影した画像内の顔画像から、予め登録済みの顔画像との比較に基づいて、そのユーザ230が登録済みのユーザ(すなわち銀行口座に関連付けられたユーザ)であるかどうか、顔認証処理を行う。第1ユーザ認証の結果が成功(OK)である場合には、空間浮遊映像表示装置1000は、所定の空間浮遊映像3(後述)を表示する。第1ユーザ認証の結果が失敗(NG)である場合には、空間浮遊映像表示装置1000は、次に、第2ユーザ認証に遷移する。
[User Authentication]
FIG. 36 shows the state of the XX plane when the configuration of the space floating image display device 1000 or the like in the second embodiment is viewed from the side. The balloon shows an outline of the user authentication process mainly performed by the control board 61 (particularly, the control unit 1110 in FIG. 3C). In the example of the second embodiment, the control board 61 (particularly, the processor constituting the control unit 1110) performs the process related to the two-step user authentication as the process related to the user authentication. Of the two stages, the first user authentication is face authentication using an image of the face UF of the user 230 using the camera 32, which is the second sensor. The control board 61 associates the face image of the user 230 with the face image taken by the camera 32 with the registered user (that is, the bank account) based on the comparison with the pre-registered face image. Face recognition processing is performed to determine whether or not the user is a user. If the result of the first user authentication is successful (OK), the space floating image display device 1000 displays a predetermined space floating image 3 (described later). If the result of the first user authentication is failure (NG), the space floating image display device 1000 then transitions to the second user authentication.

第2ユーザ認証は、専用タッチペンUPを用いたユーザ認証である。この専用タッチペンUPは、ユーザ230が所持しており、そのユーザ230個人のユーザIDを含む情報がメモリに内蔵されている。そのユーザIDは、ユーザ230の銀行口座と関連付けられたIDである。ユーザ230は、空間浮遊映像表示装置1000が表示する空間浮遊映像3の画面のガイドに従って、専用タッチペンUPを操作する。専用タッチペンUPは、通信機能として特に近距離無線通信機能(例えばBluetooth(登録商標))も備えている。空間浮遊映像表示装置1000の制御基板61は、図3Cの通信部1132を通じて、専用タッチペンUPと通信し、専用タッチペンUPからユーザIDを含む情報を受信・取得する。制御基板61は、その取得したユーザIDから、予め登録済みのユーザIDとの比較に基づいて、その専用タッチペンUPを持つユーザ230が登録済みのユーザ(すなわち銀行口座に関連付けられたユーザ)であるかどうか、専用タッチペンでのユーザ認証処理を行う。 The second user authentication is user authentication using the dedicated touch pen UP. The dedicated touch pen UP is possessed by the user 230, and information including the user ID of the individual user 230 is built in the memory. The user ID is an ID associated with the bank account of user 230. The user 230 operates the dedicated touch pen UP according to the guide on the screen of the space floating image 3 displayed by the space floating image display device 1000. The dedicated stylus UP also has a short-range wireless communication function (for example, Bluetooth (registered trademark)) as a communication function. The control board 61 of the space floating image display device 1000 communicates with the dedicated touch pen UP through the communication unit 1132 of FIG. 3C, and receives / acquires information including a user ID from the dedicated touch pen UP. The control board 61 is a registered user (that is, a user associated with a bank account) of the user 230 having the dedicated touch pen UP based on the comparison with the pre-registered user ID from the acquired user ID. Whether or not to perform user authentication processing with a dedicated stylus.

第2ユーザ認証の結果が成功(OK)である場合には、空間浮遊映像表示装置1000は、所定の空間浮遊映像3(後述)を表示する。第2ユーザ認証の結果が失敗(NG)である場合には、空間浮遊映像表示装置1000は、総合的なユーザ認証結果失敗に対応する処理として、空間浮遊映像3の消去(言い換えると表示終了)、あるいは、「認証失敗」の旨の空間浮遊映像3の表示といった処理を行い、所定の空間浮遊映像3の表示には遷移しない。 If the result of the second user authentication is successful (OK), the space floating image display device 1000 displays a predetermined space floating image 3 (described later). When the result of the second user authentication is failure (NG), the space floating image display device 1000 erases the space floating image 3 (in other words, the display ends) as a process corresponding to the comprehensive user authentication result failure. Alternatively, processing such as displaying the spatial floating image 3 indicating "authentication failure" is performed, and the display does not transition to the predetermined spatial floating image 3.

所定の空間浮遊映像3の表示は、本例では、ATM装置のアプリケーションのGUIにおける、暗証番号入力画面の表示である。この所定の空間浮遊映像3の画面において、空間浮遊映像表示装置1000は、ユーザ230の手指UHまたは専用タッチペンSPによる操作を受け付ける。空間浮遊映像表示装置1000は、第1センサであるセンサ31を用いて、その空間浮遊映像3の画面に対する手指UHまたは専用タッチペンSPによる操作を検出・判定する。例えば専用タッチペンSPによる操作を検出する場合には、専用タッチペンSPの先端部分を対象として、空間浮遊映像3の面に対する位置や進入の深さ等が判断される。 In this example, the display of the predetermined space floating image 3 is the display of the password input screen in the GUI of the application of the ATM device. On the screen of the predetermined space floating image 3, the space floating image display device 1000 accepts an operation by the user 230's finger UH or the dedicated touch pen SP. The space floating image display device 1000 detects and determines an operation by the finger UH or the dedicated touch pen SP on the screen of the space floating image 3 by using the sensor 31 which is the first sensor. For example, when detecting an operation by the dedicated touch pen SP, the position, the depth of entry, and the like with respect to the surface of the space floating image 3 are determined for the tip portion of the dedicated touch pen SP.

[所定の画面]
図37は、所定の空間浮遊映像3の画面の例として、暗証番号入力画面を、正対するユーザ230の目UEから見た状態として示す。この画面は、第1段階の画面3701と、第2段階の画面3702とから構成されている。空間浮遊映像3は、本例では縦長の画面である。空間浮遊映像表示装置1000は、最初、第1段階の画面3701を表示する。画面3701には、中央位置に感度調整用のGUI部品としての確認ボタン3703と、ガイドのメッセージ(「はじめに上の確認ボタンを押してください」)とが表示されている。ユーザ230は、ガイドに従い、手指UHまたは専用タッチペンUPによって確認ボタン3703を押す操作(空中でのタッチ操作)を行う。なお、空間浮遊映像表示装置1000は、第1センサまたは第3センサを用いて確認ボタン3703の押下の操作を検出した場合、確認ボタン3703が押下されたことを表すエフェクト等を表示してもよい。これにより、ユーザ230に対し確認ボタン3703が押下されたことがよりわかりやすくフィードバックされる。
[Predetermined screen]
FIG. 37 shows, as an example of the screen of the predetermined space floating image 3, the state in which the password input screen is viewed from the eye UE of the user 230 facing the user. This screen is composed of a first stage screen 3701 and a second stage screen 3702. The space floating image 3 is a vertically long screen in this example. The space floating image display device 1000 first displays the screen 3701 of the first stage. On the screen 3701, a confirmation button 3703 as a GUI component for sensitivity adjustment and a guide message ("Please press the confirmation button above") are displayed at the center position. The user 230 performs an operation (touch operation in the air) of pressing the confirmation button 3703 with the finger UH or the dedicated stylus UP according to the guide. When the space floating image display device 1000 detects the operation of pressing the confirmation button 3703 using the first sensor or the third sensor, the space floating image display device 1000 may display an effect or the like indicating that the confirmation button 3703 has been pressed. .. As a result, the user 230 is fed back that the confirmation button 3703 is pressed in an easy-to-understand manner.

この確認ボタン3703の操作を受けて、空間浮遊映像表示装置1000は、感度調整の処理を行った後、第2段階の画面3702の表示へ遷移させる。第2段階の画面3702は、暗証番号入力画面の本体であり、番号ボタン3704やガイドのメッセージ(「暗証番号(4けた)を押してください」)や入力暗証番号確認欄3705等が設けられている。ユーザ230は、手指UH等で暗証番号に対応する番号ボタン3704を順に押下する。制御基板61は、第1センサを用いて判定条件に基づいて番号ボタン3704の押下を検出し、検出に応じて入力暗証番号確認欄3705に、入力された番号の確認用の表示を行う。この確認用の表示は、公知技術と同様に、番号自体の表示ではなく、アスタリスク(*)等の表示としてもよい。本例は、ATMの暗証番号入力に適用する例を示したが、これに限らず、各種の用途に同様に適用できる。 In response to the operation of the confirmation button 3703, the space floating image display device 1000 performs a sensitivity adjustment process, and then transitions to the display of the screen 3702 in the second stage. The screen 3702 of the second stage is the main body of the password input screen, and is provided with a number button 3704, a guide message ("Please press the password (4 digits)"), an input password confirmation field 3705, and the like. .. The user 230 sequentially presses the number button 3704 corresponding to the personal identification number with a finger UH or the like. The control board 61 detects the pressing of the number button 3704 based on the determination condition using the first sensor, and displays the input number for confirmation in the input password confirmation field 3705 according to the detection. This confirmation display may be an asterisk (*) or the like instead of the number itself, as in the publicly known technique. This example shows an example applied to the input of the personal identification number of the ATM, but the present invention is not limited to this, and can be similarly applied to various uses.

[特性検出・感度調整]
図36で、実施の形態2の空間浮遊映像表示装置1000は、筐体60に、実施の形態1と同様の構成要素に加え、第3センサとして、特性検出センサ33(言い換えると感度調整用センサ)を備える。もしくは、前述の第1センサであるセンサ31を、特性検出センサとして兼用する構成、言い換えると、第1センサと第3センサとを一体化した構成でもよい。あるいは、前述の第2センサであるカメラ32を、特性検出センサとして兼用する構成、言い換えると、第2センサと第3センサとを一体化した構成でもよい。特性検出センサ33は、空間浮遊映像3に対するユーザ230の操作の特性を検出するためのセンサである。特性検出センサ33は、例えば図36のように第1センサであるセンサ31と同じような位置に設置されてもよいし、それとは異なる位置に設置されてもよい。本例では、特性検出センサ33は、第1センサと同じような位置として、Z方向では筐体60の上面、Y方向では手前側、X方向では図29の左右の位置XR,XLの付近に設置されている。特性検出センサ33の検出軸の方向は、例えば空間浮遊映像3の面と平行な方向である。本例では、特性検出センサ33として、X方向で左右の2つのカメラをステレオカメラとして用いる。これを用いることで、3次元の空間(X,Y,Z)内での手指UH等の位置や動き等を検出できる。他の例では、第3センサは、X方向で中央位置の1つのセンサとして設けられてもよい。第3センサは、3次元の空間内での手指UH等の位置や動き等を検出できるセンサであればよい。
[Characteristic detection / sensitivity adjustment]
In FIG. 36, the space floating image display device 1000 of the second embodiment has a characteristic detection sensor 33 (in other words, a sensor for adjusting sensitivity) as a third sensor in addition to the same components as those of the first embodiment in the housing 60. ). Alternatively, the sensor 31 which is the first sensor described above may be used as a characteristic detection sensor, in other words, the first sensor and the third sensor may be integrated. Alternatively, the camera 32, which is the second sensor described above, may be used as a characteristic detection sensor, in other words, the second sensor and the third sensor may be integrated. The characteristic detection sensor 33 is a sensor for detecting the characteristics of the operation of the user 230 with respect to the spatial floating image 3. The characteristic detection sensor 33 may be installed at the same position as the sensor 31, which is the first sensor, as shown in FIG. 36, or may be installed at a different position. In this example, the characteristic detection sensor 33 is located at the same position as the first sensor, on the upper surface of the housing 60 in the Z direction, on the front side in the Y direction, and near the left and right positions XR and XL in FIG. 29 in the X direction. is set up. The direction of the detection axis of the characteristic detection sensor 33 is, for example, a direction parallel to the surface of the space floating image 3. In this example, as the characteristic detection sensor 33, two cameras on the left and right in the X direction are used as stereo cameras. By using this, it is possible to detect the position, movement, etc. of the finger UH or the like in a three-dimensional space (X, Y, Z). In another example, the third sensor may be provided as one sensor in the center position in the X direction. The third sensor may be a sensor that can detect the position, movement, etc. of the finger UH or the like in a three-dimensional space.

第1センサであるセンサ31や、第2センサであるカメラ32については、実施の形態1で説明したものと同様のものを適用できる。これに限らず、第2センサは、ユーザ認証を考慮して、実施の形態1で適用したカメラ32とは別のセンサを適用してもよい。また、ユーザ個人の操作の特性を検出する際には、第3センサに加え、第2センサを併用してもよい。また、第3センサとして、1つのTOF方式の測距センサを用いてもよい。また、第1センサである1つ以上のセンサ32、第2センサである1つ以上のカメラ32、および第3センサである任意の1つ以上のセンサ(例えばCCD等のカメラ、あるいはTOF方式の測距センサ)を組み合わせて機能を構成してもよい。 As the sensor 31 which is the first sensor and the camera 32 which is the second sensor, the same ones as described in the first embodiment can be applied. Not limited to this, the second sensor may apply a sensor different from the camera 32 applied in the first embodiment in consideration of user authentication. Further, when detecting the characteristics of the operation of the individual user, the second sensor may be used in combination with the third sensor. Further, as the third sensor, one TOF type distance measuring sensor may be used. Further, one or more sensors 32 which are the first sensors, one or more cameras 32 which are the second sensors, and any one or more sensors which are the third sensors (for example, a camera such as a CCD, or a TOF method). The function may be configured by combining the distance measuring sensor).

[処理フロー]
図38は、実施の形態2での空間浮遊映像表示装置1000の主な処理のフローを示し、ステップS200~S208を有する。ステップS200で、制御基板61は、図36で示した2段階のユーザ認証を行う。ステップS200のユーザ認証の結果で成功となってユーザ230個人を識別したことを契機として、ステップS201で、制御基板61は、特性検出・感度調整プロセスを開始する。ステップS202で、制御基板61は、図37の第1段階の画面3701を表示する。ユーザ230は、手指UHまたは専用タッチペンSPで確認ボタン3702を押下する操作(空中でのタッチ操作)を行う。
[Processing flow]
FIG. 38 shows the main processing flow of the space floating image display device 1000 according to the second embodiment, and includes steps S200 to S208. In step S200, the control board 61 performs the two-step user authentication shown in FIG. When the user authentication in step S200 is successful and the individual user 230 is identified, the control board 61 starts the characteristic detection / sensitivity adjustment process in step S201. In step S202, the control board 61 displays the screen 3701 of the first stage of FIG. 37. The user 230 performs an operation (touch operation in the air) of pressing the confirmation button 3702 with the finger UH or the dedicated touch pen SP.

ステップS203で、制御基板61は、第3センサを用いて、その確認ボタン3702を押下する操作を検出する。制御基板61は、第3センサからの画像を取得する。なお、この際、空間浮遊映像表示装置1000は、第1センサや第2センサを用いて、手指UH等の初動の動きを検出してもよい。そして、空間浮遊映像表示装置1000は、その初動の動きの検出に応じて、第3センサによる検出を開始させてもよい。 In step S203, the control board 61 detects the operation of pressing the confirmation button 3702 using the third sensor. The control board 61 acquires an image from the third sensor. At this time, the space floating image display device 1000 may detect the initial movement of the finger UH or the like by using the first sensor or the second sensor. Then, the space floating image display device 1000 may start the detection by the third sensor in response to the detection of the initial motion.

ステップS204で、制御基板61は、上記確認ボタンの押下の操作を検出できたかを確認し、検出できるまで同様に繰り返す。なお、検出できない場合には例えばフローの終了としてもよい。 In step S204, the control board 61 confirms whether or not the operation of pressing the confirmation button can be detected, and repeats the same until it can be detected. If it cannot be detected, the flow may be terminated, for example.

ステップS205で、制御基板61は、第3センサからの画像の解析に基づいて、確認ボタンの押下の操作の際の、手指UHの深さ、位置、方向・角度、面積、速度、時間等の所定のパラメータの値を測定することで、そのユーザ230個人の操作の特性を判定する。具体例については後述する。 In step S205, the control board 61 determines the depth, position, direction / angle, area, speed, time, etc. of the finger UH when the confirmation button is pressed, based on the analysis of the image from the third sensor. By measuring the value of a predetermined parameter, the characteristics of the operation of the user 230 are determined. Specific examples will be described later.

ステップS206で、制御基板61は、上記判定したユーザ個人の操作の特性に合わせるように、第1センサを用いた空間浮遊映像3の操作の検出の際の判定条件を変更・更新する。制御基板61は、予め標準として設定されている判定条件に基づいて、個人の特性に応じて判定条件を変更する。制御基板61は、個人のユーザIDと対応付けて、その判定条件を保存する。この判定条件の変更は、言い換えると、所定の空間浮遊映像3の画面でのボタン等の操作の際の感度の調整に相当する。また、これは、ユーザ個人に適合させるキャリブレーションに相当する。 In step S206, the control board 61 changes / updates the determination conditions at the time of detecting the operation of the space floating image 3 using the first sensor so as to match the characteristics of the operation of the individual user determined above. The control board 61 changes the determination condition according to the individual characteristics based on the determination condition set as a standard in advance. The control board 61 stores the determination condition in association with the individual user ID. In other words, this change in the determination condition corresponds to the adjustment of the sensitivity when operating the button or the like on the screen of the predetermined space floating image 3. Also, this corresponds to a calibration tailored to the individual user.

ステップS207で、制御基板61は、空間浮遊映像3の表示を、図37の第2段階の画面3702に遷移させる。制御基板61(特に図3Cの空中操作検出部1350)は、この空間浮遊映像3の画面3702に対するユーザ230による操作の検出・判定の際には、上記変更・更新後の判定条件を適用する。 In step S207, the control board 61 shifts the display of the space floating image 3 to the screen 3702 of the second stage of FIG. 37. The control board 61 (particularly, the aerial operation detection unit 1350 of FIG. 3C) applies the above-mentioned changed / updated determination conditions when the user 230 detects / determines the operation of the screen 3702 of the space floating image 3.

その後、ステップS208で、制御基板61は、所定の契機で、例えば図37の第2段階の画面3702での暗証番号入力の成功に応じて、特性検出・感度調整プロセスを終了する。図38のフローの終了後には、判定条件は、任意のユーザに対応した標準的な判定条件の設定値に戻される。 After that, in step S208, the control board 61 ends the characteristic detection / sensitivity adjustment process at a predetermined opportunity, for example, in response to the success of the password input on the screen 3702 of the second stage of FIG. 37. After the end of the flow of FIG. 38, the determination condition is returned to the setting value of the standard determination condition corresponding to any user.

空間浮遊映像表示装置1000は、上記変更・更新後の判定条件を、ユーザ個人毎の情報として少なくとも一定期間以上保存する。その場合、空間浮遊映像表示装置1000は、ユーザ認証に基づいて、同じユーザ230個人が、次回に同様の画面3702を利用する場合に、第1段階の画面3701を用いた感度調整(判定条件の更新)を省略し、保存されていた判定条件を読み出して第2段階の画面3702に適用してもよい。あるいは、空間浮遊映像表示装置1000は、1回の画面3702の利用毎に、上記判定条件の変更(感度調整)を適用し、変更・更新後の判定条件を保存しないようにしてもよい。 The space floating image display device 1000 stores the above-mentioned changed / updated determination conditions as information for each individual user for at least a certain period of time. In that case, the spatial floating image display device 1000 adjusts the sensitivity using the screen 3701 of the first stage when the same user 230 individual uses the same screen 3702 next time based on the user authentication (determination condition). (Update) may be omitted, and the saved determination condition may be read out and applied to the screen 3702 of the second stage. Alternatively, the space floating image display device 1000 may apply the change (sensitivity adjustment) of the above determination condition every time the screen 3702 is used, and may not save the determination condition after the change / update.

[特性検出・感度調整の例]
図39は、第3センサを用いた感度調整の例についての模式説明図であり、空間浮遊映像表示装置1000を側面からみたX-Z面の状態で、ユーザ230の手指UHによって、所定の空間浮遊映像3の画面(図37の第1段階の画面3701)を操作する際の様子、特にX-Z面での手指UHの動きの例を示す。
[Example of characteristic detection / sensitivity adjustment]
FIG. 39 is a schematic explanatory view of an example of sensitivity adjustment using the third sensor, and is a predetermined space by the finger UH of the user 230 in the state of the XX plane when the space floating image display device 1000 is viewed from the side. A state when operating the screen of the floating image 3 (the screen 3701 of the first stage in FIG. 37), particularly an example of the movement of the finger UH on the XX plane is shown.

制御基板61(特に図3Cの制御部1110のプロセッサ)は、第3センサである2つのカメラで撮像した2つの画像から、空間浮遊映像3の面に対する例えば手指UH(専用タッチペンUPの場合でも同様)による操作の際の手指UHの位置や動き等の状態を判別し、その状態からそのユーザ230個人の操作の特性(癖)を判定する。 The control board 61 (particularly, the processor of the control unit 1110 in FIG. 3C) uses, for example, a finger UH (the same applies to the dedicated touch pen UP) for the surface of the space floating image 3 from the two images captured by the two cameras which are the third sensors. ), The position, movement, and other states of the finger UH during the operation are determined, and the characteristics (habit) of the operation of the user 230 are determined from the state.

図39の例では、特性として、空間浮遊映像3の座標系(x,y,z)における、深さ方向であるz方向での手指UHの進入の深さの特性や、空間浮遊映像3の中央にある目標物4001(図37での確認ボタン3703)の位置に対する手指UHの位置のずれや向き(z方向の軸からの角度)などの特性を判定する場合を示す。目標物4001である確認ボタン3703は、操作の特性を測定するために設けられている。 In the example of FIG. 39, as characteristics, in the coordinate system (x, y, z) of the spatial floating image 3, the characteristic of the depth of entry of the finger UH in the z direction, which is the depth direction, and the characteristic of the spatial floating image 3 A case is shown in which characteristics such as a deviation and orientation (angle from the axis in the z direction) of the finger UH with respect to the position of the target object 4001 (confirmation button 3703 in FIG. 37) in the center are determined. The confirmation button 3703, which is the target object 4001, is provided to measure the characteristics of the operation.

制御基板61は、第3センサ等の検出情報を用いて、そのユーザ230個人(前述のユーザ認証結果から個人として識別済みである)の操作の特性を表す深さや位置や角度や面積などのパラメータ値を算出する。例えば、図38では、z方向の深さは、空間浮遊映像3の面がある基準位置zaに対し、手指UHの例えば先端の位置(例えばzc)との距離dzに相当する値である。位置zaは、手指UHの先端がちょうど空間浮遊映像3の面に接触する場合と対応している。位置zbは、空間浮遊映像3の位置zaよりも手前側の位置の例であり、手指UHの先端が面に接触しない場合に対応する。位置zcは、空間浮遊映像3の面よりも奥側の位置の例であり、手指UHの先端が奥に進入している場合に対応する。 The control board 61 uses the detection information of the third sensor or the like to represent parameters such as depth, position, angle, and area that represent the operation characteristics of the user 230 individual (identified as an individual from the above-mentioned user authentication result). Calculate the value. For example, in FIG. 38, the depth in the z direction is a value corresponding to a distance dz from, for example, the position of the tip of the finger UH (for example, zc) with respect to the reference position z where the surface of the space floating image 3 is located. The position za corresponds to the case where the tip of the finger UH just touches the surface of the space floating image 3. The position zb is an example of a position on the front side of the position za of the spatial floating image 3, and corresponds to a case where the tip of the finger UH does not touch the surface. The position zc is an example of a position on the back side of the surface of the space floating image 3, and corresponds to a case where the tip of the finger UH has entered the back.

制御基板61は、そのユーザ230個人の操作の特性を値として得た後、その特性に合わせるように、判定条件を変更する。判定条件の例は、空間浮遊映像3の面に対するz方向での手指UHの進入の深さに関する深さ閾値が挙げられる。制御基板61は、例えば、判定した深さ(例えば距離dz)の特性に応じて、その個人に適用するための判定条件のうちの閾値(例えば距離dzに近い値)を設定する。例えば、空間浮遊映像3の面を浅くタッチするユーザと、深くタッチするユーザとでは、異なる閾値が設定される。 The control board 61 obtains the characteristics of the operation of the individual user 230 as a value, and then changes the determination conditions so as to match the characteristics. An example of the determination condition is a depth threshold value relating to the depth of entry of the finger UH in the z direction with respect to the surface of the space floating image 3. The control board 61 sets, for example, a threshold value (for example, a value close to the distance dz) among the determination conditions to be applied to the individual according to the characteristic of the determined depth (for example, the distance dz). For example, different threshold values are set for a user who touches the surface of the spatial floating image 3 shallowly and a user who touches the surface deeply.

制御基板61(特に図3Cの空中操作検出部1350)は、ユーザ230による画面3702の操作の際には、第1センサの検出情報に基づいて、判定条件として、目標物4001に対する手指UHの進入の深さが、深さ閾値(例えば距離dz)以上となった場合、その目標物4001を押下する操作(空中でのタッチ操作)がされたと判定する。 When the user 230 operates the screen 3702, the control board 61 (particularly, the aerial operation detection unit 1350 of FIG. 3C) enters the target UH into the target object 4001 as a determination condition based on the detection information of the first sensor. When the depth of is equal to or greater than the depth threshold value (for example, the distance dz), it is determined that the operation of pressing the target object 4001 (touch operation in the air) has been performed.

このような判定条件の変更によって、空間浮遊映像3の操作の判定を、ユーザ230個人に適合した好適な判定とすることができる。ユーザ230にとっては、空間浮遊映像3の操作がしやすい感触が得られる。 By such a change of the determination condition, the determination of the operation of the space floating image 3 can be made a suitable determination suitable for the individual user 230. For the user 230, it is possible to obtain a feeling that the space floating image 3 is easy to operate.

手指の進入の際の角度3901に関しては、簡単な計算で深さ方向の距離にも換算でき、深さに関する判定条件に反映することができる。 The angle 3901 when the finger enters can be converted into a distance in the depth direction by a simple calculation, and can be reflected in the determination condition regarding the depth.

図40は、他の特性の判定の例として、上からみたX-Y面で、ユーザ230が手指UHとして特に右手の人指し指の先端で、空間浮遊映像3内の目標物4001(確認ボタン3703)を押下する操作の様子を示す。本例では、この際に、ユーザ230は、破線で軌跡として示すように、右手を動かして移動させ、目標物4001を押下するように、z方向で奥に指先を進入している。このような操作は、ユーザ個人毎に異なる癖として現れる。本例では、ユーザ230の指先は、空間浮遊映像3のx-y面において、中央の目標物4001に対しやや右側にずれた位置(xf,yf)を通過している。空間浮遊映像表示装置1000は、このような操作の際の特性として、空間浮遊映像3の面における中央の目標物4001の位置に対する指先の接触の位置やずれの距離、方向(例えば右)や角度を判定する。角度は、例えば図39でのz方向の軸に対する角度3901である。空間浮遊映像3の面の目標物4001に対し、手指UHをz方向で進入させる場合に、個人の特性として、面内での位置や方向のずれが大きい場合もあるし、z方向の軸に対する角度3901が大きい場合もある。 FIG. 40 shows, as an example of determining other characteristics, the target object 4001 (confirmation button 3703) in the space floating image 3 on the XY plane seen from above, where the user 230 is the tip of the index finger of the right hand as the finger UH. The state of the operation of pressing is shown. In this example, at this time, the user 230 moves his / her right hand as shown by the broken line as a locus, and enters the fingertip in the back in the z direction so as to press the target object 4001. Such an operation appears as a habit that differs for each user. In this example, the fingertip of the user 230 passes through a position (xf, yf) slightly shifted to the right with respect to the central target object 4001 on the xy plane of the spatial floating image 3. As a characteristic of such an operation, the space floating image display device 1000 has a position, a deviation distance, a direction (for example, right) and an angle of contact with the fingertip with respect to the position of the central target object 4001 on the surface of the space floating image 3. To judge. The angle is, for example, an angle 3901 with respect to the axis in the z direction in FIG. 39. When the finger UH is made to enter the target object 4001 on the surface of the space floating image 3 in the z direction, the position or direction deviation in the surface may be large as an individual characteristic, and the deviation with respect to the axis in the z direction may be large. The angle 3901 may be large.

また、別のユーザ230であれば、左手で操作するかもしれないし、別の指先で操作するかもしれないし、二本指で操作するかもしれないし、手のひら全体(グーやパー等の形状)で操作するかもしれない。空間浮遊映像表示装置1000は、第3センサに基づいて、そのような特性も判別する。 Also, if it is another user 230, it may be operated with the left hand, it may be operated with another fingertip, it may be operated with two fingers, or it may be operated with the entire palm (shape such as goo or par). May do. The space floating image display device 1000 also determines such characteristics based on the third sensor.

図41は、他の特性の判定の例として、空間浮遊映像3をユーザ230の視点から見たx-y面で、空間浮遊映像3の面に対する手指UHの接触の際に特性として位置や面積を判定する例を示す。判定条件の例として、空間浮遊映像3の中央位置の目標物4001に対する接触位置のずれの閾値や、接触面積の閾値などが挙げられる。例えば、接触面積4101は、図40と同様にユーザ230が右手の人差し指で目標物4001のやや右側の位置を押下した場合の、手指UHの接触の面積の概略を示す。一方、接触面積4102は、別のユーザ230が左手全体で目標物4001のやや左側の位置を押下した場合の、手指UHの接触の面積の概略を示す。このように、個人に応じて、空間浮遊映像3の面での接触面積が異なる。制御基板61は、このような接触面積を概略的に算出し、算出した接触面積に応じて、個人毎の判定条件における接触面積の閾値を変更する。すなわち、図示の右手側のユーザであれば相対的に小さい接触面積の閾値が設定され、左手側のユーザであれば相対的に大きい接触面積の閾値が設定される。 FIG. 41 shows, as an example of determining other characteristics, the xy plane of the space floating image 3 viewed from the viewpoint of the user 230, and the position and area as characteristics when the finger UH contacts the surface of the space floating image 3. An example of determining is shown. Examples of the determination conditions include a threshold value for the deviation of the contact position with respect to the target object 4001 at the center position of the space floating image 3, a threshold value for the contact area, and the like. For example, the contact area 4101 shows an outline of the contact area of the finger UH when the user 230 presses the position slightly to the right of the target object 4001 with the index finger of the right hand as in FIG. 40. On the other hand, the contact area 4102 shows an outline of the contact area of the finger UH when another user 230 presses the position slightly to the left of the target object 4001 with the entire left hand. In this way, the contact area on the surface of the spatial floating image 3 differs depending on the individual. The control board 61 schematically calculates such a contact area, and changes the threshold value of the contact area under the determination conditions for each individual according to the calculated contact area. That is, the threshold value of the relatively small contact area is set for the user on the right hand side in the figure, and the threshold value of the relatively large contact area is set for the user on the left hand side.

他の特性および判定条件として、手指UH等の動きの速度を用いてもよい。空間浮遊映像表示装置1000は、第3センサを用いて、時系列の検出データに基づいて、空間浮遊映像3の目標物4001に対する手指UH等の動きの速度を判定する。そして、空間浮遊映像表示装置1000は、その個人の速度の特性に応じて、操作の判定条件の1つとして速度の閾値を更新する。例えば番号ボタン3704が押下される際に、閾値以上の速度である場合には、押下と判定される。 As other characteristics and determination conditions, the speed of movement of the finger UH or the like may be used. The space floating image display device 1000 uses a third sensor to determine the speed of movement of the finger UH or the like with respect to the target object 4001 of the space floating image 3 based on the time-series detection data. Then, the space floating image display device 1000 updates the speed threshold value as one of the operation determination conditions according to the characteristics of the speed of the individual. For example, when the number button 3704 is pressed, if the speed is equal to or higher than the threshold value, it is determined that the number button is pressed.

他の特性および判定条件として、手指UH等の接触の時間を用いてもよい。空間浮遊映像表示装置1000は、第3センサを用いて、時系列の検出データに基づいて、空間浮遊映像3の目標物4001に対する手指UH等の接触時の時間を判定する。そして、空間浮遊映像表示装置1000は、その個人の接触時間の特性に応じて、操作の判定条件の1つとして接触時間の閾値を更新する。例えば番号ボタン3704が押下される際に、閾値以上の時間で接触状態が維持された場合には、押下と判定される。 As other characteristics and determination conditions, the contact time of the finger UH or the like may be used. The space floating image display device 1000 uses a third sensor to determine the time of contact of the finger UH or the like with the target object 4001 of the space floating image 3 based on the time-series detection data. Then, the space floating image display device 1000 updates the threshold value of the contact time as one of the operation determination conditions according to the characteristics of the contact time of the individual. For example, when the number button 3704 is pressed, if the contact state is maintained for a time equal to or longer than the threshold value, it is determined to be pressed.

上記のように、各種の特性を考慮して判定条件を設定することで、高精度検出および誤操作検出防止が可能となる。例えば、図示の右手人差し指を使用するユーザ個人の場合には、意図せずとも手全体で空間浮遊映像3の面(例えば複数の番号ボタン)に触れた場合にも、正規の操作としては検出・判定されず、誤操作が防止できる。 As described above, by setting the determination conditions in consideration of various characteristics, high-precision detection and prevention of erroneous operation detection become possible. For example, in the case of an individual user who uses the index finger of the right hand shown in the figure, even if the entire hand unintentionally touches the surface of the space floating image 3 (for example, multiple number buttons), it is detected as a regular operation. It is not judged and erroneous operation can be prevented.

また、他の制御方法としては、図示の左手全体を使用するユーザのように、手指UHの全体で操作する個人の場合に、空間浮遊映像表示装置1000は、その個人の特性の判定に応じて、判定条件として、1本指先での操作用の判定条件から、手指全体での操作用の判定条件に切り替えてもよい。例えば、手指全体での操作用の判定条件は、手指UHの全体のうち、空間浮遊映像3の面に最初に接触した部分を用いて、深さ閾値等に基づいて、目標物4001の押下を判定する条件である。この場合、手指全体では複数のボタンに接触した場合でも、最初に一部分が接触した1つのボタンが押下されたと判定可能である。 Further, as another control method, in the case of an individual who operates with the entire finger UH, such as a user who uses the entire left hand in the figure, the space floating image display device 1000 responds to the determination of the characteristics of the individual. As the determination condition, the determination condition for operation with one fingertip may be switched to the determination condition for operation with the entire finger. For example, the determination condition for the operation of the entire finger is to press the target object 4001 based on the depth threshold value or the like by using the portion of the entire finger UH that first contacts the surface of the space floating image 3. It is a condition to judge. In this case, even if the entire finger touches a plurality of buttons, it can be determined that one button that is partially touched first is pressed.

[変形例-単一画面]
実施の形態2の変形例として以下も可能である。空間浮遊映像表示装置1000は、図37で、第1段階の画面3701を省略し、最初から画面3702を表示し、画面3702のボタン(例えば番号ボタン3704)に対する操作の検出に応じて、個人の特性を判定し、即時に操作の判定条件を更新してもよい。
[Transformation example-single screen]
The following is also possible as a modification of the second embodiment. In FIG. 37, the space floating image display device 1000 omits the screen 3701 of the first stage, displays the screen 3702 from the beginning, and responds to the detection of the operation on the button (for example, the number button 3704) of the screen 3702 by the individual. The characteristics may be determined and the operation determination conditions may be updated immediately.

[変形例-コード読み取り]
実施の形態2の変形例として以下も可能である。例えば、前述のATM装置で、第2ユーザ認証の際に、専用タッチペンUPを用いた認証の代わりに、カメラ32およびQRコード等を用いたユーザ認証を適用してもよい。あるいは、他の装置に適用する場合でも、同様に、カメラ32およびQRコード等を用いたユーザ認証を適用してもよい。このユーザ認証の仕組みは、前述の実施の形態1の変形例(図35)と同様の仕組みを適用できる。
[Modification example-code reading]
The following is also possible as a modification of the second embodiment. For example, in the above-mentioned ATM device, at the time of the second user authentication, the user authentication using the camera 32, the QR code, or the like may be applied instead of the authentication using the dedicated touch pen UP. Alternatively, even when applied to other devices, user authentication using the camera 32, QR code, or the like may be applied in the same manner. As the user authentication mechanism, the same mechanism as that of the modification of the first embodiment (FIG. 35) can be applied.

図42は、この変形例でのユーザ認証の例を示す。図42は、空間浮遊映像表示装置1000等を側面からみたY-Z面の状態で、ユーザ230が手指UHに持ったスマートフォンSPの表示画面に表示されているQRコードを、空間浮遊映像3の面に合わせてかざす様子を示す。 FIG. 42 shows an example of user authentication in this modified example. FIG. 42 shows the QR code displayed on the display screen of the smartphone SP held by the user 230 on the finger UH in the state of the YZ plane when the space floating image display device 1000 or the like is viewed from the side of the space floating image 3. Shows how to hold it up to the surface.

制御基板61は、ATM装置での第2ユーザ認証の際に、図35の画面例と同様に、ユーザ230にQRコードをかざすようにガイドし、ユーザ230は、空間浮遊映像3の領域にスマートフォンSPのQRコードを重ねるようにかざす。制御基板61は、第2センサであるカメラ32を用いてそのQRコードが写った画像を取得し、そのQRコードの読み取り結果に基づいて、ユーザ230個人を認証する。制御基板61は、ユーザ認証の結果を、空間浮遊映像3の画面内に表示する。 The control board 61 guides the user 230 to hold the QR code at the time of the second user authentication in the ATM device, and the user 230 is a smartphone in the area of the spatial floating image 3. Hold the QR code of the SP so that it overlaps. The control board 61 acquires an image in which the QR code is captured by using the camera 32 which is the second sensor, and authenticates the individual user 230 based on the reading result of the QR code. The control board 61 displays the result of user authentication in the screen of the space floating image 3.

このように、この変形例では、第2センサを活用して、空間浮遊映像3の面でのコードの提示を利用したユーザ認証が可能である。また、この変形例では、このユーザ認証の操作の際に適用するための個人毎の判定条件の変更を前述と同様に行うことで、ユーザ230は、このユーザ認証の操作(例えば空間浮遊映像3の面にコードを高精度に位置合わせする操作)をより容易に行うことができる。 As described above, in this modification, the second sensor can be utilized to enable user authentication using the presentation of the code on the surface of the space floating image 3. Further, in this modification, by changing the determination condition for each individual to be applied in the operation of this user authentication in the same manner as described above, the user 230 can operate this user authentication (for example, the spatial floating image 3). The operation of aligning the cord with high accuracy on the surface of the surface) can be performed more easily.

以上、本発明を実施の形態に基づいて具体的に説明したが、本発明は前述の実施の形態に限定されず、要旨を逸脱しない範囲で種々変更可能である。前述の各実施の形態を組み合わせた形態も可能である。前述の各実施の形態において必須要素を除いて構成要素を追加・削除・置換した形態も可能である。 Although the present invention has been specifically described above based on the embodiments, the present invention is not limited to the above-described embodiments and can be variously modified without departing from the gist. A form in which each of the above-described embodiments is combined is also possible. In each of the above-described embodiments, it is also possible to add / delete / replace the components except for the essential elements.

1000…空間浮遊映像表示装置、1…表示装置、2…再帰反射部材、3…空間浮遊映像、11…液晶表示パネル、12…吸収型偏光板、13…光源装置、21…λ/4板、100…透明な部材、101…偏光分離部材、31…センサ(第1センサ)、32…カメラ(第2センサ)、60…筐体、61…制御基板、62…駆動機構、230…ユーザ、UF…顔、UE…目、UH…手指。 1000 ... Spatial floating image display device, 1 ... Display device, 2 ... Retroreflective member, 3 ... Spatial floating image, 11 ... Liquid crystal display panel, 12 ... Absorption type polarizing plate, 13 ... Light source device, 21 ... λ / 4 board, 100 ... Transparent member, 101 ... Polarizing separation member, 31 ... Sensor (first sensor), 32 ... Camera (second sensor), 60 ... Housing, 61 ... Control board, 62 ... Drive mechanism, 230 ... User, UF ... face, UE ... eyes, UH ... fingers.

Claims (15)

光源と、
前記光源からの光に基づいて映像光を出射する映像源と、
前記映像光に基づいて所定の指向性の空間浮遊映像を形成する再帰反射部材と、
前記光源、前記映像源、および前記再帰反射部材を収容する筐体と、
前記筐体または前記筐体内の構成要素を移動させる駆動機構と、
前記筐体の外部の空間内の所定の位置に形成される前記空間浮遊映像の表示を制御するコントローラと、
前記空間浮遊映像に対する視認および操作を行うユーザによる、前記空間浮遊映像に対する操作を検出するための第1センサと、
前記空間浮遊映像に対する前記ユーザの顔または頭の位置を検出するための第2センサと、
を備え、
前記コントローラは、前記空間浮遊映像に対する前記ユーザの顔または頭の位置に応じて、前記筐体または前記筐体内の構成要素を前記駆動機構によって移動させる、
空間浮遊映像表示装置。
Light source and
An image source that emits image light based on the light from the light source,
A retroreflective member that forms a spatial floating image with a predetermined directivity based on the image light,
A housing that houses the light source, the image source, and the retroreflective member.
A drive mechanism for moving the housing or components within the housing, and
A controller that controls the display of the space floating image formed at a predetermined position in the space outside the housing, and
A first sensor for detecting an operation on the space floating image by a user who visually recognizes and operates the space floating image, and
A second sensor for detecting the position of the user's face or head with respect to the spatial floating image, and
Equipped with
The controller moves the housing or components within the housing by the drive mechanism according to the position of the user's face or head with respect to the spatial floating image.
Space floating image display device.
請求項1記載の空間浮遊映像表示装置において、
前記駆動機構は、前記筐体または前記筐体内の構成要素を回転移動させる、
空間浮遊映像表示装置。
In the space floating image display device according to claim 1,
The drive mechanism rotates and moves the housing or components within the housing.
Space floating image display device.
請求項1記載の空間浮遊映像表示装置において、
前記駆動機構は、前記筐体または前記筐体内の構成要素を平行移動させる、
空間浮遊映像表示装置。
In the space floating image display device according to claim 1,
The drive mechanism translates the housing or components within the housing.
Space floating image display device.
請求項1記載の空間浮遊映像表示装置において、
前記コントローラは、前記第2センサを用いて、前記空間浮遊映像に対する前記顔または頭の標準位置に対する前記顔または頭の現在位置として、鉛直方向での位置を判定する、
空間浮遊映像表示装置。
In the space floating image display device according to claim 1,
The controller uses the second sensor to determine the position in the vertical direction as the current position of the face or head with respect to the standard position of the face or head with respect to the spatial floating image.
Space floating image display device.
請求項1記載の空間浮遊映像表示装置において、
前記コントローラは、前記第2センサを用いて、前記空間浮遊映像に対する前記顔または頭の標準位置に対する前記顔または頭の現在位置として、左右方向での位置を判定する、
空間浮遊映像表示装置。
In the space floating image display device according to claim 1,
The controller uses the second sensor to determine the position in the left-right direction as the current position of the face or head with respect to the standard position of the face or head with respect to the spatial floating image.
Space floating image display device.
請求項1記載の空間浮遊映像表示装置において、
前記コントローラは、前記第2センサを用いて、前記空間浮遊映像に対する前記顔または頭の標準位置に対する前記顔または頭の現在位置として、前後方向での位置を判定する、
空間浮遊映像表示装置。
In the space floating image display device according to claim 1,
The controller uses the second sensor to determine the position in the anteroposterior direction as the current position of the face or head with respect to the standard position of the face or head with respect to the spatial floating image.
Space floating image display device.
請求項1記載の空間浮遊映像表示装置において、
前記コントローラは、前記第2センサを用いて、前記空間浮遊映像に対する前記顔または頭の標準位置に対する前記顔または頭の現在位置の差を判断し、前記差が閾値以内になった場合に、前記調整を開始する、
空間浮遊映像表示装置。
In the space floating image display device according to claim 1,
The controller uses the second sensor to determine the difference in the current position of the face or head with respect to the standard position of the face or head with respect to the spatial floating image, and when the difference is within the threshold value, the controller. Start adjusting,
Space floating image display device.
請求項1記載の空間浮遊映像表示装置において、
前記コントローラは、前記空間浮遊映像に対し所定の物体を重ねるようにかざす操作に応じて、前記第2センサを用いて前記物体を読み取る、
空間浮遊映像表示装置。
In the space floating image display device according to claim 1,
The controller reads the object using the second sensor in response to an operation of holding the predetermined object over the spatial floating image so as to overlap it.
Space floating image display device.
光源と、
前記光源からの光に基づいて映像光を出射する映像源と、
前記映像光に基づいて所定の指向性の空間浮遊映像を形成する再帰反射部材と、
前記光源、前記映像源、および前記再帰反射部材を収容する筐体と、
前記筐体の外部の空間内の所定の位置に形成される前記空間浮遊映像の表示を制御するコントローラと、
前記空間浮遊映像に対する視認および操作を行うユーザによる、前記空間浮遊映像に対する操作を検出するための第1センサと、
前記空間浮遊映像に対する前記ユーザによる操作の特性を検出するためのセンサと、
を備え、
前記コントローラは、前記センサに基づいて、前記空間浮遊映像に対する前記ユーザによる操作の特性を判定し、前記特性に合わせるように、前記第1センサを用いた前記空間浮遊映像に対する操作の判定条件を変更する、
空間浮遊映像表示装置。
Light source and
An image source that emits image light based on the light from the light source,
A retroreflective member that forms a spatial floating image with a predetermined directivity based on the image light,
A housing that houses the light source, the image source, and the retroreflective member.
A controller that controls the display of the space floating image formed at a predetermined position in the space outside the housing, and
A first sensor for detecting an operation on the space floating image by a user who visually recognizes and operates the space floating image, and
A sensor for detecting the characteristics of the operation by the user with respect to the space floating image, and
Equipped with
The controller determines the characteristics of the operation by the user for the space floating image based on the sensor, and changes the determination condition for the operation for the space floating image using the first sensor so as to match the characteristics. do,
Space floating image display device.
請求項9記載の空間浮遊映像表示装置において、
前記コントローラは、前記特性を判定するための目標物を含む画面を前記空間浮遊映像として表示し、前記目標物に対する操作の特性を判定する、
空間浮遊映像表示装置。
In the space floating image display device according to claim 9,
The controller displays a screen including the target object for determining the characteristic as the space floating image, and determines the characteristic of the operation with respect to the target object.
Space floating image display device.
請求項9記載の空間浮遊映像表示装置において、
前記コントローラは、前記特性として、前記空間浮遊映像の面に対する垂直方向での前記ユーザの手指または所持物の進入の深さを判定し、前記判定条件として前記深さに関する閾値を変更する、
空間浮遊映像表示装置。
In the space floating image display device according to claim 9,
As the characteristic, the controller determines the depth of entry of the user's finger or belongings in the direction perpendicular to the surface of the space floating image, and changes the threshold value regarding the depth as the determination condition.
Space floating image display device.
請求項9記載の空間浮遊映像表示装置において、
前記コントローラは、前記特性として、前記空間浮遊映像の面における前記ユーザの手指または所持物の接触の位置を判定し、前記判定条件として前記位置に関する閾値を変更する、
空間浮遊映像表示装置。
In the space floating image display device according to claim 9,
As the characteristic, the controller determines the position of contact of the user's finger or belongings on the surface of the space floating image, and changes the threshold value for the position as the determination condition.
Space floating image display device.
請求項9記載の空間浮遊映像表示装置において、
前記コントローラは、前記特性として、前記空間浮遊映像の面における前記ユーザの手指または所持物の接触の面積を判定し、前記判定条件として前記面積に関する閾値を変更する、
空間浮遊映像表示装置。
In the space floating image display device according to claim 9,
As the characteristic, the controller determines the area of contact of the user's finger or belongings on the surface of the space floating image, and changes the threshold value for the area as the determination condition.
Space floating image display device.
請求項9記載の空間浮遊映像表示装置において、
前記空間浮遊映像に対する前記ユーザの顔または頭の位置を検出するための第2センサを備え、
前記コントローラは、前記第2センサを用いて、前記ユーザの顔の画像を取得し、前記顔の画像に基づいて顔認証によるユーザ認証を行う、
空間浮遊映像表示装置。
In the space floating image display device according to claim 9,
A second sensor for detecting the position of the user's face or head with respect to the spatial floating image is provided.
The controller uses the second sensor to acquire an image of the user's face, and performs user authentication by face authentication based on the face image.
Space floating image display device.
請求項9記載の空間浮遊映像表示装置において、
前記空間浮遊映像に対する前記ユーザの顔または頭の位置を検出するための第2センサを備え、
前記コントローラは、前記空間浮遊映像に対し所定の物体を重ねるようにかざす操作に応じて、前記第2センサを用いて前記物体を読み取る、
空間浮遊映像表示装置。
In the space floating image display device according to claim 9,
A second sensor for detecting the position of the user's face or head with respect to the spatial floating image is provided.
The controller reads the object using the second sensor in response to an operation of holding the predetermined object over the spatial floating image so as to overlap it.
Space floating image display device.
JP2020214603A 2020-12-24 2020-12-24 Spatial floating image display apparatus Pending JP2022100561A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020214603A JP2022100561A (en) 2020-12-24 2020-12-24 Spatial floating image display apparatus
PCT/JP2021/042793 WO2022137940A1 (en) 2020-12-24 2021-11-22 Spatial floating image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020214603A JP2022100561A (en) 2020-12-24 2020-12-24 Spatial floating image display apparatus

Publications (1)

Publication Number Publication Date
JP2022100561A true JP2022100561A (en) 2022-07-06

Family

ID=82159413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020214603A Pending JP2022100561A (en) 2020-12-24 2020-12-24 Spatial floating image display apparatus

Country Status (2)

Country Link
JP (1) JP2022100561A (en)
WO (1) WO2022137940A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024028928A1 (en) * 2022-08-01 2024-02-08 日本電信電話株式会社 Aerial image display system, display control device, display control method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013084592A1 (en) * 2011-12-06 2013-06-13 シャープ株式会社 Display system and automobile
CN106170731A (en) * 2014-03-31 2016-11-30 索尼公司 Electronic equipment
JP6405739B2 (en) * 2014-06-20 2018-10-17 船井電機株式会社 Image display device
CN105934732B (en) * 2014-12-26 2021-04-27 株式会社尼康 Control device, electronic apparatus, control method, and program
JP2017146564A (en) * 2016-02-19 2017-08-24 パナソニックIpマネジメント株式会社 Space display device
JP7164405B2 (en) * 2018-11-07 2022-11-01 日立チャネルソリューションズ株式会社 Image reader and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024028928A1 (en) * 2022-08-01 2024-02-08 日本電信電話株式会社 Aerial image display system, display control device, display control method, and program

Also Published As

Publication number Publication date
WO2022137940A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
CN101971123A (en) Interactive surface computer with switchable diffuser
WO2022138297A1 (en) Mid-air image display device
WO2022030538A1 (en) Spatial floating image information display system and light source device used therefor
WO2022137940A1 (en) Spatial floating image display apparatus
WO2022113745A1 (en) Floating-in-space-image display device
KR100936666B1 (en) Apparatus for touching reflection image using an infrared screen
WO2022158209A1 (en) Spatial floating image display device
JP2022097901A (en) Space floating video display device
WO2023276921A1 (en) Air floating video display apparatus
KR101002072B1 (en) Apparatus for touching a projection of images on an infrared screen
WO2023112463A1 (en) Aerial image information display system
CN116348806A (en) Space suspension image display device and light source device
WO2023243181A1 (en) Aerial floating video information display system
JP2023006618A (en) Space floating image display device
WO2022270384A1 (en) Hovering image display system
KR101002071B1 (en) Apparatus for touching a projection of 3d images on an infrared screen using multi-infrared camera
JP2022089271A (en) Space floating picture display device
WO2023068021A1 (en) Aerial floating video display system
WO2023162690A1 (en) Floating video display device
WO2024062749A1 (en) Floating-aerial-video display device
JP7370433B2 (en) Light source device used in spatial floating video information display system
JP7367148B2 (en) Space floating video display device
EP4350423A1 (en) Spatial floating image display device and light source device
JP2022029901A (en) Space floating video information display system and light source device used for the same
CN117837138A (en) Space suspension image information display system and three-dimensional sensing device used by same

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211022