JP2024036167A - aerial display device - Google Patents

aerial display device Download PDF

Info

Publication number
JP2024036167A
JP2024036167A JP2022140928A JP2022140928A JP2024036167A JP 2024036167 A JP2024036167 A JP 2024036167A JP 2022140928 A JP2022140928 A JP 2022140928A JP 2022140928 A JP2022140928 A JP 2022140928A JP 2024036167 A JP2024036167 A JP 2024036167A
Authority
JP
Japan
Prior art keywords
image
aerial
observer
light
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022140928A
Other languages
Japanese (ja)
Inventor
康宏 代工
Yasuhiro Daiku
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Holdings Inc
Original Assignee
Toppan Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Holdings Inc filed Critical Toppan Holdings Inc
Priority to JP2022140928A priority Critical patent/JP2024036167A/en
Priority to PCT/JP2023/026247 priority patent/WO2024053253A1/en
Publication of JP2024036167A publication Critical patent/JP2024036167A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an aerial display device with which it is possible to improve display quality.
SOLUTION: The aerial display device comprises: a display element 20 that displays an image; an optical element 40 that is located so as to receive light from the display element 20, and that reflects light from the display element 20 to the side opposite the display element 20, forming an aerial image in the air; a sensing element 50 that forms a detection region in an aerial region that overlaps the aerial image and detects an object in the detection region; and a correction unit that calculates the position of an observer and corrects the position of the image of the display element 20 on the basis of the position of the observer.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、空中表示装置に関する。 The present invention relates to an aerial display device.

画像や動画などを空中像として表示可能な空中表示装置が研究され、新しいヒューマン・マシン・インターフェースとして期待されている。空中表示装置は、例えば、2面コーナーリフレクタがアレイ状に配列された2面コーナーリフレクタアレイを備え、表示素子の表示面から出射される光を反射し、空中に実像を結像する。2面コーナーリフレクタアレイによる表示方法は、収差が無く、面対称位置に実像(空中像)を表示することができる。 Aerial display devices that can display images and videos as aerial images are being researched and are expected to serve as a new human-machine interface. An aerial display device includes, for example, a dihedral corner reflector array in which dihedral corner reflectors are arranged in an array, and reflects light emitted from a display surface of a display element to form a real image in the air. The display method using a dihedral corner reflector array has no aberration and can display a real image (aerial image) at a plane-symmetrical position.

特許文献1は、透明平板の表面から突出した透明な四角柱を2面コーナーリフレクタとして使用し、複数の四角柱を平面上にアレイ状に配置した光学素子を開示している。また、特許文献2は、第1及び第2光制御パネルの各々を、透明平板の内部に垂直に複数の平面光反射部を並べて形成し、第1及び第2光制御パネルを、互いの平面光反射部が直交するように配置した光学素子を開示している。特許文献1、2の光学素子は、表示素子から出射された光を直交する反射面で2回反射させ、空中像を生成している。 Patent Document 1 discloses an optical element in which a transparent square prism protruding from the surface of a transparent flat plate is used as a dihedral corner reflector, and a plurality of square prisms are arranged in an array on a plane. Further, Patent Document 2 discloses that each of the first and second light control panels is formed by vertically arranging a plurality of plane light reflection parts inside a transparent flat plate, and the first and second light control panels are arranged on each other's planes. An optical element is disclosed in which light reflecting portions are arranged so as to be orthogonal to each other. The optical elements of Patent Documents 1 and 2 reflect the light emitted from the display element twice on orthogonal reflecting surfaces to generate an aerial image.

特許文献1、2の光学素子を利用した表示装置は、光学素子の斜方向から観察することで空中像を認識できるものであり、光学素子の法線方向からの観察では良好な空中像を認識することは難しい。 The display devices using the optical elements of Patent Documents 1 and 2 can recognize an aerial image by observing from an oblique direction of the optical element, and can recognize a good aerial image by observing from the normal direction of the optical element. It's difficult to do.

特開2011-191404号公報Japanese Patent Application Publication No. 2011-191404 特開2011-175297号公報Japanese Patent Application Publication No. 2011-175297

本発明は、表示品質を向上させることが可能な空中表示装置を提供する。 The present invention provides an aerial display device that can improve display quality.

本発明の第1態様によると、画像を表示する表示素子と、前記表示素子からの光を受けるように配置され、前記表示素子からの光を、前記表示素子と反対側に反射し、空中に空中像を結像する光学素子と、前記空中像と重なる空間領域に検知領域を形成し、前記検知領域内の対象物を検知するセンシング素子と、観察者の位置を算出し、前記観察者の位置に基づいて、前記表示素子の画像の位置を補正する補正部とを具備する空中表示装置が提供される。 According to a first aspect of the present invention, there is provided a display element that displays an image, and a display element that is arranged to receive light from the display element, and that reflects the light from the display element to a side opposite to the display element and sends it into the air. an optical element that forms an aerial image; a sensing element that forms a detection area in a spatial region that overlaps with the aerial image; and a sensing element that detects an object within the detection area; An aerial display device is provided, including a correction section that corrects the position of the image of the display element based on the position.

本発明の第2態様によると、前記補正部は、前記観察者までの水平距離と垂直距離とに基づいて、前記表示素子の前記画像のずらし量を算出する、第1態様に係る空中表示装置が提供される。 According to a second aspect of the present invention, the aerial display device according to the first aspect, wherein the correction unit calculates a shift amount of the image of the display element based on a horizontal distance and a vertical distance to the observer. is provided.

本発明の第3態様によると、前記補正部は、前記表示素子のうち前記観察者と前記検知領域とを通る直線上に前記画像を表示させる、第1態様に係る空中表示装置が提供される。 According to a third aspect of the present invention, there is provided the aerial display device according to the first aspect, wherein the correction unit displays the image on a straight line passing through the observer and the detection area of the display element. .

本発明の第4態様によると、前記観察者を撮像し、前記観察者までの距離を測定する距離画像センサをさらに具備し、前記補正部は、前記距離画像センサの出力に基づいて、前記観察者の位置を算出する、第1態様に係る空中表示装置が提供される。 According to the fourth aspect of the present invention, the correction unit further includes a distance image sensor that images the observer and measures a distance to the observer, and the correction unit adjusts the observation distance based on the output of the distance image sensor. An aerial display device according to a first aspect is provided that calculates the position of a person.

本発明の第5態様によると、前記距離画像センサにより取得された撮像データに基づいて、前記観察者の顔を認識する認識部をさらに具備し、前記補正部は、前記認識部の認識結果に基づいて、前記観察者の位置を算出する、第4態様に係る空中表示装置が提供される。 According to the fifth aspect of the present invention, the recognition unit further includes a recognition unit that recognizes the face of the observer based on the imaging data acquired by the distance image sensor, and the correction unit adjusts the recognition result of the recognition unit. There is provided an aerial display device according to a fourth aspect, which calculates the position of the observer based on the above.

本発明の第6態様によると、前記センシング素子は、前記検知領域に向けて光を発光する発光部と、前記対象物で反射された反射光を受光する受光部とを含む、第1態様に係る空中表示装置が提供される。 According to a sixth aspect of the present invention, the sensing element according to the first aspect includes a light emitting part that emits light toward the detection area, and a light receiving part that receives reflected light reflected by the target object. Such an aerial display device is provided.

本発明の第7態様によると、前記光学素子は、平面状の基材と、前記基材の下に設けられ、それぞれが第1方向に延び、前記第1方向に直交する第2方向に並んだ複数の光学要素とを含み、前記複数の光学要素の各々は、前記基材の法線方向に対してそれぞれが傾き、互いに接する入射面及び反射面を有する、第1態様に係る空中表示装置が提供される。 According to the seventh aspect of the present invention, the optical elements are provided under a planar base material and the base material, each extending in a first direction, and arranged in a second direction orthogonal to the first direction. and a plurality of optical elements, each of the plurality of optical elements having an incident surface and a reflection surface that are inclined with respect to the normal direction of the base material and touch each other, the aerial display device according to the first aspect. is provided.

本発明の第8態様によると、前記表示素子と前記光学素子との間に配置され、前記表示素子からの光のうち斜め方向の光成分を透過する配向制御素子をさらに具備する、第1態様に係る空中表示装置が提供される。 According to an eighth aspect of the present invention, the first aspect further includes an alignment control element that is disposed between the display element and the optical element and transmits an oblique light component of the light from the display element. An aerial display device according to the present invention is provided.

本発明の第9態様によると、前記配向制御素子は、交互に配置された複数の透明部材及び複数の遮光部材を含み、前記複数の遮光部材は、前記配向制御素子の法線に対して傾いている、第8態様に係る空中表示装置が提供される。 According to a ninth aspect of the present invention, the alignment control element includes a plurality of transparent members and a plurality of light blocking members arranged alternately, and the plurality of light blocking members are inclined with respect to a normal line of the alignment control element. An aerial display device according to an eighth aspect is provided.

本発明の第10態様によると、前記表示素子及び前記光学素子は、互いに平行に配置される、第1態様に係る空中表示装置が提供される。 According to a tenth aspect of the present invention, there is provided the aerial display device according to the first aspect, wherein the display element and the optical element are arranged parallel to each other.

本発明の第11態様によると、光を発光する照明素子をさらに具備し、前記表示素子は、前記照明素子からの光を受けるように配置され、液晶表示素子で構成される、第1態様に係る空中表示装置が提供される。 According to an eleventh aspect of the present invention, the present invention further includes a lighting element that emits light, and the display element is arranged to receive light from the lighting element, and is composed of a liquid crystal display element. Such an aerial display device is provided.

本発明によれば、表示品質を向上させることが可能な空中表示装置を提供することができる。 According to the present invention, it is possible to provide an aerial display device that can improve display quality.

図1は、本発明の実施形態に係る空中表示装置の斜視図である。FIG. 1 is a perspective view of an aerial display device according to an embodiment of the present invention. 図2は、図1に示した空中表示装置のXZ面における側面図である。FIG. 2 is a side view of the aerial display device shown in FIG. 1 in the XZ plane. 図3は、空中表示装置の外観を説明する斜視図である。FIG. 3 is a perspective view illustrating the appearance of the aerial display device. 図4は、図1に示した表示素子の模式的な平面図である。FIG. 4 is a schematic plan view of the display element shown in FIG. 1. 図5Aは、図1に示した配向制御素子の平面図である。FIG. 5A is a plan view of the orientation control element shown in FIG. 1. 図5Bは、図5AのA-A´線に沿った配向制御素子の断面図である。FIG. 5B is a cross-sectional view of the alignment control element taken along line AA' in FIG. 5A. 図6は、図1に示した光学素子の斜視図である。FIG. 6 is a perspective view of the optical element shown in FIG. 1. 図7は、距離画像センサに含まれる撮像素子の模式的な平面図である。FIG. 7 is a schematic plan view of an image sensor included in the distance image sensor. 図8は、空中表示装置のブロック図である。FIG. 8 is a block diagram of the aerial display device. 図9は、光学素子における光の反射の様子を説明する斜視図である。FIG. 9 is a perspective view illustrating how light is reflected in the optical element. 図10は、光学素子における光の反射の様子を説明するXZ面の側面図である。FIG. 10 is a side view of the XZ plane illustrating how light is reflected in the optical element. 図11は、光学素子における光の反射の様子を説明するYZ面の側面図である。FIG. 11 is a side view of the YZ plane illustrating how light is reflected in the optical element. 図12は、光学素子における入射面及び反射面の角度条件を説明する図である。FIG. 12 is a diagram illustrating the angle conditions of the incident surface and the reflective surface of the optical element. 図13は、空中表示装置における全体動作を説明するフローチャートである。FIG. 13 is a flowchart illustrating the overall operation of the aerial display device. 図14は、観察者の顔を認識する動作を説明する模式図である。FIG. 14 is a schematic diagram illustrating the operation of recognizing the observer's face. 図15は、観察者が空中表示装置を正面から見た場合の空中表示装置の動作を説明する斜視図である。FIG. 15 is a perspective view illustrating the operation of the aerial display device when an observer views the aerial display device from the front. 図16は、観察者が空中表示装置を斜めから見た場合の空中表示装置の動作を説明する斜視図である。FIG. 16 is a perspective view illustrating the operation of the aerial display device when an observer views the aerial display device from an angle. 図17は、観察者が空中像をタッチする様子を説明する斜視図である。FIG. 17 is a perspective view illustrating how an observer touches an aerial image. 図18は、画像補正動作を説明するYZ面の側面図である。FIG. 18 is a side view of the YZ plane explaining the image correction operation. 図19は、画像補正動作を説明するXZ面の平面図である。FIG. 19 is a plan view of the XZ plane for explaining the image correction operation. 図20は、被写体と撮像素子による像との関係を説明する模式図である。FIG. 20 is a schematic diagram illustrating the relationship between a subject and an image captured by an image sensor. 図21は、基準被写体の距離と像の高さとの関係を説明する模式図である。FIG. 21 is a schematic diagram illustrating the relationship between the distance to the reference object and the height of the image. 図22は、図21の被写体距離d1における像の高さを説明する模式図である。FIG. 22 is a schematic diagram illustrating the height of the image at the subject distance d1 in FIG. 21. 図23は、図21の被写体距離d2における像の高さを説明する模式図である。FIG. 23 is a schematic diagram illustrating the height of the image at the subject distance d2 in FIG. 21. 図24は、図21の被写体距離dnにおける像の高さを説明する模式図である。FIG. 24 is a schematic diagram illustrating the height of the image at the subject distance dn in FIG. 21. 図25は、像高さを算出する方法を説明する図である。FIG. 25 is a diagram illustrating a method of calculating the image height. 図26は、ステップS103における観察者の位置を算出する動作を説明するフローチャートである。FIG. 26 is a flowchart illustrating the operation of calculating the observer's position in step S103. 図27は、観察者が空中表示装置を正面から見た場合の画像補正部の動作を説明する図である。FIG. 27 is a diagram illustrating the operation of the image correction unit when an observer views the aerial display device from the front. 図28は、観察者が空中表示装置をY方向における上側から見た場合の画像補正部の動作を説明する図である。FIG. 28 is a diagram illustrating the operation of the image correction unit when an observer views the aerial display device from above in the Y direction. 図29は、観察者が空中表示装置をY方向における下側から見た場合の画像補正部の動作を説明する図である。FIG. 29 is a diagram illustrating the operation of the image correction unit when an observer views the aerial display device from below in the Y direction.

以下、実施形態について図面を参照して説明する。ただし、図面は模式的または概念的なものであり、各図面の寸法および比率等は必ずしも現実のものと同一とは限らない。また、図面の相互間で同じ部分を表す場合においても、互いの寸法の関係や比率が異なって表される場合もある。特に、以下に示す幾つかの実施形態は、本発明の技術思想を具体化するための装置および方法を例示したものであって、構成部品の形状、構造、配置等によって、本発明の技術思想が特定されるものではない。なお、以下の説明において、同一の機能及び構成を有する要素については同一符号を付し、重複する説明は省略する。 Hereinafter, embodiments will be described with reference to the drawings. However, the drawings are schematic or conceptual, and the dimensions, proportions, etc. of each drawing are not necessarily the same as those in reality. Further, even when the same parts are shown in two drawings, the relationships and ratios of the dimensions may be different. In particular, some of the embodiments shown below illustrate devices and methods for embodying the technical idea of the present invention, and the technical idea of the present invention is is not specified. In the following description, elements having the same functions and configurations are denoted by the same reference numerals, and redundant description will be omitted.

[1] 空中表示装置1の構成
図1は、本発明の実施形態に係る空中表示装置1の斜視図である。図1において、X方向は、空中表示装置1のある1辺に沿った方向であり、Y方向は、水平面内においてX方向に直交する方向であり、Z方向は、XY面に直交する方向(法線方向ともいう)である。図2は、図1に示した空中表示装置1のXZ面における側面図である。図2では、センシング素子50及び距離画像センサ60の図示を省略している。図3は、空中表示装置1の外観を説明する斜視図である。
[1] Configuration of aerial display device 1 FIG. 1 is a perspective view of an aerial display device 1 according to an embodiment of the present invention. In FIG. 1, the X direction is a direction along one side of the aerial display device 1, the Y direction is a direction perpendicular to the X direction in a horizontal plane, and the Z direction is a direction perpendicular to the XY plane ( (also called the normal direction). FIG. 2 is a side view of the aerial display device 1 shown in FIG. 1 in the XZ plane. In FIG. 2, illustration of the sensing element 50 and distance image sensor 60 is omitted. FIG. 3 is a perspective view illustrating the appearance of the aerial display device 1.

空中表示装置1は、画像(動画を含む)を表示する装置である。空中表示装置1は、自身の光出射面の上方の空中に、空中像を表示する。空中表示装置1の光出射面とは、空中表示装置1を構成する複数の部材のうち最上層に配置された部材の上面を意味する。空中像とは、空中に結像する実像である。 The aerial display device 1 is a device that displays images (including moving images). The aerial display device 1 displays an aerial image in the air above its own light exit surface. The light exit surface of the aerial display device 1 means the upper surface of the member disposed in the uppermost layer among the plurality of members constituting the aerial display device 1. An aerial image is a real image formed in the air.

空中表示装置1は、照明素子(バックライトともいう)10、表示素子20、配向制御素子30、光学素子40、センシング素子50、距離画像センサ60、及び筐体70を備える。照明素子10、表示素子20、配向制御素子30、及び光学素子40は、この順にZ方向に沿って配置され、互いに平行に配置される。照明素子10、表示素子20、配向制御素子30、及び光学素子40は、互いに所望の間隔を空けるようにして、図示せぬ固定部材で所望の位置に固定される。 The aerial display device 1 includes a lighting element (also referred to as a backlight) 10, a display element 20, an orientation control element 30, an optical element 40, a sensing element 50, a distance image sensor 60, and a housing 70. The lighting element 10, the display element 20, the orientation control element 30, and the optical element 40 are arranged in this order along the Z direction and parallel to each other. The lighting element 10, the display element 20, the orientation control element 30, and the optical element 40 are fixed at a desired position with a fixing member (not shown) with a desired spacing between them.

照明素子10は、照明光を発光し、この照明光を表示素子20に向けて出射する。照明素子10は、光源部11、導光板12、及び反射シート13を備える。照明素子10は、例えばサイドライト型の照明素子である。照明素子10は、面光源を構成する。照明素子10は、後述する角度θの斜め方向に光強度がピークになるように構成してもよい。 The lighting element 10 emits illumination light and emits this illumination light toward the display element 20. The lighting element 10 includes a light source section 11, a light guide plate 12, and a reflective sheet 13. The lighting element 10 is, for example, a side light type lighting element. The lighting element 10 constitutes a surface light source. The lighting element 10 may be configured so that the light intensity peaks in an oblique direction at an angle θ 1 , which will be described later.

光源部11は、導光板12の側面に向き合うように配置される。光源部11は、導光板12の側面に向けて光を発光する。光源部11は、例えば白色LED(Light Emitting Diode)からなる複数の発光素子を含む。導光板12は、光源部11からの照明光を導光し、照明光を自身の上面から出射する。反射シート13は、導光板12の底面から出射した照明光を、再び導光板12に向けて反射する。照明素子10は、導光板12の上面に、光学特性を向上させる部材(プリズムシート、及び拡散シートを含む)を備えていてもよい。 The light source section 11 is arranged so as to face the side surface of the light guide plate 12. The light source section 11 emits light toward the side surface of the light guide plate 12. The light source section 11 includes a plurality of light emitting elements made of, for example, white LEDs (Light Emitting Diodes). The light guide plate 12 guides the illumination light from the light source section 11 and emits the illumination light from its upper surface. The reflective sheet 13 reflects the illumination light emitted from the bottom surface of the light guide plate 12 toward the light guide plate 12 again. The lighting element 10 may include a member (including a prism sheet and a diffusion sheet) that improves optical characteristics on the upper surface of the light guide plate 12.

表示素子20は、透過型の表示素子である。表示素子20は、例えば液晶表示素子で構成される。表示素子20の駆動モードについては特に限定されず、TN(Twisted Nematic)モード、VA(Vertical Alignment)モード、又はホモジニアスモードなどを用いることができる。表示素子20は、照明素子10から出射された照明光を受ける。表示素子20は、照明素子10からの照明光を透過して光変調を行う。そして、表示素子20は、その画面に所望の画像を表示する。表示素子20の詳細な構成については後述する。 The display element 20 is a transmissive display element. The display element 20 is composed of, for example, a liquid crystal display element. The drive mode of the display element 20 is not particularly limited, and a TN (Twisted Nematic) mode, a VA (Vertical Alignment) mode, a homogeneous mode, or the like can be used. The display element 20 receives illumination light emitted from the illumination element 10. The display element 20 transmits the illumination light from the illumination element 10 and performs light modulation. The display element 20 then displays a desired image on its screen. The detailed configuration of the display element 20 will be described later.

配向制御素子30は、不要光を低減する機能を有する。不要光とは、空中像を生成するのに寄与しない光成分であり、法線方向に光学素子40を透過する光成分を含む。配向制御素子30は、法線方向に対して角度θの斜め方向を中心として所定の角度範囲の光成分を透過するとともに、上記角度範囲以外の光成分を遮光するように構成される。配向制御素子30の面積は、表示素子20の面積とほぼ同じに設定される。配向制御素子30の詳細な構成については後述する。 The alignment control element 30 has a function of reducing unnecessary light. Unnecessary light is a light component that does not contribute to generating an aerial image, and includes a light component that passes through the optical element 40 in the normal direction. The orientation control element 30 is configured to transmit light components within a predetermined angular range centering on an oblique direction at an angle θ 1 with respect to the normal direction, and to block light components outside the above angular range. The area of the alignment control element 30 is set to be approximately the same as the area of the display element 20. The detailed configuration of the alignment control element 30 will be described later.

光学素子40は、底面側から入射した光を上面側に反射する。また、光学素子40は、底面側から斜めに入射した入射光を、例えば正面方向(法線方向)に反射する。光学素子40の面積は、表示素子20の面積以上に設定される。光学素子40の詳細な構成については後述する。光学素子40は、空中に空中像2を結像する。空中像2は、光学素子40の素子面に平行であり、2次元の画像である。素子面とは、光学素子40が面内方向に広がる仮想的な平面を言う。素子面は、面内と同じ意味である。その他の素子の素子面についても同様の意味である。光学素子40の正面にいる観察者3は、空中像2を視認することができる。 The optical element 40 reflects light incident from the bottom side toward the top side. Further, the optical element 40 reflects incident light obliquely incident from the bottom side, for example, in the front direction (normal direction). The area of the optical element 40 is set to be larger than the area of the display element 20. The detailed configuration of the optical element 40 will be described later. The optical element 40 forms an aerial image 2 in the air. The aerial image 2 is parallel to the element surface of the optical element 40 and is a two-dimensional image. The element surface refers to a virtual plane in which the optical element 40 extends in the in-plane direction. Element plane has the same meaning as in-plane. The same meaning applies to the element surfaces of other elements. The observer 3 who is in front of the optical element 40 can visually recognize the aerial image 2.

センシング素子50は、空中表示装置1が生成した空中像2の一部又は全部を含む空間領域に検知領域51を形成する。センシング素子50は、検知領域51に存在する対象物(物体)を検知する。センシング素子50は、検知領域51に赤外光を出射し、対象物で反射された反射光を検知する。センシング素子50は、検知領域51に向けて赤外光を発光する発光部と、対象物で反射された反射光を検知する受光部(センサ)とを含む。センシング素子50は、例えば、複数の発光素子と複数の受光素子とが交互に一列に並んだラインセンサで構成される。ラインセンサは、赤外光を用いてライン状に空間をスキャンすることが可能であり、複数の発光素子が並んだ方向と光が進む方向とからなる2次元の空間をスキャンすることが可能である。センシング素子50が出射する赤外光の方向は、適宜設定可能であり、例えば、斜め上方に赤外光を出射するように構成してもよい。 The sensing element 50 forms a detection region 51 in a spatial region that includes part or all of the aerial image 2 generated by the aerial display device 1 . The sensing element 50 detects a target (object) present in the detection area 51. The sensing element 50 emits infrared light to the detection area 51 and detects the reflected light reflected by the object. The sensing element 50 includes a light emitting section that emits infrared light toward the detection region 51 and a light receiving section (sensor) that detects the reflected light from the object. The sensing element 50 is composed of, for example, a line sensor in which a plurality of light emitting elements and a plurality of light receiving elements are alternately arranged in a line. A line sensor can scan space in a line using infrared light, and can scan a two-dimensional space consisting of the direction in which multiple light emitting elements are lined up and the direction in which the light travels. be. The direction of the infrared light emitted by the sensing element 50 can be set as appropriate, and for example, the infrared light may be emitted obliquely upward.

距離画像センサ60は、自身から対象物までの距離を測定する機能と、対象物を撮像する機能とを有する。距離画像センサ60は、TOF(time of light)方式の距離画像センサで構成される。TOF方式は、発光素子から出射された光が対象物に照射され、対象物で反射された反射光を受光素子で検知するまでの時間に基づいて、対象物までの距離を測定する方式である。また、距離画像センサ60は、撮像素子を備え、被写体を撮像する。距離画像センサ60は、距離測定用のレーザー光(例えば赤外光)を発光する発光素子と、画像を撮像する撮像素子とを含む。撮像素子は、CMOS(complementary metal oxide semiconductor)センサ、又はCCD(charge coupled device)センサで構成される。撮像素子は、TOF方式の受光素子としても用いられる。 The distance image sensor 60 has a function of measuring the distance from itself to a target object and a function of capturing an image of the target object. The distance image sensor 60 is configured as a TOF (time of light) type distance image sensor. The TOF method is a method that measures the distance to an object based on the time it takes for light emitted from a light-emitting element to irradiate the object and for the reflected light reflected by the object to be detected by a light-receiving element. . Further, the distance image sensor 60 includes an image sensor and images a subject. The distance image sensor 60 includes a light emitting element that emits a laser beam (for example, infrared light) for distance measurement, and an image sensor that captures an image. The image sensor is composed of a CMOS (complementary metal oxide semiconductor) sensor or a CCD (charge coupled device) sensor. The image sensor is also used as a TOF type light receiving element.

なお、距離画像センサ60に変えて、自身から対象物までの距離を測定する距離センサと、対象物を撮像する撮像素子とを別々に設けてもよい。この実施例の場合、距離センサは、レーザー光(例えば赤外光)を発光する発光部と、対象物で反射された反射光を受光する受光部とを含むように構成される。 Note that instead of the distance image sensor 60, a distance sensor that measures the distance from itself to the target object and an image sensor that captures an image of the target object may be provided separately. In the case of this embodiment, the distance sensor is configured to include a light emitting section that emits laser light (for example, infrared light) and a light receiving section that receives reflected light reflected by the target object.

筐体70は、照明素子10、表示素子20、配向制御素子30、光学素子40、センシング素子50、及び距離画像センサ60を収容する。筐体70は、上部に光学素子40を露出する開口部と、距離画像センサ60を露出する開口部とを有する。また、筐体70の一側部には、センシング素子50が取り付けられる。 The housing 70 accommodates the illumination element 10 , the display element 20 , the orientation control element 30 , the optical element 40 , the sensing element 50 , and the distance image sensor 60 . The housing 70 has an opening at the top that exposes the optical element 40 and an opening that exposes the distance image sensor 60. Furthermore, the sensing element 50 is attached to one side of the housing 70.

なお、センシング素子50は、筐体70に収容されず、筐体70の外の任意の位置に配置してもよい。センシング素子50は、検知動作に最適な箇所に配置することが可能である。また、距離画像センサ60は、筐体70に収容されず、筐体70の外の任意の位置に配置してもよい。距離画像センサ60は、検知動作に最適な箇所に配置することが可能である。 Note that the sensing element 50 is not housed in the housing 70 and may be placed at any position outside the housing 70. The sensing element 50 can be placed at an optimal location for sensing operation. Further, the distance image sensor 60 may not be housed in the housing 70, but may be placed at an arbitrary position outside the housing 70. The distance image sensor 60 can be placed at the optimal location for the detection operation.

[1-1] 表示素子20の構成
図4は、図1に示した表示素子20の模式的な平面図である。
[1-1] Configuration of display element 20 FIG. 4 is a schematic plan view of the display element 20 shown in FIG. 1.

表示素子20は、表示領域21、額縁22、及びケース23を備える。表示領域21は、画像を表示する領域である。額縁22は、表示領域21の周囲の周辺領域であり、画素を駆動する周辺回路が配置される領域である。額縁22は、黒の遮光層(ブラックマトリクス)で遮光され、観察者からは黒で視認される。ケース23は、表示素子20を構成する基板を周囲から固定する。 The display element 20 includes a display area 21, a frame 22, and a case 23. The display area 21 is an area where images are displayed. The frame 22 is a peripheral area around the display area 21, and is an area where peripheral circuits that drive pixels are arranged. The frame 22 is shielded from light by a black light shielding layer (black matrix), and is visually recognized as black by an observer. The case 23 fixes the substrate constituting the display element 20 from the periphery.

表示領域21には、マトリクス状に配置された複数の画素Dpが設けられる。マトリクス状に配置された複数の画素を画素アレイともいう。複数の画素Dpの各々は、表示素子20が表示する画像の色情報の最小単位である。画素Dpは、例えば、光の三原色である赤(R)、緑(G)、及び青(B)にそれぞれ対応する赤サブ画素R、緑サブ画素G、及び青サブ画素Bで構成される。なお、画素Dpの面積は、図示した面積より十分小さい。 The display area 21 is provided with a plurality of pixels Dp arranged in a matrix. A plurality of pixels arranged in a matrix is also called a pixel array. Each of the plurality of pixels Dp is the minimum unit of color information of an image displayed by the display element 20. The pixel Dp is composed of, for example, a red sub-pixel R, a green sub-pixel G, and a blue sub-pixel B, which respectively correspond to the three primary colors of light, red (R), green (G), and blue (B). Note that the area of the pixel Dp is sufficiently smaller than the illustrated area.

画素アレイの列数を“md”、行数を“nd”とする。表示素子20の画素数は、“md*nd”である。表示素子20の画素数は任意に設定可能である。 Let the number of columns of the pixel array be "md" and the number of rows be "nd". The number of pixels of the display element 20 is "md*nd". The number of pixels of the display element 20 can be set arbitrarily.

[1-2] 配向制御素子30の構成
図5Aは、図1に示した配向制御素子30の平面図である。図5Bは、図5AのA-A´線に沿った配向制御素子30の断面図である。
[1-2] Configuration of alignment control element 30 FIG. 5A is a plan view of the alignment control element 30 shown in FIG. 1. FIG. 5B is a cross-sectional view of the alignment control element 30 taken along line AA' in FIG. 5A.

基材31は、XY面において平面状に構成され、直方体を有する。基材31は、光を透過する。 The base material 31 is configured to be planar in the XY plane and has a rectangular parallelepiped shape. The base material 31 transmits light.

基材31上には、それぞれがY方向に延び、X方向に並んだ複数の透明部材33が設けられる。また、基材31上には、それぞれがY方向に延び、X方向に並んだ複数の遮光部材34が設けられる。複数の透明部材33と複数の遮光部材34とは、隣接するもの同士が接するようにして交互に配置される。 A plurality of transparent members 33 are provided on the base material 31, each extending in the Y direction and aligned in the X direction. Furthermore, a plurality of light shielding members 34 are provided on the base material 31, each extending in the Y direction and lined up in the X direction. The plurality of transparent members 33 and the plurality of light shielding members 34 are arranged alternately so that adjacent ones are in contact with each other.

複数の透明部材33及び複数の遮光部材34上には、基材32が設けられる。基材32は、XY面において平面状に構成され、直方体を有する。基材32は、光を透過する。 A base material 32 is provided on the plurality of transparent members 33 and the plurality of light shielding members 34 . The base material 32 is configured to be planar in the XY plane and has a rectangular parallelepiped shape. The base material 32 transmits light.

透明部材33は、XZ面において、基材31の法線方向に対して角度θの斜め方向に延びる。透明部材33は、XZ面において、側面が角度θだけ傾いた平行四辺形である。透明部材33は、光を透過する。 The transparent member 33 extends in an oblique direction at an angle θ 1 with respect to the normal direction of the base material 31 in the XZ plane. The transparent member 33 is a parallelogram whose side surfaces are inclined by an angle θ 1 in the XZ plane. The transparent member 33 transmits light.

遮光部材34は、XZ面において、基材31の法線方向に対して角度θの斜め方向に延びる。遮光部材34は、XZ面において、側面が角度θだけ傾いた平行四辺形である。遮光部材34は、光を遮光する。遮光部材34の厚みは、透明部材33の厚みより薄く設定される。 The light shielding member 34 extends in an oblique direction at an angle θ 1 with respect to the normal direction of the base material 31 in the XZ plane. The light shielding member 34 is a parallelogram whose side surfaces are inclined by an angle θ 1 in the XZ plane. The light blocking member 34 blocks light. The thickness of the light shielding member 34 is set to be thinner than the thickness of the transparent member 33.

隣接する2個の遮光部材34は、Z方向において互いの端部が若干重なるように配置される。 Two adjacent light shielding members 34 are arranged so that their ends slightly overlap in the Z direction.

基材31、32、及び透明部材33としては、ガラス、又は透明な樹脂(アクリル樹脂を含む)が用いられる。遮光部材34としては、例えば、黒色の染料又は顔料が混入された樹脂が用いられる。 As the base materials 31 and 32 and the transparent member 33, glass or transparent resin (including acrylic resin) is used. As the light shielding member 34, for example, resin mixed with black dye or pigment is used.

なお、基材31、32の一方又は両方を省略して、配向制御素子30を構成してもよい。複数の透明部材33と複数の遮光部材34とが交互に配置されていれば、配向制御素子30の機能を実現できる。 Note that the alignment control element 30 may be configured by omitting one or both of the base materials 31 and 32. If the plurality of transparent members 33 and the plurality of light shielding members 34 are arranged alternately, the function of the alignment control element 30 can be realized.

このように構成された配向制御素子30は、法線方向に対して角度θの斜め方向の光強度がピークになるように、表示光を透過することができる。例えば、配向制御素子30は、法線方向に対して30°±30°の範囲以外の光成分を遮光するように構成される。望ましくは、配向制御素子30は、法線方向に対して30°±20°の範囲以外の光成分を遮光するように構成される。 The alignment control element 30 configured in this manner can transmit display light such that the light intensity in an oblique direction at an angle θ 1 with respect to the normal direction reaches a peak. For example, the alignment control element 30 is configured to block light components outside the range of 30°±30° with respect to the normal direction. Preferably, the alignment control element 30 is configured to block light components outside the range of 30°±20° with respect to the normal direction.

なお、変形例として、配向制御素子30は、照明素子10と表示素子20との間に配置してもよい。また、配向制御素子30を省略して、空中表示装置1を構成してもよい。 Note that, as a modification, the orientation control element 30 may be arranged between the lighting element 10 and the display element 20. Furthermore, the aerial display device 1 may be configured without the orientation control element 30.

[1-3] 光学素子40の構成
図6は、図1に示した光学素子40の斜視図である。図6には、光学素子40の一部を拡大した拡大図も図示している。図6の拡大図は、XZ面における側面図である。
[1-3] Configuration of optical element 40 FIG. 6 is a perspective view of the optical element 40 shown in FIG. 1. FIG. 6 also shows an enlarged view of a part of the optical element 40. The enlarged view in FIG. 6 is a side view in the XZ plane.

光学素子40は、基材41、及び複数の光学要素42を備える。基材41は、XY面において平面状に構成され、直方体を有する。 The optical element 40 includes a base material 41 and a plurality of optical elements 42. The base material 41 is configured to be planar in the XY plane and has a rectangular parallelepiped shape.

基材41の底面には、複数の光学要素42が設けられる。複数の光学要素42の各々は、三角柱で構成される。光学要素42は、三角柱の3個の側面がXY面と平行になるように配置され、1つの側面が基材41に接する。複数の光学要素42は、それぞれがY方向に延び、X方向に並んで配置される。換言すると、複数の光学要素42は、XZ面において鋸歯状を有する。 A plurality of optical elements 42 are provided on the bottom surface of the base material 41. Each of the plurality of optical elements 42 is composed of a triangular prism. The optical element 42 is arranged so that three side surfaces of a triangular prism are parallel to the XY plane, and one side surface is in contact with the base material 41. The plurality of optical elements 42 each extend in the Y direction and are arranged side by side in the X direction. In other words, the plurality of optical elements 42 have a sawtooth shape in the XZ plane.

複数の光学要素42の各々は、入射面43及び反射面44を有する。Y方向から見て、左側の側面が入射面43であり、右側の側面が反射面44である。入射面43は、表示素子20からの光が入射する面である。反射面44は、入射面43に外部から入射した光を、光学要素42の内部で反射する面である。入射面43と反射面44とは、角度θを有する。 Each of the plurality of optical elements 42 has an incident surface 43 and a reflective surface 44. When viewed from the Y direction, the left side surface is the incident surface 43, and the right side surface is the reflective surface 44. The incident surface 43 is a surface onto which light from the display element 20 is incident. The reflective surface 44 is a surface that reflects light that has entered the entrance surface 43 from the outside inside the optical element 42 . The incident surface 43 and the reflective surface 44 have an angle θ p .

基材41及び光学要素42は、透明材料で構成される。光学要素42は、例えば、基材41と同じ透明材料によって基材41と一体的に形成される。基材41と光学要素42とを個別に形成し、透明な接着材を用いて基材41に光学要素42を接着してもよい。基材41及び光学要素42を構成する透明材料としては、ガラス、又は透明な樹脂(アクリル樹脂を含む)が用いられる。 The base material 41 and the optical element 42 are made of transparent material. The optical element 42 is formed integrally with the base material 41, for example, from the same transparent material as the base material 41. The base material 41 and the optical element 42 may be formed separately, and the optical element 42 may be adhered to the base material 41 using a transparent adhesive. As the transparent material constituting the base material 41 and the optical element 42, glass or transparent resin (including acrylic resin) is used.

このように構成された光学素子40は、入射光を内部で反射して、空中に実像を結像する。また、光学素子40は、素子面の正面の位置に、空中像を結像する。 The optical element 40 configured in this manner reflects incident light internally to form a real image in the air. Further, the optical element 40 forms an aerial image at a position in front of the element surface.

[1-4] 距離画像センサ60の構成
距離画像センサ60は、撮像素子61を備える。図7は、距離画像センサ60に含まれる撮像素子61の模式的な平面図である。
[1-4] Configuration of distance image sensor 60 The distance image sensor 60 includes an image sensor 61. FIG. 7 is a schematic plan view of the image sensor 61 included in the distance image sensor 60.

撮像素子61は、基板62、撮像領域63、及び周辺領域64を備える。撮像領域63は、光を電気信号に変換する領域である。周辺領域64は、撮像領域63の周囲の領域であり、画素を駆動する周辺回路が配置される領域である。周辺領域64は、黒の遮光層で遮光される。基板62には、回路が設けられる。 The imaging device 61 includes a substrate 62, an imaging region 63, and a peripheral region 64. The imaging area 63 is an area that converts light into electrical signals. The peripheral area 64 is an area around the imaging area 63, and is an area where peripheral circuits that drive pixels are arranged. The peripheral area 64 is shielded from light by a black light shielding layer. A circuit is provided on the substrate 62.

撮像領域63には、マトリクス状に配置された複数の画素Ppが設けられる。マトリクス状に配置された複数の画素を画素アレイともいう。複数の画素Ppの各々は、光を電気信号に変換する領域の最小単位である。なお、画素Ppの面積は、図示した面積より十分小さい。 The imaging area 63 is provided with a plurality of pixels Pp arranged in a matrix. A plurality of pixels arranged in a matrix is also called a pixel array. Each of the plurality of pixels Pp is the smallest unit of area that converts light into an electrical signal. Note that the area of the pixel Pp is sufficiently smaller than the illustrated area.

画素アレイの列数を“mi”、行数を“ni”とする。撮像素子61の画素数は、“mi*ni”である。撮像素子61の画素数は任意に設定可能である。図7の“C”は、撮像素子61の中心(撮像素子中心と称する)である。撮像素子中心“C”は、左から“mi/2”列目の画素の端を通る線と、上から“ni/2”行目の画素の端を通る線との交差点である。 Let the number of columns of the pixel array be "mi" and the number of rows be "ni". The number of pixels of the image sensor 61 is "mi*ni". The number of pixels of the image sensor 61 can be set arbitrarily. "C" in FIG. 7 is the center of the image sensor 61 (referred to as the center of the image sensor). The center "C" of the image sensor is the intersection of a line passing through the edge of the pixel in the "mi/2" column from the left and a line passing through the edge of the pixel in the "ni/2" column from the top.

[1-5] 空中表示装置1のブロック構成
図8は、空中表示装置1のブロック図である。空中表示装置1は、制御部80、記憶部81、入出力インターフェース(入出力IF)82、表示部83、センシング素子50、距離画像センサ60、及び入力部84を備える。制御部80、記憶部81、及び入出力インターフェース82は、バス85を介して互いに接続される。
[1-5] Block configuration of aerial display device 1 FIG. 8 is a block diagram of the aerial display device 1. The aerial display device 1 includes a control section 80, a storage section 81, an input/output interface (input/output IF) 82, a display section 83, a sensing element 50, a distance image sensor 60, and an input section 84. The control section 80, the storage section 81, and the input/output interface 82 are connected to each other via a bus 85.

入出力インターフェース82は、表示部83、センシング素子50、距離画像センサ60、及び入力部84に接続される。入出力インターフェース82は、表示部83、センシング素子50、距離画像センサ60、及び入力部84のそれぞれに対して、所定の規格に応じたインターフェース処理を行う。 The input/output interface 82 is connected to the display section 83, the sensing element 50, the distance image sensor 60, and the input section 84. The input/output interface 82 performs interface processing on each of the display section 83, sensing element 50, distance image sensor 60, and input section 84 according to a predetermined standard.

表示部83は、照明素子10、及び表示素子20を備える。表示部83は、画像を表示する。 The display section 83 includes a lighting element 10 and a display element 20. The display section 83 displays images.

制御部80は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の1つ以上のプロセッサにより構成される。制御部80は、記憶部81に格納されたプログラムを実行することで各種機能を実現する。制御部80は、表示処理部80A、情報処理部80B、検知位置算出部80C、顔認識部80D、及び画像補正部80Eを備える。 The control unit 80 includes one or more processors such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit). The control unit 80 implements various functions by executing programs stored in the storage unit 81. The control section 80 includes a display processing section 80A, an information processing section 80B, a detection position calculation section 80C, a face recognition section 80D, and an image correction section 80E.

表示処理部80Aは、表示部83(具体的には、照明素子10、及び表示素子20)の動作を制御する。表示処理部80Aは、照明素子10のオン及びオフを制御する。表示処理部80Aは、表示素子20に画像信号を送信し、表示素子20に画像を表示させる。 The display processing unit 80A controls the operation of the display unit 83 (specifically, the lighting element 10 and the display element 20). The display processing unit 80A controls turning on and off of the lighting element 10. The display processing unit 80A transmits an image signal to the display element 20 and causes the display element 20 to display an image.

情報処理部80Bは、空中表示装置1が表示する画像を生成する。情報処理部80Bは、記憶部81に格納された画像データを用いることが可能である。情報処理部80Bは、図示せぬ通信機能を用いて外部から画像データを取得してもよい。 The information processing unit 80B generates an image to be displayed by the aerial display device 1. The information processing section 80B can use the image data stored in the storage section 81. The information processing unit 80B may acquire image data from outside using a communication function (not shown).

検知位置算出部80Cは、センシング素子50の動作を制御する。検知位置算出部80Cは、センシング素子50に含まれる発光部が赤外光を出射するように制御し、所定の空間領域に赤外光からなる検知領域51を形成する。検知位置算出部80Cは、センシング素子50に含まれる受光部から送られる複数の検知信号に基づいて、観察者3の指3Aの位置を算出する。 The detected position calculation unit 80C controls the operation of the sensing element 50. The detection position calculation section 80C controls the light emitting section included in the sensing element 50 to emit infrared light, and forms a detection region 51 made of infrared light in a predetermined spatial region. The detection position calculation unit 80C calculates the position of the finger 3A of the observer 3 based on a plurality of detection signals sent from the light receiving unit included in the sensing element 50.

顔認識部80Dは、撮像素子61から撮像データを取得する。顔認識部80Dは、撮像素子61から取得した撮像データを用いて、目、鼻、口、及び輪郭などの複数の特徴点を抽出し、複数の特徴点の位置関係に基づいて顔を認識する。さらに、顔認識部80Dは、複数の特徴点の位置関係に基づいて、目の位置を認識する。 The face recognition unit 80D acquires image data from the image sensor 61. The face recognition unit 80D extracts a plurality of feature points such as eyes, nose, mouth, and outline using the image data acquired from the image sensor 61, and recognizes the face based on the positional relationship of the plurality of feature points. . Furthermore, the face recognition unit 80D recognizes the position of the eyes based on the positional relationship of the plurality of feature points.

画像補正部80Eは、距離画像センサ60の動作を制御する。画像補正部80Eは、距離画像センサ60から送られる情報に基づいて、観察者3の位置を算出する。さらに、画像補正部80Eは、観察者3の位置に関する情報に基づいて、表示素子20に表示する画像の位置を補正する。 The image correction unit 80E controls the operation of the distance image sensor 60. The image correction unit 80E calculates the position of the observer 3 based on the information sent from the distance image sensor 60. Furthermore, the image correction unit 80E corrects the position of the image displayed on the display element 20 based on information regarding the position of the observer 3.

記憶部81は、ROM(Read Only Memory)、HDD(Hard Disk Drive)、及びSSD(Solid State Drive)等の不揮発性記憶装置と、RAM(Random Access Memory)、及びレジスタ等の揮発性記憶装置とを含む。記憶部81は、制御部80が実行するプログラムを格納する。記憶部81は、制御部80の制御に必要な各種データを格納する。さらに、記憶部81は、空中表示装置1が表示する画像のデータを格納する。 The storage unit 81 includes nonvolatile storage devices such as ROM (Read Only Memory), HDD (Hard Disk Drive), and SSD (Solid State Drive), and volatile storage devices such as RAM (Random Access Memory) and registers. including. The storage unit 81 stores programs executed by the control unit 80. The storage unit 81 stores various data necessary for control of the control unit 80. Furthermore, the storage unit 81 stores data of images displayed by the aerial display device 1.

入力部84は、例えばタッチパネルやボタンなどを含み、ユーザが入力した情報を受け付ける。情報処理部80Bは、入力部84が受け付けた情報に基づいて、表示部83に表示する画像を選択することが可能である。 The input unit 84 includes, for example, a touch panel and buttons, and receives information input by the user. The information processing section 80B can select an image to be displayed on the display section 83 based on the information received by the input section 84.

[2] 空中表示装置1の動作
次に、上記のように構成された空中表示装置1の動作について説明する。
[2] Operation of the aerial display device 1 Next, the operation of the aerial display device 1 configured as described above will be described.

[2-1] 空中像2の表示動作
まず、空中像2の表示動作について説明する。
図2の矢印は、光路を示している。図2に示すように、表示素子20の任意の点“o”から出射された光は、配向制御素子30に入射する。表示素子20から出射された光のうち角度θの光成分(角度θを中心とした所定の角度範囲の光成分を含む)は、配向制御素子30を透過する。配向制御素子30を透過した光は、光学素子40に入射する。光学素子40は、入射光を、配向制御素子30と反対側に反射し、空中に空中像2を結像する。
[2-1] Display operation of aerial image 2 First, the display operation of aerial image 2 will be explained.
The arrows in FIG. 2 indicate optical paths. As shown in FIG. 2, light emitted from an arbitrary point "o" on the display element 20 enters the alignment control element 30. Of the light emitted from the display element 20 , a light component at an angle θ 1 (including a light component within a predetermined angular range centered on the angle θ 1 ) is transmitted through the alignment control element 30 . The light transmitted through the alignment control element 30 enters the optical element 40. The optical element 40 reflects the incident light to the side opposite to the orientation control element 30, and forms an aerial image 2 in the air.

図9は、光学素子40における光の反射の様子を説明する斜視図である。図10は、光学素子40における光の反射の様子を説明するXZ面の側面図である。図10は、観察者3の両目(すなわち、両目を結ぶ線)がX方向に平行な状態で光学素子40を見た図である。図11は、光学素子40における光の反射の様子を説明するYZ面の側面図である。図11は、観察者3の両目がY方向に平行な状態で光学素子40を見た図である。 FIG. 9 is a perspective view illustrating how light is reflected in the optical element 40. FIG. 10 is a side view of the XZ plane illustrating how light is reflected in the optical element 40. FIG. 10 is a diagram of the optical element 40 viewed with both eyes of the observer 3 (that is, a line connecting both eyes) parallel to the X direction. FIG. 11 is a side view of the YZ plane illustrating how light is reflected in the optical element 40. FIG. 11 is a diagram of the optical element 40 viewed with both eyes of the observer 3 parallel to the Y direction.

表示素子20の任意の点“o”から出射された光は、光学素子40の入射面43に入射し、反射面44に到達する。反射面44の法線方向に対して臨界角よりも大きい角度で反射面44に到達した光は、反射面44で全反射され、光学素子40の光学要素42が形成されている側の反対側の平面から出射される。臨界角とは、その入射角を超えると全反射する最少の入射角である。臨界角は、入射面の垂線に対する角度である。 Light emitted from an arbitrary point "o" on the display element 20 enters the incident surface 43 of the optical element 40 and reaches the reflective surface 44 . The light that reaches the reflective surface 44 at an angle larger than the critical angle with respect to the normal direction of the reflective surface 44 is totally reflected on the reflective surface 44 and is reflected on the opposite side of the optical element 40 from the side where the optical element 42 is formed. is emitted from the plane of The critical angle is the minimum angle of incidence beyond which total internal reflection occurs. The critical angle is the angle of the plane of incidence with respect to the normal.

図10のXZ面では、点“o”から出射された光は、光学要素42の反射面44で全反射され、その光は空中で結像されて空中像を生成する。 In the XZ plane of FIG. 10, the light emitted from point "o" is totally reflected by the reflective surface 44 of the optical element 42, and the light is imaged in the air to generate an aerial image.

図11のYZ面では、点“o”から出射された光は、光学要素42の反射面44で反射されず、その光は空中で結像することがないため空中像の生成に寄与しない。 In the YZ plane of FIG. 11, the light emitted from point "o" is not reflected by the reflective surface 44 of the optical element 42, and the light does not form an image in the air, so it does not contribute to the generation of an aerial image.

すなわち、観察者3が空中像を視認できる条件は、観察者3の両眼がX方向に平行、又はそれに近い状態(例えばX方向に対して±10度)である。また、観察者3の両眼がX方向に平行、又はそれに近い状態でY方向に沿って視点を移動した場合、空中像を常に認識することができる。 That is, the condition under which the observer 3 can visually recognize the aerial image is that both eyes of the observer 3 are parallel to the X direction or close to it (for example, ±10 degrees with respect to the X direction). Further, when the observer 3 moves his/her viewpoint along the Y direction with both eyes parallel to the X direction or in a state close to it, the aerial image can always be recognized.

図12は、光学素子40における入射面43及び反射面44の角度条件を説明する図である。 FIG. 12 is a diagram illustrating the angle conditions of the incident surface 43 and the reflective surface 44 in the optical element 40.

Z方向(素子面に垂直な方向)に対する入射面43の角度をθ、Z方向に対する反射面44の角度をθ、入射面43と反射面44とのなす角度をθとする。角度をθは、以下の式(1)で表される。
θ=θ+θ ・・・(1)
Let the angle of the incident surface 43 with respect to the Z direction (direction perpendicular to the element surface) be θ 2 , the angle of the reflective surface 44 with respect to the Z direction be θ 3 , and the angle between the incident surface 43 and the reflective surface 44 be θ p . The angle θ p is expressed by the following equation (1).
θ p = θ 2 + θ 3 ...(1)

配向制御素子30から角度θで出射された光は、入射面43に入射する。光学素子40の材料の屈折率をn、空気の屈折率を1とする。入射面43における入射角をθ、屈折角をθとする。反射面44における入射角をθ、反射角をθ(=θ)とする。光学素子40の上面における入射角をθ、屈折角をθとする。屈折角θが出射角である。出射角θは、以下の式(2)で表される。
θ=sin-1(n*sin(sin-1((1/n)*sin(90°-(θ+θ)))+θ2+2θ-90°)) ・・・(2)
The light emitted from the orientation control element 30 at an angle θ 1 enters the incident surface 43 . Let the refractive index of the material of the optical element 40 be n p and the refractive index of air be 1. Let the incident angle at the incident surface 43 be θ 4 and the refraction angle be θ 5 . Let the incident angle on the reflecting surface 44 be θ 6 and the reflection angle be θ 7 (=θ 6 ). Let the incident angle at the upper surface of the optical element 40 be θ 8 and the refraction angle be θ 9 . The refraction angle θ 9 is the exit angle. The output angle θ 9 is expressed by the following equation (2).
θ 9 = sin -1 (n p *sin (sin -1 ((1/n p ) * sin (90° - (θ 1 + θ 2 ))) + θ 2 +2θ 3 -90°)) ... (2 )

反射面44における臨界角は、以下の式(3)で表される。
臨界角<θ(=θ
臨界角=sin-1(1/n) ・・・(3)
The critical angle at the reflective surface 44 is expressed by the following equation (3).
Critical angle <θ 6 (=θ 7 )
Critical angle = sin -1 (1/n p )...(3)

すなわち、反射面44における入射角θは、反射面44における臨界角より大きく設定される。換言すると、反射面44の角度θは、反射面44に入射する光の入射角が臨界角より大きくなるように設定される。 That is, the incident angle θ 6 on the reflective surface 44 is set to be larger than the critical angle on the reflective surface 44 . In other words, the angle θ 3 of the reflective surface 44 is set such that the angle of incidence of light incident on the reflective surface 44 is greater than the critical angle.

また、入射面43に入射した光は、入射面43で全反射されないように設定される。すなわち、入射面43の角度θは、入射面43に入射する光の入射角が臨界角より小さくなるように設定される。 Further, the light incident on the entrance surface 43 is set so as not to be totally reflected on the entrance surface 43. That is, the angle θ 2 of the incident surface 43 is set such that the incident angle of light incident on the incident surface 43 is smaller than the critical angle.

光学素子40の素子面と空中像2の面との角度、及び光学素子40の素子面と空中像2の面との距離は、光学素子40に入射する光の角度θ、光学素子40の屈折率、光学素子40の入射面43の角度θ、光学素子40の反射面44の角度θを最適に設定することで調整が可能である。 The angle between the element surface of the optical element 40 and the surface of the aerial image 2 and the distance between the element surface of the optical element 40 and the surface of the aerial image 2 are determined by the angle θ 1 of the light incident on the optical element 40 and the angle between the element surface of the optical element 40 and the surface of the aerial image 2. Adjustment is possible by optimally setting the refractive index, the angle θ 2 of the incident surface 43 of the optical element 40, and the angle θ 3 of the reflective surface 44 of the optical element 40.

[2-2] 全体動作の流れ
次に、空中表示装置1における全体動作の流れについて説明する。図13は、空中表示装置1における全体動作を説明するフローチャートである。
[2-2] Flow of overall operation Next, the flow of overall operation in the aerial display device 1 will be explained. FIG. 13 is a flowchart illustrating the overall operation of the aerial display device 1.

撮像素子61は、観察者3を撮像し、撮像データ65を生成する(ステップS100)。 The image sensor 61 images the observer 3 and generates image data 65 (step S100).

続いて、顔認識部80Dは、撮像素子61から撮像データ65を取得する。顔認識部80Dは、撮像素子61から取得した撮像データ65に基づいて、観察者3の顔を認識する(ステップS101)。 Subsequently, the face recognition unit 80D obtains image data 65 from the image sensor 61. The face recognition unit 80D recognizes the face of the observer 3 based on the image data 65 acquired from the image sensor 61 (step S101).

続いて、距離画像センサ60は、観察者3までの距離を測定する(ステップS102)。具体的には、距離画像センサ60は、距離測定用のレーザー光(例えば赤外光)を発光し、対象物で反射された反射光を受光する。そして、距離画像センサ60は、レーザー光の往復時間に基づいて、観察者3までの距離を測定する。 Subsequently, the distance image sensor 60 measures the distance to the observer 3 (step S102). Specifically, the distance image sensor 60 emits a laser beam (for example, infrared light) for distance measurement, and receives reflected light reflected by an object. The distance image sensor 60 then measures the distance to the observer 3 based on the round trip time of the laser beam.

続いて、画像補正部80Eは、観察者3の位置を算出する(ステップS103)。具体的には、画像補正部80Eは、空中表示装置1の光出射面から観察者3までの距離L、及び距離画像センサ60の中心から観察者3の目までの高さHを算出する。距離Lを水平距離、高さHを垂直距離とも呼ぶ。 Subsequently, the image correction unit 80E calculates the position of the observer 3 (step S103). Specifically, the image correction unit 80E calculates the distance L from the light exit surface of the aerial display device 1 to the observer 3, and the height H from the center of the distance image sensor 60 to the eyes of the observer 3. The distance L is also called the horizontal distance, and the height H is also called the vertical distance.

続いて、画像補正部80Eは、観察者3の位置に基づいて、表示素子20に表示する画像の位置を補正する(ステップS104)。 Subsequently, the image correction unit 80E corrects the position of the image displayed on the display element 20 based on the position of the observer 3 (step S104).

続いて、表示素子20は、画像補正部80Eにより補正された位置に画像を表示する(ステップS105)。光学素子40は、表示素子20からの光を反射し、空中に空中像2を結像する。 Subsequently, the display element 20 displays the image at the position corrected by the image correction unit 80E (step S105). The optical element 40 reflects the light from the display element 20 and forms an aerial image 2 in the air.

続いて、センシング素子50は、所定の空間領域に赤外光からなる検知領域51を形成する(ステップS106)。 Subsequently, the sensing element 50 forms a detection region 51 made of infrared light in a predetermined spatial region (step S106).

続いて、検知位置算出部80Cは、センシング素子50の検知結果に基づいて、観察者3が空中像2をタッチしたか否か、すなわち、観察者3のタッチ操作を判定する(ステップS107)。 Subsequently, the detection position calculation unit 80C determines whether the observer 3 has touched the aerial image 2, that is, the touch operation by the observer 3, based on the detection result of the sensing element 50 (step S107).

タッチ操作を検知しない場合(ステップS107=No)、制御部80は、ステップS100以降の動作を繰り返す。 If a touch operation is not detected (step S107=No), the control unit 80 repeats the operations from step S100 onwards.

タッチ操作を検知した場合(ステップS107=Yes)、検知位置算出部80Cは、観察者3がタッチした位置(タッチ位置)が、検知領域51のうち予め決められた操作領域内であるか否かを判定する(ステップS108)。 When a touch operation is detected (step S107=Yes), the detection position calculation unit 80C determines whether the position touched by the observer 3 (touch position) is within a predetermined operation area of the detection area 51. is determined (step S108).

タッチ位置が操作領域内でない場合(ステップS108=No)、制御部80は、ステップS107以降の動作を繰り返す。 If the touch position is not within the operation area (step S108=No), the control unit 80 repeats the operations from step S107 onwards.

タッチ位置が操作領域内である場合(ステップS108=Yes)、表示素子20は、タッチされた情報にリンクした画像を表示する(ステップS109)。 If the touch position is within the operation area (step S108=Yes), the display element 20 displays an image linked to the touched information (step S109).

続いて、制御部80は、観察者3による終了操作を監視する(ステップS110)。終了操作は、例えば、入力部84を用いて行われる。終了操作を検知しない場合(ステップS110=No)、制御部80は、ステップS107以降の動作を繰り返す。終了操作を検知した場合(ステップS110=Yes)、制御部80は、処理を終了する。 Subsequently, the control unit 80 monitors the termination operation by the observer 3 (step S110). The termination operation is performed using the input unit 84, for example. If the end operation is not detected (step S110=No), the control unit 80 repeats the operations from step S107 onwards. If an end operation is detected (step S110=Yes), the control unit 80 ends the process.

[2-3] 顔認識動作
次に、観察者3の顔を認識する動作(顔認識動作)について説明する。図14は、観察者3の顔を認識する動作を説明する模式図である。
[2-3] Face Recognition Operation Next, the operation of recognizing the face of the observer 3 (face recognition operation) will be described. FIG. 14 is a schematic diagram illustrating the operation of recognizing the face of the observer 3.

撮像素子61は、観察者3を撮像し、撮像データ65を生成する。顔認識部80Dは、撮像素子61から撮像データ65を取得する。顔認識部80Dは、撮像素子61から取得した撮像データ65を用いて、目、鼻、口、及び輪郭などの複数の特徴点を抽出し、複数の特徴点の位置関係に基づいて顔を認識する。図16では、四角形の枠が顔と認識される。さらに、顔認識部80Dは、複数の特徴点の位置関係に基づいて、目の位置を認識する。 The image sensor 61 images the observer 3 and generates image data 65 . The face recognition unit 80D acquires image data 65 from the image sensor 61. The face recognition unit 80D uses the image data 65 acquired from the image sensor 61 to extract a plurality of feature points such as eyes, nose, mouth, and outline, and recognizes the face based on the positional relationship of the plurality of feature points. do. In FIG. 16, a rectangular frame is recognized as a face. Furthermore, the face recognition unit 80D recognizes the position of the eyes based on the positional relationship of the plurality of feature points.

顔認識部80Dによる顔認識の結果に基づいて、空中表示装置1と観察者3との位置関係が判定される。 Based on the result of face recognition by the face recognition unit 80D, the positional relationship between the aerial display device 1 and the observer 3 is determined.

[2-4] 画像補正動作の概略
次に、表示素子20に表示する画像の位置を補正する動作(画像補正動作)の概略について説明する。
[2-4] Outline of Image Correction Operation Next, an outline of the operation (image correction operation) for correcting the position of an image displayed on the display element 20 will be described.

図15は、観察者3が空中表示装置1を正面から見た場合の空中表示装置1の動作を説明する斜視図である。図15では、空中像2としてボタンを一例として示している。 FIG. 15 is a perspective view illustrating the operation of the aerial display device 1 when the observer 3 views the aerial display device 1 from the front. In FIG. 15, a button is shown as an example of the aerial image 2.

表示素子20は、自身の画面の中央付近にボタンの画像24を表示する。光学素子40は、表示素子20からの光を反射し、空中に空中像2を結像する。 The display element 20 displays a button image 24 near the center of its screen. The optical element 40 reflects the light from the display element 20 and forms an aerial image 2 in the air.

センシング素子50は、空中像2が表示される空間領域を含む検知領域51を形成する。検知領域51は、赤外光で形成される。観察者3の指3Aが空中像2をタッチすると、センシング素子50は、検知領域51内の観察者3の指3Aを検知する。検知位置算出部80Cは、センシング素子50から送られる複数の検知信号に基づいて、観察者3の指3Aの位置を算出する。これにより、空中表示装置1は、観察者3に向けて空中像2を表示させるとともに、観察者3が空中像2をタッチしたことを検知できる。 The sensing element 50 forms a detection area 51 that includes a spatial area in which the aerial image 2 is displayed. The detection area 51 is formed using infrared light. When the finger 3A of the observer 3 touches the aerial image 2, the sensing element 50 detects the finger 3A of the observer 3 within the detection area 51. The detection position calculation unit 80C calculates the position of the finger 3A of the observer 3 based on the plurality of detection signals sent from the sensing element 50. Thereby, the aerial display device 1 can display the aerial image 2 toward the observer 3 and detect that the observer 3 has touched the aerial image 2.

表示素子20が画像24を中央に表示した状態で、観察者3が空中表示装置1を斜め上から見た場合、空中像2は、検知領域51より上側にずれて視認される。この場合、観察者3の指3Aが空中像2をタッチしたことを検知できない可能性がある。表示素子20が画像24を中央に表示した状態で、観察者3が空中表示装置1を斜め下から見た場合、空中像2は、検知領域51より下側にずれて視認される。この場合も、観察者3の指3Aが空中像2をタッチしたことを検知できない可能性がある。 When the observer 3 views the aerial display device 1 diagonally from above with the display element 20 displaying the image 24 in the center, the aerial image 2 is visually recognized as shifted upward from the detection area 51 . In this case, it may not be possible to detect that the finger 3A of the observer 3 touches the aerial image 2. When the observer 3 views the aerial display device 1 diagonally from below with the display element 20 displaying the image 24 in the center, the aerial image 2 is visually recognized as shifted downward from the detection area 51 . In this case as well, there is a possibility that it may not be possible to detect that the finger 3A of the observer 3 touches the aerial image 2.

図16は、観察者3が空中表示装置1を斜めから見た場合の空中表示装置1の動作を説明する斜視図である。図16の説明における上下の定義は、図16の状態で配置された空中表示装置1を基準にしている。 FIG. 16 is a perspective view illustrating the operation of the aerial display device 1 when the observer 3 views the aerial display device 1 from an angle. The definition of up and down in the explanation of FIG. 16 is based on the aerial display device 1 arranged in the state shown in FIG.

センシング素子50は、固定された空間領域に検知領域51を形成する。すなわち、センシング素子50は、観察者3の位置に関わらず、常時同じ位置に検知領域51を形成する。 The sensing element 50 forms a detection region 51 in a fixed spatial region. That is, the sensing element 50 always forms the detection region 51 at the same position regardless of the position of the observer 3.

観察者3が空中表示装置1を斜め上から見ていると判定された場合、表示素子20は、画像24を中央(図15の画像の位置)よりも下側に移動して表示する。これにより、空中表示装置1は、検知領域51に重なるように空中像2を表示することができる。また、空中表示装置1は、観察者3の指3Aが空中像2をタッチしたことを検知できる。 If it is determined that the observer 3 is viewing the aerial display device 1 from diagonally above, the display element 20 displays the image 24 by moving it below the center (the position of the image in FIG. 15). Thereby, the aerial display device 1 can display the aerial image 2 so as to overlap the detection area 51. Further, the aerial display device 1 can detect that the finger 3A of the observer 3 touches the aerial image 2.

観察者3が空中表示装置1を斜め下から見ていると判定された場合、表示素子20は、画像24を中央(図15の画像の位置)よりも上側に移動して表示する。これにより、空中表示装置1は、検知領域51に重なるように空中像2を表示することができる。また、空中表示装置1は、観察者3の指3Aが空中像2をタッチしたことを検知できる。 If it is determined that the observer 3 is viewing the aerial display device 1 from diagonally below, the display element 20 moves and displays the image 24 above the center (the position of the image in FIG. 15). Thereby, the aerial display device 1 can display the aerial image 2 so as to overlap the detection area 51. Further, the aerial display device 1 can detect that the finger 3A of the observer 3 touches the aerial image 2.

[2-5] 画像補正動作の詳細
次に、表示素子20に表示する画像の位置を補正する詳細な動作について説明する。
[2-5] Details of Image Correction Operation Next, detailed operations for correcting the position of the image displayed on the display element 20 will be described.

図17は、観察者3が空中像2をタッチする様子を説明する斜視図である。 FIG. 17 is a perspective view illustrating how the observer 3 touches the aerial image 2.

センシング素子50が形成する検知領域51の中心を“Sc”とする。空中表示装置1の光出射面から観察者3までの距離を“L”、空中表示装置1の光出射面から検知領域51までの距離を“Ls”、検知領域51から観察者3までの距離を“Le”とする。空中表示装置1の光出射面は、空中表示装置1の上面と同じ意味である。距離Lsは、空中表示装置1の仕様に応じて決まる設計値である。距離Lは、“L=Ls+Le”で表される。距離Lは、距離画像センサ60により測定された距離情報に基づいて算出される。距離Lの具体的な算出方法については後述する。 The center of the detection region 51 formed by the sensing element 50 is defined as "Sc". The distance from the light emission surface of the aerial display device 1 to the observer 3 is “L”, the distance from the light emission surface of the aerial display device 1 to the detection area 51 is “Ls”, and the distance from the detection area 51 to the observer 3 Let be “Le”. The light exit surface of the aerial display device 1 has the same meaning as the top surface of the aerial display device 1. The distance Ls is a design value determined according to the specifications of the aerial display device 1. The distance L is expressed as "L=Ls+Le". The distance L is calculated based on distance information measured by the distance image sensor 60. A specific method for calculating the distance L will be described later.

図18は、画像補正動作を説明するYZ面の側面図である。図18は、観察者3が空中表示装置1を斜め上から見た様子を示している。 FIG. 18 is a side view of the YZ plane explaining the image correction operation. FIG. 18 shows the aerial display device 1 viewed diagonally from above by the observer 3.

距離画像センサ60の中心(具体的には、撮像素子61の中心)を基準にして、観察者3の目の高さを“H”、検知領域51の中心Scの高さを“Hs”、検知領域51の中心Scから観察者3の目までの高さを“He”とする。高さHsは、空中表示装置1の仕様に応じて決まる設計値である。高さHは、“H=Hs+He”で表される。高さHは、距離画像センサ60により撮像された画像データと、顔認識部80Dによる顔認識の結果とに基づいて算出される。高さHの具体的な算出方法については後述する。 Based on the center of the distance image sensor 60 (specifically, the center of the image sensor 61), the height of the eyes of the observer 3 is "H", the height of the center Sc of the detection area 51 is "Hs", The height from the center Sc of the detection area 51 to the eyes of the observer 3 is defined as "He". The height Hs is a design value determined according to the specifications of the aerial display device 1. The height H is expressed as "H=Hs+He". The height H is calculated based on the image data captured by the distance image sensor 60 and the result of face recognition by the face recognition unit 80D. A specific method for calculating the height H will be described later.

図19は、画像補正動作を説明するXZ面の平面図である。図19は、図18の空中表示装置1を上から見た図である。 FIG. 19 is a plan view of the XZ plane for explaining the image correction operation. FIG. 19 is a top view of the aerial display device 1 of FIG. 18.

距離画像センサ60の中心から検知領域51の中心ScまでのX方向の距離を“Xd”、距離画像センサ60の中心から観察者3までの斜距離を“Lf”とする。距離Xdは、空中表示装置1の仕様に応じて決まる設計値である。斜距離Lfは、距離画像センサ60により測定された距離情報に基づいて算出される。
距離Lは、以下の式(4)で表される。
L=√((Lf-Xd)) ・・・(4)
Let the distance in the X direction from the center of the distance image sensor 60 to the center Sc of the detection area 51 be "Xd", and the oblique distance from the center of the distance image sensor 60 to the observer 3 be "Lf". The distance Xd is a design value determined according to the specifications of the aerial display device 1. The oblique distance Lf is calculated based on distance information measured by the distance image sensor 60.
The distance L is expressed by the following equation (4).
L=√((Lf 2 -Xd 2 )) ...(4)

表示素子20における画像のずらし量を“Hi”とする。ずらし量Hiは、以下の式(5)で表される。
Hi:He=Ls:Le
Hi=(He*Ls)/Le=((H-Hs)*Le)/(L-Le) ・・・(5)
The amount of image shift on the display element 20 is set to "Hi". The shift amount Hi is expressed by the following equation (5).
Hi:He=Ls:Le
Hi=(He*Ls)/Le=((HHs)*Le)/(L-Le)...(5)

画像補正部80Eは、式(5)を用いて、ステップS104における画像位置を補正する動作を行う。 The image correction unit 80E performs an operation of correcting the image position in step S104 using equation (5).

(観察者3の高さHの算出)
次に、観察者3の目の高さHの算出方法について説明する。
(Calculation of height H of observer 3)
Next, a method for calculating the eye height H of the observer 3 will be explained.

図20は、被写体3Bと撮像素子61による像68との関係を説明する模式図である。 FIG. 20 is a schematic diagram illustrating the relationship between the subject 3B and the image 68 captured by the image sensor 61.

距離画像センサ60は、レンズ66を備える。レンズ66は、撮像素子61の上方に配置され、図示せぬ筐体によって固定される。 The distance image sensor 60 includes a lens 66. The lens 66 is arranged above the image sensor 61 and fixed by a casing (not shown).

撮像素子61は、レンズ66を介して被写体3Bを撮像する。撮像素子61には、被写体3Bの像68が照射される。 The image sensor 61 images the subject 3B through a lens 66. The image sensor 61 is illuminated with an image 68 of the subject 3B.

被写体3Bの高さを“Oa´”、被写体3Bからレンズ66の中心(レンズ中心)までの距離(被写体距離と称する)を“fa”、像68の高さ(像高さと称する)を“Ob”、レンズ66の中心から撮像素子61までの距離を“fb”とする。これらの数値は、「fa:fb=Oa´:Ob」の関係を有する。被写体距離faは、前述した観察者3までの距離Lに対応する。 The height of the object 3B is "Oa'", the distance from the object 3B to the center of the lens 66 (referred to as the object distance) is "fa", and the height of the image 68 (referred to as the image height) is "Ob". ”, and the distance from the center of the lens 66 to the image sensor 61 is “fb”. These numerical values have a relationship of "fa:fb=Oa':Ob". The subject distance fa corresponds to the distance L to the observer 3 described above.

図21は、基準被写体3Bの距離と像68の高さとの関係を説明する模式図である。距離画像センサ60は、撮像素子61及びレンズ66を収容する筐体67を備える。筐体67は、レンズ66を支持する。レンズ66の中心の面は、距離画像センサ60の主面(又は上面)ともいう。図21では、基準被写体3Bとレンズ66の中心との距離がd1、d2、dn(d1<d2<dn)の場合を示している。撮像素子61の中心を通る垂線を“Cz”と表記する。垂線Czからの基準被写体3Bの高さを“Oa”とし、“Oa”を基準被写体高さと称する。図21の“Oa”は、図20の“Oa´”の半分である。被写体の高さと像の高さとをそれぞれ半分にした場合でも、前述した被写体と像との比の関係を満たす。 FIG. 21 is a schematic diagram illustrating the relationship between the distance to the reference subject 3B and the height of the image 68. The distance image sensor 60 includes a housing 67 that houses an image sensor 61 and a lens 66. The housing 67 supports the lens 66. The central surface of the lens 66 is also referred to as the main surface (or top surface) of the distance image sensor 60. FIG. 21 shows a case where the distances between the reference subject 3B and the center of the lens 66 are d1, d2, and dn (d1<d2<dn). A perpendicular line passing through the center of the image sensor 61 is written as "Cz". The height of the reference subject 3B from the perpendicular Cz is defined as "Oa", and "Oa" is referred to as the reference subject height. “Oa” in FIG. 21 is half of “Oa′” in FIG. 20. Even if the height of the object and the height of the image are each halved, the aforementioned relationship of the ratio between the object and the image is satisfied.

図22は、図21の被写体距離d1における像68-1の高さを説明する模式図である。撮像素子61の中心Cを通る水平線を“Cx”と表記する。 FIG. 22 is a schematic diagram illustrating the height of the image 68-1 at the subject distance d1 in FIG. 21. A horizontal line passing through the center C of the image sensor 61 is written as "Cx".

像高さは、撮像素子61の画素ライン位置に換算することができる。撮像素子61の画素アレイにおける行数及び列数が決まると、像高さに対応する画素ライン位置(中心Cからの画素の行数)が算出される。すなわち、像高さは、画素ライン位置に対応する。撮像素子61における水平線Cxから像68-1の最上部までの画素ライン数を“n1”とする。 The image height can be converted into a pixel line position of the image sensor 61. Once the number of rows and columns in the pixel array of the image sensor 61 is determined, the pixel line position (the number of pixel rows from the center C) corresponding to the image height is calculated. That is, the image height corresponds to the pixel line position. The number of pixel lines from the horizontal line Cx to the top of the image 68-1 in the image sensor 61 is assumed to be "n1".

図23は、図21の被写体距離d2における像68-2の高さを説明する模式図である。被写体距離d2における画素ライン数が“n2”である。 FIG. 23 is a schematic diagram illustrating the height of the image 68-2 at the subject distance d2 in FIG. 21. The number of pixel lines at the subject distance d2 is "n2".

図24は、図21の被写体距離dnにおける像68-nの高さを説明する模式図である。被写体距離dnにおける画素ライン数が“nn”である。 FIG. 24 is a schematic diagram illustrating the height of the image 68-n at the subject distance dn in FIG. 21. The number of pixel lines at the subject distance dn is "nn".

図21乃至図24から、被写体距離が大きくなるにつれて、画素ライン数が少なくなる(像高さが小さくなる)ことが理解できる。図21乃至図24の関係は、予め基準データDfとして算出され、この基準データDfは、記憶部81に格納されている。 It can be seen from FIGS. 21 to 24 that as the subject distance increases, the number of pixel lines decreases (the image height decreases). The relationships shown in FIGS. 21 to 24 are calculated in advance as reference data Df, and this reference data Df is stored in the storage unit 81.

図25は、像高さを算出する方法を説明する図である。図25の横軸は、被写体距離を表し、縦軸は、像高さを表している。縦軸の像高さは、撮像素子61の画素ライン数に対応する。図25に示した直線は、基準データDfをプロットしたものである。 FIG. 25 is a diagram illustrating a method of calculating the image height. The horizontal axis in FIG. 25 represents the subject distance, and the vertical axis represents the image height. The image height on the vertical axis corresponds to the number of pixel lines of the image sensor 61. The straight line shown in FIG. 25 is a plot of the reference data Df.

図25の黒丸は、撮像素子61が取得した像の一例である。取得した像の被写体距離が“fe”、像高さが“Oe”であるものとする。被写体距離feに対応する基準データDfから、基準像高さOrが算出される。“Oe/Or”の値から、高さHが算出される。高さHは、以下の式(6)で表される。基準被写体高さOaは、基準データDfとともに記憶部81に格納されている。
H=Oa・(Oe/Or) ・・・(6)
A black circle in FIG. 25 is an example of an image acquired by the image sensor 61. It is assumed that the object distance of the acquired image is "fe" and the image height is "Oe". A reference image height Or is calculated from reference data Df corresponding to the subject distance fe. The height H is calculated from the value of “Oe/Or”. The height H is expressed by the following equation (6). The reference object height Oa is stored in the storage unit 81 together with the reference data Df.
H=Oa・(Oe/Or)...(6)

被写体3Bの高さを、顔認識部80Dで算出された観察者3の目の位置とすると、式(6)を用いて、観察者3の目の高さHが算出される。 If the height of the subject 3B is the position of the eyes of the observer 3 calculated by the face recognition unit 80D, the height H of the eyes of the observer 3 is calculated using equation (6).

なお、高さHは、観察者3の目の高さに限定されるものではない。顔認識部80Dは、観察者3の顔のおおまかな位置を算出するようにしてもよい。この場合、高さHとしては、観察者3の顔の高さが用いられる。 Note that the height H is not limited to the eye level of the observer 3. The face recognition unit 80D may calculate the approximate position of the observer's 3 face. In this case, the height H is the height of the face of the observer 3.

(観察者3の位置を算出する動作)
図26は、ステップS103における観察者3の位置を算出する動作を説明するフローチャートである。
(Operation to calculate the position of observer 3)
FIG. 26 is a flowchart illustrating the operation of calculating the position of the observer 3 in step S103.

画像補正部80Eは、ステップS100で取得された撮像データ65に基づいて、像高さOeを算出する(ステップS200)。 The image correction unit 80E calculates the image height Oe based on the imaging data 65 acquired in step S100 (step S200).

続いて、画像補正部80Eは、記憶部81に格納された基準データDfに基づいて、パラメータ“Oe/Or”を算出する。続いて、画像補正部80Eは、式(6)を用いて、観察者3の目の高さHを算出する(ステップS201)。 Subsequently, the image correction unit 80E calculates the parameter “Oe/Or” based on the reference data Df stored in the storage unit 81. Subsequently, the image correction unit 80E calculates the eye height H of the observer 3 using equation (6) (step S201).

続いて、画像補正部80Eは、式(4)を用いて、観察者3までの距離Lを算出する(ステップS202)。 Subsequently, the image correction unit 80E calculates the distance L to the observer 3 using equation (4) (step S202).

このようにして、観察者3の位置、すなわち、観察者3の目の高さH、及び観察者3までの距離Lが算出される。その後、ステップS104において、表示素子20に表示する画像の位置を補正する動作が行われる。 In this way, the position of the observer 3, that is, the height H of the eyes of the observer 3, and the distance L to the observer 3 are calculated. Thereafter, in step S104, an operation is performed to correct the position of the image displayed on the display element 20.

[2-6] 画像補正部80Eの具体的な動作
次に、画像補正部80Eの具体的な動作について説明する。図27は、観察者3が空中表示装置1を正面から見た場合の画像補正部80Eの動作を説明する図である。観察者3の位置(例えば観察者3の目の位置)は、前述したように、距離画像センサ60及び画像補正部80Eによって算出される。
[2-6] Specific operations of image correction section 80E Next, specific operations of image correction section 80E will be described. FIG. 27 is a diagram illustrating the operation of the image correction unit 80E when the observer 3 views the aerial display device 1 from the front. The position of the observer 3 (for example, the position of the eyes of the observer 3) is calculated by the distance image sensor 60 and the image correction unit 80E, as described above.

観察者3が空中表示装置1を正面から見ていると判定された場合、画像補正部80Eは、表示素子20の画像24の位置を補正せず、表示素子20は、通常の位置、例えば、画面の中央に画像24を表示する。これにより、観察者3は、検知領域51と重なる空間領域に空中像2を視認する。よって、観察者3が指3Aで空中像2をタッチした場合、センシング素子50は、タッチ操作を検知することができる。 If it is determined that the observer 3 is looking at the aerial display device 1 from the front, the image correction unit 80E does not correct the position of the image 24 on the display element 20, and the display element 20 is placed in the normal position, for example, An image 24 is displayed in the center of the screen. Thereby, the observer 3 visually recognizes the aerial image 2 in a spatial region that overlaps with the detection region 51. Therefore, when the observer 3 touches the aerial image 2 with the finger 3A, the sensing element 50 can detect the touch operation.

図28は、観察者3が空中表示装置1をY方向における上側から見た場合の画像補正部80Eの動作を説明する図である。観察者3が空中表示装置1をY方向における上側から見ている判定された場合、画像補正部80Eは、表示素子20の画像24をY方向における下側にずらす。画像補正部80Eは、ずらし量Hiだけ画像24がずれるように、画像位置を補正する。すなわち、画像補正部80Eは、表示素子20のうち観察者3と検知領域51とを通る直線上に画像24を表示させる。例えば、画像補正部80Eは、観察者3の目と検知領域51の中心とを通る直線上に画像24の中心がくるように、表示素子20に画像24を表示させる。これにより、観察者3は、検知領域51と重なる空間領域に空中像2を視認する。 FIG. 28 is a diagram illustrating the operation of the image correction unit 80E when the observer 3 views the aerial display device 1 from above in the Y direction. If it is determined that the observer 3 is viewing the aerial display device 1 from above in the Y direction, the image correction unit 80E shifts the image 24 of the display element 20 downward in the Y direction. The image correction unit 80E corrects the image position so that the image 24 is shifted by the shift amount Hi. That is, the image correction unit 80E displays the image 24 on a straight line passing through the observer 3 and the detection area 51 on the display element 20. For example, the image correction unit 80E causes the display element 20 to display the image 24 so that the center of the image 24 is on a straight line passing through the eyes of the observer 3 and the center of the detection area 51. Thereby, the observer 3 visually recognizes the aerial image 2 in a spatial region that overlaps with the detection region 51.

図29は、観察者3が空中表示装置1をY方向における下側から見た場合の画像補正部80Eの動作を説明する図である。観察者3が空中表示装置1をY方向における下側から見ている場合、画像補正部80Eは、表示素子20の画像24をY方向における上側にずらす。画像補正部80Eは、ずらし量Hiだけ画像24がずれるように、画像位置を補正する。すなわち、画像補正部80Eは、表示素子20のうち観察者3と検知領域51とを通る直線上に画像24を表示させる。例えば、画像補正部80Eは、観察者3の目と検知領域51の中心とを通る直線上に画像24の中心がくるように、表示素子20に画像24を表示させる。これにより、観察者3は、検知領域51と重なる空間領域に空中像2を視認する。 FIG. 29 is a diagram illustrating the operation of the image correction unit 80E when the observer 3 views the aerial display device 1 from below in the Y direction. When the observer 3 is viewing the aerial display device 1 from below in the Y direction, the image correction unit 80E shifts the image 24 of the display element 20 upward in the Y direction. The image correction unit 80E corrects the image position so that the image 24 is shifted by the shift amount Hi. That is, the image correction unit 80E displays the image 24 on a straight line passing through the observer 3 and the detection area 51 on the display element 20. For example, the image correction unit 80E causes the display element 20 to display the image 24 so that the center of the image 24 is on a straight line passing through the eyes of the observer 3 and the center of the detection area 51. Thereby, the observer 3 visually recognizes the aerial image 2 in a spatial region that overlaps with the detection region 51.

[3] 実施形態の効果
実施形態によれば、空中表示装置1は、表示素子20から出射された光を光学素子40で反射させることで、空中に空中像2を表示することができる。また、空中表示装置1は、その正面方向において、光学素子40の素子面に平行に空中像2を表示することができる。また、表示品質を向上させることが可能な空中表示装置1を実現できる。
[3] Effects of Embodiment According to the embodiment, the aerial display device 1 can display the aerial image 2 in the air by reflecting the light emitted from the display element 20 with the optical element 40. Further, the aerial display device 1 can display the aerial image 2 parallel to the element surface of the optical element 40 in the front direction thereof. Furthermore, it is possible to realize an aerial display device 1 that can improve display quality.

また、観察者3の両眼がX方向(すなわち、複数の光学要素42が並ぶ方向)に平行、又はそれに近い状態で光学素子40を見た場合に、観察者3は、空中像を視認することができる。また、観察者3の両眼がX方向に平行、又はそれに近い状態でY方向に沿って視点を移動した場合、空中像を常に視認することができる。また、観察者3の両眼がX方向に平行、又はそれに近い状態において、より広い視野角を実現できる。 Further, when the observer 3 views the optical element 40 with both eyes parallel to the X direction (that is, the direction in which the plurality of optical elements 42 are lined up) or in a state close to it, the observer 3 visually recognizes the aerial image. be able to. Further, when the observer 3 moves his/her viewpoint along the Y direction with both eyes parallel to the X direction or in a state close to it, the aerial image can always be visually recognized. Moreover, a wider viewing angle can be achieved when both eyes of the observer 3 are parallel to the X direction or in a state close to it.

また、観察者3が空中表示装置1を見る位置に応じて、表示素子20の画像の位置を補正するようにしている。これにより、観察者3から見て、センシング素子50が形成する検知領域51と空中像2とを重ねることができる。よって、観察者3が空中像2をタッチする操作をより正確に検知することができる。 Furthermore, the position of the image on the display element 20 is corrected depending on the position where the observer 3 views the aerial display device 1 . Thereby, as seen from the observer 3, the detection region 51 formed by the sensing element 50 and the aerial image 2 can be overlapped. Therefore, the operation of touching the aerial image 2 by the observer 3 can be detected more accurately.

また、観察者3の目の位置を算出し、観察者3の目の位置に応じて、表示素子20の画像の位置を補正することができる。これにより、観察者3が空中像2をタッチする操作をより正確に検知することができる。 Furthermore, the position of the eyes of the observer 3 can be calculated, and the position of the image on the display element 20 can be corrected according to the position of the eyes of the observer 3. Thereby, the operation of touching the aerial image 2 by the observer 3 can be detected more accurately.

また、空中表示装置1を構成する複数の素子を平行に配置することができる。これにより、Z方向に小型化が可能な空中表示装置1を実現できる。 Further, a plurality of elements constituting the aerial display device 1 can be arranged in parallel. Thereby, it is possible to realize an aerial display device 1 that can be downsized in the Z direction.

[4] 変形例
上記実施形態では、観察者3がY方向に移動した場合に、表示素子20の画像をY方向に沿ってずらす実施例について説明している。これと同じ動作原理で、観察者3がX方向に移動した場合、表示素子20の画像をX方向にずらすように制御される。表示素子20の画像をX方向にずらす動作は、実施形態で説明したY方向に画像をずらす動作のX方向とY方向とを入れ替えた動作に対応する。
[4] Modification The above embodiment describes an example in which the image on the display element 20 is shifted along the Y direction when the observer 3 moves in the Y direction. Based on the same principle of operation, when the observer 3 moves in the X direction, the image on the display element 20 is controlled to shift in the X direction. The operation of shifting the image of the display element 20 in the X direction corresponds to the operation of shifting the image in the Y direction described in the embodiment, with the X and Y directions interchanged.

また、観察者3がY方向に移動したことを検知した場合に、表示素子20の画像を、観察者3が移動した方向と反対方向に常に一定のずらし量だけずらすようにしてもよい。これにより、画像の位置を補正する制御をより簡略化できる。 Furthermore, when it is detected that the observer 3 has moved in the Y direction, the image on the display element 20 may be always shifted by a constant amount in the opposite direction to the direction in which the observer 3 has moved. This makes it possible to further simplify the control for correcting the position of the image.

上記実施形態では、表示素子20の画像の位置を補正するようにしている。変形例として、観察者3の位置に応じて、センシング素子50の検知領域51を移動させるようにしてもよい。 In the embodiment described above, the position of the image on the display element 20 is corrected. As a modification, the detection area 51 of the sensing element 50 may be moved depending on the position of the observer 3.

上記実施形態では、鋸歯状を有する光学素子40を結像素子として用いている。しかし、これに限定されず、本実施形態は、空中に空中像を結像可能な他の種類の結像素子を備えた空中表示装置に適用することも可能である。 In the embodiment described above, the optical element 40 having a sawtooth shape is used as an imaging element. However, the present embodiment is not limited thereto, and can also be applied to an aerial display device including other types of imaging elements capable of forming an aerial image in the air.

上記実施形態では、表示素子20と光学素子40とを平行に配置している。しかし、これに限定されず、光学素子40に対して表示素子20を斜めに配置してもよい。表示素子20と光学素子40との角度は、0度より大きく45度より小さい範囲に設定される。この変形例では、配向制御素子30を省略できる。 In the embodiment described above, the display element 20 and the optical element 40 are arranged in parallel. However, the present invention is not limited to this, and the display element 20 may be arranged diagonally with respect to the optical element 40. The angle between the display element 20 and the optical element 40 is set in a range greater than 0 degrees and less than 45 degrees. In this modification, the orientation control element 30 can be omitted.

上記実施形態では、光学要素42の左側の側面が入射面43、右側の側面が反射面44として定義している。しかし、これに限定されず、入射面43と反射面44とを逆に構成してもよい。この場合、実施形態で説明した空中表示装置1の作用も左右が逆になる。 In the embodiment described above, the left side surface of the optical element 42 is defined as the incident surface 43, and the right side surface is defined as the reflective surface 44. However, the present invention is not limited to this, and the incident surface 43 and the reflective surface 44 may be configured in reverse. In this case, the left and right functions of the aerial display device 1 described in the embodiment are also reversed.

上記実施形態では、表示素子20として液晶表示素子を例に挙げて説明しているが、これに限定されるものではない。表示素子20は、自発光型である有機EL(electroluminescence)表示素子、又はマイクロLED(Light Emitting Diode)表示素子などを用いることも可能である。マイクロLED表示素子は、画素を構成するR(赤)、G(緑)、B(青)をそれぞれLEDで発光させる表示素子である。自発光型の表示素子20を用いる場合、照明素子10は不要である。 Although the above embodiment has been described using a liquid crystal display element as an example of the display element 20, the display element 20 is not limited to this. The display element 20 can also be a self-luminous organic EL (electroluminescence) display element, a micro LED (light emitting diode) display element, or the like. A micro LED display element is a display element that uses LEDs to emit light for each of R (red), G (green), and B (blue) that constitute a pixel. When using the self-luminous display element 20, the lighting element 10 is not necessary.

本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the invention at the implementation stage. Moreover, each embodiment may be implemented in combination as appropriate, and in that case, the combined effect can be obtained. Furthermore, the embodiments described above include various inventions, and various inventions can be extracted by combinations selected from the plurality of constituent features disclosed. For example, if a problem can be solved and an effect can be obtained even if some constituent features are deleted from all the constituent features shown in the embodiment, the configuration from which these constituent features are deleted can be extracted as an invention.

1…空中表示装置、2…空中像、3…観察者、10…照明素子、11…光源部、12…導光板、13…反射シート、20…表示素子、21…表示領域、22…額縁、23…ケース、24…画像、30…配向制御素子、31,32…基材、33…透明部材、34…遮光部材、40…光学素子、41…基材、42…光学要素、43…入射面、44…反射面、50…センシング素子、51…検知領域、60…距離画像センサ、61…撮像素子、62…基板、63…撮像領域、64…周辺領域、65…撮像データ、66…レンズ、67…筐体、68…像、70…筐体、80…制御部、80A…表示処理部、80B…情報処理部、80C…検知位置算出部、80D…顔認識部、80E…画像補正部、81…記憶部、82…入出力インターフェース、83…表示部、84…入力部、85…バス。
DESCRIPTION OF SYMBOLS 1... Aerial display device, 2... Aerial image, 3... Observer, 10... Illumination element, 11... Light source part, 12... Light guide plate, 13... Reflection sheet, 20... Display element, 21... Display area, 22... Frame, 23... Case, 24... Image, 30... Orientation control element, 31, 32... Base material, 33... Transparent member, 34... Light shielding member, 40... Optical element, 41... Base material, 42... Optical element, 43... Incident surface , 44...Reflecting surface, 50...Sensing element, 51...Detection area, 60...Distance image sensor, 61...Imaging element, 62...Substrate, 63...Imaging area, 64...Peripheral area, 65...Imaging data, 66...Lens, 67... Housing, 68... Image, 70... Housing, 80... Control unit, 80A... Display processing unit, 80B... Information processing unit, 80C... Detection position calculation unit, 80D... Face recognition unit, 80E... Image correction unit, 81... Storage section, 82... Input/output interface, 83... Display section, 84... Input section, 85... Bus.

Claims (11)

画像を表示する表示素子と、
前記表示素子からの光を受けるように配置され、前記表示素子からの光を、前記表示素子と反対側に反射し、空中に空中像を結像する光学素子と、
前記空中像と重なる空間領域に検知領域を形成し、前記検知領域内の対象物を検知するセンシング素子と、
観察者の位置を算出し、前記観察者の位置に基づいて、前記表示素子の画像の位置を補正する補正部と、
を具備する空中表示装置。
a display element that displays an image;
an optical element that is arranged to receive light from the display element, reflects the light from the display element to a side opposite to the display element, and forms an aerial image in the air;
a sensing element that forms a detection region in a spatial region that overlaps with the aerial image and detects an object within the detection region;
a correction unit that calculates the position of an observer and corrects the position of the image on the display element based on the position of the observer;
An aerial display device comprising:
前記補正部は、前記観察者までの水平距離と垂直距離とに基づいて、前記表示素子の前記画像のずらし量を算出する
請求項1に記載の空中表示装置。
The aerial display device according to claim 1, wherein the correction unit calculates a shift amount of the image of the display element based on a horizontal distance and a vertical distance to the observer.
前記補正部は、前記表示素子のうち前記観察者と前記検知領域とを通る直線上に前記画像を表示させる
請求項1に記載の空中表示装置。
The aerial display device according to claim 1, wherein the correction unit displays the image on a straight line passing through the observer and the detection area among the display elements.
前記観察者を撮像し、前記観察者までの距離を測定する距離画像センサをさらに具備し、
前記補正部は、前記距離画像センサの出力に基づいて、前記観察者の位置を算出する
請求項1に記載の空中表示装置。
further comprising a distance image sensor that images the observer and measures the distance to the observer,
The aerial display device according to claim 1, wherein the correction unit calculates the position of the observer based on the output of the distance image sensor.
前記距離画像センサにより取得された撮像データに基づいて、前記観察者の顔を認識する認識部をさらに具備し、
前記補正部は、前記認識部の認識結果に基づいて、前記観察者の位置を算出する
請求項4に記載の空中表示装置。
further comprising a recognition unit that recognizes the observer's face based on the imaging data acquired by the distance image sensor,
The aerial display device according to claim 4, wherein the correction unit calculates the position of the observer based on the recognition result of the recognition unit.
前記センシング素子は、前記検知領域に向けて光を発光する発光部と、前記対象物で反射された反射光を受光する受光部とを含む
請求項1に記載の空中表示装置。
The aerial display device according to claim 1, wherein the sensing element includes a light emitting section that emits light toward the detection area, and a light receiving section that receives reflected light reflected by the target object.
前記光学素子は、平面状の基材と、前記基材の下に設けられ、それぞれが第1方向に延び、前記第1方向に直交する第2方向に並んだ複数の光学要素とを含み、
前記複数の光学要素の各々は、前記基材の法線方向に対してそれぞれが傾き、互いに接する入射面及び反射面を有する
請求項1に記載の空中表示装置。
The optical element includes a planar base material and a plurality of optical elements provided under the base material, each extending in a first direction and arranged in a second direction orthogonal to the first direction,
The aerial display device according to claim 1, wherein each of the plurality of optical elements has an incident surface and a reflective surface that are inclined with respect to the normal direction of the base material and that touch each other.
前記表示素子と前記光学素子との間に配置され、前記表示素子からの光のうち斜め方向の光成分を透過する配向制御素子をさらに具備する
請求項1に記載の空中表示装置。
The aerial display device according to claim 1, further comprising an orientation control element that is disposed between the display element and the optical element and transmits an oblique light component of the light from the display element.
前記配向制御素子は、交互に配置された複数の透明部材及び複数の遮光部材を含み、
前記複数の遮光部材は、前記配向制御素子の法線に対して傾いている
請求項8に記載の空中表示装置。
The alignment control element includes a plurality of transparent members and a plurality of light shielding members arranged alternately,
The aerial display device according to claim 8, wherein the plurality of light shielding members are inclined with respect to a normal line of the orientation control element.
前記表示素子及び前記光学素子は、互いに平行に配置される
請求項1に記載の空中表示装置。
The aerial display device according to claim 1, wherein the display element and the optical element are arranged parallel to each other.
光を発光する照明素子をさらに具備し、
前記表示素子は、前記照明素子からの光を受けるように配置され、液晶表示素子で構成される
請求項1に記載の空中表示装置。
Further comprising a lighting element that emits light,
The aerial display device according to claim 1, wherein the display element is arranged to receive light from the illumination element and is composed of a liquid crystal display element.
JP2022140928A 2022-09-05 2022-09-05 aerial display device Pending JP2024036167A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022140928A JP2024036167A (en) 2022-09-05 2022-09-05 aerial display device
PCT/JP2023/026247 WO2024053253A1 (en) 2022-09-05 2023-07-18 Aerial display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022140928A JP2024036167A (en) 2022-09-05 2022-09-05 aerial display device

Publications (1)

Publication Number Publication Date
JP2024036167A true JP2024036167A (en) 2024-03-15

Family

ID=90192429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022140928A Pending JP2024036167A (en) 2022-09-05 2022-09-05 aerial display device

Country Status (2)

Country Link
JP (1) JP2024036167A (en)
WO (1) WO2024053253A1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009278456A (en) * 2008-05-15 2009-11-26 Hitachi Ltd Video display device
JP2012133128A (en) * 2010-12-21 2012-07-12 Stanley Electric Co Ltd Stereoscopic display device
JP2015084002A (en) * 2012-02-09 2015-04-30 パナソニック株式会社 Mirror display system and image display method thereof
US20160195849A1 (en) * 2015-01-05 2016-07-07 Intel Corporation Facilitating interactive floating virtual representations of images at computing devices
JPWO2017125984A1 (en) * 2016-01-21 2018-06-14 パナソニックIpマネジメント株式会社 Aerial display device
JP7459563B2 (en) * 2020-03-02 2024-04-02 Toppanホールディングス株式会社 Aerial Display Device
JP2022063376A (en) * 2020-10-12 2022-04-22 凸版印刷株式会社 Aerial display device

Also Published As

Publication number Publication date
WO2024053253A1 (en) 2024-03-14

Similar Documents

Publication Publication Date Title
US9749562B2 (en) Liquid crystal display and infrared image sensor on silicon
CN110501818B (en) Stereoscopic display device
TWI582661B (en) Contactless input device and method
US9870100B2 (en) Multi-touch sensing apparatus using rear view camera of array type
CN102597860A (en) Infrared vision with liquid crystal display device
WO2021081891A1 (en) Method for fingerprint recognition, fingerprint recognition apparatus and electronic device
US11258933B2 (en) Light source module and display module
US11125928B2 (en) Display device
CN210401950U (en) Detection system, liquid crystal display device and backlight module under screen
US20240019715A1 (en) Air floating video display apparatus
WO2024053253A1 (en) Aerial display device
WO2023112617A1 (en) Aerial floating image display system
CN110955083A (en) Display device
CN210155685U (en) Biological characteristic detection system and display device and backlight module thereof
CN210155683U (en) Biological characteristic detection system and display device and backlight module thereof
WO2024018929A1 (en) Aerial display device
WO2024117075A1 (en) Aerial display device
WO2023136106A1 (en) Aerial display apparatus
WO2024101245A1 (en) Aerial display device
WO2024096072A1 (en) Aerial display device
WO2023037813A1 (en) Floating-in-space video information displaying system and stereo sensing device used therein
WO2023233981A1 (en) Aerial display device
WO2023228530A1 (en) Spatial floating image information display system
WO2023136077A1 (en) Spatial floating image display system, light source device used therefor, retroreflective member, and optical system
TW202309556A (en) Optical element for aerial display device, and aerial display device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104