JP2024101393A - Aerial display device and display device - Google Patents
Aerial display device and display device Download PDFInfo
- Publication number
- JP2024101393A JP2024101393A JP2023005355A JP2023005355A JP2024101393A JP 2024101393 A JP2024101393 A JP 2024101393A JP 2023005355 A JP2023005355 A JP 2023005355A JP 2023005355 A JP2023005355 A JP 2023005355A JP 2024101393 A JP2024101393 A JP 2024101393A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- light
- display device
- aerial
- sensing element
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 207
- 230000003287 optical effect Effects 0.000 claims abstract description 108
- 239000000758 substrate Substances 0.000 claims description 38
- 230000000903 blocking effect Effects 0.000 claims description 11
- 239000000463 material Substances 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 33
- 238000005286 illumination Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 9
- 239000000470 constituent Substances 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- NCGICGYLBXGBGN-UHFFFAOYSA-N 3-morpholin-4-yl-1-oxa-3-azonia-2-azanidacyclopent-3-en-5-imine;hydrochloride Chemical compound Cl.[N-]1OC(=N)C=[N+]1N1CCOCC1 NCGICGYLBXGBGN-UHFFFAOYSA-N 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 239000012780 transparent material Substances 0.000 description 3
- 239000004925 Acrylic resin Substances 0.000 description 2
- 229920000178 Acrylic resin Polymers 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000002301 combined effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- AMGQUBHHOARCQH-UHFFFAOYSA-N indium;oxotin Chemical compound [In].[Sn]=O AMGQUBHHOARCQH-UHFFFAOYSA-N 0.000 description 1
- 239000011810 insulating material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000049 pigment Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/50—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
- G02B30/56—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
Abstract
Description
本発明は、空中表示装置及び表示装置に関する。 The present invention relates to an aerial display device and a display device.
画像や動画などを空中像として表示可能な空中表示装置が研究され、新しいヒューマン・マシン・インターフェースとして期待されている。空中表示装置は、例えば、2面コーナーリフレクタがアレイ状に配列された2面コーナーリフレクタアレイを備え、表示素子の表示面から出射される光を反射し、空中に実像を結像する。2面コーナーリフレクタアレイによる表示方法は、収差が無く、面対称位置に実像(空中像)を表示することができる。 Aerial display devices capable of displaying images and videos as aerial images are being researched, and are expected to become a new human-machine interface. For example, an aerial display device may be equipped with a two-sided corner reflector array in which two-sided corner reflectors are arranged in an array, and it reflects light emitted from the display surface of a display element to form a real image in the air. The display method using a two-sided corner reflector array is aberration-free and can display a real image (aerial image) in a plane-symmetrical position.
特許文献1は、透明平板の表面から突出した透明な四角柱を2面コーナーリフレクタとして使用し、複数の四角柱を平面上にアレイ状に配置した光学素子を開示している。また、特許文献2は、第1及び第2光制御パネルの各々を、透明平板の内部に垂直に複数の平面光反射部を並べて形成し、第1及び第2光制御パネルを、互いの平面光反射部が直交するように配置した光学素子を開示している。特許文献1、2の光学素子は、表示素子から出射された光を直交する反射面で2回反射させ、空中像を生成している。 Patent Document 1 discloses an optical element in which a transparent rectangular prism protruding from the surface of a transparent flat plate is used as a dihedral corner reflector, and multiple rectangular prisms are arranged in an array on a flat surface. Patent Document 2 discloses an optical element in which each of the first and second light control panels is formed by arranging multiple planar light reflecting sections vertically inside a transparent flat plate, and the first and second light control panels are arranged so that the planar light reflecting sections are orthogonal to each other. The optical elements of Patent Documents 1 and 2 reflect light emitted from a display element twice at orthogonal reflecting surfaces to generate an aerial image.
観察者は、機器に接触することなく、空中表示装置が表示した空中像をタッチすることが可能である。空中表示装置が備えるセンシング素子は、空中像の領域に存在する物体を検知し、観察者が空中像をタッチしたことを認識する。センシング素子には、観察者による空中像へのタッチ操作をより正確に検知することが要求される。 The observer can touch the aerial image displayed by the aerial display device without touching the device. The sensing element of the aerial display device detects objects present in the area of the aerial image and recognizes that the observer has touched the aerial image. The sensing element is required to detect the observer's touch operation on the aerial image with high accuracy.
本発明は、観察者による空中像へのタッチ操作をより正確に検知することが可能な空中表示装置及び表示装置を提供する。 The present invention provides an aerial display device and a display device that can more accurately detect touch operations on an aerial image by an observer.
本発明の第1態様によると、画像を表示する表示素子と、前記表示素子からの光を受けるように配置され、前記表示素子からの光を、前記表示素子と反対側に反射し、空中に空中像を結像する光学素子と、前記光学素子の上方に、前記表示素子と平行な第1検知領域と、前記第1検知領域と異なるレベルの第2検知領域とを形成し、前記第1及び第2検知領域に存在する対象物を検知するセンシング素子と、前記第1検知領域における第1検知位置と、前記第2検知領域における第2検知位置とを算出し、前記第1及び第2検知位置に基づいて、前記空中像がタッチされたか否かを判定する判定部とを具備する空中表示装置が提供される。 According to a first aspect of the present invention, there is provided an aerial display device comprising: a display element for displaying an image; an optical element arranged to receive light from the display element and reflecting the light from the display element to the opposite side of the display element to form an aerial image in the air; a sensing element that forms a first detection area parallel to the display element and a second detection area at a different level from the first detection area above the optical element and detects objects present in the first and second detection areas; and a determination unit that calculates a first detection position in the first detection area and a second detection position in the second detection area and determines whether the aerial image has been touched based on the first and second detection positions.
本発明の第2態様によると、前記判定部は、前記第1及び第2検知位置に基づいて、前記対象物が移動する移動方向を判定し、前記移動方向の延長線上に前記画像が存在する場合に、前記空中像がタッチされたと判定する、第1態様に係る空中表示装置が提供される。 According to a second aspect of the present invention, there is provided an aerial display device according to the first aspect, in which the determination unit determines the direction of movement of the object based on the first and second detection positions, and determines that the aerial image has been touched when the image is on an extension line of the direction of movement.
本発明の第3態様によると、前記センシング素子は、静電容量型である、第1態様に係る空中表示装置が提供される。 According to a third aspect of the present invention, there is provided an aerial display device according to the first aspect, in which the sensing element is of a capacitive type.
本発明の第4態様によると、前記センシング素子は、複数の第1電極と、前記複数の第1電極に対向して配置された複数の第2電極と、前記複数の第1電極に駆動信号を供給する駆動回路と、前記複数の第2電極の電圧を検出する検出回路とを含み、前記判定部は、前記検出回路による検出結果と閾値とを比較し、比較結果に応じて前記対象物の位置を判定する、第3態様に係る空中表示装置が提供される。 According to a fourth aspect of the present invention, there is provided an aerial display device according to the third aspect, in which the sensing element includes a plurality of first electrodes, a plurality of second electrodes arranged opposite the plurality of first electrodes, a drive circuit that supplies drive signals to the plurality of first electrodes, and a detection circuit that detects the voltages of the plurality of second electrodes, and the determination unit compares the detection result by the detection circuit with a threshold value and determines the position of the target object according to the comparison result.
本発明の第5態様によると、前記センシング素子は、前記第1検知領域を形成する第1センシング素子と、前記第2検知領域を形成する第2センシング素子とを含み、前記第1センシング素子及び前記第2センシング素子の各々は、前記検知領域に向けて光を発光する発光部と、前記対象物で反射された反射光を受光する受光部とを含む、第1態様に係る空中表示装置が提供される。 According to a fifth aspect of the present invention, there is provided an aerial display device according to the first aspect, in which the sensing elements include a first sensing element that forms the first detection area and a second sensing element that forms the second detection area, and each of the first sensing element and the second sensing element includes a light-emitting section that emits light toward the detection area and a light-receiving section that receives the reflected light reflected by the object.
本発明の第6態様によると、前記光学素子は、平面状の基材と、前記基材の下に設けられ、それぞれが第1方向に延び、前記第1方向に直交する第2方向に並んだ複数の光学要素とを含み、前記複数の光学要素の各々は、前記基材の法線方向に対してそれぞれが傾き、互いに接する入射面及び反射面を有する、第1態様に係る空中表示装置が提供される。 According to a sixth aspect of the present invention, there is provided an aerial display device according to the first aspect, in which the optical element includes a planar substrate and a plurality of optical elements disposed below the substrate, each extending in a first direction and aligned in a second direction perpendicular to the first direction, each of the plurality of optical elements being inclined with respect to the normal direction of the substrate and having an entrance surface and a reflection surface that are in contact with each other.
本発明の第7態様によると、前記表示素子と前記光学素子との間に配置され、前記表示素子からの光のうち斜め方向の光成分を透過する光制御素子をさらに具備する、第1態様に係る空中表示装置が提供される。 According to a seventh aspect of the present invention, there is provided an aerial display device according to the first aspect, further comprising a light control element disposed between the display element and the optical element, which transmits oblique light components of the light from the display element.
本発明の第8態様によると、前記光制御素子は、交互に配置された複数の透明部材及び複数の遮光部材を含み、前記複数の遮光部材は、前記光制御素子の法線に対して傾いている、第7態様に係る空中表示装置が提供される。 According to an eighth aspect of the present invention, there is provided an aerial display device according to the seventh aspect, in which the light control element includes a plurality of transparent members and a plurality of light blocking members arranged alternately, and the plurality of light blocking members are inclined with respect to the normal to the light control element.
本発明の第9態様によると、前記表示素子及び前記光学素子は、互いに平行に配置される、第1態様に係る空中表示装置が提供される。 According to a ninth aspect of the present invention, there is provided an aerial display device according to the first aspect, in which the display element and the optical element are arranged parallel to each other.
本発明の第10態様によると、画像を表示する表示素子と、前記表示素子の上方に、前記表示素子と平行な第1検知領域と、前記第1検知領域と異なるレベルの第2検知領域とを形成し、前記第1及び第2検知領域に存在する対象物を検知するセンシング素子と、前記第1検知領域における第1検知位置と、前記第2検知領域における第2検知位置とを算出し、前記第1及び第2検知位置に基づいて、前記画像がタッチされたか否かを判定する判定部とを具備する表示装置が提供される。 According to a tenth aspect of the present invention, there is provided a display device comprising: a display element for displaying an image; a sensing element that forms a first detection area parallel to the display element above the display element and a second detection area at a different level from the first detection area, and detects an object present in the first and second detection areas; and a determination unit that calculates a first detection position in the first detection area and a second detection position in the second detection area, and determines whether the image has been touched based on the first and second detection positions.
本発明の第11態様によると、前記判定部は、前記第1及び第2検知位置に基づいて、前記対象物が移動する移動方向を判定し、前記移動方向の延長線上に前記画像が存在する場合に、前記画像がタッチされたと判定する、第10態様に係る表示装置が提供される。 According to an eleventh aspect of the present invention, there is provided a display device according to the tenth aspect, in which the determination unit determines the direction of movement of the object based on the first and second detection positions, and determines that the image has been touched when the image is present on an extension line of the direction of movement.
本発明の第12態様によると、前記センシング素子は、静電容量型である、第10態様に係る表示装置が提供される。 According to a twelfth aspect of the present invention, there is provided a display device according to the tenth aspect, in which the sensing element is a capacitive type.
本発明の第13態様によると、前記センシング素子は、複数の第1電極と、前記複数の第1電極に対向して配置された複数の第2電極と、前記複数の第1電極に駆動信号を供給する駆動回路と、前記複数の第2電極の電圧を検出する検出回路とを含み、前記判定部は、前記検出回路による検出結果と閾値とを比較し、比較結果に応じて前記対象物の位置を判定する、第12態様に係る表示装置が提供される。 According to a thirteenth aspect of the present invention, there is provided a display device according to the twelfth aspect, in which the sensing element includes a plurality of first electrodes, a plurality of second electrodes arranged opposite the plurality of first electrodes, a drive circuit that supplies drive signals to the plurality of first electrodes, and a detection circuit that detects the voltages of the plurality of second electrodes, and the determination unit compares the detection result by the detection circuit with a threshold value and determines the position of the object according to the comparison result.
本発明の第14態様によると、前記センシング素子は、前記第1検知領域を形成する第1センシング素子と、前記第2検知領域を形成する第2センシング素子とを含み、前記第1センシング素子及び前記第2センシング素子の各々は、前記検知領域に向けて光を発光する発光部と、前記対象物で反射された反射光を受光する受光部とを含む、第10態様に係る表示装置が提供される。 According to a 14th aspect of the present invention, there is provided a display device according to the 10th aspect, in which the sensing element includes a first sensing element that forms the first detection area and a second sensing element that forms the second detection area, and each of the first sensing element and the second sensing element includes a light-emitting section that emits light toward the detection area and a light-receiving section that receives the reflected light reflected by the object.
本発明によれば、観察者による空中像へのタッチ操作をより正確に検知することが可能な空中表示装置及び表示装置を提供することができる。 The present invention provides an aerial display device and a display device that can more accurately detect touch operations on an aerial image by an observer.
以下、実施形態について図面を参照して説明する。ただし、図面は模式的または概念的なものであり、各図面の寸法および比率等は必ずしも現実のものと同一とは限らない。また、図面の相互間で同じ部分を表す場合においても、互いの寸法の関係や比率が異なって表される場合もある。特に、以下に示す幾つかの実施形態は、本発明の技術思想を具体化するための装置および方法を例示したものであって、構成部品の形状、構造、配置等によって、本発明の技術思想が特定されるものではない。なお、以下の説明において、同一の機能及び構成を有する要素については同一符号を付し、重複する説明は省略する。 The following describes the embodiments with reference to the drawings. However, the drawings are schematic or conceptual, and the dimensions and ratios of each drawing are not necessarily the same as those in reality. Even when the same parts are shown in different drawings, the dimensional relationships and ratios of each may be different. In particular, the following embodiments are examples of devices and methods for embodying the technical idea of the present invention, and the shape, structure, arrangement, etc. of the components do not specify the technical idea of the present invention. In the following description, elements having the same function and configuration are given the same reference numerals, and duplicate descriptions are omitted.
[1] 第1実施形態
[1-1] 空中表示装置1の構成
図1は、本発明の第1実施形態に係る空中表示装置1の斜視図である。図1において、X方向は、空中表示装置1のある1辺に沿った方向であり、Y方向は、水平面内においてX方向に直交する方向であり、Z方向は、XY面に直交する方向(法線方向ともいう)である。図2は、図1に示した空中表示装置1のXZ面における側面図である。
[1] First embodiment [1-1] Configuration of the aerial display device 1 Fig. 1 is a perspective view of the aerial display device 1 according to the first embodiment of the present invention. In Fig. 1, the X direction is a direction along one side of the aerial display device 1, the Y direction is a direction perpendicular to the X direction in a horizontal plane, and the Z direction is a direction perpendicular to the XY plane (also called the normal direction). Fig. 2 is a side view of the aerial display device 1 shown in Fig. 1 in the XZ plane.
空中表示装置1は、画像(動画を含む)を表示する装置である。空中表示装置1は、自身の光出射面の上方の空中に、空中像を表示する。空中表示装置1の光出射面とは、空中表示装置1を構成しかつ光路上に配置された複数の部材のうち最上層に配置された部材の上面を意味する。空中像とは、空中に結像する実像である。 The aerial display device 1 is a device that displays images (including videos). The aerial display device 1 displays an aerial image in the air above its own light emission surface. The light emission surface of the aerial display device 1 refers to the upper surface of the component that is arranged in the uppermost layer among the multiple components that make up the aerial display device 1 and are arranged on the optical path. An aerial image is a real image that is formed in the air.
空中表示装置1は、照明素子(バックライトともいう)10、表示素子20、光制御素子30、光学素子40、及びセンシング素子50を備える。照明素子10、表示素子20、光制御素子30、光学素子40、及びセンシング素子50は、この順にZ方向に沿って配置され、互いに平行に配置される。照明素子10、表示素子20、光制御素子30、光学素子40、及びセンシング素子50は、互いに特定の間隔を空けるようにして、図示せぬ固定部材で特定の位置に固定される。照明素子10、表示素子20、光制御素子30、光学素子40、及びセンシング素子50は、図示せぬ筐体に収容される。 The aerial display device 1 includes an illumination element (also called a backlight) 10, a display element 20, a light control element 30, an optical element 40, and a sensing element 50. The illumination element 10, the display element 20, the light control element 30, the optical element 40, and the sensing element 50 are arranged in this order along the Z direction and parallel to one another. The illumination element 10, the display element 20, the light control element 30, the optical element 40, and the sensing element 50 are fixed at specific positions by a fixing member (not shown) with a specific distance between them. The illumination element 10, the display element 20, the light control element 30, the optical element 40, and the sensing element 50 are housed in a housing (not shown).
照明素子10は、照明光を発光し、この照明光を表示素子20に向けて出射する。照明素子10は、光源部11、導光板12、及び反射シート13を備える。照明素子10は、例えばサイドライト型の照明素子である。照明素子10は、面光源を構成する。照明素子10は、後述する角度θ1の斜め方向に光強度がピークになるように構成してもよい。 The lighting element 10 emits illumination light and outputs the illumination light toward the display element 20. The lighting element 10 includes a light source unit 11, a light guide plate 12, and a reflective sheet 13. The lighting element 10 is, for example, a side light type lighting element. The lighting element 10 constitutes a surface light source. The lighting element 10 may be configured so that the light intensity reaches a peak in an oblique direction at an angle θ1 , which will be described later.
光源部11は、導光板12の側面に向き合うように配置される。光源部11は、導光板12の側面に向けて光を発光する。光源部11は、例えば白色LED(Light Emitting Diode)からなる複数の発光素子を含む。導光板12は、光源部11からの照明光を導光し、照明光を自身の上面から出射する。反射シート13は、導光板12の底面から出射した照明光を、再び導光板12に向けて反射する。照明素子10は、導光板12の上面に、光学特性を向上させる部材(プリズムシート、及び拡散シートを含む)を備えていてもよい。 The light source unit 11 is disposed to face the side of the light guide plate 12. The light source unit 11 emits light toward the side of the light guide plate 12. The light source unit 11 includes a plurality of light-emitting elements, for example, white LEDs (Light Emitting Diodes). The light guide plate 12 guides the illumination light from the light source unit 11 and emits the illumination light from its upper surface. The reflection sheet 13 reflects the illumination light emitted from the bottom surface of the light guide plate 12 back toward the light guide plate 12. The lighting element 10 may be provided with a member (including a prism sheet and a diffusion sheet) that improves optical characteristics on the upper surface of the light guide plate 12.
表示素子20は、透過型の表示素子である。表示素子20は、例えば液晶表示素子で構成される。表示素子20の駆動モードについては特に限定されず、TN(Twisted Nematic)モード、VA(Vertical Alignment)モード、又はホモジニアスモードなどを用いることができる。表示素子20は、照明素子10から出射された照明光を受ける。表示素子20は、照明素子10からの照明光を透過して光変調を行う。そして、表示素子20は、自身の画面に特定の画像を表示する。 The display element 20 is a transmissive display element. The display element 20 is composed of, for example, a liquid crystal display element. The driving mode of the display element 20 is not particularly limited, and the TN (Twisted Nematic) mode, VA (Vertical Alignment) mode, homogeneous mode, or the like can be used. The display element 20 receives illumination light emitted from the illumination element 10. The display element 20 transmits the illumination light from the illumination element 10 and performs optical modulation. Then, the display element 20 displays a specific image on its own screen.
光制御素子30は、不要光を低減する機能を有する。不要光とは、空中像を生成するのに寄与しない光成分であり、法線方向に光学素子40を透過する光成分を含む。光制御素子30は、法線方向に対して角度θ1の斜め方向を中心として所定の角度範囲の光成分を透過するとともに、上記角度範囲以外の光成分を遮光するように構成される。光制御素子30の面積は、表示素子20の面積以上に設定される。光制御素子30の詳細な構成については後述する。 The light control element 30 has a function of reducing unnecessary light. The unnecessary light is a light component that does not contribute to generating an aerial image, and includes a light component that transmits through the optical element 40 in the normal direction. The light control element 30 is configured to transmit light components in a predetermined angular range centered on an oblique direction at an angle θ 1 with respect to the normal direction, and to block light components outside the above-mentioned angular range. The area of the light control element 30 is set to be equal to or larger than the area of the display element 20. A detailed configuration of the light control element 30 will be described later.
光学素子40は、底面側から入射した光を上面側に反射する。また、光学素子40は、底面側から斜めに入射した入射光を、例えば正面方向(法線方向)に反射する。光学素子40の面積は、表示素子20の面積以上に設定される。光学素子40の詳細な構成については後述する。光学素子40は、空中に空中像2を結像する。空中像2は、光学素子40の素子面に平行であり、2次元の画像である。素子面とは、光学素子40が面内方向に広がる仮想的な平面を言う。素子面は、面内と同じ意味である。その他の素子の素子面についても同様の意味である。光学素子40の正面にいる観察者3は、空中像2を視認することができる。 The optical element 40 reflects light incident from the bottom side to the top side. The optical element 40 also reflects light incident obliquely from the bottom side, for example, in the front direction (normal direction). The area of the optical element 40 is set to be equal to or larger than the area of the display element 20. The detailed configuration of the optical element 40 will be described later. The optical element 40 forms an aerial image 2 in the air. The aerial image 2 is parallel to the element surface of the optical element 40 and is a two-dimensional image. The element surface refers to a virtual plane on which the optical element 40 extends in the in-plane direction. The element surface has the same meaning as in-plane. The element surfaces of the other elements have the same meaning. An observer 3 in front of the optical element 40 can view the aerial image 2.
センシング素子50は、非接触で対象物を検知可能なように構成される。センシング素子50は、空中表示装置1が生成した空中像2の一部又は全部を含む2次元の空間領域に、検知領域を形成する。センシング素子50は、検知領域に存在する対象物(物体)を検知するとともに、対象物の位置を検知する。本実施形態では、静電容量型のセンシング素子を例に挙げて説明する。図1では、センシング素子50が光学素子50から離れて図示されているが、例えば、センシング素子50は、光学素子50の上面に近接して配置される。センシング素子50の面積は、表示素子20の面積以上に設定される。センシング素子50の詳細な構成については後述する。 The sensing element 50 is configured to be able to detect an object without contact. The sensing element 50 forms a detection area in a two-dimensional spatial region that includes part or all of the aerial image 2 generated by the aerial display device 1. The sensing element 50 detects an object (body) present in the detection area and detects the position of the object. In this embodiment, a capacitive sensing element is used as an example. Although the sensing element 50 is illustrated as being separated from the optical element 50 in FIG. 1, for example, the sensing element 50 is disposed close to the upper surface of the optical element 50. The area of the sensing element 50 is set to be equal to or larger than the area of the display element 20. The detailed configuration of the sensing element 50 will be described later.
[1-1-1] 光制御素子30の構成
図3Aは、図1に示した光制御素子30の平面図である。図3Bは、図3AのA-A´線に沿った光制御素子30の断面図である。
[1-1-1] Configuration of the Light Control Element 30 Fig. 3A is a plan view of the light control element 30 shown in Fig. 1. Fig. 3B is a cross-sectional view of the light control element 30 taken along the line AA' in Fig. 3A.
基材31は、XY面において平面状に構成され、直方体を有する。基材31は、光を透過する。 The substrate 31 is configured to be planar in the XY plane and has a rectangular parallelepiped shape. The substrate 31 transmits light.
基材31上には、それぞれがY方向に延び、X方向に並んだ複数の透明部材33が設けられる。また、基材31上には、それぞれがY方向に延び、X方向に並んだ複数の遮光部材34が設けられる。複数の透明部材33と複数の遮光部材34とは、隣接するもの同士が接するようにして交互に配置される。 On the base material 31, a plurality of transparent members 33 are provided, each extending in the Y direction and aligned in the X direction. Also, on the base material 31, a plurality of light-shielding members 34 are provided, each extending in the Y direction and aligned in the X direction. The plurality of transparent members 33 and the plurality of light-shielding members 34 are alternately arranged such that adjacent ones are in contact with each other.
複数の透明部材33及び複数の遮光部材34上には、基材32が設けられる。基材32は、XY面において平面状に構成され、直方体を有する。基材32は、光を透過する。 A substrate 32 is provided on the plurality of transparent members 33 and the plurality of light-shielding members 34. The substrate 32 is configured to be planar in the XY plane and has a rectangular parallelepiped shape. The substrate 32 transmits light.
透明部材33は、XZ面において、基材31の法線方向に対して角度θ1の斜め方向に延びる。透明部材33は、XZ面において、側面が角度θ1だけ傾いた平行四辺形である。透明部材33は、光を透過する。 The transparent member 33 extends in an oblique direction at an angle θ 1 with respect to the normal direction of the base material 31 in the XZ plane. The transparent member 33 is a parallelogram with a side surface inclined by the angle θ 1 in the XZ plane. The transparent member 33 transmits light.
遮光部材34は、XZ面において、基材31の法線方向に対して角度θ1の斜め方向に延びる。遮光部材34は、XZ面において、側面が角度θ1だけ傾いた平行四辺形である。遮光部材34は、光を遮光する。遮光部材34の厚みは、透明部材33の厚みより薄く設定される。 The light blocking member 34 extends in an oblique direction at an angle θ 1 with respect to the normal direction of the base material 31 in the XZ plane. The light blocking member 34 is a parallelogram with side surfaces inclined by an angle θ 1 in the XZ plane. The light blocking member 34 blocks light. The thickness of the light blocking member 34 is set to be thinner than the thickness of the transparent member 33.
隣接する2個の遮光部材34は、Z方向において互いの端部が若干重なるように配置される。 Two adjacent light blocking members 34 are positioned so that their ends slightly overlap in the Z direction.
基材31、32、及び透明部材33としては、ガラス、又は透明な樹脂(アクリル樹脂を含む)が用いられる。遮光部材34としては、例えば、黒色の染料又は顔料が混入された樹脂が用いられる。 Glass or transparent resin (including acrylic resin) is used for the base materials 31 and 32 and the transparent member 33. For example, resin mixed with black dye or pigment is used for the light blocking member 34.
なお、基材31、32の一方又は両方を省略して、光制御素子30を構成してもよい。複数の透明部材33と複数の遮光部材34とが交互に配置されていれば、光制御素子30の機能を実現できる。 The light control element 30 may be constructed by omitting one or both of the base materials 31 and 32. The function of the light control element 30 can be realized if multiple transparent members 33 and multiple light blocking members 34 are arranged alternately.
このように構成された光制御素子30は、法線方向に対して角度θ1の斜め方向の光強度がピークになるように、表示光を透過することができる。例えば、光制御素子30は、法線方向に対して30°±30°の範囲以外の光成分を遮光するように構成される。望ましくは、光制御素子30は、法線方向に対して30°±20°の範囲以外の光成分を遮光するように構成される。 The light control element 30 configured in this manner can transmit the display light so that the light intensity in the oblique direction at an angle θ 1 with respect to the normal direction becomes a peak. For example, the light control element 30 is configured to block light components other than the range of 30°±30° with respect to the normal direction. Desirably, the light control element 30 is configured to block light components other than the range of 30°±20° with respect to the normal direction.
なお、変形例として、光制御素子30は、照明素子10と表示素子20との間に配置してもよい。また、光制御素子30を省略して、空中表示装置1を構成してもよい。 As a modified example, the light control element 30 may be disposed between the lighting element 10 and the display element 20. Also, the light control element 30 may be omitted when constructing the aerial display device 1.
[1-1-2] 光学素子40の構成
図4は、図1に示した光学素子40の斜視図である。図4には、光学素子40の一部を拡大した拡大図も図示している。図4の拡大図は、XZ面における側面図である。
[1-1-2] Configuration of the Optical Element 40 Fig. 4 is a perspective view of the optical element 40 shown in Fig. 1. Fig. 4 also shows an enlarged view of a portion of the optical element 40. The enlarged view in Fig. 4 is a side view in the XZ plane.
光学素子40は、基材41、及び複数の光学要素42を備える。基材41は、XY面において平面状に構成され、直方体を有する。 The optical element 40 includes a substrate 41 and a plurality of optical elements 42. The substrate 41 is configured to be planar in the XY plane and has a rectangular parallelepiped shape.
基材41の底面には、複数の光学要素42が設けられる。複数の光学要素42の各々は、三角柱で構成される。光学要素42は、三角柱の3個の側面がXY面と平行になるように配置され、1つの側面が基材41に接する。複数の光学要素42は、それぞれがY方向に延び、X方向に並んで配置される。換言すると、複数の光学要素42は、XZ面において鋸歯状を有する。 A plurality of optical elements 42 are provided on the bottom surface of the substrate 41. Each of the plurality of optical elements 42 is formed as a triangular prism. The optical element 42 is arranged so that three side surfaces of the triangular prism are parallel to the XY plane, and one side surface is in contact with the substrate 41. The plurality of optical elements 42 each extend in the Y direction and are arranged side by side in the X direction. In other words, the plurality of optical elements 42 have a sawtooth shape in the XZ plane.
複数の光学要素42の各々は、入射面43及び反射面44を有する。Y方向から見て、左側の側面が入射面43であり、右側の側面が反射面44である。入射面43は、表示素子20からの光が入射する面である。反射面44は、入射面43に外部から入射した光を、光学要素42の内部で反射する面である。入射面43と反射面44とは、角度θpを有する。 Each of the multiple optical elements 42 has an incident surface 43 and a reflective surface 44. When viewed from the Y direction, the left side surface is the incident surface 43, and the right side surface is the reflective surface 44. The incident surface 43 is a surface onto which light from the display element 20 is incident. The reflective surface 44 is a surface that reflects light that has been incident on the incident surface 43 from the outside, within the optical element 42. The incident surface 43 and the reflective surface 44 form an angle θ p .
基材41及び光学要素42は、透明材料で構成される。光学要素42は、例えば、基材41と同じ透明材料によって基材41と一体的に形成される。基材41と光学要素42とを個別に形成し、透明な接着材を用いて基材41に光学要素42を接着してもよい。基材41及び光学要素42を構成する透明材料としては、ガラス、又は透明な樹脂(アクリル樹脂を含む)が用いられる。 The substrate 41 and the optical element 42 are made of a transparent material. The optical element 42 is, for example, formed integrally with the substrate 41 using the same transparent material as the substrate 41. The substrate 41 and the optical element 42 may be formed separately, and the optical element 42 may be adhered to the substrate 41 using a transparent adhesive. The transparent material constituting the substrate 41 and the optical element 42 may be glass or a transparent resin (including an acrylic resin).
このように構成された光学素子40は、入射光を内部で反射して、空中に実像を結像する。また、光学素子40は、素子面の正面の位置に、空中像2を結像する。 The optical element 40 configured in this way internally reflects incident light and forms a real image in the air. The optical element 40 also forms an aerial image 2 at a position in front of the element surface.
[1-1-3] センシング素子50の構成
図5Aは、図1に示したセンシング素子50の斜視図である。図5Bは、図5Aに示したセンシング素子50の平面図である。図5Bには、センシング素子50が備える回路構成も示している。図5Cは、図5Bに示したB-B´線に沿ったセンシング素子50の断面図である。
[1-1-3] Configuration of sensing element 50 Fig. 5A is a perspective view of the sensing element 50 shown in Fig. 1. Fig. 5B is a plan view of the sensing element 50 shown in Fig. 5A. Fig. 5B also shows a circuit configuration of the sensing element 50. Fig. 5C is a cross-sectional view of the sensing element 50 taken along line BB' shown in Fig. 5B.
センシング素子50は、2個の基板51、52、複数の電極53、複数の電極54、及び絶縁層55を備える。基板51、52は、透明かつ絶縁性を有する基板で構成され、ガラス基板又はプラスチック基板で構成される。 The sensing element 50 includes two substrates 51 and 52, a plurality of electrodes 53 and 54, and an insulating layer 55. The substrates 51 and 52 are made of transparent and insulating substrates, and are made of glass substrates or plastic substrates.
基板51上には、複数の電極53が設けられる。複数の電極53の各々の平面形状は、例えば正方形を有する。電極53は、1本の対角線がX方向と平行になるように配置される。複数の電極53は、マトリクス状に配置される。Y方向に並んだ1列分の電極53は、Y方向に延びる複数の接続電極を介して電気的に接続される。Y方向に並んだ1列分の電極53は、Y方向に延びる引き出し電極を介して信号線TLに接続される。電極53は、送信電極として機能する。 A plurality of electrodes 53 are provided on the substrate 51. The planar shape of each of the plurality of electrodes 53 is, for example, a square. The electrodes 53 are arranged so that one diagonal line is parallel to the X direction. The plurality of electrodes 53 are arranged in a matrix. One row of the electrodes 53 aligned in the Y direction is electrically connected via a plurality of connection electrodes extending in the Y direction. One row of the electrodes 53 aligned in the Y direction is connected to a signal line TL via an extraction electrode extending in the Y direction. The electrodes 53 function as transmission electrodes.
基板52上には、複数の電極54が設けられる。複数の電極54の各々の平面形状は、例えば正方形を有する。電極54は、1本の対角線がX方向と平行になるように配置される。複数の電極54は、マトリクス状に配置される。X方向に並んだ1行分の電極54は、X方向に延びる複数の接続電極を介して電気的に接続される。X方向に並んだ1行分の電極54は、X方向に延びる引き出し電極を介して信号線RLに接続される。電極54は、受信電極として機能する。 A plurality of electrodes 54 are provided on the substrate 52. Each of the plurality of electrodes 54 has a planar shape, for example, a square. The electrodes 54 are arranged so that one diagonal line is parallel to the X direction. The plurality of electrodes 54 are arranged in a matrix. One row of the electrodes 54 aligned in the X direction are electrically connected via a plurality of connection electrodes extending in the X direction. One row of the electrodes 54 aligned in the X direction are connected to a signal line RL via an extraction electrode extending in the X direction. The electrodes 54 function as receiving electrodes.
複数の電極53と複数の電極54とは、平面視において重ならないように配置される。基板51と基板52とは、複数の電極53と複数の電極54とが向き合うように配置される。電極53及び電極54は、透明電極で構成され、例えばITO(インジウム錫酸化物)で構成される。 The multiple electrodes 53 and the multiple electrodes 54 are arranged so as not to overlap in a plan view. The substrates 51 and 52 are arranged so that the multiple electrodes 53 and the multiple electrodes 54 face each other. The electrodes 53 and 54 are made of transparent electrodes, for example, made of ITO (indium tin oxide).
複数の電極53と複数の電極54との間には、絶縁層55が設けられる。絶縁層55は、透明な絶縁材料で構成される。絶縁層55は、複数の層で構成してもよい。 An insulating layer 55 is provided between the multiple electrodes 53 and the multiple electrodes 54. The insulating layer 55 is made of a transparent insulating material. The insulating layer 55 may be made of multiple layers.
センシング素子50は、駆動回路56、及び検出回路57をさらに備える。駆動回路56は、複数の信号線TLに接続される。駆動回路56は、複数の信号線TLの各々に、パルス波形からなる駆動信号を供給する。また、駆動回路56は、複数の信号線TLに順次パルスが印加されるように、駆動信号を生成する。 The sensing element 50 further includes a drive circuit 56 and a detection circuit 57. The drive circuit 56 is connected to the multiple signal lines TL. The drive circuit 56 supplies a drive signal having a pulse waveform to each of the multiple signal lines TL. The drive circuit 56 also generates the drive signal so that pulses are sequentially applied to the multiple signal lines TL.
検出回路57は、複数の信号線RLに接続される。検出回路57は、複数の信号線RLの電圧値を検出する。 The detection circuit 57 is connected to multiple signal lines RL. The detection circuit 57 detects the voltage values of the multiple signal lines RL.
[1-1-4] 空中表示装置1のブロック構成
図6は、空中表示装置1のブロック図である。空中表示装置1は、制御部60、記憶部61、入出力インターフェース(入出力IF)62、表示部63、センシング素子50、及び入力部64を備える。制御部60、記憶部61、及び入出力インターフェース62は、バス65を介して互いに接続される。
[1-1-4] Block configuration of the aerial display device 1 Figure 6 is a block diagram of the aerial display device 1. The aerial display device 1 includes a control unit 60, a storage unit 61, an input/output interface (input/output IF) 62, a display unit 63, a sensing element 50, and an input unit 64. The control unit 60, the storage unit 61, and the input/output interface 62 are connected to each other via a bus 65.
入出力インターフェース62は、表示部63、センシング素子50、及び入力部64に接続される。入出力インターフェース62は、表示部63、センシング素子50、及び入力部64のそれぞれに対して、所定の規格に応じたインターフェース処理を行う。 The input/output interface 62 is connected to the display unit 63, the sensing element 50, and the input unit 64. The input/output interface 62 performs interface processing for each of the display unit 63, the sensing element 50, and the input unit 64 in accordance with a predetermined standard.
表示部63は、照明素子10、及び表示素子20を備える。表示部63は、画像を表示する。 The display unit 63 includes an illumination element 10 and a display element 20. The display unit 63 displays an image.
センシング素子50は、上方に複数の検知領域を形成する。センシング素子50は、電極53と電極54との間の静電容量の変化に基づいて、複数の検知領域に存在する対象物を検知する。 The sensing element 50 forms multiple detection regions above. The sensing element 50 detects objects present in the multiple detection regions based on changes in the capacitance between the electrodes 53 and 54.
制御部60は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の1つ以上のプロセッサにより構成される。制御部60は、記憶部61に格納されたプログラムを実行することで各種機能を実現する。制御部60は、表示処理部60A、画像処理部60B、及び検知位置判定部60Cを備える。 The control unit 60 is composed of one or more processors, such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). The control unit 60 realizes various functions by executing programs stored in the memory unit 61. The control unit 60 includes a display processing unit 60A, an image processing unit 60B, and a detection position determination unit 60C.
表示処理部60Aは、表示部63(具体的には、照明素子10、及び表示素子20)の動作を制御する。表示処理部60Aは、照明素子10のオン及びオフを制御する。表示処理部60Aは、表示素子20に画像信号を送信し、表示素子20に画像を表示させる。 The display processing unit 60A controls the operation of the display unit 63 (specifically, the lighting element 10 and the display element 20). The display processing unit 60A controls the on and off of the lighting element 10. The display processing unit 60A transmits an image signal to the display element 20, causing the display element 20 to display an image.
画像処理部60Bは、空中表示装置1が表示する画像を生成する。画像処理部60Bは、記憶部61に格納された画像データを用いることが可能である。画像処理部60Bは、図示せぬ通信機能を用いて外部から画像データを取得してもよい。 The image processing unit 60B generates an image to be displayed by the aerial display device 1. The image processing unit 60B can use image data stored in the memory unit 61. The image processing unit 60B may also acquire image data from outside using a communication function (not shown).
検知位置判定部60Cは、センシング素子50の動作を制御する。検知位置判定部60Cは、センシング素子50の検知結果に基づいて、複数の検知領域ごとに、対象物が検知された検知位置を算出する。検知位置判定部60Cは、複数の検知位置に基づいて、対象物が移動する方向(ベクトル)を判定する。検知位置判定部60Cは、対象物が移動する方向の延長線と、表示素子20の表示面との交点の位置を算出する。検知位置判定部60Cは、算出した表示面上の位置が、表示素子20の画像の領域に含まれるか否かを判定する。 The detection position determination unit 60C controls the operation of the sensing element 50. Based on the detection results of the sensing element 50, the detection position determination unit 60C calculates the detection position where the object is detected for each of the multiple detection areas. Based on the multiple detection positions, the detection position determination unit 60C determines the direction (vector) in which the object moves. The detection position determination unit 60C calculates the position of the intersection between the extension line of the direction in which the object moves and the display surface of the display element 20. The detection position determination unit 60C determines whether the calculated position on the display surface is included in the area of the image of the display element 20.
記憶部61は、ROM(Read Only Memory)、HDD(Hard Disk Drive)、及びSSD(Solid State Drive)等の不揮発性記憶装置と、RAM(Random Access Memory)、及びレジスタ等の揮発性記憶装置とを含む。記憶部61は、制御部60が実行するプログラムを格納する。記憶部61は、制御部60の制御に必要な各種データを格納する。記憶部61は、空中表示装置1が表示する画像のデータを格納する。 The storage unit 61 includes non-volatile storage devices such as a ROM (Read Only Memory), a HDD (Hard Disk Drive), and a SSD (Solid State Drive), and volatile storage devices such as a RAM (Random Access Memory) and a register. The storage unit 61 stores the programs executed by the control unit 60. The storage unit 61 stores various data necessary for the control of the control unit 60. The storage unit 61 stores data for images to be displayed by the aerial display device 1.
入力部64は、例えばタッチパネルやボタンなどを含み、ユーザが入力した情報を受け付ける。画像処理部60Bは、入力部64が受け付けた情報に基づいて、表示部63に表示する画像を選択することが可能である。 The input unit 64 includes, for example, a touch panel or buttons, and receives information input by the user. The image processing unit 60B can select an image to be displayed on the display unit 63 based on the information received by the input unit 64.
[1-2] 動作
次に、上記のように構成された空中表示装置1の動作について説明する。
[1-2] Operation Next, the operation of the aerial display device 1 configured as described above will be described.
[1-2-1] 空中表示装置1の基本動作
まず、空中表示装置1の基本動作について説明する。
[1-2-1] Basic operation of the aerial display device 1 First, the basic operation of the aerial display device 1 will be described.
図2の矢印は、光路を示している。図2に示すように、表示素子20の任意の点“o”から出射された光は、光制御素子30に入射する。表示素子20から出射された光のうち角度θ1の光成分(角度θ1を中心とした所定の角度範囲の光成分を含む)は、光制御素子30を透過する。光制御素子30を透過した光は、光学素子40に入射する。光学素子40は、入射光を、光制御素子30と反対側に反射し、空中に空中像2を結像する。 The arrows in Fig. 2 indicate optical paths. As shown in Fig. 2, light emitted from an arbitrary point "o" of the display element 20 is incident on the light control element 30. Of the light emitted from the display element 20, a light component at an angle θ1 (including a light component within a predetermined angle range centered on the angle θ1 ) is transmitted through the light control element 30. The light transmitted through the light control element 30 is incident on the optical element 40. The optical element 40 reflects the incident light to the opposite side to the light control element 30, and forms an aerial image 2 in the air.
図7は、光学素子40における光の反射の様子を説明する斜視図である。図8は、光学素子40における光の反射の様子を説明するXZ面の側面図である。図8は、観察者3の両目(すなわち、両目を結ぶ線)がX方向に平行な状態で光学素子40を見た図である。図9は、光学素子40における光の反射の様子を説明するYZ面の側面図である。図9は、観察者3の両目がY方向に平行な状態で光学素子40を見た図である。 Figure 7 is a perspective view illustrating how light is reflected in the optical element 40. Figure 8 is a side view of the XZ plane illustrating how light is reflected in the optical element 40. Figure 8 is a view of the optical element 40 when both eyes of the observer 3 (i.e., the line connecting both eyes) are parallel to the X direction. Figure 9 is a side view of the YZ plane illustrating how light is reflected in the optical element 40. Figure 9 is a view of the optical element 40 when both eyes of the observer 3 are parallel to the Y direction.
表示素子20の任意の点“o”から出射された光は、光学素子40の入射面43に入射し、反射面44に到達する。反射面44の法線方向に対して臨界角よりも大きい角度で反射面44に到達した光は、反射面44で全反射され、光学素子40の光学要素42が形成されている側と反対側の平面から出射される。臨界角とは、その入射角を超えると全反射する最少の入射角である。臨界角は、入射面の垂線に対する角度である。 Light emitted from an arbitrary point "o" of the display element 20 enters the incident surface 43 of the optical element 40 and reaches the reflecting surface 44. Light that reaches the reflecting surface 44 at an angle greater than the critical angle with respect to the normal direction of the reflecting surface 44 is totally reflected by the reflecting surface 44 and is emitted from the flat surface opposite the side on which the optical element 40's optical elements 42 are formed. The critical angle is the smallest incident angle above which total reflection occurs. The critical angle is the angle with respect to the normal to the incident surface.
図8のXZ面では、点“o”から出射された光は、光学要素42の反射面44で全反射され、その光は空中で結像されて空中像を生成する。 In the XZ plane of FIG. 8, the light emitted from point "o" is totally reflected by the reflecting surface 44 of the optical element 42, and the light is focused in the air to generate an aerial image.
図9のYZ面では、点“o”から出射された光は、光学要素42の反射面44で反射されず、その光は空中で結像することがないため空中像の生成に寄与しない。 In the YZ plane of FIG. 9, the light emitted from point "o" is not reflected by the reflecting surface 44 of the optical element 42, and the light does not form an image in the air, so it does not contribute to the generation of an aerial image.
すなわち、観察者3が空中像を視認できる条件は、観察者3の両眼がX方向に平行、又はそれに近い状態(例えばX方向に対して±10度)である。また、観察者3の両眼がX方向に平行、又はそれに近い状態でY方向に沿って視点を移動した場合、観察者3は、空中像を常に認識することができる。 In other words, the condition for observer 3 to be able to see the aerial image is that both eyes of observer 3 are parallel to the X direction or close to it (for example, ±10 degrees with respect to the X direction). Also, if observer 3's eyes are parallel to the X direction or close to it and the viewpoint is moved along the Y direction, observer 3 can always recognize the aerial image.
図10は、光学素子40における入射面43及び反射面44の角度条件を説明する図である。 Figure 10 is a diagram explaining the angular conditions of the incident surface 43 and the reflecting surface 44 of the optical element 40.
Z方向(素子面に垂直な方向)に対する入射面43の角度をθ2、Z方向に対する反射面44の角度をθ3、入射面43と反射面44とのなす角度をθpとする。角度をθpは、以下の式(1)で表される。
θp=θ2+θ3 ・・・(1)
The angle of the incident surface 43 with respect to the Z direction (the direction perpendicular to the element surface) is θ 2 , the angle of the reflecting surface 44 with respect to the Z direction is θ 3 , and the angle between the incident surface 43 and the reflecting surface 44 is θ p . The angle θ p is expressed by the following formula (1).
θ p = θ 2 + θ 3 ...(1)
光制御素子30から角度θ1で出射された光は、入射面43に入射する。光学素子40の材料の屈折率をnp、空気の屈折率を1とする。入射面43における入射角をθ4、屈折角をθ5とする。反射面44における入射角をθ6、反射角をθ7(=θ6)とする。光学素子40の上面における入射角をθ8、屈折角をθ9とする。屈折角θ9が出射角である。出射角θ9は、以下の式(2)で表される。
θ9=sin-1(np*sin(sin-1((1/np)*sin(90°-(θ1+θ2)))+θ2+2θ3-90°)) ・・・(2)
Light emitted from the light control element 30 at an angle θ 1 is incident on the incident surface 43. The refractive index of the material of the optical element 40 is n p , and the refractive index of air is 1. The incident angle at the incident surface 43 is θ 4 , and the refraction angle is θ 5. The incident angle at the reflecting surface 44 is θ 6 , and the reflection angle is θ 7 (=θ 6 ). The incident angle at the upper surface of the optical element 40 is θ 8 , and the refraction angle is θ 9. The refraction angle θ 9 is the exit angle. The exit angle θ 9 is expressed by the following equation (2).
θ 9 = sin -1 (n p *sin (sin -1 ((1/n p ) * sin (90° - (θ 1 + θ 2 ))) + θ 2 +2θ 3 -90°)) ... (2)
反射面44における臨界角は、以下の式(3)で表される。
臨界角<θ6(=θ7)
臨界角=sin-1(1/np) ・・・(3)
The critical angle at the reflecting surface 44 is expressed by the following formula (3).
Critical angle <θ 6 (=θ 7 )
Critical angle = sin -1 (1/n p )...(3)
すなわち、反射面44における入射角θ6は、反射面44における臨界角より大きく設定される。換言すると、反射面44の角度θ3は、反射面44に入射する光の入射角が臨界角より大きくなるように設定される。 That is, the angle of incidence θ6 on the reflecting surface 44 is set to be larger than the critical angle on the reflecting surface 44. In other words, the angle θ3 of the reflecting surface 44 is set so that the angle of incidence of light incident on the reflecting surface 44 is larger than the critical angle.
また、入射面43に入射した光は、入射面43で全反射されないように設定される。すなわち、入射面43の角度θ2は、入射面43に入射する光の入射角が臨界角より小さくなるように設定される。 Moreover, the angle θ2 of the incident surface 43 is set so that the light incident on the incident surface 43 is not totally reflected by the incident surface 43. In other words, the angle θ2 of the incident surface 43 is set so that the angle of incidence of the light incident on the incident surface 43 is smaller than the critical angle.
光学素子40の素子面と空中像2の面との角度、及び光学素子40の素子面と空中像2の面との距離は、光学素子40に入射する光の角度θ1、光学素子40の屈折率、光学素子40の入射面43の角度θ2、光学素子40の反射面44の角度θ3を最適に設定することで調整が可能である。 The angle between the element surface of the optical element 40 and the surface of the aerial image 2, and the distance between the element surface of the optical element 40 and the surface of the aerial image 2 can be adjusted by optimally setting the angle θ 1 of light incident on the optical element 40, the refractive index of the optical element 40, the angle θ 2 of the incident surface 43 of the optical element 40, and the angle θ 3 of the reflecting surface 44 of the optical element 40.
[1-2-2] センシング素子50の動作
次に、センシング素子50の動作について説明する。
[1-2-2] Operation of Sensing Element 50 Next, the operation of the sensing element 50 will be described.
図11は、センシング素子50の動作を説明する模式図である。 Figure 11 is a schematic diagram illustrating the operation of the sensing element 50.
駆動回路56は、信号線TLを介して電極53に駆動信号を供給する。駆動信号は、所定の周期を有するパルス波形からなる。電極53と電極54とは容量結合しており、両者の間には電界が発生している。検出回路57は、電極54の電圧値を検出可能なように構成される。 The drive circuit 56 supplies a drive signal to the electrode 53 via the signal line TL. The drive signal consists of a pulse waveform having a predetermined period. The electrodes 53 and 54 are capacitively coupled, and an electric field is generated between them. The detection circuit 57 is configured to be able to detect the voltage value of the electrode 54.
観察者3の指3Aは、接地電圧GNDを有する。対象物(例えば、観察者3の指3A)がセンシング素子50に近づくと、対象物と電極53とが容量結合する。この場合、電極53と電極54との間の容量値が変化する。具体的には、対象物と電極53とが容量結合すると、電極53と電極54との間の容量値が減少する。電極53と電極54との間の容量値が変化すると、電極54の電圧が変化する。検出回路57は、電極54の電圧値を検出する。 The finger 3A of the observer 3 has a ground voltage GND. When an object (e.g., the finger 3A of the observer 3) approaches the sensing element 50, the object and the electrode 53 are capacitively coupled. In this case, the capacitance value between the electrodes 53 and 54 changes. Specifically, when the object and the electrode 53 are capacitively coupled, the capacitance value between the electrodes 53 and 54 decreases. When the capacitance value between the electrodes 53 and 54 changes, the voltage of the electrode 54 changes. The detection circuit 57 detects the voltage value of the electrode 54.
図12は、センシング素子50の複数の検知領域を説明する模式図である。 Figure 12 is a schematic diagram illustrating multiple detection regions of the sensing element 50.
センシング素子50は、検出した電圧値に基づいて、複数の検知領域を形成することができる。ここでいう検知領域とは、センシング素子50が検知可能な2次元の領域であり、センシング素子50の上面と平行な領域である。複数の検知領域は、センシング素子50の上面からの高さ(レベル)が異なる。図12では、4個の検知領域DE1~DE4を一例として示している。 The sensing element 50 can form multiple detection regions based on the detected voltage value. The detection region here is a two-dimensional region that the sensing element 50 can detect, and is a region parallel to the top surface of the sensing element 50. The multiple detection regions have different heights (levels) from the top surface of the sensing element 50. In FIG. 12, four detection regions DE1 to DE4 are shown as an example.
図13は、センシング素子50における複数の検知領域と電圧との関係を説明する図である。図13において、対象物を検知した場合を“タッチオン”、対象物を検知していない場合を“タッチオフ”と表記している。 Figure 13 is a diagram explaining the relationship between multiple detection areas and voltage in the sensing element 50. In Figure 13, when an object is detected, it is indicated as "touch on," and when an object is not detected, it is indicated as "touch off."
検出回路57は、複数の信号線RLの電圧を検出する。検出回路57により検出された複数の電圧は、検知位置判定部60Cに送られる。検知位置判定部60Cは、検出回路57により検出された電圧値と閾値Th1~Th4とを比較する。検知位置判定部60Cは、電圧値が、閾値Th1以上かつ閾値Th2未満である場合、対象物が検知領域DE1に存在すると判定する。検知位置判定部60Cは、電圧値が、閾値Th2以上かつ閾値Th3未満である場合、対象物が検知領域DE2に存在すると判定する。検知位置判定部60Cは、電圧値が、閾値Th3以上かつ閾値Th4未満である場合、対象物が検知領域DE3に存在すると判定する。検知位置判定部60Cは、電圧値が、閾値Th4以上である場合、対象物が検知領域DE4に存在すると判定する。 The detection circuit 57 detects the voltages of the multiple signal lines RL. The multiple voltages detected by the detection circuit 57 are sent to the detection position determination unit 60C. The detection position determination unit 60C compares the voltage value detected by the detection circuit 57 with thresholds Th1 to Th4. If the voltage value is equal to or greater than the threshold Th1 and less than the threshold Th2, the detection position determination unit 60C determines that an object is present in the detection area DE1. If the voltage value is equal to or greater than the threshold Th2 and less than the threshold Th3, the detection position determination unit 60C determines that an object is present in the detection area DE2. If the voltage value is equal to or greater than the threshold Th3 and less than the threshold Th4, the detection position determination unit 60C determines that an object is present in the detection area DE3. If the voltage value is equal to or greater than the threshold Th4, the detection position determination unit 60C determines that an object is present in the detection area DE4.
このように、センシング素子50は、自身の上方の空中の複数のレベルで対象物を検知することができる。 In this way, the sensing element 50 can detect objects at multiple levels in the air above it.
[1-2-3] 空中表示装置1の検知動作
次に、空中表示装置1の検知動作について説明する。
[1-2-3] Detection operation of the aerial display device 1 Next, the detection operation of the aerial display device 1 will be described.
図14は、空中表示装置1が表示する空中像2を説明する模式図である。空中表示装置1は、筐体4を備える。筐体4は、照明素子10、表示素子20、光制御素子30、光学素子40、及びセンシング素子50を収容する。筐体4は、上部にセンシング素子50を露出する開口部を有する。図14において、鉛直方向がY方向になるように、空中表示装置1を配置している。 Figure 14 is a schematic diagram illustrating an aerial image 2 displayed by an aerial display device 1. The aerial display device 1 includes a housing 4. The housing 4 houses an illumination element 10, a display element 20, a light control element 30, an optical element 40, and a sensing element 50. The housing 4 has an opening at the top that exposes the sensing element 50. In Figure 14, the aerial display device 1 is positioned so that the vertical direction is the Y direction.
空中表示装置1は、空中に空中像2を表示する。図14では、空中像2として、押しボタンを一例として示している。観察者3は、自身の指3Aで押しボタンを押す。センシング素子50は、空中像2を含む2次元の空間に検知領域を形成し、観察者3が指3Aで押しボタンを押した場合に、指3Aを検知する。 The aerial display device 1 displays an aerial image 2 in the air. In FIG. 14, a push button is shown as an example of the aerial image 2. An observer 3 presses the push button with his/her finger 3A. The sensing element 50 forms a detection area in a two-dimensional space that includes the aerial image 2, and detects the finger 3A when the observer 3 presses the push button with his/her finger 3A.
図15は、観察者3の視点の位置に応じて空中像2の位置が変化する様子を説明する模式図である。 Figure 15 is a schematic diagram that explains how the position of the aerial image 2 changes depending on the position of the viewpoint of the observer 3.
光学素子40の構造に起因した作用として、観察者3がY方向に沿って視点を動かした場合、観察者3の視点を追うように空中像2の位置が変化する。図面の上方向に観察者3の視点が移動すると、空中像2も上方向に移動し、図面の下方向に観察者3の視点が移動すると、空中像2も下方向に移動する。すなわち、空中像2は常に観察者3の正面に位置する。 As a result of the structure of the optical element 40, when the observer 3 moves his/her viewpoint along the Y direction, the position of the aerial image 2 changes to follow the viewpoint of the observer 3. When the observer 3's viewpoint moves upward on the drawing, the aerial image 2 also moves upward, and when the observer 3's viewpoint moves downward on the drawing, the aerial image 2 also moves downward. In other words, the aerial image 2 is always located directly in front of the observer 3.
図16は、空中表示装置1の検知動作を説明する模式図である。図17は、観察者3が空中表示装置1を斜め方向から見た場合の検知動作を説明する模式図である。 Figure 16 is a schematic diagram explaining the detection operation of the aerial display device 1. Figure 17 is a schematic diagram explaining the detection operation when an observer 3 views the aerial display device 1 from an oblique direction.
表示素子20は、自身の画面に画像21を表示する。画像21は、例えば押しボタンである。空中表示装置1は、表示素子20の上面の平行な2次元の空間領域に空中像2を表示する。 The display element 20 displays an image 21 on its screen. The image 21 is, for example, a push button. The aerial display device 1 displays an aerial image 2 in a parallel two-dimensional spatial region on the upper surface of the display element 20.
センシング素子50は、空中像2と平行な2次元の空間領域に複数の検知領域を形成する。本実施形態では、センシング素子50は、2個の検知領域を形成する場合を例に説明する。センシング素子50は、センシング素子50から遠い側から順に、検知領域DE1、及び検知領域DE2を形成する。検知領域DE2は、空中像2と同じ2次元の空間領域、すなわち、空中像2と重なるように設定される。 The sensing element 50 forms multiple detection regions in a two-dimensional spatial region parallel to the aerial image 2. In this embodiment, an example will be described in which the sensing element 50 forms two detection regions. The sensing element 50 forms detection region DE1 and detection region DE2 in order from the side furthest from the sensing element 50. The detection region DE2 is set to be in the same two-dimensional spatial region as the aerial image 2, i.e., to overlap with the aerial image 2.
観察者3は、自身の指3Aで空中像2をタッチするものとする。観察者3の指3Aは、検知領域DE1、及び検知領域DE2を通過する。センシング素子50は、検知領域DE1、及び検知領域DE2のそれぞれにおいて、対象物を検知する。 The observer 3 touches the aerial image 2 with his/her finger 3A. The finger 3A of the observer 3 passes through the detection area DE1 and the detection area DE2. The sensing element 50 detects an object in each of the detection area DE1 and the detection area DE2.
センシング素子50の上面を座標の基準面とする。本実施形態における座標とは、物体の空間での位置を定めるものであり、物体の位置と同じ意味である。画像21の座標を(x,y,z)とする。検知領域DE1における対象物の検知位置の座標を(x1,y1,z1)、検知領域DE2における対象物の検知位置の座標を(x2,y2,z2)とする。図16に示すように、観察者3の視点の位置に応じて、検知領域DE1、DE2における対象物の検知位置が異なる。 The upper surface of the sensing element 50 is the reference plane of the coordinates. In this embodiment, the coordinates define the position of an object in space, and have the same meaning as the position of the object. The coordinates of the image 21 are (x, y, z). The coordinates of the detection position of the object in the detection area DE1 are ( x1 , y1 , z1 ), and the coordinates of the detection position of the object in the detection area DE2 are ( x2 , y2 , z2 ). As shown in FIG. 16, the detection positions of the object in the detection areas DE1 and DE2 differ depending on the position of the viewpoint of the observer 3.
空間における直線の方程式より、以下の式(4)が成り立つ。
(x-x1)/(x2-x1)=(y-y1)/(y2-y1)=(z-z1)/(z2-z1) ・・・(4)
From the equation of a straight line in space, the following formula (4) holds.
(x-x 1 )/(x 2 -x 1 )=(y-y 1 )/(y 2 -y 1 )=(zz-z 1 )/(z 2 -z 1 )...(4)
押しボタンの押下時、X方向のズレは僅少であると仮定する。すなわち、X座標において、以下の式(5)が成り立つ。
x1=x2(=x) ・・・(5)
It is assumed that when the push button is pressed, the deviation in the X direction is small. That is, the following equation (5) is satisfied in the X coordinate.
x 1 = x 2 (=x) ... (5)
式(4)から、Y座標において、以下の式(6)が成り立つ。
y=y1+(z-z1)*(y2-y1)/(z2-z1) ・・・(6)
From equation (4), the following equation (6) holds in the Y coordinate.
y = y 1 + (z - z 1 ) * (y 2 - y 1 )/(z 2 - z 1 ) ... (6)
検知位置判定部60Cは、センシング素子50が検出した電圧値に基づいて、対象物の位置を判定する。検知位置判定部60Cによる検知位置は、検知領域DE1、DE2における座標を含む。z1は、基準面から検知領域DE1までの距離であり、z2は、基準面から検知領域DE2までの距離である。z1及びz2は、予め決められた設計値である。 The detection position determination unit 60C determines the position of the object based on the voltage value detected by the sensing element 50. The detection position by the detection position determination unit 60C includes coordinates in the detection areas DE1 and DE2. z1 is the distance from the reference plane to the detection area DE1, and z2 is the distance from the reference plane to the detection area DE2. z1 and z2 are predetermined design values.
図18は、Z座標における画像21の位置を算出する方法を説明する模式図である。図18において、表示面は、表示素子20の表示面であり、基準面は、センシング素子50の上面であり、空中像面は、空中像2が表示される面である。 Figure 18 is a schematic diagram explaining a method for calculating the position of the image 21 in the Z coordinate. In Figure 18, the display surface is the display surface of the display element 20, the reference surface is the upper surface of the sensing element 50, and the aerial image surface is the surface on which the aerial image 2 is displayed.
前述したように、表示素子20から角度θ1で出射した光が光学素子40により観察者3の正面に反射される。表示素子20と光学素子40との距離をlとする。距離lを規定する際の光学素子40の基準面は、例えば光学素子40の上面である。距離lは、予め決められた設計値である。 As described above, light emitted from the display element 20 at an angle θ1 is reflected by the optical element 40 to the front of the viewer 3. The distance between the display element 20 and the optical element 40 is taken as l. The reference surface of the optical element 40 when defining the distance l is, for example, the upper surface of the optical element 40. The distance l is a predetermined design value.
Z座標において、以下の式(7)が成り立つ。
z=l/sinθ1 ・・・(7)
In the Z coordinate, the following equation (7) holds.
z=l/sinθ 1 ...(7)
図19は、Z座標を補正した仮想表示面を説明する模式図である。仮想表示面とは、表示素子20からの光が直線的に進むと仮定した場合に、表示素子20の表示面の位置を補正した仮想的な表示面である。式(7)を用いて表示面の位置を補正すると、仮想表示面が得られる。仮想表示面に表示される画像の光は、仮想的に、Z方向に進んで観察者3に観察される。 Figure 19 is a schematic diagram explaining a virtual display surface with a corrected Z coordinate. The virtual display surface is a virtual display surface obtained by correcting the position of the display surface of the display element 20, assuming that light from the display element 20 travels in a straight line. The virtual display surface is obtained by correcting the position of the display surface using equation (7). The light of the image displayed on the virtual display surface virtually travels in the Z direction and is observed by the observer 3.
式(5)~(7)から、仮想表示面での座標(x,y)が求められる。これまでの座標算出方法について、光制御素子30、光学素子40、及びセンシング素子50の光学的影響(屈折率、厚みなど)は考慮に入れていないが、適宜追加及び補正を行えばよい。 The coordinates (x, y) on the virtual display surface can be calculated from equations (5) to (7). The coordinate calculation methods described above do not take into account the optical effects (refractive index, thickness, etc.) of the light control element 30, the optical element 40, and the sensing element 50, but these can be added and corrected as appropriate.
図20は、観察者3のタッチ操作を判定する動作を説明する模式図である。図20は、表示素子20の仮想表示面22における座標を示している。表示素子20は、自身の画面に画像21を表示する。 Figure 20 is a schematic diagram illustrating the operation of determining a touch operation by an observer 3. Figure 20 shows coordinates on a virtual display surface 22 of a display element 20. The display element 20 displays an image 21 on its screen.
仮想表示面22の左上の角を座標(0,0)、仮想表示面22の右下の角を座標(m,n)とする。画像21の左上の角を座標(m1,n1)、画像21の右下の角を座標(m2,n2)とする。 The upper left corner of the virtual display surface 22 is defined as coordinates (0,0), and the lower right corner of the virtual display surface 22 is defined as coordinates (m,n). The upper left corner of the image 21 is defined as coordinates ( m1 , n1 ), and the lower right corner of the image 21 is defined as coordinates ( m2 , n2 ).
検知位置判定部60Cは、センシング素子50の検出結果に基づいて、対象物の検知領域DE1、DE2における位置(x1,y1,z1)、(x2,y2,z2)を算出する。さらに、検知位置判定部60Cは、位置(x1,y1,z1)、(x2,y2,z2)に基づいて、仮想表示面22での位置(x,y)を算出する。 The detection position determination unit 60C calculates the positions ( x1 , y1 , z1 ) and ( x2 , y2 , z2 ) of the object in the detection areas DE1 and DE2 based on the detection results of the sensing element 50. Furthermore, the detection position determination unit 60C calculates the position (x, y) on the virtual display surface 22 based on the positions ( x1 , y1 , z1 ) and ( x2 , y2 , z2 ).
換言すると、検知位置判定部60Cは、位置(x1,y1,z1)、(x2,y2,z2)に基づいて、対象物が移動する移動方向(ベクトル)を判定する。検知位置判定部60Cは、対象物の移動方向の延長線と仮想表示面22との交点である位置(x,y)を算出する。検知位置判定部60Cは、観察者3が視認する空中像2を結像する光の光路を逆に辿るように上記延長線を算出する。すなわち、検知位置判定部60Cは、表示素子20から斜めに出射して光学素子40で反射される光路を逆に辿るように上記延長線を算出する。 In other words, the detection position determination unit 60C determines the movement direction (vector) in which the object moves based on the positions ( x1 , y1 , z1 ) and ( x2 , y2 , z2 ). The detection position determination unit 60C calculates the position (x, y) which is the intersection of an extension line of the movement direction of the object and the virtual display surface 22. The detection position determination unit 60C calculates the extension line so as to trace in reverse the optical path of light that forms the aerial image 2 visually recognized by the observer 3. In other words, the detection position determination unit 60C calculates the extension line so as to trace in reverse the optical path of light that is obliquely emitted from the display element 20 and reflected by the optical element 40.
検知位置判定部60Cは、算出した位置(x,y)が、画像21の領域に含まれるか否かを判定する。画像21の領域は、座標(m1,n1)と座標(m2,n2)とで規定される四角形の領域である。検知位置判定部60Cは、算出した位置(x,y)が、画像21の領域に含まれる場合、選択、すなわち空中像2が観察者3にタッチされたと判定する。一方、検知位置判定部60Cは、算出した位置(x,y)が、画像21の領域に含まれない場合、非選択、すなわち空中像2が観察者3にタッチされていないと判定する。 The detected position determination unit 60C determines whether or not the calculated position (x, y) is included in the area of the image 21. The area of the image 21 is a rectangular area defined by coordinates ( m1 , n1 ) and coordinates ( m2 , n2 ). When the calculated position (x, y) is included in the area of the image 21, the detected position determination unit 60C determines that the aerial image 2 has been selected, that is, that the observer 3 has touched the aerial image 2. On the other hand, when the calculated position (x, y) is not included in the area of the image 21, the detected position determination unit 60C determines that the aerial image 2 has not been selected, that is, that the observer 3 has not touched the aerial image 2.
[1-2-4] 全体動作の流れ
次に、空中表示装置1における全体動作の流れについて説明する。図21は、空中表示装置1における全体動作を説明するフローチャートである。
[1-2-4] Flow of Overall Operation Next, we will explain the flow of the overall operation of the aerial display device 1. Figure 21 is a flowchart explaining the overall operation of the aerial display device 1.
制御部60は、空中像2を表示する(ステップS100)。表示処理部60Aは、表示素子20の画面に画像を表示させる。光学素子40は、表示素子20からの光を反射し、空中に空中像2を結像する。 The control unit 60 displays the aerial image 2 (step S100). The display processing unit 60A displays an image on the screen of the display element 20. The optical element 40 reflects light from the display element 20 and forms the aerial image 2 in the air.
続いて、センシング素子50は、センシング動作を実行する(ステップS101)。センシング素子50の駆動回路56は、複数の信号線TLを介して、複数の電極53に駆動信号を供給する。センシング素子50の検出回路57は、複数の信号線RLを介して、複数の電極54の電圧を検出する。そして、センシング素子50は、検出した電圧と複数の閾値とを比較することで、検知領域DE1、DE2を形成する。 Then, the sensing element 50 performs a sensing operation (step S101). The driving circuit 56 of the sensing element 50 supplies driving signals to the multiple electrodes 53 via the multiple signal lines TL. The detection circuit 57 of the sensing element 50 detects the voltages of the multiple electrodes 54 via the multiple signal lines RL. The sensing element 50 then forms detection regions DE1 and DE2 by comparing the detected voltage with multiple thresholds.
続いて、検知位置判定部60Cは、センシング素子50からの信号に基づいて、対象物を検知したか否か判定する(ステップS102)。 Next, the detection position determination unit 60C determines whether or not an object has been detected based on the signal from the sensing element 50 (step S102).
対象物を検知した場合(S102=Yes)、検知位置判定部60Cは、センシング素子50の検知結果に基づいて、対象物の位置を算出する(ステップS103)。すなわち、検知位置判定部60Cは、検知領域DE1における位置(x1,y1,z1)、及び検知領域DE2における位置(x2,y2,z2)を算出する。 When an object is detected (S102 = Yes), the detection position determination unit 60C calculates the position of the object (step S103) based on the detection result of the sensing element 50. That is, the detection position determination unit 60C calculates the position ( x1 , y1 , z1 ) in the detection area DE1 and the position ( x2 , y2 , z2 ) in the detection area DE2.
続いて、検知位置判定部60Cは、表示素子20の仮想表示面における対象物の位置を算出する(ステップS104)。 Next, the detection position determination unit 60C calculates the position of the object on the virtual display surface of the display element 20 (step S104).
続いて、検知位置判定部60Cは、算出した対象物の位置が画像21の領域に含まれるか否かを判定する(ステップS105)。 Next, the detection position determination unit 60C determines whether the calculated object position is included in the area of the image 21 (step S105).
対象物の位置が画像21の領域に含まれる場合(S105=Yes)、検知位置判定部60Cは、観察者3により空中像2がタッチされたと判定する(ステップS106)。 If the position of the object is included in the area of the image 21 (S105 = Yes), the detection position determination unit 60C determines that the aerial image 2 has been touched by the observer 3 (step S106).
その後、制御部60は、観察者3のタッチ操作に応じた動作を実行する。 The control unit 60 then performs an operation according to the touch operation of the observer 3.
[1-3] 第1実施形態の効果
第1実施形態では、センシング素子50は、光学素子40の上方に、表示素子20と平行な複数の検知領域(検知領域DE1、DE2を含む)を形成し、複数の検知領域に存在する対象物を検知する。検知位置判定部60Cは、センシング素子50の検知結果に基づいて、対象物の移動方向(進行方向)を算出する。検知位置判定部60Cは、算出した移動方向の延長線と表示素子20の画面(表示面)とが交差する位置を算出する。そして、検知位置判定部60Cは、延長線と画面とが交差する位置が、表示素子20の画像の領域に含まれる場合に、観察者3が空中像をタッチしたと判定する。
[1-3] Effects of the First Embodiment In the first embodiment, the sensing element 50 forms a plurality of detection areas (including detection areas DE1 and DE2) parallel to the display element 20 above the optical element 40, and detects an object present in the plurality of detection areas. The detection position determination unit 60C calculates the movement direction (travel direction) of the object based on the detection result of the sensing element 50. The detection position determination unit 60C calculates the position where an extension of the calculated movement direction intersects with the screen (display surface) of the display element 20. Then, the detection position determination unit 60C determines that the observer 3 has touched the aerial image when the position where the extension intersects with the screen is included in the area of the image of the display element 20.
従って第1実施形態によれば、観察者3が空中表示装置1を見る位置に応じて空中像2の位置が変化した場合でも、空中像2の領域に存在する対象物を判定することができる。ひいては、観察者3による空中像2へのタッチ操作をより正確に検知することが可能な空中表示装置1を実現できる。 Therefore, according to the first embodiment, even if the position of the aerial image 2 changes depending on the position from which the observer 3 views the aerial display device 1, it is possible to determine the object present in the area of the aerial image 2. In addition, it is possible to realize an aerial display device 1 that can more accurately detect the touch operation on the aerial image 2 by the observer 3.
また、空中表示装置1は、表示素子20から出射された光を光学素子40で反射させることで、空中に空中像2を表示することができる。また、空中表示装置1は、その正面方向において、光学素子40の素子面に平行に空中像2を表示することができる。また、表示品質を向上させることが可能な空中表示装置1を実現できる。 The aerial display device 1 can display an aerial image 2 in the air by reflecting light emitted from the display element 20 by the optical element 40. The aerial display device 1 can display the aerial image 2 in the front direction, parallel to the element surface of the optical element 40. It is also possible to realize an aerial display device 1 that can improve display quality.
また、観察者3の両眼がX方向(すなわち、複数の光学要素42が並ぶ方向)に平行、又はそれに近い状態で光学素子40を見た場合に、観察者3は、空中像を視認することができる。また、観察者3の両眼がX方向に平行、又はそれに近い状態でY方向に沿って視点を移動した場合、空中像を常に視認することができる。また、観察者3の両眼がX方向に平行、又はそれに近い状態において、より広い視野角を実現できる。 When the observer 3 looks at the optical element 40 with both eyes parallel to or close to the X direction (i.e., the direction in which the multiple optical elements 42 are arranged), the observer 3 can see an aerial image. When the observer 3 moves the viewpoint along the Y direction with both eyes parallel to or close to the X direction, the observer 3 can always see an aerial image. When the observer 3's eyes are parallel to or close to the X direction, a wider viewing angle can be achieved.
また、空中表示装置1を構成する複数の素子を平行に配置することができる。これにより、Z方向に小型化が可能な空中表示装置1を実現できる。 In addition, the multiple elements that make up the aerial display device 1 can be arranged in parallel. This makes it possible to realize an aerial display device 1 that can be made smaller in size in the Z direction.
[2] 第2実施形態
第2実施形態は、センシング素子50を備えた表示装置70の実施例である。表示装置70は、自身の画面に画像を表示する一般的な表示装置である。
[2] Second embodiment The second embodiment is an example of a display device 70 including a sensing element 50. The display device 70 is a general display device that displays an image on its own screen.
図22は、本発明の第2実施形態に係る表示装置70の斜視図である。表示装置70は、照明素子10、表示素子20、及びセンシング素子50を備える。照明素子10、表示素子20、及びセンシング素子50は、互いに平行に配置される。照明素子10、表示素子20、及びセンシング素子50は、互いに特定の間隔を空けるようにして、図示せぬ固定部材で特定の位置に固定される。照明素子10、表示素子20、及びセンシング素子50は、図示せぬ筐体に収容される。照明素子10、表示素子20、及びセンシング素子50のそれぞれの構成は、第1実施形態と同じである。 Figure 22 is a perspective view of a display device 70 according to a second embodiment of the present invention. The display device 70 includes an illumination element 10, a display element 20, and a sensing element 50. The illumination element 10, the display element 20, and the sensing element 50 are arranged parallel to one another. The illumination element 10, the display element 20, and the sensing element 50 are fixed at specific positions by a fixing member (not shown) so as to leave a specific distance between them. The illumination element 10, the display element 20, and the sensing element 50 are housed in a housing (not shown). The configurations of the illumination element 10, the display element 20, and the sensing element 50 are the same as those of the first embodiment.
図23は、表示装置70の検知動作を説明する模式図である。図24は、観察者3が表示装置70を斜め方向から見た場合の検知動作を説明する模式図である。センシング素子50の動作は、第1実施形態と同じである。 Figure 23 is a schematic diagram illustrating the detection operation of the display device 70. Figure 24 is a schematic diagram illustrating the detection operation when the observer 3 views the display device 70 from an oblique direction. The operation of the sensing element 50 is the same as in the first embodiment.
表示素子20は、自身の画面に画像21を表示する。画像21は、例えば押しボタンである。観察者3は、表示素子20の画面に表示された画像21を視認する。 The display element 20 displays an image 21 on its screen. The image 21 is, for example, a push button. The observer 3 visually recognizes the image 21 displayed on the screen of the display element 20.
センシング素子50は、上方に、表示素子20と平行な2次元の空間領域に複数の検知領域を形成する。本実施形態では、センシング素子50は、2個の検知領域を形成する場合を例に説明する。センシング素子50は、センシング素子50から遠い側から順に、検知領域DE1、及び検知領域DE2を形成する。センシング素子50は、検知領域DE1、及び検知領域DE2のそれぞれにおいて、対象物を検知する。 The sensing element 50 forms multiple detection regions in a two-dimensional spatial region above and parallel to the display element 20. In this embodiment, an example will be described in which the sensing element 50 forms two detection regions. The sensing element 50 forms detection region DE1 and detection region DE2 in order from the side furthest from the sensing element 50. The sensing element 50 detects an object in each of the detection region DE1 and the detection region DE2.
観察者3は、自身の指3Aで画像21を操作するものとする。観察者3の指3Aは、検知領域DE1、及び検知領域DE2を通過する。センシング素子50は、検知領域DE1、及び検知領域DE2のそれぞれにおいて、対象物を検知する。 The observer 3 operates the image 21 with his/her finger 3A. The finger 3A of the observer 3 passes through the detection area DE1 and the detection area DE2. The sensing element 50 detects an object in each of the detection area DE1 and the detection area DE2.
センシング素子50の上面を座標の基準面とする。画像21の座標を(x,y,z)とする。検知領域DE1における対象物の検知位置の座標を(x1,y1,z1)、検知領域DE2における対象物の検知位置の座標を(x2,y2,z2)とする。図23に示すように、観察者3の視点の位置に応じて、検知領域DE1、DE2における対象物の検知位置が異なる。 The upper surface of the sensing element 50 is the reference plane for the coordinates. The coordinates of the image 21 are (x, y, z). The coordinates of the detection position of the object in the detection area DE1 are ( x1 , y1 , z1 ), and the coordinates of the detection position of the object in the detection area DE2 are ( x2 , y2 , z2 ). As shown in Fig. 23, the detection positions of the object in the detection areas DE1 and DE2 differ depending on the position of the viewpoint of the observer 3.
第1実施形態と同様に、空間における直線の方程式より、上記式(4)が成り立つ。X座標及びY座標において、上記式(5)、(6)が成り立つ。 As in the first embodiment, the above formula (4) holds true from the equation of a straight line in space. The above formulas (5) and (6) hold true in the X and Y coordinates.
Z座標において、zは、基準面と表示素子20との距離であり、z1は、基準面と検知領域DE1との距離であり、z2は、基準面と検知領域DE2との距離である。z、z1、z2は、予め決められた設計値である。 In the Z coordinate, z is the distance between the reference surface and the display element 20, z1 is the distance between the reference surface and the detection area DE1, and z2 is the distance between the reference surface and the detection area DE2. z, z1 , and z2 are predetermined design values.
式(5)~(6)から、検知位置判定部60Cは、表示素子20上の座標(x,y)を算出する。換言すると、検知位置判定部60Cは、位置(x1,y1,z1)、(x2,y2,z2)に基づいて、対象物が移動する移動方向(ベクトル)を判定する。検知位置判定部60Cは、対象物の移動方向の延長線と表示素子20の表示面との交点である位置(x,y)を算出する。これまでの座標算出方法について、センシング素子50の光学的影響(屈折率、厚みなど)は考慮に入れていないが、適宜追加及び補正を行えばよい。 From the formulas (5) and (6), the detection position determination unit 60C calculates the coordinates (x, y) on the display element 20. In other words, the detection position determination unit 60C determines the movement direction (vector) in which the object moves based on the positions ( x1 , y1 , z1 ) and ( x2 , y2 , z2 ). The detection position determination unit 60C calculates the position (x, y) which is the intersection point between the extension line of the movement direction of the object and the display surface of the display element 20. The coordinate calculation methods described above do not take into account the optical influence (refractive index, thickness, etc.) of the sensing element 50, but may be appropriately added and corrected.
次に、表示装置70における全体動作の流れについて説明する。図25は、表示装置70における全体動作を説明するフローチャートである。表示装置70のブロック図は、第1実施形態と同じである。 Next, the overall operation flow of the display device 70 will be described. FIG. 25 is a flowchart explaining the overall operation of the display device 70. The block diagram of the display device 70 is the same as that of the first embodiment.
表示処理部60Aは、表示素子20の画面に画像を表示させる(ステップS200)。続いて、センシング素子50は、センシング動作を実行する(ステップS201)。センシング素子50は、検知領域DE1、DE2を形成する。 The display processing unit 60A displays an image on the screen of the display element 20 (step S200). Then, the sensing element 50 performs a sensing operation (step S201). The sensing element 50 forms detection areas DE1 and DE2.
続いて、検知位置判定部60Cは、センシング素子50からの信号に基づいて、対象物を検知したか否か判定する(ステップS202)。 Next, the detection position determination unit 60C determines whether or not an object has been detected based on the signal from the sensing element 50 (step S202).
対象物を検知した場合(S202=Yes)、検知位置判定部60Cは、対象物の位置を算出する(ステップS203)。すなわち、検知位置判定部60Cは、検知領域DE1における位置(x1,y1,z1)、及び検知領域DE2における位置(x2,y2,z2)を算出する。 If an object is detected (S202 = Yes), the detection position determination unit 60C calculates the position of the object (step S203). That is, the detection position determination unit 60C calculates the position ( x1 , y1 , z1 ) in the detection area DE1 and the position ( x2 , y2 , z2 ) in the detection area DE2.
続いて、検知位置判定部60Cは、表示素子20の画面(表示面)における対象物の位置を算出する(ステップS204)。 Next, the detection position determination unit 60C calculates the position of the object on the screen (display surface) of the display element 20 (step S204).
続いて、検知位置判定部60Cは、算出した対象物の位置が画像21の領域に含まれるか否かを判定する(ステップS205)。 Next, the detection position determination unit 60C determines whether the calculated object position is included in the area of the image 21 (step S205).
対象物の位置が画像21の領域に含まれる場合(S205=Yes)、検知位置判定部60Cは、観察者3により画像21がタッチされたと判定する(ステップS206)。 If the position of the object is included in the area of image 21 (S205 = Yes), the detection position determination unit 60C determines that image 21 has been touched by the observer 3 (step S206).
その後、制御部60は、観察者3のタッチ操作に応じた動作を実行する。 The control unit 60 then performs an operation according to the touch operation of the observer 3.
第2実施形態によれば、自身の画面に画像を表示する一般的な表示装置70にセンシング素子50を適用できる。また、表示装置70は、非接触で対象物を検知することができる。 According to the second embodiment, the sensing element 50 can be applied to a general display device 70 that displays an image on its own screen. In addition, the display device 70 can detect an object in a non-contact manner.
[3] 第3実施形態
第3実施形態は、センシング素子50の他の構成例である。
[3] Third Embodiment The third embodiment is another configuration example of the sensing element 50.
図26は、本発明の第3実施形態に係る表示装置70の斜視図である。表示装置70は、複数のセンシング素子50を備える。本実施形態では、2個のセンシング素子50-1、50-2を例に挙げて説明する。 Figure 26 is a perspective view of a display device 70 according to a third embodiment of the present invention. The display device 70 includes multiple sensing elements 50. In this embodiment, two sensing elements 50-1 and 50-2 will be used as an example.
センシング素子50-1、50-2は、表示素子20の上方に配置される。センシング素子50-1、50-2は、平面視において、表示素子20が占める領域の外側に配置される。例えば、センシング素子50-1、50-2は、表示装置70のX方向における一側部に配置される。センシング素子50-1は、センシング素子50-2より上方に配置される。照明素子10、表示素子20、及びセンシング素子50-1、50-2は、図示せぬ固定部材で特定の位置に固定される。照明素子10、表示素子20、及びセンシング素子50-1、50-2は、図示せぬ筐体に収容される。センシング素子50-1、50-2は、照明素子10及び表示素子20が収容される筐体とは別個に設けてもよい。 The sensing elements 50-1 and 50-2 are disposed above the display element 20. The sensing elements 50-1 and 50-2 are disposed outside the area occupied by the display element 20 in a plan view. For example, the sensing elements 50-1 and 50-2 are disposed on one side of the display device 70 in the X direction. The sensing element 50-1 is disposed above the sensing element 50-2. The lighting element 10, the display element 20, and the sensing elements 50-1 and 50-2 are fixed to specific positions by fixing members not shown. The lighting element 10, the display element 20, and the sensing elements 50-1 and 50-2 are housed in a housing not shown. The sensing elements 50-1 and 50-2 may be provided separately from the housing in which the lighting element 10 and the display element 20 are housed.
センシング素子50-1、50-2はそれぞれ、検知領域DE1、及び検知領域DE2を形成する。検知領域DE1、及び検知領域DE2は、表示素子20と平行に設定される。検知領域DE1は、検知領域DE2の上方に形成される。 The sensing elements 50-1 and 50-2 form a detection area DE1 and a detection area DE2, respectively. The detection area DE1 and the detection area DE2 are set parallel to the display element 20. The detection area DE1 is formed above the detection area DE2.
センシング素子50-1は、検知領域DE1に存在する対象物を検知する。センシング素子50-1は、検知領域DE1に光を出射し、対象物で反射された反射光を検知する。センシング素子50-1が出射する光は、可視光以外の光が望ましく、例えば赤外光が用いられる。センシング素子50-1は、検知領域DE1に向けて赤外光を発光する発光部と、対象物で反射された反射光を検知する受光部(センサ)とを含む。センシング素子50-1は、例えば、複数の発光素子と複数の受光素子とが交互に一列に並んだラインセンサで構成される。ラインセンサは、赤外光を用いてライン状に空間をスキャンすることが可能であり、複数の発光素子が並んだ方向と光が進む方向とからなる2次元の空間をスキャンすることが可能である。 The sensing element 50-1 detects an object present in the detection area DE1. The sensing element 50-1 emits light into the detection area DE1 and detects the reflected light reflected by the object. The light emitted by the sensing element 50-1 is preferably light other than visible light, for example infrared light. The sensing element 50-1 includes a light emitting unit that emits infrared light toward the detection area DE1, and a light receiving unit (sensor) that detects the reflected light reflected by the object. The sensing element 50-1 is composed of, for example, a line sensor in which multiple light emitting elements and multiple light receiving elements are alternately arranged in a row. The line sensor can scan space in a line using infrared light, and can scan a two-dimensional space consisting of the direction in which multiple light emitting elements are arranged and the direction in which light travels.
センシング素子50-1と同様に、センシング素子50-2は、検知領域DE2に存在する対象物を検知する。 Similar to sensing element 50-1, sensing element 50-2 detects an object present in detection area DE2.
図27は、センシング素子50-1の構成を説明する図である。図27(a)が平面図、図27(b)が側面図である。センシング素子50-2の構成は、図27と同じである。 Figure 27 is a diagram explaining the configuration of sensing element 50-1. Figure 27(a) is a plan view, and Figure 27(b) is a side view. The configuration of sensing element 50-2 is the same as that in Figure 27.
センシング素子50-1は、基板80、複数の発光素子81、複数の受光素子82、複数のレンズ83、及びケース84を備える。図27に示した発光素子81、受光素子82、及びレンズ83の数は一例である。複数の発光素子81を纏めて発光部と呼び、複数の受光素子82を纏めて受光部と呼ぶ。 The sensing element 50-1 comprises a substrate 80, a plurality of light-emitting elements 81, a plurality of light-receiving elements 82, a plurality of lenses 83, and a case 84. The number of light-emitting elements 81, light-receiving elements 82, and lenses 83 shown in FIG. 27 is an example. The plurality of light-emitting elements 81 are collectively referred to as the light-emitting section, and the plurality of light-receiving elements 82 are collectively referred to as the light-receiving section.
複数の発光素子81、及び複数の受光素子82は、基板80に実装される。基板80は、複数の配線層(図示せず)を含む。複数の発光素子81、及び複数の受光素子82は、交互に配置される。 The multiple light-emitting elements 81 and the multiple light-receiving elements 82 are mounted on a substrate 80. The substrate 80 includes multiple wiring layers (not shown). The multiple light-emitting elements 81 and the multiple light-receiving elements 82 are arranged alternately.
複数の発光素子81の各々は、レーザー光を発光する。レーザー光は、例えば、利用者の視覚を刺激せず、可視光の影響を受けない赤外光である。発光素子81は、例えばレーザーダイオードで構成される。 Each of the multiple light-emitting elements 81 emits laser light. Laser light is, for example, infrared light that does not stimulate the user's vision and is not affected by visible light. The light-emitting elements 81 are, for example, composed of laser diodes.
複数の受光素子82の各々は、対象物で反射されたレーザー光(赤外光)を検知する。受光素子82は、例えばフォトダイオードで構成される。 Each of the multiple light receiving elements 82 detects the laser light (infrared light) reflected by the target object. The light receiving elements 82 are composed of, for example, a photodiode.
複数のレンズ83は、複数の発光素子81に対応して設けられ、複数の発光素子81の上方に配置される。複数のレンズ83は、一方向に並んで配置される。複数のレンズ83の各々は、例えば平凸レンズで構成される。複数のレンズ83は、複数の発光素子81から出射されたレーザー光を正面方向に集光する機能を有する。また、複数のレンズ83は、対象物で反射されたレーザー光を集光する機能を有する。 The multiple lenses 83 are provided corresponding to the multiple light-emitting elements 81 and are arranged above the multiple light-emitting elements 81. The multiple lenses 83 are arranged side by side in one direction. Each of the multiple lenses 83 is composed of, for example, a plano-convex lens. The multiple lenses 83 have the function of focusing the laser light emitted from the multiple light-emitting elements 81 in the forward direction. The multiple lenses 83 also have the function of focusing the laser light reflected by an object.
ケース84は、基板80、複数の発光素子81、複数の受光素子82、及び複数のレンズ83を収容する。ケース84は、上部にレンズ83を露出する開口部を有する。図27では、ケース84の外形のみを簡略化して示している。 The case 84 houses the substrate 80, a plurality of light-emitting elements 81, a plurality of light-receiving elements 82, and a plurality of lenses 83. The case 84 has an opening at the top that exposes the lenses 83. In Figure 27, only the external shape of the case 84 is shown in a simplified form.
表示装置70の検知動作は、第2実施形態と同じである。第3実施形態においても、第2実施形態と同じ効果を得ることができる。第3実施形態のセンシング素子は、第1実施形態に適用することが可能である。 The detection operation of the display device 70 is the same as in the second embodiment. In the third embodiment, the same effect as in the second embodiment can be obtained. The sensing element of the third embodiment can be applied to the first embodiment.
[4] 第4実施形態
第4実施形態は、観察者3が空中像2以外の領域をタッチしている場合に、カーソルで選択位置を提示するようにしている。
[4] Fourth Embodiment In the fourth embodiment, when the observer 3 touches an area other than the aerial image 2, a selection position is presented by a cursor.
図28は、本発明の第4実施形態に係る空中表示装置1における全体動作を説明するフローチャートである。空中表示装置1の構成は、第1実施形態と同じである。 Figure 28 is a flowchart explaining the overall operation of the aerial display device 1 according to the fourth embodiment of the present invention. The configuration of the aerial display device 1 is the same as that of the first embodiment.
ステップS300~S306の動作は、第1実施形態のステップS100~S106と同じである。 The operations in steps S300 to S306 are the same as those in steps S100 to S106 in the first embodiment.
対象物の位置が画像21の領域に含まれない場合(S305=No)、検知位置判定部60Cは、仮想表示面22上の選択された位置にカーソル23を表示する(ステップS307)。 If the position of the object is not included in the area of the image 21 (S305 = No), the detection position determination unit 60C displays the cursor 23 at the selected position on the virtual display surface 22 (step S307).
図29は、観察者3のタッチ操作を判定する動作を説明する模式図である。図29は、表示素子20の仮想表示面22における座標を示している。表示素子20は、自身の画面に画像21を表示する。 Figure 29 is a schematic diagram illustrating the operation of determining a touch operation by an observer 3. Figure 29 shows coordinates on the virtual display surface 22 of the display element 20. The display element 20 displays an image 21 on its screen.
検知位置判定部60Cは、観察者3により選択された位置が画像21の領域に含まれない場合、表示素子20の仮想表示面22上の観察者3により選択された位置に、カーソル23を表示する。観察者3は、カーソル23を視認することで、空中像2以外の領域をタッチしていることを認識できる。これにより、観察者3の指3Aを空中像2に導くことができる。 When the position selected by the observer 3 is not included in the area of the image 21, the detection position determination unit 60C displays a cursor 23 at the position selected by the observer 3 on the virtual display surface 22 of the display element 20. By visually recognizing the cursor 23, the observer 3 can recognize that he or she is touching an area other than the aerial image 2. This allows the finger 3A of the observer 3 to be guided to the aerial image 2.
第4実施形態は、第2実施形態の表示装置70に適用することも可能である。 The fourth embodiment can also be applied to the display device 70 of the second embodiment.
変形例として、音を用いて、非選択状態であることを観察者3に通知してもよい。検知位置判定部60Cは、観察者3により選択された位置が画像21の領域に含まれない場合、特定の音を出力する。この変形例の場合、空中表示装置1は、音を出力可能なスピーカを備える。これにより、観察者3に空中像2をタッチしていないことを認識させることができる。 As a modified example, the observer 3 may be notified of the non-selected state by using sound. The detection position determination unit 60C outputs a specific sound when the position selected by the observer 3 is not included in the area of the image 21. In this modified example, the aerial display device 1 is equipped with a speaker capable of outputting sound. This allows the observer 3 to recognize that the aerial image 2 is not being touched.
[5] 変形例
上記実施形態では、センシング素子50が静電容量型である場合を例に挙げて説明している。しかし、これに限定されず、空間の物体を検知可能な他の種類のセンシング素子を用いることが可能である。
[5] Modifications In the above embodiment, the sensing element 50 is of a capacitive type. However, the present invention is not limited to this, and other types of sensing elements capable of detecting objects in space can be used.
上記実施形態では、表示素子20と光学素子40とを平行に配置している。しかし、これに限定されず、光学素子40に対して表示素子20を斜めに配置してもよい。表示素子20と光学素子40との角度は、0度より大きく45度より小さい範囲に設定される。この変形例では、光制御素子30を省略できる。 In the above embodiment, the display element 20 and the optical element 40 are arranged parallel to each other. However, this is not limited to the above, and the display element 20 may be arranged diagonally relative to the optical element 40. The angle between the display element 20 and the optical element 40 is set in the range of more than 0 degrees and less than 45 degrees. In this modified example, the light control element 30 can be omitted.
上記実施形態では、光学要素42の左側の側面が入射面43、右側の側面が反射面44として定義している。しかし、これに限定されず、入射面43と反射面44とを逆に構成してもよい。この場合、実施形態で説明した空中表示装置1の作用も左右が逆になる。 In the above embodiment, the left side of the optical element 42 is defined as the incident surface 43, and the right side is defined as the reflective surface 44. However, this is not limited to this, and the incident surface 43 and the reflective surface 44 may be configured in reverse. In this case, the action of the aerial display device 1 described in the embodiment is also reversed.
上記実施形態では、表示素子20として液晶表示素子を例に挙げて説明しているが、これに限定されるものではない。表示素子20は、自発光型である有機EL(electroluminescence)表示素子、又はマイクロLED(Light Emitting Diode)表示素子などを用いることも可能である。マイクロLED表示素子は、画素を構成するR(赤)、G(緑)、B(青)をそれぞれLEDで発光させる表示素子である。自発光型の表示素子20を用いる場合、照明素子10は不要である。 In the above embodiment, a liquid crystal display element is described as an example of the display element 20, but the present invention is not limited to this. The display element 20 may be a self-luminous organic EL (electroluminescence) display element or a micro LED (Light Emitting Diode) display element. A micro LED display element is a display element that uses LEDs to emit the R (red), G (green), and B (blue) that make up a pixel. When a self-luminous display element 20 is used, the illumination element 10 is not necessary.
本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 The present invention is not limited to the above-described embodiments, and can be modified in various ways in the implementation stage without departing from the gist of the invention. The embodiments may also be implemented in appropriate combination, in which case the combined effects can be obtained. Furthermore, the above-described embodiments include various inventions, and various inventions can be extracted by combinations selected from the multiple constituent elements disclosed. For example, if the problem can be solved and an effect can be obtained even if some constituent elements are deleted from all the constituent elements shown in the embodiments, the configuration from which these constituent elements are deleted can be extracted as an invention.
1…空中表示装置、2…空中像、3…観察者、4…筐体、10…照明素子、11…光源部、12…導光板、13…反射シート、20…表示素子、21…画像、22…仮想表示面、23…カーソル、30…光制御素子、31…基材、32…基材、33…透明部材、34…遮光部材、40…光学素子、41…基材、42…光学要素、43…入射面、44…反射面、50…センシング素子、51…基板、52…基板、53…電極、54…電極、55…絶縁層、56…駆動回路、57…検出回路、60…制御部、60A…表示処理部、60B…画像処理部、60C…検知位置判定部、61…記憶部、62…入出力インターフェース、63…表示部、64…入力部、65…バス、70…表示装置、80…基板、81…発光素子、82…受光素子、83…レンズ、84…ケース。
1...Aerial display device, 2...Aerial image, 3...Observer, 4...Housing, 10...Illumination element, 11...Light source unit, 12...Light guide plate, 13...Reflective sheet, 20...Display element, 21...Image, 22...Virtual display surface, 23...Cursor, 30...Light control element, 31...Substrate, 32...Substrate, 33...Transparent member, 34...Light blocking member, 40...Optical element, 41...Substrate, 42...Optical element, 43...Incident surface, 44...Reflective surface, 50...Sensing element, 51...substrate, 52...substrate, 53...electrode, 54...electrode, 55...insulating layer, 56...drive circuit, 57...detection circuit, 60...control unit, 60A...display processing unit, 60B...image processing unit, 60C...detection position determination unit, 61...memory unit, 62...input/output interface, 63...display unit, 64...input unit, 65...bus, 70...display device, 80...substrate, 81...light-emitting element, 82...light-receiving element, 83...lens, 84...case.
Claims (14)
前記表示素子からの光を受けるように配置され、前記表示素子からの光を、前記表示素子と反対側に反射し、空中に空中像を結像する光学素子と、
前記光学素子の上方に、前記表示素子と平行な第1検知領域と、前記第1検知領域と異なるレベルの第2検知領域とを形成し、前記第1及び第2検知領域に存在する対象物を検知するセンシング素子と、
前記第1検知領域における第1検知位置と、前記第2検知領域における第2検知位置とを算出し、前記第1及び第2検知位置に基づいて、前記空中像がタッチされたか否かを判定する判定部と
を具備する空中表示装置。 A display element for displaying an image;
an optical element that is arranged to receive light from the display element, and that reflects the light from the display element to an opposite side to the display element to form an aerial image in the air;
a sensing element that forms a first detection area parallel to the display element and a second detection area at a different level from the first detection area above the optical element, and detects an object present in the first and second detection areas;
a determination unit that calculates a first detection position in the first detection area and a second detection position in the second detection area, and determines whether or not the aerial image has been touched based on the first and second detection positions.
請求項1に記載の空中表示装置。 The aerial display device according to claim 1 , wherein the determination unit determines a direction of movement of the object based on the first and second detection positions, and determines that the aerial image has been touched when the image is present on an extension line of the direction of movement.
請求項1に記載の空中表示装置。 The aerial display device according to claim 1 , wherein the sensing element is of a capacitive type.
前記判定部は、前記検出回路による検出結果と閾値とを比較し、比較結果に応じて前記対象物の位置を判定する
請求項3に記載の空中表示装置。 the sensing element includes a plurality of first electrodes, a plurality of second electrodes arranged opposite to the plurality of first electrodes, a drive circuit that supplies drive signals to the plurality of first electrodes, and a detection circuit that detects voltages of the plurality of second electrodes;
The aerial display device according to claim 3 , wherein the determination unit compares the detection result by the detection circuit with a threshold value, and determines the position of the object based on the comparison result.
前記第1センシング素子及び前記第2センシング素子の各々は、前記検知領域に向けて光を発光する発光部と、前記対象物で反射された反射光を受光する受光部とを含む
請求項1に記載の空中表示装置。 the sensing element includes a first sensing element forming the first sensing area and a second sensing element forming the second sensing area;
The aerial display device according to claim 1 , wherein each of the first sensing element and the second sensing element includes an emitter that emits light toward the detection area and a light receiver that receives reflected light reflected by the object.
前記複数の光学要素の各々は、前記基材の法線方向に対してそれぞれが傾き、互いに接する入射面及び反射面を有する
請求項1に記載の空中表示装置。 The optical element includes a planar substrate and a plurality of optical elements provided under the substrate, each of the optical elements extending in a first direction and aligned in a second direction perpendicular to the first direction;
The aerial display device according to claim 1 , wherein each of the optical elements has an incident surface and a reflecting surface that are inclined with respect to a normal direction of the base material and are in contact with each other.
請求項1に記載の空中表示装置。 The aerial display device according to claim 1 , further comprising a light control element disposed between the display element and the optical element, which transmits oblique light components of the light from the display element.
前記複数の遮光部材は、前記光制御素子の法線に対して傾いている
請求項7に記載の空中表示装置。 The light control element includes a plurality of transparent members and a plurality of light blocking members arranged alternately,
The aerial display device according to claim 7 , wherein the plurality of light-shielding members are inclined with respect to a normal to the light control element.
請求項1に記載の空中表示装置。 The aerial display device according to claim 1 , wherein the display element and the optical element are arranged parallel to each other.
前記表示素子の上方に、前記表示素子と平行な第1検知領域と、前記第1検知領域と異なるレベルの第2検知領域とを形成し、前記第1及び第2検知領域に存在する対象物を検知するセンシング素子と、
前記第1検知領域における第1検知位置と、前記第2検知領域における第2検知位置とを算出し、前記第1及び第2検知位置に基づいて、前記画像がタッチされたか否かを判定する判定部と
を具備する表示装置。 A display element for displaying an image;
a sensing element that forms a first detection area parallel to the display element and a second detection area at a different level from the first detection area above the display element, and detects an object present in the first and second detection areas;
a determination unit that calculates a first detection position in the first detection area and a second detection position in the second detection area, and determines whether or not the image has been touched based on the first and second detection positions.
請求項10に記載の表示装置。 The display device according to claim 10 , wherein the determination unit determines a moving direction in which the object moves based on the first and second detection positions, and determines that the image has been touched when the image is present on an extension line of the moving direction.
請求項10に記載の表示装置。 The display device according to claim 10 , wherein the sensing element is of a capacitive type.
前記判定部は、前記検出回路による検出結果と閾値とを比較し、比較結果に応じて前記対象物の位置を判定する
請求項12に記載の表示装置。 the sensing element includes a plurality of first electrodes, a plurality of second electrodes arranged opposite to the plurality of first electrodes, a drive circuit that supplies drive signals to the plurality of first electrodes, and a detection circuit that detects voltages of the plurality of second electrodes;
The display device according to claim 12 , wherein the determination section compares a detection result by the detection circuit with a threshold value, and determines a position of the object in accordance with a comparison result.
前記第1センシング素子及び前記第2センシング素子の各々は、前記検知領域に向けて光を発光する発光部と、前記対象物で反射された反射光を受光する受光部とを含む
請求項10に記載の表示装置。
the sensing element includes a first sensing element forming the first sensing area and a second sensing element forming the second sensing area;
The display device according to claim 10 , wherein each of the first sensing element and the second sensing element includes a light-emitting portion that emits light toward the detection area and a light-receiving portion that receives light reflected by the object.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023005355A JP2024101393A (en) | 2023-01-17 | 2023-01-17 | Aerial display device and display device |
PCT/JP2024/001161 WO2024154760A1 (en) | 2023-01-17 | 2024-01-17 | Midair display device, and display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023005355A JP2024101393A (en) | 2023-01-17 | 2023-01-17 | Aerial display device and display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024101393A true JP2024101393A (en) | 2024-07-29 |
Family
ID=91956069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023005355A Pending JP2024101393A (en) | 2023-01-17 | 2023-01-17 | Aerial display device and display device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024101393A (en) |
WO (1) | WO2024154760A1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5373229B1 (en) * | 2011-12-16 | 2013-12-18 | オリンパスイメージング株式会社 | IMAGING DEVICE, IMAGING METHOD THEREOF, AND STORAGE MEDIUM FOR STORING TRACKING PROGRAM PROCESSABLE BY COMPUTER |
JP2019101055A (en) * | 2017-11-28 | 2019-06-24 | コニカミノルタ株式会社 | Aerial video display device |
JP7400205B2 (en) * | 2019-04-02 | 2023-12-19 | 船井電機株式会社 | input device |
JP7566428B2 (en) * | 2021-03-26 | 2024-10-15 | アルプスアルパイン株式会社 | Display device |
-
2023
- 2023-01-17 JP JP2023005355A patent/JP2024101393A/en active Pending
-
2024
- 2024-01-17 WO PCT/JP2024/001161 patent/WO2024154760A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024154760A1 (en) | 2024-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6553155B2 (en) | Flat panel display with built-in optical image recognition sensor | |
KR102433505B1 (en) | Display apparatus | |
WO2018188427A1 (en) | Display device and control method therefor | |
US8633918B2 (en) | Method of detecting touch position, touch position detecting apparatus for performing the method and display apparatus having the touch position detecting apparatus | |
US8896576B2 (en) | Touch panel, liquid crystal panel, liquid crystal display device, and touch panel-integrated liquid crystal display device | |
US20110157097A1 (en) | Coordinate sensor, electronic device, display device, light-receiving unit | |
JP6757779B2 (en) | Non-contact input device | |
US20140055418A1 (en) | Touch display panel and optical touch panel thereof | |
TWI496058B (en) | Optical touchscreen | |
KR20170124160A (en) | Flat Panel Display Embedding Optical Imaging Sensor | |
US8916895B2 (en) | Infrared light-emitting diode and touch screen | |
JP2011257337A (en) | Optical position detection device and display device with position detection function | |
KR20170078838A (en) | Non-contact input device and method | |
JP2011257338A (en) | Optical position detection device and display device with position detection function | |
JP2010127671A (en) | Position detector and electro-optical device | |
US8587564B2 (en) | Touch module, display device having the touch module, and method for detecting a touch position of the touch module | |
US20120242623A1 (en) | Touch sensitive device and display device employing the same | |
WO2024154760A1 (en) | Midair display device, and display device | |
CN110955083A (en) | Display device | |
WO2024117075A1 (en) | Aerial display device | |
WO2024096072A1 (en) | Aerial display device | |
WO2024101245A1 (en) | Aerial display device | |
WO2024053253A1 (en) | Aerial display device | |
WO2023136106A1 (en) | Aerial display apparatus | |
WO2024018929A1 (en) | Aerial display device |