JP2023046471A - Aerial image display device - Google Patents

Aerial image display device Download PDF

Info

Publication number
JP2023046471A
JP2023046471A JP2021155083A JP2021155083A JP2023046471A JP 2023046471 A JP2023046471 A JP 2023046471A JP 2021155083 A JP2021155083 A JP 2021155083A JP 2021155083 A JP2021155083 A JP 2021155083A JP 2023046471 A JP2023046471 A JP 2023046471A
Authority
JP
Japan
Prior art keywords
plane
image
image display
button
aerial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021155083A
Other languages
Japanese (ja)
Inventor
英夫 今中
Hideo Imanaka
俊光 ▲瀬▼利
Toshimitsu Seri
航 大神
Wataru Ogami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Engineering Co Ltd
Original Assignee
Mitsubishi Electric Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Engineering Co Ltd filed Critical Mitsubishi Electric Engineering Co Ltd
Priority to JP2021155083A priority Critical patent/JP2023046471A/en
Publication of JP2023046471A publication Critical patent/JP2023046471A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an aerial image display device where it is easy to see which of operation buttons of an aerial image an operation body indicates.SOLUTION: An aerial image display device includes: a video display 3 displaying an operation video on a video display surface 31; an aerial imaging optical system 12 which forms an image of an operation video on an aerial image surface 81 at a plane symmetrical position with respect to a symmetrical surface 41 and displays an aerial image 8; a sensor 6 detecting the position of an operation body 10; and a controller 7 generating data of the operation video displayed on the video display 3 in accordance with an output of the sensor 6. The controller 7 defines a three-dimensional coordinate system with a surface including the aerial image surface 81 as an xy flat surface and with a direction heading for the aerial image surface 81 from the symmetrical surface 41 as a positive direction of a z axis, converts xy coordinates at an operation body position 101 into a corresponding position 32 in the video display surface on the video display surface 31, and performs emphasis processing on a video in an area of an operation button included in a button emphasis region 35 with the position 32 in the video display surface as a center.SELECTED DRAWING: Figure 1

Description

本願は、空中映像表示装置に関するものである。 The present application relates to an aerial image display device.

特殊なメガネが不要で、霧などのスクリーンを使用せずに空中に映像を表示することができる空中映像表示装置が知られている。例えば、空中結像光学系として2面コーナーリフレクタアレイを使用し、映像表示器に表示された映像を2面コーナーリフレクタアレイに対して面対称な位置の空間に結像させて映像を表示する空中映像表示装置において、カメラで検出されたユーザの3次元的な相対位置に応じて映像表示器に表示する映像を変化させることが開示されている(例えば、特許文献1参照)。 An aerial image display device is known that does not require special glasses and can display an image in the air without using a screen such as fog. For example, a dihedral corner reflector array is used as an aerial imaging optical system, and an image displayed on an image display is formed in a space at a plane-symmetrical position with respect to the dihedral corner reflector array. 2. Description of the Related Art In a video display device, it is disclosed that a video displayed on a video display device is changed according to a three-dimensional relative position of a user detected by a camera (see, for example, Patent Document 1).

また、入力面から操作体である指までの距離に応じて、映像表示器に表示するポインタの表現を変化させる映像表示装置が開示されている(例えば、特許文献2参照)。 Further, there is disclosed a video display device that changes the expression of a pointer displayed on a video display device according to the distance from the input surface to the finger, which is the operating body (see, for example, Patent Document 2).

特許第5212991号公報Japanese Patent No. 5212991 特許第5933468号公報Japanese Patent No. 5933468

特許文献1に示された空中映像表示装置において指などの操作体によって操作を行う場合、空中に表示された映像(以下、空中映像と記す)に対して操作を行うことになり、空中映像の位置を示す明確な基準が無いために、操作体が空中映像のどの操作ボタンを指し示しているのかが分かりにくいという課題があった。 When the aerial image display device disclosed in Patent Document 1 is operated with an operating object such as a finger, the operation is performed on an image displayed in the air (hereinafter referred to as an aerial image), and the aerial image is displayed. Since there is no clear standard indicating the position, there is a problem that it is difficult to understand which operation button in the aerial image the operating body is pointing to.

本願は、上述の課題を解決するためになされたものであり、操作体が空中映像のどの操作ボタンを指し示しているのかが分かりやすい空中映像表示装置を提供することを目的とする。 SUMMARY OF THE INVENTION The object of the present application is to provide an aerial image display device that makes it easy to understand which operation button of the aerial image the operator is pointing to.

本願に開示される空中映像表示装置は、映像表示面に操作ボタンを含む操作映像を表示する映像表示器と、操作映像を対称面に対して面対称な位置にある空中映像面に結像させて空中映像を表示させる空中結像光学系と、操作体の位置を検出するセンサと、センサの出力に応じて映像表示器に表示する操作映像のデータを生成する制御器とを備え、制御器は、原点において互いに直交する3軸であるx軸、y軸、z軸によって規定される三次元座標系を、空中映像面を含む面をxy平面とし、対称面から空中映像面に向かう方向をz軸の正方向としてz軸の負方向を含む三次元座標系を定義し、センサの出力から三次元座標系における操作体のxyz座標を操作体位置として求める操作体位置算出部と、操作体位置のxy座標を空中映像面内位置とし、空中映像面内位置を映像表示面の上の対応する位置である映像表示面内位置に変換する面内位置変換部と、映像表示面において、映像表示面内位置を中心とし操作体位置のz座標の絶対値が小さいほど面積が小さなボタン強調領域を設定する強調領域設定部と、映像表示面においてボタン強調領域に含まれた操作ボタンの領域の映像を強調処理した操作映像のデータを生成するボタン強調処理部とを備えたことを特徴とする。 The aerial image display device disclosed in the present application includes an image display device that displays an operation image including operation buttons on an image display surface, and an image of the operation image formed on the aerial image surface positioned symmetrically with respect to the plane of symmetry. an aerial imaging optical system for displaying an aerial image by means of a controller, a sensor for detecting the position of an operating object, and a controller for generating operation image data to be displayed on an image display device according to the output of the sensor is a three-dimensional coordinate system defined by the x-axis, y-axis, and z-axis, which are three axes orthogonal to each other at the origin. an operating body position calculator that defines a three-dimensional coordinate system including the negative direction of the z-axis as the positive direction of the z-axis, and obtains the xyz coordinates of the operating body in the three-dimensional coordinate system from the output of the sensor as the operating body position; an in-plane position conversion unit for converting the aerial image in-plane position into an image display in-plane position corresponding to the position on the image display plane, and An emphasis area setting unit that sets a button emphasis area whose area decreases as the absolute value of the z-coordinate of the operating body position becomes smaller centering on the position in the display screen, and the area of the operation button included in the button emphasis area on the image display screen. and a button enhancement processing unit that generates operation video data obtained by performing enhancement processing on the video.

本願に開示される空中映像表示装置は、映像表示面に操作ボタンを含む操作映像を表示する映像表示器と、操作映像を対称面に対して面対称な位置にある空中映像面に結像させて空中映像を表示させる空中結像光学系と、操作体の位置を検出するセンサと、センサの出力に応じて映像表示器に表示する操作映像のデータを生成する制御器とを備え、制御器は、原点において互いに直交する3軸であるx軸、y軸、z軸によって規定される三次元座標系を、空中映像面を含む面をxy平面とし、対称面から空中映像面に向かう方向をz軸の正方向としてz軸の負方向を含む三次元座標系を定義し、センサの出力から三次元座標系における操作体のxyz座標を操作体位置として求める操作体位置算出部と、操作体位置のxy座標を空中映像面内位置とし、空中映像面内位置を映像表示面の上の対応する位置である映像表示面内位置に変換する面内位置変換部と、映像表示面において、映像表示面内位置を中心とし操作体位置のz座標の絶対値が小さいほど面積が小さなボタン強調領域を設定する強調領域設定部と、映像表示面においてボタン強調領域に含まれた操作ボタンの領域の映像を強調処理した操作映像のデータを生成するボタン強調処理部とを備えたので、操作体が指し示している空中映像の操作ボタンを容易に認識することができる。 The aerial image display device disclosed in the present application includes an image display device that displays an operation image including operation buttons on an image display surface, and an image of the operation image formed on the aerial image surface positioned symmetrically with respect to the plane of symmetry. an aerial imaging optical system for displaying an aerial image by means of a controller, a sensor for detecting the position of an operating object, and a controller for generating operation image data to be displayed on an image display device according to the output of the sensor is a three-dimensional coordinate system defined by the x-axis, y-axis, and z-axis, which are three axes orthogonal to each other at the origin. an operating body position calculation unit that defines a three-dimensional coordinate system including the negative direction of the z-axis as the positive direction of the z-axis and obtains the xyz coordinates of the operating body in the three-dimensional coordinate system as the operating body position from the output of the sensor; an in-plane position conversion unit for converting the aerial image in-plane position into an image display in-plane position corresponding to the position on the image display plane, and An emphasis area setting unit that sets a button emphasis area whose area decreases as the absolute value of the z-coordinate of the operating body position becomes smaller centering on the position in the display screen, and the area of the operation button included in the button emphasis area on the image display screen. Since the button enhancement processing section for generating operation video data obtained by performing image enhancement processing is provided, it is possible to easily recognize the operation button of the aerial image pointed by the operating body.

実施の形態1による空中映像表示装置の模式図である。1 is a schematic diagram of an aerial image display device according to Embodiment 1. FIG. 実施の形態1による空中映像表示装置の別の一例を示す模式図である。4 is a schematic diagram showing another example of the aerial image display device according to Embodiment 1. FIG. 実施の形態1における制御器の構成を示す図である。2 is a diagram showing the configuration of a controller according to Embodiment 1; FIG. 実施の形態1における操作体位置算出部および面内位置変換部の処理を説明するための図である。FIG. 4 is a diagram for explaining processing of an operating body position calculation unit and an in-plane position conversion unit according to Embodiment 1; 実施の形態1における強調領域設定部およびボタン強調処理部の処理を説明するための図である。FIG. 4 is a diagram for explaining processing of an emphasis area setting unit and a button emphasis processing unit according to Embodiment 1; 実施の形態1における強調領域設定部およびボタン強調処理部の処理を説明するための図である。FIG. 4 is a diagram for explaining processing of an emphasis area setting unit and a button emphasis processing unit according to Embodiment 1; 実施の形態1による空中映像表示装置のハードウェアの一例を示す模式図である。2 is a schematic diagram showing an example of hardware of the aerial image display device according to Embodiment 1. FIG.

以下、本願を実施するための実施の形態に係る空中映像表示装置について、図面を参照して詳細に説明する。なお、各図において同一符号は同一もしくは相当部分を示している。 Hereinafter, an aerial image display device according to an embodiment for carrying out the present application will be described in detail with reference to the drawings. In each figure, the same reference numerals denote the same or corresponding parts.

実施の形態1.
図1は、実施の形態1による空中映像表示装置1の模式図である。空中映像表示装置1は、筐体2と、筐体2の内部に配置された映像表示器3と、筐体2の開口部に設けられたビームスプリッタ4と、筐体2の内部に配置された再帰反射シート5と、観察者9が操作する操作体10の位置を検出するセンサ6と、センサ6の出力に応じて映像表示器3に表示する操作映像のデータを生成する制御器7とを備えている。映像表示器3は、操作ボタンを含む操作映像を表示する。図1においては、操作体10は、観察者9の指として示している。映像表示器3は、例えばディスプレイであり、静止画あるいは動画などの操作映像を表示する。
Embodiment 1.
FIG. 1 is a schematic diagram of an aerial image display device 1 according to Embodiment 1. FIG. The aerial image display device 1 includes a housing 2, an image display 3 arranged inside the housing 2, a beam splitter 4 provided at an opening of the housing 2, and a beam splitter 4 arranged inside the housing 2. a retroreflective sheet 5, a sensor 6 for detecting the position of an operating tool 10 operated by an observer 9, and a controller 7 for generating operation image data to be displayed on the image display 3 according to the output of the sensor 6. It has The image display 3 displays an operation image including operation buttons. In FIG. 1 , the operating body 10 is shown as the finger of the observer 9 . The image display device 3 is, for example, a display, and displays operation images such as still images or moving images.

映像表示器3から出射された光はビームスプリッタ4に入射し、その一部が反射されて再帰反射シート5に入射する。ビームスプリッタ4は、入射された光の一部を反射するとともに、入射された光の一部を透過するものである。再帰反射シート5は、入射された光を入射方向へ反射する特性を有している。再帰反射シート5は、ビームスプリッタ4から入射した光をビームスプリッタ4に向かって反射させる。再帰反射シート5からビームスプリッタ4に向かって反射された光は、一部がビームスプリッタ4を透過する。このようにして、映像表示器3から出射された光は、ビームスプリッタ4を透過して筐体2の外側で結像され、空中映像8となる。観察者9は、この空中映像8を観察することができる。図1に示す空中映像表示装置1おいては、ビームスプリッタ4の表面が対称面41となり、再帰反射シート5およびビームスプリッタ4が映像表示器3の映像表示面31に表示された操作映像を対称面41に対して面対称な位置に結像させて空中映像面81に空中映像8を表示させる空中結像光学系12を構成している。 Light emitted from the image display device 3 is incident on the beam splitter 4 , part of which is reflected and is incident on the retroreflective sheet 5 . The beam splitter 4 reflects part of the incident light and transmits part of the incident light. The retroreflective sheet 5 has the property of reflecting incident light in the direction of incidence. The retroreflective sheet 5 reflects the light incident from the beam splitter 4 toward the beam splitter 4 . Part of the light reflected from the retroreflective sheet 5 toward the beam splitter 4 is transmitted through the beam splitter 4 . In this way, the light emitted from the image display device 3 passes through the beam splitter 4 and forms an image outside the housing 2 to form an aerial image 8 . An observer 9 can observe this aerial image 8 . In the aerial image display device 1 shown in FIG. 1, the surface of the beam splitter 4 is the plane of symmetry 41, and the retroreflective sheet 5 and the beam splitter 4 are symmetrical with respect to the operation image displayed on the image display surface 31 of the image display 3. An aerial imaging optical system 12 is configured to form an image at a plane-symmetrical position with respect to the surface 41 and display the aerial image 8 on the aerial image plane 81 .

空中映像表示装置1では、操作ボタンが配置された操作画面が空中映像8に示され、観察者9が空中映像8に示された操作ボタンの上に操作体10である指を置くことにより、操作を行う。 In the aerial image display device 1, an operation screen on which operation buttons are arranged is displayed in the aerial image 8, and when the observer 9 puts his or her finger, which is the operating body 10, on the operation button shown in the aerial image 8, perform an operation.

図2は、実施の形態1による空中映像表示装置の別の一例を示す模式図である。図2に示す空中映像表示装置1aを図1に示す空中映像表示装置1と比較すると、空中結像光学系12が、再帰反射シート5およびビームスプリッタ4から面対称結像光学素子11になっている。空中映像表示装置1aの他の構成は、空中映像表示装置1と同じである。 FIG. 2 is a schematic diagram showing another example of the aerial image display device according to the first embodiment. Comparing the aerial image display device 1a shown in FIG. 2 with the aerial image display device 1 shown in FIG. there is Other configurations of the aerial image display device 1 a are the same as those of the aerial image display device 1 .

面対称結像光学素子11は、映像表示器3に表示された操作映像を対称面111に対して面対称な位置に結像させて空中映像8を表示させる空中結像光学系12であり、映像表示器3から面対称結像光学素子11に入射した光が、対称面111の平面内において再帰反射となり、対称面111の法線方向において透過するものである。面対称結像光学素子11は、例えば、2つの鏡面を互いに垂直に組み合わせたものであり、二面コーナーリフレクタアレイあるいは2面直交リフレクタと呼ばれるものがある。 The plane-symmetrical imaging optical element 11 is an aerial imaging optical system 12 that forms an image of the operation image displayed on the image display device 3 at a plane-symmetrical position with respect to the plane of symmetry 111 to display the aerial image 8. Light incident on the plane-symmetric imaging optical element 11 from the image display device 3 is retroreflected in the plane of the plane of symmetry 111 and is transmitted in the normal direction of the plane of symmetry 111 . The plane-symmetrical imaging optical element 11 is, for example, a combination of two mirror surfaces perpendicular to each other, and is called a dihedral corner reflector array or a dihedral orthogonal reflector.

実施の形態1による空中映像表示装置においては、空中結像光学系12は、映像表示器3に表示された操作映像を対称面に対して面対称な位置に結像させて空中映像8を表示させるものであればどのようなものでも構わない。以下においては、空中結像光学系12として再帰反射シート5およびビームスプリッタ4を用いた図1に示す空中映像表示装置1の動作を説明する。 In the aerial image display device according to Embodiment 1, the aerial imaging optical system 12 forms the operation image displayed on the image display device 3 at a position symmetrical with respect to the plane of symmetry to display the aerial image 8. Anything will do as long as it makes it possible. The operation of the aerial image display apparatus 1 shown in FIG. 1 using the retroreflective sheet 5 and the beam splitter 4 as the aerial imaging optical system 12 will be described below.

センサ6は、操作体10の位置を検出するものであり、例えば、空間領域内の物体の位置を検出する三次元距離センサである。三次元距離センサとしては、例えば、ToFセンサ(Time of Flight Sensor)である。ToFセンサによって検出した距離データから、センサ6から見える範囲の物体までの距離が分かり、物体の形状が分かるため、操作体10の位置および方向を求めることができる。センサ6は、例えば、ステレオカメラでもよい。ステレオカメラを用いることにより、操作体10を画像認識によって検出し、操作体10の位置を検出することができる。操作体10が指であれば、センサ6は、例えば、通常のカメラと赤外線距離センサを組み合わせたものでもよい。通常のカメラによって取得した画像情報から画像認識によって指を検出し、赤外線距離センサによってセンサ6から指までの距離を測定し、最終的に指の位置を求めてもよい。 The sensor 6 detects the position of the operating tool 10, and is, for example, a three-dimensional distance sensor that detects the position of an object within a spatial domain. A three-dimensional distance sensor is, for example, a ToF sensor (Time of Flight Sensor). From the distance data detected by the ToF sensor, the distance to the object within the range visible from the sensor 6 is known, and the shape of the object is known. Sensor 6 may be, for example, a stereo camera. By using a stereo camera, it is possible to detect the operating body 10 by image recognition and detect the position of the operating body 10 . If the operating body 10 is a finger, the sensor 6 may be, for example, a combination of a normal camera and an infrared distance sensor. The finger may be detected by image recognition from image information obtained by a normal camera, the distance from the sensor 6 to the finger may be measured by an infrared distance sensor, and the position of the finger may be finally determined.

次に、制御器7の動作について説明する。図3は、実施の形態1における制御器7の構成を示す図である。制御器7は、操作体位置算出部71、面内位置変換部72、強調領域設定部73およびボタン強調処理部74を備えている。 Next, operation of the controller 7 will be described. FIG. 3 shows a configuration of controller 7 according to the first embodiment. The controller 7 includes an operating body position calculation unit 71 , an in-plane position conversion unit 72 , an emphasis area setting unit 73 and a button emphasis processing unit 74 .

図4は、実施の形態1における操作体位置算出部71および面内位置変換部72の処理を説明するための図である。図4の左の図は、原点において互いに直交する3軸であるx軸、y軸、z軸によって規定される三次元座標系を示しており、空中映像面81を含む面をxy平面として、図1に示す対称面41から空中映像面81に向かう方向をz軸の正方向としてz軸の負方向を含む三次元座標系を定義している。図1に示すように、y軸は、例えば、観察者9から空中映像8を見たときの上下方向であり、観察者9から見た上方向を正方向とする。x軸は、例えば、観察者9から空中映像8を見たときの左右方向であり、観察者から見た右方向を正方向とする。z軸は、xy平面に垂直な軸であり、対称面41から空中映像面81に向かう方向、すなわち、空中映像8から観察者9に向かう方向を正方向とする。なお、三次元座標系における原点は、空中映像面81を含む面の上にあればどこにあっても構わない。 FIG. 4 is a diagram for explaining the processing of the operating body position calculator 71 and the in-plane position converter 72 according to the first embodiment. The diagram on the left in FIG. 4 shows a three-dimensional coordinate system defined by the x-axis, y-axis, and z-axis, which are three axes orthogonal to each other at the origin. A three-dimensional coordinate system including the negative direction of the z-axis is defined with the direction from the plane of symmetry 41 shown in FIG. 1 toward the aerial image plane 81 being the positive direction of the z-axis. As shown in FIG. 1, the y-axis is, for example, the vertical direction when the aerial image 8 is viewed by the observer 9, and the upward direction as viewed by the observer 9 is the positive direction. The x-axis is, for example, the horizontal direction when the aerial image 8 is viewed by the observer 9, and the right direction as viewed by the observer is the positive direction. The z-axis is an axis perpendicular to the xy plane, and the direction from the plane of symmetry 41 to the aerial image plane 81, that is, the direction from the aerial image 8 to the observer 9 is the positive direction. The origin of the three-dimensional coordinate system may be anywhere as long as it is on the plane including the aerial image plane 81 .

操作体位置算出部71は、センサ6の出力から、空中映像面81に対する操作体10の位置、すなわち、三次元座標系における操作体10のxyz座標を操作体位置101として求めて、面内位置変換部72に出力する。図4の左の図においては、操作体10において空中映像面81に最も近い位置を操作体位置101としており、操作体位置101のxyz座標は(x0、y0、z0)である。操作体位置101は、操作体10の位置を示すものであればよく、操作体10が指である場合は指先の位置を検出して操作体位置101としてもよい。操作体10は、空中映像表示装置1を操作するものであればよく、例えば、ペンなどでもよい。操作体10がペンのときは、例えば、操作体位置101としてペン先の位置を検出してもよい。 The operating body position calculation unit 71 obtains the position of the operating body 10 with respect to the aerial image plane 81 from the output of the sensor 6, that is, the xyz coordinates of the operating body 10 in the three-dimensional coordinate system as the operating body position 101, and calculates the in-plane position. Output to the conversion unit 72 . In the left diagram of FIG. 4, the position of the operating tool 10 closest to the aerial image plane 81 is the operating tool position 101, and the xyz coordinates of the operating tool position 101 are (x0, y0, z0). The operating body position 101 may indicate the position of the operating body 10, and if the operating body 10 is a finger, the position of the fingertip may be detected and used as the operating body position 101. FIG. The operation body 10 may be anything that operates the aerial image display device 1, and may be, for example, a pen. When the operating body 10 is a pen, for example, the position of the tip of the pen may be detected as the operating body position 101 .

面内位置変換部72は、操作体位置101のxy座標を空中映像面内位置82とし、空中映像面内位置82を映像表示面31の上の対応する位置である映像表示面内位置32に変換する。面内位置変換部72は、最初に、操作体位置101から空中映像面81に下した垂線が空中映像面81に交わる位置、すなわち、操作体位置101のxy座標を空中映像面内位置82として求める。図4の左の図においては、操作体位置101のxyz座標が(x0、y0、z0)であることから、空中映像面内位置82は(x0、y0)となる。 The in-plane position conversion unit 72 converts the xy coordinates of the operating body position 101 into an aerial image in-plane position 82 , and converts the aerial image in-plane position 82 into an image display in-plane position 32 which is the corresponding position on the image display plane 31 . Convert. First, the in-plane position conversion unit 72 sets the position at which the vertical line drawn from the operating body position 101 to the aerial image plane 81 intersects the aerial image plane 81, that is, the xy coordinates of the operating body position 101 as the aerial image in-plane position 82. demand. In the left diagram of FIG. 4, since the xyz coordinates of the operating body position 101 are (x0, y0, z0), the aerial image plane position 82 is (x0, y0).

次に、面内位置変換部72は、空中映像面内位置82を、映像表示面31の上の対応する位置である映像表示面内位置32に変換する。図4の右の図は、映像表示面31の上の位置を説明するためのものであり、例えば、Y軸は映像表示面31の上下方向であり、X軸は映像表示面31の左右方向である。面内位置変換部72は、図4の左の図において(x0、y0)にある空中映像面内位置82を、図4の右の図における映像表示面31の上の対応する位置(X0、Y0)にある映像表示面内位置32に変換する。図1に示すように、映像表示器3から空中映像8までの光路において空中結像光学系12のみが存在する場合は、X0=x0、Y0=y0であるが、映像表示器3から空中映像8までの光路において空中結像光学系12以外の光学的処理を行うものがある場合は、映像表示器3から空中映像8までの光路における光学的処理に応じて(x0、y0)を(X0、Y0)に変換する。例えば、映像表示器3から空中映像8までの光路において拡大処理が行われている場合は、(x0、y0)を(X0、Y0)に変換するときに拡大処理の拡大率に応じた縮小処理を行う。 Next, the in-plane position conversion unit 72 converts the aerial image in-plane position 82 to the image display in-plane position 32 that is the corresponding position on the image display plane 31 . The right diagram of FIG. 4 is for explaining the position on the image display surface 31. For example, the Y axis is the vertical direction of the image display surface 31, and the X axis is the horizontal direction of the image display surface 31. is. The in-plane position conversion unit 72 converts the aerial image in-plane position 82 at (x0, y0) in the left diagram of FIG. Y0) is converted to the position 32 in the image display plane. As shown in FIG. 1, when only the aerial imaging optical system 12 exists in the optical path from the image display 3 to the aerial image 8, X0=x0 and Y0=y0. 8, if there is an optical process other than the aerial imaging optical system 12 in the optical path up to 8, (x0, y0) is changed to (X0 , Y0). For example, if the optical path from the image display device 3 to the aerial image 8 is subjected to enlargement processing, when (x0, y0) is converted to (X0, Y0), reduction processing according to the enlargement ratio of the enlargement processing is performed. I do.

強調領域設定部73は、操作体位置算出部71の出力である操作体位置101の情報と、面内位置変換部72の出力である映像表示面内位置32の情報とから、映像表示面31において、映像表示面内位置32を中心とし操作体位置101のz座標の絶対値が小さいほど面積が小さなボタン強調領域35を設定し、ボタン強調領域35の情報をボタン強調処理部74に出力する。図5は、強調領域設定部73およびボタン強調処理部74の処理を説明するための図である。図5は、図4の右側の図に対応するものであり、XY座標系の映像表示面31における操作映像33の様子を示している。図5の例においては、操作映像33は数字が示された4つの操作ボタン34を含んでいる。強調領域設定部73は、映像表示面31において、ボタン強調領域35を設定する。このとき、ボタン強調領域35の中心は映像表示面内位置32であり、操作体位置101のz座標の絶対値が小さいほどボタン強調領域35の面積を小さくする。図5に示す例では、ボタン強調領域35の形は円であり、操作体位置101のz座標の絶対値が小さいほどボタン強調領域35の円の半径が小さくなるものとしている。ボタン強調領域35の形はどのようなものでもよく、例えば、ボタン強調領域35の幾何中心をボタン強調領域35の中心とすればよい。 The emphasis area setting unit 73 uses the information on the operating tool position 101 output from the operating tool position calculating unit 71 and the information on the in-screen position 32 output from the in-plane position converting unit 72 to set the image display surface 31 , the button emphasis area 35 is set so that the smaller the absolute value of the z-coordinate of the operating tool position 101 is, the smaller the area of the button emphasis area 35 is, centering on the image display in-plane position 32 , and the information of the button emphasis area 35 is output to the button emphasis processing unit 74 . . FIG. 5 is a diagram for explaining the processing of the emphasis area setting section 73 and the button emphasis processing section 74. As shown in FIG. FIG. 5 corresponds to the diagram on the right side of FIG. 4, and shows the operation image 33 on the image display screen 31 in the XY coordinate system. In the example of FIG. 5, the operation image 33 includes four operation buttons 34 indicated by numbers. Emphasis area setting unit 73 sets button emphasis area 35 on image display screen 31 . At this time, the center of the button emphasis area 35 is the position 32 in the image display plane, and the area of the button emphasis area 35 is made smaller as the absolute value of the z-coordinate of the operating body position 101 is smaller. In the example shown in FIG. 5, the shape of the button emphasis area 35 is a circle, and the radius of the circle of the button emphasis area 35 decreases as the absolute value of the z-coordinate of the operating body position 101 decreases. The button enhancement area 35 may have any shape, and for example, the geometric center of the button enhancement area 35 may be the center of the button enhancement area 35 .

ボタン強調処理部74は、強調領域設定部73の出力であるボタン強調領域35の情報を用いて、映像表示面31においてボタン強調領域35に含まれた操作ボタン34の領域の映像を強調処理した操作映像のデータを生成し、操作映像のデータを映像表示器3に出力する。ボタン強調処理部74は、図5に示すように、映像表示面31においてボタン強調領域35に含まれた4つの操作ボタン34の領域のそれぞれにおいて、操作ボタン34の映像の強調処理を行う。操作ボタン34の全体がボタン強調領域に含まれた場合は、操作ボタン34の全体の映像の強調処理を行う。図5に示す例では、ボタン強調領域35に含まれた操作ボタン34の領域において、ドットの密度を上げ、輪郭を太くする処理が行われている。図5に示されたような、強調処理が行われた操作ボタン34が含まれる操作映像のデータが生成され、生成された操作映像のデータが映像表示器3に出力される。なお、図5に示した例では、映像表示面内位置32の位置を示す点とボタン強調領域35の外周を示す線が操作映像に重畳されているが、これらの点あるいは線は、操作映像に重畳されなくてもよい。映像表示面内位置32の位置を示す点とボタン強調領域35の外周を示す線が操作映像に重畳されることにより、観察者9は操作体10が指し示している場所をより明確に認識することができる。 The button emphasis processing unit 74 emphasizes the image of the operation button 34 area included in the button emphasis area 35 on the image display screen 31 using the information of the button emphasis area 35 output from the emphasis area setting unit 73. It generates operation image data and outputs the operation image data to the image display device 3 . As shown in FIG. 5, the button enhancement processing unit 74 performs enhancement processing of the image of the operation button 34 in each of the four operation button 34 areas included in the button enhancement area 35 on the image display screen 31 . When the entire operation button 34 is included in the button highlighting area, the image of the entire operation button 34 is emphasized. In the example shown in FIG. 5, in the area of the operation button 34 included in the button emphasis area 35, processing is performed to increase the dot density and thicken the outline. Data of an operation image including the operation button 34 subjected to the enhancement process as shown in FIG. In the example shown in FIG. 5, a point indicating the position of the image display screen position 32 and a line indicating the outer periphery of the button emphasis area 35 are superimposed on the operation image. may not be superimposed on A point indicating the position 32 in the image display plane and a line indicating the outer periphery of the button emphasis region 35 are superimposed on the operation image, so that the observer 9 can more clearly recognize the location pointed by the operating body 10. can be done.

図6は、強調領域設定部73およびボタン強調処理部74の処理を説明するための図である。図6においては、左から右に向かって、操作体10の操作体位置101が空中映像8の空中映像面81に向かって近づき、最後に操作体位置101が空中映像面81を通過したときの様子を示している。図6の上側の5つの図は、図4の左側に示した三次元座標系においてy軸の負方向から正方向に向かって見たときの様子を示しており、x軸と空中映像面81が重なるためにx軸を省略している。図6の下側の5つの図は、図4の右側に示したXY座標系における映像表示面31に表示される操作映像の様子を示しており、操作ボタンが強調処理された様子を示している。また、例えば、左上の図において操作体位置101のz座標がz1のときは、左下の図のように映像表示面31にボタン強調領域35aが設定されていることを示している。 FIG. 6 is a diagram for explaining the processing of the emphasis area setting section 73 and the button emphasis processing section 74. As shown in FIG. 6, from left to right, the operating body position 101 of the operating body 10 approaches the aerial image plane 81 of the aerial image 8, and finally the operating body position 101 passes through the aerial image plane 81. showing the situation. The upper five diagrams in FIG. 6 show the state of the three-dimensional coordinate system shown in the left side of FIG. The x-axis is omitted due to overlap. 6 show operation images displayed on the image display screen 31 in the XY coordinate system shown on the right side of FIG. there is Also, for example, when the z-coordinate of the operating body position 101 is z1 in the upper left diagram, it indicates that the button emphasis area 35a is set on the image display screen 31 as shown in the lower left diagram.

強調領域設定部73は、操作体位置101のz座標の絶対値が小さいほど面積が小さなボタン強調領域を設定する。図6に示した例では、操作体位置101のz座標がz1のときのボタン強調領域35aと操作体位置101のz座標がz2のときのボタン強調領域35bとを比べると、z2の絶対値がz1の絶対値よりも小さいため、ボタン強調領域35bの面積がボタン強調領域35aの面積よりも小さくなっている。さらに、ボタン強調処理部74は、ボタン強調領域に含まれた操作ボタン34の領域の映像を強調処理する。図6に示す例では、ボタン強調領域に含まれた操作ボタン34の領域のドットの密度を他の領域よりも高くし、ボタン強調領域に含まれた操作ボタン34の領域の輪郭を他の領域よりも太くしている。さらに、図6に示す例では、操作体位置101のz座標の絶対値が小さくなるほど、ボタン強調領域に含まれた操作ボタン34の領域のドットの密度を高くしている。さらに、図6の左から3番目に示した操作体位置101のz座標がゼロとなっている例では、ボタン強調領域35cの面積が、ボタン強調領域35aの面積およびボタン強調領域35bの面積と比べてさらに小さくなっている。このように、操作体位置101のz座標の絶対値が小さいほど面積が小さなボタン強調領域を設定することにより、観察者9は操作体10である指が空中映像面81に近づいていることを認識することができる。また、操作体位置101のz座標の絶対値が小さいほど面積が小さなボタン強調領域を設定することにより、観察者9は、操作体10である指が空中映像面81から遠いときには指し示している場所がおおよそ分かり、操作体10である指が空中映像面81から近づいたときには操作体10である指で指し示している場所をより正確に知ることができる。 The emphasis area setting unit 73 sets a button emphasis area having a smaller area as the absolute value of the z-coordinate of the operating body position 101 is smaller. In the example shown in FIG. 6, comparing the button enhancement region 35a when the z-coordinate of the operating body position 101 is z1 and the button enhancement region 35b when the z-coordinate of the operating body position 101 is z2, the absolute value of z2 is is smaller than the absolute value of z1, the area of the button emphasis area 35b is smaller than the area of the button emphasis area 35a. Further, the button emphasis processing unit 74 performs the emphasis process on the image of the region of the operation button 34 included in the button emphasis region. In the example shown in FIG. 6, the dot density of the area of the operation button 34 included in the button emphasis area is set higher than that of the other areas, and the contour of the area of the operation button 34 included in the button emphasis area is set to be higher than that of the other areas. thicker than Furthermore, in the example shown in FIG. 6, the smaller the absolute value of the z-coordinate of the operating body position 101, the higher the density of dots in the area of the operation button 34 included in the button emphasis area. Furthermore, in the third example from the left in FIG. 6 in which the z-coordinate of the operating body position 101 is zero, the area of the button enhancement region 35c is the same as the area of the button enhancement regions 35a and 35b. It is even smaller in comparison. In this way, by setting a button emphasis region having a smaller area as the absolute value of the z-coordinate of the operating body position 101 becomes smaller, the observer 9 can perceive that the finger, which is the operating body 10, is approaching the aerial image plane 81. can recognize. In addition, by setting a button emphasis region having a smaller area as the absolute value of the z-coordinate of the operating body position 101 becomes smaller, the observer 9 can see the pointing position when the finger as the operating body 10 is farther from the aerial image plane 81 . , and when the finger, which is the operating body 10, approaches from the aerial image plane 81, the location pointed by the finger, which is the operating body 10, can be known more accurately.

図6では、ボタン強調領域に含まれた操作ボタン34の領域のドットの密度を他の領域よりも高くし、ボタン強調領域に含まれた操作ボタン34の領域の輪郭を他の領域よりも太くしているが、ボタン強調領域に含まれた操作ボタン34の領域の映像の強調処理はこれに限るものではなく、例えば、明度を上げる処理、輝度を上げる処理、彩度を上げる処理、背景に対する透過率を下げる処理、背景とのコントラストを上げる処理、操作ボタンの大きさを大きくする処理、操作ボタンに輪郭を付ける処理、操作ボタンの輪郭を太くする処理、操作ボタンの輪郭の色を濃くする処理、色相を変える処理およびドットの密度を高くする処理の少なくとも1つを含むものであってもよい。背景とのコントラストを上げる処理は、例えば、背景との色の差異を大きくする処理、あるいは、背景との輝度の差異を大きくする処理であり、操作ボタンの存在をより強く認識することができる。 In FIG. 6, the density of dots in the area of the operation button 34 included in the button emphasis area is set higher than that of other areas, and the outline of the area of the operation button 34 included in the button emphasis area is set thicker than the other areas. However, the image enhancement processing of the region of the operation button 34 included in the button enhancement region is not limited to this. Processing to reduce transparency, processing to increase contrast with the background, processing to increase the size of operation buttons, processing to add outlines to operation buttons, processing to thicken outlines of operation buttons, darken outline colors of operation buttons At least one of processing, processing for changing hue, and processing for increasing dot density may be included. The process of increasing the contrast with the background is, for example, the process of increasing the difference in color from the background or the process of increasing the difference in luminance from the background, so that the presence of the operation button can be more strongly recognized.

また、図6の左から4番目に示した操作体位置101のz座標がゼロとなっている例では、映像表示面内位置32が含まれた操作ボタンの全体の枠を太くすることにより、映像表示面内位置32が含まれた操作ボタンの全体の映像を強調処理している。このように、操作体位置101のz座標がゼロのときに、映像表示面内位置32が含まれた操作ボタンの全体の領域の映像を強調処理することにより、観察者9は操作体10である指が空中映像面81の平面上にあることを知ることができる。あるいは、操作体位置101のz座標の絶対値があらかじめ定められたしきい値よりも小さいときに、映像表示面内位置32が含まれた操作ボタンの全体の領域の映像を強調処理してもよい。 Further, in the example shown in the fourth from the left in FIG. 6 where the z-coordinate of the operating body position 101 is zero, by thickening the frame of the entire operation button including the image display in-plane position 32, The entire image of the operation button including the position 32 within the image display plane is emphasized. In this way, when the z-coordinate of the operating body position 101 is zero, the image of the entire area of the operating button including the image display in-plane position 32 is emphasized, so that the observer 9 can move the operating body 10 It can be seen that a certain finger is on the plane of the aerial image plane 81 . Alternatively, when the absolute value of the z-coordinate of the operating body position 101 is smaller than a predetermined threshold value, the image of the entire area of the operation button including the image display in-plane position 32 may be emphasized. good.

図6の最も右側に示した例では、操作体10の操作体位置101が空中映像面81を通過して、操作体位置101が空中映像面81と対称面41の間にあるため、操作体位置101のz座標が負の値であるz3となっている。このときのボタン強調領域35dは、例えば、操作体位置101のz座標が正の値のときと同様に、操作体位置101のz座標の値の絶対値が小さいほど面積が小さなボタン強調領域を設定すればよい。これにより、操作体位置101が空中映像面81を通過して空中映像面81から遠ざかったときに、観察者9は操作体10である指が空中映像面81から遠ざかったことを認識することができる。また、図5の左から右に向かって示すように、操作体10の操作体位置101が空中映像面81に近づいてさらに通過したときに、ボタン強調領域が徐々に小さくなった後に再び大きくなるので、観察者9は操作体位置101が空中映像面81を通過したことを認識することができる。 In the example shown on the rightmost side of FIG. The z-coordinate of position 101 is z3, which is a negative value. At this time, the button emphasis region 35d has a smaller area as the absolute value of the z coordinate of the operating body position 101 becomes smaller, for example, similarly to when the z coordinate of the operating body position 101 has a positive value. You can set it. As a result, when the operating body position 101 passes through the aerial image plane 81 and moves away from the aerial image plane 81, the observer 9 can recognize that the finger, which is the operating body 10, has moved away from the aerial image plane 81. can. Further, as shown from left to right in FIG. 5, when the operating body position 101 of the operating body 10 approaches and passes through the aerial image plane 81, the button emphasis area gradually becomes smaller and then becomes larger again. Therefore, the observer 9 can recognize that the operating body position 101 has passed through the aerial image plane 81 .

さらに、強調領域設定部73は、操作体位置101のz座標が正の値のときの強調処理と操作体位置101のz座標が負の値のときの強調処理とを異なるものとしてもよい。例えば、操作体位置101のz座標が負の値のときに、操作体位置101のz座標が負の値のときと比べて、ボタン強調領域に含まれた操作ボタンの領域の映像に対して色相を変えてもよい。操作体位置101のz座標が正の値のときの強調処理と操作体位置101のz座標が負の値のときの強調処理とが異なることにより、観察者9は操作体位置101が空中映像面81を通過したことを強く認識することができる。 Furthermore, the emphasis region setting unit 73 may perform different emphasis processing when the z-coordinate of the operating body position 101 has a positive value and emphasis processing when the z-coordinate of the operating body position 101 has a negative value. For example, when the z-coordinate of the operating body position 101 is a negative value, compared to when the z-coordinate of the operating body position 101 is a negative value, the image of the region of the operation button included in the button emphasis region You can change the hue. The emphasis processing when the z-coordinate of the operating body position 101 has a positive value is different from the emphasis processing when the z-coordinate of the operating body position 101 has a negative value. Passing through the surface 81 can be strongly recognized.

ボタン強調処理部74において生成された操作映像のデータは、映像表示器3に出力され、映像表示器3の映像表示面31に操作映像が表示され、図6の下の列に示されたような映像が空中映像8として観測することができる。 The operation image data generated by the button emphasis processing unit 74 is output to the image display device 3, and the operation image is displayed on the image display screen 31 of the image display device 3 as shown in the lower row of FIG. can be observed as an aerial image 8.

以上のように、実施の形態1による空中映像表示装置1は、映像表示面31に操作ボタン34を含む操作映像を表示する映像表示器3と、操作映像を対称面41に対して面対称な位置にある空中映像面81に結像させて空中映像8を表示させる空中結像光学系12と、操作体10の位置を検出するセンサ6と、センサ6の出力に応じて映像表示器3に表示する操作映像のデータを生成する制御器7とを備え、制御器7は、原点において互いに直交する3軸であるx軸、y軸、z軸によって規定される三次元座標系を、空中映像面81を含む面をxy平面とし、対称面41から空中映像面81に向かう方向をz軸の正方向としてz軸の負方向を含む三次元座標系を定義し、センサ6の出力から三次元座標系における操作体10のxyz座標を操作体位置101として求める操作体位置算出部71と、操作体位置101のxy座標を空中映像面内位置82とし、空中映像面内位置82を映像表示面31の上の対応する位置である映像表示面内位置32に変換する面内位置変換部72と、映像表示面31において、映像表示面内位置32を中心とし操作体位置101のz座標の絶対値が小さいほど面積が小さなボタン強調領域35を設定する強調領域設定部73と、映像表示面31においてボタン強調領域35に含まれた操作ボタン34の領域の映像を強調処理した操作映像のデータを生成するボタン強調処理部74とを備えたので、操作体10が指し示している空中映像8の操作ボタンを容易に認識することができる。 As described above, the aerial image display device 1 according to Embodiment 1 includes the image display device 3 that displays the operation image including the operation button 34 on the image display surface 31 and the operation image that is symmetrical with respect to the plane of symmetry 41 . an aerial image forming optical system 12 for forming an image on an aerial image plane 81 at a position to display an aerial image 8; a sensor 6 for detecting the position of the operating body 10; and a controller 7 for generating data of an operation image to be displayed. The controller 7 defines a three-dimensional coordinate system defined by x-axis, y-axis, and z-axis, which are three axes orthogonal to each other at the origin, to the aerial image. A three-dimensional coordinate system including the negative direction of the z-axis is defined by defining a plane including the surface 81 as the xy plane and the direction from the plane of symmetry 41 to the aerial image plane 81 as the positive direction of the z-axis. An operating body position calculation unit 71 that obtains the xyz coordinates of the operating body 10 in the coordinate system as the operating body position 101, the xy coordinates of the operating body position 101 as the aerial image plane position 82, and the aerial image plane position 82 as the image display plane. and an in-plane position conversion unit 72 that converts the image display in-plane position 32 to a corresponding position on the image display plane 31. On the image display plane 31, the absolute z coordinate of the operating body position 101 centered on the image display in-plane position 32 is determined. The emphasis area setting unit 73 sets the button emphasis area 35 having a smaller area as the value is smaller, and the data of the operation image obtained by emphasizing the image of the operation button 34 area included in the button emphasis area 35 on the image display screen 31. Since the generated button emphasis processing unit 74 is provided, the operation button of the aerial image 8 pointed by the operating body 10 can be easily recognized.

図7は、実施の形態1による空中映像表示装置のハードウェアの一例を示す模式図である。制御器7は、メモリ202に記憶されたプログラムを実行するCPU(Central Processing Unit)等のプロセッサ201によって実現される。メモリ202は、プロセッサ201が実行する各処理における一時記憶装置としても使用される。また、複数の処理回路が連携して上記機能を実行してもよい。さらに、専用のハードウェアによって上記機能を実現してもよい。専用のハードウェアによって上記機能を実現する場合は、専用のハードウェアは、例えば、単一回路、複合回路、プログラム化されたプロセッサ、ASIC、FPGA、あるいは、これらを組み合わせたものである。上記機能は、専用ハードウェアとソフトウェアとの組み合わせ、あるいは、専用ハードウェアとファームウェアとの組み合わせによって実現してもよい。メモリ202は、例えば、RAM、ROM、フラッシュメモリ、EPROMなどの不揮発性または揮発性の半導体メモリ、磁気ディスク、光ディスク、または、これらを組み合わせたものである。プロセッサ201、メモリ202、センサ6および映像表示器3は、互いにバス接続されている。空中結像光学系12は、空中映像表示装置の一部を構成するものである。 FIG. 7 is a schematic diagram showing an example of hardware of the aerial image display device according to the first embodiment. The controller 7 is implemented by a processor 201 such as a CPU (Central Processing Unit) that executes programs stored in a memory 202 . The memory 202 is also used as a temporary storage device for each process executed by the processor 201 . Also, a plurality of processing circuits may work together to perform the functions described above. Furthermore, the above functions may be realized by dedicated hardware. Where dedicated hardware implements the above functions, the dedicated hardware may be, for example, a single circuit, multiple circuits, a programmed processor, an ASIC, an FPGA, or a combination thereof. The above functions may be realized by a combination of dedicated hardware and software, or a combination of dedicated hardware and firmware. The memory 202 is, for example, RAM, ROM, flash memory, non-volatile or volatile semiconductor memory such as EPROM, magnetic disk, optical disk, or a combination thereof. The processor 201, memory 202, sensor 6 and image display 3 are bus-connected to each other. The aerial imaging optical system 12 constitutes a part of an aerial image display device.

本願は、例示的な実施の形態が記載されているが、実施の形態に記載された様々な特徴、態様、および機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
したがって、例示されていない無数の変形例が、本願に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合が含まれるものとする。
Although the present application describes exemplary embodiments, the various features, aspects, and functions described in the embodiments are not limited to application of particular embodiments, alone or Various combinations are applicable to the embodiments.
Therefore, countless modifications not illustrated are envisioned within the scope of the technology disclosed in the present application. For example, the modification, addition, or omission of at least one component shall be included.

1、1a 空中映像表示装置、2 筐体、3 映像表示器、4 ビームスプリッタ、5 再帰反射シート、6 センサ、7 制御器、8 空中映像、9 観察者、10 操作体、11 面対称結像光学素子、12 空中結像光学系、31 映像表示面、32 映像表示面内位置、33 操作映像、34 操作ボタン、35、35a、35b、35c、35d ボタン強調領域、41 対称面、71 操作体位置算出部、72 面内位置変換部、73 強調領域設定部、74 ボタン強調処理部、81 空中映像面、82 空中映像面内位置、101 操作体位置、111 対称面、201 プロセッサ、202 メモリ。 Reference Signs List 1, 1a aerial image display device, 2 housing, 3 image display, 4 beam splitter, 5 retroreflective sheet, 6 sensor, 7 controller, 8 aerial image, 9 observer, 10 operating body, 11 plane symmetric imaging Optical element 12 Aerial imaging optical system 31 Image display surface 32 Position within image display surface 33 Operation image 34 Operation button 35, 35a, 35b, 35c, 35d Button emphasis area 41 Symmetry plane 71 Operation object Position calculation unit 72 In-plane position conversion unit 73 Emphasis region setting unit 74 Button enhancement processing unit 81 Aerial image plane 82 Position in aerial image plane 101 Operating body position 111 Symmetry plane 201 Processor 202 Memory.

Claims (3)

映像表示面に操作ボタンを含む操作映像を表示する映像表示器と、
前記操作映像を対称面に対して面対称な位置にある空中映像面に結像させて空中映像を表示させる空中結像光学系と、
操作体の位置を検出するセンサと、
前記センサの出力に応じて前記映像表示器に表示する前記操作映像のデータを生成する制御器とを備え、
前記制御器は、
原点において互いに直交する3軸であるx軸、y軸、z軸によって規定される三次元座標系を、前記空中映像面を含む面をxy平面とし、前記対称面から前記空中映像面に向かう方向をz軸の正方向としてz軸の負方向を含む前記三次元座標系を定義し、前記センサの出力から前記三次元座標系における前記操作体のxyz座標を操作体位置として求める操作体位置算出部と、
前記操作体位置のxy座標を空中映像面内位置とし、前記空中映像面内位置を前記映像表示面の上の対応する位置である映像表示面内位置に変換する面内位置変換部と、
前記映像表示面において、前記映像表示面内位置を中心とし前記操作体位置のz座標の絶対値が小さいほど面積が小さなボタン強調領域を設定する強調領域設定部と、
前記映像表示面において前記ボタン強調領域に含まれた前記操作ボタンの領域の映像を強調処理した前記操作映像のデータを生成するボタン強調処理部とを備えたことを特徴とする空中映像表示装置。
a video display that displays an operation video including operation buttons on a video display screen;
an aerial imaging optical system that forms an image of the operation image on an aerial image plane that is symmetrical with respect to the plane of symmetry to display the aerial image;
a sensor that detects the position of the operating body;
a controller that generates data of the operation image to be displayed on the image display according to the output of the sensor;
The controller is
A three-dimensional coordinate system defined by x-axis, y-axis, and z-axis, which are three axes orthogonal to each other at the origin, is defined by a plane including the aerial image plane as an xy plane, and a direction from the symmetry plane toward the aerial image plane. is defined as the positive direction of the z-axis and includes the negative direction of the z-axis, and the xyz coordinates of the operating body in the three-dimensional coordinate system are obtained as the operating body position from the output of the sensor. Department and
an in-plane position conversion unit that sets the xy coordinates of the operating body position to a position within the aerial image plane and converts the aerial position within the image plane to a position within the image display plane that is the corresponding position on the image display plane;
an emphasis area setting unit that sets a button emphasis area on the image display plane centered at a position within the image display plane and having a smaller area as the absolute value of the z-coordinate of the operating body position becomes smaller;
An aerial image display device, further comprising a button enhancement processing unit that generates data of the operation image by performing enhancement processing on the image of the operation button area included in the button enhancement area on the image display screen.
前記強調処理は、明度を上げる処理、輝度を上げる処理、彩度を上げる処理、背景に対する透過率を下げる処理、背景とのコントラストを上げる処理、前記操作ボタンの大きさを大きくする処理、前記操作ボタンに輪郭を付ける処理、前記操作ボタンの輪郭を太くする処理、前記操作ボタンの輪郭の色を濃くする処理、色相を変える処理およびドットの密度を高くする処理の少なくとも1つであることを特徴とする請求項1に記載の空中映像表示装置。 The enhancement processing includes processing to increase brightness, processing to increase brightness, processing to increase saturation, processing to decrease transmittance with respect to the background, processing to increase contrast with the background, processing to increase the size of the operation button, and the operation. The processing is characterized by at least one of a process of adding a contour to a button, a process of thickening the contour of the operation button, a process of darkening the color of the contour of the operation button, a process of changing hue, and a process of increasing dot density. 2. The aerial image display device according to claim 1. 前記ボタン強調処理部は、前記操作体位置のz座標が正の値のときの前記強調処理と前記操作体位置のz座標が負の値のときの前記強調処理とが異なることを特徴とする請求項1または2に記載の空中映像表示装置。 The button emphasis processing unit is characterized in that the emphasis processing when the z-coordinate of the operating body position is a positive value and the emphasis processing when the z-coordinate of the operating body position is a negative value are different. 3. The aerial image display device according to claim 1 or 2.
JP2021155083A 2021-09-24 2021-09-24 Aerial image display device Pending JP2023046471A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021155083A JP2023046471A (en) 2021-09-24 2021-09-24 Aerial image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021155083A JP2023046471A (en) 2021-09-24 2021-09-24 Aerial image display device

Publications (1)

Publication Number Publication Date
JP2023046471A true JP2023046471A (en) 2023-04-05

Family

ID=85778300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021155083A Pending JP2023046471A (en) 2021-09-24 2021-09-24 Aerial image display device

Country Status (1)

Country Link
JP (1) JP2023046471A (en)

Similar Documents

Publication Publication Date Title
Vogel et al. A projection-based sensor system for safe physical human-robot collaboration
US10698535B2 (en) Interface control system, interface control apparatus, interface control method, and program
US11747915B2 (en) Smart ring for manipulating virtual objects displayed by a wearable device
US9971455B2 (en) Spatial coordinate identification device
US8441480B2 (en) Information processing apparatus, information processing system, and computer readable medium
KR101382772B1 (en) Display system and method
US20180005424A1 (en) Display control method and device
KR101046283B1 (en) Projector system
US20180007328A1 (en) Viewpoint adaptive image projection system
US20100188355A1 (en) Apparatus and method for detecting an object pointed by a user
JP7145432B2 (en) Projection system, image processing device and projection method
US10168769B2 (en) Input apparatus, input method, and program
US10712899B2 (en) Human-machine interface tethered to a user position in a three-dimensional VR or AR environment
CN115735183A (en) Augmented reality eye-worn device 3D painting
JP2018084954A (en) Program, pose derivation method, and pose derivation device
WO2020068407A1 (en) Separable distortion disparity determination
JP2019128722A (en) Information processing device, information processing system, and program
WO2018154634A1 (en) Projection display device, method for controlling projection display device, and program
JPWO2017056567A1 (en) Dimension measuring device
JP2017219942A (en) Contact detection device, projector device, electronic blackboard system, digital signage device, projector device, contact detection method, program and recording medium
JP2023046471A (en) Aerial image display device
US20150185321A1 (en) Image Display Device
US20170300121A1 (en) Input/output device, input/output program, and input/output method
JP2023050578A (en) Aerial video display device
JP2023050579A (en) Aerial video display device