JP5049723B2 - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP5049723B2
JP5049723B2 JP2007257070A JP2007257070A JP5049723B2 JP 5049723 B2 JP5049723 B2 JP 5049723B2 JP 2007257070 A JP2007257070 A JP 2007257070A JP 2007257070 A JP2007257070 A JP 2007257070A JP 5049723 B2 JP5049723 B2 JP 5049723B2
Authority
JP
Japan
Prior art keywords
image
displayed
image display
floating
display surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007257070A
Other languages
Japanese (ja)
Other versions
JP2009086395A (en
Inventor
功 富澤
大 石川
威裕 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP2007257070A priority Critical patent/JP5049723B2/en
Publication of JP2009086395A publication Critical patent/JP2009086395A/en
Application granted granted Critical
Publication of JP5049723B2 publication Critical patent/JP5049723B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、二次元画像を立体的に表示する画像表示装置に関する。   The present invention relates to an image display device that stereoscopically displays a two-dimensional image.

近年、立体画像を観察者に対して提供する様々なシステムが提案されている。   In recent years, various systems for providing stereoscopic images to an observer have been proposed.

この種の画像表示装置においては、両眼視差を利用することにより、ディスプレイ等の画像表示面上の二次元画像を立体画像として提供する方式が良く知られている。   In this type of image display device, a method of providing a two-dimensional image on an image display surface such as a display as a stereoscopic image by using binocular parallax is well known.

しかしながら、この両眼視差を利用した画像表示装置では、観察者は、対象物体の立体画像として虚像を注視することになるため、画像表示面上に合わされるピント(焦点調節)と輻輳との間に不一致が生じ、観察者に対して生理的な影響を与える可能性がある。   However, in this image display device using binocular parallax, the observer gazes at a virtual image as a three-dimensional image of the target object. Therefore, the focus (focus adjustment) on the image display surface and the convergence are not observed. May cause a physiological impact on the viewer.

そこで、この方式とは別に、画像伝達パネル(例えば、複数のレンズからなるマイクロレンズアレイ)を、二次元画像の画像表示面の前方に所定の間隔を隔てて配置することにより、画像伝達パネルの前方の空間上に、二次元画像の擬似立体画像(浮遊画像)を表示する画像表示装置が提供されている(例えば、特許文献1、特許文献2参照。)。この画像表示装置は、二次元画像を画像伝達パネルによって浮き出させて結像することで、あたかも立体画像が映し出されているように表示するものである。   Therefore, separately from this method, an image transmission panel (for example, a microlens array composed of a plurality of lenses) is arranged in front of the image display surface of a two-dimensional image at a predetermined interval, thereby There has been provided an image display device that displays a pseudo-stereoscopic image (floating image) of a two-dimensional image on a front space (see, for example, Patent Document 1 and Patent Document 2). This image display device displays a two-dimensional image as if a three-dimensional image is projected by forming an image by raising the image with an image transmission panel.

このような画像表示装置の中には、2つの二次元画像の表示面を備え、一方の表示面に映し出される画像は、上述した二次元画像の擬似立体画像として認識させ、他方の表示面に映し出される画像は、直視画像として認識させる画像表示装置も存在する(例えば、特許文献3参照。)   In such an image display device, two two-dimensional image display surfaces are provided, and an image displayed on one display surface is recognized as a pseudo-stereoscopic image of the above-described two-dimensional image, and the other display surface is displayed. There is also an image display device that recognizes a projected image as a direct-view image (see, for example, Patent Document 3).

特開2001−255493号公報JP 2001-255493 A 特開2003−98479号公報JP 2003-98479 A 特開2005−234240号公報JP-A-2005-234240

上述した2つの二次元画像の表示面を備える画像表示装置は、直視画像と浮遊画像を一体化させた画像表示を行うことができるので、立体的な視覚効果を高めることができる。   Since the image display device including the two two-dimensional image display surfaces described above can perform image display in which a direct-view image and a floating image are integrated, a three-dimensional visual effect can be enhanced.

しかしながら、直視画像と浮遊画像を連動させた画像表示において、立体的な視覚効果をより高めることができれば、より臨場感あふれる画像をユーザに提供することができ、演出効果をさらに高めることができる。   However, if the three-dimensional visual effect can be further enhanced in the image display in which the direct-view image and the floating image are interlocked, an image with more realistic sensation can be provided to the user, and the production effect can be further enhanced.

また、直視画像と浮遊画像を連動させることにより、従来にはない新規なユーザインターフェースを構築できれば、直感的でわかりやすい操作や表示が可能である。   In addition, if a new user interface that has never existed can be constructed by linking a direct-view image and a floating image, intuitive and easy-to-understand operations and displays are possible.

本発明は、上記の事情を鑑みてなされたものであり、その課題の一例としては、直視画像と浮遊画像の連動を強めて、演出効果をより高めることができるとともに、直感的でわかりやすい操作や表示を実現することができる画像表示装置を提供することにある。   The present invention has been made in view of the above circumstances, and as an example of the problem, the direct effect image and the floating image can be strengthened to enhance the production effect, and the intuitive and easy-to-understand operation and An object of the present invention is to provide an image display device capable of realizing display.

上記の課題を達成するため、本発明の一態様である画像表示装置は、二次元画像を表示する第1の画像表示面を備えた第1の表示部と、前記第1の画像表示面から出射される光の光路に配置された画像伝達パネルと、を有し、前記第1の画像表示面から出射される光を前記画像伝達パネルの前記第1の表示部と対向する側と反対側に位置する空間に、浮遊画像として表示する浮遊画像表示手段と、前記浮遊画像が表示される空間の外縁に、二次元画像を表示する第2の画像表示面を備えた第2の表示部を有して、前記第2の画像表示面に1又は複数のオブジェクトを直視画像として表示する直視画像表示手段と、前記第2の画像表示面、及び前記第2の画像表示面から光が出射される側の空間における被検出体の位置を検出する位置検出手段と、前記位置検出手段が検出した被検出体の位置に基づいて、前記第1の表示部が表示する二次元画像または前記第2の表示部が表示する二次元画像の少なくともいずれか一つを制御する画像制御手段と、を備え、前記画像制御手段は、前記被検出体が前記第2の画像表示面に表示されたオブジェクトに触れたときには、前記位置検出手段が検出した前記被検出体の位置に基づいて、選択されたオブジェクトを特定し、前記被検出体が前記第2の画像表示面に表示されたオブジェクトに触れた後、前記被検出体が前記第2の画像表示面から離れたときには、特定したオブジェクトが表示されていた位置から、前記特定したオブジェクトに対応する浮遊画像を、前記第2の画像表示面から離れる方向に伸長して表示するように、前記第1の表示部が表示する二次元画像を制御するとともに、前記特定したオブジェクトが表示されていた位置、及び前記位置検出手段が検出した前記被検出体の位置に基づいて、表示された前記浮遊画像を前記被検出体の軌跡に追随させるように、前記第1の表示部が表示する二次元画像を制御することを特徴とする。   In order to achieve the above object, an image display device according to an aspect of the present invention includes a first display unit including a first image display surface that displays a two-dimensional image, and the first image display surface. An image transmission panel disposed in an optical path of emitted light, and the light emitted from the first image display surface is opposite to the side facing the first display unit of the image transmission panel A floating image display means for displaying as a floating image in a space located in the space, and a second display section having a second image display surface for displaying a two-dimensional image at the outer edge of the space where the floating image is displayed. And a direct-view image display means for displaying one or more objects as a direct-view image on the second image display surface, light is emitted from the second image display surface, and the second image display surface. Detecting means for detecting the position of the detected object in the space And controlling at least one of the two-dimensional image displayed on the first display unit or the two-dimensional image displayed on the second display unit based on the position of the detected object detected by the position detection unit. An image control unit configured to detect the position of the detected object detected by the position detecting unit when the detected object touches the object displayed on the second image display surface. The selected object is identified, and when the detected object leaves the second image display surface after the detected object touches the object displayed on the second image display surface. The first display so that the floating image corresponding to the specified object is displayed in a direction away from the second image display surface from the position where the specified object was displayed. Controls the displayed two-dimensional image, and the detected floating image is detected based on the position where the identified object is displayed and the position of the detected object detected by the position detecting means. The two-dimensional image displayed by the first display unit is controlled so as to follow the trajectory of the body.

以下、本発明の実施の形態を図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1及び図2は、本発明の実施の形態に係る画像表示装置100の概略構成図である。図1は、画像表示装置100の外観斜視図、図2は、画像表示装置100を側面方向(図1のA−A方向)から見たときの外観構成図及び機能構成図である。   1 and 2 are schematic configuration diagrams of an image display apparatus 100 according to an embodiment of the present invention. FIG. 1 is an external perspective view of the image display device 100, and FIG. 2 is an external configuration diagram and a functional configuration diagram when the image display device 100 is viewed from the side surface direction (AA direction in FIG. 1).

画像表示装置100は、観察者Hが立体表示であると視認可能な二次元画像を空間中の所定の平面上に表示する擬似立体画像表示装置であり、大別して、浮遊画像を表示する浮遊画像表示部1と、観察者Hが直視する二次元画像を表示する直視画像表示部2と、から構成される。ここで、浮遊画像とは、空間中の所定の平面上に表示される二次元画像をいい、観察者Hからはあたかも空中に浮かんでいるように見える実像画像である。また、直視画像とは、画像表示面上において観察者Hが直視する二次元画像をいう。   The image display device 100 is a pseudo-stereoscopic image display device that displays on a predetermined plane in space a two-dimensional image that the viewer H can visually recognize as a stereoscopic display, and is roughly classified as a floating image that displays a floating image. The display unit 1 includes a direct-view image display unit 2 that displays a two-dimensional image that the observer H directly views. Here, the floating image is a two-dimensional image displayed on a predetermined plane in the space, and is a real image image that appears to the observer H as if it is floating in the air. Further, the direct-view image refers to a two-dimensional image that the observer H directly views on the image display surface.

浮遊画像表示部1は、表示部10と、表示部10から離間して配置された画像伝達パネル20を備える。   The floating image display unit 1 includes a display unit 10 and an image transmission panel 20 that is disposed apart from the display unit 10.

表示部10は、二次元画像を表示する画像表示面11、及び表示部10を駆動制御するディスプレイ駆動部(図示せず)を具備する構成である。具体的には、表示部10は、カラー液晶表示装置(LCD)を用いることができ、フラットな画像表示面11と、バックライト照明部及びカラー液晶駆動回路等から構成されるディスプレイ駆動部を備える。勿論、表示部10は、上記LCD以外でもよく、EL(electro-luminescence)ディスプレイ、プラズマディスプレイ、CRT(Cathode Ray Tube)等のディスプレイでもよい。   The display unit 10 includes an image display surface 11 that displays a two-dimensional image, and a display drive unit (not shown) that drives and controls the display unit 10. Specifically, the display unit 10 can be a color liquid crystal display (LCD), and includes a flat image display surface 11, a display driving unit including a backlight illumination unit, a color liquid crystal driving circuit, and the like. . Of course, the display unit 10 may be other than the LCD, and may be a display such as an EL (electro-luminescence) display, a plasma display, or a CRT (Cathode Ray Tube).

画像伝達パネル20は、例えば、マイクロレンズアレイ25によって構成され、そのパネル面を表示部10の画像表示面11と略並行に配置する(図1及び図2参照)。マイクロレンズアレイ25は、図3に示すように、2枚のレンズアレイ半体21a、21bが互いに平行に配列されて構成されている。各レンズアレイ半体21a、21bは、透光性に優れたガラスまたは樹脂からなる透明基板22の両面に、同一の曲率半径を有する複数の微小なマイクロ凸レンズ23を二次元状に互いに隣接配置したものである。一面に形成された各マイクロ凸レンズ23aの光軸は、対向する位置に形成された他面のマイクロ凸レンズ23bの光軸と同一となるように調整されている。すなわち、同一の光軸を有するように調整されたマイクロ凸レンズ23a、23bの各対は、それぞれの光軸が互いに平行になるように、二次元状に配列されている。   The image transmission panel 20 is configured by, for example, a microlens array 25, and the panel surface is arranged substantially in parallel with the image display surface 11 of the display unit 10 (see FIGS. 1 and 2). As shown in FIG. 3, the microlens array 25 includes two lens array halves 21a and 21b arranged in parallel to each other. In each of the lens array halves 21a and 21b, a plurality of minute micro convex lenses 23 having the same radius of curvature are arranged adjacent to each other two-dimensionally on both surfaces of a transparent substrate 22 made of glass or resin having excellent translucency. Is. The optical axis of each micro-convex lens 23a formed on one surface is adjusted to be the same as the optical axis of the micro-convex lens 23b on the other surface formed at the opposite position. That is, each pair of the micro convex lenses 23a and 23b adjusted to have the same optical axis is two-dimensionally arranged so that the respective optical axes are parallel to each other.

マイクロレンズアレイ25は、表示部10の画像表示面11に対して平行に所定距離(マイクロレンズアレイ25の作動距離)だけ離れた位置に配置されている。マイクロレンズアレイ25は、表示部10の画像表示面11から出射した画像に対応する光を画像表示面11と反対側の所定距離(マイクロレンズアレイ25の作動距離)だけ離れた結像面30上に結像させることにより、画像表示面11に表示された画像を空間上の二次元平面である結像面30上に表示するようになっている。この結像された画像は二次元画像であるが、その画像が奥行き感を持つものである場合やディスプレイ上の背景画像が黒くコントラストが強調されているような場合には、空間上に浮いて表示されることから、正面の観察者Hからは、あたかも立体画像が映し出されているように見える。なお、結像面30は、空間上に仮想的に設定される平面であって実体物ではなく、マイクロレンズアレイ25の作動距離に応じて定義される空間上の一平面である。   The microlens array 25 is disposed at a position that is parallel to the image display surface 11 of the display unit 10 by a predetermined distance (the working distance of the microlens array 25). The microlens array 25 is on the imaging surface 30 where light corresponding to the image emitted from the image display surface 11 of the display unit 10 is separated by a predetermined distance (the working distance of the microlens array 25) opposite to the image display surface 11. The image displayed on the image display surface 11 is displayed on the image formation surface 30 which is a two-dimensional plane in space. This formed image is a two-dimensional image. If the image has a sense of depth, or if the background image on the display is black and the contrast is emphasized, it will float in space. Since it is displayed, it looks as if a stereoscopic image is projected from the front observer H. The imaging plane 30 is a plane virtually set in the space and is not an entity, but a plane in the space defined according to the working distance of the microlens array 25.

なお、マイクロレンズアレイ25の浮遊画像表示パラメータ(具体的には、有効面積(入射される光を結像面30上に有効に結像できるマイクロ凸レンズ配列面積など)およびマイクロ凸レンズ配列ピッチ)と、表示部10の浮遊画像表示パラメータ(具体的には、画像表示面11の画素ピッチ、有効画素面積、画像表示面11に表示される画像の輝度、コントラストおよび色など)とは、結像面30に表示される浮遊画像が鮮明に表示されるように、互いに最適化されている。   The floating image display parameters of the microlens array 25 (specifically, an effective area (such as a microconvex lens array area capable of effectively forming incident light on the imaging surface 30) and a microconvex lens array pitch), The floating image display parameters of the display unit 10 (specifically, the pixel pitch of the image display surface 11, the effective pixel area, the brightness, contrast, and color of the image displayed on the image display surface 11) are the imaging plane 30. Are mutually optimized so that the floating images displayed on the screen are clearly displayed.

この結果、マイクロレンズアレイ25は、図4に示すように、表示部10の画像表示面11から出射された画像P1に対応する光をレンズアレイ半体21aから入射させ、内部で一回反転させた後、再度反転させてレンズアレイ半体21bから出射させるように調整されて配置されている。これにより、マイクロレンズアレイ25は、表示部10の画像表示面11に表示された二次元画像P1を、結像面30上に正立の浮遊画像P2として表示することができる。   As a result, as shown in FIG. 4, the microlens array 25 causes the light corresponding to the image P1 emitted from the image display surface 11 of the display unit 10 to be incident from the lens array half 21a and inverted once inside. Then, it is adjusted and arranged so that it is inverted again and emitted from the lens array half 21b. Accordingly, the microlens array 25 can display the two-dimensional image P1 displayed on the image display surface 11 of the display unit 10 as an upright floating image P2 on the imaging surface 30.

より詳しくは、画像表示面11に表示される二次元画像P1を形成する光のうち、マイクロレンズアレイ25の各々のマイクロ凸レンズ23に対応する領域の画像の光が、各々のマイクロ凸レンズ23に取り込まれ、各々のマイクロ凸レンズ23の内部で反転し、再度反転させて出射し、各々のマイクロ凸レンズ23が結像する正立像の集合として浮遊画像P2を表示している。   More specifically, among the light forming the two-dimensional image P <b> 1 displayed on the image display surface 11, the image light in the region corresponding to each micro convex lens 23 of the micro lens array 25 is taken into each micro convex lens 23. Then, it is inverted inside each micro convex lens 23, inverted again and emitted, and the floating image P <b> 2 is displayed as a set of erect images formed by each micro convex lens 23.

なお、マイクロレンズアレイ25は、レンズアレイ半体21a、21bの二枚一組で構成されるものに限定されず、一枚で構成してもよく、また、3枚以上の複数枚で構成してもよい。勿論、1枚、3枚など奇数枚のレンズアレイ半体21で浮遊結像を結像させる場合においても、図5(a)及び(b)に示すように、マイクロレンズアレイ25に入射させた光を内部で一回反転させた後、再度反転させるようになっているので、正立の浮遊画像を表示することができる。   The microlens array 25 is not limited to a lens array half 21a, 21b, and may be composed of a single lens, or may be composed of a plurality of three or more. May be. Of course, even in the case where floating image formation is performed with an odd number of lens array halves 21 such as one, three, etc., as shown in FIGS. Since the light is inverted once inside and then inverted again, an upright floating image can be displayed.

以上述べたように、マイクロレンズアレイ25には種々の構成が考えられ、このように構成されたマイクロレンズアレイ25は、光を結像させる作動距離として、単一の距離でなく、ある一定の有効範囲を持つことが可能となる。   As described above, various configurations can be considered for the microlens array 25. The microlens array 25 configured in this way is not a single distance as a working distance for imaging light, but a certain fixed distance. It is possible to have an effective range.

なお、本実施の形態においては、画像伝達パネル20をマイクロレンズアレイ25としたが、画像伝達パネル20はマイクロレンズアレイ25に限定されるものではなく、正立像、望ましくは正立等倍像を結像するものであれば、何であってもよく、他の形態のレンズやレンズ以外の結像作用があるミラーやプリズムでもよい。例えば、マイクロレンズアレイとしては、屈折率分布レンズアレイ、GRINレンズアレイ、ロッドレンズアレイなどであってもよいし、マイクロミラーアレイとしては、ルーフミラーアレイ、コーナーミラーアレイなどでもよいし、また、マイクロプリズムアレイとしては、ルーフプリズムアレイ、ダブプリズムアレイなどでもよい。また、反転像となるが、アレイではなく、必要な有効領域を持つ一つのフレネルレンズでもよい。   In the present embodiment, the image transmission panel 20 is the microlens array 25. However, the image transmission panel 20 is not limited to the microlens array 25, and an erect image, preferably an erect life-size image. As long as it forms an image, it may be anything, and it may be a lens or another prism having an image forming action other than a lens of another form. For example, the microlens array may be a gradient index lens array, a GRIN lens array, a rod lens array, or the like. The micromirror array may be a roof mirror array, a corner mirror array, or the like. The prism array may be a roof prism array, a dove prism array, or the like. Moreover, although it becomes a reverse image, it may be a single Fresnel lens having a necessary effective area instead of an array.

直視画像表示部2は、表示部40から構成される。表示部40は、表示部10と同様に、二次元画像を表示する画像表示面41、及び表示部40を駆動制御するディスプレイ駆動部(図示せず)を具備する構成である。具体的には、表示部40は、カラー液晶表示装置(LCD)を用いることができ、フラットな画像表示面41と、バックライト照明部及びカラー液晶駆動回路等から構成されるディスプレイ駆動部を備える。勿論、表示部40は、上記LCD以外でもよく、EL(electro-luminescence)ディスプレイ、プラズマディスプレイ、CRT(Cathode Ray Tube)等のディスプレイでもよい。   The direct view image display unit 2 includes a display unit 40. Similar to the display unit 10, the display unit 40 includes an image display surface 41 that displays a two-dimensional image, and a display driving unit (not shown) that drives and controls the display unit 40. Specifically, the display unit 40 can be a color liquid crystal display (LCD), and includes a flat image display surface 41, a display driving unit including a backlight illumination unit, a color liquid crystal driving circuit, and the like. . Of course, the display unit 40 may be other than the LCD, and may be a display such as an EL (electro-luminescence) display, a plasma display, or a CRT (Cathode Ray Tube).

表示部40の画像表示面41は、画像伝達パネル20の手前側(結像面30側;+X方向)の領域の浮遊画像P2下方に結像面30と略垂直に配置され、観察者Hは、画像表示面41に表示された画像を直視できるようになっている。換言すれば、本実施の形態では、浮遊画像P2を画像表示面41の上方の空間に表示するように、表示部10及び画像伝達パネル20を調整、配置している。なお、本実施の形態においては、画像表示面41を浮遊画像の下方に配置したが、画像表示面41の配置位置はこれに限定されず、画像表示面41に表示された画像を観察者Hが直視可能な位置であるならば、浮遊画像の上下左右のいずれの方向に配置してもよい。また、画像表示面41に表示された画像を観察者Hが直視可能な位置であるならば、浮遊画像P2の結像面30に対して画像表示面41を斜交するように配置してもよい。   The image display surface 41 of the display unit 40 is disposed substantially perpendicular to the imaging surface 30 below the floating image P2 in a region on the near side (imaging surface 30 side; + X direction) of the image transmission panel 20. The image displayed on the image display surface 41 can be directly viewed. In other words, in the present embodiment, the display unit 10 and the image transmission panel 20 are adjusted and arranged so that the floating image P2 is displayed in the space above the image display surface 41. In the present embodiment, the image display surface 41 is arranged below the floating image. However, the arrangement position of the image display surface 41 is not limited to this, and the image displayed on the image display surface 41 is the viewer H. May be arranged in any of the vertical and horizontal directions of the floating image. Further, if the image displayed on the image display surface 41 is at a position where the observer H can directly view the image, the image display surface 41 may be disposed so as to cross the image formation surface 30 of the floating image P2. Good.

位置検出部120は、観察者Hの被検出体(例えば、指など)Fの位置及び動きを検出するセンサであり、検出した信号(位置情報)を画像制御部110に出力するようになっている。位置検出部120は、具体的には、表示部40の画像表示面41に配設され、画像表示面41に対する被検出体Fの接触位置を検出するタッチセンサと、画像表示面41上方の空間(詳しくは、例えば、画像表示面41に垂直な方向の上方の空間を意味し、画像表示面41の外側の面の上方の空間は除く)における被検出体Fの位置及び動きを検出する空間センサから構成されている。すなわち、表示部40の画像表示面41はタッチパネル領域であり、また、画像表示面41上方の空間は空間センサ検知領域となっている。なお、タッチセンサ及び空間センサはいずれの方式であってもよく、例えば、静電容量式や抵抗膜方式のタッチセンサ、光学式の空間センサなどが想定される。また、本実施の形態では、2つのセンサを配設して被検出体Fの位置を検出するようにしたが、センサの構成もこれに限定されず、表示部40の画像表示面41及び画像表示面41上方の空間において被検出体Fの位置を検出できるのであれば、どのようなセンサで構成してもよい。   The position detection unit 120 is a sensor that detects the position and movement of the detection target (eg, a finger) F of the observer H, and outputs a detected signal (position information) to the image control unit 110. Yes. Specifically, the position detection unit 120 is disposed on the image display surface 41 of the display unit 40, a touch sensor that detects the contact position of the detection target F with respect to the image display surface 41, and a space above the image display surface 41. (Specifically, for example, the space above the image display surface 41 in the direction perpendicular to the image display surface 41 is excluded, and the space above the surface outside the image display surface 41 is excluded). It consists of sensors. That is, the image display surface 41 of the display unit 40 is a touch panel region, and the space above the image display surface 41 is a space sensor detection region. Note that the touch sensor and the spatial sensor may be of any type, for example, a capacitive type or resistive type touch sensor, an optical spatial sensor, or the like is assumed. In the present embodiment, two sensors are provided to detect the position of the detection object F. However, the configuration of the sensor is not limited to this, and the image display surface 41 and the image of the display unit 40 are not limited thereto. Any sensor may be used as long as the position of the detection object F can be detected in the space above the display surface 41.

なお、本実施の形態では、誤動作防止のため、タッチセンサに触れているときは、タッチセンサの検出結果を優先させ、タッチセンサに触れていないときは、空間センサの検出結果を優先するようになっている。   In this embodiment, in order to prevent malfunction, priority is given to the detection result of the touch sensor when touching the touch sensor, and priority is given to the detection result of the space sensor when not touching the touch sensor. It has become.

画像制御部110は、表示部10及び表示部40に表示させる画像データを生成するとともに、表示部10に表示される画像データと表示部40に表示される画像データを連動させて表示するように画像制御を行っている。例えば、表示部10に表示させる二次元画像P1の変化に応じて、表示部40に表示させる二次元画像P3を変化させたり、表示部40に表示させる二次元画像P3の変化に応じて、表示部10に表示させる二次元画像P1を変化させたりする。   The image control unit 110 generates image data to be displayed on the display unit 10 and the display unit 40, and displays the image data displayed on the display unit 10 and the image data displayed on the display unit 40 in conjunction with each other. Image control is performed. For example, the two-dimensional image P3 displayed on the display unit 40 is changed according to the change of the two-dimensional image P1 displayed on the display unit 10, or the display is changed according to the change of the two-dimensional image P3 displayed on the display unit 40. The two-dimensional image P1 displayed on the unit 10 is changed.

また、画像制御部110は、位置検出部120の出力信号に応じて、表示部10に表示する二次元画像P1、表示部40に表示する二次元画像P3を変化させるように制御している。すなわち、画像制御部110は、観察者Hの被検出体Fの位置や動きに応じて、浮遊画像P2や直視画像P3を変化させるようになっている。例えば、後述するように、位置検出部120(タッチセンサ)による被検出体Fの位置検出により、表示部40に表示させる表示画像P3を変化させたり、位置検出部120(空間センサ)による被検出体Fの位置検出により、表示部10に表示させる二次元画像P1を変化させて、浮遊画像P2を変化させたりする。   In addition, the image control unit 110 performs control so that the two-dimensional image P1 displayed on the display unit 10 and the two-dimensional image P3 displayed on the display unit 40 are changed according to the output signal of the position detection unit 120. That is, the image control unit 110 changes the floating image P2 and the direct-view image P3 according to the position and movement of the detection target F of the observer H. For example, as will be described later, the display image P3 displayed on the display unit 40 is changed by the position detection of the detection target F by the position detection unit 120 (touch sensor), or the detection by the position detection unit 120 (spatial sensor). By detecting the position of the body F, the two-dimensional image P1 displayed on the display unit 10 is changed, and the floating image P2 is changed.

次に、図6及び図7を用いて、本実施の形態に係る画像表示装置100の浮遊画像と直視画像を連動させた演出(以下、連動演出という)について説明する。図6は、画像表示装置100の連動演出の動作を示すフローチャートである。ここで、実線部分は画像表示装置100の動作を示しており、点線部分は観察者Hの動作を示している。また、図7は、図6の動作を示す具体例を説明する図である。   Next, with reference to FIG. 6 and FIG. 7, an effect (hereinafter referred to as an interlocked effect) in which the floating image and the direct-view image of the image display device 100 according to the present embodiment are interlocked will be described. FIG. 6 is a flowchart showing the operation of the interlocking effect of the image display device 100. Here, the solid line portion indicates the operation of the image display apparatus 100, and the dotted line portion indicates the operation of the observer H. FIG. 7 is a diagram for explaining a specific example of the operation of FIG.

まず、画像表示装置100の画像制御部110は、表示部40の画像表示面41に1又は複数のオブジェクトを表示する(ステップS110)。例えば、図7に示す具体例においては、画像表示面41に3つのオブジェクトP3a、P3b及びP3cを表示する。なお、図7に示す具体例においては、画像表示面41に表示されるオブジェクトを円形の形状としたが、これは一例であり、オブジェクトの形状や色は、いかなる形状や色でもよい。   First, the image control unit 110 of the image display device 100 displays one or more objects on the image display surface 41 of the display unit 40 (step S110). For example, in the specific example shown in FIG. 7, three objects P3a, P3b, and P3c are displayed on the image display surface 41. In the specific example shown in FIG. 7, the object displayed on the image display surface 41 has a circular shape. However, this is only an example, and the shape and color of the object may be any shape or color.

このような状態で、観察者Hは、画像表示面41に表示されたオブジェクトの中から1つのオブジェクトに指Fで触れる(ステップS115)。図7(a)に示す具体例では、観察者Hの指Fは、オブジェクトBを示す直視画像P3bに触れている。なお、オブジェクトBは、画像表示面41の、結像面30と画像表示面41の交線C上に表示されている。   In such a state, the observer H touches one object with the finger F among the objects displayed on the image display surface 41 (step S115). In the specific example shown in FIG. 7A, the finger F of the observer H touches the direct-view image P3b showing the object B. The object B is displayed on the image display surface 41 on the intersection line C between the image forming surface 30 and the image display surface 41.

これにより、画像表示装置100の位置検出部120のタッチセンサは、指Fの接触位置を検出するので(ステップS120)、位置検出部120が検出した接触位置に基づいて、画像制御部110は、観察者Hに選択されたオブジェクトを特定する(ステップS130)。図7に示す具体例では、画像制御部110は、指Fの接触位置から、オブジェクトBが選択されたことを把握する。なお、画像制御部110がオブジェクトを特定したときは、特定したオブジェクトの色を変化させるなどして、観察者Hが選択したオブジェクトを確認できるようにしてもよい。   Thereby, since the touch sensor of the position detection unit 120 of the image display device 100 detects the contact position of the finger F (step S120), the image control unit 110 is based on the contact position detected by the position detection unit 120. The object selected by the observer H is specified (step S130). In the specific example illustrated in FIG. 7, the image control unit 110 grasps that the object B is selected from the contact position of the finger F. When the image control unit 110 identifies an object, the object selected by the observer H may be confirmed by changing the color of the identified object.

次に、観察者Hは、画像表示面41に触れている(オブジェクトBに触れている)指Fを画像表示面41から上方に移動させる(ステップS135)。すなわち、指Fは画像表示面41上には存在せず、画像表示面41上方の空間に存在する。   Next, the observer H moves the finger F touching the image display surface 41 (touching the object B) upward from the image display surface 41 (step S135). That is, the finger F does not exist on the image display surface 41 but exists in the space above the image display surface 41.

これにより、画像表示装置100の位置検出部120の空間センサは、観察者Hの指Fの位置、より詳しくは、画像表示面41からの高さ(Z座標)を検出する(ステップS140)。ここで、空間センサが検出する指Fの高さとは、例えば、空間センサが複数の指Fの位置を検出する場合もあり得るので、検出した指Fの高さのうち最も低い位置をいうものとする。図7(b)に示す具体例では、位置検出部120の空間センサは、高さHを検出する。   Thereby, the spatial sensor of the position detection unit 120 of the image display device 100 detects the position of the finger F of the observer H, more specifically, the height (Z coordinate) from the image display surface 41 (step S140). Here, the height of the finger F detected by the space sensor means, for example, the lowest position among the detected heights of the fingers F because the space sensor may detect the positions of a plurality of fingers F. And In the specific example shown in FIG. 7B, the spatial sensor of the position detection unit 120 detects the height H.

次に、画像表示装置100の画像制御部110は、選択されたオブジェクトに対応する浮遊画像P2を位置検出部120が検出した高さに応じて表示する(ステップS150)。ここで、選択されたオブジェクトに対応する浮遊画像P2とは、選択されたオブジェクトの位置(画像表示面41上)から、選択されたオブジェクトの位置の上方の空間に向かって伸長して表示される浮遊画像P2をいい、位置検出部120が検出した高さに応じて表示するとは、観察者Hの指Fの位置は徐々に高くなっていくので、この指Fの動き(軌跡)に追随して、浮遊画像P2の高さを徐々に高くして表示することをいう。より詳しくは、画像表示面41に表示されたオブジェクトの形状が、そのまま柱体として位置検出部120が検出した高さまで伸長するような浮遊画像P2を表示する(ステップS150)。図7(b)に示す具体例では、楕円状のオブジェクトBをそのまま上方に伸長した、高さHの円柱体の浮遊画像P2が結像面30上に表示される。なお、浮遊画像P2の表示開始の契機は、オブジェクト選択後、空間センサが指Fに対する高さ(>0)を検出したときである。   Next, the image control unit 110 of the image display apparatus 100 displays the floating image P2 corresponding to the selected object according to the height detected by the position detection unit 120 (step S150). Here, the floating image P2 corresponding to the selected object is displayed by being expanded from the position of the selected object (on the image display surface 41) toward the space above the position of the selected object. The floating image P <b> 2 is displayed and displayed according to the height detected by the position detection unit 120. The position of the finger F of the observer H gradually increases, and thus follows the movement (trajectory) of the finger F. Thus, the floating image P2 is displayed with the height gradually increased. More specifically, the floating image P2 is displayed such that the shape of the object displayed on the image display surface 41 extends as it is to the height detected by the position detection unit 120 as a column (step S150). In the specific example shown in FIG. 7B, a floating image P <b> 2 of a columnar body having a height H, in which an elliptical object B is stretched upward as it is, is displayed on the image plane 30. The trigger for starting the display of the floating image P2 is when the space sensor detects the height (> 0) with respect to the finger F after selecting the object.

このように本実施の形態の連動演出では、観察者Hが画像表示面41上で選択したオブジェクトを指Fで持ち上げるような動作をすることにより、指Fの動きに追随して、選択したオブジェクトに対応する浮遊画像P2を表示するので、観察者Hは選択したオブジェクトをあたかも引っ張り上げたような感覚(持ち上げたような感覚)を経験することができる。   As described above, in the interlocking effect of the present embodiment, the object selected by the observer H following the movement of the finger F by performing an operation of lifting the object selected on the image display surface 41 by the finger F. Since the floating image P2 corresponding to is displayed, the observer H can experience the feeling of pulling up the selected object (feeling of lifting).

次に、このような状態において、観察者Hが指Fを、画像表示部41上方の空間からその外の空間に移動する(ステップS155)。すなわち、指Fを位置検出部120の空間センサの検知領域から非検知領域に指Fを移動する。例えば、図7(c)に示す具体例では、観察者Hの指FはオブジェクトBの浮遊画像P2上から画像表示面41の右方の空間に指Fを引き抜いている。   Next, in such a state, the observer H moves the finger F from the space above the image display unit 41 to a space outside thereof (step S155). That is, the finger F is moved from the detection area of the spatial sensor of the position detection unit 120 to the non-detection area. For example, in the specific example shown in FIG. 7C, the finger F of the observer H pulls out the finger F from the floating image P <b> 2 of the object B to the right space of the image display surface 41.

これにより、画像表示装置100の位置検出部120の空間センサは、観察者Hの指Fの位置を検出不可能となるので(ステップS160)、位置検出部120の指Fに対する非検出を契機に、表示されていたオブジェクトの浮遊画像P2の高さを徐々に低くしていき、最終的にはオブジェクトの浮遊画像P2を非表示にする(ステップS170)。より詳しくは、指Fの高さH(指Fが空間センサの検出領域に存在したときの最後の高さ)まで存在した柱体の浮遊画像P2の高さを徐々に下方に向かって短縮していく浮遊画像P2を表示し、最後にはオブジェクトの浮遊画像P2を消滅させ、非表示とするものである(ステップS170)。   As a result, the spatial sensor of the position detection unit 120 of the image display device 100 cannot detect the position of the finger F of the observer H (step S160). The height of the displayed floating image P2 of the object is gradually lowered, and finally the floating image P2 of the object is not displayed (step S170). More specifically, the height of the floating image P2 of the columnar body that exists up to the height H of the finger F (the final height when the finger F is present in the detection area of the space sensor) is gradually shortened downward. The floating image P2 that is going to be displayed is displayed, and finally the floating image P2 of the object is eliminated and not displayed (step S170).

このように本実施の形態の連動演出では、指Fを空間センサの非検知領域に移動することにより、浮遊画像P2の高さを徐々に低くして表示するので、観察者Hは選択したオブジェクトの浮遊画像P2を手放して、浮遊画像P2が重力に従って落下するような感覚を経験することができる。   As described above, in the interlocking effect of the present embodiment, since the finger F is moved to the non-detection area of the space sensor and the height of the floating image P2 is gradually lowered and displayed, the observer H selects the selected object. The floating image P2 can be released and the user can experience a feeling that the floating image P2 falls according to gravity.

以上、本実施の形態に係る画像表示装置100の連動演出によれば、画像表示面41上に表示されていたオブジェクトに指Fで触れて、オブジェクトに触れていた指Fを上方に移動させると、オブジェクトに対応する浮遊画像P2が指の動きに追随して指Fの高さを有するオブジェクト画像となるので、観察者Hは選択したオブジェクトをあたかも、つかんで持ち上げたような疑似体験をすることができる。また、浮遊画像P2をつかんだ状態で指Fをセンサ検知領域からセンサ非検知領域に引き抜くと、浮遊画像P2はその高さを徐々に低くして、最後には消えてしまうので、観察者Hは選択したオブジェクトの浮遊画像P2を手放して、浮遊画像P2を落下させたような疑似体験をすることができる。このように、本実施の形態に係る連動演出は、従来にない新規な演出であり、直視画像と浮遊画像の連動を強めて、演出効果をより高めることができるとともに、直感的でわかりやすいユーザインターフェースを提供することができる。   As described above, according to the interlocking effect of the image display device 100 according to the present embodiment, when the finger F touches the object displayed on the image display surface 41 and the finger F touching the object is moved upward. Since the floating image P2 corresponding to the object becomes an object image having the height of the finger F following the movement of the finger, the observer H has a pseudo-experience as if he grabbed and lifted the selected object. Can do. Further, if the finger F is pulled out from the sensor detection area to the sensor non-detection area while holding the floating image P2, the height of the floating image P2 is gradually lowered and finally disappears. Can let go of the floating image P2 of the selected object and have a simulated experience as if the floating image P2 was dropped. As described above, the interlocking effect according to the present embodiment is a novel effect that has not existed in the past, and it is possible to enhance the effect of the effect by strengthening the interlocking between the direct-view image and the floating image, and an intuitive and easy-to-understand user interface. Can be provided.

なお、本実施の形態では、画像表示部40の画像表示面41を浮遊画像P2の下方の位置に配置した構成としたが、上述したように、画像表示部40の画像表示面41の配置位置はこれに限定されず、浮遊画像P2の外縁のいずれの方向(上下左右、斜め)に配置してもよい。例えば、浮遊画像P2の左方に、結像面30に略垂直に表示面41を配置した場合には、画像表示面41に表示されたオブジェクトに指Fを触れて、指Fを右方に移動させると(画像表示面41から指Fを離すと)、指Fの動きに追随して、オブジェクトに対応する浮遊画像P2が、画像表示面41上のオブジェクトが表示された位置から右方に伸長する。また、指Fを空間センサの検知領域から引き抜くと、表示されていた浮遊画像P2が、徐々に左方に短縮して、最終的には消える。このように、浮遊画像P2の左方に画像表示面41を配置した場合には、バネのような弾性体を引っ張って伸ばすような感覚、引っ張った弾性体を離すと元に戻るような感覚を経験することができる。   In the present embodiment, the image display surface 41 of the image display unit 40 is arranged at a position below the floating image P2. However, as described above, the arrangement position of the image display surface 41 of the image display unit 40 Is not limited to this, and may be arranged in any direction (up / down / left / right, diagonal) of the outer edge of the floating image P2. For example, when the display surface 41 is arranged on the left side of the floating image P2 and substantially perpendicular to the imaging surface 30, the finger F is touched to the object displayed on the image display surface 41, and the finger F is moved to the right side. When moved (when the finger F is released from the image display surface 41), the floating image P2 corresponding to the object follows the movement of the finger F and moves to the right from the position where the object is displayed on the image display surface 41. Elongate. When the finger F is pulled out from the detection area of the space sensor, the displayed floating image P2 is gradually shortened to the left and eventually disappears. As described above, when the image display surface 41 is arranged on the left side of the floating image P2, a feeling of pulling and stretching an elastic body such as a spring and a feeling of returning to the original when the pulled elastic body is released. Can experience.

ただし、画像表示部40の画像表示面41を浮遊画像P2の下方の位置に配置した場合には、人間は重力によって、手放すと物体が落下していくことを本能的に知っているので、自然法則に合致した非常に自然な感覚を得ることができる。そのため、画像表示部40の画像表示面41を浮遊画像P2の下方に配置する構成は、ユーザインターフェースとしてはより好適である。そして、浮遊画像P2を引き上げる、または落下させる際には、重力の影響を受けるような画像制御をしてもよい。例えば、重いオブジェクトを引き上げる場合には、浮遊画像P2の指Fに追随する速度が遅かったり、また、軽いオブジェクトと重いオブジェクトの場合には、浮遊画像P2の落下する速さが異なるように画像制御してもよい。これにより、観察者Hは、より自然な感覚を得ることができる。   However, when the image display surface 41 of the image display unit 40 is disposed at a position below the floating image P2, the human knows instinctively that the object will fall when it is released due to gravity. You can get a very natural feeling that matches the law. Therefore, the configuration in which the image display surface 41 of the image display unit 40 is disposed below the floating image P2 is more preferable as a user interface. Then, when the floating image P2 is pulled up or dropped, image control that is affected by gravity may be performed. For example, when pulling up a heavy object, the speed of following the finger F of the floating image P2 is slow, and when the object is light and heavy, the image control is performed so that the falling speed of the floating image P2 is different. May be. Thereby, the observer H can obtain a more natural feeling.

また、上述した連動演出のステップS155においては、観察者Hが指Fを位置検出部120(空間センサ)の非検知領域に移動することにより、浮遊画像P2を立ち下げるように制御したが、浮遊画像P2を立ち下げる契機は、これに限定されるものではなく、観察者Hの他の行為をもとに浮遊画像P2を立ち下げるように制御してもよい。   Moreover, in step S155 of the interlocking production described above, control is performed so that the floating image P2 is lowered by moving the finger F to the non-detection region of the position detection unit 120 (spatial sensor). The trigger for lowering the image P2 is not limited to this, and the floating image P2 may be controlled to fall based on other actions of the observer H.

例えば、図8及び図9(a)に示すように、あるオブジェクトに対応する浮遊画像P2を表示中(指Fの動きに追随させて、浮遊画像P2を表示中)に、観察者Hの指Fが表示部40の画像表示面41に表示された別のオブジェクトに触れたときを契機として、浮遊画像P2を立ち下げるようにしてもよい(変形例1)。ここで、図8は、画像表示装置100の連動演出の変形例1の動作を示すフローチャートである。ここで、実線部分は画像表示装置100の動作を示しており、点線部分は観察者Hの動作を示している。また、図9(a)は、図8の動作を示す具体例を説明する図である。なお、図9において、図7と同一記号を付したステップは、図7に示す処理内容と同一の処理内容を示すので説明を省略し、処理内容が異なるステップのみ説明する。   For example, as shown in FIGS. 8 and 9A, the finger of the observer H is displayed while the floating image P2 corresponding to an object is being displayed (the floating image P2 is displayed following the movement of the finger F). The floating image P <b> 2 may be lowered when F touches another object displayed on the image display surface 41 of the display unit 40 (Modification 1). Here, FIG. 8 is a flowchart showing the operation of the modified example 1 of the interlocking effect of the image display device 100. Here, the solid line portion indicates the operation of the image display apparatus 100, and the dotted line portion indicates the operation of the observer H. FIG. 9A is a diagram illustrating a specific example showing the operation of FIG. In FIG. 9, steps denoted by the same reference numerals as those in FIG. 7 indicate the same processing contents as the processing contents shown in FIG. 7, and therefore description thereof will be omitted, and only steps having different processing contents will be described.

浮遊画像P2が表示されている状態において、観察者Hは、画像表示面41に表示された他のオブジェクト(現在表示されている浮遊画像P2のオブジェクトとは異なるオブジェクト)に指Fで触れる(ステップS156)。例えば、図9(a)に示す具体例では、観察者Hの指Fは、オブジェクトBの浮遊画像P2上からオブジェクトCの直視画像P3cに触れている。   In the state where the floating image P2 is displayed, the observer H touches another object displayed on the image display surface 41 (an object different from the object of the currently displayed floating image P2) with the finger F (step S156). For example, in the specific example shown in FIG. 9A, the finger F of the observer H touches the direct view image P3c of the object C from the floating image P2 of the object B.

これにより、画像表示装置100の位置検出部120のタッチセンサは、指Fの接触位置を検出するので(ステップS161)、位置検出部120が検出した接触位置に基づいて、画像制御部110は、観察者Hに新たに選択されたオブジェクトを特定する(ステップS162)。図9(a)に示す具体例では、画像制御部110は、指Fの接触位置から、オブジェクトCが選択されたことを把握する。   Accordingly, the touch sensor of the position detection unit 120 of the image display device 100 detects the contact position of the finger F (step S161). Based on the contact position detected by the position detection unit 120, the image control unit 110 The object newly selected by the observer H is specified (step S162). In the specific example illustrated in FIG. 9A, the image control unit 110 grasps that the object C is selected from the contact position of the finger F.

次に、画像表示装置100の画像制御部110は、画像表示装置100の現在表示されている浮遊画像P2に対応するオブジェクトとは異なるオブジェクトが選択されたことがわかったので、表示されていたオブジェクトの浮遊画像P2の高さを徐々に低くしていき、最終的にはオブジェクトの浮遊画像P2を非表示にする(ステップS170)。より詳しくは、指Fの高さH(指Fが空間センサの検出領域に存在したときの最後の高さ)まで存在した柱体の浮遊画像P2の高さを徐々に下方に向かって短縮していく浮遊画像P2を表示し、最後にはオブジェクトの浮遊画像P2を消滅させ、非表示とするものである(ステップS170)。なお、この後、オブジェクトCが引き上げられる動作に移行していくことは、上述した通りである(ステップS110〜S150)。   Next, since the image control unit 110 of the image display device 100 has found that an object different from the object corresponding to the floating image P2 currently displayed on the image display device 100 has been selected, the displayed object The height of the floating image P2 is gradually lowered, and finally the floating image P2 of the object is hidden (step S170). More specifically, the height of the floating image P2 of the columnar body that exists up to the height H of the finger F (the final height when the finger F is present in the detection area of the space sensor) is gradually shortened downward. The floating image P2 that is going to be displayed is displayed, and finally the floating image P2 of the object is eliminated and not displayed (step S170). After this, the transition to the operation of lifting the object C is as described above (steps S110 to S150).

このように浮遊画像P2を引き下げる契機は、観察者Hの他の行為により種々設定可能である。   Thus, various triggers for lowering the floating image P2 can be set by other actions of the observer H.

また、上述した連動演出においては、観察者Hの指Fを画像表示面41に対して垂直な方向(+Z軸方向)に移動させる場合について説明したが、指Fの移動方向はこれに限定されない。例えば、図9(b)に示すように、斜め上方に移動させるようにしてもよい。この場合には、観察者Hの指Fの高さ(Z座標)だけを検出するのではなく、指Fの位置、より詳しくは、指Fの空間位置座標(X座標、Y座標、Z座標)を検出するようにし、画像表示面41上で選択したオブジェクトの位置、及び検出した指Fの位置に基づいて、指Fの移動に追随させるように浮遊画像P2を表示するようにすればよい。   In the above-described interlocking effect, the case where the finger F of the observer H is moved in the direction perpendicular to the image display surface 41 (+ Z axis direction) has been described. However, the moving direction of the finger F is not limited to this. . For example, as shown in FIG. 9B, it may be moved obliquely upward. In this case, not only the height (Z coordinate) of the finger F of the observer H is detected, but the position of the finger F, more specifically, the spatial position coordinates of the finger F (X coordinate, Y coordinate, Z coordinate). ) And the floating image P2 may be displayed so as to follow the movement of the finger F based on the position of the object selected on the image display surface 41 and the detected position of the finger F. .

また、上述した連動演出では、浮遊画像P2の形状を画像表示面41上から伸長した柱体の浮遊画像P2としたが、浮遊画像P2の形状はこれに限定されるものでなく、浮遊画像P2の形状を有限な所定の高さを持った柱体とし、この高さを越えて指Fを上方に移動させた場合には、柱体の浮遊画像P2を画像表示面41から浮き上がらせて表示するようにしてもよい。例えば、図9(c)に示すように、高さH1を有する円柱体の浮遊画像P2を表示する場合であって、指Fを高さH1より高い位置まで移動した場合には、浮遊画像P2を浮き上がらせて表示するようにしてもよい。なお、この場合には、浮いていることを強調するために、画像表示面41に円柱体の影のような直視画像P3bを表示してもよい。   In the above-described interlocking effect, the shape of the floating image P2 is the columnar floating image P2 extended from the image display surface 41. However, the shape of the floating image P2 is not limited to this, and the floating image P2 is not limited thereto. If the shape of the column is a column having a finite predetermined height and the finger F is moved upward beyond this height, the floating image P2 of the column is lifted from the image display surface 41 and displayed. You may make it do. For example, as shown in FIG. 9C, when the floating image P2 of the cylindrical body having the height H1 is displayed and the finger F is moved to a position higher than the height H1, the floating image P2 is displayed. May be displayed in a floating manner. In this case, a direct-view image P3b such as a shadow of a cylindrical body may be displayed on the image display surface 41 in order to emphasize that it is floating.

また、常に浮遊画像P2を表示するのではなく、予め定めた条件が成立した場合のみ浮遊画像P2を表示するようにしてもよい。例えば、指Fを閾値以上の高さに移動させた場合にのみ、オブジェクトに対応する浮遊画像P2を表示するようにしてもよい。この場合、閾値未満の高さに指Fを移動しても、浮遊画像P2は表示されない。   Further, the floating image P2 may be displayed only when a predetermined condition is satisfied, instead of always displaying the floating image P2. For example, the floating image P2 corresponding to the object may be displayed only when the finger F is moved to a height equal to or higher than the threshold value. In this case, even if the finger F is moved to a height less than the threshold value, the floating image P2 is not displayed.

また、上述した連動演出の具体例では、結像面30と画像表示面41の交線C上に表示されたオブジェクトBに関する連動演出について説明したが、画像表示面41の他の位置に表示されたオブジェクトに対しても本発明が適用されるのは勿論である。ただし、結像面30と画像表示面41の交線C上でない位置に表示されたオブジェクトに対して連動演出を行う場合には、より自然に立体表示させるための工夫が必要である。直視画像P3として画像表示面41に表示されたオブジェクトの位置とオブジェクトに対応する浮遊画像P2が表示される位置(結像面30)が奥行き方向(X方向)に異なっているので、観察者Hに違和感を与える可能性があるからである。   In the specific example of the interlocking effect described above, the interlocking effect relating to the object B displayed on the intersection line C between the imaging surface 30 and the image display surface 41 has been described. However, the interlocking effect is displayed at another position on the image display surface 41. Of course, the present invention is also applied to the object. However, when an interlocking effect is performed on an object displayed at a position that is not on the intersection line C between the imaging surface 30 and the image display surface 41, it is necessary to devise a more natural three-dimensional display. Since the position of the object displayed on the image display surface 41 as the direct-view image P3 and the position (imaging plane 30) where the floating image P2 corresponding to the object is displayed are different in the depth direction (X direction), the observer H This is because it may give a sense of incongruity.

図10は、交線C上ではない位置に表示されたオブジェクトBに対する連動演出の様子を示す図である。なお、図10においては、図9(c)に示すように、選択されたオブジェクトに対する円柱体の浮遊画像P2を浮き上がらせて表示するような画像制御を行う。一例としては、図10(b)に示すように浮遊画像P2が浮き上がった際には、画像表示面41に表示されていたオブジェクトBの直視画像P3bに代えて、円柱体の影を示す直視画像P3b’を画像表示面41に表示し、直視画像P3b’を交線C上に移動させるようにしてもよい。また、別の一例としては、図10(b)に示すように浮遊画像P2が浮き上がった際には、画像表示面41に表示する直視画像P3を消去するようにしてもよい。   FIG. 10 is a diagram illustrating a state of the interlocking effect for the object B displayed at a position not on the intersection line C. FIG. In FIG. 10, as shown in FIG. 9C, image control is performed so that the floating image P <b> 2 of the cylindrical body with respect to the selected object is lifted and displayed. As an example, when the floating image P2 is lifted as shown in FIG. 10B, the direct-view image showing the shadow of the cylinder instead of the direct-view image P3b of the object B displayed on the image display surface 41. P3b ′ may be displayed on the image display surface 41, and the direct-view image P3b ′ may be moved on the intersection line C. As another example, when the floating image P2 is lifted as shown in FIG. 10B, the direct-view image P3 displayed on the image display surface 41 may be deleted.

これにより、画像表示面41の交線C上に表示されないオブジェクトであっても、より自然な立体表示をすることができるので、連動演出における浮遊画像P2と直視画像P3の連動を違和感なく表現することができる。なお、このような工夫を行わない場合には、結像面30近傍の画像表示面41上にオブジェクトを表示するように直視画像P3を制御し、結像面30近傍のオブジェクトに対して浮遊画像P2を表示するのが好適である。   As a result, even an object that is not displayed on the intersection line C of the image display surface 41 can be displayed in a more natural three-dimensional display, so that the linkage between the floating image P2 and the direct-view image P3 in the linkage effect is expressed without a sense of incongruity. be able to. When such a device is not performed, the direct-view image P3 is controlled so that the object is displayed on the image display surface 41 in the vicinity of the imaging plane 30, and the floating image is displayed with respect to the object in the vicinity of the imaging plane 30. It is preferable to display P2.

なお、上記実施形態では、浮遊画像表示部1の構成として、結像面30上に実像を表示する方式(浮遊画像は一平面上に形成される方式;以下、3Dフローティングビジョン(登録商標)方式という)を採用したが、浮遊画像表示部1の構成はこの方式に限定されるものではなく、浮遊画像として実像を表示する方式であればいずれの方式であってもよい。例えば、浮遊画像として実像を表示するIP(インテグラルフォトグラフィ)方式を採用してもよい。   In the above embodiment, the floating image display unit 1 has a configuration in which a real image is displayed on the imaging plane 30 (a method in which a floating image is formed on one plane; hereinafter, a 3D floating vision (registered trademark) method). However, the configuration of the floating image display unit 1 is not limited to this method, and any method may be used as long as a real image is displayed as a floating image. For example, an IP (integral photography) system that displays a real image as a floating image may be adopted.

図11は、IP方式を採用した画像表示装置100Aの概略構成図である。IP方式の場合には、図11に示すように、画像伝達パネル20Aは、3Dフローティングビジョン(登録商標)方式よりも、表示部10に近い位置に配置される。具体的には、画像伝達パネル20Aは、ピンホールアレイ、マイクロレンズアレイ、レンチキュラーレンズなどであり、画像伝達パネル20Aは、一平面上に結像させるのではなく、表示部10からの出射光の方向を変える若しくは制御するために用いられるので、浮遊画像P2Aは、奥行きを持った浮遊画像として形成される。   FIG. 11 is a schematic configuration diagram of an image display apparatus 100A employing the IP method. In the case of the IP system, as shown in FIG. 11, the image transmission panel 20A is arranged at a position closer to the display unit 10 than in the 3D floating vision (registered trademark) system. Specifically, the image transmission panel 20A is a pinhole array, a microlens array, a lenticular lens, and the like. The image transmission panel 20A does not form an image on a single plane, but instead of the light emitted from the display unit 10. Since it is used to change or control the direction, the floating image P2A is formed as a floating image having a depth.

すなわち、本実施の形態に係る浮遊画像には、空間中の所定の平面上に表示される二次元画像P2の他、空間中に物理的に奥行きを持って表示される三次元画像P2Aも含まれる。   That is, the floating image according to the present embodiment includes not only a two-dimensional image P2 displayed on a predetermined plane in the space but also a three-dimensional image P2A displayed with a physical depth in the space. It is.

なお、画像表示装置100Aにより上述した連動演出を行う場合には、浮遊画像P2Aは、奥行きを持って表示されるので、図10に示すような配慮は不要となり、より臨場感のある連動演出を行うことができる。しかしながら、画像表示装置100Aの場合には、奥行きを持った浮遊画像P2Aを表示するため、画像表示装置100の3Dフローティングビジョン(登録商標)方式の場合よりも、表示部10に表示する二次元画像の画像制御が複雑となるので、簡単に立体画像を制作するという観点からみると、画像表示装置100の3Dフローティングビジョン(登録商標)方式がより好適である。   In the case where the above-described interlocking effect is performed by the image display device 100A, since the floating image P2A is displayed with a depth, consideration as shown in FIG. 10 is not necessary, and a more realistic interlocking effect is provided. It can be carried out. However, in the case of the image display device 100A, since the floating image P2A having a depth is displayed, the two-dimensional image displayed on the display unit 10 is displayed as compared with the case of the 3D floating vision (registered trademark) system of the image display device 100. Therefore, the 3D floating vision (registered trademark) system of the image display device 100 is more suitable from the viewpoint of easily producing a stereoscopic image.

図12は、音楽再生装置のユーザインターフェースに画像表示装置100(100A)を利用した場合の一例を示している。この音楽再生装置は、表示部40の画像表示部41にCDやレコード等のアルバムのタイトルメニューを表示し、観察者H(視聴者)が選択したアルバムの音楽を再生する。   FIG. 12 shows an example when the image display device 100 (100A) is used for the user interface of the music playback device. This music playback apparatus displays the title menu of an album such as a CD or a record on the image display unit 41 of the display unit 40, and plays back the music of the album selected by the viewer H (viewer).

まず、画像表示装置100(100A)は、表示部40の画像表示面41にタイトルメニューを表示するので(図12(a)参照)、観察者Hは、スクロールバーを操作することにより、タイトルメニューをスクロールさせつつ、タイトルメニューの中から再生したいアルバムを探し、再生したいアルバムが見つかったら、画像表示面41に表示された再生したいアルバムのタイトルに指Fで触れる(図12(b)参照)。   First, since the image display device 100 (100A) displays the title menu on the image display surface 41 of the display unit 40 (see FIG. 12A), the observer H operates the scroll bar to operate the title menu. While scrolling, search for an album to be reproduced from the title menu, and when an album to be reproduced is found, touch the title of the album to be reproduced displayed on the image display surface 41 with a finger F (see FIG. 12B).

画像表示装置100(100A)は、観察者Hの指が触れた位置から選択されたアルバムを把握すると(詳しくは、位置検出部120のタッチセンサが指Fの接触位置を検出し、画像制御部110が検出位置から選択されたアルバムを判断すると)、選択されたアルバムのタイトル領域の色を変えるので(図12(b)参照)、観察者Hは、選択したアルバムのタイトルを確認することができる。   When the image display device 100 (100A) grasps the album selected from the position touched by the finger of the observer H (specifically, the touch sensor of the position detection unit 120 detects the contact position of the finger F, and the image control unit 110 determines the selected album from the detection position), the color of the title area of the selected album is changed (see FIG. 12B), so that the observer H can confirm the title of the selected album. it can.

次いで、観察者Hは画像表示面41に触れた指Fを持ち上げると、画像表示装置100(100A)は、この指の動き(指Fが表示部40の画像表示面61に触れてアルバムを選択した後、指Fが画像表示面41から離れて上方に移動する動き)を検出するので、指Fの動きに合わせて、選択されたアルバムの「ジャケット画像」を浮遊画像P2として表示する(図12(c))。   Next, when the observer H lifts the finger F touching the image display surface 41, the image display device 100 (100 </ b> A) selects the album by moving the finger (the finger F touches the image display surface 61 of the display unit 40). After that, the movement of the finger F moving away from the image display surface 41 is detected, so that the “jacket image” of the selected album is displayed as the floating image P2 in accordance with the movement of the finger F (FIG. 12 (c)).

これは、位置検出部120(空間センサ)が指Fの位置(表示部60の画像表示面61からの高さ)を検出するので、画像制御部110が、検出した指Fの高さに合わせて「ジャケット画像」を浮遊画像P2として表示するように画像制御するものである。そのため、指Fを画像表示面61から徐々に上方に移動させていくと、指Fの動きに追随して、「ジャケット画像」の高さも徐々に高くなっていき、指Fの高さ位置まで浮遊画像P2が表示されることとなる。これにより、観察者Hは、あたかも自分が選択したレコードのアルバムを持ち上げたような感覚を味わうことができる。   This is because the position detection unit 120 (spatial sensor) detects the position of the finger F (the height of the display unit 60 from the image display surface 61), so that the image control unit 110 matches the detected height of the finger F. Thus, image control is performed so that the “jacket image” is displayed as the floating image P2. Therefore, when the finger F is gradually moved upward from the image display surface 61, the height of the “jacket image” gradually increases following the movement of the finger F and reaches the height position of the finger F. The floating image P2 will be displayed. Thereby, the observer H can taste as if he / she lifted the album of the record he / she selected.

なお、より好適には、位置検出部120(空間センサ)が複数の指Fそれぞれの位置を検出可能であるとして、位置検出部120(空間センサ)が検出した複数の指Fの位置から、指Fの形状を特定し、特定した指Fの形状に基づいて、浮遊画像P2を表示するようにしてもよい。すなわち、指Fが画像表示面41に触れて、アルバムをつかむ(指と指が合わさった状態)ような形状をし、そのまま上方に移動したときは、指Fの動きに合わせて、選択されたアルバムの「ジャケット画像」を浮遊画像P2として表示するようにしてもよい。   More preferably, it is assumed that the position detection unit 120 (space sensor) can detect the position of each of the plurality of fingers F. From the positions of the plurality of fingers F detected by the position detection unit 120 (space sensor), The shape of F may be specified, and the floating image P2 may be displayed based on the specified shape of the finger F. That is, when the finger F touches the image display surface 41 and grabs the album (a state in which the finger and the finger are combined) and moves upward as it is, it is selected according to the movement of the finger F. The “jacket image” of the album may be displayed as the floating image P2.

また、より好適には、位置検出部120(空間センサ)が複数の指Fそれぞれの位置を検出可能であるとして、位置検出部120(空間センサ)が検出した複数の指Fの位置から、指Fの形状を特定し、特定した指Fの形状に基づいて、表示された浮遊画像P2を非表示とするようにしてもよい。すなわち、浮遊画像P2が表示された状態で、指Fがアルバムをはなす(合わさった指と指の間隔が広がった状態)ような形状をしたときは、選択されたアルバムの「ジャケット画像」の浮遊画像P2の高さを徐々に低くしていき、最終的には非表示とするようにしてもよい。   More preferably, assuming that the position detection unit 120 (space sensor) can detect the position of each of the plurality of fingers F, from the positions of the plurality of fingers F detected by the position detection unit 120 (space sensor), The shape of F may be specified, and the displayed floating image P2 may be hidden based on the specified shape of the finger F. In other words, when the floating image P2 is displayed and the finger F is shaped to release the album (in a state where the interval between the combined fingers is widened), the floating “jacket image” of the selected album is displayed. The height of the image P2 may be gradually lowered and finally hidden.

このように、画像表示装置100(100A)は、多くの情報(図12に示す例では、アルバム)リストの中から所望の情報を探し出すのに、好適なユーザインターフェースを備えている。すなわち、観察者Hは、つかんで引き上げて放して、また次をつかんで引き上げるというような、高速な情報の切り替えを直感的にすることができるとともに、重力を利用した、より自然な感覚も得ることができる。   As described above, the image display apparatus 100 (100A) includes a suitable user interface for searching for desired information from a large amount of information (album in the example shown in FIG. 12) list. In other words, the observer H can intuitively change information at high speed, such as grasping and lifting and releasing, and then grasping and lifting the next, and also obtains a more natural sense using gravity. be able to.

なお、選択したアルバムの音楽を再生するときは、例えば、指Fを左方に動かすなど、音楽を再生するために予め定められていた動作を実行すればよい。すなわち、指Fを上方に動かす動作のときは、選択したアルバムの浮遊画像P2である「ジャケット画像」を表示するように制御し、「ジャケット画像」を表示した状態で持ち上げた指Fを左方に動かすときは、選択したアルバムの音楽を再生するようにすればよい。   When the music of the selected album is reproduced, for example, a predetermined operation for reproducing the music may be executed such as moving the finger F to the left. That is, during the operation of moving the finger F upward, control is performed to display the “jacket image” that is the floating image P2 of the selected album, and the finger F lifted with the “jacket image” displayed is leftward When moving to, the music of the selected album should be played.

以上、述べたように本実施の形態に係る画像表示装置100は、二次元画像を表示する第1の画像表示面11を備えた第1の表示部10と、第1の画像表示面11から出射される光の光路に配置された画像伝達パネル20と、を有し、第1の画像表示面11から出射される光を画像伝達パネル20の第1の表示部10と対向する側と反対側に位置する空間に、浮遊画像P2として表示する浮遊画像表示部1と、浮遊画像P2が表示される空間の外縁に、二次元画像を表示する第2の画像表示面41を備えた第2の表示部40を有して、第2の画像表示面に1又は複数のオブジェクトを直視画像として表示する直視画像表示部2と、第2の画像表示面41及び前記第2の画像表示面から光が出射される側の空間における被検出体Fの位置を検出する位置検出部120と、位置検出部120が検出した被検出体Fの位置に基づいて、第1の表示部10が表示する二次元画像P1または第2の表示部40が表示する二次元画像P3の少なくともいずれか一つを制御する画像制御部110と、を備え、画像制御部110は、被検出体Fが第2の画像表示面41に表示されたオブジェクトに触れたときには、位置検出部120が検出した被検出体Fの位置に基づいて、選択されたオブジェクトを特定し、被検出体Fが第2の画像表示面41に表示されたオブジェクトに触れた後、被検出体Fが第2の画像表示面41から離れたときには、特定したオブジェクトが表示されていた位置から、特定したオブジェクトに対応する浮遊画像P2を、第2の画像表示面41から離れる方向に伸長して表示するように、第1の表示部10が表示する二次元画像P1を制御するとともに、特定したオブジェクトが表示されていた位置、及び位置検出部120が検出した被検出体Fの位置に基づいて、表示された浮遊画像P2を被検出体Fの軌跡に追随させるように、第1の表示部10が表示する二次元画像P1を制御するので、直視画像と浮遊画像の連動を強めて、演出効果をより高めることができるとともに、直感的でわかりやすい操作や表示を実現することができる。   As described above, the image display device 100 according to the present embodiment includes the first display unit 10 including the first image display surface 11 that displays a two-dimensional image, and the first image display surface 11. An image transmission panel 20 disposed in the optical path of the emitted light, and the light emitted from the first image display surface 11 is opposite to the side facing the first display unit 10 of the image transmission panel 20 A floating image display unit 1 that displays a floating image P2 in a space located on the side, and a second image display surface 41 that displays a two-dimensional image on the outer edge of the space where the floating image P2 is displayed. A direct-view image display unit 2 that displays one or a plurality of objects as direct-view images on the second image display surface, the second image display surface 41, and the second image display surface. Detects the position of the detection object F in the space where light is emitted 2D image P1 displayed by the first display unit 10 or the 2D image displayed by the second display unit 40 based on the position detection unit 120 and the position of the detection object F detected by the position detection unit 120. An image control unit 110 that controls at least one of P3, and the image control unit 110 detects a position detection unit when the detected object F touches an object displayed on the second image display surface 41. Based on the position of the detected object F detected by 120, the selected object is specified, and after the detected object F touches the object displayed on the second image display surface 41, the detected object F becomes the first object. When moving away from the second image display surface 41, the floating image P2 corresponding to the specified object is expanded and displayed in a direction away from the second image display surface 41 from the position where the specified object was displayed. As described above, the two-dimensional image P1 displayed by the first display unit 10 is controlled, and based on the position where the specified object is displayed and the position of the detected object F detected by the position detection unit 120, Since the two-dimensional image P1 displayed by the first display unit 10 is controlled so that the displayed floating image P2 follows the trajectory of the detection object F, the linkage between the direct-view image and the floating image is strengthened, and the rendering effect In addition, the operation and display can be realized intuitively and easily.

以上、本発明の実施の形態について説明してきたが、本発明は、上述した実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲において、本発明の実施の形態に対して種々の変形や変更を施すことができ、そのような変形や変更を伴うものもまた、本発明の技術的範囲に含まれるものである。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made to the embodiments of the present invention without departing from the gist of the present invention. Such modifications and changes can be made, and those accompanying such modifications and changes are also included in the technical scope of the present invention.

本発明の実施の形態に係る画像表示装置の外観斜視図である。1 is an external perspective view of an image display device according to an embodiment of the present invention. 本発明の実施の形態に係る画像表示装置の側面から見た外観図及び機能構成図である。It is the external view and functional block diagram seen from the side of the image display apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像表示装置の画像伝達パネルの構成図である。It is a block diagram of the image transmission panel of the image display apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像表示装置の画像伝達パネルであるマイクロレンズアレイの光学的作用を説明する図である。It is a figure explaining the optical effect | action of the micro lens array which is an image transmission panel of the image display apparatus which concerns on embodiment of this invention. 図4に示すマイクロレンズアレイとは異なる構成のマイクロレンズアレイの光学的作用を説明する図である。It is a figure explaining the optical effect | action of the microlens array of a structure different from the microlens array shown in FIG. 本発明の実施の形態に係る画像表示装置の連動演出の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the interlocking production of the image display apparatus which concerns on embodiment of this invention. 図6に示す連動演出の画像例を示す図である。It is a figure which shows the example of an image of the interlocking production shown in FIG. 本発明の実施の形態に係る画像表示装置の連動演出の変形例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the modification of the interlocking production of the image display apparatus which concerns on embodiment of this invention. 図8に示す連動演出の画像例を示す図である。It is a figure which shows the example of an image of the interlocking production shown in FIG. 本発明の実施の形態に係る画像表示装置の連動演出の画像例を示す図である。It is a figure which shows the example of an image of the interlocking production of the image display apparatus which concerns on embodiment of this invention. 本発明の別の実施の形態に係る画像表示装置の構成を示す図である。It is a figure which shows the structure of the image display apparatus which concerns on another embodiment of this invention. 本発明の実施の形態に係る画像表示装置の連動演出の画像例を示す図である。It is a figure which shows the example of an image of the interlocking production of the image display apparatus which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1 浮遊画像表示部
2 浮遊画像認識部
10,40 表示部
11,41 画像表示面
20,20A 画像伝達パネル
21 レンズアレイ半体
22 透明基板
23 マイクロ凸レンズ
25 マイクロレンズアレイ
30 結像面
100,100A 画像表示装置
P1 二次元画像
P2,P2A 浮遊画像
P3 直視画像(二次元画像)
H 観察者
F 被検出体
DESCRIPTION OF SYMBOLS 1 Floating image display part 2 Floating image recognition part 10,40 Display part 11,41 Image display surface 20,20A Image transmission panel 21 Lens array half body 22 Transparent substrate 23 Micro convex lens 25 Micro lens array 30 Imaging surface 100,100A Image Display device P1 2D image P2, P2A Floating image P3 Direct view image (2D image)
H Observer F Object to be detected

Claims (9)

二次元画像を表示する第1の画像表示面を備えた第1の表示部と、
前記第1の画像表示面から出射される光の光路に配置された画像伝達パネルと、を有し、
前記第1の画像表示面から出射される光を前記画像伝達パネルの前記第1の表示部と対向する側と反対側に位置する空間に、浮遊画像として表示する浮遊画像表示手段と、
前記浮遊画像が表示される空間の外縁に、二次元画像を表示する第2の画像表示面を備えた第2の表示部を有して、前記第2の画像表示面に1又は複数のオブジェクトを直視画像として表示する直視画像表示手段と、
前記第2の画像表示面、及び前記第2の画像表示面から光が出射される側の空間における被検出体の位置を検出する位置検出手段と、
前記位置検出手段が検出した被検出体の位置に基づいて、前記第1の表示部が表示する二次元画像または前記第2の表示部が表示する二次元画像の少なくともいずれか一つを制御する画像制御手段と、
を備え、
前記画像制御手段は、
前記被検出体が前記第2の画像表示面に表示されたオブジェクトに触れたときには、
前記位置検出手段が検出した前記被検出体の位置に基づいて、選択されたオブジェクトを特定し、
前記被検出体が前記第2の画像表示面に表示されたオブジェクトに触れた後、前記被検出体が前記第2の画像表示面から離れたときには、
特定したオブジェクトが表示されていた位置から、前記特定したオブジェクトに対応する浮遊画像を、前記第2の画像表示面から離れる方向に伸長して表示するように、前記第1の表示部が表示する二次元画像を制御するとともに、
前記特定したオブジェクトが表示されていた位置、及び前記位置検出手段が検出した前記被検出体の位置に基づいて、表示された前記浮遊画像を前記被検出体の軌跡に追随させるように、前記第1の表示部が表示する二次元画像を制御することを特徴とする画像表示装置。
A first display unit having a first image display surface for displaying a two-dimensional image;
An image transmission panel disposed in an optical path of light emitted from the first image display surface,
Floating image display means for displaying light emitted from the first image display surface as a floating image in a space located on the opposite side of the image transmission panel from the side facing the first display unit;
A second display unit having a second image display surface for displaying a two-dimensional image at an outer edge of a space in which the floating image is displayed; and one or a plurality of objects on the second image display surface Direct view image display means for displaying as a direct view image;
Position detecting means for detecting the position of the detection object in the second image display surface and a space on the side where light is emitted from the second image display surface;
Based on the position of the detection object detected by the position detection means, at least one of the two-dimensional image displayed by the first display unit or the two-dimensional image displayed by the second display unit is controlled. Image control means;
With
The image control means includes
When the detected object touches the object displayed on the second image display surface,
Based on the position of the detected object detected by the position detecting means, the selected object is identified,
After the detected object touches the object displayed on the second image display surface, when the detected object leaves the second image display surface,
The first display unit displays the floating image corresponding to the identified object from the position where the identified object was displayed so as to extend in a direction away from the second image display surface. While controlling 2D images,
Based on the position where the identified object is displayed and the position of the detected object detected by the position detecting means, the displayed floating image is made to follow the locus of the detected object. An image display device that controls a two-dimensional image displayed by one display unit.
前記画像制御手段は、
前記浮遊画像を表示後、前記位置検出手段が前記被検出体を検出できない場合には、
表示された浮遊画像を、徐々に前記第2の画像表示面に向かって短縮させ、消滅させるように前記第1の表示部が表示する二次元画像を制御することを特徴とする請求項1記載の画像表示装置。
The image control means includes
After the floating image is displayed, when the position detection unit cannot detect the detected object,
2. The two-dimensional image displayed by the first display unit is controlled so that the displayed floating image is gradually shortened toward the second image display surface and disappears. Image display device.
前記画像制御手段は、
前記被検出体が前記第2の画像表示面に表示された、前記浮遊画像に対応づけられえたオブジェクトとは異なるオブジェクトに触れ、前記位置検出手段が検出した前記被検出体の位置に基づいて、選択されたオブジェクトが前記異なるオブジェクトであることを判断した場合には、
表示された浮遊画像を、徐々に前記第2の画像表示面に向かって短縮させ、消滅させるように前記第1の表示部が表示する二次元画像を制御することを特徴とする請求項1記載の画像表示装置。
The image control means includes
Based on the position of the detected object detected by the position detecting means, the object to be detected is touched on an object different from the object associated with the floating image displayed on the second image display surface. If it is determined that the selected object is the different object,
2. The two-dimensional image displayed by the first display unit is controlled so that the displayed floating image is gradually shortened toward the second image display surface and disappears. Image display device.
前記画像制御手段は、
前記特定したオブジェクトに対応する浮遊画像を、前記第2の画像表示面から浮き上がらせて表示する場合には、前記特定したオブジェクトに対応する浮遊画像の影を前記第2の画像表示面に表示するように、前記第2の表示部が表示する二次元画像を制御することを特徴とする請求項1記載の画像表示装置。
The image control means includes
When the floating image corresponding to the identified object is displayed by being lifted from the second image display surface, the shadow of the floating image corresponding to the identified object is displayed on the second image display surface. The image display apparatus according to claim 1, wherein the two-dimensional image displayed by the second display unit is controlled.
前記浮遊画像は、
前記第1の画像表示面に表示された二次元画像に基づく実像であることを特徴とする請求項1乃至4のいずれか1項に記載の画像表示装置。
The floating image is
The image display device according to claim 1, wherein the image display device is a real image based on a two-dimensional image displayed on the first image display surface.
前記浮遊画像は、
前記画像伝達パネルによって空間中の結像面に結像された実像であることを特徴とする請求項5記載の画像表示装置。
The floating image is
The image display device according to claim 5, wherein the image display device is a real image formed on an image plane in space by the image transmission panel.
前記浮遊画像表示手段は、
前記浮遊画像を空間中の結像面に結像し、
前記画像制御手段は、
前記特定したオブジェクトに対応する浮遊画像を、前記第2の画像表示面から浮き上がらせて表示する場合であって、前記被検出体が、前記結像面と前記第2の画像表示面の交線上ではない位置に表示されたオブジェクトに触れた場合には、前記特定したオブジェクトに対応する浮遊画像の影を前記第2の画像表示面に表示しない、または前記特定したオブジェクトに対応する浮遊画像の影を、特定したオブジェクトが表示された位置から前記交線上の位置まで移動させることを特徴とする請求項4記載の画像表示装置。
The floating image display means includes
Forming the floating image on an image plane in space;
The image control means includes
The floating image corresponding to the specified object is displayed by being lifted from the second image display surface, and the detected object is located on the intersection line of the imaging surface and the second image display surface. When an object displayed at a position other than is touched, the shadow of the floating image corresponding to the specified object is not displayed on the second image display surface, or the shadow of the floating image corresponding to the specified object is not displayed. The image display apparatus according to claim 4, wherein the specified object is moved from a position where the specified object is displayed to a position on the intersection line.
前記被検出体は、複数の部分から構成され、
前記位置検出手段は、
前記第2の画像表示面から光が出射される側の空間において、前記被検出体の複数の部分のそれぞれの位置を検出可能であり、
前記画像制御手段は、
前記被検出体が前記第2の画像表示面に表示されたオブジェクトに触れたときには、
前記位置検出手段が検出した前記被検出体の位置に基づいて、選択されたオブジェクトを特定し、
前記被検出体が前記第2の画像表示面に表示されたオブジェクトに触れ、かつ前記被検出体の複数の部分が第1の形状をなした後、前記被検出体が前記第2の画像表示面から離れたときには、
前記位置検出手段が検出した前記被検出体の複数の部分の位置から、前記第1の形状を特定することにより、特定したオブジェクトが表示されていた位置から、前記特定したオブジェクトに対応する浮遊画像を、前記第2の画像表示面から離れる方向に伸長して表示するように、前記第1の表示部が表示する二次元画像を制御するとともに、
前記特定したオブジェクトが表示されていた位置、及び前記位置検出手段が検出した前記被検出体の位置に基づいて、表示された前記浮遊画像を前記被検出体の軌跡に追随させるように、前記第1の表示部が表示する二次元画像を制御し、
前記浮遊画像を表示後、前記被検出体の複数の部分が第2の形状をなしたときには、
前記位置検出手段が検出した前記被検出体の複数の部分の位置から、前記第2の形状を特定することにより、表示された浮遊画像を、徐々に前記第2の画像表示面に向かって短縮させ、消滅させるように前記第1の表示部が表示する二次元画像を制御することを特徴とする請求項1記載の画像表示装置。
The detected object is composed of a plurality of parts,
The position detecting means includes
In the space where light is emitted from the second image display surface, it is possible to detect the respective positions of the plurality of portions of the detected object;
The image control means includes
When the detected object touches the object displayed on the second image display surface,
Based on the position of the detected object detected by the position detecting means, the selected object is identified,
After the detected object touches the object displayed on the second image display surface and a plurality of portions of the detected object form a first shape, the detected object displays the second image display When away from the surface
The floating image corresponding to the identified object from the position where the identified object is displayed by identifying the first shape from the positions of the plurality of portions of the detected object detected by the position detecting means. And controlling the two-dimensional image displayed by the first display unit so as to extend and display in a direction away from the second image display surface,
Based on the position where the identified object is displayed and the position of the detected object detected by the position detecting means, the displayed floating image is made to follow the locus of the detected object. Controlling the two-dimensional image displayed by one display unit,
After displaying the floating image, when a plurality of portions of the detected object has a second shape,
The displayed floating image is gradually shortened toward the second image display surface by specifying the second shape from the positions of the plurality of portions of the detected object detected by the position detecting means. The image display apparatus according to claim 1, wherein the two-dimensional image displayed by the first display unit is controlled so as to be erased.
前記第2の表示部の前記第2の画像表示面は、前記浮遊画像の下方に配置されることを特徴とする請求項1乃至4のいずれか1項に記載の画像表示装置。   5. The image display device according to claim 1, wherein the second image display surface of the second display unit is disposed below the floating image. 6.
JP2007257070A 2007-10-01 2007-10-01 Image display device Expired - Fee Related JP5049723B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007257070A JP5049723B2 (en) 2007-10-01 2007-10-01 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007257070A JP5049723B2 (en) 2007-10-01 2007-10-01 Image display device

Publications (2)

Publication Number Publication Date
JP2009086395A JP2009086395A (en) 2009-04-23
JP5049723B2 true JP5049723B2 (en) 2012-10-17

Family

ID=40659876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007257070A Expired - Fee Related JP5049723B2 (en) 2007-10-01 2007-10-01 Image display device

Country Status (1)

Country Link
JP (1) JP5049723B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5816442B2 (en) * 2011-02-28 2015-11-18 京楽産業.株式会社 Game machine
CN103246070B (en) * 2013-04-28 2015-06-03 青岛歌尔声学科技有限公司 3D spectacles with gesture control function and gesture control method thereof
WO2015194773A1 (en) * 2014-06-20 2015-12-23 엘지전자(주) Display device and driving method therefor
KR102206958B1 (en) * 2014-06-20 2021-01-26 엘지전자 주식회사 display device
JP6465378B2 (en) * 2014-08-01 2019-02-06 日東電工株式会社 Information display device
WO2018003860A1 (en) * 2016-06-28 2018-01-04 株式会社ニコン Display device, program, display method, and controller
JP6860191B2 (en) * 2016-11-28 2021-04-14 石川 大 A three-dimensional two-dimensional image display device and a three-dimensional two-dimensional image display system formed by using the device.
JP7194423B2 (en) * 2018-10-12 2022-12-22 国立大学法人電気通信大学 Aerial image forming device
TWI808373B (en) * 2021-01-20 2023-07-11 幻景啟動股份有限公司 Floating three-dimensional image display system

Also Published As

Publication number Publication date
JP2009086395A (en) 2009-04-23

Similar Documents

Publication Publication Date Title
JP5049723B2 (en) Image display device
JP5087632B2 (en) Image display device
JP6724987B2 (en) Control device and detection method
JP4576390B2 (en) Stereoscopic two-dimensional image display apparatus and stereoscopic two-dimensional image display method
US20100066662A1 (en) Image display device
US20100007636A1 (en) Image display device
US20170344222A1 (en) System and method for interfacing with a device via a 3d display
KR101856568B1 (en) Multi view image display apparatus and controlling method thereof
US9766793B2 (en) Information processing device, information processing method and program
KR101180119B1 (en) Method, apparatusand computer-readable recording medium for controlling display by head trackting using camera module
JP4996681B2 (en) Image display device
EP1530119A2 (en) Stereoscopic two-dimensional image display device and method
US10116914B2 (en) Stereoscopic display
US9703400B2 (en) Virtual plane in a stylus based stereoscopic display system
JP2012133543A (en) Information processor, information processing method, and program
KR20120000663A (en) Apparatus for processing 3d object
JPWO2009025034A1 (en) Image display device
JP2008219788A (en) Stereoscopic image display device, and method and program therefor
JPWO2010035326A1 (en) Image display device and image display system
CN104836998A (en) Display apparatus and controlling method thereof
US20230333646A1 (en) Methods for navigating user interfaces
US20230315270A1 (en) Method of displaying user interfaces in an environment and corresponding electronic device and computer readable storage medium
KR102224715B1 (en) 3D interaction apparatus, display device including the same, and method of driving the same
KR102218967B1 (en) System and control method of 3d air touch display
JP2005175973A (en) Stereoscopic display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120723

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5049723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees