JP5375656B2 - Image display device and image display method - Google Patents
Image display device and image display method Download PDFInfo
- Publication number
- JP5375656B2 JP5375656B2 JP2010035009A JP2010035009A JP5375656B2 JP 5375656 B2 JP5375656 B2 JP 5375656B2 JP 2010035009 A JP2010035009 A JP 2010035009A JP 2010035009 A JP2010035009 A JP 2010035009A JP 5375656 B2 JP5375656 B2 JP 5375656B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- eye
- unit
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、表示画面に画像を表示する画像表示装置および画像表示方法に関する。 The present invention relates to an image display device and an image display method for displaying an image on a display screen.
従来、操作ボタン等の画像をユーザに立体視させ、その画像に対するユーザの操作入力を受け付ける機能を有する表示装置が知られている。 2. Description of the Related Art Conventionally, a display device having a function of causing a user to stereoscopically view an image such as an operation button and receiving a user's operation input on the image is known.
例えば、特許文献1には、手前に浮き出てくるように見えるスイッチのキー部分に接近してくるユーザの指等の被検出物を、光電スイッチ等の物体検出手段で検出することで、キー部分に対するユーザの操作を検出する技術が開示されている。
For example, in
また、特許文献2には、DFD(Depth-Fused 3-D)と複数枚のレンズからなる光学系とを組み合わせた3次元(3D)画像を表示可能な表示装置にタッチパネルを重ねて配置した画像表示システムにおいて、ボタン等の3D画像を表示画面より手前(タッチパネル側)にまで表示可能とし、タッチパネルによりボタン等の3D画像に対するユーザの操作を受け付ける技術が開示されている。
特許文献1の技術では、押下操作を非接触で検出するため、ユーザはキーを物理的に押下した感触を得ることができない。このため、ユーザは操作に違和感を覚える。
In the technique of
これに対して、特許文献2の技術では、ユーザはタッチパネルに触れて操作を行うため、特許文献1の技術のような違和感はない。
On the other hand, in the technique of
しかしながら、特許文献2における表示装置は、3D画像を表示画面より手前にまで表示可能とするために、複数枚のレンズを所定間隔で配置した光学系をDFDに組み合わせているため、装置が大型化する。
However, since the display device in
本発明は上記に鑑みてなされたもので、3D画像に対する操作時のユーザの違和感を軽減しながら、装置の大型化を抑えることができる画像表示装置および画像表示方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an image display device and an image display method capable of suppressing an increase in size of the device while reducing a user's uncomfortable feeling when operating a 3D image. .
上記目的を達成するため、請求項1に係る画像表示装置は、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、前記画像生成部で生成する前記3次元表示用画像における左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、前記画像生成制御部は、前記表示画面の表面と前記検出部の前記入力面との間の距離、一般的な人間の左眼と右眼との間隔の想定値、および観察者の左眼および右眼から前記検出部の前記入力面までの距離を用いて、3次元画像が前記入力面の近傍に結像し、その結像高さが前記入力面より低くならないように、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする。
To achieve the above object, an image display device according to
請求項2に係る画像表示装置は、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、前記画像生成制御部は、結像高さの互いに異なる複数の調整用3次元表示用画像を前記表示部に表示させ、観察者により選択された1つの前記調整用3次元表示用画像の左眼用画像と右眼用画像との間隔に基づいて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする。
An image display device according to
請求項3に係る画像表示装置は、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、前記画像生成制御部は、前記表示画面の略同じ位置に表示される調整用右眼用画像と調整用左眼用画像とを前記表示部に順次表示させ、前記調整用右眼用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置と、前記調整用左眼用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置とを用いて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする。
An image display device according to
請求項4に係る画像表示装置は、請求項1乃至3のいずれか1項に記載の画像表示装置において、前記制御部は、複数の位置補正用3次元表示用画像を前記表示部に順次表示させ、それぞれの前記位置補正用3次元表示用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置を用いて、前記検出部の前記入力面における入力位置と、前記表示部の表示画面における画素位置とを関連づけする位置補正処理を行うことを特徴とする。
The image display device according to
請求項5に係る画像表示装置は、請求項1乃至4のいずれか1項に記載の画像表示装置において、前記制御部は、前記検出部の前記入力面が押圧されたときに、前記表示画面における、押圧された前記入力面の入力位置に対応する位置に表示するための左眼用画像および右眼用画像を前記画像生成部で生成して前記表示部に表示するよう制御することを特徴とする。
The image display device according to
請求項6に係る画像表示装置は、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部とを備え、前記制御部は、複数の位置補正用3次元表示用画像を前記表示部に順次表示させ、それぞれの前記位置補正用3次元表示用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置を用いて、前記検出部の前記入力面における入力位置と、前記表示部の表示画面における画素位置とを関連づけする位置補正処理を行うことを特徴とする。
請求項7に係る画像表示装置は、請求項6に記載の画像表示装置において、前記制御部は、前記検出部の前記入力面が押圧されたときに、前記表示画面における、押圧された前記入力面の入力位置に対応する位置に表示するための左眼用画像および右眼用画像を前記画像生成部で生成して前記表示部に表示するよう制御することを特徴とする。
請求項8に係る画像表示装置は、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部とを備え、前記制御部は、前記検出部の前記入力面が押圧されたときに、前記表示画面における、押圧された前記入力面の入力位置に対応する位置に表示するための左眼用画像および右眼用画像を前記画像生成部で生成して前記表示部に表示するよう制御することを特徴とする。
請求項9に係る画像表示装置は、請求項6乃至8のいずれか1項に記載の画像表示装置において、前記画像生成部で生成する前記3次元表示用画像における左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部をさらに備え、前記画像生成制御部は、所定の値を用いて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする。
An image display device according to
The image display device according to
An image display device according to an eighth aspect of the present invention provides an image generation unit that generates a three-dimensional display image including a left-eye image and a right-eye image for allowing an observer to visually recognize a three-dimensional image by binocular parallax; A display unit configured to display the image for three-dimensional display generated by the image generation unit; and an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed. A detection unit, a position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit, and an input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image. In some cases, a control unit that performs execution control of a predetermined function is provided, and the control unit is arranged at an input position of the pressed input surface on the display screen when the input surface of the detection unit is pressed. Left eye for display at corresponding position The image and the right eye image generated by the image generating unit and the control unit controls to display on the display unit.
The image display device according to claim 9 is the image display device according to any one of
請求項10に係る画像表示装置は、請求項1乃至5,9のいずれか1項に記載の画像表示装置において、前記画像生成制御部は、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を変化させることを特徴とする。
請求項11に係る画像表示装置は、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、前記画像生成部で生成する前記3次元表示用画像における左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、前記画像生成制御部は、所定の値を用いて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定し、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を変化させることを特徴とする。
The image display device according to a tenth aspect is the image display device according to any one of the first to fifth and ninth aspects, wherein the input position acquired by the position acquisition unit is the input position acquired by the position acquisition unit. When the position corresponds to a three-dimensional display image, the interval between the left-eye image and the right-eye image of the three-dimensional display image is changed.
An image display device according to an eleventh aspect includes an image generation unit that generates a three-dimensional display image including a left-eye image and a right-eye image for allowing an observer to visually recognize a three-dimensional image using binocular parallax; A display unit configured to display the image for three-dimensional display generated by the image generation unit; and an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed. A detection unit, a position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit, and an input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image. In some cases, the control unit that executes and controls a predetermined function, and the three-dimensional display by controlling the interval between the left-eye image and the right-eye image in the three-dimensional display image generated by the image generation unit. Is visually recognized by the observer. An image generation control unit that controls the imaging height of the three-dimensional image, and the image generation control unit uses a predetermined value for the left eye of the three-dimensional display image generated by the image generation unit. When an interval between the image and the right eye image is determined and the input position acquired by the position acquisition unit is a position corresponding to the 3D display image, the left eye image of the 3D display image It is characterized in that the interval with the right-eye image is changed.
請求項12に係る画像表示装置は、請求項10または11に記載の画像表示装置において、前記画像生成制御部は、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を段階的に縮小し、前記3次元表示用画像の左眼用画像と右眼用画像との間隔が所定間隔以下になった後、縮小開始前の間隔に戻るまで段階的に間隔を拡大するように、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を変化させることを特徴とする。 An image display device according to a twelfth aspect is the image display device according to the tenth or eleventh aspect , wherein the input position acquired by the position acquisition unit corresponds to the three-dimensional display image. In the case of the position, the interval between the left-eye image and the right-eye image of the three-dimensional display image is reduced stepwise, and the interval between the left-eye image and the right-eye image of the three-dimensional display image Changing the interval between the left-eye image and the right-eye image of the three-dimensional display image so that the interval is gradually increased until the interval returns to the interval before the reduction start after It is characterized by.
請求項13に係る画像表示装置は、請求項12に記載の画像表示装置において、前記画像生成制御部は、前記3次元表示用画像の左眼用画像と右眼用画像との間隔が所定間隔以下になった後、前記3次元表示用画像に関連づけられた機能の実行処理が終了するまで間隔が所定間隔以下の状態を維持することを特徴とする。 The image display device according to a thirteenth aspect is the image display device according to the twelfth aspect , in which the image generation control unit is configured such that the interval between the left-eye image and the right-eye image of the three-dimensional display image is a predetermined interval. After the following, the interval is maintained at a predetermined interval or less until the execution of the function associated with the three-dimensional display image is completed.
請求項14に係る画像表示装置は、請求項12に記載の画像表示装置において、前記画像生成制御部は、前記3次元表示用画像の左眼用画像と右眼用画像との間隔が所定間隔以下になった後、縮小開始前の間隔に戻るまで、前記3次元表示用画像に関連づけられた機能の実行処理の進行状況に応じて段階的に間隔を拡大することを特徴とする。 The image display device according to a fourteenth aspect is the image display device according to the twelfth aspect , wherein the image generation control unit is configured such that a distance between the left-eye image and the right-eye image of the three-dimensional display image is a predetermined interval. After the following, the interval is expanded stepwise in accordance with the progress of the execution processing of the function associated with the three-dimensional display image until the interval before the start of reduction is restored.
請求項15に係る画像表示方法は、表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部とを備える画像表示装置の前記表示部に画像を表示する画像表示方法であって、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像における左眼用画像と右眼用画像との間隔を決定するステップと、決定した左眼用画像と右眼用画像との間隔に基づいて前記3次元表示用画像を生成するステップと、前記3次元表示用画像を前記表示部に表示するステップとを含み、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップは、前記表示画面の表面と前記検出部の前記入力面との間の距離、一般的な人間の左眼と右眼との間隔の想定値、および観察者の左眼および右眼から前記検出部の前記入力面までの距離を用いて、3次元画像が前記入力面の近傍に結像し、その結像高さが前記入力面より低くならないように、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップであることを特徴とする。
The image display method which concerns on
請求項16に係る画像表示方法は、表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部とを備える画像表示装置の前記表示部に画像を表示する画像表示方法であって、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像における左眼用画像と右眼用画像との間隔を決定するステップと、決定した左眼用画像と右眼用画像との間隔に基づいて前記3次元表示用画像を生成するステップと、前記3次元表示用画像を前記表示部に表示するステップとを含み、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップは、結像高さの互いに異なる複数の調整用3次元表示用画像を前記表示部に表示するステップと、観察者により選択された1つの前記調整用3次元表示用画像の左眼用画像と右眼用画像との間隔に基づいて、前記表示部に表示する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップとを含むことを特徴とする。
The image display method which concerns on
請求項17に係る画像表示方法は、表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部とを備える画像表示装置の前記表示部に画像を表示する画像表示方法であって、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像における左眼用画像と右眼用画像との間隔を決定するステップと、決定した左眼用画像と右眼用画像との間隔に基づいて前記3次元表示用画像を生成するステップと、前記3次元表示用画像を前記表示部に表示するステップとを含み、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップは、調整用右眼用画像と調整用左眼用画像とを前記表示部の前記表示画面の略同じ位置に順次表示し、前記調整用右眼用画像の表示時において観察者の操作に応じて取得した前記入力面における入力位置と、前記調整用左眼用画像の表示時において観察者の操作に応じて取得した前記入力面における入力位置とを用いて、前記表示部に表示する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップであることを特徴とする。
An image display method according to
本発明によれば、3D画像に対する操作時のユーザの違和感を軽減しながら、装置の大型化を抑えることができる画像表示装置および画像表示方法を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the image display apparatus and image display method which can suppress the enlargement of an apparatus can be provided, reducing the user's discomfort at the time of operation with respect to 3D image.
以下、本発明の実施の形態について、図面を参照して説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.
(第1の実施の形態)
まず、両眼視差により観察者に画像を立体視させる3次元(3D)画像表示方法について、偏光フィルタ方式を例に説明する。
(First embodiment)
First, a three-dimensional (3D) image display method that allows an observer to stereoscopically view an image with binocular parallax will be described using a polarization filter method as an example.
図1において、液晶ディスプレイ(LCD:Liquid Crystal Display)1の表示画面上には、偏光特性の異なる2種類の偏光フィルタが1表示ラインおきに水平方向に配置されており、一方の偏光フィルタが配置されている表示ラインに左眼用画像が表示され、他方の偏光フィルタが配置されている表示ラインに右眼用画像が表示される構成となっている。観察者は、この左眼用画像と右眼用画像とが隔行で表示された表示画面を偏光眼鏡を通して見ることにより、左眼には左眼画像を、右眼には右眼画像を見ることになり、両眼視差による3D画像を視認することができる。 In FIG. 1, on the display screen of a liquid crystal display (LCD) 1, two types of polarizing filters having different polarization characteristics are arranged in the horizontal direction every other display line, and one polarizing filter is arranged. The left-eye image is displayed on the displayed display line, and the right-eye image is displayed on the display line on which the other polarizing filter is arranged. The observer sees the left eye image for the left eye and the right eye image for the right eye by viewing the display screen on which the left eye image and the right eye image are displayed in a separate manner through polarized glasses. Thus, a 3D image with binocular parallax can be visually recognized.
図1に示すように、左眼用画像GL1と右眼用画像GR1とをLCD1の表示画面上に表示した場合、観察者の両眼視差により、LCD1の表示画面の表面1aから距離Lc1に結像画像GC1が結像する。左眼用画像GL1と右眼用画像GR1との間隔よりも狭い間隔で表示される左眼用画像GL2と右眼用画像GR2によれば、距離Lc1より短い距離Lc2に結像画像GC2が結像する。
As shown in FIG. 1, when the left-eye image GL1 and the right-eye image GR1 are displayed on the display screen of the
本実施の形態では、図1に示すように、3D画像を表示可能なLCD1の表示画面の表面1a側にタッチパネル2を配置し、ユーザの操作を受け付けることができる構成とする。
In the present embodiment, as shown in FIG. 1, the
タッチパネル2は、ユーザの指やタッチペンなどにより入力面2aが押圧されたことを検出し、さらに押圧された位置である入力位置を判別することが可能な位置検出デバイスである。
The
タッチパネル2は、透明なガラスやフィルムで構成され、LCD1の表示画面に近接して取り付けられるので、ユーザは、LCD1の表示画面に表示される画像を、タッチパネルを介して見ることができる。そして、ユーザが表示画面に表示される画像に向けて操作を加えると、画像の近傍においてタッチパネルが押圧されることになるので、表示画像に対しての入力を検知することができる。
The
このように、3D画像を表示可能なLCD1とタッチパネル2とを組み合わせることで、ユーザに画像を立体視させる視覚的効果に加え、LCD1に3D表示する操作ボタン等の画像に対してユーザが直接的に入力操作することが可能となる。これにより、ユーザは実際に操作ボタンを操作するのと近い感覚で入力操作を行うことができる。
In this way, by combining the
前述のように、3D画像を表示するための左眼用画像と右眼用画像との表示間隔が、表示画面の表面1aからの結像画像の距離(結像高さ)に影響する。そして、操作ボタン等の3D画像を表示するための左眼用画像と右眼用画像とを表示し、その結像画像に対してユーザが操作を行う場合、結像画像の結像高さがユーザの操作性に影響を与える。
As described above, the display interval between the left-eye image and the right-eye image for displaying the 3D image affects the distance (imaging height) of the imaged image from the
図2(b)に示すように、タッチパネル2の入力面2aの近傍に結像する結像画像GC2に対して、ユーザがタッチペン3を用いて入力操作を行う場合には、ユーザは違和感なく操作を行える。
As illustrated in FIG. 2B, when the user performs an input operation using the
これに対し、図2(a)に示すように、タッチパネル2の入力面2aから遠くに結像する結像画像GC1に対して入力操作を行う場合、タッチペン3がタッチパネル2の入力面2aに届かないおそれがある。たとえ、そのままタッチペン3を入力面2aに向けて進め、タッチパネル2の入力面2aに接触できたとしても、ユーザは操作に違和感を覚えることは言うまでもない。
On the other hand, as shown in FIG. 2A, when an input operation is performed on an image GC1 that forms an image far from the
さらに、ユーザは目標物を失うため、結像画像GC1に該当するタッチパネル2の入力位置を正確に押圧することができず、他の操作ボタンの表示位置を押圧するといった操作ミスをするおそれもある。
Furthermore, since the user loses the target, the user cannot press the input position of the
このため、ユーザに違和感の少ない操作性を提供するためには、左眼用画像と右眼用画像とによる結像画像が、タッチパネル2の入力面2aの近傍に結像することが望ましい。
For this reason, in order to provide the operability with less discomfort to the user, it is desirable that an image formed by the left eye image and the right eye image is formed in the vicinity of the
ここで、左眼用画像と右眼用画像とによる結像高さを設定する方法について説明する。 Here, a method for setting the imaging height of the left-eye image and the right-eye image will be described.
図3に示すように、LCD1の表示画面に右眼用画像である表示点Pd1と左眼用画像である表示点Pd2とをD2の間隔で表示し、観察者の左眼ELと右眼ERにてそれぞれに対応する表示点を見たときの、結像点Pcの表示画面の表面1aからの距離である結像高さをL2とする。
As shown in FIG. 3, a display point Pd1 that is an image for the right eye and a display point Pd2 that is an image for the left eye are displayed at an interval of D2 on the display screen of the
LCD1の表示画面を直視した場合、「(表示点Pd1の中心)−(表示点Pd2の中心)−(結像点Pcの中心)がなす三角形」と、「(右眼ER)−(左眼EL)−(結像点Pcの中心)がなす三角形」とは相似関係にある。このため、表示点Pd1と表示点Pd2とをD2の間隔で表示した場合、図4に示す通り、LCD1の表示画面のどこに表示点Pd1,Pd2を表示したとしても、表示画面の表面1aから結像点Pcまでの距離L2は一定である。
When the display screen of the
よって、タッチパネル2の厚みT、左眼ELと右眼ERとの間隔D1、左眼ELおよび右眼ERからタッチパネル2の入力面2aまでの距離L1とすると、以下の(式1)が成り立つ。
Therefore, when the thickness T of the
D1:D2=(L1+T−L2):L2 …(式1)
この(式1)より、
D2=(D1×L2)÷(L1+T−L2) …(式2)
となる。
D1: D2 = (L1 + T−L2): L2 (Formula 1)
From this (Equation 1)
D2 = (D1 × L2) ÷ (L1 + T−L2) (Expression 2)
It becomes.
LCD1の画素間のピッチをDpとすると、表示点Pd1の中心と表示点Pd2の中心との間の画素数Ngは、D2を画素ピッチDpで割ったものになるので、以下の(式3)により求められる。
Assuming that the pitch between the pixels of the
Ng = D2÷Dp
=(D1×L2)÷{(L1+T−L2)×Dp} …(式3)
上記(式3)において、画素数Ngを算出するために必要な各パラメータは、適用する装置の構成や使用方法に応じて決定することができる。
Ng = D2 / Dp
= (D1 × L2) ÷ {(L1 + T−L2) × Dp} (Formula 3)
In the above (Equation 3), each parameter necessary for calculating the number of pixels Ng can be determined according to the configuration and usage method of the device to be applied.
以下に、3インチLCDを搭載した携帯型の装置を例に、各パラメータの決定方法、および表示点Pd1と表示点Pd2と間の画素数Ngの算出方法について説明する。 Hereinafter, a method for determining each parameter and a method for calculating the number of pixels Ng between the display point Pd1 and the display point Pd2 will be described using a portable device equipped with a 3-inch LCD as an example.
まず、装置の構成により決定されるパラメータについて説明する。 First, parameters determined by the configuration of the apparatus will be described.
タッチパネルの厚みT、およびLCDの画素ピッチDpは、装置の構成によって必然的に決まるパラメータであり、当算出例では、タッチパネルの厚みT=5mm、画素ピッチDp=0.15mmとする。 The thickness T of the touch panel and the pixel pitch Dp of the LCD are parameters that are inevitably determined depending on the configuration of the apparatus. In this calculation example, the thickness T of the touch panel is 5 mm and the pixel pitch Dp is 0.15 mm.
ここで、タッチパネルの厚みを5mmとする理由について述べる。3インチ前後の比較的小さなLCDに用いられるタッチパネルの厚みは、一般的に1〜2mmのものが多い。これは、主に装置の外形寸法を極力小さくするためであるが、2mm程度の厚みに合わせて3D表示したとしても立体的な効果は少ない。 Here, the reason why the thickness of the touch panel is 5 mm will be described. The thickness of a touch panel used for a relatively small LCD of about 3 inches is generally 1 to 2 mm. This is mainly to reduce the external dimensions of the apparatus as much as possible, but even if the 3D display is made in accordance with the thickness of about 2 mm, the three-dimensional effect is small.
タッチパネルの厚みは、基材(例えばガラス板)の厚みの変更などで容易に変更可能であるので、当算出例では、タッチパネルの厚みT=5mmとする。 Since the thickness of the touch panel can be easily changed by changing the thickness of the base material (for example, a glass plate), the thickness T of the touch panel is set to 5 mm in this calculation example.
次に、装置の使用方法により決定されるパラメータについて説明する。 Next, parameters determined depending on how the apparatus is used will be described.
ユーザの眼からタッチパネルまでの距離L1は、装置の使用方法に依存する。3インチLCDを搭載した携帯型の装置の場合、ユーザが片手で装置を持ち、もう一方の手で操作を行うという方法で使用される。人間の手の長さには大差はないので、このような使用方法における眼から装置まで距離は300〜400mm程度と予想される。 The distance L1 from the user's eyes to the touch panel depends on how the device is used. In the case of a portable device equipped with a 3-inch LCD, a user holds the device with one hand and operates with the other hand. Since there is no great difference in the length of a human hand, the distance from the eye to the device in such a method of use is expected to be about 300 to 400 mm.
図3から明らかなように、眼からタッチパネルまでの距離が小さいほど、立体感がなくなるので、300mmの距離で使用しても3D画像の結像高さがタッチパネルの入力面より低くならないようにすることが望ましい。よって、眼からタッチパネルまでの距離L1=300mmと決めることができる。 As is clear from FIG. 3, the smaller the distance from the eye to the touch panel, the less the stereoscopic effect. Therefore, even when used at a distance of 300 mm, the imaging height of the 3D image should not be lower than the input surface of the touch panel. It is desirable. Therefore, the distance from the eye to the touch panel L1 = 300 mm can be determined.
以上で決定した各パラメータの値を用いて、画素数Ngを算出する方法について説明する。 A method of calculating the number of pixels Ng using the parameter values determined above will be described.
人間の眼の間隔は、一般的に65mmとされているので、D1=65mmとし、タッチパネルの入力面に3D画像が結像するようにするためにはL2=5mmとすればよいので、(式3)より、画素数Ngは以下のように算出される。 Since the distance between human eyes is generally 65 mm, D1 = 65 mm, and L2 = 5 mm in order to form a 3D image on the input surface of the touch panel. From 3), the number of pixels Ng is calculated as follows.
Ng =(65×5)÷{(300+5−5)×0.15}
= 7.22[個]
図3より明らかなように、より立体感を高めるためには画素数Ngを大きくすることが望ましいので、切り上げ処理を行い、Ng=8[個]と求められる。つまり、表示点Pd1の中心と表示点Pd2の中心との間隔が8画素(表示点Pd1,Pd2を1画素で表示した場合には、表示点Pd1とPd2との間の画素数は7画素になる)になるように表示画面に表示を行えば、タッチパネル2の入力面2aの近傍に結像点Pcを生成させることができる。
Ng = (65 × 5) ÷ {(300 + 5-5) × 0.15}
= 7.22 [pieces]
As is clear from FIG. 3, it is desirable to increase the number of pixels Ng in order to enhance the stereoscopic effect. Therefore, round-up processing is performed and Ng = 8 [pieces] is obtained. That is, the distance between the center of the display point Pd1 and the center of the display point Pd2 is 8 pixels (when the display points Pd1 and Pd2 are displayed as one pixel, the number of pixels between the display points Pd1 and Pd2 is 7 pixels. If the image is displayed on the display screen so that the image forming point Pc can be generated in the vicinity of the
以上で説明したように、適用する装置の構成や使用方法に応じて、上述した各パラメータを予め決定しておくことにより、タッチパネルの入力面から適切な高さに3D画像を結像させることが可能となる。 As described above, a 3D image can be formed at an appropriate height from the input surface of the touch panel by determining each of the above-described parameters in advance according to the configuration of the device to be applied and the method of use. It becomes possible.
次に、図5を参照して、第1の実施の形態に係る画像表示装置の構成を説明する。 Next, the configuration of the image display apparatus according to the first embodiment will be described with reference to FIG.
図5に示すように、第1の実施の形態に係る画像表示装置10は、タッチパネル(検出部)2と、位置取得部11と、画像生成部12と、再生部13と、表示部14と、制御部15と、ROM(Read Only Memory)16と、RAM(Random Access Memory)17とを備える。
As shown in FIG. 5, the
タッチパネル2は、前述した通り、ユーザの指やタッチペンなどにより入力面2aが押圧されたことを検出し、さらに押圧された入力位置を判別することが可能な位置検出デバイスである。
As described above, the
タッチパネルの方式には多くの種類があるが、ここでは、最も一般的である抵抗膜式タッチパネルを例に挙げて説明を行う。抵抗膜式タッチパネルは、入力面が押圧されることにより、絶縁体で隔てられた2つの透明導電膜が接触する構造となっており、水平(以下、X軸とする)方向と垂直(以下、Y軸とする)方向の接触位置に比例した電圧をそれぞれ出力するように構成されている。このX軸方向とY軸方向の出力電圧をA/D(アナログ/デジタル)変換することにより、押圧された位置が検出可能となる。 There are many types of touch panel systems. Here, the most common resistive film type touch panel will be described as an example. The resistive touch panel has a structure in which two transparent conductive films separated by an insulator are in contact with each other when the input surface is pressed, and is perpendicular to the horizontal (hereinafter referred to as the X-axis) direction (hereinafter referred to as the following). A voltage proportional to the contact position in the direction of the Y axis) is output. The pressed position can be detected by A / D (analog / digital) conversion of the output voltages in the X-axis direction and the Y-axis direction.
位置取得部11は、タッチパネル2の入力面2aが押圧されたことを検出するとともに、タッチパネル2から出力される電圧出力をA/D変換することにより、押圧された入力位置のX軸方向の座標とY軸方向の座標とを求める。
The
画像生成部12は、表示位置、形状、サイズ、色、左眼用画像と右眼用画像との間の画素数等を示す情報を制御部15から受け取り、それらの情報に応じた左眼用画像と右眼用画像とからなる3D表示用画像を生成する。
The
再生部13は、ROM16に格納された画像データや、記録メディアなどから入力される画像データなどの再生を行う再生機能を実行する。
The
表示部14は、LCDなどのディスプレイからなり、画像生成部12にて生成された3D表示用画像、再生部13にて再生された画像データ、制御部15から指示されるメッセージなどを表示画面に表示する。なお、本実施の形態では、ディスプレイとしてはLCD1を用いるものとする。
The
制御部15は、CPU(Central Processing Unit)等からなり、プログラムに応じた処理を行うことによって、画像表示装置10全体の動作を制御する。例えば、制御部15は、位置取得部11によるタッチパネル2に対する押圧の検出、位置取得部11からの入力位置の座標の読み出し、ROM16から読み出した画像データなどの再生部13への入力および再生機能の実行制御、表示部14に対する表示制御等を行う。
The
また、制御部15は、画像生成部12で生成する3D表示用画像における左眼用画像と右眼用画像との間隔(画素数Ng)を制御することにより、3D表示用画像によりユーザに視認される3D画像の結像高さを制御する画像生成制御部としての機能を有する。また、制御部15は、タッチパネル2の入力面2aにおける入力位置と、表示部14の表示画面上の画素位置とを関連づけする位置補正処理を行う。
In addition, the
ROM16は、制御部15の動作のためのプログラムや、再生部13で再生するための画像データなどのデータを格納する。また、ROM16は、図3を用いて説明した3D画像の結像高さを決定するための各パラメータ(タッチパネルの厚みT、左眼と右眼との間隔D1、眼からタッチパネルまでの距離L1、結像高さL2、画素間ピッチDp)を格納している。さらに、後述する位置補正処理に用いる4つの入力点の入力位置等も格納している。
The
RAM17は、一時的なデータの保存や演算時における制御部15のワーク領域として使用される。
The
次に、第1の実施の形態における画像表示装置10の動作について説明する。
Next, the operation of the
図6は、第1の実施の形態における画像表示装置10の動作を示すフローチャートである。まず、ステップS10において、制御部15は、左眼用画像と右眼用画像の間の画素数Ngを算出するための3D画像結像高さ算出処理を行う。
FIG. 6 is a flowchart showing the operation of the
この3D画像結像高さ算出処理において、制御部15は、3D画像の結像高さを決定するためのパラメータである、タッチパネルの厚みT、左眼と右眼との間隔D1、眼からタッチパネルまでの距離L1、結像高さL2、画素間ピッチDpをROM16から読み出し、これらのパラメータを用いて、前述の(式3)により、左眼用画像と右眼用画像との間の画素数Ngを算出する。
In this 3D image imaging height calculation process, the
次いで、ステップS20において、制御部15は、タッチパネル2における入力位置と、表示部14における表示画面の画素位置を関連づけるための位置補正処理が実施されたか否かを判断する。
Next, in step S <b> 20, the
位置補正処理が実施されていない場合(ステップS20:NO)、ユーザが視認している3D画像に対して正確な操作を加えることができないので、ステップS30において、制御部15は、自動的に位置補正処理を開始するように制御を行う。位置補正処理の手順については後述する。
When the position correction process is not performed (step S20: NO), since an accurate operation cannot be applied to the 3D image visually recognized by the user, in step S30, the
位置補正処理が実施済みである場合(ステップS20:YES)、ステップS40において、制御部15は、ステップS10で算出した画素数Ngに応じた所定の左眼用画像と右眼用画像とからなる3D表示用画像を画像生成部12で生成し、生成した3D表示用画像を表示部14の表示画面に表示するよう制御する。
When the position correction process has been performed (step S20: YES), in step S40, the
次いで、ステップS50において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS50:YES)、ステップS60に進み、検出されていない場合(ステップS50:NO)、位置取得部11で入力面2aの押圧が検出されるまでステップS50を繰り返す。
Next, in step S50, the
ステップS60では、制御部15は、タッチパネル2の入力面2aが押圧された入力位置の座標(Xi,Yi)を位置取得部11から取得する。
In step S <b> 60, the
次いで、ステップS70において、制御部15は、位置取得部11から取得した入力位置(Xi,Yi)を、ステップS30の位置補正処理で得た関連づけの結果に基づいて、表示画面の画素位置(Xd,Yd)に変換する。
Next, in step S70, the
次いで、ステップS80において、制御部15は、ステップS70で算出した表示画面の画素位置(Xd,Yd)に、操作可能な操作ボタン等を示す3D画像をユーザに視認させる3D表示用画像があるか否かを判断する。
Next, in step S80, the
画素位置(Xd,Yd)に3D表示用画像が存在しない場合(ステップS80:NO)、ステップS50に戻る。画素位置(Xd,Yd)に3D表示用画像がある場合(ステップS80:YES)、ステップS90において、制御部15は、その3D表示用画像に関連づけられた機能を実行するよう制御する。この機能実行処理については後述する。
When the 3D display image does not exist at the pixel position (Xd, Yd) (step S80: NO), the process returns to step S50. When there is a 3D display image at the pixel position (Xd, Yd) (step S80: YES), in step S90, the
次に、図7および図8を用いて、前述した図6のステップS30の位置補正処理について説明する。 Next, the position correction process in step S30 of FIG. 6 described above will be described with reference to FIGS.
位置補正処理は、タッチパネル2における入力位置と、表示部14の表示画面の画素位置との関連づけを行うための処理である。まず、図7を用いて、この位置補正処理が必要な2つの理由について説明する。
The position correction process is a process for associating an input position on the
まず、位置補正処理が必要な第1の理由について説明する。 First, the first reason why position correction processing is necessary will be described.
図7において、有効表示領域21は、LCD1において画像を表示可能な領域を示し、有効使用領域22は、タッチパネル2の入力面2aの押圧を検出可能な領域を示している。
In FIG. 7, an
通常、LCD1はタッチパネル2を取り付ける構造とはなっておらず、取り付ける際は外形を基準として冶具などを用いて取り付けられる。このため、LCD1やタッチパネル2に外形寸法の誤差等がある場合には、タッチパネル2をLCD1に正確に取り付けることはできない。
Normally, the
したがって、LCD1の有効表示領域21とタッチパネル2の有効使用領域22との位置関係にも誤差を生じ、タッチパネル2の押圧位置とLCD1の画素位置とを予め関連づけることはできない。
Therefore, an error also occurs in the positional relationship between the
次に、位置補正処理が必要な第2の理由について説明する。 Next, the second reason why the position correction process is necessary will be described.
図7に示すように、左眼用画像である表示点Pd1lと右眼用画像であるPd1rとをタッチパネル2の入力面2aに結像するように画素数Ngの間隔でLCD1の表示画面に表示し、左眼ELおよび右眼ERで見た場合、入力点Pi1の位置に結像することになる。
As shown in FIG. 7, a display point Pd1l that is an image for the left eye and Pd1r that is an image for the right eye are displayed on the display screen of the
よって、表示点Pd1lと表示点Pd1rとにより得られる3D画像に対してユーザが操作を加える場合には、入力点Pi1の位置が押圧されることになる。 Therefore, when the user performs an operation on the 3D image obtained by the display point Pd1l and the display point Pd1r, the position of the input point Pi1 is pressed.
同様に、左眼用画像である表示点Pd2lと右眼用画像である表示点Pd2rとによる3D画像への操作時は、入力点Pi2の位置が押圧され、左眼用画像である表示点Pd3lと右眼用画像である表示点Pd3rによる3D画像への操作時は、入力点Pi3の位置が押圧され、左眼用画像である表示点Pd4lと右眼用画像である表示点Pd4rによる3D画像への操作時は、入力点Pi4の位置が押圧されることになる。 Similarly, when a 3D image is operated by the display point Pd2l that is the image for the left eye and the display point Pd2r that is the image for the right eye, the position of the input point Pi2 is pressed, and the display point Pd3l that is the image for the left eye. When the 3D image is operated by the display point Pd3r that is the right eye image, the position of the input point Pi3 is pressed, and the 3D image by the display point Pd4l that is the left eye image and the display point Pd4r that is the right eye image. When the operation is performed, the position of the input point Pi4 is pressed.
以上より、ユーザにより3D画像に操作が加えられたか否かを検出するためには、入力位置に3D画像が結像されているか否かを判断すればよい。言い換えれば、入力位置に3D画像を結像させるような左眼用画像、または右眼用画像があるかどうかを判断すればよいことになる。 As described above, in order to detect whether or not an operation is applied to the 3D image by the user, it is only necessary to determine whether or not the 3D image is formed at the input position. In other words, it is only necessary to determine whether there is a left-eye image or a right-eye image that forms a 3D image at the input position.
したがって、タッチパネル2の入力位置と左眼用画像の表示画面上の画素位置との関係、もしくはタッチパネル2の入力位置と右眼用画像の表示画面上の画素位置との関係を求めれば、ユーザの3D画像への操作を検出することができる。
Therefore, if the relationship between the input position of the
ところが、図7から明らかなように、表示点と入力点との関係は、左眼ELおよび右眼ERの位置や、左眼ELと右眼ERとの間隔に依存して決定される。これは、表示画面の同じ位置に画像を表示しても、ユーザの使用位置によって押圧されるタッチパネル2入力面2a上の位置が異なることを意味している。
However, as is apparent from FIG. 7, the relationship between the display point and the input point is determined depending on the positions of the left eye EL and the right eye ER and the interval between the left eye EL and the right eye ER. This means that even if an image is displayed at the same position on the display screen, the position on the
つまり、タッチパネル2の入力位置とLCD1の画素位置とを予め関連づけることはできず、ユーザが実際に使用する位置での関連づけを行わなければならない。
That is, the input position of the
以上が、位置補正処理が必要な理由である。 The above is the reason why the position correction process is necessary.
次いで、図8を用いて、タッチパネル2の入力位置とLCD1の表示画面上の画素位置との関連づけの方法について説明する。なお、タッチパネル2の入力位置およびLCD1の表示画面の画素位置は、水平方向をX軸とし(図示左から右に増加方向)、垂直方向をY軸(図示上から下に増加方向)として説明を行う。
Next, a method for associating the input position of the
左眼用画像と右眼用画像とは、表示画面のどの位置であっても、図6のステップS10で求めた画素数Ngの間隔で表示されるので、左眼用画像の画素位置と結像画像への入力位置の関係、または右眼用画像の画素位置と結像画像への入力位置との関係がわかればよい。そこで、本実施の形態では、右眼用画像の画素位置と結像画像へのタッチパネル2上の入力位置との関係を求める方法について説明を行う。
The left-eye image and the right-eye image are displayed at intervals of the number of pixels Ng obtained in step S10 in FIG. 6 at any position on the display screen. It is only necessary to know the relationship between the input position to the image image or the relationship between the pixel position of the right-eye image and the input position to the formed image. Therefore, in the present embodiment, a method for obtaining the relationship between the pixel position of the right-eye image and the input position on the
右眼用画像の画素位置と結像画像への入力位置との関係を求めるにあたり、その第1のステップとして、右眼用画像である表示点をLCD1の表示画面に表示し、それに対するタッチパネル2上の入力位置の取得を行う。
In obtaining the relationship between the pixel position of the right-eye image and the input position to the formed image, as a first step, a display point that is the right-eye image is displayed on the display screen of the
まず、図8に示すように、右眼用画像である4つの表示点Pd1r〜Pd4rと、左眼用画像である4つの表示点Pd1l〜Pd4lとを、位置補正用3次元表示用画像として、ユーザが視認可能な大きさとなるように複数画素を用いてLCD1の表示画面に順次表示する。
First, as shown in FIG. 8, four display points Pd1r to Pd4r that are images for the right eye and four display points Pd1l to Pd4l that are images for the left eye are used as three-dimensional display images for position correction. The images are sequentially displayed on the display screen of the
図8において、右眼用画像である表示点Pd1r〜Pd4rは、それぞれの中心画素が表示画面上の画素位置(Xd1r,Yd1),(Xd2r,Yd1),(Xd1r,Yd2),(Xd2r,Yd2)に表示されているものとする。表示点Pd1rと表示点Pd3r、および表示点Pd2rと表示点Pd4rは、X軸方向の画素位置が等しく、表示点Pd1rと表示点Pd2r、および表示点Pd3rと表示点Pd4rは、Y軸方向の画素位置が等しい。 In FIG. 8, display points Pd1r to Pd4r, which are images for the right eye, have pixel positions (Xd1r, Yd1), (Xd2r, Yd1), (Xd1r, Yd2), (Xd2r, Yd2) on the display screen. ). The display point Pd1r and the display point Pd3r, and the display point Pd2r and the display point Pd4r have the same pixel position in the X-axis direction. The display point Pd1r and the display point Pd2r, and the display point Pd3r and the display point Pd4r are pixels in the Y-axis direction. The positions are equal.
また、表示点Pd1r〜Pd4rは、互いのX軸方向の間隔、およびY軸方向の間隔が所定距離以上に大きくなるよう(例えば、表示画面の縦横の長さの半分以上となるよう)に配置する。これは、後述するように、取得した入力位置の測定誤差を減少させるためである。 In addition, the display points Pd1r to Pd4r are arranged so that the distance in the X-axis direction and the distance in the Y-axis direction are larger than a predetermined distance (for example, more than half of the vertical and horizontal lengths of the display screen). To do. This is to reduce the measurement error of the acquired input position, as will be described later.
また、左眼用画像である表示点Pd1l〜Pd4lは、右眼用画像である表示点Pd1r〜Pd4rとの間隔が、図6のステップS10で説明した3D画像結像高さ算出処理で求められた画素数Ngとなるように表示画面上に表示されている。 Further, the display points Pd1l to Pd4l that are images for the left eye are obtained by the 3D image formation height calculation process described in step S10 of FIG. 6 with respect to the intervals between the display points Pd1r to Pd4r that are images for the right eye. It is displayed on the display screen so that the number of pixels is Ng.
先に述べた通り、この表示点Pd1r〜Pd4rと表示点Pd1l〜Pd4lとにより、入力点Pi1〜Pi4の位置に4つの3D画像が結像される。 As described above, four 3D images are formed at the positions of the input points Pi1 to Pi4 by the display points Pd1r to Pd4r and the display points Pd1l to Pd4l.
次に、右眼用画像である表示点Pd1r〜Pd4rを用いてタッチパネル2の入力面2aにおける入力位置の取得を行う。
Next, the input position on the
まず、操作者が偏光眼鏡をかけずに、片目で表示点Pd1r〜Pd4rを真上から、つまりタッチパネル2の入力面2aに対して垂直に見て、表示点Pd1r〜Pd4rの位置を押圧したときの4つの入力点の入力位置を得る。
First, when the operator presses the position of the display points Pd1r to Pd4r with one eye while viewing the display points Pd1r to Pd4r from directly above, that is, perpendicular to the
図8において、この4つの入力点をPu1r〜Pu4rとし、それぞれの入力位置を(Xu1r,Yu1r),(Xu2r,Yu2r),(Xu3r,Yu3r),(Xu4r,Yu4r)とする。 In FIG. 8, these four input points are designated as Pu1r to Pu4r, and the respective input positions are designated as (Xu1r, Yu1r), (Xu2r, Yu2r), (Xu3r, Yu3r), (Xu4r, Yu4r).
ここで、入力点Pu1r〜Pu4rの入力位置には測定誤差を含む可能性があり、この測定誤差の影響を減少させるためには、X軸方向、Y軸方向で等しい画素位置にある表示点から得られる入力位置の平均値を求めればよい。 Here, the input positions of the input points Pu1r to Pu4r may include a measurement error. In order to reduce the influence of the measurement error, the display points at the same pixel position in the X-axis direction and the Y-axis direction are used. What is necessary is just to obtain | require the average value of the input position obtained.
そこで、制御部15は、入力点Pu1rと入力点Pu3rとのX軸方向の位置の平均値、および入力点Pu2rと入力点Pu4rとのX軸方向の位置の平均値を算出し、それぞれXu13r,Xu24rとする。同様に、制御部15は、入力点Pu1rと入力点Pu2rとのY軸方向の位置の平均値、および入力点Pu3rと入力点Pu4rとのY軸方向の位置の平均値を算出し、それぞれYu12r,Yu34rとする。
Therefore, the
入力点Pu1r〜Pu4rの入力位置の取得は、ユーザの操作によって取得するようにしてもよいが、この入力位置は、ユーザの使用位置には依存しないものである。そこで、本実施の形態では、画像表示装置10の製造工程で製造者の操作により入力点Pu1r〜Pu4rの入力位置の取得を行い、この入力点Pu1r〜Pu4rの入力位置がROM16に記憶されているものとする。
Although the input positions of the input points Pu1r to Pu4r may be acquired by a user operation, this input position does not depend on the use position of the user. Therefore, in the present embodiment, the input positions of the input points Pu1r to Pu4r are acquired by the manufacturer's operation in the manufacturing process of the
次に、ユーザに対して表示点Pd1r〜Pd4rと表示点Pd1l〜Pd4lとによる4つの3D画像の中心をタッチペンなどで押圧するよう指示し、この指示に応じたユーザの押圧操作によるタッチパネル2の入力面2aにおける4つの入力点の入力位置を得る。
Next, the user is instructed to press the center of four 3D images by the display points Pd1r to Pd4r and the display points Pd1l to Pd4l with a touch pen or the like, and the
図8において、この4つの入力点をPi1〜Pi4とし、それぞれの入力位置を(Xi1,Yi1),(Xi2,Yi2),(Xi3,Yi3),(Xi4,Yi4)とする。 In FIG. 8, these four input points are denoted by Pi1 to Pi4, and the respective input positions are denoted by (Xi1, Yi1), (Xi2, Yi2), (Xi3, Yi3), (Xi4, Yi4).
入力点Pi1〜Pi4には測定誤差を含む可能性があるので、上述の入力点Pu1r〜Pu4rと同様に、入力点Pi1と入力点Pi3とのX軸方向の位置の平均値、および入力点Pi2と入力点Pi4とのX軸方向の位置の平均値を算出し、それぞれXi13,Xi24とする。同様に、入力点Pi1と入力点Pi2とのY軸方向の位置の平均値、および入力点Pi3と入力点Pi4とのY軸方向の位置の平均値を算出し、それぞれYi12,Yi34とする。 Since the input points Pi1 to Pi4 may include measurement errors, the average value of the positions of the input points Pi1 and Pi3 in the X-axis direction and the input point Pi2 are the same as the input points Pu1r to Pu4r described above. And the average value of the positions in the X-axis direction with respect to the input point Pi4 are calculated as Xi13 and Xi24, respectively. Similarly, the average value of the Y-axis direction positions of the input point Pi1 and the input point Pi2 and the average value of the Y-axis direction positions of the input point Pi3 and the input point Pi4 are calculated as Yi12 and Yi34, respectively.
第2のステップとして、LCD1の表示画面の画素位置と、その真上に位置するタッチパネル2の入力面2aにおける入力位置との関係を求める。
As a second step, the relationship between the pixel position on the display screen of the
位置補正処理が必要な第1の理由としてすでに説明した通り、LCD1をタッチパネル2に正確に取り付けることはできず、このため、表示画面の画素位置とタッチパネル2の入力面2aにおける入力位置とを予め関連づけることはできない。よって、表示画面の画素位置とタッチパネル2の入力面2aにおける入力位置との関係を求める処理が必要となる。以下に、その方法について説明する。
As already described as the first reason that the position correction processing is necessary, the
LCD1の画素は、X軸方向、Y軸方向ともに均一の間隔で配置されており、また、タッチパネル2の入力面2aを押圧した位置と、その結果として得られる入力位置との関係は、X軸方向、Y軸方向ともに直線性を有する。
The pixels of the
したがって、表示画面の画素位置とその真上に位置するタッチパネル2の入力位置との関係は、X軸方向、Y軸方向ともに比例関係となるので、画素位置(Xdr,Ydr)と、この画素位置(Xdr,Ydr)に表示される表示点Pdrの真上の入力位置(Xur,Yur)との間には、以下の(式5)、(式6)が成り立つ。
Accordingly, the relationship between the pixel position of the display screen and the input position of the
Xdr = α1x×Xur +β1x …(式5)
Ydr = α1y×Yur +β1y …(式6)
(α1x、α1y、β1x、β1yは定数)
前述したように、表示点Pd1r(画素位置(Xd1r,Yd1))と表示点Pd3r(画素位置(Xd1r,Yd2))を真上から押圧した場合に得られるX軸方向の入力位置の平均値はXu13rであり、表示点Pd2r(画素位置(Xd2r,Yd1))と表示点Pd4r(画素位置(Xd2r,Yd2))を真上から押圧した場合に得られるX軸方向の入力位置の平均値はXu24rである。同様に、表示点Pd1r(画素位置(Xd1r,Yd1))と表示点Pd2r(画素位置(Xd2r,Yd1))を真上から押圧した場合に得られるY軸方向の入力位置の平均値はYu12rであり、表示点Pd3r(画素位置(Xd1r,Yd2))と表示点Pd4r(画素位置(Xd2r,Yd2))を真上から押圧した場合に得られるY軸方向の入力位置の平均値はYu34rである。
Xdr = α1x × Xur + β1x (Formula 5)
Ydr = α1y × Yur + β1y (Formula 6)
(Α1x, α1y, β1x, β1y are constants)
As described above, the average value of the input positions in the X-axis direction obtained when the display point Pd1r (pixel position (Xd1r, Yd1)) and the display point Pd3r (pixel position (Xd1r, Yd2)) are pressed from directly above is Xu13r, and the average value of the input positions in the X-axis direction obtained when the display point Pd2r (pixel position (Xd2r, Yd1)) and the display point Pd4r (pixel position (Xd2r, Yd2)) are pressed from directly above is Xu24r It is. Similarly, the average value of the input positions in the Y-axis direction obtained when the display point Pd1r (pixel position (Xd1r, Yd1)) and the display point Pd2r (pixel position (Xd2r, Yd1)) are pressed from directly above is Yu12r. Yes, the average value of the input positions in the Y-axis direction obtained when the display point Pd3r (pixel position (Xd1r, Yd2)) and the display point Pd4r (pixel position (Xd2r, Yd2)) are pressed from directly above is Yu34r. .
よって、(式5)より、
Xd1r = α1x×Xu13r + β1x …(式7)
Xd2r = α1x×Xu24r + β1x …(式8)
(式7)、(式8)より、
α1x =(Xd2r−Xd1r)÷(Xu24r−Xu13r) …(式9)
β1x =(Xd1r×Xu24r−Xd2r×Xu13r)÷(Xu24r−Xu13r) …(式10)
また、(式6)より、
Yd1 = α1y×Yu12r + β1y …(式11)
Yd2 = α1y×Yu34r + β1y …(式12)
(式11)、(式12)より、
α1y =(Yd2−Yd1)÷(Yu34r−Yu12r) …(式13)
β1y =(Yd1×Yu34r−Yd2×Yu12r)÷(Yu34r−Yu12r) …(式14)
以上のように、画素位置(Xdr,Ydr)とその真上に位置するタッチパネル2の入力位置(Xur,Yur)との関係を算出することができる。
Therefore, from (Formula 5),
Xd1r = α1x × Xu13r + β1x (Formula 7)
Xd2r = α1x × Xu24r + β1x (Formula 8)
From (Expression 7) and (Expression 8),
α1x = (Xd2r−Xd1r) ÷ (Xu24r−Xu13r) (Equation 9)
β1x = (Xd1r × Xu24r−Xd2r × Xu13r) ÷ (Xu24r−Xu13r) (Equation 10)
From (Equation 6),
Yd1 = α1y × Yu12r + β1y (Formula 11)
Yd2 = α1y × Yu34r + β1y (Formula 12)
From (Expression 11) and (Expression 12),
α1y = (Yd2−Yd1) ÷ (Yu34r−Yu12r) (Equation 13)
β1y = (Yd1 × Yu34r−Yd2 × Yu12r) ÷ (Yu34r−Yu12r) (Formula 14)
As described above, the relationship between the pixel position (Xdr, Ydr) and the input position (Xur, Yur) of the
次に、最後のステップとして、右眼用画像の画素位置と、この右眼用画像とそれに対応する左眼用画像により結像する画像を押圧した場合に得られるタッチパネル2上の入力位置との関係について算出する。
Next, as the final step, the pixel position of the right-eye image and the input position on the
まず、結像画像に対する入力位置(Xi,Yi)と、結像画像を生成する右眼用画像の真上の入力位置(Xur,Yur)との関係を求める方法について説明する。 First, a method for obtaining the relationship between the input position (Xi, Yi) for the formed image and the input position (Xur, Yur) directly above the right-eye image for generating the formed image will be described.
図8において、表示点Pdrは、画素位置(Xdr,Ydr)に表示されている右眼用画像であり、この表示点Pdrの真上を押圧した場合の入力位置を(Xur,Yur)とする。 In FIG. 8, the display point Pdr is the right-eye image displayed at the pixel position (Xdr, Ydr), and the input position when pressing directly above the display point Pdr is (Xur, Yur). .
また、表示点Pdlは、表示点Pdrから画素数Ngの間隔で表示されている左眼用画像であり、この表示点Pdlと表示点Pdrにより結像する画像を押圧した場合のタッチパネル2上の入力点をPiとし、その入力位置を(Xi,Yi)とする。
The display point Pdl is an image for the left eye displayed at an interval of the number of pixels Ng from the display point Pdr. On the
図8において、「(表示点Pdr)−(表示点Pdrの真上のX軸方向の入力位置Xur)−(入力点PiのX軸方向の入力位置Xi)がなす三角形」と、「(右眼ER)−(入力面2aの延長線上における右眼ERのX軸方向の位置Xer)−(入力点PiのX軸方向の入力位置Xi)がなす三角形」とは相似の関係にある。
In FIG. 8, “a triangle formed by (display point Pdr) − (input position Xur in the X-axis direction directly above display point Pdr) − (input position Xi in the X-axis direction of input point Pi)” and “(right Eye ER)-(the triangle formed by the X-axis direction position Xer of the right eye ER on the extension line of the
よって、タッチパネル2の厚みT、右眼ERからタッチパネル2の入力面2aまでの距離Lとすると、以下の(式15)が成り立つ。
Therefore, when the thickness T of the
(Xi−Xur):(Xer−Xi)= T:L …(式15)
上記(式15)より、表示点Pdrの真上のX軸方向の入力位置Xurは、以下の(式16)のように求められる。
(Xi-Xur) :( Xer-Xi) = T: L (Formula 15)
From (Equation 15), the input position Xur in the X-axis direction directly above the display point Pdr is obtained as (Equation 16) below.
Xur ={(L+T)×Xi −T×Xer }÷L …(式16)
Y軸方向についても同様に、「(表示点Pdr)−(表示点Pdrの真上のY軸方向の入力位置Yur)−(入力点PiのY軸方向の入力位置Yi)がなす三角形」と、「(右眼ER)−(右眼ERの入力面2a上のY軸方向の位置Yer)−(入力点PiのY軸方向の入力位置Yi)がなす三角形」とは相似の関係にある。
Xur = {(L + T) * Xi-T * Xer} / L (Formula 16)
Similarly in the Y-axis direction, “(display point Pdr) − (input position Yur in Y-axis direction directly above display point Pdr) − (triangle formed by input position Yi in Y-axis direction of input point Pi)” , “The right eye ER) − (the Y-axis position Yer on the
よって、以下の(式17)が成り立つ。 Therefore, the following (Expression 17) is established.
(Yi−Yur):(Yer−Yi)= T:L …(式17)
上記(式17)より、表示点Pdrの真上のY軸方向の入力位置Yurは、以下の(式18)のように求められる。
(Yi-Yur) :( Yer-Yi) = T: L (Expression 17)
From the above (Equation 17), the input position Yur in the Y-axis direction directly above the display point Pdr is obtained as in the following (Equation 18).
Yur ={(L+T)×Yi −T×Yer }÷L …(式18)
以上より、表示点Pdrの真上の入力位置(Xur,Yur)は、入力点Piの入力位置(Xi,Yi)と比例関係にあるので、以下の(式19)、(式20)が成り立つ。
Yur = {(L + T) * Yi-T * Yer} / L (Expression 18)
As described above, since the input position (Xur, Yur) directly above the display point Pdr is proportional to the input position (Xi, Yi) of the input point Pi, the following (Expression 19) and (Expression 20) hold. .
Xur = α2x×Xi +β2x …(式19)
Yur = α2y×Yi +β2y …(式20)
(α2x、α2y、β2x、β2yは定数)
前述したように、表示点Pd1rと表示点Pd3rを真上から押圧した場合に得られるX軸方向の入力位置の平均値はXu13rであり、表示点Pd2rと表示点Pd4rを真上から押圧した場合に得られるX軸方向の入力位置の平均値はXu24rである。
Xur = α2x × Xi + β2x (Equation 19)
Yur = α2y × Yi + β2y (Equation 20)
(Α2x, α2y, β2x, β2y are constants)
As described above, when the display point Pd1r and the display point Pd3r are pressed from directly above, the average value of the input positions in the X-axis direction is Xu13r, and the display point Pd2r and the display point Pd4r are pressed from directly above. The average value of the input positions in the X-axis direction obtained is Xu24r.
また、表示点Pd1r、表示点Pd1lによる結像画像による入力点Pi1と、表示点Pd3r、表示点Pd3lによる結像画像による入力点Pi3とのX軸方向の入力位置の平均値はXi13であり、表示点Pd2r、表示点Pd2lによる結像画像による入力点Pi2と、表示点Pd4r、表示点Pd4lによる結像画像による入力点Pi4とのX軸方向の入力位置の平均値はXi24である。 The average value of the input positions in the X-axis direction between the input point Pi1 based on the image formed by the display point Pd1r and the display point Pd1l and the input point Pi3 based on the image formed by the display point Pd3r and the display point Pd3l is Xi13. The average value of the input positions in the X-axis direction of the input point Pi2 based on the image formed by the display point Pd2r and the display point Pd2l and the input point Pi4 based on the image formed by the display point Pd4r and the display point Pd4l is Xi24.
同様に、表示点Pd1r、表示点Pd1lによる結像画像による入力点Pi1と、表示点Pd2r、表示点Pd2lによる結像画像による入力点Pi2とのY軸方向の入力位置の平均値はYi12であり、表示点Pd3r、表示点Pd3lによる結像画像による入力点Pi3と、表示点Pd4r、表示点Pd4lによる結像画像による入力点Pi4とのY軸方向の入力位置の平均値はYi34である。 Similarly, the average value of the input positions in the Y-axis direction between the input point Pi1 based on the image formed by the display point Pd1r and the display point Pd1l and the input point Pi2 based on the image formed by the display point Pd2r and the display point Pd2l is Yi12. The average value of the input positions in the Y-axis direction between the input point Pi3 based on the image formed by the display point Pd3r and the display point Pd3l and the input point Pi4 based on the image formed by the display point Pd4r and the display point Pd4l is Yi34.
よって、(式19)より、
Xu13r = α2x×Xi13 +β2x …(式21)
Xu24r = α2x×Xi24 +β2x …(式22)
(式21)、(式22)より、
α2x =(Xu24r−Xu13r)÷(Xi24−Xi13) …(式23)
β2x =(Xi24×Xu13r−Xi13×Xu24r)÷(Xi24−Xi13) …(式24)
同様に、(式20)より、
Yu12r = α2y×Yi12 +β2y …(式25)
Yu34r = α2y×Yi34 +β2y …(式26)
(式25)、(式26)より、
α2y =(Yu34r−Yu12r)÷(Yi34−Yi12) …(式27)
β2y =(Yi34×Yu12r−Yi12×Yu34r)÷(Yi34−Yi12) …(式28)
以上のように、(式19)、(式20)、(式23)、(式24)、(式27)、(式28)により、入力点Piの入力位置(Xi,Yi)と、表示点Pdrの真上の入力位置(Xur,Yur)との関係を求めることができる。
Therefore, from (Equation 19)
Xu13r = α2x × Xi13 + β2x (Formula 21)
Xu24r = α2x × Xi24 + β2x (Formula 22)
From (Expression 21) and (Expression 22),
α2x = (Xu24r−Xu13r) ÷ (Xi24−Xi13) (Equation 23)
β2x = (Xi24 × Xu13r−Xi13 × Xu24r) ÷ (Xi24−Xi13) (Equation 24)
Similarly, from (Equation 20)
Yu12r = α2y × Yi12 + β2y (Formula 25)
Yu34r = α2y × Yi34 + β2y (Formula 26)
From (Equation 25) and (Equation 26),
α2y = (Yu34r−Yu12r) ÷ (Yi34−Yi12) (Equation 27)
β2y = (Yi34 × Yu12r−Yi12 × Yu34r) ÷ (Yi34−Yi12) (Equation 28)
As described above, according to (Expression 19), (Expression 20), (Expression 23), (Expression 24), (Expression 27), and (Expression 28), the input position (Xi, Yi) of the input point Pi is displayed. The relationship with the input position (Xur, Yur) directly above the point Pdr can be obtained.
ここで、表示点Pdrの画素位置(Xdr,Ydr)と、その真上に位置するタッチパネル2の入力位置(Xur,Yur)との関係は、(式5)、(式6)、(式9)、(式10)、(式13)、(式14)ですでに求まっているので、右眼用画像である表示点Pdrの画素位置(Xdr,Ydr)と、この表示点Pdrと表示点Pdlとにより結像する画像を押圧した場合に得られるタッチパネル2上の入力位置(Xi,Yi)との関係は、以下の(式29)、(式30)のように求めることができる。
Here, the relationship between the pixel position (Xdr, Ydr) of the display point Pdr and the input position (Xur, Yur) of the
Xdr = α1x ×Xur +β1x
= α1x ×(α2x×Xi +β2x)+β1x
= α1x ×α2x ×Xi +(α1x×β2x +β1x) …(式29)
Ydr = α1y ×Yur +β1y
= α1y ×(α2y×Yi +β2y)+β1y
= α1x ×α2y ×Yi +(α1y×β2y +β1y) …(式30)
ただし、
α1x =(Xd2r−Xd1r)÷(Xu24r−Xu13r) (式9より)
β1x =(Xd1r×Xu24r−Xd2r×Xu13r)÷(Xu24r−Xu13r) (式10より)
α2x =(Xu24r−Xu13r)÷(Xi24−Xi13) (式23より)
β2x =(Xi24×Xu13r−Xi13×Xu24r)÷(Xi24−Xi13) (式24より)
α1y =(Yd2−Yd1)÷(Yu34r−Yu12r) (式13より)
β1y =(Yd1×Yu34r−Yd2×Yu12r)÷(Yu34r−Yu12r) (式14より)
α2y =(Yu34r−Yu12r)÷(Yi34−Yi12) (式27より)
β2y =(Yi34×Yu12r−Yi12×Yu34r)÷(Yi34−Yi12) (式28より)
である。
Xdr = α1x × Xur + β1x
= Α1x × (α2x × Xi + β2x) + β1x
= Α1x × α2x × Xi + (α1x × β2x + β1x) (Equation 29)
Ydr = α1y × Yur + β1y
= Α1y × (α2y × Yi + β2y) + β1y
= Α1x × α2y × Yi + (α1y × β2y + β1y) (Equation 30)
However,
α1x = (Xd2r−Xd1r) ÷ (Xu24r−Xu13r) (From Equation 9)
β1x = (Xd1r × Xu24r−Xd2r × Xu13r) ÷ (Xu24r−Xu13r) (From Equation 10)
α2x = (Xu24r−Xu13r) ÷ (Xi24−Xi13) (From Equation 23)
β2x = (Xi24 × Xu13r−Xi13 × Xu24r) ÷ (Xi24−Xi13) (From Equation 24)
α1y = (Yd2−Yd1) ÷ (Yu34r−Yu12r) (from Equation 13)
β1y = (Yd1 × Yu34r−Yd2 × Yu12r) ÷ (Yu34r−Yu12r) (From Equation 14)
α2y = (Yu34r−Yu12r) ÷ (Yi34−Yi12) (From Equation 27)
β2y = (Yi34 × Yu12r−Yi12 × Yu34r) ÷ (Yi34−Yi12) (From Equation 28)
It is.
以上のように、右眼用画像の画素位置(Xdr,Ydr)と、この右眼用画像とそれに対応する左眼用画像により結像する画像を押圧した場合に得られるタッチパネル2上の入力位置(Xi,Yi)との関係を算出することができる。
As described above, the pixel position (Xdr, Ydr) of the right-eye image and the input position on the
以下に、具体的な数値を用いて、上述した入力位置(Xi,Yi)と画素位置(Xdr,Ydr)との関係の算出方法を説明する。 Hereinafter, a method of calculating the relationship between the input position (Xi, Yi) and the pixel position (Xdr, Ydr) will be described using specific numerical values.
この説明において、LCD1の有効解像度を320(X軸方向)×240(Y軸方向)、位置取得部11のA/Dの分解能を10bit(1024個の入力位置)、タッチパネル2の厚みT=5mmとする。
In this description, the effective resolution of the
また、各画素位置、および入力位置を以下の値として説明を行う。 In addition, description will be made with each pixel position and input position as the following values.
表示点Pd1r〜Pd4rの画素位置は、表示点Pd1rの表示画面上の画素位置(Xd1r,Yd1)=(40,30)、表示点Pd2rの表示画面上の画素位置(Xd2r,Yd1)=(280,30)、表示点Pd3rの表示画面上の画素位置(Xd1r,Yd2)=(40,210)、表示点Pd4rの表示画面上の画素位置(Xd2r,Yd2)=(280,210)とする。 The pixel positions of the display points Pd1r to Pd4r are the pixel position (Xd1r, Yd1) = (40, 30) on the display screen of the display point Pd1r, and the pixel position (Xd2r, Yd1) = (280) of the display point Pd2r on the display screen. 30), the pixel position (Xd1r, Yd2) on the display screen of the display point Pd3r = (40, 210), and the pixel position (Xd2r, Yd2) on the display screen of the display point Pd4r = (280, 210).
製造過程において取得される各入力位置は、表示点Pd1rの真上の入力点Pu1rの入力位置(Xu1r,Yu1r)=(142,159)、表示点Pd2rの真上の入力点Pu2rの入力位置(Xu2r,Yu2r)=(854,161)、表示点Pd3rの真上の入力点Pu3rの入力位置(Xu3r,Yu3r)=(138,888)、表示点Pd4rの真上の入力点Pu4rの入力位置(Xu4r,Yu4r)=(866,872)とする。 The input positions acquired in the manufacturing process are the input position Pu1r directly above the display point Pd1r (Xu1r, Yu1r) = (142,159), the input position Pu2r directly above the display point Pd2r ( Xu2r, Yu2r) = (854, 161), the input position Pu3r just above the display point Pd3r (Xu3r, Yu3r) = (138,888), the input position Pu4r just above the display point Pd4r ( Xu4r, Yu4r) = (866, 872).
ユーザ操作により取得される各入力位置は、表示点Pd1rと表示点Pd1lとの結像画像による入力位置Pi1(Xi1,Yi1)=(154,166)、表示点Pd2rと表示点Pd2lとの結像画像による入力位置Pi2(Xi2,Yi2)=(862,158)、表示点Pd3rと表示点Pd3lとの結像画像による入力位置Pi3(Xi3,Yi3)=(160,874)、表示点Pd4rと表示点Pd4lとの結像画像による入力位置Pi4(Xi4,Yi4)=(870,866)とする。 Each input position acquired by the user operation is an input position Pi1 (Xi1, Yi1) = (154, 166) based on an image formed between the display point Pd1r and the display point Pd1l, and an image formed between the display point Pd2r and the display point Pd2l. Input position Pi2 (Xi2, Yi2) = (862,158) by image, input position Pi3 (Xi3, Yi3) = (160,874) by display image Pd3r and display point Pd3l, display point Pd4r and display Assume that the input position Pi4 (Xi4, Yi4) = (870,866) based on the image formed with the point Pd4l.
まず、測定誤差を減少させるために、各入力値のX軸方向およびY軸方向の平均値は、
Xu13r =(Xu1r+Xu3r)÷2=(142+138)÷2=140
Xu24r =(Xu2r+Xu4r)÷2=(854+866)÷2=860
Yu12r =(Yu1r+Yu2r)÷2=(159+161)÷2=160
Yu34r =(Yu3r+Yu4r)÷2=(888+872)÷2=880
Xi13 =(Xi1+Xi3)÷2=(154+160)÷2=157
Xi24 =(Xi2+Xi4)÷2=(862+870)÷2=866
Yi12 =(Yi1+Yi2)÷2=(166+158)÷2=162
Yi34 =(Yi3+Yi4)÷2=(874+866)÷2=870
と求められる。
First, in order to reduce the measurement error, the average value of each input value in the X-axis direction and the Y-axis direction is
Xu13r = (Xu1r + Xu3r) / 2 = (142 + 138) / 2 = 140
Xu24r = (Xu2r + Xu4r) / 2 = (854 + 866) / 2 = 860
Yu12r = (Yu1r + Yu2r) / 2 = (159 + 161) / 2 = 160
Yu34r = (Yu3r + Yu4r) ÷ 2 = (888 + 872) ÷ 2 = 880
Xi13 = (Xi1 + Xi3) ÷ 2 = (154 + 160) ÷ 2 = 157
Xi24 = (Xi2 + Xi4) / 2 = (862 + 870) / 2 = 866
Yi12 = (Yi1 + Yi2) ÷ 2 = (166 + 158) ÷ 2 = 162
Yi34 = (Yi3 + Yi4) ÷ 2 = (874 + 866) ÷ 2 = 870
Is required.
前述の(式9)、(式10)より
α1x =(Xd2r−Xd1r)÷(Xu24r−Xu13r)
=(280−40)÷(860−140)
= 1/3
β1x =(Xd1r×Xu24r−Xd2r×Xu13r)÷(Xu24r−Xu13r)
=(40×860−280×140)÷(860−140)
= −20/3
また、(式23)、(式24)より、
α2x =(Xu24r−Xu13r)÷(Xi24−Xi13)
=(860−140)÷(866−157)
= 1.0155
β2x =(Xi24×Xu13r−Xi13×Xu24r)÷(Xi24−Xi13)
=(866×140−157×860)÷(866−157)
= −19.44
となる。
From the above (Equation 9) and (Equation 10), α1x = (Xd2r−Xd1r) ÷ (Xu24r−Xu13r)
= (280-40) / (860-140)
= 1/3
β1x = (Xd1r × Xu24r−Xd2r × Xu13r) ÷ (Xu24r−Xu13r)
= (40 × 860-280 × 140) ÷ (860-140)
= -20/3
From (Equation 23) and (Equation 24),
α2x = (Xu24r-Xu13r) / (Xi24-Xi13)
= (860-140) / (866-157)
= 1.0155
β2x = (Xi24 × Xu13r−Xi13 × Xu24r) ÷ (Xi24−Xi13)
= (866 × 140-157 × 860) ÷ (866-157)
= -19.44
It becomes.
よって、(式29)より、X軸方向の右眼用画像の画素位置(Xdr,Ydr)と、この右眼用画像とそれに対応する左眼用画像により結像する画像を押圧した場合に得られるタッチパネル2上の入力位置(Xi,Yi)との関係は、
Xdr = α1x×α2x×Xi+(α1x×β2x+β1x)
= 1/3×1.0155×Xi+(1/3×(−19.44)−20/3)
= 0.3385×Xi−13.15
と求めることができる。
Therefore, from (Expression 29), it is obtained when the pixel position (Xdr, Ydr) of the right-eye image in the X-axis direction and the image formed by this right-eye image and the corresponding left-eye image are pressed. The relationship with the input position (Xi, Yi) on the
Xdr = α1x × α2x × Xi + (α1x × β2x + β1x)
= 1/3 * 1.0155 * Xi + (1/3 * (-19.44) -20/3)
= 0.3385 × Xi-13.15
It can be asked.
Y軸方向も同様にして、(式13)、(式14)より、
α1y =(Yd2−Yd1)÷(Yu34r−Yu12r)
=(210−30)÷(880−160)
= 1/4
β1y =(Yd1×Yu34r−Yd2×Yu12r)÷(Yu34r−Yu12r)
=(30×880−210×160)÷(880−160)
= −10
また、(式27)、(式28)より、
α2y =(Yu34r−Yu12r)÷(Yi34−Yi12)
=(880−160)÷(870−162)
= 1.0170
β2y =(Yi34×Yu12r−Yi12×Yu34r)÷(Yi34−Yi12)
=(870×160−162×880)÷(870−162)
= −4.75
となる。
Similarly in the Y-axis direction, from (Expression 13) and (Expression 14),
α1y = (Yd2−Yd1) ÷ (Yu34r−Yu12r)
= (210-30) / (880-160)
= 1/4
β1y = (Yd1 × Yu34r−Yd2 × Yu12r) ÷ (Yu34r−Yu12r)
= (30 * 880-210 * 160) / (880-160)
= -10
From (Expression 27) and (Expression 28),
α2y = (Yu34r−Yu12r) ÷ (Yi34−Yi12)
= (880-160) / (870-162)
= 1.0170
β2y = (Yi34 × Yu12r−Yi12 × Yu34r) ÷ (Yi34−Yi12)
= (870 × 160-162 × 880) ÷ (870-162)
= -4.75
It becomes.
よって、(式30)より、Y軸方向の右眼用画像の画素位置(Xdr,Ydr)と、この右眼用画像とそれに対応する左眼用画像により結像する画像を押圧した場合に得られるタッチパネル2上の入力位置(Xi,Yi)との関係は、
Ydr = α1x×α2y×Yi+(α1y×β2y+β1y)
= 1/4×1.0170×Yi+(1/4×(−4.75)−10)
= 0.2543×Yi−11.19
と求めることができる。
Therefore, from (Equation 30), it is obtained when the pixel position (Xdr, Ydr) of the right-eye image in the Y-axis direction and the image formed by the right-eye image and the corresponding left-eye image are pressed. The relationship with the input position (Xi, Yi) on the
Ydr = α1x × α2y × Yi + (α1y × β2y + β1y)
= 1/4 × 1.0170 × Yi + (1/4 × (−4.75) −10)
= 0.2543 × Yi-11.19
It can be asked.
次に、上述したような位置補正処理を行う際の画像表示装置10の動作について、図9示すフローチャートを参照して説明する。
Next, the operation of the
まず、ステップS110において、制御部15は、最初の右眼用画像の表示点Pd1rと左眼用画像の表示点Pd1lとの対(表示点対)を画像生成部12で生成し、表示部14により表示するよう制御する。表示点Pd1rと表示点Pd1lとは画素数Ngだけ離れて表示される。
First, in step S110, the
次いで、ステップS120において、制御部15は、表示点Pd1rと表示点Pd1lとにより結像する画像に対してユーザがタッチパネル2を押圧した入力回数をカウントするためのカウント数Cを初期化する(C=0とする)。
Next, in step S120, the
次いで、ステップS130において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS130:YES)、ステップS140に進み、検出されていない場合(ステップS130:NO)、位置取得部11で入力面2aの押圧が検出されるまでステップS130を繰り返す。
Next, in step S <b> 130, the
ステップS140では、制御部15は、タッチパネル2の入力面2aが押圧された入力位置を位置取得部11から取得する。
In step S <b> 140, the
次いで、ステップS150において、制御部15は、カウント数Cの値を1だけインクリメントし、ステップS160において、制御部15は、直近のタッチパネル2に対する押圧が検出されてから既定時間が経過したか否かを判断する。既定時間が経過した場合(ステップS160:YES)、ステップS170に進み、既定時間が経過していない場合(ステップS160:NO)、既定時間が経過するまでステップS160を繰り返す。
Next, in step S150, the
ステップS170では、制御部15は、カウント数Cの値が既定数以上であるか否かを判断する。既定数以上である場合(ステップS170:YES)、ステップS180に進み、既定数未満である場合(ステップS170:NO)、ステップS130に戻る。
In step S170, the
ここで、ステップS160とステップS170の処理を行う理由を述べる。ユーザがいくらタッチパネル2上の同じ位置を押圧しても、わずかな震えや位置取得部11の回路上のノイズなどにより、得られる入力位置は一定値にはならず、ばらつきが生じる。ステップS160,S170の処理は、一定の時間間隔で複数の測定を行うことにより、そのばらつきによる測定誤差を減少させるための処理である。
Here, the reason why the processes of step S160 and step S170 are performed will be described. No matter how much the user presses the same position on the
ステップS180では、制御部15は、以上で取得したC個の入力位置の平均値を算出し、この平均値を、表示中の表示点対に対する入力位置(Xi1,Yi1)とする。
In step S180, the
次いで、ステップS190において、制御部15は、表示点の表示を終了して非表示とするよう制御する。
Next, in step S190, the
次いで、ステップS200において、制御部15は、最後の表示点対の表示が終了したか否かを判断する。最後の表示点対の表示が終了した場合(ステップS200:YES)、ステップS210に進む。最後の表示点対の表示が終了していない場合、ステップS220において、制御部15は、次の表示点対を表示させ、その後、ステップS120に戻る。
Next, in step S200, the
以上により、位置補正処理に用いる複数の表示点対(位置補正用3次元表示用画像)を順次表示し、それぞれの表示点対に対する入力位置を得る。前述の図7、図8で説明した例のように位置補正処理に4つの表示点対を用いる場合では、各表示点対に対応した入力位置(Xi1,Yi1),(Xi2,Yi2),(Xi3,Yi3),(Xi4,Yi4)が取得される。 As described above, a plurality of display point pairs (three-dimensional display images for position correction) used for position correction processing are sequentially displayed, and an input position for each display point pair is obtained. In the case where four display point pairs are used for the position correction processing as in the example described with reference to FIGS. 7 and 8, the input positions (Xi1, Yi1), (Xi2, Yi2), ( Xi3, Yi3), (Xi4, Yi4) are acquired.
そして、ステップS210において、制御部15は、後述する画素位置と入力位置との関係算出処理を行うことにより、LCD1の表示画面上の画素位置とタッチパネル2上の入力位置との関係の算出を行う。
In step S210, the
ここで、上述の図9のフローチャートで説明した位置補正処理において、複数の表示点対を同時に表示するのではなく順番に表示するようにした理由を述べる。複数の表示点対を同時に表示した場合、ユーザがどの表示点対に対してタッチパネル2を押圧したのかは分からないので、どの表示点対に対する押圧なのかをタッチパネル2の入力位置から判定する処理が必要になる。複数の表示点対を順番に表示することにより、どの表示点対に対する押圧かが明確になり、処理が簡単になるという利点がある。
Here, the reason why a plurality of display point pairs are displayed in order rather than simultaneously in the position correction processing described with reference to the flowchart of FIG. 9 will be described. When a plurality of display point pairs are displayed at the same time, it is not known to which display point pair the user has pressed the
次に、図10のフローチャートを参照して、上述した図9のステップS210における画素位置と入力位置との関係算出処理について説明する。位置補正処理に図7、図8で示した表示点Pd1r〜Pd4rおよび表示点Pd1l〜Pd4lからなる4つの表示点対を用いる場合について説明する。 Next, the relationship calculation processing between the pixel position and the input position in step S210 of FIG. 9 described above will be described with reference to the flowchart of FIG. A case will be described in which four display point pairs including the display points Pd1r to Pd4r and the display points Pd1l to Pd4l shown in FIGS. 7 and 8 are used for the position correction processing.
まず、ステップS310において、制御部15は、表示点Pd1r〜Pd4rの真上のX軸方向の入力位置Xu1r〜Xu4rをROM16から読み出す。先に説明した通り、この入力位置Xu1r〜Xu4rは、装置の製造者が製造工程で取得したものである。
First, in step S310, the
次いで、ステップS320において、制御部15は、入力位置Xu1rと入力位置Xu3rとの平均値Xu13r、および入力位置Xu2rと入力位置Xu4rとの平均値Xu24rをそれぞれ求める。
Next, in step S320, the
次いで、ステップS330において、制御部15は、ステップS320で求めた平均値Xu13r,Xu24rを用いて、前述の(式5)により、X軸方向の画素位置Xdrと画素の真上の入力位置Xurとの関係を算出する。
Next, in step S330, the
次いで、ステップS340において、制御部15は、表示点Pd1r〜Pd4rの真上のY軸方向の入力位置Yu1r〜Yu4rをROM16からから読み出す。入力位置Yu1r〜Yu4rも入力位置Xu1r〜Xu4rと同様に、装置の製造者が製造工程で取得したものである。
Next, in step S340, the
次いで、ステップS350において、制御部15は、入力位置Yu1rと入力位置Yu2rとの平均値Yu12r、および入力位置Yu3rと入力位置Yu4rとの平均値Yu34rをそれぞれ求める。
Next, in step S350, the
次いで、ステップS360において、制御部15は、ステップS350で求めた平均値Yu12r,Yu34rを用いて、前述の(式6)より、Y軸方向の画素位置Ydrと画素の真上の入力位置Yurとの関係を算出する。
Next, in step S360, the
次いで、ステップS370において、制御部15は、前述した図9のフローチャートの処理で取得した表示点Pd1r〜Pd4rのX軸方向の入力位置を用いて、入力位置Xi1と入力位置Xi3との平均値Xi13、および入力位置Xi2と入力位置Xi4との平均値Xi24をそれぞれ求める。
Next, in step S370, the
次いで、ステップS380において、制御部15は、Y軸方向についても同様に、入力位置Yi1と入力位置Yi2との平均値Yi12、および入力位置Yi3と入力位置Yi4との平均値Yi34をそれぞれ求める。
Next, in step S380, the
次いで、ステップS390において、制御部15は、ステップS370で求めたXi13とXi24と、ステップS320で求めたXu13rとXu24rとを用いて、前述の(式19)により、X軸方向の入力位置Xiと画素位置の真上の入力位置Xurとの関係を算出する。
Next, in step S390, the
次いで、ステップS400において、制御部15は、ステップS380で求めたYi12とYi34と、ステップS350で求めたYu12rとYu34rとを用いて、前述の(式20)により、Y軸方向の入力位置Yiと画素位置の真上の入力位置Yurとの関係を算出する。
Next, in step S400, the
次いで、ステップS410において、制御部15は、ステップS330で求めたX軸方向の画素位置Xdrと真上の入力位置Xurの関係(式5)と、ステップS390で求めたX軸方向の入力位置Xiと画素位置の真上の入力位置Xurとの関係(式19)より算出された(式29)を用いて、X軸方向の画素位置Xdrと入力位置Xiとの関係を算出する。
Next, in step S410, the
次いで、ステップS420において、制御部15は、ステップS360で求めたY軸方向の画素位置Ydrと真上の入力位置Yurの関係(式6)と、ステップS400で求めたY軸方向の入力位置Yiと画素位置の真上の入力位置Yurとの関係(式20)より算出された(式30)を用いて、Y軸方向の画素位置Ydrと入力位置Yiとの関係を算出する。
Next, in step S420, the
以上のような位置補正処理により、画素位置(Xdr,Ydr)と入力位置(Xi,Yi)との関係を算出することができる。 By the position correction process as described above, the relationship between the pixel position (Xdr, Ydr) and the input position (Xi, Yi) can be calculated.
次に、前述した図6のステップS90の機能実行処理について説明する。画像表示装置10で実行する機能として、再生部13による画像データの再生機能を例として説明する。
Next, the function execution process in step S90 of FIG. 6 described above will be described. As a function to be executed by the
図11は、画像表示装置10における画面表示の一例である。図11において、表示画面30には、画像表示装置10のプログラム内に実装されているビデオ再生用のアプリケーションの再生用機能画面31と、選択ボタン32A〜32Cとが表示されている。
FIG. 11 is an example of a screen display in the
選択ボタン32A〜32Cは、左眼用画像と右眼用画像とによりユーザが3D画像として認識可能に表示されるものであり、例えば、サムネイルやショートカットアイコンのような類のものである。選択ボタン32A〜32Cは、再生部13内の画像ファイルにそれぞれ関連づけられており、ユーザがこの選択ボタン32A〜32Cの3D画像に対してタッチパネル2より入力を行った場合には、関連づけられた画像ファイルの再生がビデオ再生用アプリケーションによって開始されるようになっている。
The
再生用機能画面31には、再生、停止等の各種操作に関連づけられた操作ボタン32D〜32Hが表示されている。操作ボタン32D〜32Hも選択ボタン32A〜32Cと同様に、左眼用画像と右眼用画像とによりユーザが3D画像として認識可能に表示されるものである。
On the
次に、図12を用いて、選択ボタン32A〜32Cや操作ボタン32D〜32Hのような、ユーザが3D画像として認識可能なボタン(3D画像ボタン)の表示変更処理の第1例について説明を行う。
Next, a first example of display change processing of buttons (3D image buttons) that the user can recognize as 3D images, such as the
一般に、実物のボタンが押下された場合、ボタンは一旦、押し込まれた状態になり、押下を止めると元の状態に戻るように動作する。図11の選択ボタン32A〜32Cや操作ボタン32D〜32Hが押下された場合にも、実物のボタンと同様に動作するように見えるように表示した方が、ユーザはより操作感を得やすくなる。
In general, when a real button is pressed, the button is once pressed, and when the pressing is stopped, the button returns to the original state. Even when the
そこで、図12に示すように、3D画像ボタンが押圧された場合には2D表示となるまで一定の時間間隔で3D画像の結像高さを徐々に低くし、その後、非押圧状態になった場合には、同様に一定の時間間隔で徐々に3D画像の結像高さを高くするように表示処理を行う。 Therefore, as shown in FIG. 12, when the 3D image button is pressed, the imaging height of the 3D image is gradually lowered at a constant time interval until 2D display is obtained, and then the non-pressed state is entered. In this case, similarly, the display process is performed so as to gradually increase the imaging height of the 3D image at regular time intervals.
図12は、右眼用画像と左眼用画像との間の画素数Ngを8画素として3D画像ボタンを表示している場合の表示変更処理を示したものであり、以下にその説明を行う。 FIG. 12 shows a display change process when a 3D image button is displayed with the number of pixels Ng between the right-eye image and the left-eye image being 8 pixels, which will be described below. .
図12において、時刻Taは、3D画像ボタンの押圧を制御部15が認識した時刻を示しており、時刻Taでは右眼用画像と左眼用画像との間隔を7画素に変更して表示する。その後、右眼用画像と左眼用画像との間隔が0になるまで、一定の時間間隔T1にて画像の間隔を1画素ずつ狭くしながら表示を行う。右眼用画像と左眼用画像との間隔を狭くすると結像高さは低くなり、間隔が0のときは2D表示となる。したがって、右眼用画像と左眼用画像との間隔を段階的に狭くすることで、3D画像ボタンが段階的に押し込まれていく様子が表現できる。
In FIG. 12, time Ta indicates the time when the
2D表示は、ボタンが完全に押下されている様子を示すので、この時刻Tbから、押下された3D画像ボタンに関連づけられた機能の動作を開始する。 Since the 2D display indicates that the button is completely pressed, the operation of the function associated with the pressed 3D image button is started from this time Tb.
次に、3D画像ボタンが押下されたことをユーザに認知させるため、時刻Tbから時刻Tcまでの時間T2の間は2D表示を行う。時刻Tcでは、右眼用画像と左眼用画像との間隔を1画素に変更して表示し、その後、右眼用画像と左眼用画像との間隔が8画素になるまで、一定の時間間隔T1にて間隔を1画素ずつ広くしながら表示を行う。このようにすれば、3D画像ボタンが段階的に元に戻る様子が表現できる。 Next, in order to make the user recognize that the 3D image button has been pressed, 2D display is performed during a time T2 from time Tb to time Tc. At the time Tc, the interval between the right-eye image and the left-eye image is changed to 1 pixel and displayed, and thereafter, a certain time is required until the interval between the right-eye image and the left-eye image reaches 8 pixels. Display is performed while increasing the interval by one pixel at the interval T1. In this way, it is possible to express how the 3D image button returns to the original step by step.
図13は、図6のステップS90の機能実行処理の第1例の手順を示すフローチャートであり、上記の3D画像ボタンの表示変更処理の第1例はこの処理に含まれている。以下にその説明を行う。ここで、図6のステップS70で取得した画素位置に、3D画像ボタンを表示するための右眼用画像があるものとする。後述の第2例、第3例についても同様である。 FIG. 13 is a flowchart showing the procedure of a first example of the function execution process in step S90 of FIG. 6, and the first example of the above-described 3D image button display change process is included in this process. This will be described below. Here, it is assumed that there is an image for the right eye for displaying the 3D image button at the pixel position acquired in step S70 of FIG. The same applies to the second and third examples described later.
まず、ステップS510において、制御部15は、前述したROM16内のパラメータにより求められる、右眼用画像と左眼用画像の間の画素数Ngを、変数Nにセットする。
First, in step S510, the
次いで、ステップS520において、制御部15は、Nの値を1だけデクリメントし、ステップS530において、制御部15は、画像生成部12により、3D画像ボタンを表示するための右眼用画像と左眼用画像との間隔をステップS520でデクリメントしたNの画素数に変更し、変更後の右眼用画像と左眼用画像とを表示部14に表示するよう制御する。
Next, in step S520, the
次いで、ステップS540において、制御部15は、Nの値が0であるか否かを判断する。N=0である場合(ステップS540:YES)、ステップS560に進み、N=0でない場合(ステップS540:NO)、ステップS550に進む。
Next, in step S540, the
ステップS550では、制御部15は、前回Nの値をデクリメントしてから、ROM16内に記憶されている既定時間T1が経過したか否かを判断する。既定時間T1が経過した場合(ステップS550:YES)、ステップS520に戻り、既定時間T1が経過していない場合(ステップS550:NO)、既定時間T1が経過するまでステップS550を繰り返す。
In step S550, the
ステップS560では、制御部15は、3D画像ボタンに関連づけられた機能の動作を開始する。例えば、図11に示す停止ボタンである操作ボタン32Eが操作された場合は、制御部15は、再生部13による再生処理を停止するよう制御する。
In step S560, the
このN=0の状態は、右眼用画像と左眼用画像との間隔がない状態であり、すなわちボタンの画像は2D表示されていることになる。 The state of N = 0 is a state where there is no interval between the right eye image and the left eye image, that is, the button image is displayed in 2D.
上述のステップS510〜ステップS550の処理により、3D画像ボタンがT1の時間間隔で段々と押し込まれていく様子が表現される。 A state in which the 3D image button is gradually pushed in at a time interval of T1 is expressed by the processing in steps S510 to S550 described above.
次いで、ステップS570において、制御部15は、N=0となってから、ROM16内に記憶されている既定時間T2が経過したか否か判断する。既定時間T2が経過している場合(ステップS570:YES)、ステップS580に進み、既定時間T2が経過していない場合(ステップS570:NO)、既定時間T2が経過するまでステップS570を繰り返す。
Next, in step S570, the
このように、少なくとも既定時間T2の間だけボタンの画像を2D表示することにより、ユーザに対してボタンが押下されたことをより確実に認知させることができる。 In this way, by displaying the button image in 2D for at least the predetermined time T2, the user can be surely recognized that the button has been pressed.
ステップS580では、制御部15は、位置取得部11の検出結果より、タッチパネル2の入力面2aが押圧されているか否かを判断する。タッチパネル2の入力面2aが押圧されている場合(ステップS580:YES)、ステップS590に進み、タッチパネル2の入力面2aが押圧されていない場合(ステップS580:NO)、ステップS630に進む。
In step S580, the
ステップS590では、制御部15は、位置取得部11からタッチパネル2の入力面2aの押圧されている位置(入力位置(Xi,Yi))を取得する。
In step S590, the
次いで、ステップS600において、制御部15は、前述の(式29)と(式30)とにより、入力位置(Xi,Yi)から右眼用画像の画素位置(Xdr,Ydr)を求める。
Next, in step S600, the
次いで、ステップS610において、制御部15は、ステップS600で求めた画素位置(Xdr,Ydr)に表示されている右眼用画像があるか否かを判断する。右眼用画像がある場合(ステップS610:YES)、ステップS620に進み、右眼用画像がない場合(ステップS610:NO)、ステップS630に進む。
Next, in step S610, the
ステップS620では、制御部15は、ステップS600で求めた画素位置(Xdr,Ydr)に表示されている右眼用画像に対応する3D画像ボタンが、実行中の機能に関連づけられた3D画像ボタンであるか否かを判断する。実行中の機能に関連づけられた3D画像ボタンである場合(ステップS620:YES)、つまり、現在実行中の機能に関連づけられた3D画像ボタンに応じたタッチパネル2上の位置が押圧され続けている場合には、ステップS580に戻って以降の処理を繰り返し、2D表示の状態を保持する。
In step S620, the
このように、タッチパネル2が押圧されている間はボタンを2D表示し、あたかもボタンが押され続けているような状態で表示することにより、ユーザに対してより実物のボタンに近い操作感を与えることができる。
As described above, when the
ステップS620の判断において、実行中の機能に関連づけられた3D画像ボタンでないと判断した場合(ステップS620:NO)、ステップS630に進む。 If it is determined in step S620 that the button is not a 3D image button associated with the function being executed (step S620: NO), the process proceeds to step S630.
ステップS630では、制御部15は、Nの値を1だけインクリメントする。次いで、ステップS640において、制御部15は、画像生成部12により、右眼用画像と左眼用画像との間隔をステップS630でインクリメントしたNの画素数に変更し、変更後の右眼用画像と左眼用画像とを表示部14に表示するよう制御する。
In step S630, the
次いで、ステップS650において、制御部15は、Nの値が画素数Ngであるか否かを判断する。N=Ngでない場合(ステップS650:NO)、ステップS660に進み、制御部15は、前回Nの値をインクリメントしてから既定時間T1が経過したか否かを判断する。既定時間T1が経過した場合(ステップS660:YES)、ステップS630に戻り、既定時間T1が経過していない場合(ステップS660:NO)、既定時間T1が経過するまでステップS660を繰り返す。
Next, in step S650, the
ステップS650の判断において、N=Ngである場合(ステップS650:YES)、一連の機能実行処理を終了し、図6のステップS50に戻って繰り返して処理を行う。 If it is determined in step S650 that N = Ng (step S650: YES), the series of function execution processes is terminated, and the process returns to step S50 in FIG.
上述のステップS630〜ステップS660の処理により、3D画像ボタンがT1の時間間隔で段々と押下前の状態に戻っていく様子が表現される。 The process in steps S630 to S660 described above expresses how the 3D image button gradually returns to the state before being pressed at the time interval of T1.
なお、右眼用画像と左眼用画像との間隔を0までは狭めず、所定間隔(所定画素数)以下まで狭めたら元の状態に戻す動作を開始するにしてもよい。 Note that the operation of returning to the original state may be started when the interval between the image for the right eye and the image for the left eye is not reduced to 0, but is reduced to a predetermined interval (a predetermined number of pixels) or less.
次に、図14を用いて、3D画像ボタンの表示変更処理の第2例について説明を行う。 Next, a second example of 3D image button display change processing will be described with reference to FIG.
実物のボタンにおいては、処理に長時間を要する機能を実行する場合、その機能の実行中には対応するボタンを押されたままの状態にしたり、光らせるなどして外観を一時的に変更する方法が一般的に知られている。これにより、どの機能が実行中であるかをユーザに認知させることができる。 When executing a function that takes a long time to process with a real button, temporarily changing the appearance by keeping the corresponding button pressed or shining while the function is being executed Is generally known. This allows the user to recognize which function is being executed.
例えば、図11の選択ボタン32A〜32Cは、前述したように、それぞれ画像ファイルに関連づけられており、選択ボタン32A〜32Cを操作した場合にはビデオ再生用アプリケーションによって画像の再生が行われる。つまり、機能の動作が長時間続く。この選択ボタン32A〜32Cが操作された場合にも、上記した実物のボタンと同様の動作に見えるように表示した方が、ユーザはより操作感を得やすくなる。3D画像ボタンの表示変更処理の第2例は、このような操作感を実現する。
For example, as described above, the
図14は、図12と同様に、右眼用画像と左眼用画像との間の画素数Ngを8画素として3D画像ボタンを表示している場合の表示変更処理を示したものであるが、3D画像ボタンに関連づけられた機能の実行処理が終了するまで2D表示の状態を保持する点が図12とは異なる。 FIG. 14 shows the display change process when the 3D image button is displayed with the number of pixels Ng between the right-eye image and the left-eye image being 8 pixels, as in FIG. It is different from FIG. 12 in that the state of 2D display is maintained until the execution process of the function associated with the 3D image button is completed.
図14において、時刻Tdは機能の動作が終了する時刻であり、ボタンが2D表示になって機能の動作を開始する時刻Tbから時刻Tdまでの動作時間T3の間は2D表示を行う。その後は図12と同様に、右眼用画像と左眼用画像との間隔が8画素になるまで、一定の時間間隔T1にて間隔を1画素ずつ広くしながら表示を行う。 In FIG. 14, the time Td is the time when the operation of the function ends, and the 2D display is performed during the operation time T3 from the time Tb to the time Td when the button becomes 2D display and the function operation starts. After that, as in FIG. 12, display is performed while increasing the interval by one pixel at a constant time interval T1 until the interval between the image for the right eye and the image for the left eye becomes 8 pixels.
図15および図16は、図6のステップS90の機能実行処理の第2例の手順を示すフローチャートであり、上記の3D画像ボタンの表示変更処理の第2例はこの処理に含まれている。以下にその説明を行う。 FIGS. 15 and 16 are flowcharts showing the procedure of the second example of the function execution process in step S90 of FIG. 6, and the second example of the above-described 3D image button display change process is included in this process. This will be described below.
まず、図15のステップS710において、制御部15は、3D画像ボタンに関連づけられた機能の動作時間T3を取得する。例えば、操作された3D画像ボタンが図11の選択ボタン32Aである場合、制御部15は、選択ボタン32Aに関連づけられた画像ファイルの実行に必要な動作時間を画像ファイルから読み出す。
First, in step S710 of FIG. 15, the
ステップS720〜S760の処理は、前述の機能実行処理の第1例で説明した図13のフローチャートのステップS510〜S550の処理と同様であるため説明を省略する。 The processing in steps S720 to S760 is the same as the processing in steps S510 to S550 in the flowchart of FIG. 13 described in the first example of the function execution processing described above, and thus description thereof is omitted.
ステップS750の判断でN=0である場合(ステップS750:YES)、つまりボタンが2D表示になった場合、ステップS770において、制御部15は、2D表示となったボタンの色を変更したり、点滅させたりする等、ボタンの画像の表示形態を変更して表示するよう画像生成部12および表示部14を制御する。
When N = 0 is determined in step S750 (step S750: YES), that is, when the button is displayed in 2D, in step S770, the
次いで、ステップS780において、制御部15は、3D画像ボタンに関連づけられた機能の動作を開始する。例えば、操作された3D画像ボタンが選択ボタン32Aであるとすると、制御部15は、選択ボタン32Aに関連づけられた画像ファイルの再生処理を再生部13により開始するよう制御する。
Next, in step S780, the
次いで、ステップS790において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS790:YES)、ステップS800に進み、検出されていない場合(ステップS790:NO)、図16のステップS840に進む。
Next, in step S790, the
ステップS800では、制御部15は、タッチパネル2の入力面2aが押圧された入力位置(Xi,Yi)を位置取得部11から取得する。
In step S800, the
次いで、ステップS810において、制御部15は、前述の(式29)と(式30)とにより、入力位置(Xi,Yi)から右眼用画像の画素位置(Xdr,Ydr)を求める。
Next, in step S810, the
次いで、ステップS820において、制御部15は、ステップS810で求めた画素位置(Xdr,Ydr)に表示されている右眼用画像があるか否かを判断する。右眼用画像がある場合(ステップS820:YES)、図16のステップS830に進み、右眼用画像がない場合(ステップS820:NO)、ステップS790に戻る。
Next, in step S820, the
図16のステップS830では、制御部15は、ステップS810で求めた画素位置(Xdr,Ydr)に表示されている右眼用画像に対応する3D画像ボタンが、実行中の機能に関連づけられた3D画像ボタンであるか否かを判断する。実行中の機能に関連づけられた3D画像ボタンである場合(ステップS830:YES)、つまり、現在実行中の機能に関連付けられた3D画像ボタンが再度、押圧された場合には、その入力操作を無視してステップS840に進む。
In step S830 in FIG. 16, the
ステップS840では、制御部15は、現在実行中の機能の動作を開始してから動作時間T3が経過したか否かを判断する。動作時間T3が経過した場合(ステップS840:YES)、ステップS850に進み、制御部15は、現在実行中の機能の動作を終了する。動作時間T3が経過していない場合(ステップS840:NO)、図15のステップS790に戻る。
In step S840, the
ステップS830の判断において、実行中の機能に関連づけられた3D画像ボタンでない場合(ステップS830:NO)、つまり、現在実行中の機能に関連づけられた3D画像ボタン以外が操作された場合には、その3D画像ボタンに関連づけられた機能の実行を開始する必要があるので、ステップS850において、制御部15は、現在実行中の機能の動作を終了する。
If it is determined in step S830 that the button is not a 3D image button associated with the function being executed (step S830: NO), that is, if a button other than the 3D image button associated with the function currently being executed is operated, Since it is necessary to start execution of the function associated with the 3D image button, in step S850, the
ステップS860では、制御部15は、上記ステップS770において変更したボタンの画像の表示形態を元に戻すよう画像生成部12および表示部14を制御する。
In step S860, the
このように、機能が動作している間はボタンを2D表示するとともに、表示形態を変更することにより、ユーザに対して現在、機能が実行中であることを明確に認知させることができる。 As described above, while the function is operating, the button is displayed in 2D, and by changing the display form, the user can clearly recognize that the function is currently being executed.
ステップS870〜S900の処理は、前述の機能実行処理の第1例で説明した図13のフローチャートのステップS630〜S660の処理と同様であるため説明を省略する。N=Ngとなると(ステップS890:YES)、一連の機能実行処理を終了し、図6のステップS50に戻って繰り返して処理を行う。 The processing in steps S870 to S900 is the same as the processing in steps S630 to S660 in the flowchart of FIG. 13 described in the first example of the function execution processing described above, and thus description thereof is omitted. When N = Ng is satisfied (step S890: YES), the series of function execution processes is terminated, and the process returns to step S50 in FIG.
次に、図17を用いて、3D画像ボタンの表示変更処理の第3例について説明を行う。 Next, a third example of 3D image button display change processing will be described with reference to FIG.
一般的に、ユーザは、機能の動作の進行状況について、進行状況を示すグラフ等から知ることができる。しかしながら、このようなグラフ等を表示する方式は、限られた表示スペースしかもたない装置には適さない。 In general, the user can know the progress status of the function operation from a graph or the like indicating the progress status. However, such a method of displaying a graph or the like is not suitable for an apparatus having a limited display space.
そこで、3D画像ボタンの表示変更処理の第3例では、関連づけられた機能の進行状況に応じて3D画像ボタンの結像高さを変化させることにより、現在実行中の機能と操作ボタンとの関連づけ、および機能の進行状況の2つの情報を同時にユーザに認識させるようにする。 Therefore, in the third example of the display change process of the 3D image button, the imaging height of the 3D image button is changed in accordance with the progress of the associated function, thereby associating the currently executed function with the operation button. , And the progress information of the function are made to be recognized by the user at the same time.
図17では、図12、図14に比べて、時刻Taと時刻Tbとの間が便宜上、短く描かれているが、時刻Taから時刻Tbの間で右眼用画像と左眼用画像との間隔を時間T1ごとに8画素から0画素まで段階的に変化させることは同様である。 In FIG. 17, the interval between the time Ta and the time Tb is drawn shorter for the sake of convenience than in FIGS. 12 and 14, but the right-eye image and the left-eye image between the time Ta and the time Tb. It is the same that the interval is changed stepwise from 8 pixels to 0 pixels every time T1.
時刻Tbで機能の動作を開始すると、機能の進行状況をユーザに対して認知させるために、画像の間隔がNg=8になるまで、機能の動作時間T3をNg=8で割った時間T3a(=T3÷8)ごとに画像の間隔を1画素ずつ広くしながら表示を行う。このようにすれば、3D画像ボタンが機能の進行状況に応じて、押し込まれた状態から元に戻る様子が表現できる。 When the operation of the function is started at time Tb, in order to make the user recognize the progress of the function, the time T3a (the function operation time T3 divided by Ng = 8 until the image interval becomes Ng = 8. = Display is performed while increasing the image interval by one pixel every T3 ÷ 8). In this way, it is possible to express a state in which the 3D image button returns from the pressed state according to the progress of the function.
図18および図19は、図6のステップS90の機能実行処理の第3例の手順を示すフローチャートであり、上記の3D画像ボタンの表示変更処理の第3例はこの処理に含まれている。以下にその説明を行う。 18 and 19 are flowcharts showing the procedure of the third example of the function execution process of step S90 of FIG. 6, and the third example of the above-described 3D image button display change process is included in this process. This will be described below.
まず、図18のステップS910において、制御部15は、3D画像ボタンに関連づけられた機能の動作時間T3を取得する。例えば、操作された3D画像ボタンが図11の選択ボタン32Aである場合、制御部15は、選択ボタン32Aに関連づけられた画像ファイルの実行に必要な動作時間を画像ファイルから読み出す。
First, in step S910 of FIG. 18, the
次いで、ステップS920において、制御部15は、ステップS910で読み出した動作時間T3の値を、右眼用画像と左眼用画像との間の画素数Ngで割り、結像高さの段階ごとの動作時間T3aを算出する。
Next, in step S920, the
ステップS930〜S970の処理は、前述の機能実行処理の第1例で説明した図13のフローチャートのステップS510〜S550の処理と同様であるため説明を省略する。 The processing in steps S930 to S970 is the same as the processing in steps S510 to S550 in the flowchart of FIG. 13 described in the first example of the function execution processing described above, and thus description thereof is omitted.
ステップS980では、制御部15は、3D画像ボタンに関連づけられた機能の動作を開始する。例えば、操作された3D画像ボタンが選択ボタン32Aであるとすると、制御部15は、選択ボタン32Aに関連づけられた画像ファイルの再生処理を再生部13により開始するよう制御する。
In step S980, the
次いで、ステップS990において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS990:YES)、ステップS1000に進み、検出されていない場合(ステップS990:NO)、図19のステップS1040に進む。
Next, in step S990, the
ステップS1000,S1010の処理は、前述の機能実行処理の第2例で説明した図15のフローチャートのステップS800,S810の処理と同様である。 The processing in steps S1000 and S1010 is the same as the processing in steps S800 and S810 in the flowchart of FIG. 15 described in the second example of the function execution processing described above.
次いで、ステップS1020において、制御部15は、ステップS1010で求めた画素位置(Xdr,Ydr)に表示されている右眼用画像があるか否かを判断する。右眼用画像がある場合(ステップS1020:YES)、図19のステップS1030に進み、右眼用画像がない場合(ステップS1020:NO)、図19のステップS1040に進む。
Next, in step S1020, the
図19のステップS1030では、制御部15は、ステップS1010で求めた画素位置(Xdr,Ydr)に表示されている右眼用画像に対応する3D画像ボタンが、実行中の機能に関連づけられた3D画像ボタンであるか否かを判断する。実行中の機能に関連づけられた3D画像ボタンである場合(ステップS1030:YES)、つまり、現在実行中の機能に関連付けられた3D画像ボタンが再度、押圧された場合には、その入力操作を無視してステップS1040に進む。
In step S1030 of FIG. 19, the
ステップS1040では、制御部15は、現在のNの値になってから、結像高さの段階ごとの動作時間T3aが経過したか否かを判断する。時間T3aが経過した場合(ステップS1040:YES)、ステップS1050に進み、時間T3aが経過していない場合(ステップS1040:NO)、図18のステップS990に戻る。
In step S1040, the
ステップS1050では、制御部15は、Nの値を1だけインクリメントする。次いで、ステップS1060において、制御部15は、画像生成部12により、右眼用画像と左眼用画像との間隔をステップS630でインクリメントしたNの画素数に変更し、変更後の右眼用画像と左眼用画像とを表示部14に表示するよう制御する。
In step S1050, the
このように、時間T3aごとに右眼用画像と左眼用画像との間隔を1画素ずつ広げることで、3D画像ボタンが機能の進行状況に応じて、押し込まれた状態から元に戻る様子が表現できる。 In this way, by increasing the interval between the right eye image and the left eye image by one pixel every time T3a, the 3D image button returns from the pressed state to the original state according to the progress of the function. Can express.
ステップS1070では、制御部15は、Nの値が画素数Ngであるか否かを判断する。N=Ngでない場合(ステップS1070:NO)、図18のステップS990に戻り、N=Ngである場合(ステップS1070:YES)、一連の機能実行処理を終了し、図6のステップS50に戻って繰り返して処理を行う。
In step S1070, the
ステップS1030の判断において、実行中の機能に関連づけられた3D画像ボタンでない場合(ステップS1030:NO)、つまり、現在実行中の機能に関連づけられた3D画像ボタン以外が操作された場合には、その3D画像ボタンに関連づけられた機能の実行を開始する必要があるので、ステップS1090において、制御部15は、現在実行中の機能の動作を終了する。
If it is determined in step S1030 that the button is not a 3D image button associated with the function being executed (step S1030: NO), that is, if a button other than the 3D image button associated with the function currently being executed is operated, Since it is necessary to start the execution of the function associated with the 3D image button, in step S1090, the
その後のステップS1100〜S1130の処理は、前述の機能実行処理の第1例で説明した図13のフローチャートのステップS630〜S660の処理と同様であるため説明を省略する。 The subsequent processing in steps S1100 to S1130 is the same as the processing in steps S630 to S660 in the flowchart of FIG. 13 described in the first example of the function execution processing described above, and thus description thereof is omitted.
ここで、上記で求めた結像高さと、表示画面の画素位置とタッチパネル2の入力位置との関係を用いて、タッチパネル2の押圧位置への3D画像の生成が可能となる。最後に、図20および図21を用いてこの方法について説明を行う。
Here, it is possible to generate a 3D image at the pressed position of the
図20は、ユーザがタッチペン3により、表示画面上に曲線を描いている様子を示したものである。このような場合、あたかもタッチパネル2の入力面2aにタッチペン3にて曲線を描いているように見えるのが望ましい。このためには、右眼用画像41Aと左眼用画像41Bとを、それら2つの画像による結像画像の軌跡41Cと、タッチペン3の軌跡が一致するように表示すればよい。
FIG. 20 shows how the user draws a curve on the display screen with the
図21は、3D画像生成処理の手順を示すフローチャートである。 FIG. 21 is a flowchart illustrating a procedure of 3D image generation processing.
まず、ステップS1210において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS1210:YES)、ステップS1220に進み、検出されていない場合(ステップS1210:NO)、位置取得部11で入力面2aの押圧が検出されるまでステップS1210を繰り返す。
First, in step S1210, the
ステップS1220では、制御部15は、タッチパネル2の入力面2aが押圧された入力位置(Xi,Yi)を位置取得部11から取得する。
In step S <b> 1220, the
次いで、ステップS1230において、制御部15は、前述の(式29)と(式30)とにより、入力位置(Xi,Yi)から右眼用画像の画素位置(Xdr,Ydr)を求める。
Next, in step S1230, the
次いで、ステップS1240において、制御部15は、右眼用画像の画素位置(Xdr,Ydr)から、3D画像結像高さ算出処理(図6のステップS10)で求めた画素数Ngだけ右側に離れた左眼用画像の画素位置(Xdl,Ydl)を算出する。
Next, in step S1240, the
次いで、ステップS1250において、制御部15は、右眼用画像とその周辺の画素とが異なって見えるようにするために、画像生成部12により、画素位置(Xdr,Ydr)を中心に近傍の画素の表示形態を変更した右眼用画像を生成し、これを表示部14により表示するよう制御する。
Next, in step S1250, the
次いで、ステップS1260において、制御部15は、ステップS1250と同様に、表示部14において画素位置(Xdl,Ydl)を中心に左眼用画像を生成して表示するよう画像生成部12および表示部14を制御する。
Next, in step S1260, similarly to step S1250, the
このようにして、タッチパネル2の入力面2aの入力位置に対応する位置に左眼用画像および右眼用画像が表示される。
In this way, the left-eye image and the right-eye image are displayed at the position corresponding to the input position on the
そして、ステップS1270において、制御部15は、3D画像生成の機能の終了がユーザによって指示されたか否かを判断し、終了が指示された場合(ステップS1270:YES)、処理を終了する。終了が指示されていない場合(ステップS1270:NO)、ステップS1210に戻り、以降の処理を繰り返す。
In step S1270, the
以上説明したように、第1の実施の形態によれば、両眼視差による3D画像をユーザに視認させることが可能な表示部14にタッチパネル2を組み合わせ、ユーザが視認する3D画像に対して行う操作をタッチパネル2で検出するため、ユーザはタッチパネル2に対して直接的に操作をすることで、物理的に操作した感触を得ることができ、3D画像への操作に対する違和感が軽減される。また、両眼視差による3D画像を表示可能なディスプレイは薄型のLCD等で構成可能なため、画像表示装置の大型化を招くことなく、違和感のない操作性をユーザに提供できる。
As described above, according to the first embodiment, the
なお、上記第1の実施の形態において、タッチパネル2の方式を抵抗膜式として説明したが、これに限定されるものではなく、静電容量方式、超音波表面弾性波方式、音響パルス方式、振動検出方式、赤外線遮光方式、電磁誘導方式、静電センサ方式等の方式のものを使用してもよい。
In the first embodiment, the
また、LCD1の表示画面の表面1aとタッチパネル2との間の間隔を無視して説明を行ったが、表示画面の表面1aとタッチパネル2との間隔が無視できない場合や、3D画像の結像高さを高くするために表示画面の表面1aとタッチパネル2との間に透過性の高い物質を挟む場合などには、この間隔もタッチパネル2の厚みに含めて考えればよい。
Further, although the description has been made ignoring the interval between the
また、ROM16に格納するパラメータを、タッチパネルの厚みT、左眼ELと右眼ERの間隔D1、眼からタッチパネル2までの距離L1、結像高さL2、画素間ピッチDpとして説明を行ったが、これに限定されるものではなく、左眼用画像と右眼用画像との間隔の画素数Ngが算出可能な情報であればよい。左眼用画像と右眼用画像との間隔の画素数Ngを予め算出して格納してもよい。
Also, the parameters stored in the
さらに、4対の右眼用画像と左眼用画像を用いて位置補正処理の説明を行ったが、これに限定されるものではなく、2対以上であればいくつであってもよい。 Furthermore, the position correction processing has been described using four pairs of right-eye images and left-eye images. However, the present invention is not limited to this, and any number of pairs may be used as long as there are two or more pairs.
(第2の実施の形態)
第1の実施の形態で説明したように、タッチパネル2の入力面2aの近傍に3D画像を結像させることが可能な右眼用画像と左眼用画像との間の画素数Ngは、装置の使用方法に依存して決定される。
(Second Embodiment)
As described in the first embodiment, the number of pixels Ng between the right-eye image and the left-eye image capable of forming a 3D image in the vicinity of the
このため、使用方法がユーザごとに全く異なる装置の場合は、画素数Ngを固定値とすることはできない。例えば、壁掛け式の装置の場合は、ユーザは腕を伸ばして使用するかも知れないし、腕を畳んで使用するかも知れない。 For this reason, when the usage method is completely different for each user, the number of pixels Ng cannot be a fixed value. For example, in the case of a wall-mounted device, the user may use the arm extended, or may use the arm folded.
そこで、第2の実施の形態では、ユーザの使用方法に応じて、3D画像をユーザに視認させるための右眼用画像と左眼用画像との間の画素数Ngを決定する。 Therefore, in the second embodiment, the number of pixels Ng between the right-eye image and the left-eye image for allowing the user to visually recognize the 3D image is determined according to the usage method of the user.
図22は、第2の実施の形態において上記画素数Ngを決定する方法を説明するための図である。図22において、LCD1の表示画面には、左眼用画像GL3と右眼用画像GR3、左眼用画像GL4と右眼用画像GR4、左眼用画像GLと右眼用画像GR5、の3対の調整用3D表示用画像が表示されている。
FIG. 22 is a diagram for explaining a method of determining the number of pixels Ng in the second embodiment. In FIG. 22, the display screen of the
左眼用画像GL3と右眼用画像GR3とにより結像画像CG3が生成され、左眼用画像GL4と右眼用画像GR4とにより結像画像CG4が生成され、左眼用画像GLと右眼用画像GR5とにより結像画像CG5が生成される。3つの結像画像CG3,CG4,CG5は互いに結像高さが異なる。 An image CG3 is generated from the left eye image GL3 and the right eye image GR3, and an image CG4 is generated from the left eye image GL4 and the right eye image GR4. The left eye image GL and the right eye A formed image CG5 is generated by the use image GR5. The three imaging images CG3, CG4, and CG5 have different imaging heights.
また、LCD1の表示画面には、ユーザに対して結像画像GC1〜GC3の中から1つを選択させるためのメッセージ43が表示されている。
In addition, a
このメッセージ43により、タッチパネル2の入力面2aに最も近い結像画像をユーザに選択させ、ユーザが選択した結像画像に対応する左眼用画像と右眼用画像との間隔の画素数を、最適な画素数Ngとして決定する。
This
第2の実施の形態に係る画像表示装置は、図5に示した第1の実施の形態の画像表示装置10と同様の構成であるため、第2の実施の形態においても図5を用いるが、第1の実施の形態とはROM16に記憶されている情報が異なる。
Since the image display apparatus according to the second embodiment has the same configuration as that of the
第1の実施の形態では、ROM16に、3D画像の結像高さを決定するための各パラメータ(タッチパネルの厚みT、左眼と右眼との間隔D1、眼からタッチパネルまでの距離L1、結像高さL2、画素間ピッチDp)を記憶していたが、第2の実施の形態では、図22で説明した複数の調整用3D表示用画像に関する情報を記憶しており、それぞれの調整用3D表示用画像を構成する左眼用画像および右眼用画像の大きさ、色、表示位置、画像間の画素数などの情報を記憶している。
In the first embodiment, the
次に、第2の実施の形態における画像表示装置の動作について、図23に示すフローチャートを参照して説明する。 Next, the operation of the image display apparatus according to the second embodiment will be described with reference to the flowchart shown in FIG.
まず、ステップS1310において、制御部15は、3D画像結像高さを決定済みか否かを判断する。3D画像結像高さが決定していない場合(ステップS1310:NO)、ステップS1320において、制御部15は、左眼用画像と右眼用画像の間の画素数Ngを算出するための3D画像結像高さ決定処理を実施する。3D画像結像高さ決定処理については後述する。3D画像結像高さがすでに決定している場合(ステップS1310:YES)、ステップS1330に進む。
First, in step S1310, the
ステップS1330では、制御部15は、位置補正処理が実施されたか否かを判断し、位置補正処理が実施されていない場合(ステップS1330:NO)、制御部15は、位置補正処理を行う。位置補正処理は、第1の実施の形態で説明した図6のステップS30における位置補正処理と同様であるため、説明を省略する。位置補正処理が実施済みである場合(ステップS1330:YES)、ステップS1350に進む。
In step S1330, the
ステップS1350では、制御部15は、ステップS1320の3D画像結像高さ決定処理で決定した画素数Ngに応じた所定の左眼用画像と右眼用画像とからなる3D表示用画像を画像生成部12で生成し、生成した3D表示用画像を表示部14の表示画面に表示するよう制御する。
In step S1350, the
以降のステップS1360〜S1400の処理は、第1の実施の形態で説明した図6のフローチャートのステップS50〜S90の処理と同様であるため説明を省略する。 The subsequent processing in steps S1360 to S1400 is the same as the processing in steps S50 to S90 in the flowchart of FIG. 6 described in the first embodiment, and thus description thereof is omitted.
次に、図23のステップS1320の3D画像結像高さ決定処理について、図24のフローチャートを参照して説明する。 Next, the 3D image formation height determination process in step S1320 of FIG. 23 will be described with reference to the flowchart of FIG.
まず、ステップS1410において、制御部15は、ROM16に記憶されている複数の調整用3D表示用画像に関する情報を読み出す。
First, in step S <b> 1410, the
次いで、ステップS1420において、制御部15は、ステップS1410で読み出した情報に基づいて、画像生成部12にて結像高さの互いに異なる複数の調整用3D表示用画像を生成し、これらを表示部14により表示するよう制御する。
Next, in step S1420, the
次いで、ステップS1430において、制御部15は、各調整用3D表示用画像による結像画像からいずれかをユーザに選択させるためのメッセージ43を表示するよう表示部14を制御する。
Next, in step S1430, the
ステップS1440〜S1460の処理は、第1の実施の形態で説明した図6のフローチャートのステップS50〜S70の処理と同様であるため説明を省略する。 The processing in steps S1440 to S1460 is the same as the processing in steps S50 to S70 in the flowchart of FIG. 6 described in the first embodiment, and thus description thereof is omitted.
次いで、ステップS1470において、制御部15は、ステップS1460で算出した表示画面の画素位置(Xd,Yd)に調整用3D表示用画像があるか否かを判断する。調整用3D表示用画像がない場合(ステップS1470:NO)、ステップS1440に戻る。
Next, in step S1470, the
調整用3D表示用画像がある場合(ステップS1470:YES)、制御部15は、その調整用3D表示用画像における左眼用画像と右眼用画像との間の画素数を、操作ボタン等の3D画像表示する際に用いる左眼用画像と右眼用画像との間の画素数Ngの値として決定する。
When there is an adjustment 3D display image (step S1470: YES), the
以上説明したように、第2の実施の形態によれば、第1の実施の形態と同様の効果に加えて、ユーザの使用方法に応じた3D画像の表示を行うことができ、さまざまな使用方法に対応できるという効果が得られる。 As described above, according to the second embodiment, in addition to the same effects as those of the first embodiment, a 3D image can be displayed according to the user's usage method, and various uses can be performed. The effect that it can respond to a method is acquired.
なお、図22では、3つ(3対)の調整用3D表示用画像を表示する例を示したが、調整用3D表示用画像の数はこれに限らない。 Although FIG. 22 shows an example in which three (three pairs) adjustment 3D display images are displayed, the number of adjustment 3D display images is not limited to this.
(第3の実施の形態)
第3の実施の形態においても、第2の実施の形態と同様に、ユーザの使用方法に応じて、3D画像をユーザに視認させるための右眼用画像と左眼用画像との間の画素数Ngを決定する。
(Third embodiment)
Also in the third embodiment, as in the second embodiment, pixels between the right-eye image and the left-eye image for allowing the user to visually recognize the 3D image according to the usage method of the user. The number Ng is determined.
図25は、第3の実施の形態において、3D画像をユーザに視認させるための右眼用画像と左眼用画像との間の画素数Ngを決定するために必要な入力位置を取得する方法を説明するための図である。 FIG. 25 shows a method for acquiring an input position necessary for determining the number of pixels Ng between the right-eye image and the left-eye image for allowing the user to visually recognize the 3D image in the third embodiment. It is a figure for demonstrating.
図25に示すように、LCD1の表示画面上の右眼用画素に表示点Pd3を表示する。 As shown in FIG. 25, the display point Pd3 is displayed on the pixel for the right eye on the display screen of the LCD1.
この表示点Pd3をユーザにタッチペン3を使用して押圧するように指示し、タッチパネル2の入力面2a上のユーザの右眼ERによる入力点PirのX軸方向の入力位置Xirを取得する。このとき、ユーザの左眼ELからは表示点Pd3は見えないので、右眼ERからの入力位置Xirを取得することができる。
The user is instructed to press the display point Pd3 by using the
同様に、右眼ERの入力位置の取得時と略同じ位置にLCD1の左眼用画素にて表示点Pd3を表示し、この表示点Pd3をユーザに押圧させることにより、ユーザの左眼ELによる入力点PilのX軸方向の入力位置Xilを取得する。この時、ユーザの右眼ERからは表示点Pd3は見えないので、左眼ELからの入力位置Xilを取得することができる。
Similarly, the display point Pd3 is displayed by the pixel for the left eye of the
タッチパネル2の厚みをT、タッチパネル2の入力面2aから眼までの距離をL1、ユーザの右眼ERと左眼ELとの間隔をD1、入力点Pilと入力点Pirとの間隔をD3とすると、「(左眼EL)−(表示点Pd3)−(右眼ER)のなす三角形」と、(入力点Pil)−(表示点Pd3)−(入力点Pir)のなす三角形」とは相似の関係にあるので、以下の(式31)が成立する。
When the thickness of the
D1:D3 = (L1+T):T …(式31)
(式31)より、ユーザの右眼ERと左眼ELとの間隔D1は、
D1= D3×(L1+T)÷T …(式32)
と求まる。
D1: D3 = (L1 + T): T (Formula 31)
From (Equation 31), the distance D1 between the user's right eye ER and left eye EL is
D1 = D3 × (L1 + T) ÷ T (Expression 32)
It is obtained.
ここで、図26を用いて、上記の入力位置の取得時の問題点について説明を行う。 Here, with reference to FIG. 26, the problem at the time of obtaining the input position will be described.
図26(a)に示すように、先に左眼ELからのタッチパネル2上の入力位置を取得する場合、ユーザがタッチペン3を右手に持っていると、次の右眼ERからの入力位置の取得時において、LCD1の表示画面上の表示点がタッチペン3に隠れてしまうことになる。このため、ユーザは表示点を見失うことになり、タッチペン3を一旦、大きく移動しなければならない。しかし、図26(b)に示すように、右眼ERからの入力位置の取得を先に行えば、次の左眼ELからの入力位置の取得時にも表示点を見失うことはない。
As shown in FIG. 26 (a), when the input position on the
よって、ユーザの利き手側の眼から先に入力位置の取得を行うようにすることが望ましい。例えば、右利きが大半を占める日本人の場合、右眼ERから先に入力位置を取得するように構成すればよく、また、装置のコンフィグレーション機能の1つとして、ユーザの利き手を入力させるように構成してもよい。 Therefore, it is desirable to acquire the input position first from the eyes of the user's dominant hand. For example, in the case of a Japanese who is mostly right-handed, it may be configured to acquire the input position first from the right eye ER, and the user's dominant hand is input as one of the configuration functions of the device. You may comprise.
図27は、図25で取得した入力位置を用いた、画素数Ngの算出方法の説明図である。図27に示すように、LCD1の表示画面上に右眼用画像Pd1と左眼用画像Pd2とを距離D2の間隔で表示した場合の、タッチパネル2の入力面2aから結像点Pcまでの高さをL3とする。
FIG. 27 is an explanatory diagram of a method of calculating the number of pixels Ng using the input position acquired in FIG. As shown in FIG. 27, when the right-eye image Pd1 and the left-eye image Pd2 are displayed on the display screen of the
この場合、「(左眼EL)−(結像点Pc)−(右眼ER)のなす三角形」と「(表示点Pd2)−(結像点Pc)−(表示点Pd1)のなす三角形」とは相似の関係にあるので、以下の(式33)が成り立つ。 In this case, “a triangle formed by (left eye EL) − (image point Pc) − (right eye ER)” and “a triangle formed by (display point Pd2) − (image point Pc) − (display point Pd1)”. Therefore, the following (Expression 33) is established.
D1:D2 = (L1−L3):(T+L3) …(式33)
(式33)より、右眼用画像Pd1と左眼用画像Pd2との間の距離D2は、
D2 ={D1×(T+L3)}÷(L1−L3) …(式34)
と求まる。
D1: D2 = (L1-L3): (T + L3) (Expression 33)
From (Expression 33), the distance D2 between the right-eye image Pd1 and the left-eye image Pd2 is
D2 = {D1 × (T + L3)} ÷ (L1−L3) (Expression 34)
It is obtained.
(式32)を(式34)に代入して、
D2 = {D3×(L1+T)×(T+L3)}÷{(L1−L3)×T}
= {D3×(1+T÷L1)×(T+L3)}÷{(1−L3÷L1)×T}
…(式35)
ここで、タッチパネル2の厚みTとタッチパネル2の入力面2aから結像点Pcまでの高さL3は、タッチパネル2の入力面2aから眼までの距離L1に比べて非常に小さくなるので、(T÷L1)≪1,(L3÷L1)≪1とすることができる。
Substituting (Equation 32) into (Equation 34),
D2 = {D3 × (L1 + T) × (T + L3)} ÷ {(L1-L3) × T}
= {D3 × (1 + T ÷ L1) × (T + L3)} ÷ {(1−L3 ÷ L1) × T}
... (Formula 35)
Here, since the thickness T of the
よって、式35より、表示点Pd1と表示点Pd2との間の距離D2は、以下の(式36)で与えられる。 Therefore, from Expression 35, the distance D2 between the display point Pd1 and the display point Pd2 is given by the following (Expression 36).
D2= D3×(T+L3)÷ T …(式36)
以上で説明したように、右眼ERによるX軸方向の入力位置Xirと左眼ELによるX軸方向の入力位置Xilとの距離D3がわかれば、タッチパネル2の入力面2aからL3の距離に結像するための右眼用画像である表示点Pd1と左眼用画像である表示点Pd2の間隔D2を算出することができる。
D2 = D3 × (T + L3) ÷ T (Expression 36)
As described above, if the distance D3 between the input position Xir in the X-axis direction by the right eye ER and the input position Xil in the X-axis direction by the left eye EL is known, the distance from the
タッチパネル2の入力面2aに画像を結像させるためには、(式36)においてL3=0とすればよい。つまり、それぞれの画像の中心が距離D3の間隔となるように右眼用画像と左眼用画像の間の画素数Ngを決定すればよい。
In order to form an image on the
この距離D3は、先に説明したように、右眼ERによるX軸方向の入力位置Xirと左眼ELによるX軸方向の入力位置Xilとの間の距離である。そこで、次に、入力位置Xirと入力位置Xilとから、右眼用画像と左眼用画像の間の画素数Ngを求める方法について説明する。 As described above, the distance D3 is the distance between the input position Xir in the X-axis direction by the right eye ER and the input position Xil in the X-axis direction by the left eye EL. Therefore, a method for determining the number of pixels Ng between the right eye image and the left eye image from the input position Xir and the input position Xil will be described next.
距離D3は、入力位置Xirと入力位置Xilとの差分と、単位長さあたりにあるタッチパネル2の入力位置数とから求めることができる。また、画素数Ngは、距離D3と、単位長さあたりにあるLCD1の画素数とから求めることができる。すなわち、画素数Ngは、入力位置Xirと入力位置Xilとの差分と、LCD1の1画素あたりのタッチパネル2の入力位置数から求めることができる。
The distance D3 can be obtained from the difference between the input position Xir and the input position Xil and the number of input positions of the
以下に、図28を用いて、LCD1の1画素あたりのタッチパネル2の入力位置数の算出方法について説明する。図28は、LCD1の画素位置とタッチパネル2の入力位置との関係について示す図である。
A method for calculating the number of input positions of the
図28に示すように、タッチパネル2の使用可能な領域である有効使用領域のX軸方向の長さをLpx、X軸方向における有効使用領域内にあるタッチパネル2上の入力位置の数をNpaxとする。
As shown in FIG. 28, the length in the X-axis direction of the effective use area that is the usable area of the
また、LCD1の表示可能な領域である有効表示領域のX軸方向の長さをLdx、画素数をNdx、X軸方向における有効表示領域内にあるタッチパネル2上の入力位置の数をNpxとする。
In addition, the length in the X-axis direction of the effective display area that is a displayable area of the
LCD1の表示画面はタッチパネル2によってすべて覆われていなければならないので、外形の誤差や取り付け誤差を考慮し、Lpx>Ldxの関係となっている。
Since the display screen of the
第1の実施の形態で説明した通り、LCD2の画素は、X軸方向、Y軸方向ともに均一の間隔で配置されており、また、タッチパネル2を押圧した位置と、その結果として得られる入力位置との関係は、X軸方向、Y軸方向ともに直線性を有する。
As described in the first embodiment, the pixels of the
よって、LCD1の有効表示領域内にあるタッチパネル2の入力位置の数Npxは、以下の(式37)で求められる。
Therefore, the number Npx of input positions of the
Npx = Npax × Ldx ÷ Lpx …(式37)
LCD1の有効表示領域のX軸方向の長さLdxにある画素数はNdxであり、タッチパネル2の入力位置数はNpxであるので、1画素あたりの入力位置数をNuとすると、
Nu = Npx ÷ Ndx …(式38)
となる。
Npx = Npax × Ldx ÷ Lpx (Formula 37)
Since the number of pixels in the length Ldx in the X-axis direction of the effective display area of the
Nu = Npx / Ndx (Formula 38)
It becomes.
(式37)を(式38)に代入して、
Nu =(Npax ÷ Ndx)×(Ldx ÷ Lpx) …(式39)
と求まる。
Substituting (Equation 37) into (Equation 38),
Nu = (Npax ÷ Ndx) × (Ldx ÷ Lpx) (Equation 39)
It is obtained.
入力位置Xirと入力位置Xilとの差を、(式39)で求まった1画素あたりの入力位置数Nuで除すれば、右眼用画像と左眼用画像の間の画素数Ngが求まるので、
Ng =(Xir − Xil)÷ Nu
=(Xir − Xil)÷ {(Npax ÷ Ndx)×(Ldx ÷ Lpx)}
=(Xir − Xil)×(Ndx ÷ Npax)×(Lpx ÷ Ldx) …(式40)
ただし、(Xir > Xil)であるとする。
By dividing the difference between the input position Xir and the input position Xil by the number of input positions Nu per pixel obtained by (Equation 39), the number of pixels Ng between the right-eye image and the left-eye image can be obtained. ,
Ng = (Xir-Xil) / Nu
= (Xir−Xil) ÷ {(Npax ÷ Ndx) × (Ldx ÷ Lpx)}
= (Xir−Xil) × (Ndx ÷ Npax) × (Lpx ÷ Ldx) (Equation 40)
However, it is assumed that (Xir> Xil).
なお、上記の説明において、1画素あたりの入力位置数Nuを(式40)を導くようにして求めたが、LCD1の表示画面上にX軸方向の位置が異なる2点以上の画素を表示し、その画素をタッチパネル2の入力面2aに対して垂直になるように押圧することによって1画素あたりの入力位置数Nuを求めてもよい。
In the above description, the number Nu of input positions per pixel is obtained by deriving (Equation 40), but two or more pixels having different positions in the X-axis direction are displayed on the display screen of the
以上のように、右眼用画像と左眼用画像との間の画素数Ngを算出することができる。 As described above, the number of pixels Ng between the right eye image and the left eye image can be calculated.
以下に、具体的な数値を用いて、上述した画素数Ngの算出方法を説明する。この説明において、LCD1の有効表示領域のX軸方向の長さLdx=48mm、画素数Ndx=320個、タッチパネルの有効使用領域のX軸方向の長さLpx=51.2mm、入力位置数Npax=1024個とする。また、右眼ERからの入力位置Xirと左眼ELからの入力位置Xilとの差(Xir−Xil)=20として説明を行う。
Below, the calculation method of the pixel number Ng mentioned above is demonstrated using a specific numerical value. In this description, the length Ldx in the X-axis direction of the effective display area of the
(式40)より、右眼用画像と左眼用画像との間の画素数Ngは、
Ng =(Xir − Xil)×(Ndx ÷ Npax)×(Lpx ÷ Ldx)
= 22 ×(320 ÷ 1024)×(51.2 ÷ 48)
= 7.33[個]
と求めることができ、上述した通り、より立体感を高めるためには画素数Ngを大きくすることが望ましいので、切り上げ処理を行い、Ng=8[個]と求めることができる。
From (Equation 40), the number of pixels Ng between the image for the right eye and the image for the left eye is
Ng = (Xir-Xil) * (Ndx / Npax) * (Lpx / Ldx)
= 22 x (320 ÷ 1024) x (51.2 ÷ 48)
= 7.33 [pieces]
As described above, it is desirable to increase the number of pixels Ng in order to enhance the stereoscopic effect, so that the round-up process can be performed to obtain Ng = 8 [pieces].
次に、第3の実施の形態における画像表示装置の動作について説明する。なお、第3の実施の形態に係る画像表示装置は、図5に示した第1の実施の形態の画像表示装置10と同様の構成であるため、第3の実施の形態においても図5を用いて説明する。
Next, the operation of the image display device in the third embodiment will be described. The image display apparatus according to the third embodiment has the same configuration as that of the
第3の実施の形態における画像表示装置10の動作は、第2の実施の形態で図23のフローチャートを参照して説明した動作とステップS1320の3D画像結像高さ決定処理以外は同様であるため、重複説明を省略し、相違箇所である3D画像結像高さ決定処理について説明する。
The operation of the
図29は、第3の実施の形態における3D画像結像高さ決定処理の手順を示すフローチャートである。 FIG. 29 is a flowchart illustrating a procedure of 3D image formation height determination processing according to the third embodiment.
まず、ステップS1510において、制御部15は、右眼用表示点(調整用右眼用画像)を画像生成部12で生成し、表示部14により表示するよう制御する。
First, in step S <b> 1510, the
次いで、ステップS1520において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS1520:YES)、ステップS1530に進み、検出されていない場合(ステップS1520:NO)、位置取得部11で入力面2aの押圧が検出されるまでステップS1520を繰り返す。
Next, in step S1520, the
ステップS1530では、制御部15は、ステップS1520において位置取得部11で検出されたX軸方向の入力位置を、右眼ERによるタッチパネル2のX軸方向の入力位置Xirとして取得する。
In step S1530, the
次いで、ステップS1540において、制御部15は、右眼用表示点の表示を終了し、左眼用表示点(調整用左眼用画像)を画像生成部12で生成し、表示部14により右眼用表示点と略同じ位置に表示するよう制御する。
Next, in step S 1540, the
次いで、ステップS1550において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS1550:YES)、ステップS1560に進み、検出されていない場合(ステップS1550:NO)、位置取得部11で入力面2aの押圧が検出されるまでステップS1550を繰り返す。
Next, in step S1550, the
ステップS1560では、制御部15は、ステップS1550において位置取得部11で検出されたX軸方向の入力位置を、左眼ELによるタッチパネル2のX軸方向の入力位置Xilとして取得する。
In step S1560, the
次いで、ステップS1570において、制御部15は、ステップS1530で取得した入力位置Xirと、ステップS1560で取得した入力位置Xilとの差(Xir−Xil)を求める。
Next, in step S1570, the
そして、ステップS1580において、制御部15は、ステップS1570で求めた右眼ERによる入力位置Xirと左眼ELによる入力位置Xilとの差(Xir−Xil)と、上述の(式39)により求められる1画素あたりの入力位置数Nuとにより、右用眼画像と左眼用画像の間の画素数Ngを算出する。
In step S1580, the
以上説明したように、第3の実施の形態によれば、第1の実施の形態と同様の効果に加えて、第2の実施の形態と同様に、ユーザの使用方法に応じた3D画像の表示を行うことができ、さまざまな使用方法に対応できるという効果が得られる。 As described above, according to the third embodiment, in addition to the same effects as those of the first embodiment, the 3D image corresponding to the user's usage method can be obtained as in the second embodiment. The display can be performed, and the effect that it can cope with various usages is obtained.
1 LCD
2 タッチパネル
2a 入力面
10 画像表示装置
11 位置取得部
12 画像生成部
13 再生部
14 表示部
15 制御部
16 ROM
17 RAM
1 LCD
DESCRIPTION OF
17 RAM
Claims (17)
前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、
前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、
前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、
前記画像生成部で生成する前記3次元表示用画像における左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、
前記画像生成制御部は、前記表示画面の表面と前記検出部の前記入力面との間の距離、一般的な人間の左眼と右眼との間隔の想定値、および観察者の左眼および右眼から前記検出部の前記入力面までの距離を用いて、3次元画像が前記入力面の近傍に結像し、その結像高さが前記入力面より低くならないように、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする画像表示装置。 An image generation unit for generating a three-dimensional display image including a left-eye image and a right-eye image for allowing a viewer to visually recognize a three-dimensional image by binocular parallax;
A display unit for displaying the three-dimensional display image generated by the image generation unit;
A detection unit having an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed;
A position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit;
When the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image, a control unit that executes and controls a predetermined function;
By controlling the interval between the left-eye image and the right-eye image in the three-dimensional display image generated by the image generation unit, a three-dimensional image that is visually recognized by the observer by the three-dimensional display image. and an image generation control unit for controlling the image height,
The image generation control unit includes a distance between a surface of the display screen and the input surface of the detection unit, an assumed value of a distance between a general human left eye and a right eye, and an observer's left eye and Using the distance from the right eye to the input surface of the detection unit, a three-dimensional image is formed in the vicinity of the input surface, and the three-dimensional display is performed so that the image formation height is not lower than the input surface. images display you characterized by determining the distance between the left-eye image and a right eye image of the use image.
前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、
前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、
前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、
前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、
前記画像生成制御部は、結像高さの互いに異なる複数の調整用3次元表示用画像を前記表示部に表示させ、観察者により選択された1つの前記調整用3次元表示用画像の左眼用画像と右眼用画像との間隔に基づいて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする画像表示装置。 An image generation unit for generating a three-dimensional display image including a left-eye image and a right-eye image for allowing a viewer to visually recognize a three-dimensional image by binocular parallax;
A display unit for displaying the three-dimensional display image generated by the image generation unit;
A detection unit having an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed;
A position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit;
When the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image, a control unit that executes and controls a predetermined function;
By controlling the interval between the left-eye image and the right-eye image of the three-dimensional display image generated by the image generation unit, a result of the three-dimensional image visually recognized by the observer by the three-dimensional display image is displayed. and an image generation control unit for controlling the image height,
The image generation control unit displays a plurality of adjustment three-dimensional display images having different imaging heights on the display unit, and the left eye of the one adjustment three-dimensional display image selected by the observer based on the interval between use image and the right eye image, you and determining a distance between the left-eye image and the right eye image of the three-dimensional display image generated by the image generating unit image Image display device.
前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、
前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、
前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、
前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、
前記画像生成制御部は、前記表示画面の略同じ位置に表示される調整用右眼用画像と調整用左眼用画像とを前記表示部に順次表示させ、前記調整用右眼用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置と、前記調整用左眼用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置とを用いて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする画像表示装置。 An image generation unit for generating a three-dimensional display image including a left-eye image and a right-eye image for allowing a viewer to visually recognize a three-dimensional image by binocular parallax;
A display unit for displaying the three-dimensional display image generated by the image generation unit;
A detection unit having an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed;
A position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit;
When the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image, a control unit that executes and controls a predetermined function;
By controlling the interval between the left-eye image and the right-eye image of the three-dimensional display image generated by the image generation unit, a result of the three-dimensional image visually recognized by the observer by the three-dimensional display image is displayed. and an image generation control unit for controlling the image height,
The image generation control unit sequentially displays an adjustment right-eye image and an adjustment left-eye image displayed at substantially the same position on the display screen on the display unit, and displays the adjustment right-eye image. The input position acquired from the position acquisition unit according to the operation of the observer at the time and the input position acquired from the position acquisition unit according to the operation of the observer at the time of displaying the adjustment left-eye image Te, images display you characterized by determining the distance between the left-eye image and the right eye image of the three-dimensional display image generated by the image generation unit.
前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、A display unit for displaying the three-dimensional display image generated by the image generation unit;
前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、A detection unit having an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed;
前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、A position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit;
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部とを備え、A control unit that controls execution of a predetermined function when the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image;
前記制御部は、複数の位置補正用3次元表示用画像を前記表示部に順次表示させ、それぞれの前記位置補正用3次元表示用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置を用いて、前記検出部の前記入力面における入力位置と、前記表示部の表示画面における画素位置とを関連づけする位置補正処理を行うことを特徴とする画像表示装置。The control unit sequentially displays a plurality of position correction three-dimensional display images on the display unit, and the position acquisition unit according to an operation of an observer when each of the position correction three-dimensional display images is displayed. An image display apparatus that performs position correction processing that associates the input position on the input surface of the detection unit with the pixel position on the display screen of the display unit using the input position acquired from the display unit.
前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、A display unit for displaying the three-dimensional display image generated by the image generation unit;
前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、A detection unit having an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed;
前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、A position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit;
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部とを備え、A control unit that controls execution of a predetermined function when the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image;
前記制御部は、前記検出部の前記入力面が押圧されたときに、前記表示画面における、押圧された前記入力面の入力位置に対応する位置に表示するための左眼用画像および右眼用画像を前記画像生成部で生成して前記表示部に表示するよう制御することを特徴とする画像表示装置。When the input surface of the detection unit is pressed, the control unit displays an image for the left eye and a right eye for displaying on the display screen at a position corresponding to the input position of the pressed input surface. An image display device, wherein an image is generated by the image generation unit and controlled to be displayed on the display unit.
前記画像生成制御部は、所定の値を用いて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする請求項6乃至8のいずれか1項に記載の画像表示装置。The image generation control unit determines a gap between a left-eye image and a right-eye image of the three-dimensional display image generated by the image generation unit using a predetermined value. The image display device according to any one of 6 to 8.
前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、A display unit for displaying the three-dimensional display image generated by the image generation unit;
前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、A detection unit having an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed;
前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、A position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit;
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、When the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image, a control unit that executes and controls a predetermined function;
前記画像生成部で生成する前記3次元表示用画像における左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、By controlling the interval between the left-eye image and the right-eye image in the three-dimensional display image generated by the image generation unit, a three-dimensional image that is visually recognized by the observer by the three-dimensional display image. An image generation control unit for controlling the image height,
前記画像生成制御部は、The image generation control unit
所定の値を用いて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定し、A predetermined value is used to determine an interval between the left-eye image and the right-eye image of the three-dimensional display image generated by the image generation unit,
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を変化させることを特徴とする画像表示装置。When the input position acquired by the position acquisition unit is a position corresponding to the 3D display image, the interval between the left eye image and the right eye image of the 3D display image is changed. An image display device.
両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像における左眼用画像と右眼用画像との間隔を決定するステップと、
決定した左眼用画像と右眼用画像との間隔に基づいて前記3次元表示用画像を生成するステップと、
前記3次元表示用画像を前記表示部に表示するステップとを含み、
前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップは、
前記表示画面の表面と前記検出部の前記入力面との間の距離、一般的な人間の左眼と右眼との間隔の想定値、および観察者の左眼および右眼から前記検出部の前記入力面までの距離を用いて、3次元画像が前記入力面の近傍に結像し、その結像高さが前記入力面より低くならないように、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップであることを特徴とする画像表示方法。 An image is displayed on the display unit of the image display device having a display unit and a detection unit that includes an input surface arranged on the surface side of the display screen of the display unit and detects that the input surface is pressed An image display method for
Determining a distance between the left eye and the image for the right eye in the three-dimensional display image comprising a left eye image and a right eye image in order to visually recognize a three-dimensional image to the observer by binocular parallax,
Generating the three-dimensional display image based on the determined interval between the left-eye image and the right-eye image;
See containing and displaying the 3-dimensional display image on the display unit,
Determining the interval between the left-eye image and the right-eye image of the three-dimensional display image,
The distance between the surface of the display screen and the input surface of the detection unit, an assumed value of a general human left eye and right eye distance, and the left and right eyes of an observer Using the distance to the input surface, a three-dimensional image is formed in the vicinity of the input surface, and the image for the left eye of the three-dimensional display image is set so that the image formation height does not become lower than the input surface. And an image display method characterized in that it is a step of determining an interval between the right eye image and the right eye image .
両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像における左眼用画像と右眼用画像との間隔を決定するステップと、
決定した左眼用画像と右眼用画像との間隔に基づいて前記3次元表示用画像を生成するステップと、
前記3次元表示用画像を前記表示部に表示するステップとを含み、
前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップは、
結像高さの互いに異なる複数の調整用3次元表示用画像を前記表示部に表示するステップと、
観察者により選択された1つの前記調整用3次元表示用画像の左眼用画像と右眼用画像との間隔に基づいて、前記表示部に表示する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップと
を含むことを特徴とする画像表示方法。 An image is displayed on the display unit of the image display device having a display unit and a detection unit that includes an input surface arranged on the surface side of the display screen of the display unit and detects that the input surface is pressed An image display method for
Determining an interval between a left-eye image and a right-eye image in a three-dimensional display image composed of a left-eye image and a right-eye image for allowing an observer to visually recognize a three-dimensional image by binocular parallax;
Generating the three-dimensional display image based on the determined interval between the left-eye image and the right-eye image;
Displaying the three-dimensional display image on the display unit,
Determining the interval between the left-eye image and the right-eye image of the three-dimensional display image,
Displaying a plurality of adjustment three-dimensional display images having different imaging heights on the display unit;
The left-eye image of the 3D display image displayed on the display unit based on the interval between the left-eye image and the right-eye image of the one adjustment-use 3D display image selected by the observer And a step of determining an interval between the right eye image and the right eye image.
両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像における左眼用画像と右眼用画像との間隔を決定するステップと、
決定した左眼用画像と右眼用画像との間隔に基づいて前記3次元表示用画像を生成するステップと、
前記3次元表示用画像を前記表示部に表示するステップとを含み、
前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップは、
調整用右眼用画像と調整用左眼用画像とを前記表示部の前記表示画面の略同じ位置に順次表示し、前記調整用右眼用画像の表示時において観察者の操作に応じて取得した前記入力面における入力位置と、前記調整用左眼用画像の表示時において観察者の操作に応じて取得した前記入力面における入力位置とを用いて、前記表示部に表示する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップであることを特徴とする画像表示方法。 An image is displayed on the display unit of the image display device having a display unit and a detection unit that includes an input surface arranged on the surface side of the display screen of the display unit and detects that the input surface is pressed An image display method for
Determining an interval between a left-eye image and a right-eye image in a three-dimensional display image composed of a left-eye image and a right-eye image for allowing an observer to visually recognize a three-dimensional image by binocular parallax;
Generating the three-dimensional display image based on the determined interval between the left-eye image and the right-eye image;
Displaying the three-dimensional display image on the display unit,
Determining the interval between the left-eye image and the right-eye image of the three-dimensional display image,
The image for right eye for adjustment and the image for left eye for adjustment are sequentially displayed at substantially the same position on the display screen of the display unit, and acquired according to the operation of the observer when the image for right eye for adjustment is displayed. The three-dimensional display displayed on the display unit using the input position on the input surface and the input position on the input surface acquired according to the operation of the observer when the adjustment left-eye image is displayed An image display method comprising a step of determining an interval between a left-eye image and a right-eye image of an image for use.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010035009A JP5375656B2 (en) | 2010-02-19 | 2010-02-19 | Image display device and image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010035009A JP5375656B2 (en) | 2010-02-19 | 2010-02-19 | Image display device and image display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011170694A JP2011170694A (en) | 2011-09-01 |
JP5375656B2 true JP5375656B2 (en) | 2013-12-25 |
Family
ID=44684739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010035009A Active JP5375656B2 (en) | 2010-02-19 | 2010-02-19 | Image display device and image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5375656B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130096050A (en) | 2012-02-21 | 2013-08-29 | 삼성디스플레이 주식회사 | Display device |
CN110007763B (en) * | 2019-04-04 | 2021-02-26 | 惠州Tcl移动通信有限公司 | Display method, flexible display device and electronic equipment |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004280496A (en) * | 2003-03-17 | 2004-10-07 | Kyocera Mita Corp | Operation panel device |
JP4251952B2 (en) * | 2003-10-01 | 2009-04-08 | シャープ株式会社 | Stereoscopic image display apparatus and stereoscopic image display method |
-
2010
- 2010-02-19 JP JP2010035009A patent/JP5375656B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011170694A (en) | 2011-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6380881B2 (en) | Stereoscopic image display apparatus, image processing apparatus, and stereoscopic image processing method | |
KR101280636B1 (en) | Active type display apparatus for stereographic image and driving method thereof | |
JP5160741B2 (en) | 3D graphic processing apparatus and stereoscopic image display apparatus using the same | |
JP6569496B2 (en) | Input device, input method, and program | |
JP5497882B2 (en) | Display device, terminal device, and display method | |
US9164621B2 (en) | Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium | |
EP2372512A1 (en) | Vehicle user interface unit for a vehicle electronic device | |
US20100201785A1 (en) | Method and system for displaying stereoscopic detail-in-context presentations | |
JP5676608B2 (en) | Stereoscopic display device, stereoscopic imaging device, and instruction determination method | |
CN103282859A (en) | Gesture operation input system and gesture operation input method | |
JP5693708B2 (en) | Stereoscopic display device, instruction receiving method and program, and recording medium therefor | |
JP5496032B2 (en) | Tactile sensation presentation apparatus and control method for tactile sensation presentation apparatus | |
JP2011239398A (en) | Method for displaying setting menu, and corresponding device | |
JP2012243012A (en) | Display control device, display control method, program, and recording medium | |
JP5375656B2 (en) | Image display device and image display method | |
JP2008176438A (en) | Image display device | |
JP6266229B2 (en) | Image processing apparatus, method, and program | |
JPWO2013140702A1 (en) | Image processing apparatus, image processing method, and program | |
CN113196212A (en) | Mobile platform as a physical interface for interaction | |
KR101808758B1 (en) | Stereoscopic image display device and misalignment correction method for the same | |
JP4493082B2 (en) | CG presentation device, program thereof, and CG display system | |
JP5830705B2 (en) | Image signal processing apparatus and image signal processing method | |
JP5391917B2 (en) | Head mounted display | |
JP5307177B2 (en) | Stereoscopic image generating apparatus, stereoscopic image generating method, and program | |
JPH08329275A (en) | Stereoscopic picture operation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20111012 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130827 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130909 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5375656 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |