JP5375656B2 - Image display device and image display method - Google Patents

Image display device and image display method Download PDF

Info

Publication number
JP5375656B2
JP5375656B2 JP2010035009A JP2010035009A JP5375656B2 JP 5375656 B2 JP5375656 B2 JP 5375656B2 JP 2010035009 A JP2010035009 A JP 2010035009A JP 2010035009 A JP2010035009 A JP 2010035009A JP 5375656 B2 JP5375656 B2 JP 5375656B2
Authority
JP
Japan
Prior art keywords
image
display
eye
unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010035009A
Other languages
Japanese (ja)
Other versions
JP2011170694A (en
Inventor
一英 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2010035009A priority Critical patent/JP5375656B2/en
Publication of JP2011170694A publication Critical patent/JP2011170694A/en
Application granted granted Critical
Publication of JP5375656B2 publication Critical patent/JP5375656B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent a device from being enlarged while reducing a sense of incongruity of a user when operating a 3D image. <P>SOLUTION: An image display device 10 includes an image generating section 12 for generating an image for three-dimensional (3D) display, the image consisting of a left-eye image and a right-eye image so that an observer can visually recognize the 3D image using binocular parallax, a display part 14 for displaying the image for 3D display generated by the image generating section, a touch panel 2 having an input surface arranged at the surface side of a display screen of the display part 14 for detecting depression on the input surface, a position acquiring section 11 for acquiring an input position that presents a depressed position on the input surface of the touch panel 2, and a controller 15 for executing and controlling the function associated with the image for 3D display when the input position acquired by the position acquiring section 11 indicates a position corresponding to the image for 3D display. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、表示画面に画像を表示する画像表示装置および画像表示方法に関する。   The present invention relates to an image display device and an image display method for displaying an image on a display screen.

従来、操作ボタン等の画像をユーザに立体視させ、その画像に対するユーザの操作入力を受け付ける機能を有する表示装置が知られている。   2. Description of the Related Art Conventionally, a display device having a function of causing a user to stereoscopically view an image such as an operation button and receiving a user's operation input on the image is known.

例えば、特許文献1には、手前に浮き出てくるように見えるスイッチのキー部分に接近してくるユーザの指等の被検出物を、光電スイッチ等の物体検出手段で検出することで、キー部分に対するユーザの操作を検出する技術が開示されている。   For example, in Patent Document 1, a key part is detected by detecting an object to be detected such as a user's finger approaching a key part of a switch that appears to be raised in front by an object detection unit such as a photoelectric switch. A technique for detecting an operation of a user with respect to is disclosed.

また、特許文献2には、DFD(Depth-Fused 3-D)と複数枚のレンズからなる光学系とを組み合わせた3次元(3D)画像を表示可能な表示装置にタッチパネルを重ねて配置した画像表示システムにおいて、ボタン等の3D画像を表示画面より手前(タッチパネル側)にまで表示可能とし、タッチパネルによりボタン等の3D画像に対するユーザの操作を受け付ける技術が開示されている。   Patent Document 2 discloses an image in which a touch panel is arranged on a display device capable of displaying a three-dimensional (3D) image combining a DFD (Depth-Fused 3-D) and an optical system composed of a plurality of lenses. In a display system, a technique is disclosed in which a 3D image such as a button can be displayed in front of the display screen (touch panel side), and a user operation on the 3D image such as a button is received by the touch panel.

特開平10−223102号公報JP-A-10-223102 特開2006−293878号公報JP 2006-293878 A

特許文献1の技術では、押下操作を非接触で検出するため、ユーザはキーを物理的に押下した感触を得ることができない。このため、ユーザは操作に違和感を覚える。   In the technique of Patent Document 1, since the pressing operation is detected in a non-contact manner, the user cannot obtain a feeling of physically pressing the key. For this reason, the user feels uncomfortable with the operation.

これに対して、特許文献2の技術では、ユーザはタッチパネルに触れて操作を行うため、特許文献1の技術のような違和感はない。   On the other hand, in the technique of Patent Document 2, since the user performs an operation by touching the touch panel, there is no sense of incongruity unlike the technique of Patent Document 1.

しかしながら、特許文献2における表示装置は、3D画像を表示画面より手前にまで表示可能とするために、複数枚のレンズを所定間隔で配置した光学系をDFDに組み合わせているため、装置が大型化する。   However, since the display device in Patent Document 2 combines a DFD with an optical system in which a plurality of lenses are arranged at a predetermined interval in order to display a 3D image in front of the display screen, the size of the device is increased. To do.

本発明は上記に鑑みてなされたもので、3D画像に対する操作時のユーザの違和感を軽減しながら、装置の大型化を抑えることができる画像表示装置および画像表示方法を提供することを目的とする。  The present invention has been made in view of the above, and an object of the present invention is to provide an image display device and an image display method capable of suppressing an increase in size of the device while reducing a user's uncomfortable feeling when operating a 3D image. .

上記目的を達成するため、請求項1に係る画像表示装置は、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、前記画像生成部で生成する前記3次元表示用画像における左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、前記画像生成制御部は、前記表示画面の表面と前記検出部の前記入力面との間の距離、一般的な人間の左眼と右眼との間隔の想定値、および観察者の左眼および右眼から前記検出部の前記入力面までの距離を用いて、3次元画像が前記入力面の近傍に結像し、その結像高さが前記入力面より低くならないように、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする。 To achieve the above object, an image display device according to claim 1 generates a three-dimensional display image composed of a left-eye image and a right-eye image for allowing an observer to visually recognize a three-dimensional image by binocular parallax. An image generating unit, a display unit for displaying the three-dimensional display image generated by the image generating unit, and an input surface arranged on a surface side of a display screen of the display unit, wherein the input surface is The three-dimensional display includes a detection unit that detects pressing, a position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit, and an input position acquired by the position acquisition unit. When the position corresponds to the image for use, a control unit that executes and controls a predetermined function, and the interval between the image for the left eye and the image for the right eye in the 3D display image generated by the image generation unit is controlled. The three-dimensional display image And an image generation control unit for controlling the imaging height of the three-dimensional image to be viewed more viewer, the image generation control unit, between the input surface of the surface and the detection portion of the display screen Using the distance, the assumed value of the distance between the general human left eye and the right eye, and the distance from the left and right eyes of the observer to the input surface of the detection unit, a three-dimensional image is converted to the input surface The distance between the left-eye image and the right-eye image of the three-dimensional display image is determined so that the image formation height does not become lower than the input surface .

請求項2に係る画像表示装置は、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、前記画像生成制御部は、結像高さの互いに異なる複数の調整用3次元表示用画像を前記表示部に表示させ、観察者により選択された1つの前記調整用3次元表示用画像の左眼用画像と右眼用画像との間隔に基づいて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする。 An image display device according to claim 2 generates an image for three-dimensional display composed of a left-eye image and a right-eye image for allowing an observer to visually recognize a three-dimensional image by binocular parallax; A display unit configured to display the image for three-dimensional display generated by the image generation unit; and an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed. A detection unit, a position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit, and an input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image. In some cases, the three-dimensional display is performed by controlling a control unit that executes and controls a predetermined function, and an interval between the left-eye image and the right-eye image of the three-dimensional display image generated by the image generation unit. 3D visually recognized by observers An image generation control unit that controls the image formation height of the image, and the image generation control unit displays a plurality of adjustment three-dimensional display images having different image formation heights on the display unit, and A left-eye image of the three-dimensional display image generated by the image generation unit based on an interval between the left-eye image and the right-eye image of the one adjustment-use three-dimensional display image selected by It is characterized in that an interval with the right-eye image is determined.

請求項3に係る画像表示装置は、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、前記画像生成制御部は、前記表示画面の略同じ位置に表示される調整用右眼用画像と調整用左眼用画像とを前記表示部に順次表示させ、前記調整用右眼用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置と、前記調整用左眼用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置とを用いて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする。 An image display device according to claim 3 generates an image for three-dimensional display including an image for left eye and an image for right eye for allowing an observer to visually recognize a three-dimensional image by binocular parallax; A display unit configured to display the image for three-dimensional display generated by the image generation unit; and an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed. A detection unit, a position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit, and an input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image. In some cases, the three-dimensional display is performed by controlling a control unit that executes and controls a predetermined function, and an interval between the left-eye image and the right-eye image of the three-dimensional display image generated by the image generation unit. 3D visually recognized by observers An image generation control unit that controls an image formation height, and the image generation control unit includes an adjustment right-eye image and an adjustment left-eye image displayed at substantially the same position on the display screen. The display position is sequentially displayed on the display unit, the input position acquired from the position acquisition unit according to the operation of the observer when the adjustment right-eye image is displayed, and the observer when the adjustment left-eye image is displayed Determining an interval between the left-eye image and the right-eye image of the three-dimensional display image generated by the image generation unit using the input position acquired from the position acquisition unit according to the operation of Features.

請求項4に係る画像表示装置は、請求項1乃至3のいずれか1項に記載の画像表示装置において、前記制御部は、複数の位置補正用3次元表示用画像を前記表示部に順次表示させ、それぞれの前記位置補正用3次元表示用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置を用いて、前記検出部の前記入力面における入力位置と、前記表示部の表示画面における画素位置とを関連づけする位置補正処理を行うことを特徴とする。 The image display device according to claim 4 is the image display device according to any one of claims 1 to 3 , wherein the control unit sequentially displays a plurality of three-dimensional display images for position correction on the display unit. And using the input position acquired from the position acquisition unit according to the operation of the observer at the time of displaying each of the position correction three-dimensional display images, the input position on the input surface of the detection unit, A position correction process for associating the pixel position on the display screen of the display unit is performed.

請求項5に係る画像表示装置は、請求項1乃至4のいずれか1項に記載の画像表示装置において、前記制御部は、前記検出部の前記入力面が押圧されたときに、前記表示画面における、押圧された前記入力面の入力位置に対応する位置に表示するための左眼用画像および右眼用画像を前記画像生成部で生成して前記表示部に表示するよう制御することを特徴とする。 The image display device according to claim 5 is the image display device according to any one of claims 1 to 4, wherein the control unit is configured to display the display screen when the input surface of the detection unit is pressed. The left eye image and the right eye image to be displayed at a position corresponding to the input position of the pressed input surface in the image generation unit and controlled to be displayed on the display unit. And

請求項6に係る画像表示装置は、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部とを備え、前記制御部は、複数の位置補正用3次元表示用画像を前記表示部に順次表示させ、それぞれの前記位置補正用3次元表示用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置を用いて、前記検出部の前記入力面における入力位置と、前記表示部の表示画面における画素位置とを関連づけする位置補正処理を行うことを特徴とする。
請求項7に係る画像表示装置は、請求項6に記載の画像表示装置において、前記制御部は、前記検出部の前記入力面が押圧されたときに、前記表示画面における、押圧された前記入力面の入力位置に対応する位置に表示するための左眼用画像および右眼用画像を前記画像生成部で生成して前記表示部に表示するよう制御することを特徴とする。
請求項8に係る画像表示装置は、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部とを備え、前記制御部は、前記検出部の前記入力面が押圧されたときに、前記表示画面における、押圧された前記入力面の入力位置に対応する位置に表示するための左眼用画像および右眼用画像を前記画像生成部で生成して前記表示部に表示するよう制御することを特徴とする。
請求項9に係る画像表示装置は、請求項6乃至8のいずれか1項に記載の画像表示装置において、前記画像生成部で生成する前記3次元表示用画像における左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部をさらに備え、前記画像生成制御部は、所定の値を用いて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする。
An image display device according to claim 6 generates an image for three-dimensional display including an image for left eye and an image for right eye for allowing an observer to visually recognize a three-dimensional image by binocular parallax; A display unit configured to display the image for three-dimensional display generated by the image generation unit; and an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed. A detection unit, a position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit, and an input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image. In some cases, a control unit that controls execution of a predetermined function is provided, and the control unit sequentially displays a plurality of position correction three-dimensional display images on the display unit, and each of the position correction three-dimensional display images. Observer operation during image display Accordingly, a position correction process is performed in which the input position acquired from the position acquisition unit is associated with the input position on the input surface of the detection unit and the pixel position on the display screen of the display unit. .
The image display device according to claim 7 is the image display device according to claim 6, wherein the control unit is configured to press the input on the display screen when the input surface of the detection unit is pressed. Control is performed such that a left-eye image and a right-eye image to be displayed at a position corresponding to an input position on a surface are generated by the image generation unit and displayed on the display unit.
An image display device according to an eighth aspect of the present invention provides an image generation unit that generates a three-dimensional display image including a left-eye image and a right-eye image for allowing an observer to visually recognize a three-dimensional image by binocular parallax; A display unit configured to display the image for three-dimensional display generated by the image generation unit; and an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed. A detection unit, a position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit, and an input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image. In some cases, a control unit that performs execution control of a predetermined function is provided, and the control unit is arranged at an input position of the pressed input surface on the display screen when the input surface of the detection unit is pressed. Left eye for display at corresponding position The image and the right eye image generated by the image generating unit and the control unit controls to display on the display unit.
The image display device according to claim 9 is the image display device according to any one of claims 6 to 8, wherein the left-eye image and the right-eye image in the three-dimensional display image generated by the image generation unit. The image generation control unit further includes an image generation control unit that controls an imaging height of a three-dimensional image visually recognized by an observer from the three-dimensional display image by controlling an interval between the image and the image generation control unit. The interval between the left-eye image and the right-eye image of the three-dimensional display image generated by the image generation unit is determined using the value of.

請求項10に係る画像表示装置は、請求項1乃至5,9のいずれか1項に記載の画像表示装置において、前記画像生成制御部は、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を変化させることを特徴とする。
請求項11に係る画像表示装置は、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、前記画像生成部で生成する前記3次元表示用画像における左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、前記画像生成制御部は、所定の値を用いて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定し、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を変化させることを特徴とする。
The image display device according to a tenth aspect is the image display device according to any one of the first to fifth and ninth aspects, wherein the input position acquired by the position acquisition unit is the input position acquired by the position acquisition unit. When the position corresponds to a three-dimensional display image, the interval between the left-eye image and the right-eye image of the three-dimensional display image is changed.
An image display device according to an eleventh aspect includes an image generation unit that generates a three-dimensional display image including a left-eye image and a right-eye image for allowing an observer to visually recognize a three-dimensional image using binocular parallax; A display unit configured to display the image for three-dimensional display generated by the image generation unit; and an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed. A detection unit, a position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit, and an input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image. In some cases, the control unit that executes and controls a predetermined function, and the three-dimensional display by controlling the interval between the left-eye image and the right-eye image in the three-dimensional display image generated by the image generation unit. Is visually recognized by the observer. An image generation control unit that controls the imaging height of the three-dimensional image, and the image generation control unit uses a predetermined value for the left eye of the three-dimensional display image generated by the image generation unit. When an interval between the image and the right eye image is determined and the input position acquired by the position acquisition unit is a position corresponding to the 3D display image, the left eye image of the 3D display image It is characterized in that the interval with the right-eye image is changed.

請求項12に係る画像表示装置は、請求項10または11に記載の画像表示装置において、前記画像生成制御部は、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を段階的に縮小し、前記3次元表示用画像の左眼用画像と右眼用画像との間隔が所定間隔以下になった後、縮小開始前の間隔に戻るまで段階的に間隔を拡大するように、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を変化させることを特徴とする。 An image display device according to a twelfth aspect is the image display device according to the tenth or eleventh aspect , wherein the input position acquired by the position acquisition unit corresponds to the three-dimensional display image. In the case of the position, the interval between the left-eye image and the right-eye image of the three-dimensional display image is reduced stepwise, and the interval between the left-eye image and the right-eye image of the three-dimensional display image Changing the interval between the left-eye image and the right-eye image of the three-dimensional display image so that the interval is gradually increased until the interval returns to the interval before the reduction start after It is characterized by.

請求項13に係る画像表示装置は、請求項12に記載の画像表示装置において、前記画像生成制御部は、前記3次元表示用画像の左眼用画像と右眼用画像との間隔が所定間隔以下になった後、前記3次元表示用画像に関連づけられた機能の実行処理が終了するまで間隔が所定間隔以下の状態を維持することを特徴とする。 The image display device according to a thirteenth aspect is the image display device according to the twelfth aspect , in which the image generation control unit is configured such that the interval between the left-eye image and the right-eye image of the three-dimensional display image is a predetermined interval. After the following, the interval is maintained at a predetermined interval or less until the execution of the function associated with the three-dimensional display image is completed.

請求項14に係る画像表示装置は、請求項12に記載の画像表示装置において、前記画像生成制御部は、前記3次元表示用画像の左眼用画像と右眼用画像との間隔が所定間隔以下になった後、縮小開始前の間隔に戻るまで、前記3次元表示用画像に関連づけられた機能の実行処理の進行状況に応じて段階的に間隔を拡大することを特徴とする。 The image display device according to a fourteenth aspect is the image display device according to the twelfth aspect , wherein the image generation control unit is configured such that a distance between the left-eye image and the right-eye image of the three-dimensional display image is a predetermined interval. After the following, the interval is expanded stepwise in accordance with the progress of the execution processing of the function associated with the three-dimensional display image until the interval before the start of reduction is restored.

請求項15に係る画像表示方法は、表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部とを備える画像表示装置の前記表示部に画像を表示する画像表示方法であって、眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像における左眼用画像と右眼用画像との間隔を決定するステップと、決定した左眼用画像と右眼用画像との間隔に基づいて前記3次元表示用画像を生成するステップと、前記3次元表示用画像を前記表示部に表示するステップとを含み、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップは、前記表示画面の表面と前記検出部の前記入力面との間の距離、一般的な人間の左眼と右眼との間隔の想定値、および観察者の左眼および右眼から前記検出部の前記入力面までの距離を用いて、3次元画像が前記入力面の近傍に結像し、その結像高さが前記入力面より低くならないように、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップであることを特徴とする。 The image display method which concerns on Claim 15 has a display part and the detection part which has an input surface arrange | positioned at the surface side of the display screen of the said display part, and detects that the said input surface was pressed. an image display method for displaying an image on the display unit of the display device, the three-dimensional display image comprising a left eye image and a right eye image in order to visually recognize a three-dimensional image to the observer by binocular parallax Determining an interval between the left-eye image and the right-eye image, generating the three-dimensional display image based on the determined interval between the left-eye image and the right-eye image, and the three-dimensional display see containing and displaying a display image on the display unit, determining the distance between the left-eye image and the right eye image of the three-dimensional display image, the surface of the display screen detecting unit Distance between the input surface of the general human left A three-dimensional image is formed in the vicinity of the input surface using the estimated distance between the right eye and the distance from the observer's left eye and right eye to the input surface of the detection unit. The step of determining an interval between the left-eye image and the right-eye image of the three-dimensional display image so that the image height does not become lower than the input surface .

請求項16に係る画像表示方法は、表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部とを備える画像表示装置の前記表示部に画像を表示する画像表示方法であって、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像における左眼用画像と右眼用画像との間隔を決定するステップと、決定した左眼用画像と右眼用画像との間隔に基づいて前記3次元表示用画像を生成するステップと、前記3次元表示用画像を前記表示部に表示するステップとを含み、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップは、結像高さの互いに異なる複数の調整用3次元表示用画像を前記表示部に表示するステップと、観察者により選択された1つの前記調整用3次元表示用画像の左眼用画像と右眼用画像との間隔に基づいて、前記表示部に表示する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップとを含むことを特徴とする。 The image display method which concerns on Claim 16 has a display part and the detection part which has an input surface arrange | positioned at the surface side of the display screen of the said display part, and detects that the said input surface was pressed. An image display method for displaying an image on the display unit of a display device, in a three-dimensional display image including a left-eye image and a right-eye image for allowing an observer to visually recognize a three-dimensional image by binocular parallax. Determining an interval between the left-eye image and the right-eye image, generating the three-dimensional display image based on the determined interval between the left-eye image and the right-eye image, and the three-dimensional display Displaying a display image on the display unit, and determining the interval between the left-eye image and the right-eye image of the three-dimensional display image includes a plurality of adjustments with different imaging heights. 3D display image for display on the display unit The left of the three-dimensional display image displayed on the display unit based on the interval between the left-eye image and the right-eye image of the adjustment three-dimensional display image selected by the observer. Determining an interval between the image for the eye and the image for the right eye.

請求項17に係る画像表示方法は、表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部とを備える画像表示装置の前記表示部に画像を表示する画像表示方法であって、両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像における左眼用画像と右眼用画像との間隔を決定するステップと、決定した左眼用画像と右眼用画像との間隔に基づいて前記3次元表示用画像を生成するステップと、前記3次元表示用画像を前記表示部に表示するステップとを含み、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップは、調整用右眼用画像と調整用左眼用画像とを前記表示部の前記表示画面の略同じ位置に順次表示し、前記調整用右眼用画像の表示時において観察者の操作に応じて取得した前記入力面における入力位置と、前記調整用左眼用画像の表示時において観察者の操作に応じて取得した前記入力面における入力位置とを用いて、前記表示部に表示する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップであることを特徴とする。 An image display method according to claim 17 is an image comprising: a display unit; and a detection unit that has an input surface arranged on a surface side of a display screen of the display unit and detects that the input surface is pressed. An image display method for displaying an image on the display unit of a display device, in a three-dimensional display image including a left-eye image and a right-eye image for allowing an observer to visually recognize a three-dimensional image by binocular parallax. Determining an interval between the left-eye image and the right-eye image, generating the three-dimensional display image based on the determined interval between the left-eye image and the right-eye image, and the three-dimensional display Displaying the display image on the display unit, and determining the interval between the left-eye image and the right-eye image of the three-dimensional display image includes adjusting the right-eye image and the adjusting left-eye image. The ophthalmic image is approximately the same as the display screen of the display unit. And the input position on the input surface acquired according to the operation of the observer when the right image for adjustment is displayed and the operation of the observer when the image for the left eye for adjustment is displayed. The step of determining the interval between the left-eye image and the right-eye image of the three-dimensional display image displayed on the display unit using the input position on the input surface acquired in the above step. .

本発明によれば、3D画像に対する操作時のユーザの違和感を軽減しながら、装置の大型化を抑えることができる画像表示装置および画像表示方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image display apparatus and image display method which can suppress the enlargement of an apparatus can be provided, reducing the user's discomfort at the time of operation with respect to 3D image.

両眼視差を用いた3D画像の表示方法の説明図である。It is explanatory drawing of the display method of 3D image using binocular parallax. 結像高さが操作性に与える影響の説明図である。It is explanatory drawing of the influence which imaging height has on operativity. 結像画像の結像高さを設定する方法の説明図である。It is explanatory drawing of the method of setting the imaging height of an imaging image. 結像画像の結像高さを設定する方法の説明図である。It is explanatory drawing of the method of setting the imaging height of an imaging image. 本発明の第1の実施の形態に係る画像表示装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image display device according to a first embodiment of the present invention. 第1の実施の形態における画像表示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image display apparatus in 1st Embodiment. LCDとタッチパネルとの位置補正の説明図である。It is explanatory drawing of position correction with LCD and a touchscreen. LCDとタッチパネルとの位置補正の説明図である。It is explanatory drawing of position correction with LCD and a touchscreen. 位置補正処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a position correction process. 画素位置と入力位置との関係算出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the relationship calculation process of a pixel position and an input position. 第1の実施の形態における画像表示装置の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the image display apparatus in 1st Embodiment. 3D画像ボタンの表示変更処理の第1例の説明図である。It is explanatory drawing of the 1st example of the display change process of 3D image button. 機能実行処理の第1例の手順を示すフローチャートである。It is a flowchart which shows the procedure of the 1st example of a function execution process. 3D画像ボタンの表示変更処理の第2例の説明図である。It is explanatory drawing of the 2nd example of the display change process of 3D image button. 機能実行処理の第2例の手順を示すフローチャートである。It is a flowchart which shows the procedure of the 2nd example of a function execution process. 機能実行処理の第2例の手順を示すフローチャートである。It is a flowchart which shows the procedure of the 2nd example of a function execution process. 3D画像ボタンの表示変更処理の第3例の説明図である。It is explanatory drawing of the 3rd example of the display change process of 3D image button. 機能実行処理の第3例の手順を示すフローチャートである。It is a flowchart which shows the procedure of the 3rd example of a function execution process. 機能実行処理の第3例の手順を示すフローチャートである。It is a flowchart which shows the procedure of the 3rd example of a function execution process. 3D画像生成処理の説明図である。It is explanatory drawing of 3D image generation processing. 3D画像生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of 3D image generation processing. 第2の実施の形態において右眼用画像と左眼用画像との間隔を決定する方法の説明図である。It is explanatory drawing of the method of determining the space | interval of the image for right eyes and the image for left eyes in 2nd Embodiment. 第2の実施の形態における画像表示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image display apparatus in 2nd Embodiment. 第2の実施の形態における3D画像結像高さ決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the 3D image imaging height determination process in 2nd Embodiment. 第3の実施の形態において右眼用画像と左眼用画像との間隔を決定する方法の説明図である。It is explanatory drawing of the method of determining the space | interval of the image for right eyes and the image for left eyes in 3rd Embodiment. 第3の実施の形態おいて右眼用画像と左眼用画像との間隔を決定する際の入力位置の取得時に生じる問題の説明図である。It is explanatory drawing of the problem which arises at the time of acquisition of the input position at the time of determining the space | interval of the image for right eyes and the image for left eyes in 3rd Embodiment. 第3の実施の形態において右眼用画像と左眼用画像との間隔を決定する方法の説明図である。It is explanatory drawing of the method of determining the space | interval of the image for right eyes and the image for left eyes in 3rd Embodiment. LCDの画素位置とタッチパネルの入力位置との関係の説明図である。It is explanatory drawing of the relationship between the pixel position of LCD, and the input position of a touch panel. 第3の実施の形態における3D画像結像高さ決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the 3D image image formation height determination process in 3rd Embodiment.

以下、本発明の実施の形態について、図面を参照して説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。  Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

(第1の実施の形態)
まず、両眼視差により観察者に画像を立体視させる3次元(3D)画像表示方法について、偏光フィルタ方式を例に説明する。
(First embodiment)
First, a three-dimensional (3D) image display method that allows an observer to stereoscopically view an image with binocular parallax will be described using a polarization filter method as an example.

図1において、液晶ディスプレイ(LCD:Liquid Crystal Display)1の表示画面上には、偏光特性の異なる2種類の偏光フィルタが1表示ラインおきに水平方向に配置されており、一方の偏光フィルタが配置されている表示ラインに左眼用画像が表示され、他方の偏光フィルタが配置されている表示ラインに右眼用画像が表示される構成となっている。観察者は、この左眼用画像と右眼用画像とが隔行で表示された表示画面を偏光眼鏡を通して見ることにより、左眼には左眼画像を、右眼には右眼画像を見ることになり、両眼視差による3D画像を視認することができる。   In FIG. 1, on the display screen of a liquid crystal display (LCD) 1, two types of polarizing filters having different polarization characteristics are arranged in the horizontal direction every other display line, and one polarizing filter is arranged. The left-eye image is displayed on the displayed display line, and the right-eye image is displayed on the display line on which the other polarizing filter is arranged. The observer sees the left eye image for the left eye and the right eye image for the right eye by viewing the display screen on which the left eye image and the right eye image are displayed in a separate manner through polarized glasses. Thus, a 3D image with binocular parallax can be visually recognized.

図1に示すように、左眼用画像GL1と右眼用画像GR1とをLCD1の表示画面上に表示した場合、観察者の両眼視差により、LCD1の表示画面の表面1aから距離Lc1に結像画像GC1が結像する。左眼用画像GL1と右眼用画像GR1との間隔よりも狭い間隔で表示される左眼用画像GL2と右眼用画像GR2によれば、距離Lc1より短い距離Lc2に結像画像GC2が結像する。   As shown in FIG. 1, when the left-eye image GL1 and the right-eye image GR1 are displayed on the display screen of the LCD 1, they are connected to the distance Lc1 from the surface 1a of the display screen of the LCD 1 by the binocular parallax of the observer. An image image GC1 is formed. According to the left-eye image GL2 and the right-eye image GR2, which are displayed at an interval narrower than the interval between the left-eye image GL1 and the right-eye image GR1, the formed image GC2 is connected to a distance Lc2 shorter than the distance Lc1. Image.

本実施の形態では、図1に示すように、3D画像を表示可能なLCD1の表示画面の表面1a側にタッチパネル2を配置し、ユーザの操作を受け付けることができる構成とする。   In the present embodiment, as shown in FIG. 1, the touch panel 2 is arranged on the surface 1a side of the display screen of the LCD 1 capable of displaying a 3D image, and a user operation can be accepted.

タッチパネル2は、ユーザの指やタッチペンなどにより入力面2aが押圧されたことを検出し、さらに押圧された位置である入力位置を判別することが可能な位置検出デバイスである。   The touch panel 2 is a position detection device that can detect that the input surface 2a is pressed by a user's finger, a touch pen, or the like, and can determine an input position that is a pressed position.

タッチパネル2は、透明なガラスやフィルムで構成され、LCD1の表示画面に近接して取り付けられるので、ユーザは、LCD1の表示画面に表示される画像を、タッチパネルを介して見ることができる。そして、ユーザが表示画面に表示される画像に向けて操作を加えると、画像の近傍においてタッチパネルが押圧されることになるので、表示画像に対しての入力を検知することができる。   The touch panel 2 is made of transparent glass or film, and is attached close to the display screen of the LCD 1, so that the user can view an image displayed on the display screen of the LCD 1 through the touch panel. When the user performs an operation on the image displayed on the display screen, the touch panel is pressed in the vicinity of the image, so that an input to the display image can be detected.

このように、3D画像を表示可能なLCD1とタッチパネル2とを組み合わせることで、ユーザに画像を立体視させる視覚的効果に加え、LCD1に3D表示する操作ボタン等の画像に対してユーザが直接的に入力操作することが可能となる。これにより、ユーザは実際に操作ボタンを操作するのと近い感覚で入力操作を行うことができる。   In this way, by combining the LCD 1 capable of displaying a 3D image and the touch panel 2, the user can directly display images such as operation buttons displayed in 3D on the LCD 1 in addition to the visual effect of causing the user to stereoscopically view the image. It is possible to perform an input operation. Thereby, the user can perform an input operation with a feeling close to actually operating the operation button.

前述のように、3D画像を表示するための左眼用画像と右眼用画像との表示間隔が、表示画面の表面1aからの結像画像の距離(結像高さ)に影響する。そして、操作ボタン等の3D画像を表示するための左眼用画像と右眼用画像とを表示し、その結像画像に対してユーザが操作を行う場合、結像画像の結像高さがユーザの操作性に影響を与える。   As described above, the display interval between the left-eye image and the right-eye image for displaying the 3D image affects the distance (imaging height) of the imaged image from the surface 1a of the display screen. When a left-eye image and a right-eye image for displaying a 3D image such as an operation button are displayed and the user performs an operation on the image, the image height of the image is Affects user operability.

図2(b)に示すように、タッチパネル2の入力面2aの近傍に結像する結像画像GC2に対して、ユーザがタッチペン3を用いて入力操作を行う場合には、ユーザは違和感なく操作を行える。   As illustrated in FIG. 2B, when the user performs an input operation using the touch pen 3 on the formed image GC <b> 2 that forms an image near the input surface 2 a of the touch panel 2, the user can operate without an uncomfortable feeling. Can be done.

これに対し、図2(a)に示すように、タッチパネル2の入力面2aから遠くに結像する結像画像GC1に対して入力操作を行う場合、タッチペン3がタッチパネル2の入力面2aに届かないおそれがある。たとえ、そのままタッチペン3を入力面2aに向けて進め、タッチパネル2の入力面2aに接触できたとしても、ユーザは操作に違和感を覚えることは言うまでもない。   On the other hand, as shown in FIG. 2A, when an input operation is performed on an image GC1 that forms an image far from the input surface 2a of the touch panel 2, the touch pen 3 reaches the input surface 2a of the touch panel 2. There is a risk of not. It goes without saying that even if the touch pen 3 is moved toward the input surface 2a as it is and the input surface 2a of the touch panel 2 can be touched, the user feels uncomfortable with the operation.

さらに、ユーザは目標物を失うため、結像画像GC1に該当するタッチパネル2の入力位置を正確に押圧することができず、他の操作ボタンの表示位置を押圧するといった操作ミスをするおそれもある。   Furthermore, since the user loses the target, the user cannot press the input position of the touch panel 2 corresponding to the formed image GC1 accurately, and may cause an operation error such as pressing the display position of another operation button. .

このため、ユーザに違和感の少ない操作性を提供するためには、左眼用画像と右眼用画像とによる結像画像が、タッチパネル2の入力面2aの近傍に結像することが望ましい。   For this reason, in order to provide the operability with less discomfort to the user, it is desirable that an image formed by the left eye image and the right eye image is formed in the vicinity of the input surface 2 a of the touch panel 2.

ここで、左眼用画像と右眼用画像とによる結像高さを設定する方法について説明する。   Here, a method for setting the imaging height of the left-eye image and the right-eye image will be described.

図3に示すように、LCD1の表示画面に右眼用画像である表示点Pd1と左眼用画像である表示点Pd2とをD2の間隔で表示し、観察者の左眼ELと右眼ERにてそれぞれに対応する表示点を見たときの、結像点Pcの表示画面の表面1aからの距離である結像高さをL2とする。   As shown in FIG. 3, a display point Pd1 that is an image for the right eye and a display point Pd2 that is an image for the left eye are displayed at an interval of D2 on the display screen of the LCD 1, and the left eye EL and right eye ER of the observer are displayed. Let L2 be the imaging height, which is the distance from the surface 1a of the display screen of the imaging point Pc when viewing the display points corresponding to each.

LCD1の表示画面を直視した場合、「(表示点Pd1の中心)−(表示点Pd2の中心)−(結像点Pcの中心)がなす三角形」と、「(右眼ER)−(左眼EL)−(結像点Pcの中心)がなす三角形」とは相似関係にある。このため、表示点Pd1と表示点Pd2とをD2の間隔で表示した場合、図4に示す通り、LCD1の表示画面のどこに表示点Pd1,Pd2を表示したとしても、表示画面の表面1aから結像点Pcまでの距離L2は一定である。   When the display screen of the LCD 1 is viewed directly, “a triangle formed by (the center of the display point Pd1) − (the center of the display point Pd2) − (the center of the imaging point Pc)” and “(the right eye ER) − (the left eye EL)-(the triangle formed by the center of the imaging point Pc) is similar. Therefore, when the display point Pd1 and the display point Pd2 are displayed at an interval of D2, as shown in FIG. 4, no matter where the display points Pd1 and Pd2 are displayed on the display screen of the LCD 1, they are connected from the surface 1a of the display screen. The distance L2 to the image point Pc is constant.

よって、タッチパネル2の厚みT、左眼ELと右眼ERとの間隔D1、左眼ELおよび右眼ERからタッチパネル2の入力面2aまでの距離L1とすると、以下の(式1)が成り立つ。   Therefore, when the thickness T of the touch panel 2, the distance D 1 between the left eye EL and the right eye ER, and the distance L 1 from the left eye EL and the right eye ER to the input surface 2 a of the touch panel 2, the following (Equation 1) holds.

D1:D2=(L1+T−L2):L2 …(式1)
この(式1)より、
D2=(D1×L2)÷(L1+T−L2) …(式2)
となる。
D1: D2 = (L1 + T−L2): L2 (Formula 1)
From this (Equation 1)
D2 = (D1 × L2) ÷ (L1 + T−L2) (Expression 2)
It becomes.

LCD1の画素間のピッチをDpとすると、表示点Pd1の中心と表示点Pd2の中心との間の画素数Ngは、D2を画素ピッチDpで割ったものになるので、以下の(式3)により求められる。   Assuming that the pitch between the pixels of the LCD 1 is Dp, the number of pixels Ng between the center of the display point Pd1 and the center of the display point Pd2 is obtained by dividing D2 by the pixel pitch Dp. Is required.

Ng = D2÷Dp
=(D1×L2)÷{(L1+T−L2)×Dp} …(式3)
上記(式3)において、画素数Ngを算出するために必要な各パラメータは、適用する装置の構成や使用方法に応じて決定することができる。
Ng = D2 / Dp
= (D1 × L2) ÷ {(L1 + T−L2) × Dp} (Formula 3)
In the above (Equation 3), each parameter necessary for calculating the number of pixels Ng can be determined according to the configuration and usage method of the device to be applied.

以下に、3インチLCDを搭載した携帯型の装置を例に、各パラメータの決定方法、および表示点Pd1と表示点Pd2と間の画素数Ngの算出方法について説明する。   Hereinafter, a method for determining each parameter and a method for calculating the number of pixels Ng between the display point Pd1 and the display point Pd2 will be described using a portable device equipped with a 3-inch LCD as an example.

まず、装置の構成により決定されるパラメータについて説明する。   First, parameters determined by the configuration of the apparatus will be described.

タッチパネルの厚みT、およびLCDの画素ピッチDpは、装置の構成によって必然的に決まるパラメータであり、当算出例では、タッチパネルの厚みT=5mm、画素ピッチDp=0.15mmとする。   The thickness T of the touch panel and the pixel pitch Dp of the LCD are parameters that are inevitably determined depending on the configuration of the apparatus. In this calculation example, the thickness T of the touch panel is 5 mm and the pixel pitch Dp is 0.15 mm.

ここで、タッチパネルの厚みを5mmとする理由について述べる。3インチ前後の比較的小さなLCDに用いられるタッチパネルの厚みは、一般的に1〜2mmのものが多い。これは、主に装置の外形寸法を極力小さくするためであるが、2mm程度の厚みに合わせて3D表示したとしても立体的な効果は少ない。   Here, the reason why the thickness of the touch panel is 5 mm will be described. The thickness of a touch panel used for a relatively small LCD of about 3 inches is generally 1 to 2 mm. This is mainly to reduce the external dimensions of the apparatus as much as possible, but even if the 3D display is made in accordance with the thickness of about 2 mm, the three-dimensional effect is small.

タッチパネルの厚みは、基材(例えばガラス板)の厚みの変更などで容易に変更可能であるので、当算出例では、タッチパネルの厚みT=5mmとする。   Since the thickness of the touch panel can be easily changed by changing the thickness of the base material (for example, a glass plate), the thickness T of the touch panel is set to 5 mm in this calculation example.

次に、装置の使用方法により決定されるパラメータについて説明する。   Next, parameters determined depending on how the apparatus is used will be described.

ユーザの眼からタッチパネルまでの距離L1は、装置の使用方法に依存する。3インチLCDを搭載した携帯型の装置の場合、ユーザが片手で装置を持ち、もう一方の手で操作を行うという方法で使用される。人間の手の長さには大差はないので、このような使用方法における眼から装置まで距離は300〜400mm程度と予想される。   The distance L1 from the user's eyes to the touch panel depends on how the device is used. In the case of a portable device equipped with a 3-inch LCD, a user holds the device with one hand and operates with the other hand. Since there is no great difference in the length of a human hand, the distance from the eye to the device in such a method of use is expected to be about 300 to 400 mm.

図3から明らかなように、眼からタッチパネルまでの距離が小さいほど、立体感がなくなるので、300mmの距離で使用しても3D画像の結像高さがタッチパネルの入力面より低くならないようにすることが望ましい。よって、眼からタッチパネルまでの距離L1=300mmと決めることができる。   As is clear from FIG. 3, the smaller the distance from the eye to the touch panel, the less the stereoscopic effect. Therefore, even when used at a distance of 300 mm, the imaging height of the 3D image should not be lower than the input surface of the touch panel. It is desirable. Therefore, the distance from the eye to the touch panel L1 = 300 mm can be determined.

以上で決定した各パラメータの値を用いて、画素数Ngを算出する方法について説明する。   A method of calculating the number of pixels Ng using the parameter values determined above will be described.

人間の眼の間隔は、一般的に65mmとされているので、D1=65mmとし、タッチパネルの入力面に3D画像が結像するようにするためにはL2=5mmとすればよいので、(式3)より、画素数Ngは以下のように算出される。   Since the distance between human eyes is generally 65 mm, D1 = 65 mm, and L2 = 5 mm in order to form a 3D image on the input surface of the touch panel. From 3), the number of pixels Ng is calculated as follows.

Ng =(65×5)÷{(300+5−5)×0.15}
= 7.22[個]
図3より明らかなように、より立体感を高めるためには画素数Ngを大きくすることが望ましいので、切り上げ処理を行い、Ng=8[個]と求められる。つまり、表示点Pd1の中心と表示点Pd2の中心との間隔が8画素(表示点Pd1,Pd2を1画素で表示した場合には、表示点Pd1とPd2との間の画素数は7画素になる)になるように表示画面に表示を行えば、タッチパネル2の入力面2aの近傍に結像点Pcを生成させることができる。
Ng = (65 × 5) ÷ {(300 + 5-5) × 0.15}
= 7.22 [pieces]
As is clear from FIG. 3, it is desirable to increase the number of pixels Ng in order to enhance the stereoscopic effect. Therefore, round-up processing is performed and Ng = 8 [pieces] is obtained. That is, the distance between the center of the display point Pd1 and the center of the display point Pd2 is 8 pixels (when the display points Pd1 and Pd2 are displayed as one pixel, the number of pixels between the display points Pd1 and Pd2 is 7 pixels. If the image is displayed on the display screen so that the image forming point Pc can be generated in the vicinity of the input surface 2a of the touch panel 2.

以上で説明したように、適用する装置の構成や使用方法に応じて、上述した各パラメータを予め決定しておくことにより、タッチパネルの入力面から適切な高さに3D画像を結像させることが可能となる。   As described above, a 3D image can be formed at an appropriate height from the input surface of the touch panel by determining each of the above-described parameters in advance according to the configuration of the device to be applied and the method of use. It becomes possible.

次に、図5を参照して、第1の実施の形態に係る画像表示装置の構成を説明する。   Next, the configuration of the image display apparatus according to the first embodiment will be described with reference to FIG.

図5に示すように、第1の実施の形態に係る画像表示装置10は、タッチパネル(検出部)2と、位置取得部11と、画像生成部12と、再生部13と、表示部14と、制御部15と、ROM(Read Only Memory)16と、RAM(Random Access Memory)17とを備える。   As shown in FIG. 5, the image display apparatus 10 according to the first embodiment includes a touch panel (detection unit) 2, a position acquisition unit 11, an image generation unit 12, a reproduction unit 13, and a display unit 14. , A control unit 15, a ROM (Read Only Memory) 16, and a RAM (Random Access Memory) 17.

タッチパネル2は、前述した通り、ユーザの指やタッチペンなどにより入力面2aが押圧されたことを検出し、さらに押圧された入力位置を判別することが可能な位置検出デバイスである。   As described above, the touch panel 2 is a position detection device that can detect that the input surface 2a has been pressed by a user's finger, a touch pen, or the like, and can further determine the input position that has been pressed.

タッチパネルの方式には多くの種類があるが、ここでは、最も一般的である抵抗膜式タッチパネルを例に挙げて説明を行う。抵抗膜式タッチパネルは、入力面が押圧されることにより、絶縁体で隔てられた2つの透明導電膜が接触する構造となっており、水平(以下、X軸とする)方向と垂直(以下、Y軸とする)方向の接触位置に比例した電圧をそれぞれ出力するように構成されている。このX軸方向とY軸方向の出力電圧をA/D(アナログ/デジタル)変換することにより、押圧された位置が検出可能となる。   There are many types of touch panel systems. Here, the most common resistive film type touch panel will be described as an example. The resistive touch panel has a structure in which two transparent conductive films separated by an insulator are in contact with each other when the input surface is pressed, and is perpendicular to the horizontal (hereinafter referred to as the X-axis) direction (hereinafter referred to as the following). A voltage proportional to the contact position in the direction of the Y axis) is output. The pressed position can be detected by A / D (analog / digital) conversion of the output voltages in the X-axis direction and the Y-axis direction.

位置取得部11は、タッチパネル2の入力面2aが押圧されたことを検出するとともに、タッチパネル2から出力される電圧出力をA/D変換することにより、押圧された入力位置のX軸方向の座標とY軸方向の座標とを求める。   The position acquisition unit 11 detects that the input surface 2a of the touch panel 2 has been pressed, and performs A / D conversion on the voltage output output from the touch panel 2 to thereby coordinate the pressed input position in the X-axis direction. And the coordinate in the Y-axis direction are obtained.

画像生成部12は、表示位置、形状、サイズ、色、左眼用画像と右眼用画像との間の画素数等を示す情報を制御部15から受け取り、それらの情報に応じた左眼用画像と右眼用画像とからなる3D表示用画像を生成する。   The image generation unit 12 receives information indicating the display position, shape, size, color, the number of pixels between the left-eye image and the right-eye image from the control unit 15, and uses the left-eye information according to the information. A 3D display image including an image and a right eye image is generated.

再生部13は、ROM16に格納された画像データや、記録メディアなどから入力される画像データなどの再生を行う再生機能を実行する。   The reproduction unit 13 executes a reproduction function for reproducing image data stored in the ROM 16 or image data input from a recording medium.

表示部14は、LCDなどのディスプレイからなり、画像生成部12にて生成された3D表示用画像、再生部13にて再生された画像データ、制御部15から指示されるメッセージなどを表示画面に表示する。なお、本実施の形態では、ディスプレイとしてはLCD1を用いるものとする。   The display unit 14 includes a display such as an LCD, and displays a 3D display image generated by the image generation unit 12, image data reproduced by the reproduction unit 13, a message instructed by the control unit 15, and the like on a display screen. indicate. In this embodiment, the LCD 1 is used as the display.

制御部15は、CPU(Central Processing Unit)等からなり、プログラムに応じた処理を行うことによって、画像表示装置10全体の動作を制御する。例えば、制御部15は、位置取得部11によるタッチパネル2に対する押圧の検出、位置取得部11からの入力位置の座標の読み出し、ROM16から読み出した画像データなどの再生部13への入力および再生機能の実行制御、表示部14に対する表示制御等を行う。   The control unit 15 includes a CPU (Central Processing Unit) and the like, and controls the overall operation of the image display apparatus 10 by performing processing according to a program. For example, the control unit 15 detects the press on the touch panel 2 by the position acquisition unit 11, reads out the coordinates of the input position from the position acquisition unit 11, inputs image data read out from the ROM 16, and the like to the reproduction unit 13 and the reproduction function. Execution control and display control for the display unit 14 are performed.

また、制御部15は、画像生成部12で生成する3D表示用画像における左眼用画像と右眼用画像との間隔(画素数Ng)を制御することにより、3D表示用画像によりユーザに視認される3D画像の結像高さを制御する画像生成制御部としての機能を有する。また、制御部15は、タッチパネル2の入力面2aにおける入力位置と、表示部14の表示画面上の画素位置とを関連づけする位置補正処理を行う。   In addition, the control unit 15 controls the interval (number of pixels Ng) between the left-eye image and the right-eye image in the 3D display image generated by the image generation unit 12 so that the user can visually recognize the 3D display image. A function as an image generation control unit for controlling the imaging height of the 3D image to be generated. In addition, the control unit 15 performs a position correction process that associates the input position on the input surface 2 a of the touch panel 2 with the pixel position on the display screen of the display unit 14.

ROM16は、制御部15の動作のためのプログラムや、再生部13で再生するための画像データなどのデータを格納する。また、ROM16は、図3を用いて説明した3D画像の結像高さを決定するための各パラメータ(タッチパネルの厚みT、左眼と右眼との間隔D1、眼からタッチパネルまでの距離L1、結像高さL2、画素間ピッチDp)を格納している。さらに、後述する位置補正処理に用いる4つの入力点の入力位置等も格納している。   The ROM 16 stores a program for operating the control unit 15 and data such as image data to be reproduced by the reproduction unit 13. The ROM 16 determines parameters for determining the imaging height of the 3D image described with reference to FIG. 3 (touch panel thickness T, distance D1 between the left eye and right eye, distance L1 from the eye to the touch panel, The imaging height L2 and the inter-pixel pitch Dp) are stored. Furthermore, the input positions of four input points used for position correction processing described later are also stored.

RAM17は、一時的なデータの保存や演算時における制御部15のワーク領域として使用される。   The RAM 17 is used as a work area for the control unit 15 during temporary data storage or calculation.

次に、第1の実施の形態における画像表示装置10の動作について説明する。   Next, the operation of the image display apparatus 10 in the first embodiment will be described.

図6は、第1の実施の形態における画像表示装置10の動作を示すフローチャートである。まず、ステップS10において、制御部15は、左眼用画像と右眼用画像の間の画素数Ngを算出するための3D画像結像高さ算出処理を行う。   FIG. 6 is a flowchart showing the operation of the image display apparatus 10 according to the first embodiment. First, in step S10, the control unit 15 performs a 3D image imaging height calculation process for calculating the number of pixels Ng between the left-eye image and the right-eye image.

この3D画像結像高さ算出処理において、制御部15は、3D画像の結像高さを決定するためのパラメータである、タッチパネルの厚みT、左眼と右眼との間隔D1、眼からタッチパネルまでの距離L1、結像高さL2、画素間ピッチDpをROM16から読み出し、これらのパラメータを用いて、前述の(式3)により、左眼用画像と右眼用画像との間の画素数Ngを算出する。   In this 3D image imaging height calculation process, the control unit 15 is a parameter for determining the imaging height of the 3D image, the thickness T of the touch panel, the distance D1 between the left and right eyes, and the eye-to-touch panel. The distance L1, the imaging height L2, and the inter-pixel pitch Dp are read from the ROM 16, and using these parameters, the number of pixels between the left-eye image and the right-eye image according to the above (Equation 3). Ng is calculated.

次いで、ステップS20において、制御部15は、タッチパネル2における入力位置と、表示部14における表示画面の画素位置を関連づけるための位置補正処理が実施されたか否かを判断する。   Next, in step S <b> 20, the control unit 15 determines whether or not position correction processing for associating the input position on the touch panel 2 with the pixel position of the display screen on the display unit 14 has been performed.

位置補正処理が実施されていない場合(ステップS20:NO)、ユーザが視認している3D画像に対して正確な操作を加えることができないので、ステップS30において、制御部15は、自動的に位置補正処理を開始するように制御を行う。位置補正処理の手順については後述する。   When the position correction process is not performed (step S20: NO), since an accurate operation cannot be applied to the 3D image visually recognized by the user, in step S30, the control unit 15 automatically determines the position. Control is performed to start the correction process. The procedure of the position correction process will be described later.

位置補正処理が実施済みである場合(ステップS20:YES)、ステップS40において、制御部15は、ステップS10で算出した画素数Ngに応じた所定の左眼用画像と右眼用画像とからなる3D表示用画像を画像生成部12で生成し、生成した3D表示用画像を表示部14の表示画面に表示するよう制御する。   When the position correction process has been performed (step S20: YES), in step S40, the control unit 15 includes a predetermined left-eye image and right-eye image corresponding to the number of pixels Ng calculated in step S10. The image generation unit 12 generates a 3D display image, and the generated 3D display image is controlled to be displayed on the display screen of the display unit 14.

次いで、ステップS50において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS50:YES)、ステップS60に進み、検出されていない場合(ステップS50:NO)、位置取得部11で入力面2aの押圧が検出されるまでステップS50を繰り返す。   Next, in step S50, the control unit 15 determines whether or not the position acquisition unit 11 has detected that the input surface 2a of the touch panel 2 has been pressed. If detected (step S50: YES), the process proceeds to step S60. If not detected (step S50: NO), step S50 is repeated until the position acquisition unit 11 detects the pressing of the input surface 2a.

ステップS60では、制御部15は、タッチパネル2の入力面2aが押圧された入力位置の座標(Xi,Yi)を位置取得部11から取得する。   In step S <b> 60, the control unit 15 acquires the coordinates (Xi, Yi) of the input position where the input surface 2 a of the touch panel 2 is pressed from the position acquisition unit 11.

次いで、ステップS70において、制御部15は、位置取得部11から取得した入力位置(Xi,Yi)を、ステップS30の位置補正処理で得た関連づけの結果に基づいて、表示画面の画素位置(Xd,Yd)に変換する。   Next, in step S70, the control unit 15 determines the input position (Xi, Yi) acquired from the position acquisition unit 11 based on the result of association obtained in the position correction process in step S30 (Xd , Yd).

次いで、ステップS80において、制御部15は、ステップS70で算出した表示画面の画素位置(Xd,Yd)に、操作可能な操作ボタン等を示す3D画像をユーザに視認させる3D表示用画像があるか否かを判断する。   Next, in step S80, the control unit 15 determines whether there is a 3D display image that allows the user to visually recognize a 3D image indicating an operable button or the like at the pixel position (Xd, Yd) of the display screen calculated in step S70. Judge whether or not.

画素位置(Xd,Yd)に3D表示用画像が存在しない場合(ステップS80:NO)、ステップS50に戻る。画素位置(Xd,Yd)に3D表示用画像がある場合(ステップS80:YES)、ステップS90において、制御部15は、その3D表示用画像に関連づけられた機能を実行するよう制御する。この機能実行処理については後述する。   When the 3D display image does not exist at the pixel position (Xd, Yd) (step S80: NO), the process returns to step S50. When there is a 3D display image at the pixel position (Xd, Yd) (step S80: YES), in step S90, the control unit 15 controls to execute a function associated with the 3D display image. This function execution process will be described later.

次に、図7および図8を用いて、前述した図6のステップS30の位置補正処理について説明する。   Next, the position correction process in step S30 of FIG. 6 described above will be described with reference to FIGS.

位置補正処理は、タッチパネル2における入力位置と、表示部14の表示画面の画素位置との関連づけを行うための処理である。まず、図7を用いて、この位置補正処理が必要な2つの理由について説明する。   The position correction process is a process for associating an input position on the touch panel 2 with a pixel position on the display screen of the display unit 14. First, two reasons why this position correction processing is necessary will be described with reference to FIG.

まず、位置補正処理が必要な第1の理由について説明する。   First, the first reason why position correction processing is necessary will be described.

図7において、有効表示領域21は、LCD1において画像を表示可能な領域を示し、有効使用領域22は、タッチパネル2の入力面2aの押圧を検出可能な領域を示している。   In FIG. 7, an effective display area 21 indicates an area where an image can be displayed on the LCD 1, and an effective use area 22 indicates an area where the pressing of the input surface 2 a of the touch panel 2 can be detected.

通常、LCD1はタッチパネル2を取り付ける構造とはなっておらず、取り付ける際は外形を基準として冶具などを用いて取り付けられる。このため、LCD1やタッチパネル2に外形寸法の誤差等がある場合には、タッチパネル2をLCD1に正確に取り付けることはできない。   Normally, the LCD 1 does not have a structure for attaching the touch panel 2 and is attached using a jig or the like with reference to the outer shape. For this reason, when the LCD 1 or the touch panel 2 has an external dimension error or the like, the touch panel 2 cannot be accurately attached to the LCD 1.

したがって、LCD1の有効表示領域21とタッチパネル2の有効使用領域22との位置関係にも誤差を生じ、タッチパネル2の押圧位置とLCD1の画素位置とを予め関連づけることはできない。   Therefore, an error also occurs in the positional relationship between the effective display area 21 of the LCD 1 and the effective use area 22 of the touch panel 2, and the pressed position of the touch panel 2 and the pixel position of the LCD 1 cannot be associated in advance.

次に、位置補正処理が必要な第2の理由について説明する。   Next, the second reason why the position correction process is necessary will be described.

図7に示すように、左眼用画像である表示点Pd1lと右眼用画像であるPd1rとをタッチパネル2の入力面2aに結像するように画素数Ngの間隔でLCD1の表示画面に表示し、左眼ELおよび右眼ERで見た場合、入力点Pi1の位置に結像することになる。   As shown in FIG. 7, a display point Pd1l that is an image for the left eye and Pd1r that is an image for the right eye are displayed on the display screen of the LCD 1 at an interval of the number of pixels Ng so as to form an image on the input surface 2a of the touch panel 2. When viewed with the left eye EL and the right eye ER, an image is formed at the position of the input point Pi1.

よって、表示点Pd1lと表示点Pd1rとにより得られる3D画像に対してユーザが操作を加える場合には、入力点Pi1の位置が押圧されることになる。   Therefore, when the user performs an operation on the 3D image obtained by the display point Pd1l and the display point Pd1r, the position of the input point Pi1 is pressed.

同様に、左眼用画像である表示点Pd2lと右眼用画像である表示点Pd2rとによる3D画像への操作時は、入力点Pi2の位置が押圧され、左眼用画像である表示点Pd3lと右眼用画像である表示点Pd3rによる3D画像への操作時は、入力点Pi3の位置が押圧され、左眼用画像である表示点Pd4lと右眼用画像である表示点Pd4rによる3D画像への操作時は、入力点Pi4の位置が押圧されることになる。   Similarly, when a 3D image is operated by the display point Pd2l that is the image for the left eye and the display point Pd2r that is the image for the right eye, the position of the input point Pi2 is pressed, and the display point Pd3l that is the image for the left eye. When the 3D image is operated by the display point Pd3r that is the right eye image, the position of the input point Pi3 is pressed, and the 3D image by the display point Pd4l that is the left eye image and the display point Pd4r that is the right eye image. When the operation is performed, the position of the input point Pi4 is pressed.

以上より、ユーザにより3D画像に操作が加えられたか否かを検出するためには、入力位置に3D画像が結像されているか否かを判断すればよい。言い換えれば、入力位置に3D画像を結像させるような左眼用画像、または右眼用画像があるかどうかを判断すればよいことになる。   As described above, in order to detect whether or not an operation is applied to the 3D image by the user, it is only necessary to determine whether or not the 3D image is formed at the input position. In other words, it is only necessary to determine whether there is a left-eye image or a right-eye image that forms a 3D image at the input position.

したがって、タッチパネル2の入力位置と左眼用画像の表示画面上の画素位置との関係、もしくはタッチパネル2の入力位置と右眼用画像の表示画面上の画素位置との関係を求めれば、ユーザの3D画像への操作を検出することができる。   Therefore, if the relationship between the input position of the touch panel 2 and the pixel position on the display screen of the left-eye image or the relationship between the input position of the touch panel 2 and the pixel position on the display screen of the right-eye image is obtained, the user's An operation on a 3D image can be detected.

ところが、図7から明らかなように、表示点と入力点との関係は、左眼ELおよび右眼ERの位置や、左眼ELと右眼ERとの間隔に依存して決定される。これは、表示画面の同じ位置に画像を表示しても、ユーザの使用位置によって押圧されるタッチパネル2入力面2a上の位置が異なることを意味している。   However, as is apparent from FIG. 7, the relationship between the display point and the input point is determined depending on the positions of the left eye EL and the right eye ER and the interval between the left eye EL and the right eye ER. This means that even if an image is displayed at the same position on the display screen, the position on the touch panel 2 input surface 2a pressed differs depending on the use position of the user.

つまり、タッチパネル2の入力位置とLCD1の画素位置とを予め関連づけることはできず、ユーザが実際に使用する位置での関連づけを行わなければならない。   That is, the input position of the touch panel 2 and the pixel position of the LCD 1 cannot be associated in advance, and the association at the position actually used by the user must be performed.

以上が、位置補正処理が必要な理由である。   The above is the reason why the position correction process is necessary.

次いで、図8を用いて、タッチパネル2の入力位置とLCD1の表示画面上の画素位置との関連づけの方法について説明する。なお、タッチパネル2の入力位置およびLCD1の表示画面の画素位置は、水平方向をX軸とし(図示左から右に増加方向)、垂直方向をY軸(図示上から下に増加方向)として説明を行う。   Next, a method for associating the input position of the touch panel 2 with the pixel position on the display screen of the LCD 1 will be described with reference to FIG. The input position of the touch panel 2 and the pixel position of the display screen of the LCD 1 are described with the horizontal direction as the X axis (increase direction from left to right in the figure) and the vertical direction as the Y axis (increase direction from top to bottom in the figure). Do.

左眼用画像と右眼用画像とは、表示画面のどの位置であっても、図6のステップS10で求めた画素数Ngの間隔で表示されるので、左眼用画像の画素位置と結像画像への入力位置の関係、または右眼用画像の画素位置と結像画像への入力位置との関係がわかればよい。そこで、本実施の形態では、右眼用画像の画素位置と結像画像へのタッチパネル2上の入力位置との関係を求める方法について説明を行う。   The left-eye image and the right-eye image are displayed at intervals of the number of pixels Ng obtained in step S10 in FIG. 6 at any position on the display screen. It is only necessary to know the relationship between the input position to the image image or the relationship between the pixel position of the right-eye image and the input position to the formed image. Therefore, in the present embodiment, a method for obtaining the relationship between the pixel position of the right-eye image and the input position on the touch panel 2 to the formed image will be described.

右眼用画像の画素位置と結像画像への入力位置との関係を求めるにあたり、その第1のステップとして、右眼用画像である表示点をLCD1の表示画面に表示し、それに対するタッチパネル2上の入力位置の取得を行う。   In obtaining the relationship between the pixel position of the right-eye image and the input position to the formed image, as a first step, a display point that is the right-eye image is displayed on the display screen of the LCD 1 and the touch panel 2 corresponding thereto. Get the input position above.

まず、図8に示すように、右眼用画像である4つの表示点Pd1r〜Pd4rと、左眼用画像である4つの表示点Pd1l〜Pd4lとを、位置補正用3次元表示用画像として、ユーザが視認可能な大きさとなるように複数画素を用いてLCD1の表示画面に順次表示する。   First, as shown in FIG. 8, four display points Pd1r to Pd4r that are images for the right eye and four display points Pd1l to Pd4l that are images for the left eye are used as three-dimensional display images for position correction. The images are sequentially displayed on the display screen of the LCD 1 using a plurality of pixels so that the size is visible to the user.

図8において、右眼用画像である表示点Pd1r〜Pd4rは、それぞれの中心画素が表示画面上の画素位置(Xd1r,Yd1),(Xd2r,Yd1),(Xd1r,Yd2),(Xd2r,Yd2)に表示されているものとする。表示点Pd1rと表示点Pd3r、および表示点Pd2rと表示点Pd4rは、X軸方向の画素位置が等しく、表示点Pd1rと表示点Pd2r、および表示点Pd3rと表示点Pd4rは、Y軸方向の画素位置が等しい。   In FIG. 8, display points Pd1r to Pd4r, which are images for the right eye, have pixel positions (Xd1r, Yd1), (Xd2r, Yd1), (Xd1r, Yd2), (Xd2r, Yd2) on the display screen. ). The display point Pd1r and the display point Pd3r, and the display point Pd2r and the display point Pd4r have the same pixel position in the X-axis direction. The display point Pd1r and the display point Pd2r, and the display point Pd3r and the display point Pd4r are pixels in the Y-axis direction. The positions are equal.

また、表示点Pd1r〜Pd4rは、互いのX軸方向の間隔、およびY軸方向の間隔が所定距離以上に大きくなるよう(例えば、表示画面の縦横の長さの半分以上となるよう)に配置する。これは、後述するように、取得した入力位置の測定誤差を減少させるためである。   In addition, the display points Pd1r to Pd4r are arranged so that the distance in the X-axis direction and the distance in the Y-axis direction are larger than a predetermined distance (for example, more than half of the vertical and horizontal lengths of the display screen). To do. This is to reduce the measurement error of the acquired input position, as will be described later.

また、左眼用画像である表示点Pd1l〜Pd4lは、右眼用画像である表示点Pd1r〜Pd4rとの間隔が、図6のステップS10で説明した3D画像結像高さ算出処理で求められた画素数Ngとなるように表示画面上に表示されている。   Further, the display points Pd1l to Pd4l that are images for the left eye are obtained by the 3D image formation height calculation process described in step S10 of FIG. 6 with respect to the intervals between the display points Pd1r to Pd4r that are images for the right eye. It is displayed on the display screen so that the number of pixels is Ng.

先に述べた通り、この表示点Pd1r〜Pd4rと表示点Pd1l〜Pd4lとにより、入力点Pi1〜Pi4の位置に4つの3D画像が結像される。   As described above, four 3D images are formed at the positions of the input points Pi1 to Pi4 by the display points Pd1r to Pd4r and the display points Pd1l to Pd4l.

次に、右眼用画像である表示点Pd1r〜Pd4rを用いてタッチパネル2の入力面2aにおける入力位置の取得を行う。   Next, the input position on the input surface 2a of the touch panel 2 is acquired using the display points Pd1r to Pd4r which are images for the right eye.

まず、操作者が偏光眼鏡をかけずに、片目で表示点Pd1r〜Pd4rを真上から、つまりタッチパネル2の入力面2aに対して垂直に見て、表示点Pd1r〜Pd4rの位置を押圧したときの4つの入力点の入力位置を得る。   First, when the operator presses the position of the display points Pd1r to Pd4r with one eye while viewing the display points Pd1r to Pd4r from directly above, that is, perpendicular to the input surface 2a of the touch panel 2 without wearing polarized glasses. The input positions of the four input points are obtained.

図8において、この4つの入力点をPu1r〜Pu4rとし、それぞれの入力位置を(Xu1r,Yu1r),(Xu2r,Yu2r),(Xu3r,Yu3r),(Xu4r,Yu4r)とする。   In FIG. 8, these four input points are designated as Pu1r to Pu4r, and the respective input positions are designated as (Xu1r, Yu1r), (Xu2r, Yu2r), (Xu3r, Yu3r), (Xu4r, Yu4r).

ここで、入力点Pu1r〜Pu4rの入力位置には測定誤差を含む可能性があり、この測定誤差の影響を減少させるためには、X軸方向、Y軸方向で等しい画素位置にある表示点から得られる入力位置の平均値を求めればよい。   Here, the input positions of the input points Pu1r to Pu4r may include a measurement error. In order to reduce the influence of the measurement error, the display points at the same pixel position in the X-axis direction and the Y-axis direction are used. What is necessary is just to obtain | require the average value of the input position obtained.

そこで、制御部15は、入力点Pu1rと入力点Pu3rとのX軸方向の位置の平均値、および入力点Pu2rと入力点Pu4rとのX軸方向の位置の平均値を算出し、それぞれXu13r,Xu24rとする。同様に、制御部15は、入力点Pu1rと入力点Pu2rとのY軸方向の位置の平均値、および入力点Pu3rと入力点Pu4rとのY軸方向の位置の平均値を算出し、それぞれYu12r,Yu34rとする。   Therefore, the control unit 15 calculates the average value of the positions of the input point Pu1r and the input point Pu3r in the X-axis direction and the average value of the positions of the input point Pu2r and the input point Pu4r in the X-axis direction. Let Xu24r. Similarly, the control unit 15 calculates the average value of the Y-axis direction positions of the input point Pu1r and the input point Pu2r and the average value of the Y-axis direction positions of the input point Pu3r and the input point Pu4r, respectively. , Yu34r.

入力点Pu1r〜Pu4rの入力位置の取得は、ユーザの操作によって取得するようにしてもよいが、この入力位置は、ユーザの使用位置には依存しないものである。そこで、本実施の形態では、画像表示装置10の製造工程で製造者の操作により入力点Pu1r〜Pu4rの入力位置の取得を行い、この入力点Pu1r〜Pu4rの入力位置がROM16に記憶されているものとする。   Although the input positions of the input points Pu1r to Pu4r may be acquired by a user operation, this input position does not depend on the use position of the user. Therefore, in the present embodiment, the input positions of the input points Pu1r to Pu4r are acquired by the manufacturer's operation in the manufacturing process of the image display device 10, and the input positions of the input points Pu1r to Pu4r are stored in the ROM 16. Shall.

次に、ユーザに対して表示点Pd1r〜Pd4rと表示点Pd1l〜Pd4lとによる4つの3D画像の中心をタッチペンなどで押圧するよう指示し、この指示に応じたユーザの押圧操作によるタッチパネル2の入力面2aにおける4つの入力点の入力位置を得る。   Next, the user is instructed to press the center of four 3D images by the display points Pd1r to Pd4r and the display points Pd1l to Pd4l with a touch pen or the like, and the touch panel 2 is input by the user's pressing operation in response to the instruction. The input positions of the four input points on the surface 2a are obtained.

図8において、この4つの入力点をPi1〜Pi4とし、それぞれの入力位置を(Xi1,Yi1),(Xi2,Yi2),(Xi3,Yi3),(Xi4,Yi4)とする。   In FIG. 8, these four input points are denoted by Pi1 to Pi4, and the respective input positions are denoted by (Xi1, Yi1), (Xi2, Yi2), (Xi3, Yi3), (Xi4, Yi4).

入力点Pi1〜Pi4には測定誤差を含む可能性があるので、上述の入力点Pu1r〜Pu4rと同様に、入力点Pi1と入力点Pi3とのX軸方向の位置の平均値、および入力点Pi2と入力点Pi4とのX軸方向の位置の平均値を算出し、それぞれXi13,Xi24とする。同様に、入力点Pi1と入力点Pi2とのY軸方向の位置の平均値、および入力点Pi3と入力点Pi4とのY軸方向の位置の平均値を算出し、それぞれYi12,Yi34とする。   Since the input points Pi1 to Pi4 may include measurement errors, the average value of the positions of the input points Pi1 and Pi3 in the X-axis direction and the input point Pi2 are the same as the input points Pu1r to Pu4r described above. And the average value of the positions in the X-axis direction with respect to the input point Pi4 are calculated as Xi13 and Xi24, respectively. Similarly, the average value of the Y-axis direction positions of the input point Pi1 and the input point Pi2 and the average value of the Y-axis direction positions of the input point Pi3 and the input point Pi4 are calculated as Yi12 and Yi34, respectively.

第2のステップとして、LCD1の表示画面の画素位置と、その真上に位置するタッチパネル2の入力面2aにおける入力位置との関係を求める。   As a second step, the relationship between the pixel position on the display screen of the LCD 1 and the input position on the input surface 2a of the touch panel 2 located immediately above is obtained.

位置補正処理が必要な第1の理由としてすでに説明した通り、LCD1をタッチパネル2に正確に取り付けることはできず、このため、表示画面の画素位置とタッチパネル2の入力面2aにおける入力位置とを予め関連づけることはできない。よって、表示画面の画素位置とタッチパネル2の入力面2aにおける入力位置との関係を求める処理が必要となる。以下に、その方法について説明する。   As already described as the first reason that the position correction processing is necessary, the LCD 1 cannot be accurately attached to the touch panel 2. For this reason, the pixel position of the display screen and the input position on the input surface 2 a of the touch panel 2 are determined in advance. It cannot be associated. Therefore, a process for obtaining the relationship between the pixel position on the display screen and the input position on the input surface 2a of the touch panel 2 is required. The method will be described below.

LCD1の画素は、X軸方向、Y軸方向ともに均一の間隔で配置されており、また、タッチパネル2の入力面2aを押圧した位置と、その結果として得られる入力位置との関係は、X軸方向、Y軸方向ともに直線性を有する。   The pixels of the LCD 1 are arranged at uniform intervals in both the X-axis direction and the Y-axis direction, and the relationship between the position where the input surface 2a of the touch panel 2 is pressed and the resulting input position is expressed by the X-axis. Both the direction and the Y-axis direction have linearity.

したがって、表示画面の画素位置とその真上に位置するタッチパネル2の入力位置との関係は、X軸方向、Y軸方向ともに比例関係となるので、画素位置(Xdr,Ydr)と、この画素位置(Xdr,Ydr)に表示される表示点Pdrの真上の入力位置(Xur,Yur)との間には、以下の(式5)、(式6)が成り立つ。   Accordingly, the relationship between the pixel position of the display screen and the input position of the touch panel 2 positioned immediately above is proportional to both the X-axis direction and the Y-axis direction, so the pixel position (Xdr, Ydr) and the pixel position The following (Expression 5) and (Expression 6) hold between the input position (Xur, Yur) just above the display point Pdr displayed at (Xdr, Ydr).

Xdr = α1x×Xur +β1x …(式5)
Ydr = α1y×Yur +β1y …(式6)
(α1x、α1y、β1x、β1yは定数)
前述したように、表示点Pd1r(画素位置(Xd1r,Yd1))と表示点Pd3r(画素位置(Xd1r,Yd2))を真上から押圧した場合に得られるX軸方向の入力位置の平均値はXu13rであり、表示点Pd2r(画素位置(Xd2r,Yd1))と表示点Pd4r(画素位置(Xd2r,Yd2))を真上から押圧した場合に得られるX軸方向の入力位置の平均値はXu24rである。同様に、表示点Pd1r(画素位置(Xd1r,Yd1))と表示点Pd2r(画素位置(Xd2r,Yd1))を真上から押圧した場合に得られるY軸方向の入力位置の平均値はYu12rであり、表示点Pd3r(画素位置(Xd1r,Yd2))と表示点Pd4r(画素位置(Xd2r,Yd2))を真上から押圧した場合に得られるY軸方向の入力位置の平均値はYu34rである。
Xdr = α1x × Xur + β1x (Formula 5)
Ydr = α1y × Yur + β1y (Formula 6)
(Α1x, α1y, β1x, β1y are constants)
As described above, the average value of the input positions in the X-axis direction obtained when the display point Pd1r (pixel position (Xd1r, Yd1)) and the display point Pd3r (pixel position (Xd1r, Yd2)) are pressed from directly above is Xu13r, and the average value of the input positions in the X-axis direction obtained when the display point Pd2r (pixel position (Xd2r, Yd1)) and the display point Pd4r (pixel position (Xd2r, Yd2)) are pressed from directly above is Xu24r It is. Similarly, the average value of the input positions in the Y-axis direction obtained when the display point Pd1r (pixel position (Xd1r, Yd1)) and the display point Pd2r (pixel position (Xd2r, Yd1)) are pressed from directly above is Yu12r. Yes, the average value of the input positions in the Y-axis direction obtained when the display point Pd3r (pixel position (Xd1r, Yd2)) and the display point Pd4r (pixel position (Xd2r, Yd2)) are pressed from directly above is Yu34r. .

よって、(式5)より、
Xd1r = α1x×Xu13r + β1x …(式7)
Xd2r = α1x×Xu24r + β1x …(式8)
(式7)、(式8)より、
α1x =(Xd2r−Xd1r)÷(Xu24r−Xu13r) …(式9)
β1x =(Xd1r×Xu24r−Xd2r×Xu13r)÷(Xu24r−Xu13r) …(式10)
また、(式6)より、
Yd1 = α1y×Yu12r + β1y …(式11)
Yd2 = α1y×Yu34r + β1y …(式12)
(式11)、(式12)より、
α1y =(Yd2−Yd1)÷(Yu34r−Yu12r) …(式13)
β1y =(Yd1×Yu34r−Yd2×Yu12r)÷(Yu34r−Yu12r) …(式14)
以上のように、画素位置(Xdr,Ydr)とその真上に位置するタッチパネル2の入力位置(Xur,Yur)との関係を算出することができる。
Therefore, from (Formula 5),
Xd1r = α1x × Xu13r + β1x (Formula 7)
Xd2r = α1x × Xu24r + β1x (Formula 8)
From (Expression 7) and (Expression 8),
α1x = (Xd2r−Xd1r) ÷ (Xu24r−Xu13r) (Equation 9)
β1x = (Xd1r × Xu24r−Xd2r × Xu13r) ÷ (Xu24r−Xu13r) (Equation 10)
From (Equation 6),
Yd1 = α1y × Yu12r + β1y (Formula 11)
Yd2 = α1y × Yu34r + β1y (Formula 12)
From (Expression 11) and (Expression 12),
α1y = (Yd2−Yd1) ÷ (Yu34r−Yu12r) (Equation 13)
β1y = (Yd1 × Yu34r−Yd2 × Yu12r) ÷ (Yu34r−Yu12r) (Formula 14)
As described above, the relationship between the pixel position (Xdr, Ydr) and the input position (Xur, Yur) of the touch panel 2 positioned immediately above the pixel position (Xdr, Ydr) can be calculated.

次に、最後のステップとして、右眼用画像の画素位置と、この右眼用画像とそれに対応する左眼用画像により結像する画像を押圧した場合に得られるタッチパネル2上の入力位置との関係について算出する。   Next, as the final step, the pixel position of the right-eye image and the input position on the touch panel 2 obtained when the image formed by the right-eye image and the corresponding left-eye image are pressed. Calculate the relationship.

まず、結像画像に対する入力位置(Xi,Yi)と、結像画像を生成する右眼用画像の真上の入力位置(Xur,Yur)との関係を求める方法について説明する。   First, a method for obtaining the relationship between the input position (Xi, Yi) for the formed image and the input position (Xur, Yur) directly above the right-eye image for generating the formed image will be described.

図8において、表示点Pdrは、画素位置(Xdr,Ydr)に表示されている右眼用画像であり、この表示点Pdrの真上を押圧した場合の入力位置を(Xur,Yur)とする。   In FIG. 8, the display point Pdr is the right-eye image displayed at the pixel position (Xdr, Ydr), and the input position when pressing directly above the display point Pdr is (Xur, Yur). .

また、表示点Pdlは、表示点Pdrから画素数Ngの間隔で表示されている左眼用画像であり、この表示点Pdlと表示点Pdrにより結像する画像を押圧した場合のタッチパネル2上の入力点をPiとし、その入力位置を(Xi,Yi)とする。   The display point Pdl is an image for the left eye displayed at an interval of the number of pixels Ng from the display point Pdr. On the touch panel 2 when the image formed by the display point Pdl and the display point Pdr is pressed. The input point is Pi, and the input position is (Xi, Yi).

図8において、「(表示点Pdr)−(表示点Pdrの真上のX軸方向の入力位置Xur)−(入力点PiのX軸方向の入力位置Xi)がなす三角形」と、「(右眼ER)−(入力面2aの延長線上における右眼ERのX軸方向の位置Xer)−(入力点PiのX軸方向の入力位置Xi)がなす三角形」とは相似の関係にある。   In FIG. 8, “a triangle formed by (display point Pdr) − (input position Xur in the X-axis direction directly above display point Pdr) − (input position Xi in the X-axis direction of input point Pi)” and “(right Eye ER)-(the triangle formed by the X-axis direction position Xer of the right eye ER on the extension line of the input surface 2a)-(the triangle formed by the input point Pi in the X-axis direction) is similar.

よって、タッチパネル2の厚みT、右眼ERからタッチパネル2の入力面2aまでの距離Lとすると、以下の(式15)が成り立つ。   Therefore, when the thickness T of the touch panel 2 and the distance L from the right eye ER to the input surface 2a of the touch panel 2 are satisfied, the following (Expression 15) is established.

(Xi−Xur):(Xer−Xi)= T:L …(式15)
上記(式15)より、表示点Pdrの真上のX軸方向の入力位置Xurは、以下の(式16)のように求められる。
(Xi-Xur) :( Xer-Xi) = T: L (Formula 15)
From (Equation 15), the input position Xur in the X-axis direction directly above the display point Pdr is obtained as (Equation 16) below.

Xur ={(L+T)×Xi −T×Xer }÷L …(式16)
Y軸方向についても同様に、「(表示点Pdr)−(表示点Pdrの真上のY軸方向の入力位置Yur)−(入力点PiのY軸方向の入力位置Yi)がなす三角形」と、「(右眼ER)−(右眼ERの入力面2a上のY軸方向の位置Yer)−(入力点PiのY軸方向の入力位置Yi)がなす三角形」とは相似の関係にある。
Xur = {(L + T) * Xi-T * Xer} / L (Formula 16)
Similarly in the Y-axis direction, “(display point Pdr) − (input position Yur in Y-axis direction directly above display point Pdr) − (triangle formed by input position Yi in Y-axis direction of input point Pi)” , “The right eye ER) − (the Y-axis position Yer on the input surface 2a of the right eye ER) − (the input point Yi in the Y-axis direction input position Yi)” has a similar relationship. .

よって、以下の(式17)が成り立つ。   Therefore, the following (Expression 17) is established.

(Yi−Yur):(Yer−Yi)= T:L …(式17)
上記(式17)より、表示点Pdrの真上のY軸方向の入力位置Yurは、以下の(式18)のように求められる。
(Yi-Yur) :( Yer-Yi) = T: L (Expression 17)
From the above (Equation 17), the input position Yur in the Y-axis direction directly above the display point Pdr is obtained as in the following (Equation 18).

Yur ={(L+T)×Yi −T×Yer }÷L …(式18)
以上より、表示点Pdrの真上の入力位置(Xur,Yur)は、入力点Piの入力位置(Xi,Yi)と比例関係にあるので、以下の(式19)、(式20)が成り立つ。
Yur = {(L + T) * Yi-T * Yer} / L (Expression 18)
As described above, since the input position (Xur, Yur) directly above the display point Pdr is proportional to the input position (Xi, Yi) of the input point Pi, the following (Expression 19) and (Expression 20) hold. .

Xur = α2x×Xi +β2x …(式19)
Yur = α2y×Yi +β2y …(式20)
(α2x、α2y、β2x、β2yは定数)
前述したように、表示点Pd1rと表示点Pd3rを真上から押圧した場合に得られるX軸方向の入力位置の平均値はXu13rであり、表示点Pd2rと表示点Pd4rを真上から押圧した場合に得られるX軸方向の入力位置の平均値はXu24rである。
Xur = α2x × Xi + β2x (Equation 19)
Yur = α2y × Yi + β2y (Equation 20)
(Α2x, α2y, β2x, β2y are constants)
As described above, when the display point Pd1r and the display point Pd3r are pressed from directly above, the average value of the input positions in the X-axis direction is Xu13r, and the display point Pd2r and the display point Pd4r are pressed from directly above. The average value of the input positions in the X-axis direction obtained is Xu24r.

また、表示点Pd1r、表示点Pd1lによる結像画像による入力点Pi1と、表示点Pd3r、表示点Pd3lによる結像画像による入力点Pi3とのX軸方向の入力位置の平均値はXi13であり、表示点Pd2r、表示点Pd2lによる結像画像による入力点Pi2と、表示点Pd4r、表示点Pd4lによる結像画像による入力点Pi4とのX軸方向の入力位置の平均値はXi24である。   The average value of the input positions in the X-axis direction between the input point Pi1 based on the image formed by the display point Pd1r and the display point Pd1l and the input point Pi3 based on the image formed by the display point Pd3r and the display point Pd3l is Xi13. The average value of the input positions in the X-axis direction of the input point Pi2 based on the image formed by the display point Pd2r and the display point Pd2l and the input point Pi4 based on the image formed by the display point Pd4r and the display point Pd4l is Xi24.

同様に、表示点Pd1r、表示点Pd1lによる結像画像による入力点Pi1と、表示点Pd2r、表示点Pd2lによる結像画像による入力点Pi2とのY軸方向の入力位置の平均値はYi12であり、表示点Pd3r、表示点Pd3lによる結像画像による入力点Pi3と、表示点Pd4r、表示点Pd4lによる結像画像による入力点Pi4とのY軸方向の入力位置の平均値はYi34である。   Similarly, the average value of the input positions in the Y-axis direction between the input point Pi1 based on the image formed by the display point Pd1r and the display point Pd1l and the input point Pi2 based on the image formed by the display point Pd2r and the display point Pd2l is Yi12. The average value of the input positions in the Y-axis direction between the input point Pi3 based on the image formed by the display point Pd3r and the display point Pd3l and the input point Pi4 based on the image formed by the display point Pd4r and the display point Pd4l is Yi34.

よって、(式19)より、
Xu13r = α2x×Xi13 +β2x …(式21)
Xu24r = α2x×Xi24 +β2x …(式22)
(式21)、(式22)より、
α2x =(Xu24r−Xu13r)÷(Xi24−Xi13) …(式23)
β2x =(Xi24×Xu13r−Xi13×Xu24r)÷(Xi24−Xi13) …(式24)
同様に、(式20)より、
Yu12r = α2y×Yi12 +β2y …(式25)
Yu34r = α2y×Yi34 +β2y …(式26)
(式25)、(式26)より、
α2y =(Yu34r−Yu12r)÷(Yi34−Yi12) …(式27)
β2y =(Yi34×Yu12r−Yi12×Yu34r)÷(Yi34−Yi12) …(式28)
以上のように、(式19)、(式20)、(式23)、(式24)、(式27)、(式28)により、入力点Piの入力位置(Xi,Yi)と、表示点Pdrの真上の入力位置(Xur,Yur)との関係を求めることができる。
Therefore, from (Equation 19)
Xu13r = α2x × Xi13 + β2x (Formula 21)
Xu24r = α2x × Xi24 + β2x (Formula 22)
From (Expression 21) and (Expression 22),
α2x = (Xu24r−Xu13r) ÷ (Xi24−Xi13) (Equation 23)
β2x = (Xi24 × Xu13r−Xi13 × Xu24r) ÷ (Xi24−Xi13) (Equation 24)
Similarly, from (Equation 20)
Yu12r = α2y × Yi12 + β2y (Formula 25)
Yu34r = α2y × Yi34 + β2y (Formula 26)
From (Equation 25) and (Equation 26),
α2y = (Yu34r−Yu12r) ÷ (Yi34−Yi12) (Equation 27)
β2y = (Yi34 × Yu12r−Yi12 × Yu34r) ÷ (Yi34−Yi12) (Equation 28)
As described above, according to (Expression 19), (Expression 20), (Expression 23), (Expression 24), (Expression 27), and (Expression 28), the input position (Xi, Yi) of the input point Pi is displayed. The relationship with the input position (Xur, Yur) directly above the point Pdr can be obtained.

ここで、表示点Pdrの画素位置(Xdr,Ydr)と、その真上に位置するタッチパネル2の入力位置(Xur,Yur)との関係は、(式5)、(式6)、(式9)、(式10)、(式13)、(式14)ですでに求まっているので、右眼用画像である表示点Pdrの画素位置(Xdr,Ydr)と、この表示点Pdrと表示点Pdlとにより結像する画像を押圧した場合に得られるタッチパネル2上の入力位置(Xi,Yi)との関係は、以下の(式29)、(式30)のように求めることができる。   Here, the relationship between the pixel position (Xdr, Ydr) of the display point Pdr and the input position (Xur, Yur) of the touch panel 2 positioned immediately above is expressed by (Expression 5), (Expression 6), (Expression 9). ), (Equation 10), (Equation 13), and (Equation 14), the pixel position (Xdr, Ydr) of the display point Pdr that is the image for the right eye, the display point Pdr, and the display point The relationship with the input position (Xi, Yi) on the touch panel 2 obtained when the image formed by Pdl is pressed can be obtained as in the following (Equation 29) and (Equation 30).

Xdr = α1x ×Xur +β1x
= α1x ×(α2x×Xi +β2x)+β1x
= α1x ×α2x ×Xi +(α1x×β2x +β1x) …(式29)
Ydr = α1y ×Yur +β1y
= α1y ×(α2y×Yi +β2y)+β1y
= α1x ×α2y ×Yi +(α1y×β2y +β1y) …(式30)
ただし、
α1x =(Xd2r−Xd1r)÷(Xu24r−Xu13r) (式9より)
β1x =(Xd1r×Xu24r−Xd2r×Xu13r)÷(Xu24r−Xu13r) (式10より)
α2x =(Xu24r−Xu13r)÷(Xi24−Xi13) (式23より)
β2x =(Xi24×Xu13r−Xi13×Xu24r)÷(Xi24−Xi13) (式24より)
α1y =(Yd2−Yd1)÷(Yu34r−Yu12r) (式13より)
β1y =(Yd1×Yu34r−Yd2×Yu12r)÷(Yu34r−Yu12r) (式14より)
α2y =(Yu34r−Yu12r)÷(Yi34−Yi12) (式27より)
β2y =(Yi34×Yu12r−Yi12×Yu34r)÷(Yi34−Yi12) (式28より)
である。
Xdr = α1x × Xur + β1x
= Α1x × (α2x × Xi + β2x) + β1x
= Α1x × α2x × Xi + (α1x × β2x + β1x) (Equation 29)
Ydr = α1y × Yur + β1y
= Α1y × (α2y × Yi + β2y) + β1y
= Α1x × α2y × Yi + (α1y × β2y + β1y) (Equation 30)
However,
α1x = (Xd2r−Xd1r) ÷ (Xu24r−Xu13r) (From Equation 9)
β1x = (Xd1r × Xu24r−Xd2r × Xu13r) ÷ (Xu24r−Xu13r) (From Equation 10)
α2x = (Xu24r−Xu13r) ÷ (Xi24−Xi13) (From Equation 23)
β2x = (Xi24 × Xu13r−Xi13 × Xu24r) ÷ (Xi24−Xi13) (From Equation 24)
α1y = (Yd2−Yd1) ÷ (Yu34r−Yu12r) (from Equation 13)
β1y = (Yd1 × Yu34r−Yd2 × Yu12r) ÷ (Yu34r−Yu12r) (From Equation 14)
α2y = (Yu34r−Yu12r) ÷ (Yi34−Yi12) (From Equation 27)
β2y = (Yi34 × Yu12r−Yi12 × Yu34r) ÷ (Yi34−Yi12) (From Equation 28)
It is.

以上のように、右眼用画像の画素位置(Xdr,Ydr)と、この右眼用画像とそれに対応する左眼用画像により結像する画像を押圧した場合に得られるタッチパネル2上の入力位置(Xi,Yi)との関係を算出することができる。   As described above, the pixel position (Xdr, Ydr) of the right-eye image and the input position on the touch panel 2 obtained when the image formed by the right-eye image and the corresponding left-eye image is pressed. The relationship with (Xi, Yi) can be calculated.

以下に、具体的な数値を用いて、上述した入力位置(Xi,Yi)と画素位置(Xdr,Ydr)との関係の算出方法を説明する。   Hereinafter, a method of calculating the relationship between the input position (Xi, Yi) and the pixel position (Xdr, Ydr) will be described using specific numerical values.

この説明において、LCD1の有効解像度を320(X軸方向)×240(Y軸方向)、位置取得部11のA/Dの分解能を10bit(1024個の入力位置)、タッチパネル2の厚みT=5mmとする。   In this description, the effective resolution of the LCD 1 is 320 (X-axis direction) × 240 (Y-axis direction), the A / D resolution of the position acquisition unit 11 is 10 bits (1024 input positions), and the touch panel 2 has a thickness T = 5 mm. And

また、各画素位置、および入力位置を以下の値として説明を行う。   In addition, description will be made with each pixel position and input position as the following values.

表示点Pd1r〜Pd4rの画素位置は、表示点Pd1rの表示画面上の画素位置(Xd1r,Yd1)=(40,30)、表示点Pd2rの表示画面上の画素位置(Xd2r,Yd1)=(280,30)、表示点Pd3rの表示画面上の画素位置(Xd1r,Yd2)=(40,210)、表示点Pd4rの表示画面上の画素位置(Xd2r,Yd2)=(280,210)とする。   The pixel positions of the display points Pd1r to Pd4r are the pixel position (Xd1r, Yd1) = (40, 30) on the display screen of the display point Pd1r, and the pixel position (Xd2r, Yd1) = (280) of the display point Pd2r on the display screen. 30), the pixel position (Xd1r, Yd2) on the display screen of the display point Pd3r = (40, 210), and the pixel position (Xd2r, Yd2) on the display screen of the display point Pd4r = (280, 210).

製造過程において取得される各入力位置は、表示点Pd1rの真上の入力点Pu1rの入力位置(Xu1r,Yu1r)=(142,159)、表示点Pd2rの真上の入力点Pu2rの入力位置(Xu2r,Yu2r)=(854,161)、表示点Pd3rの真上の入力点Pu3rの入力位置(Xu3r,Yu3r)=(138,888)、表示点Pd4rの真上の入力点Pu4rの入力位置(Xu4r,Yu4r)=(866,872)とする。   The input positions acquired in the manufacturing process are the input position Pu1r directly above the display point Pd1r (Xu1r, Yu1r) = (142,159), the input position Pu2r directly above the display point Pd2r ( Xu2r, Yu2r) = (854, 161), the input position Pu3r just above the display point Pd3r (Xu3r, Yu3r) = (138,888), the input position Pu4r just above the display point Pd4r ( Xu4r, Yu4r) = (866, 872).

ユーザ操作により取得される各入力位置は、表示点Pd1rと表示点Pd1lとの結像画像による入力位置Pi1(Xi1,Yi1)=(154,166)、表示点Pd2rと表示点Pd2lとの結像画像による入力位置Pi2(Xi2,Yi2)=(862,158)、表示点Pd3rと表示点Pd3lとの結像画像による入力位置Pi3(Xi3,Yi3)=(160,874)、表示点Pd4rと表示点Pd4lとの結像画像による入力位置Pi4(Xi4,Yi4)=(870,866)とする。   Each input position acquired by the user operation is an input position Pi1 (Xi1, Yi1) = (154, 166) based on an image formed between the display point Pd1r and the display point Pd1l, and an image formed between the display point Pd2r and the display point Pd2l. Input position Pi2 (Xi2, Yi2) = (862,158) by image, input position Pi3 (Xi3, Yi3) = (160,874) by display image Pd3r and display point Pd3l, display point Pd4r and display Assume that the input position Pi4 (Xi4, Yi4) = (870,866) based on the image formed with the point Pd4l.

まず、測定誤差を減少させるために、各入力値のX軸方向およびY軸方向の平均値は、
Xu13r =(Xu1r+Xu3r)÷2=(142+138)÷2=140
Xu24r =(Xu2r+Xu4r)÷2=(854+866)÷2=860
Yu12r =(Yu1r+Yu2r)÷2=(159+161)÷2=160
Yu34r =(Yu3r+Yu4r)÷2=(888+872)÷2=880
Xi13 =(Xi1+Xi3)÷2=(154+160)÷2=157
Xi24 =(Xi2+Xi4)÷2=(862+870)÷2=866
Yi12 =(Yi1+Yi2)÷2=(166+158)÷2=162
Yi34 =(Yi3+Yi4)÷2=(874+866)÷2=870
と求められる。
First, in order to reduce the measurement error, the average value of each input value in the X-axis direction and the Y-axis direction is
Xu13r = (Xu1r + Xu3r) / 2 = (142 + 138) / 2 = 140
Xu24r = (Xu2r + Xu4r) / 2 = (854 + 866) / 2 = 860
Yu12r = (Yu1r + Yu2r) / 2 = (159 + 161) / 2 = 160
Yu34r = (Yu3r + Yu4r) ÷ 2 = (888 + 872) ÷ 2 = 880
Xi13 = (Xi1 + Xi3) ÷ 2 = (154 + 160) ÷ 2 = 157
Xi24 = (Xi2 + Xi4) / 2 = (862 + 870) / 2 = 866
Yi12 = (Yi1 + Yi2) ÷ 2 = (166 + 158) ÷ 2 = 162
Yi34 = (Yi3 + Yi4) ÷ 2 = (874 + 866) ÷ 2 = 870
Is required.

前述の(式9)、(式10)より
α1x =(Xd2r−Xd1r)÷(Xu24r−Xu13r)
=(280−40)÷(860−140)
= 1/3
β1x =(Xd1r×Xu24r−Xd2r×Xu13r)÷(Xu24r−Xu13r)
=(40×860−280×140)÷(860−140)
= −20/3
また、(式23)、(式24)より、
α2x =(Xu24r−Xu13r)÷(Xi24−Xi13)
=(860−140)÷(866−157)
= 1.0155
β2x =(Xi24×Xu13r−Xi13×Xu24r)÷(Xi24−Xi13)
=(866×140−157×860)÷(866−157)
= −19.44
となる。
From the above (Equation 9) and (Equation 10), α1x = (Xd2r−Xd1r) ÷ (Xu24r−Xu13r)
= (280-40) / (860-140)
= 1/3
β1x = (Xd1r × Xu24r−Xd2r × Xu13r) ÷ (Xu24r−Xu13r)
= (40 × 860-280 × 140) ÷ (860-140)
= -20/3
From (Equation 23) and (Equation 24),
α2x = (Xu24r-Xu13r) / (Xi24-Xi13)
= (860-140) / (866-157)
= 1.0155
β2x = (Xi24 × Xu13r−Xi13 × Xu24r) ÷ (Xi24−Xi13)
= (866 × 140-157 × 860) ÷ (866-157)
= -19.44
It becomes.

よって、(式29)より、X軸方向の右眼用画像の画素位置(Xdr,Ydr)と、この右眼用画像とそれに対応する左眼用画像により結像する画像を押圧した場合に得られるタッチパネル2上の入力位置(Xi,Yi)との関係は、
Xdr = α1x×α2x×Xi+(α1x×β2x+β1x)
= 1/3×1.0155×Xi+(1/3×(−19.44)−20/3)
= 0.3385×Xi−13.15
と求めることができる。
Therefore, from (Expression 29), it is obtained when the pixel position (Xdr, Ydr) of the right-eye image in the X-axis direction and the image formed by this right-eye image and the corresponding left-eye image are pressed. The relationship with the input position (Xi, Yi) on the touch panel 2 is
Xdr = α1x × α2x × Xi + (α1x × β2x + β1x)
= 1/3 * 1.0155 * Xi + (1/3 * (-19.44) -20/3)
= 0.3385 × Xi-13.15
It can be asked.

Y軸方向も同様にして、(式13)、(式14)より、
α1y =(Yd2−Yd1)÷(Yu34r−Yu12r)
=(210−30)÷(880−160)
= 1/4
β1y =(Yd1×Yu34r−Yd2×Yu12r)÷(Yu34r−Yu12r)
=(30×880−210×160)÷(880−160)
= −10
また、(式27)、(式28)より、
α2y =(Yu34r−Yu12r)÷(Yi34−Yi12)
=(880−160)÷(870−162)
= 1.0170
β2y =(Yi34×Yu12r−Yi12×Yu34r)÷(Yi34−Yi12)
=(870×160−162×880)÷(870−162)
= −4.75
となる。
Similarly in the Y-axis direction, from (Expression 13) and (Expression 14),
α1y = (Yd2−Yd1) ÷ (Yu34r−Yu12r)
= (210-30) / (880-160)
= 1/4
β1y = (Yd1 × Yu34r−Yd2 × Yu12r) ÷ (Yu34r−Yu12r)
= (30 * 880-210 * 160) / (880-160)
= -10
From (Expression 27) and (Expression 28),
α2y = (Yu34r−Yu12r) ÷ (Yi34−Yi12)
= (880-160) / (870-162)
= 1.0170
β2y = (Yi34 × Yu12r−Yi12 × Yu34r) ÷ (Yi34−Yi12)
= (870 × 160-162 × 880) ÷ (870-162)
= -4.75
It becomes.

よって、(式30)より、Y軸方向の右眼用画像の画素位置(Xdr,Ydr)と、この右眼用画像とそれに対応する左眼用画像により結像する画像を押圧した場合に得られるタッチパネル2上の入力位置(Xi,Yi)との関係は、
Ydr = α1x×α2y×Yi+(α1y×β2y+β1y)
= 1/4×1.0170×Yi+(1/4×(−4.75)−10)
= 0.2543×Yi−11.19
と求めることができる。
Therefore, from (Equation 30), it is obtained when the pixel position (Xdr, Ydr) of the right-eye image in the Y-axis direction and the image formed by the right-eye image and the corresponding left-eye image are pressed. The relationship with the input position (Xi, Yi) on the touch panel 2 is
Ydr = α1x × α2y × Yi + (α1y × β2y + β1y)
= 1/4 × 1.0170 × Yi + (1/4 × (−4.75) −10)
= 0.2543 × Yi-11.19
It can be asked.

次に、上述したような位置補正処理を行う際の画像表示装置10の動作について、図9示すフローチャートを参照して説明する。   Next, the operation of the image display apparatus 10 when performing the position correction process as described above will be described with reference to the flowchart shown in FIG.

まず、ステップS110において、制御部15は、最初の右眼用画像の表示点Pd1rと左眼用画像の表示点Pd1lとの対(表示点対)を画像生成部12で生成し、表示部14により表示するよう制御する。表示点Pd1rと表示点Pd1lとは画素数Ngだけ離れて表示される。   First, in step S110, the control unit 15 generates a pair (display point pair) of the display point Pd1r of the first right-eye image and the display point Pd1l of the left-eye image by the image generation unit 12, and the display unit 14 Control to display. The display point Pd1r and the display point Pd1l are displayed separated by the number of pixels Ng.

次いで、ステップS120において、制御部15は、表示点Pd1rと表示点Pd1lとにより結像する画像に対してユーザがタッチパネル2を押圧した入力回数をカウントするためのカウント数Cを初期化する(C=0とする)。   Next, in step S120, the control unit 15 initializes a count number C for counting the number of times the user has pressed the touch panel 2 with respect to an image formed by the display point Pd1r and the display point Pd1l (C = 0).

次いで、ステップS130において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS130:YES)、ステップS140に進み、検出されていない場合(ステップS130:NO)、位置取得部11で入力面2aの押圧が検出されるまでステップS130を繰り返す。   Next, in step S <b> 130, the control unit 15 determines whether or not the position acquisition unit 11 has detected that the input surface 2 a of the touch panel 2 has been pressed. If detected (step S130: YES), the process proceeds to step S140. If not detected (step S130: NO), step S130 is repeated until the position acquisition unit 11 detects the pressing of the input surface 2a.

ステップS140では、制御部15は、タッチパネル2の入力面2aが押圧された入力位置を位置取得部11から取得する。   In step S <b> 140, the control unit 15 acquires the input position where the input surface 2 a of the touch panel 2 is pressed from the position acquisition unit 11.

次いで、ステップS150において、制御部15は、カウント数Cの値を1だけインクリメントし、ステップS160において、制御部15は、直近のタッチパネル2に対する押圧が検出されてから既定時間が経過したか否かを判断する。既定時間が経過した場合(ステップS160:YES)、ステップS170に進み、既定時間が経過していない場合(ステップS160:NO)、既定時間が経過するまでステップS160を繰り返す。   Next, in step S150, the control unit 15 increments the value of the count number C by 1. In step S160, the control unit 15 determines whether or not a predetermined time has elapsed since the most recent press on the touch panel 2 was detected. Judging. If the predetermined time has elapsed (step S160: YES), the process proceeds to step S170. If the predetermined time has not elapsed (step S160: NO), step S160 is repeated until the predetermined time has elapsed.

ステップS170では、制御部15は、カウント数Cの値が既定数以上であるか否かを判断する。既定数以上である場合(ステップS170:YES)、ステップS180に進み、既定数未満である場合(ステップS170:NO)、ステップS130に戻る。   In step S170, the control unit 15 determines whether or not the value of the count number C is equal to or greater than a predetermined number. If the number is greater than or equal to the predetermined number (step S170: YES), the process proceeds to step S180. If the number is less than the predetermined number (step S170: NO), the process returns to step S130.

ここで、ステップS160とステップS170の処理を行う理由を述べる。ユーザがいくらタッチパネル2上の同じ位置を押圧しても、わずかな震えや位置取得部11の回路上のノイズなどにより、得られる入力位置は一定値にはならず、ばらつきが生じる。ステップS160,S170の処理は、一定の時間間隔で複数の測定を行うことにより、そのばらつきによる測定誤差を減少させるための処理である。   Here, the reason why the processes of step S160 and step S170 are performed will be described. No matter how much the user presses the same position on the touch panel 2, the obtained input position does not become a constant value due to slight shaking, noise on the circuit of the position acquisition unit 11, and the like occurs. The processes in steps S160 and S170 are processes for reducing a measurement error due to the variation by performing a plurality of measurements at regular time intervals.

ステップS180では、制御部15は、以上で取得したC個の入力位置の平均値を算出し、この平均値を、表示中の表示点対に対する入力位置(Xi1,Yi1)とする。   In step S180, the control unit 15 calculates the average value of the C input positions acquired as described above, and sets the average value as the input position (Xi1, Yi1) for the display point pair being displayed.

次いで、ステップS190において、制御部15は、表示点の表示を終了して非表示とするよう制御する。   Next, in step S190, the control unit 15 performs control so that the display of the display points is terminated and not displayed.

次いで、ステップS200において、制御部15は、最後の表示点対の表示が終了したか否かを判断する。最後の表示点対の表示が終了した場合(ステップS200:YES)、ステップS210に進む。最後の表示点対の表示が終了していない場合、ステップS220において、制御部15は、次の表示点対を表示させ、その後、ステップS120に戻る。   Next, in step S200, the control unit 15 determines whether or not the display of the last display point pair has been completed. When the display of the last display point pair is completed (step S200: YES), the process proceeds to step S210. If the display of the last display point pair has not ended, the control unit 15 displays the next display point pair in step S220, and then returns to step S120.

以上により、位置補正処理に用いる複数の表示点対(位置補正用3次元表示用画像)を順次表示し、それぞれの表示点対に対する入力位置を得る。前述の図7、図8で説明した例のように位置補正処理に4つの表示点対を用いる場合では、各表示点対に対応した入力位置(Xi1,Yi1),(Xi2,Yi2),(Xi3,Yi3),(Xi4,Yi4)が取得される。   As described above, a plurality of display point pairs (three-dimensional display images for position correction) used for position correction processing are sequentially displayed, and an input position for each display point pair is obtained. In the case where four display point pairs are used for the position correction processing as in the example described with reference to FIGS. 7 and 8, the input positions (Xi1, Yi1), (Xi2, Yi2), ( Xi3, Yi3), (Xi4, Yi4) are acquired.

そして、ステップS210において、制御部15は、後述する画素位置と入力位置との関係算出処理を行うことにより、LCD1の表示画面上の画素位置とタッチパネル2上の入力位置との関係の算出を行う。   In step S210, the control unit 15 calculates the relationship between the pixel position on the display screen of the LCD 1 and the input position on the touch panel 2 by performing a relationship calculation process between a pixel position and an input position, which will be described later. .

ここで、上述の図9のフローチャートで説明した位置補正処理において、複数の表示点対を同時に表示するのではなく順番に表示するようにした理由を述べる。複数の表示点対を同時に表示した場合、ユーザがどの表示点対に対してタッチパネル2を押圧したのかは分からないので、どの表示点対に対する押圧なのかをタッチパネル2の入力位置から判定する処理が必要になる。複数の表示点対を順番に表示することにより、どの表示点対に対する押圧かが明確になり、処理が簡単になるという利点がある。   Here, the reason why a plurality of display point pairs are displayed in order rather than simultaneously in the position correction processing described with reference to the flowchart of FIG. 9 will be described. When a plurality of display point pairs are displayed at the same time, it is not known to which display point pair the user has pressed the touch panel 2, and therefore processing for determining which display point pair is pressed from the input position of the touch panel 2. I need it. By displaying a plurality of display point pairs in order, there is an advantage that the display point pair is clearly pressed and the processing is simplified.

次に、図10のフローチャートを参照して、上述した図9のステップS210における画素位置と入力位置との関係算出処理について説明する。位置補正処理に図7、図8で示した表示点Pd1r〜Pd4rおよび表示点Pd1l〜Pd4lからなる4つの表示点対を用いる場合について説明する。   Next, the relationship calculation processing between the pixel position and the input position in step S210 of FIG. 9 described above will be described with reference to the flowchart of FIG. A case will be described in which four display point pairs including the display points Pd1r to Pd4r and the display points Pd1l to Pd4l shown in FIGS. 7 and 8 are used for the position correction processing.

まず、ステップS310において、制御部15は、表示点Pd1r〜Pd4rの真上のX軸方向の入力位置Xu1r〜Xu4rをROM16から読み出す。先に説明した通り、この入力位置Xu1r〜Xu4rは、装置の製造者が製造工程で取得したものである。   First, in step S310, the control unit 15 reads the input positions Xu1r to Xu4r in the X-axis direction directly above the display points Pd1r to Pd4r from the ROM 16. As described above, the input positions Xu1r to Xu4r are acquired by the manufacturer of the apparatus in the manufacturing process.

次いで、ステップS320において、制御部15は、入力位置Xu1rと入力位置Xu3rとの平均値Xu13r、および入力位置Xu2rと入力位置Xu4rとの平均値Xu24rをそれぞれ求める。   Next, in step S320, the control unit 15 obtains an average value Xu13r of the input position Xu1r and the input position Xu3r and an average value Xu24r of the input position Xu2r and the input position Xu4r, respectively.

次いで、ステップS330において、制御部15は、ステップS320で求めた平均値Xu13r,Xu24rを用いて、前述の(式5)により、X軸方向の画素位置Xdrと画素の真上の入力位置Xurとの関係を算出する。   Next, in step S330, the control unit 15 uses the average values Xu13r and Xu24r obtained in step S320 to calculate the pixel position Xdr in the X-axis direction and the input position Xur directly above the pixel according to (Expression 5) described above. Is calculated.

次いで、ステップS340において、制御部15は、表示点Pd1r〜Pd4rの真上のY軸方向の入力位置Yu1r〜Yu4rをROM16からから読み出す。入力位置Yu1r〜Yu4rも入力位置Xu1r〜Xu4rと同様に、装置の製造者が製造工程で取得したものである。   Next, in step S340, the control unit 15 reads from the ROM 16 the input positions Yu1r to Yu4r in the Y-axis direction directly above the display points Pd1r to Pd4r. Similarly to the input positions Xu1r to Xu4r, the input positions Yu1r to Yu4r are acquired by the manufacturer of the apparatus in the manufacturing process.

次いで、ステップS350において、制御部15は、入力位置Yu1rと入力位置Yu2rとの平均値Yu12r、および入力位置Yu3rと入力位置Yu4rとの平均値Yu34rをそれぞれ求める。   Next, in step S350, the control unit 15 obtains an average value Yu12r of the input position Yu1r and the input position Yu2r and an average value Yu34r of the input position Yu3r and the input position Yu4r, respectively.

次いで、ステップS360において、制御部15は、ステップS350で求めた平均値Yu12r,Yu34rを用いて、前述の(式6)より、Y軸方向の画素位置Ydrと画素の真上の入力位置Yurとの関係を算出する。   Next, in step S360, the control unit 15 uses the average values Yu12r and Yu34r obtained in step S350 to calculate the pixel position Ydr in the Y-axis direction and the input position Yur immediately above the pixel from (Equation 6) described above. Is calculated.

次いで、ステップS370において、制御部15は、前述した図9のフローチャートの処理で取得した表示点Pd1r〜Pd4rのX軸方向の入力位置を用いて、入力位置Xi1と入力位置Xi3との平均値Xi13、および入力位置Xi2と入力位置Xi4との平均値Xi24をそれぞれ求める。   Next, in step S370, the control unit 15 uses the input positions in the X-axis direction of the display points Pd1r to Pd4r acquired by the processing of the flowchart of FIG. 9 described above, and average value Xi13 of the input position Xi1 and the input position Xi3. And average values Xi24 of the input position Xi2 and the input position Xi4 are obtained.

次いで、ステップS380において、制御部15は、Y軸方向についても同様に、入力位置Yi1と入力位置Yi2との平均値Yi12、および入力位置Yi3と入力位置Yi4との平均値Yi34をそれぞれ求める。   Next, in step S380, the controller 15 similarly obtains an average value Yi12 of the input position Yi1 and the input position Yi2 and an average value Yi34 of the input position Yi3 and the input position Yi4 in the Y-axis direction.

次いで、ステップS390において、制御部15は、ステップS370で求めたXi13とXi24と、ステップS320で求めたXu13rとXu24rとを用いて、前述の(式19)により、X軸方向の入力位置Xiと画素位置の真上の入力位置Xurとの関係を算出する。   Next, in step S390, the control unit 15 uses the Xi13 and Xi24 obtained in step S370 and the Xu13r and Xu24r obtained in step S320 to obtain the input position Xi in the X-axis direction according to (Equation 19) described above. The relationship with the input position Xur immediately above the pixel position is calculated.

次いで、ステップS400において、制御部15は、ステップS380で求めたYi12とYi34と、ステップS350で求めたYu12rとYu34rとを用いて、前述の(式20)により、Y軸方向の入力位置Yiと画素位置の真上の入力位置Yurとの関係を算出する。   Next, in step S400, the control unit 15 uses the Yi12 and Yi34 obtained in step S380 and the Yu12r and Yu34r obtained in step S350 to determine the input position Yi in the Y-axis direction according to (Equation 20) described above. The relationship with the input position Yur immediately above the pixel position is calculated.

次いで、ステップS410において、制御部15は、ステップS330で求めたX軸方向の画素位置Xdrと真上の入力位置Xurの関係(式5)と、ステップS390で求めたX軸方向の入力位置Xiと画素位置の真上の入力位置Xurとの関係(式19)より算出された(式29)を用いて、X軸方向の画素位置Xdrと入力位置Xiとの関係を算出する。   Next, in step S410, the control unit 15 determines the relationship between the pixel position Xdr in the X-axis direction obtained in step S330 and the input position Xur directly above (formula 5), and the input position Xi in the X-axis direction obtained in step S390. The relationship between the pixel position Xdr in the X-axis direction and the input position Xi is calculated using (Expression 29) calculated from the relationship (Expression 19) between the input position Xur and the input position Xur immediately above the pixel position.

次いで、ステップS420において、制御部15は、ステップS360で求めたY軸方向の画素位置Ydrと真上の入力位置Yurの関係(式6)と、ステップS400で求めたY軸方向の入力位置Yiと画素位置の真上の入力位置Yurとの関係(式20)より算出された(式30)を用いて、Y軸方向の画素位置Ydrと入力位置Yiとの関係を算出する。   Next, in step S420, the control unit 15 determines the relationship between the pixel position Ydr in the Y-axis direction obtained in step S360 and the input position Yur directly above (Equation 6), and the input position Yi in the Y-axis direction obtained in step S400. The relationship between the pixel position Ydr in the Y-axis direction and the input position Yi is calculated using (Equation 30) calculated from the relationship between (Equation 20) and the input position Yur directly above the pixel position.

以上のような位置補正処理により、画素位置(Xdr,Ydr)と入力位置(Xi,Yi)との関係を算出することができる。   By the position correction process as described above, the relationship between the pixel position (Xdr, Ydr) and the input position (Xi, Yi) can be calculated.

次に、前述した図6のステップS90の機能実行処理について説明する。画像表示装置10で実行する機能として、再生部13による画像データの再生機能を例として説明する。   Next, the function execution process in step S90 of FIG. 6 described above will be described. As a function to be executed by the image display device 10, an image data reproduction function by the reproduction unit 13 will be described as an example.

図11は、画像表示装置10における画面表示の一例である。図11において、表示画面30には、画像表示装置10のプログラム内に実装されているビデオ再生用のアプリケーションの再生用機能画面31と、選択ボタン32A〜32Cとが表示されている。   FIG. 11 is an example of a screen display in the image display device 10. In FIG. 11, the display screen 30 displays a playback function screen 31 of a video playback application implemented in the program of the image display device 10 and selection buttons 32 </ b> A to 32 </ b> C.

選択ボタン32A〜32Cは、左眼用画像と右眼用画像とによりユーザが3D画像として認識可能に表示されるものであり、例えば、サムネイルやショートカットアイコンのような類のものである。選択ボタン32A〜32Cは、再生部13内の画像ファイルにそれぞれ関連づけられており、ユーザがこの選択ボタン32A〜32Cの3D画像に対してタッチパネル2より入力を行った場合には、関連づけられた画像ファイルの再生がビデオ再生用アプリケーションによって開始されるようになっている。   The selection buttons 32A to 32C are displayed so as to be recognizable as a 3D image by the user using the left eye image and the right eye image, and are, for example, thumbnails and shortcut icons. The selection buttons 32A to 32C are respectively associated with the image files in the reproduction unit 13, and when the user inputs from the touch panel 2 to the 3D images of the selection buttons 32A to 32C, the associated images are displayed. File playback is started by a video playback application.

再生用機能画面31には、再生、停止等の各種操作に関連づけられた操作ボタン32D〜32Hが表示されている。操作ボタン32D〜32Hも選択ボタン32A〜32Cと同様に、左眼用画像と右眼用画像とによりユーザが3D画像として認識可能に表示されるものである。   On the playback function screen 31, operation buttons 32D to 32H associated with various operations such as playback and stop are displayed. Similarly to the selection buttons 32A to 32C, the operation buttons 32D to 32H are displayed so as to be recognizable as a 3D image by the left eye image and the right eye image.

次に、図12を用いて、選択ボタン32A〜32Cや操作ボタン32D〜32Hのような、ユーザが3D画像として認識可能なボタン(3D画像ボタン)の表示変更処理の第1例について説明を行う。   Next, a first example of display change processing of buttons (3D image buttons) that the user can recognize as 3D images, such as the selection buttons 32A to 32C and the operation buttons 32D to 32H, will be described with reference to FIG. .

一般に、実物のボタンが押下された場合、ボタンは一旦、押し込まれた状態になり、押下を止めると元の状態に戻るように動作する。図11の選択ボタン32A〜32Cや操作ボタン32D〜32Hが押下された場合にも、実物のボタンと同様に動作するように見えるように表示した方が、ユーザはより操作感を得やすくなる。   In general, when a real button is pressed, the button is once pressed, and when the pressing is stopped, the button returns to the original state. Even when the selection buttons 32A to 32C and the operation buttons 32D to 32H in FIG. 11 are pressed, it is easier for the user to obtain an operational feeling if the buttons are displayed so as to operate in the same manner as the actual buttons.

そこで、図12に示すように、3D画像ボタンが押圧された場合には2D表示となるまで一定の時間間隔で3D画像の結像高さを徐々に低くし、その後、非押圧状態になった場合には、同様に一定の時間間隔で徐々に3D画像の結像高さを高くするように表示処理を行う。   Therefore, as shown in FIG. 12, when the 3D image button is pressed, the imaging height of the 3D image is gradually lowered at a constant time interval until 2D display is obtained, and then the non-pressed state is entered. In this case, similarly, the display process is performed so as to gradually increase the imaging height of the 3D image at regular time intervals.

図12は、右眼用画像と左眼用画像との間の画素数Ngを8画素として3D画像ボタンを表示している場合の表示変更処理を示したものであり、以下にその説明を行う。   FIG. 12 shows a display change process when a 3D image button is displayed with the number of pixels Ng between the right-eye image and the left-eye image being 8 pixels, which will be described below. .

図12において、時刻Taは、3D画像ボタンの押圧を制御部15が認識した時刻を示しており、時刻Taでは右眼用画像と左眼用画像との間隔を7画素に変更して表示する。その後、右眼用画像と左眼用画像との間隔が0になるまで、一定の時間間隔T1にて画像の間隔を1画素ずつ狭くしながら表示を行う。右眼用画像と左眼用画像との間隔を狭くすると結像高さは低くなり、間隔が0のときは2D表示となる。したがって、右眼用画像と左眼用画像との間隔を段階的に狭くすることで、3D画像ボタンが段階的に押し込まれていく様子が表現できる。   In FIG. 12, time Ta indicates the time when the control unit 15 recognizes pressing of the 3D image button, and at time Ta, the interval between the right-eye image and the left-eye image is changed to 7 pixels and displayed. . Thereafter, the display is performed while the image interval is reduced by one pixel at a constant time interval T1 until the interval between the right-eye image and the left-eye image becomes zero. When the interval between the image for the right eye and the image for the left eye is narrowed, the imaging height is lowered, and when the interval is 0, 2D display is performed. Therefore, the state in which the 3D image button is pushed in can be expressed by narrowing the interval between the right-eye image and the left-eye image in stages.

2D表示は、ボタンが完全に押下されている様子を示すので、この時刻Tbから、押下された3D画像ボタンに関連づけられた機能の動作を開始する。   Since the 2D display indicates that the button is completely pressed, the operation of the function associated with the pressed 3D image button is started from this time Tb.

次に、3D画像ボタンが押下されたことをユーザに認知させるため、時刻Tbから時刻Tcまでの時間T2の間は2D表示を行う。時刻Tcでは、右眼用画像と左眼用画像との間隔を1画素に変更して表示し、その後、右眼用画像と左眼用画像との間隔が8画素になるまで、一定の時間間隔T1にて間隔を1画素ずつ広くしながら表示を行う。このようにすれば、3D画像ボタンが段階的に元に戻る様子が表現できる。   Next, in order to make the user recognize that the 3D image button has been pressed, 2D display is performed during a time T2 from time Tb to time Tc. At the time Tc, the interval between the right-eye image and the left-eye image is changed to 1 pixel and displayed, and thereafter, a certain time is required until the interval between the right-eye image and the left-eye image reaches 8 pixels. Display is performed while increasing the interval by one pixel at the interval T1. In this way, it is possible to express how the 3D image button returns to the original step by step.

図13は、図6のステップS90の機能実行処理の第1例の手順を示すフローチャートであり、上記の3D画像ボタンの表示変更処理の第1例はこの処理に含まれている。以下にその説明を行う。ここで、図6のステップS70で取得した画素位置に、3D画像ボタンを表示するための右眼用画像があるものとする。後述の第2例、第3例についても同様である。   FIG. 13 is a flowchart showing the procedure of a first example of the function execution process in step S90 of FIG. 6, and the first example of the above-described 3D image button display change process is included in this process. This will be described below. Here, it is assumed that there is an image for the right eye for displaying the 3D image button at the pixel position acquired in step S70 of FIG. The same applies to the second and third examples described later.

まず、ステップS510において、制御部15は、前述したROM16内のパラメータにより求められる、右眼用画像と左眼用画像の間の画素数Ngを、変数Nにセットする。   First, in step S510, the control unit 15 sets the number of pixels Ng between the right-eye image and the left-eye image, which is obtained from the parameters in the ROM 16 described above, as a variable N.

次いで、ステップS520において、制御部15は、Nの値を1だけデクリメントし、ステップS530において、制御部15は、画像生成部12により、3D画像ボタンを表示するための右眼用画像と左眼用画像との間隔をステップS520でデクリメントしたNの画素数に変更し、変更後の右眼用画像と左眼用画像とを表示部14に表示するよう制御する。   Next, in step S520, the control unit 15 decrements the value of N by 1. In step S530, the control unit 15 causes the image generation unit 12 to display the right eye image and the left eye for displaying the 3D image button. The interval with the image for use is changed to the number of N pixels decremented in step S520, and control is performed so that the changed right-eye image and left-eye image are displayed on the display unit 14.

次いで、ステップS540において、制御部15は、Nの値が0であるか否かを判断する。N=0である場合(ステップS540:YES)、ステップS560に進み、N=0でない場合(ステップS540:NO)、ステップS550に進む。   Next, in step S540, the control unit 15 determines whether or not the value of N is 0. When N = 0 (step S540: YES), the process proceeds to step S560. When N = 0 is not satisfied (step S540: NO), the process proceeds to step S550.

ステップS550では、制御部15は、前回Nの値をデクリメントしてから、ROM16内に記憶されている既定時間T1が経過したか否かを判断する。既定時間T1が経過した場合(ステップS550:YES)、ステップS520に戻り、既定時間T1が経過していない場合(ステップS550:NO)、既定時間T1が経過するまでステップS550を繰り返す。   In step S550, the control unit 15 determines whether or not the predetermined time T1 stored in the ROM 16 has elapsed since the previous N value was decremented. When the predetermined time T1 has elapsed (step S550: YES), the process returns to step S520. When the predetermined time T1 has not elapsed (step S550: NO), step S550 is repeated until the predetermined time T1 has elapsed.

ステップS560では、制御部15は、3D画像ボタンに関連づけられた機能の動作を開始する。例えば、図11に示す停止ボタンである操作ボタン32Eが操作された場合は、制御部15は、再生部13による再生処理を停止するよう制御する。   In step S560, the control unit 15 starts the operation of the function associated with the 3D image button. For example, when the operation button 32E that is a stop button shown in FIG. 11 is operated, the control unit 15 controls to stop the reproduction process by the reproduction unit 13.

このN=0の状態は、右眼用画像と左眼用画像との間隔がない状態であり、すなわちボタンの画像は2D表示されていることになる。   The state of N = 0 is a state where there is no interval between the right eye image and the left eye image, that is, the button image is displayed in 2D.

上述のステップS510〜ステップS550の処理により、3D画像ボタンがT1の時間間隔で段々と押し込まれていく様子が表現される。   A state in which the 3D image button is gradually pushed in at a time interval of T1 is expressed by the processing in steps S510 to S550 described above.

次いで、ステップS570において、制御部15は、N=0となってから、ROM16内に記憶されている既定時間T2が経過したか否か判断する。既定時間T2が経過している場合(ステップS570:YES)、ステップS580に進み、既定時間T2が経過していない場合(ステップS570:NO)、既定時間T2が経過するまでステップS570を繰り返す。   Next, in step S570, the control unit 15 determines whether or not a predetermined time T2 stored in the ROM 16 has elapsed since N = 0. If the predetermined time T2 has elapsed (step S570: YES), the process proceeds to step S580. If the predetermined time T2 has not elapsed (step S570: NO), step S570 is repeated until the predetermined time T2 has elapsed.

このように、少なくとも既定時間T2の間だけボタンの画像を2D表示することにより、ユーザに対してボタンが押下されたことをより確実に認知させることができる。   In this way, by displaying the button image in 2D for at least the predetermined time T2, the user can be surely recognized that the button has been pressed.

ステップS580では、制御部15は、位置取得部11の検出結果より、タッチパネル2の入力面2aが押圧されているか否かを判断する。タッチパネル2の入力面2aが押圧されている場合(ステップS580:YES)、ステップS590に進み、タッチパネル2の入力面2aが押圧されていない場合(ステップS580:NO)、ステップS630に進む。   In step S580, the control unit 15 determines whether the input surface 2a of the touch panel 2 is pressed based on the detection result of the position acquisition unit 11. If the input surface 2a of the touch panel 2 is pressed (step S580: YES), the process proceeds to step S590. If the input surface 2a of the touch panel 2 is not pressed (step S580: NO), the process proceeds to step S630.

ステップS590では、制御部15は、位置取得部11からタッチパネル2の入力面2aの押圧されている位置(入力位置(Xi,Yi))を取得する。   In step S590, the control unit 15 acquires the pressed position (input position (Xi, Yi)) of the input surface 2a of the touch panel 2 from the position acquisition unit 11.

次いで、ステップS600において、制御部15は、前述の(式29)と(式30)とにより、入力位置(Xi,Yi)から右眼用画像の画素位置(Xdr,Ydr)を求める。   Next, in step S600, the control unit 15 obtains the pixel position (Xdr, Ydr) of the right-eye image from the input position (Xi, Yi) using the above-described (Expression 29) and (Expression 30).

次いで、ステップS610において、制御部15は、ステップS600で求めた画素位置(Xdr,Ydr)に表示されている右眼用画像があるか否かを判断する。右眼用画像がある場合(ステップS610:YES)、ステップS620に進み、右眼用画像がない場合(ステップS610:NO)、ステップS630に進む。   Next, in step S610, the control unit 15 determines whether there is a right-eye image displayed at the pixel position (Xdr, Ydr) obtained in step S600. If there is a right-eye image (step S610: YES), the process proceeds to step S620. If there is no right-eye image (step S610: NO), the process proceeds to step S630.

ステップS620では、制御部15は、ステップS600で求めた画素位置(Xdr,Ydr)に表示されている右眼用画像に対応する3D画像ボタンが、実行中の機能に関連づけられた3D画像ボタンであるか否かを判断する。実行中の機能に関連づけられた3D画像ボタンである場合(ステップS620:YES)、つまり、現在実行中の機能に関連づけられた3D画像ボタンに応じたタッチパネル2上の位置が押圧され続けている場合には、ステップS580に戻って以降の処理を繰り返し、2D表示の状態を保持する。   In step S620, the control unit 15 uses the 3D image button corresponding to the right-eye image displayed at the pixel position (Xdr, Ydr) obtained in step S600 as the 3D image button associated with the function being executed. Judge whether there is. When the button is a 3D image button associated with the function being executed (step S620: YES), that is, when the position on the touch panel 2 corresponding to the 3D image button associated with the function currently being executed is being pressed. In step S580, the subsequent processing is repeated and the 2D display state is maintained.

このように、タッチパネル2が押圧されている間はボタンを2D表示し、あたかもボタンが押され続けているような状態で表示することにより、ユーザに対してより実物のボタンに近い操作感を与えることができる。   As described above, when the touch panel 2 is pressed, the buttons are displayed in 2D, and displayed as if the buttons are being pressed, giving the user a feeling of operation closer to that of the real buttons. be able to.

ステップS620の判断において、実行中の機能に関連づけられた3D画像ボタンでないと判断した場合(ステップS620:NO)、ステップS630に進む。   If it is determined in step S620 that the button is not a 3D image button associated with the function being executed (step S620: NO), the process proceeds to step S630.

ステップS630では、制御部15は、Nの値を1だけインクリメントする。次いで、ステップS640において、制御部15は、画像生成部12により、右眼用画像と左眼用画像との間隔をステップS630でインクリメントしたNの画素数に変更し、変更後の右眼用画像と左眼用画像とを表示部14に表示するよう制御する。   In step S630, the control unit 15 increments the value of N by 1. Next, in step S640, the control unit 15 causes the image generation unit 12 to change the interval between the right-eye image and the left-eye image to the number of N pixels incremented in step S630, and the changed right-eye image. And the image for the left eye are controlled to be displayed on the display unit 14.

次いで、ステップS650において、制御部15は、Nの値が画素数Ngであるか否かを判断する。N=Ngでない場合(ステップS650:NO)、ステップS660に進み、制御部15は、前回Nの値をインクリメントしてから既定時間T1が経過したか否かを判断する。既定時間T1が経過した場合(ステップS660:YES)、ステップS630に戻り、既定時間T1が経過していない場合(ステップS660:NO)、既定時間T1が経過するまでステップS660を繰り返す。   Next, in step S650, the control unit 15 determines whether or not the value of N is the number of pixels Ng. If N = Ng is not satisfied (step S650: NO), the process proceeds to step S660, and the control unit 15 determines whether or not the predetermined time T1 has elapsed since the previous N value was incremented. When the predetermined time T1 has elapsed (step S660: YES), the process returns to step S630. When the predetermined time T1 has not elapsed (step S660: NO), step S660 is repeated until the predetermined time T1 has elapsed.

ステップS650の判断において、N=Ngである場合(ステップS650:YES)、一連の機能実行処理を終了し、図6のステップS50に戻って繰り返して処理を行う。   If it is determined in step S650 that N = Ng (step S650: YES), the series of function execution processes is terminated, and the process returns to step S50 in FIG.

上述のステップS630〜ステップS660の処理により、3D画像ボタンがT1の時間間隔で段々と押下前の状態に戻っていく様子が表現される。   The process in steps S630 to S660 described above expresses how the 3D image button gradually returns to the state before being pressed at the time interval of T1.

なお、右眼用画像と左眼用画像との間隔を0までは狭めず、所定間隔(所定画素数)以下まで狭めたら元の状態に戻す動作を開始するにしてもよい。   Note that the operation of returning to the original state may be started when the interval between the image for the right eye and the image for the left eye is not reduced to 0, but is reduced to a predetermined interval (a predetermined number of pixels) or less.

次に、図14を用いて、3D画像ボタンの表示変更処理の第2例について説明を行う。   Next, a second example of 3D image button display change processing will be described with reference to FIG.

実物のボタンにおいては、処理に長時間を要する機能を実行する場合、その機能の実行中には対応するボタンを押されたままの状態にしたり、光らせるなどして外観を一時的に変更する方法が一般的に知られている。これにより、どの機能が実行中であるかをユーザに認知させることができる。   When executing a function that takes a long time to process with a real button, temporarily changing the appearance by keeping the corresponding button pressed or shining while the function is being executed Is generally known. This allows the user to recognize which function is being executed.

例えば、図11の選択ボタン32A〜32Cは、前述したように、それぞれ画像ファイルに関連づけられており、選択ボタン32A〜32Cを操作した場合にはビデオ再生用アプリケーションによって画像の再生が行われる。つまり、機能の動作が長時間続く。この選択ボタン32A〜32Cが操作された場合にも、上記した実物のボタンと同様の動作に見えるように表示した方が、ユーザはより操作感を得やすくなる。3D画像ボタンの表示変更処理の第2例は、このような操作感を実現する。   For example, as described above, the selection buttons 32A to 32C in FIG. 11 are associated with image files, respectively, and when the selection buttons 32A to 32C are operated, images are reproduced by the video reproduction application. That is, the function operation continues for a long time. Even when the selection buttons 32 </ b> A to 32 </ b> C are operated, it is easier for the user to obtain a feeling of operation when the selection buttons 32 </ b> A to 32 </ b> C are displayed so as to look like the actual buttons. The second example of the 3D image button display change process realizes such an operational feeling.

図14は、図12と同様に、右眼用画像と左眼用画像との間の画素数Ngを8画素として3D画像ボタンを表示している場合の表示変更処理を示したものであるが、3D画像ボタンに関連づけられた機能の実行処理が終了するまで2D表示の状態を保持する点が図12とは異なる。   FIG. 14 shows the display change process when the 3D image button is displayed with the number of pixels Ng between the right-eye image and the left-eye image being 8 pixels, as in FIG. It is different from FIG. 12 in that the state of 2D display is maintained until the execution process of the function associated with the 3D image button is completed.

図14において、時刻Tdは機能の動作が終了する時刻であり、ボタンが2D表示になって機能の動作を開始する時刻Tbから時刻Tdまでの動作時間T3の間は2D表示を行う。その後は図12と同様に、右眼用画像と左眼用画像との間隔が8画素になるまで、一定の時間間隔T1にて間隔を1画素ずつ広くしながら表示を行う。   In FIG. 14, the time Td is the time when the operation of the function ends, and the 2D display is performed during the operation time T3 from the time Tb to the time Td when the button becomes 2D display and the function operation starts. After that, as in FIG. 12, display is performed while increasing the interval by one pixel at a constant time interval T1 until the interval between the image for the right eye and the image for the left eye becomes 8 pixels.

図15および図16は、図6のステップS90の機能実行処理の第2例の手順を示すフローチャートであり、上記の3D画像ボタンの表示変更処理の第2例はこの処理に含まれている。以下にその説明を行う。   FIGS. 15 and 16 are flowcharts showing the procedure of the second example of the function execution process in step S90 of FIG. 6, and the second example of the above-described 3D image button display change process is included in this process. This will be described below.

まず、図15のステップS710において、制御部15は、3D画像ボタンに関連づけられた機能の動作時間T3を取得する。例えば、操作された3D画像ボタンが図11の選択ボタン32Aである場合、制御部15は、選択ボタン32Aに関連づけられた画像ファイルの実行に必要な動作時間を画像ファイルから読み出す。   First, in step S710 of FIG. 15, the control unit 15 acquires the operation time T3 of the function associated with the 3D image button. For example, when the operated 3D image button is the selection button 32A of FIG. 11, the control unit 15 reads out the operation time necessary for executing the image file associated with the selection button 32A from the image file.

ステップS720〜S760の処理は、前述の機能実行処理の第1例で説明した図13のフローチャートのステップS510〜S550の処理と同様であるため説明を省略する。   The processing in steps S720 to S760 is the same as the processing in steps S510 to S550 in the flowchart of FIG. 13 described in the first example of the function execution processing described above, and thus description thereof is omitted.

ステップS750の判断でN=0である場合(ステップS750:YES)、つまりボタンが2D表示になった場合、ステップS770において、制御部15は、2D表示となったボタンの色を変更したり、点滅させたりする等、ボタンの画像の表示形態を変更して表示するよう画像生成部12および表示部14を制御する。   When N = 0 is determined in step S750 (step S750: YES), that is, when the button is displayed in 2D, in step S770, the control unit 15 changes the color of the button that is displayed in 2D, The image generation unit 12 and the display unit 14 are controlled so as to change and display the button image display form such as blinking.

次いで、ステップS780において、制御部15は、3D画像ボタンに関連づけられた機能の動作を開始する。例えば、操作された3D画像ボタンが選択ボタン32Aであるとすると、制御部15は、選択ボタン32Aに関連づけられた画像ファイルの再生処理を再生部13により開始するよう制御する。   Next, in step S780, the control unit 15 starts the operation of the function associated with the 3D image button. For example, if the operated 3D image button is the selection button 32A, the control unit 15 controls the reproduction unit 13 to start reproduction processing of the image file associated with the selection button 32A.

次いで、ステップS790において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS790:YES)、ステップS800に進み、検出されていない場合(ステップS790:NO)、図16のステップS840に進む。   Next, in step S790, the control unit 15 determines whether or not the position acquisition unit 11 has detected that the input surface 2a of the touch panel 2 has been pressed. If detected (step S790: YES), the process proceeds to step S800. If not detected (step S790: NO), the process proceeds to step S840 in FIG.

ステップS800では、制御部15は、タッチパネル2の入力面2aが押圧された入力位置(Xi,Yi)を位置取得部11から取得する。   In step S800, the control unit 15 acquires the input position (Xi, Yi) where the input surface 2a of the touch panel 2 is pressed from the position acquisition unit 11.

次いで、ステップS810において、制御部15は、前述の(式29)と(式30)とにより、入力位置(Xi,Yi)から右眼用画像の画素位置(Xdr,Ydr)を求める。   Next, in step S810, the control unit 15 obtains the pixel position (Xdr, Ydr) of the right-eye image from the input position (Xi, Yi) using the above-described (Expression 29) and (Expression 30).

次いで、ステップS820において、制御部15は、ステップS810で求めた画素位置(Xdr,Ydr)に表示されている右眼用画像があるか否かを判断する。右眼用画像がある場合(ステップS820:YES)、図16のステップS830に進み、右眼用画像がない場合(ステップS820:NO)、ステップS790に戻る。   Next, in step S820, the control unit 15 determines whether there is a right-eye image displayed at the pixel position (Xdr, Ydr) obtained in step S810. If there is an image for the right eye (step S820: YES), the process proceeds to step S830 in FIG. 16, and if there is no image for the right eye (step S820: NO), the process returns to step S790.

図16のステップS830では、制御部15は、ステップS810で求めた画素位置(Xdr,Ydr)に表示されている右眼用画像に対応する3D画像ボタンが、実行中の機能に関連づけられた3D画像ボタンであるか否かを判断する。実行中の機能に関連づけられた3D画像ボタンである場合(ステップS830:YES)、つまり、現在実行中の機能に関連付けられた3D画像ボタンが再度、押圧された場合には、その入力操作を無視してステップS840に進む。   In step S830 in FIG. 16, the control unit 15 3D associates the 3D image button corresponding to the right-eye image displayed at the pixel position (Xdr, Ydr) obtained in step S810 with the function being executed. It is determined whether it is an image button. When the button is a 3D image button associated with the function being executed (step S830: YES), that is, when the 3D image button associated with the function currently being executed is pressed again, the input operation is ignored. Then, the process proceeds to step S840.

ステップS840では、制御部15は、現在実行中の機能の動作を開始してから動作時間T3が経過したか否かを判断する。動作時間T3が経過した場合(ステップS840:YES)、ステップS850に進み、制御部15は、現在実行中の機能の動作を終了する。動作時間T3が経過していない場合(ステップS840:NO)、図15のステップS790に戻る。   In step S840, the control unit 15 determines whether or not the operation time T3 has elapsed since the operation of the currently executed function was started. When the operation time T3 has elapsed (step S840: YES), the process proceeds to step S850, and the control unit 15 ends the operation of the function currently being executed. If the operation time T3 has not elapsed (step S840: NO), the process returns to step S790 in FIG.

ステップS830の判断において、実行中の機能に関連づけられた3D画像ボタンでない場合(ステップS830:NO)、つまり、現在実行中の機能に関連づけられた3D画像ボタン以外が操作された場合には、その3D画像ボタンに関連づけられた機能の実行を開始する必要があるので、ステップS850において、制御部15は、現在実行中の機能の動作を終了する。   If it is determined in step S830 that the button is not a 3D image button associated with the function being executed (step S830: NO), that is, if a button other than the 3D image button associated with the function currently being executed is operated, Since it is necessary to start execution of the function associated with the 3D image button, in step S850, the control unit 15 ends the operation of the function currently being executed.

ステップS860では、制御部15は、上記ステップS770において変更したボタンの画像の表示形態を元に戻すよう画像生成部12および表示部14を制御する。   In step S860, the control unit 15 controls the image generation unit 12 and the display unit 14 so that the button image display mode changed in step S770 is restored.

このように、機能が動作している間はボタンを2D表示するとともに、表示形態を変更することにより、ユーザに対して現在、機能が実行中であることを明確に認知させることができる。   As described above, while the function is operating, the button is displayed in 2D, and by changing the display form, the user can clearly recognize that the function is currently being executed.

ステップS870〜S900の処理は、前述の機能実行処理の第1例で説明した図13のフローチャートのステップS630〜S660の処理と同様であるため説明を省略する。N=Ngとなると(ステップS890:YES)、一連の機能実行処理を終了し、図6のステップS50に戻って繰り返して処理を行う。   The processing in steps S870 to S900 is the same as the processing in steps S630 to S660 in the flowchart of FIG. 13 described in the first example of the function execution processing described above, and thus description thereof is omitted. When N = Ng is satisfied (step S890: YES), the series of function execution processes is terminated, and the process returns to step S50 in FIG.

次に、図17を用いて、3D画像ボタンの表示変更処理の第3例について説明を行う。   Next, a third example of 3D image button display change processing will be described with reference to FIG.

一般的に、ユーザは、機能の動作の進行状況について、進行状況を示すグラフ等から知ることができる。しかしながら、このようなグラフ等を表示する方式は、限られた表示スペースしかもたない装置には適さない。   In general, the user can know the progress status of the function operation from a graph or the like indicating the progress status. However, such a method of displaying a graph or the like is not suitable for an apparatus having a limited display space.

そこで、3D画像ボタンの表示変更処理の第3例では、関連づけられた機能の進行状況に応じて3D画像ボタンの結像高さを変化させることにより、現在実行中の機能と操作ボタンとの関連づけ、および機能の進行状況の2つの情報を同時にユーザに認識させるようにする。   Therefore, in the third example of the display change process of the 3D image button, the imaging height of the 3D image button is changed in accordance with the progress of the associated function, thereby associating the currently executed function with the operation button. , And the progress information of the function are made to be recognized by the user at the same time.

図17では、図12、図14に比べて、時刻Taと時刻Tbとの間が便宜上、短く描かれているが、時刻Taから時刻Tbの間で右眼用画像と左眼用画像との間隔を時間T1ごとに8画素から0画素まで段階的に変化させることは同様である。   In FIG. 17, the interval between the time Ta and the time Tb is drawn shorter for the sake of convenience than in FIGS. 12 and 14, but the right-eye image and the left-eye image between the time Ta and the time Tb. It is the same that the interval is changed stepwise from 8 pixels to 0 pixels every time T1.

時刻Tbで機能の動作を開始すると、機能の進行状況をユーザに対して認知させるために、画像の間隔がNg=8になるまで、機能の動作時間T3をNg=8で割った時間T3a(=T3÷8)ごとに画像の間隔を1画素ずつ広くしながら表示を行う。このようにすれば、3D画像ボタンが機能の進行状況に応じて、押し込まれた状態から元に戻る様子が表現できる。   When the operation of the function is started at time Tb, in order to make the user recognize the progress of the function, the time T3a (the function operation time T3 divided by Ng = 8 until the image interval becomes Ng = 8. = Display is performed while increasing the image interval by one pixel every T3 ÷ 8). In this way, it is possible to express a state in which the 3D image button returns from the pressed state according to the progress of the function.

図18および図19は、図6のステップS90の機能実行処理の第3例の手順を示すフローチャートであり、上記の3D画像ボタンの表示変更処理の第3例はこの処理に含まれている。以下にその説明を行う。   18 and 19 are flowcharts showing the procedure of the third example of the function execution process of step S90 of FIG. 6, and the third example of the above-described 3D image button display change process is included in this process. This will be described below.

まず、図18のステップS910において、制御部15は、3D画像ボタンに関連づけられた機能の動作時間T3を取得する。例えば、操作された3D画像ボタンが図11の選択ボタン32Aである場合、制御部15は、選択ボタン32Aに関連づけられた画像ファイルの実行に必要な動作時間を画像ファイルから読み出す。   First, in step S910 of FIG. 18, the control unit 15 acquires the operation time T3 of the function associated with the 3D image button. For example, when the operated 3D image button is the selection button 32A of FIG. 11, the control unit 15 reads out the operation time necessary for executing the image file associated with the selection button 32A from the image file.

次いで、ステップS920において、制御部15は、ステップS910で読み出した動作時間T3の値を、右眼用画像と左眼用画像との間の画素数Ngで割り、結像高さの段階ごとの動作時間T3aを算出する。   Next, in step S920, the control unit 15 divides the value of the operation time T3 read out in step S910 by the number of pixels Ng between the right eye image and the left eye image, and sets the value for each stage of the imaging height. The operation time T3a is calculated.

ステップS930〜S970の処理は、前述の機能実行処理の第1例で説明した図13のフローチャートのステップS510〜S550の処理と同様であるため説明を省略する。   The processing in steps S930 to S970 is the same as the processing in steps S510 to S550 in the flowchart of FIG. 13 described in the first example of the function execution processing described above, and thus description thereof is omitted.

ステップS980では、制御部15は、3D画像ボタンに関連づけられた機能の動作を開始する。例えば、操作された3D画像ボタンが選択ボタン32Aであるとすると、制御部15は、選択ボタン32Aに関連づけられた画像ファイルの再生処理を再生部13により開始するよう制御する。   In step S980, the control unit 15 starts the operation of the function associated with the 3D image button. For example, if the operated 3D image button is the selection button 32A, the control unit 15 controls the reproduction unit 13 to start reproduction processing of the image file associated with the selection button 32A.

次いで、ステップS990において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS990:YES)、ステップS1000に進み、検出されていない場合(ステップS990:NO)、図19のステップS1040に進む。   Next, in step S990, the control unit 15 determines whether or not the position acquisition unit 11 has detected that the input surface 2a of the touch panel 2 has been pressed. If detected (step S990: YES), the process proceeds to step S1000. If not detected (step S990: NO), the process proceeds to step S1040 in FIG.

ステップS1000,S1010の処理は、前述の機能実行処理の第2例で説明した図15のフローチャートのステップS800,S810の処理と同様である。   The processing in steps S1000 and S1010 is the same as the processing in steps S800 and S810 in the flowchart of FIG. 15 described in the second example of the function execution processing described above.

次いで、ステップS1020において、制御部15は、ステップS1010で求めた画素位置(Xdr,Ydr)に表示されている右眼用画像があるか否かを判断する。右眼用画像がある場合(ステップS1020:YES)、図19のステップS1030に進み、右眼用画像がない場合(ステップS1020:NO)、図19のステップS1040に進む。   Next, in step S1020, the control unit 15 determines whether there is a right-eye image displayed at the pixel position (Xdr, Ydr) obtained in step S1010. If there is an image for the right eye (step S1020: YES), the process proceeds to step S1030 in FIG. 19, and if there is no image for the right eye (step S1020: NO), the process proceeds to step S1040 in FIG.

図19のステップS1030では、制御部15は、ステップS1010で求めた画素位置(Xdr,Ydr)に表示されている右眼用画像に対応する3D画像ボタンが、実行中の機能に関連づけられた3D画像ボタンであるか否かを判断する。実行中の機能に関連づけられた3D画像ボタンである場合(ステップS1030:YES)、つまり、現在実行中の機能に関連付けられた3D画像ボタンが再度、押圧された場合には、その入力操作を無視してステップS1040に進む。   In step S1030 of FIG. 19, the control unit 15 3D associates the 3D image button corresponding to the right-eye image displayed at the pixel position (Xdr, Ydr) obtained in step S1010 with the function being executed. It is determined whether it is an image button. If the button is a 3D image button associated with the function being executed (step S1030: YES), that is, if the 3D image button associated with the function currently being executed is pressed again, the input operation is ignored. Then, the process proceeds to step S1040.

ステップS1040では、制御部15は、現在のNの値になってから、結像高さの段階ごとの動作時間T3aが経過したか否かを判断する。時間T3aが経過した場合(ステップS1040:YES)、ステップS1050に進み、時間T3aが経過していない場合(ステップS1040:NO)、図18のステップS990に戻る。   In step S1040, the control unit 15 determines whether or not the operation time T3a for each stage of the imaging height has elapsed since the current value of N has been reached. If the time T3a has elapsed (step S1040: YES), the process proceeds to step S1050. If the time T3a has not elapsed (step S1040: NO), the process returns to step S990 in FIG.

ステップS1050では、制御部15は、Nの値を1だけインクリメントする。次いで、ステップS1060において、制御部15は、画像生成部12により、右眼用画像と左眼用画像との間隔をステップS630でインクリメントしたNの画素数に変更し、変更後の右眼用画像と左眼用画像とを表示部14に表示するよう制御する。   In step S1050, the control unit 15 increments the value of N by 1. Next, in step S1060, the control unit 15 causes the image generation unit 12 to change the interval between the right-eye image and the left-eye image to the number of N pixels incremented in step S630, and the changed right-eye image. And the image for the left eye are controlled to be displayed on the display unit 14.

このように、時間T3aごとに右眼用画像と左眼用画像との間隔を1画素ずつ広げることで、3D画像ボタンが機能の進行状況に応じて、押し込まれた状態から元に戻る様子が表現できる。   In this way, by increasing the interval between the right eye image and the left eye image by one pixel every time T3a, the 3D image button returns from the pressed state to the original state according to the progress of the function. Can express.

ステップS1070では、制御部15は、Nの値が画素数Ngであるか否かを判断する。N=Ngでない場合(ステップS1070:NO)、図18のステップS990に戻り、N=Ngである場合(ステップS1070:YES)、一連の機能実行処理を終了し、図6のステップS50に戻って繰り返して処理を行う。   In step S1070, the control unit 15 determines whether or not the value of N is the number of pixels Ng. If N = Ng is not satisfied (step S1070: NO), the process returns to step S990 in FIG. 18, and if N = Ng (step S1070: YES), the series of function execution processes is terminated, and the process returns to step S50 in FIG. Repeat the process.

ステップS1030の判断において、実行中の機能に関連づけられた3D画像ボタンでない場合(ステップS1030:NO)、つまり、現在実行中の機能に関連づけられた3D画像ボタン以外が操作された場合には、その3D画像ボタンに関連づけられた機能の実行を開始する必要があるので、ステップS1090において、制御部15は、現在実行中の機能の動作を終了する。   If it is determined in step S1030 that the button is not a 3D image button associated with the function being executed (step S1030: NO), that is, if a button other than the 3D image button associated with the function currently being executed is operated, Since it is necessary to start the execution of the function associated with the 3D image button, in step S1090, the control unit 15 ends the operation of the function currently being executed.

その後のステップS1100〜S1130の処理は、前述の機能実行処理の第1例で説明した図13のフローチャートのステップS630〜S660の処理と同様であるため説明を省略する。   The subsequent processing in steps S1100 to S1130 is the same as the processing in steps S630 to S660 in the flowchart of FIG. 13 described in the first example of the function execution processing described above, and thus description thereof is omitted.

ここで、上記で求めた結像高さと、表示画面の画素位置とタッチパネル2の入力位置との関係を用いて、タッチパネル2の押圧位置への3D画像の生成が可能となる。最後に、図20および図21を用いてこの方法について説明を行う。   Here, it is possible to generate a 3D image at the pressed position of the touch panel 2 using the relationship between the imaging height obtained above and the pixel position of the display screen and the input position of the touch panel 2. Finally, this method will be described with reference to FIGS.

図20は、ユーザがタッチペン3により、表示画面上に曲線を描いている様子を示したものである。このような場合、あたかもタッチパネル2の入力面2aにタッチペン3にて曲線を描いているように見えるのが望ましい。このためには、右眼用画像41Aと左眼用画像41Bとを、それら2つの画像による結像画像の軌跡41Cと、タッチペン3の軌跡が一致するように表示すればよい。   FIG. 20 shows how the user draws a curve on the display screen with the touch pen 3. In such a case, it is desirable to appear as if a curve is drawn with the touch pen 3 on the input surface 2 a of the touch panel 2. For this purpose, the image for right eye 41A and the image for left eye 41B may be displayed so that the locus 41C of the image formed by these two images coincides with the locus of the touch pen 3.

図21は、3D画像生成処理の手順を示すフローチャートである。   FIG. 21 is a flowchart illustrating a procedure of 3D image generation processing.

まず、ステップS1210において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS1210:YES)、ステップS1220に進み、検出されていない場合(ステップS1210:NO)、位置取得部11で入力面2aの押圧が検出されるまでステップS1210を繰り返す。   First, in step S1210, the control unit 15 determines whether or not the position acquisition unit 11 has detected that the input surface 2a of the touch panel 2 has been pressed. If detected (step S1210: YES), the process proceeds to step S1220. If not detected (step S1210: NO), step S1210 is repeated until the position acquisition unit 11 detects the pressing of the input surface 2a.

ステップS1220では、制御部15は、タッチパネル2の入力面2aが押圧された入力位置(Xi,Yi)を位置取得部11から取得する。   In step S <b> 1220, the control unit 15 acquires the input position (Xi, Yi) where the input surface 2 a of the touch panel 2 is pressed from the position acquisition unit 11.

次いで、ステップS1230において、制御部15は、前述の(式29)と(式30)とにより、入力位置(Xi,Yi)から右眼用画像の画素位置(Xdr,Ydr)を求める。   Next, in step S1230, the control unit 15 obtains the pixel position (Xdr, Ydr) of the right-eye image from the input position (Xi, Yi) using the above-described (Expression 29) and (Expression 30).

次いで、ステップS1240において、制御部15は、右眼用画像の画素位置(Xdr,Ydr)から、3D画像結像高さ算出処理(図6のステップS10)で求めた画素数Ngだけ右側に離れた左眼用画像の画素位置(Xdl,Ydl)を算出する。   Next, in step S1240, the control unit 15 moves away from the pixel position (Xdr, Ydr) of the right-eye image to the right by the number of pixels Ng obtained in the 3D image imaging height calculation process (step S10 in FIG. 6). The pixel position (Xdl, Ydl) of the left-eye image is calculated.

次いで、ステップS1250において、制御部15は、右眼用画像とその周辺の画素とが異なって見えるようにするために、画像生成部12により、画素位置(Xdr,Ydr)を中心に近傍の画素の表示形態を変更した右眼用画像を生成し、これを表示部14により表示するよう制御する。   Next, in step S1250, the control unit 15 causes the image generation unit 12 to display neighboring pixels around the pixel position (Xdr, Ydr) so that the right-eye image and the surrounding pixels can be seen differently. The right-eye image in which the display form is changed is generated, and the display unit 14 is controlled to display it.

次いで、ステップS1260において、制御部15は、ステップS1250と同様に、表示部14において画素位置(Xdl,Ydl)を中心に左眼用画像を生成して表示するよう画像生成部12および表示部14を制御する。   Next, in step S1260, similarly to step S1250, the control unit 15 generates and displays an image for the left eye around the pixel position (Xdl, Ydl) in the display unit 14 so as to display the image. To control.

このようにして、タッチパネル2の入力面2aの入力位置に対応する位置に左眼用画像および右眼用画像が表示される。   In this way, the left-eye image and the right-eye image are displayed at the position corresponding to the input position on the input surface 2a of the touch panel 2.

そして、ステップS1270において、制御部15は、3D画像生成の機能の終了がユーザによって指示されたか否かを判断し、終了が指示された場合(ステップS1270:YES)、処理を終了する。終了が指示されていない場合(ステップS1270:NO)、ステップS1210に戻り、以降の処理を繰り返す。   In step S1270, the control unit 15 determines whether or not the user has instructed the end of the 3D image generation function. If the end has been instructed (step S1270: YES), the process ends. If termination is not instructed (step S1270: NO), the process returns to step S1210 and the subsequent processing is repeated.

以上説明したように、第1の実施の形態によれば、両眼視差による3D画像をユーザに視認させることが可能な表示部14にタッチパネル2を組み合わせ、ユーザが視認する3D画像に対して行う操作をタッチパネル2で検出するため、ユーザはタッチパネル2に対して直接的に操作をすることで、物理的に操作した感触を得ることができ、3D画像への操作に対する違和感が軽減される。また、両眼視差による3D画像を表示可能なディスプレイは薄型のLCD等で構成可能なため、画像表示装置の大型化を招くことなく、違和感のない操作性をユーザに提供できる。   As described above, according to the first embodiment, the touch panel 2 is combined with the display unit 14 that allows a user to visually recognize a 3D image with binocular parallax, and the 3D image that the user visually recognizes is combined. Since the operation is detected by the touch panel 2, the user can obtain a physically operated feeling by directly operating the touch panel 2, and the uncomfortable feeling for the operation on the 3D image is reduced. In addition, since a display capable of displaying a 3D image by binocular parallax can be configured by a thin LCD or the like, it is possible to provide a user with a sense of incongruity without increasing the size of the image display device.

なお、上記第1の実施の形態において、タッチパネル2の方式を抵抗膜式として説明したが、これに限定されるものではなく、静電容量方式、超音波表面弾性波方式、音響パルス方式、振動検出方式、赤外線遮光方式、電磁誘導方式、静電センサ方式等の方式のものを使用してもよい。   In the first embodiment, the touch panel 2 method has been described as a resistive film type. However, the method is not limited to this, and the capacitance method, the ultrasonic surface acoustic wave method, the acoustic pulse method, and the vibration are not limited thereto. A detection system, an infrared light shielding system, an electromagnetic induction system, an electrostatic sensor system, or the like may be used.

また、LCD1の表示画面の表面1aとタッチパネル2との間の間隔を無視して説明を行ったが、表示画面の表面1aとタッチパネル2との間隔が無視できない場合や、3D画像の結像高さを高くするために表示画面の表面1aとタッチパネル2との間に透過性の高い物質を挟む場合などには、この間隔もタッチパネル2の厚みに含めて考えればよい。   Further, although the description has been made ignoring the interval between the surface 1a of the display screen of the LCD 1 and the touch panel 2, the case where the interval between the surface 1a of the display screen and the touch panel 2 cannot be ignored, or the imaging height of the 3D image. In order to increase the thickness, when a highly permeable substance is sandwiched between the surface 1 a of the display screen and the touch panel 2, this distance may be included in the thickness of the touch panel 2.

また、ROM16に格納するパラメータを、タッチパネルの厚みT、左眼ELと右眼ERの間隔D1、眼からタッチパネル2までの距離L1、結像高さL2、画素間ピッチDpとして説明を行ったが、これに限定されるものではなく、左眼用画像と右眼用画像との間隔の画素数Ngが算出可能な情報であればよい。左眼用画像と右眼用画像との間隔の画素数Ngを予め算出して格納してもよい。   Also, the parameters stored in the ROM 16 are described as the touch panel thickness T, the left eye EL and right eye ER distance D1, the distance L1 from the eye to the touch panel 2, the imaging height L2, and the inter-pixel pitch Dp. However, the present invention is not limited to this, and any information that can calculate the number of pixels Ng in the interval between the left-eye image and the right-eye image may be used. The number of pixels Ng between the left-eye image and the right-eye image may be calculated and stored in advance.

さらに、4対の右眼用画像と左眼用画像を用いて位置補正処理の説明を行ったが、これに限定されるものではなく、2対以上であればいくつであってもよい。   Furthermore, the position correction processing has been described using four pairs of right-eye images and left-eye images. However, the present invention is not limited to this, and any number of pairs may be used as long as there are two or more pairs.

(第2の実施の形態)
第1の実施の形態で説明したように、タッチパネル2の入力面2aの近傍に3D画像を結像させることが可能な右眼用画像と左眼用画像との間の画素数Ngは、装置の使用方法に依存して決定される。
(Second Embodiment)
As described in the first embodiment, the number of pixels Ng between the right-eye image and the left-eye image capable of forming a 3D image in the vicinity of the input surface 2a of the touch panel 2 is It depends on how you use it.

このため、使用方法がユーザごとに全く異なる装置の場合は、画素数Ngを固定値とすることはできない。例えば、壁掛け式の装置の場合は、ユーザは腕を伸ばして使用するかも知れないし、腕を畳んで使用するかも知れない。   For this reason, when the usage method is completely different for each user, the number of pixels Ng cannot be a fixed value. For example, in the case of a wall-mounted device, the user may use the arm extended, or may use the arm folded.

そこで、第2の実施の形態では、ユーザの使用方法に応じて、3D画像をユーザに視認させるための右眼用画像と左眼用画像との間の画素数Ngを決定する。   Therefore, in the second embodiment, the number of pixels Ng between the right-eye image and the left-eye image for allowing the user to visually recognize the 3D image is determined according to the usage method of the user.

図22は、第2の実施の形態において上記画素数Ngを決定する方法を説明するための図である。図22において、LCD1の表示画面には、左眼用画像GL3と右眼用画像GR3、左眼用画像GL4と右眼用画像GR4、左眼用画像GLと右眼用画像GR5、の3対の調整用3D表示用画像が表示されている。   FIG. 22 is a diagram for explaining a method of determining the number of pixels Ng in the second embodiment. In FIG. 22, the display screen of the LCD 1 includes three pairs of a left-eye image GL3 and a right-eye image GR3, a left-eye image GL4 and a right-eye image GR4, and a left-eye image GL and a right-eye image GR5. 3D display images for adjustment are displayed.

左眼用画像GL3と右眼用画像GR3とにより結像画像CG3が生成され、左眼用画像GL4と右眼用画像GR4とにより結像画像CG4が生成され、左眼用画像GLと右眼用画像GR5とにより結像画像CG5が生成される。3つの結像画像CG3,CG4,CG5は互いに結像高さが異なる。   An image CG3 is generated from the left eye image GL3 and the right eye image GR3, and an image CG4 is generated from the left eye image GL4 and the right eye image GR4. The left eye image GL and the right eye A formed image CG5 is generated by the use image GR5. The three imaging images CG3, CG4, and CG5 have different imaging heights.

また、LCD1の表示画面には、ユーザに対して結像画像GC1〜GC3の中から1つを選択させるためのメッセージ43が表示されている。   In addition, a message 43 is displayed on the display screen of the LCD 1 for causing the user to select one of the imaged images GC1 to GC3.

このメッセージ43により、タッチパネル2の入力面2aに最も近い結像画像をユーザに選択させ、ユーザが選択した結像画像に対応する左眼用画像と右眼用画像との間隔の画素数を、最適な画素数Ngとして決定する。   This message 43 allows the user to select the image formed closest to the input surface 2a of the touch panel 2, and sets the number of pixels in the interval between the left eye image and the right eye image corresponding to the image selected by the user, The optimum pixel number Ng is determined.

第2の実施の形態に係る画像表示装置は、図5に示した第1の実施の形態の画像表示装置10と同様の構成であるため、第2の実施の形態においても図5を用いるが、第1の実施の形態とはROM16に記憶されている情報が異なる。   Since the image display apparatus according to the second embodiment has the same configuration as that of the image display apparatus 10 according to the first embodiment shown in FIG. 5, FIG. 5 is also used in the second embodiment. The information stored in the ROM 16 is different from that of the first embodiment.

第1の実施の形態では、ROM16に、3D画像の結像高さを決定するための各パラメータ(タッチパネルの厚みT、左眼と右眼との間隔D1、眼からタッチパネルまでの距離L1、結像高さL2、画素間ピッチDp)を記憶していたが、第2の実施の形態では、図22で説明した複数の調整用3D表示用画像に関する情報を記憶しており、それぞれの調整用3D表示用画像を構成する左眼用画像および右眼用画像の大きさ、色、表示位置、画像間の画素数などの情報を記憶している。   In the first embodiment, the ROM 16 determines the parameters for determining the imaging height of the 3D image (the touch panel thickness T, the distance D1 between the left eye and the right eye, the distance L1 from the eye to the touch panel, the connection The image height L2 and the inter-pixel pitch Dp) are stored, but in the second embodiment, information related to the plurality of 3D display images for adjustment described with reference to FIG. 22 is stored. Information such as the size, color, display position, and number of pixels between images of the left-eye image and the right-eye image constituting the 3D display image is stored.

次に、第2の実施の形態における画像表示装置の動作について、図23に示すフローチャートを参照して説明する。   Next, the operation of the image display apparatus according to the second embodiment will be described with reference to the flowchart shown in FIG.

まず、ステップS1310において、制御部15は、3D画像結像高さを決定済みか否かを判断する。3D画像結像高さが決定していない場合(ステップS1310:NO)、ステップS1320において、制御部15は、左眼用画像と右眼用画像の間の画素数Ngを算出するための3D画像結像高さ決定処理を実施する。3D画像結像高さ決定処理については後述する。3D画像結像高さがすでに決定している場合(ステップS1310:YES)、ステップS1330に進む。   First, in step S1310, the control unit 15 determines whether or not the 3D image formation height has been determined. When the 3D image formation height has not been determined (step S1310: NO), in step S1320, the control unit 15 calculates the number of pixels Ng between the left eye image and the right eye image. An imaging height determination process is performed. The 3D image formation height determination process will be described later. When the 3D image formation height has already been determined (step S1310: YES), the process proceeds to step S1330.

ステップS1330では、制御部15は、位置補正処理が実施されたか否かを判断し、位置補正処理が実施されていない場合(ステップS1330:NO)、制御部15は、位置補正処理を行う。位置補正処理は、第1の実施の形態で説明した図6のステップS30における位置補正処理と同様であるため、説明を省略する。位置補正処理が実施済みである場合(ステップS1330:YES)、ステップS1350に進む。   In step S1330, the control unit 15 determines whether or not position correction processing has been performed. If the position correction processing has not been performed (step S1330: NO), the control unit 15 performs position correction processing. Since the position correction process is the same as the position correction process in step S30 of FIG. 6 described in the first embodiment, the description thereof is omitted. If the position correction process has been performed (step S1330: YES), the process proceeds to step S1350.

ステップS1350では、制御部15は、ステップS1320の3D画像結像高さ決定処理で決定した画素数Ngに応じた所定の左眼用画像と右眼用画像とからなる3D表示用画像を画像生成部12で生成し、生成した3D表示用画像を表示部14の表示画面に表示するよう制御する。   In step S1350, the control unit 15 generates a 3D display image including a predetermined left-eye image and right-eye image corresponding to the number of pixels Ng determined in the 3D image formation height determination process in step S1320. Control is performed so that the generated 3D display image is displayed on the display screen of the display unit 14.

以降のステップS1360〜S1400の処理は、第1の実施の形態で説明した図6のフローチャートのステップS50〜S90の処理と同様であるため説明を省略する。   The subsequent processing in steps S1360 to S1400 is the same as the processing in steps S50 to S90 in the flowchart of FIG. 6 described in the first embodiment, and thus description thereof is omitted.

次に、図23のステップS1320の3D画像結像高さ決定処理について、図24のフローチャートを参照して説明する。   Next, the 3D image formation height determination process in step S1320 of FIG. 23 will be described with reference to the flowchart of FIG.

まず、ステップS1410において、制御部15は、ROM16に記憶されている複数の調整用3D表示用画像に関する情報を読み出す。   First, in step S <b> 1410, the control unit 15 reads information regarding a plurality of adjustment 3D display images stored in the ROM 16.

次いで、ステップS1420において、制御部15は、ステップS1410で読み出した情報に基づいて、画像生成部12にて結像高さの互いに異なる複数の調整用3D表示用画像を生成し、これらを表示部14により表示するよう制御する。   Next, in step S1420, the control unit 15 generates a plurality of adjustment 3D display images having different imaging heights in the image generation unit 12 based on the information read in step S1410, and displays these images on the display unit. 14 to control display.

次いで、ステップS1430において、制御部15は、各調整用3D表示用画像による結像画像からいずれかをユーザに選択させるためのメッセージ43を表示するよう表示部14を制御する。   Next, in step S1430, the control unit 15 controls the display unit 14 to display a message 43 for allowing the user to select one of the images formed by the adjustment 3D display images.

ステップS1440〜S1460の処理は、第1の実施の形態で説明した図6のフローチャートのステップS50〜S70の処理と同様であるため説明を省略する。   The processing in steps S1440 to S1460 is the same as the processing in steps S50 to S70 in the flowchart of FIG. 6 described in the first embodiment, and thus description thereof is omitted.

次いで、ステップS1470において、制御部15は、ステップS1460で算出した表示画面の画素位置(Xd,Yd)に調整用3D表示用画像があるか否かを判断する。調整用3D表示用画像がない場合(ステップS1470:NO)、ステップS1440に戻る。   Next, in step S1470, the control unit 15 determines whether there is an adjustment 3D display image at the pixel position (Xd, Yd) of the display screen calculated in step S1460. If there is no adjustment 3D display image (step S1470: NO), the process returns to step S1440.

調整用3D表示用画像がある場合(ステップS1470:YES)、制御部15は、その調整用3D表示用画像における左眼用画像と右眼用画像との間の画素数を、操作ボタン等の3D画像表示する際に用いる左眼用画像と右眼用画像との間の画素数Ngの値として決定する。   When there is an adjustment 3D display image (step S1470: YES), the control unit 15 sets the number of pixels between the left eye image and the right eye image in the adjustment 3D display image using an operation button or the like. It is determined as the value of the number of pixels Ng between the left-eye image and the right-eye image used when displaying a 3D image.

以上説明したように、第2の実施の形態によれば、第1の実施の形態と同様の効果に加えて、ユーザの使用方法に応じた3D画像の表示を行うことができ、さまざまな使用方法に対応できるという効果が得られる。   As described above, according to the second embodiment, in addition to the same effects as those of the first embodiment, a 3D image can be displayed according to the user's usage method, and various uses can be performed. The effect that it can respond to a method is acquired.

なお、図22では、3つ(3対)の調整用3D表示用画像を表示する例を示したが、調整用3D表示用画像の数はこれに限らない。   Although FIG. 22 shows an example in which three (three pairs) adjustment 3D display images are displayed, the number of adjustment 3D display images is not limited to this.

(第3の実施の形態)
第3の実施の形態においても、第2の実施の形態と同様に、ユーザの使用方法に応じて、3D画像をユーザに視認させるための右眼用画像と左眼用画像との間の画素数Ngを決定する。
(Third embodiment)
Also in the third embodiment, as in the second embodiment, pixels between the right-eye image and the left-eye image for allowing the user to visually recognize the 3D image according to the usage method of the user. The number Ng is determined.

図25は、第3の実施の形態において、3D画像をユーザに視認させるための右眼用画像と左眼用画像との間の画素数Ngを決定するために必要な入力位置を取得する方法を説明するための図である。   FIG. 25 shows a method for acquiring an input position necessary for determining the number of pixels Ng between the right-eye image and the left-eye image for allowing the user to visually recognize the 3D image in the third embodiment. It is a figure for demonstrating.

図25に示すように、LCD1の表示画面上の右眼用画素に表示点Pd3を表示する。   As shown in FIG. 25, the display point Pd3 is displayed on the pixel for the right eye on the display screen of the LCD1.

この表示点Pd3をユーザにタッチペン3を使用して押圧するように指示し、タッチパネル2の入力面2a上のユーザの右眼ERによる入力点PirのX軸方向の入力位置Xirを取得する。このとき、ユーザの左眼ELからは表示点Pd3は見えないので、右眼ERからの入力位置Xirを取得することができる。 The user is instructed to press the display point Pd3 by using the touch pen 3, and the input position Xir in the X-axis direction of the input point Pir by the user's right eye ER on the input surface 2a of the touch panel 2 is acquired. At this time, since the display point Pd3 cannot be seen from the user's left eye EL, the input position Xir from the right eye ER can be acquired.

同様に、右眼ERの入力位置の取得時と略同じ位置にLCD1の左眼用画素にて表示点Pd3を表示し、この表示点Pd3をユーザに押圧させることにより、ユーザの左眼ELによる入力点PilのX軸方向の入力位置Xilを取得する。この時、ユーザの右眼ERからは表示点Pd3は見えないので、左眼ELからの入力位置Xilを取得することができる。   Similarly, the display point Pd3 is displayed by the pixel for the left eye of the LCD 1 at substantially the same position as when the input position of the right eye ER is acquired, and the display point Pd3 is pressed by the user so that the user's left eye EL An input position Xil in the X-axis direction of the input point Pil is acquired. At this time, since the display point Pd3 cannot be seen from the user's right eye ER, the input position Xil from the left eye EL can be acquired.

タッチパネル2の厚みをT、タッチパネル2の入力面2aから眼までの距離をL1、ユーザの右眼ERと左眼ELとの間隔をD1、入力点Pilと入力点Pirとの間隔をD3とすると、「(左眼EL)−(表示点Pd3)−(右眼ER)のなす三角形」と、(入力点Pil)−(表示点Pd3)−(入力点Pir)のなす三角形」とは相似の関係にあるので、以下の(式31)が成立する。   When the thickness of the touch panel 2 is T, the distance from the input surface 2a of the touch panel 2 to the eye is L1, the distance between the user's right eye ER and the left eye EL is D1, and the distance between the input point Pil and the input point Pir is D3. , “The triangle formed by (left eye EL) − (display point Pd3) − (right eye ER)” and “the triangle formed by (input point Pil) − (display point Pd3) − (input point Pir)” are similar. Since there is a relationship, the following (formula 31) is established.

D1:D3 = (L1+T):T …(式31)
(式31)より、ユーザの右眼ERと左眼ELとの間隔D1は、
D1= D3×(L1+T)÷T …(式32)
と求まる。
D1: D3 = (L1 + T): T (Formula 31)
From (Equation 31), the distance D1 between the user's right eye ER and left eye EL is
D1 = D3 × (L1 + T) ÷ T (Expression 32)
It is obtained.

ここで、図26を用いて、上記の入力位置の取得時の問題点について説明を行う。   Here, with reference to FIG. 26, the problem at the time of obtaining the input position will be described.

図26(a)に示すように、先に左眼ELからのタッチパネル2上の入力位置を取得する場合、ユーザがタッチペン3を右手に持っていると、次の右眼ERからの入力位置の取得時において、LCD1の表示画面上の表示点がタッチペン3に隠れてしまうことになる。このため、ユーザは表示点を見失うことになり、タッチペン3を一旦、大きく移動しなければならない。しかし、図26(b)に示すように、右眼ERからの入力位置の取得を先に行えば、次の左眼ELからの入力位置の取得時にも表示点を見失うことはない。   As shown in FIG. 26 (a), when the input position on the touch panel 2 from the left eye EL is first acquired, if the user holds the touch pen 3 in the right hand, the input position from the next right eye ER is determined. At the time of acquisition, the display point on the display screen of the LCD 1 is hidden by the touch pen 3. For this reason, the user loses sight of the display point and has to move the touch pen 3 once largely. However, as shown in FIG. 26B, if the input position is acquired from the right eye ER first, the display point is not lost even when the input position is acquired from the next left eye EL.

よって、ユーザの利き手側の眼から先に入力位置の取得を行うようにすることが望ましい。例えば、右利きが大半を占める日本人の場合、右眼ERから先に入力位置を取得するように構成すればよく、また、装置のコンフィグレーション機能の1つとして、ユーザの利き手を入力させるように構成してもよい。   Therefore, it is desirable to acquire the input position first from the eyes of the user's dominant hand. For example, in the case of a Japanese who is mostly right-handed, it may be configured to acquire the input position first from the right eye ER, and the user's dominant hand is input as one of the configuration functions of the device. You may comprise.

図27は、図25で取得した入力位置を用いた、画素数Ngの算出方法の説明図である。図27に示すように、LCD1の表示画面上に右眼用画像Pd1と左眼用画像Pd2とを距離D2の間隔で表示した場合の、タッチパネル2の入力面2aから結像点Pcまでの高さをL3とする。   FIG. 27 is an explanatory diagram of a method of calculating the number of pixels Ng using the input position acquired in FIG. As shown in FIG. 27, when the right-eye image Pd1 and the left-eye image Pd2 are displayed on the display screen of the LCD 1 at an interval of the distance D2, the height from the input surface 2a of the touch panel 2 to the imaging point Pc is high. Let L3.

この場合、「(左眼EL)−(結像点Pc)−(右眼ER)のなす三角形」と「(表示点Pd2)−(結像点Pc)−(表示点Pd1)のなす三角形」とは相似の関係にあるので、以下の(式33)が成り立つ。   In this case, “a triangle formed by (left eye EL) − (image point Pc) − (right eye ER)” and “a triangle formed by (display point Pd2) − (image point Pc) − (display point Pd1)”. Therefore, the following (Expression 33) is established.

D1:D2 = (L1−L3):(T+L3) …(式33)
(式33)より、右眼用画像Pd1と左眼用画像Pd2との間の距離D2は、
D2 ={D1×(T+L3)}÷(L1−L3) …(式34)
と求まる。
D1: D2 = (L1-L3): (T + L3) (Expression 33)
From (Expression 33), the distance D2 between the right-eye image Pd1 and the left-eye image Pd2 is
D2 = {D1 × (T + L3)} ÷ (L1−L3) (Expression 34)
It is obtained.

(式32)を(式34)に代入して、
D2 = {D3×(L1+T)×(T+L3)}÷{(L1−L3)×T}
= {D3×(1+T÷L1)×(T+L3)}÷{(1−L3÷L1)×T}
…(式35)
ここで、タッチパネル2の厚みTとタッチパネル2の入力面2aから結像点Pcまでの高さL3は、タッチパネル2の入力面2aから眼までの距離L1に比べて非常に小さくなるので、(T÷L1)≪1,(L3÷L1)≪1とすることができる。
Substituting (Equation 32) into (Equation 34),
D2 = {D3 × (L1 + T) × (T + L3)} ÷ {(L1-L3) × T}
= {D3 × (1 + T ÷ L1) × (T + L3)} ÷ {(1−L3 ÷ L1) × T}
... (Formula 35)
Here, since the thickness T of the touch panel 2 and the height L3 from the input surface 2a of the touch panel 2 to the imaging point Pc are much smaller than the distance L1 from the input surface 2a of the touch panel 2 to the eyes, (T ÷ L1) << 1, (L3 ÷ L1) << 1.

よって、式35より、表示点Pd1と表示点Pd2との間の距離D2は、以下の(式36)で与えられる。   Therefore, from Expression 35, the distance D2 between the display point Pd1 and the display point Pd2 is given by the following (Expression 36).

D2= D3×(T+L3)÷ T …(式36)
以上で説明したように、右眼ERによるX軸方向の入力位置Xirと左眼ELによるX軸方向の入力位置Xilとの距離D3がわかれば、タッチパネル2の入力面2aからL3の距離に結像するための右眼用画像である表示点Pd1と左眼用画像である表示点Pd2の間隔D2を算出することができる。
D2 = D3 × (T + L3) ÷ T (Expression 36)
As described above, if the distance D3 between the input position Xir in the X-axis direction by the right eye ER and the input position Xil in the X-axis direction by the left eye EL is known, the distance from the input surface 2a of the touch panel 2 to L3 is obtained. An interval D2 between the display point Pd1 that is an image for the right eye for imaging and the display point Pd2 that is an image for the left eye can be calculated.

タッチパネル2の入力面2aに画像を結像させるためには、(式36)においてL3=0とすればよい。つまり、それぞれの画像の中心が距離D3の間隔となるように右眼用画像と左眼用画像の間の画素数Ngを決定すればよい。   In order to form an image on the input surface 2a of the touch panel 2, L3 = 0 may be set in (Expression 36). That is, the number of pixels Ng between the right-eye image and the left-eye image may be determined so that the center of each image is the distance D3.

この距離D3は、先に説明したように、右眼ERによるX軸方向の入力位置Xirと左眼ELによるX軸方向の入力位置Xilとの間の距離である。そこで、次に、入力位置Xirと入力位置Xilとから、右眼用画像と左眼用画像の間の画素数Ngを求める方法について説明する。   As described above, the distance D3 is the distance between the input position Xir in the X-axis direction by the right eye ER and the input position Xil in the X-axis direction by the left eye EL. Therefore, a method for determining the number of pixels Ng between the right eye image and the left eye image from the input position Xir and the input position Xil will be described next.

距離D3は、入力位置Xirと入力位置Xilとの差分と、単位長さあたりにあるタッチパネル2の入力位置数とから求めることができる。また、画素数Ngは、距離D3と、単位長さあたりにあるLCD1の画素数とから求めることができる。すなわち、画素数Ngは、入力位置Xirと入力位置Xilとの差分と、LCD1の1画素あたりのタッチパネル2の入力位置数から求めることができる。   The distance D3 can be obtained from the difference between the input position Xir and the input position Xil and the number of input positions of the touch panel 2 per unit length. The number of pixels Ng can be obtained from the distance D3 and the number of pixels of the LCD 1 per unit length. That is, the number of pixels Ng can be obtained from the difference between the input position Xir and the input position Xil and the number of input positions of the touch panel 2 per pixel of the LCD 1.

以下に、図28を用いて、LCD1の1画素あたりのタッチパネル2の入力位置数の算出方法について説明する。図28は、LCD1の画素位置とタッチパネル2の入力位置との関係について示す図である。   A method for calculating the number of input positions of the touch panel 2 per pixel of the LCD 1 will be described below with reference to FIG. FIG. 28 is a diagram illustrating the relationship between the pixel position of the LCD 1 and the input position of the touch panel 2.

図28に示すように、タッチパネル2の使用可能な領域である有効使用領域のX軸方向の長さをLpx、X軸方向における有効使用領域内にあるタッチパネル2上の入力位置の数をNpaxとする。   As shown in FIG. 28, the length in the X-axis direction of the effective use area that is the usable area of the touch panel 2 is Lpx, and the number of input positions on the touch panel 2 in the effective use area in the X-axis direction is Npax. To do.

また、LCD1の表示可能な領域である有効表示領域のX軸方向の長さをLdx、画素数をNdx、X軸方向における有効表示領域内にあるタッチパネル2上の入力位置の数をNpxとする。   In addition, the length in the X-axis direction of the effective display area that is a displayable area of the LCD 1 is Ldx, the number of pixels is Ndx, and the number of input positions on the touch panel 2 in the effective display area in the X-axis direction is Npx. .

LCD1の表示画面はタッチパネル2によってすべて覆われていなければならないので、外形の誤差や取り付け誤差を考慮し、Lpx>Ldxの関係となっている。   Since the display screen of the LCD 1 must be entirely covered by the touch panel 2, the relationship of Lpx> Ldx is established in consideration of the outer shape error and the mounting error.

第1の実施の形態で説明した通り、LCD2の画素は、X軸方向、Y軸方向ともに均一の間隔で配置されており、また、タッチパネル2を押圧した位置と、その結果として得られる入力位置との関係は、X軸方向、Y軸方向ともに直線性を有する。   As described in the first embodiment, the pixels of the LCD 2 are arranged at uniform intervals in both the X-axis direction and the Y-axis direction, and the position where the touch panel 2 is pressed and the input position obtained as a result. Is linear in both the X-axis direction and the Y-axis direction.

よって、LCD1の有効表示領域内にあるタッチパネル2の入力位置の数Npxは、以下の(式37)で求められる。   Therefore, the number Npx of input positions of the touch panel 2 in the effective display area of the LCD 1 can be obtained by the following (Equation 37).

Npx = Npax × Ldx ÷ Lpx …(式37)
LCD1の有効表示領域のX軸方向の長さLdxにある画素数はNdxであり、タッチパネル2の入力位置数はNpxであるので、1画素あたりの入力位置数をNuとすると、
Nu = Npx ÷ Ndx …(式38)
となる。
Npx = Npax × Ldx ÷ Lpx (Formula 37)
Since the number of pixels in the length Ldx in the X-axis direction of the effective display area of the LCD 1 is Ndx and the number of input positions of the touch panel 2 is Npx, if the number of input positions per pixel is Nu,
Nu = Npx / Ndx (Formula 38)
It becomes.

(式37)を(式38)に代入して、
Nu =(Npax ÷ Ndx)×(Ldx ÷ Lpx) …(式39)
と求まる。
Substituting (Equation 37) into (Equation 38),
Nu = (Npax ÷ Ndx) × (Ldx ÷ Lpx) (Equation 39)
It is obtained.

入力位置Xirと入力位置Xilとの差を、(式39)で求まった1画素あたりの入力位置数Nuで除すれば、右眼用画像と左眼用画像の間の画素数Ngが求まるので、
Ng =(Xir − Xil)÷ Nu
=(Xir − Xil)÷ {(Npax ÷ Ndx)×(Ldx ÷ Lpx)}
=(Xir − Xil)×(Ndx ÷ Npax)×(Lpx ÷ Ldx) …(式40)
ただし、(Xir > Xil)であるとする。
By dividing the difference between the input position Xir and the input position Xil by the number of input positions Nu per pixel obtained by (Equation 39), the number of pixels Ng between the right-eye image and the left-eye image can be obtained. ,
Ng = (Xir-Xil) / Nu
= (Xir−Xil) ÷ {(Npax ÷ Ndx) × (Ldx ÷ Lpx)}
= (Xir−Xil) × (Ndx ÷ Npax) × (Lpx ÷ Ldx) (Equation 40)
However, it is assumed that (Xir> Xil).

なお、上記の説明において、1画素あたりの入力位置数Nuを(式40)を導くようにして求めたが、LCD1の表示画面上にX軸方向の位置が異なる2点以上の画素を表示し、その画素をタッチパネル2の入力面2aに対して垂直になるように押圧することによって1画素あたりの入力位置数Nuを求めてもよい。   In the above description, the number Nu of input positions per pixel is obtained by deriving (Equation 40), but two or more pixels having different positions in the X-axis direction are displayed on the display screen of the LCD 1. The number of input positions Nu per pixel may be obtained by pressing the pixel so as to be perpendicular to the input surface 2a of the touch panel 2.

以上のように、右眼用画像と左眼用画像との間の画素数Ngを算出することができる。   As described above, the number of pixels Ng between the right eye image and the left eye image can be calculated.

以下に、具体的な数値を用いて、上述した画素数Ngの算出方法を説明する。この説明において、LCD1の有効表示領域のX軸方向の長さLdx=48mm、画素数Ndx=320個、タッチパネルの有効使用領域のX軸方向の長さLpx=51.2mm、入力位置数Npax=1024個とする。また、右眼ERからの入力位置Xirと左眼ELからの入力位置Xilとの差(Xir−Xil)=20として説明を行う。   Below, the calculation method of the pixel number Ng mentioned above is demonstrated using a specific numerical value. In this description, the length Ldx in the X-axis direction of the effective display area of the LCD 1 is 48 mm, the number of pixels Ndx = 320, the length Lpx in the X-axis direction of the effective use area of the touch panel is 51.2 mm, and the number of input positions Npax = 1024. Further, the description will be made assuming that the difference (Xir−Xil) = 20 between the input position Xir from the right eye ER and the input position Xil from the left eye EL.

(式40)より、右眼用画像と左眼用画像との間の画素数Ngは、
Ng =(Xir − Xil)×(Ndx ÷ Npax)×(Lpx ÷ Ldx)
= 22 ×(320 ÷ 1024)×(51.2 ÷ 48)
= 7.33[個]
と求めることができ、上述した通り、より立体感を高めるためには画素数Ngを大きくすることが望ましいので、切り上げ処理を行い、Ng=8[個]と求めることができる。
From (Equation 40), the number of pixels Ng between the image for the right eye and the image for the left eye is
Ng = (Xir-Xil) * (Ndx / Npax) * (Lpx / Ldx)
= 22 x (320 ÷ 1024) x (51.2 ÷ 48)
= 7.33 [pieces]
As described above, it is desirable to increase the number of pixels Ng in order to enhance the stereoscopic effect, so that the round-up process can be performed to obtain Ng = 8 [pieces].

次に、第3の実施の形態における画像表示装置の動作について説明する。なお、第3の実施の形態に係る画像表示装置は、図5に示した第1の実施の形態の画像表示装置10と同様の構成であるため、第3の実施の形態においても図5を用いて説明する。   Next, the operation of the image display device in the third embodiment will be described. The image display apparatus according to the third embodiment has the same configuration as that of the image display apparatus 10 according to the first embodiment shown in FIG. 5, and therefore FIG. 5 is also used in the third embodiment. It explains using.

第3の実施の形態における画像表示装置10の動作は、第2の実施の形態で図23のフローチャートを参照して説明した動作とステップS1320の3D画像結像高さ決定処理以外は同様であるため、重複説明を省略し、相違箇所である3D画像結像高さ決定処理について説明する。   The operation of the image display device 10 in the third embodiment is the same as the operation described with reference to the flowchart of FIG. 23 in the second embodiment except for the 3D image formation height determination process in step S1320. Therefore, the overlapping description is omitted, and the 3D image imaging height determination process that is a different part will be described.

図29は、第3の実施の形態における3D画像結像高さ決定処理の手順を示すフローチャートである。   FIG. 29 is a flowchart illustrating a procedure of 3D image formation height determination processing according to the third embodiment.

まず、ステップS1510において、制御部15は、右眼用表示点(調整用右眼用画像)を画像生成部12で生成し、表示部14により表示するよう制御する。   First, in step S <b> 1510, the control unit 15 controls the display unit 14 to generate a right-eye display point (adjustment right-eye image) and display it on the display unit 14.

次いで、ステップS1520において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS1520:YES)、ステップS1530に進み、検出されていない場合(ステップS1520:NO)、位置取得部11で入力面2aの押圧が検出されるまでステップS1520を繰り返す。   Next, in step S1520, the control unit 15 determines whether or not the position acquisition unit 11 has detected that the input surface 2a of the touch panel 2 has been pressed. If detected (step S1520: YES), the process proceeds to step S1530. If not detected (step S1520: NO), step S1520 is repeated until the position acquisition unit 11 detects the pressing of the input surface 2a.

ステップS1530では、制御部15は、ステップS1520において位置取得部11で検出されたX軸方向の入力位置を、右眼ERによるタッチパネル2のX軸方向の入力位置Xirとして取得する。   In step S1530, the control unit 15 acquires the input position in the X-axis direction detected by the position acquisition unit 11 in step S1520 as the input position Xir in the X-axis direction of the touch panel 2 by the right eye ER.

次いで、ステップS1540において、制御部15は、右眼用表示点の表示を終了し、左眼用表示点(調整用左眼用画像)を画像生成部12で生成し、表示部14により右眼用表示点と略同じ位置に表示するよう制御する。   Next, in step S 1540, the control unit 15 ends the display of the right eye display point, generates the left eye display point (adjustment left eye image) by the image generation unit 12, and the display unit 14 causes the right eye to display. The display is controlled so that it is displayed at substantially the same position as the display point.

次いで、ステップS1550において、制御部15は、タッチパネル2の入力面2aが押圧されたことが位置取得部11により検出されたか否かを判断する。検出された場合(ステップS1550:YES)、ステップS1560に進み、検出されていない場合(ステップS1550:NO)、位置取得部11で入力面2aの押圧が検出されるまでステップS1550を繰り返す。   Next, in step S1550, the control unit 15 determines whether or not the position acquisition unit 11 has detected that the input surface 2a of the touch panel 2 has been pressed. If detected (step S1550: YES), the process proceeds to step S1560. If not detected (step S1550: NO), step S1550 is repeated until the position acquisition unit 11 detects the pressing of the input surface 2a.

ステップS1560では、制御部15は、ステップS1550において位置取得部11で検出されたX軸方向の入力位置を、左眼ELによるタッチパネル2のX軸方向の入力位置Xilとして取得する。   In step S1560, the control unit 15 acquires the input position in the X-axis direction detected by the position acquisition unit 11 in step S1550 as the input position Xil in the X-axis direction of the touch panel 2 by the left eye EL.

次いで、ステップS1570において、制御部15は、ステップS1530で取得した入力位置Xirと、ステップS1560で取得した入力位置Xilとの差(Xir−Xil)を求める。   Next, in step S1570, the control unit 15 obtains a difference (Xir−Xil) between the input position Xir acquired in step S1530 and the input position Xil acquired in step S1560.

そして、ステップS1580において、制御部15は、ステップS1570で求めた右眼ERによる入力位置Xirと左眼ELによる入力位置Xilとの差(Xir−Xil)と、上述の(式39)により求められる1画素あたりの入力位置数Nuとにより、右用眼画像と左眼用画像の間の画素数Ngを算出する。   In step S1580, the control unit 15 obtains the difference (Xir−Xil) between the input position Xir by the right eye ER and the input position Xil by the left eye EL obtained in step S1570 and the above (Equation 39). The number of pixels Ng between the right eye image and the left eye image is calculated based on the input position number Nu per pixel.

以上説明したように、第3の実施の形態によれば、第1の実施の形態と同様の効果に加えて、第2の実施の形態と同様に、ユーザの使用方法に応じた3D画像の表示を行うことができ、さまざまな使用方法に対応できるという効果が得られる。   As described above, according to the third embodiment, in addition to the same effects as those of the first embodiment, the 3D image corresponding to the user's usage method can be obtained as in the second embodiment. The display can be performed, and the effect that it can cope with various usages is obtained.

1 LCD
2 タッチパネル
2a 入力面
10 画像表示装置
11 位置取得部
12 画像生成部
13 再生部
14 表示部
15 制御部
16 ROM
17 RAM
1 LCD
DESCRIPTION OF SYMBOLS 2 Touch panel 2a Input surface 10 Image display apparatus 11 Position acquisition part 12 Image generation part 13 Playback part 14 Display part 15 Control part 16 ROM
17 RAM

Claims (17)

両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、
前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、
前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、
前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、
前記画像生成部で生成する前記3次元表示用画像における左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、
前記画像生成制御部は、前記表示画面の表面と前記検出部の前記入力面との間の距離、一般的な人間の左眼と右眼との間隔の想定値、および観察者の左眼および右眼から前記検出部の前記入力面までの距離を用いて、3次元画像が前記入力面の近傍に結像し、その結像高さが前記入力面より低くならないように、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする画像表示装置。
An image generation unit for generating a three-dimensional display image including a left-eye image and a right-eye image for allowing a viewer to visually recognize a three-dimensional image by binocular parallax;
A display unit for displaying the three-dimensional display image generated by the image generation unit;
A detection unit having an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed;
A position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit;
When the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image, a control unit that executes and controls a predetermined function;
By controlling the interval between the left-eye image and the right-eye image in the three-dimensional display image generated by the image generation unit, a three-dimensional image that is visually recognized by the observer by the three-dimensional display image. and an image generation control unit for controlling the image height,
The image generation control unit includes a distance between a surface of the display screen and the input surface of the detection unit, an assumed value of a distance between a general human left eye and a right eye, and an observer's left eye and Using the distance from the right eye to the input surface of the detection unit, a three-dimensional image is formed in the vicinity of the input surface, and the three-dimensional display is performed so that the image formation height is not lower than the input surface. images display you characterized by determining the distance between the left-eye image and a right eye image of the use image.
両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、
前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、
前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、
前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、
前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、
前記画像生成制御部は、結像高さの互いに異なる複数の調整用3次元表示用画像を前記表示部に表示させ、観察者により選択された1つの前記調整用3次元表示用画像の左眼用画像と右眼用画像との間隔に基づいて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする画像表示装置。
An image generation unit for generating a three-dimensional display image including a left-eye image and a right-eye image for allowing a viewer to visually recognize a three-dimensional image by binocular parallax;
A display unit for displaying the three-dimensional display image generated by the image generation unit;
A detection unit having an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed;
A position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit;
When the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image, a control unit that executes and controls a predetermined function;
By controlling the interval between the left-eye image and the right-eye image of the three-dimensional display image generated by the image generation unit, a result of the three-dimensional image visually recognized by the observer by the three-dimensional display image is displayed. and an image generation control unit for controlling the image height,
The image generation control unit displays a plurality of adjustment three-dimensional display images having different imaging heights on the display unit, and the left eye of the one adjustment three-dimensional display image selected by the observer based on the interval between use image and the right eye image, you and determining a distance between the left-eye image and the right eye image of the three-dimensional display image generated by the image generating unit image Image display device.
両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、
前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、
前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、
前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、
前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、
前記画像生成制御部は、前記表示画面の略同じ位置に表示される調整用右眼用画像と調整用左眼用画像とを前記表示部に順次表示させ、前記調整用右眼用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置と、前記調整用左眼用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置とを用いて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする画像表示装置。
An image generation unit for generating a three-dimensional display image including a left-eye image and a right-eye image for allowing a viewer to visually recognize a three-dimensional image by binocular parallax;
A display unit for displaying the three-dimensional display image generated by the image generation unit;
A detection unit having an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed;
A position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit;
When the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image, a control unit that executes and controls a predetermined function;
By controlling the interval between the left-eye image and the right-eye image of the three-dimensional display image generated by the image generation unit, a result of the three-dimensional image visually recognized by the observer by the three-dimensional display image is displayed. and an image generation control unit for controlling the image height,
The image generation control unit sequentially displays an adjustment right-eye image and an adjustment left-eye image displayed at substantially the same position on the display screen on the display unit, and displays the adjustment right-eye image. The input position acquired from the position acquisition unit according to the operation of the observer at the time and the input position acquired from the position acquisition unit according to the operation of the observer at the time of displaying the adjustment left-eye image Te, images display you characterized by determining the distance between the left-eye image and the right eye image of the three-dimensional display image generated by the image generation unit.
記制御部は、複数の位置補正用3次元表示用画像を前記表示部に順次表示させ、それぞれの前記位置補正用3次元表示用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置を用いて、前記検出部の前記入力面における入力位置と、前記表示部の表示画面における画素位置とを関連づけする位置補正処理を行うことを特徴とする請求項1乃至のいずれか1項に記載の画像表示装置。 Before SL control section includes a plurality of position correction for a three-dimensional display image is sequentially displayed on the display unit, the position according to the observer's operation during the display of each of the position correcting three-dimensional display image The position correction process which relates the input position on the input surface of the detection unit and the pixel position on the display screen of the display unit is performed using the input position acquired from the acquisition unit. 4. The image display device according to any one of items 3 . 記制御部は、前記検出部の前記入力面が押圧されたときに、前記表示画面における、押圧された前記入力面の入力位置に対応する位置に表示するための左眼用画像および右眼用画像を前記画像生成部で生成して前記表示部に表示するよう制御することを特徴とする請求項1乃至のいずれか1項に記載の画像表示装置。 Before SL control section, when the input surface of the detecting portion is pressed, the on the display screen, the pressed left-eye image and the right for displaying a position corresponding to the input position of the input surface the image display apparatus according to any one of claims 1 to 4, wherein the controller controls so that the eye image generated by the image generating unit displays on the display unit. 両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、An image generation unit for generating a three-dimensional display image including a left-eye image and a right-eye image for allowing a viewer to visually recognize a three-dimensional image by binocular parallax;
前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、A display unit for displaying the three-dimensional display image generated by the image generation unit;
前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、A detection unit having an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed;
前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、A position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit;
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部とを備え、A control unit that controls execution of a predetermined function when the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image;
前記制御部は、複数の位置補正用3次元表示用画像を前記表示部に順次表示させ、それぞれの前記位置補正用3次元表示用画像の表示時において観察者の操作に応じて前記位置取得部から取得した入力位置を用いて、前記検出部の前記入力面における入力位置と、前記表示部の表示画面における画素位置とを関連づけする位置補正処理を行うことを特徴とする画像表示装置。The control unit sequentially displays a plurality of position correction three-dimensional display images on the display unit, and the position acquisition unit according to an operation of an observer when each of the position correction three-dimensional display images is displayed. An image display apparatus that performs position correction processing that associates the input position on the input surface of the detection unit with the pixel position on the display screen of the display unit using the input position acquired from the display unit.
前記制御部は、前記検出部の前記入力面が押圧されたときに、前記表示画面における、押圧された前記入力面の入力位置に対応する位置に表示するための左眼用画像および右眼用画像を前記画像生成部で生成して前記表示部に表示するよう制御することを特徴とする請求項6に記載の画像表示装置。When the input surface of the detection unit is pressed, the control unit displays an image for the left eye and a right eye for displaying on the display screen at a position corresponding to the input position of the pressed input surface. The image display device according to claim 6, wherein an image is generated by the image generation unit and controlled to be displayed on the display unit. 両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、An image generation unit for generating a three-dimensional display image including a left-eye image and a right-eye image for allowing a viewer to visually recognize a three-dimensional image by binocular parallax;
前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、A display unit for displaying the three-dimensional display image generated by the image generation unit;
前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、A detection unit having an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed;
前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、A position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit;
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部とを備え、A control unit that controls execution of a predetermined function when the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image;
前記制御部は、前記検出部の前記入力面が押圧されたときに、前記表示画面における、押圧された前記入力面の入力位置に対応する位置に表示するための左眼用画像および右眼用画像を前記画像生成部で生成して前記表示部に表示するよう制御することを特徴とする画像表示装置。When the input surface of the detection unit is pressed, the control unit displays an image for the left eye and a right eye for displaying on the display screen at a position corresponding to the input position of the pressed input surface. An image display device, wherein an image is generated by the image generation unit and controlled to be displayed on the display unit.
前記画像生成部で生成する前記3次元表示用画像における左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部をさらに備え、By controlling the interval between the left-eye image and the right-eye image in the three-dimensional display image generated by the image generation unit, a three-dimensional image that is visually recognized by the observer by the three-dimensional display image. An image generation control unit for controlling the image height;
前記画像生成制御部は、所定の値を用いて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定することを特徴とする請求項6乃至8のいずれか1項に記載の画像表示装置。The image generation control unit determines a gap between a left-eye image and a right-eye image of the three-dimensional display image generated by the image generation unit using a predetermined value. The image display device according to any one of 6 to 8.
前記画像生成制御部は、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を変化させることを特徴とする請求項1乃至5,9のいずれか1項に記載の画像表示装置。 When the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image, the image generation control unit performs a left-eye image and a right-eye image of the three-dimensional display image. the image display apparatus according to any one of claims 1 to 5, 9, characterized in that to change the distance. 両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像を生成する画像生成部と、An image generation unit for generating a three-dimensional display image including a left-eye image and a right-eye image for allowing a viewer to visually recognize a three-dimensional image by binocular parallax;
前記画像生成部で生成された前記3次元表示用画像を表示する表示部と、A display unit for displaying the three-dimensional display image generated by the image generation unit;
前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部と、A detection unit having an input surface arranged on a surface side of the display screen of the display unit, and detecting that the input surface is pressed;
前記検出部の前記入力面における押圧された位置である入力位置を取得する位置取得部と、A position acquisition unit that acquires an input position that is a pressed position on the input surface of the detection unit;
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、所定の機能を実行制御する制御部と、When the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image, a control unit that executes and controls a predetermined function;
前記画像生成部で生成する前記3次元表示用画像における左眼用画像と右眼用画像との間隔を制御することにより、前記3次元表示用画像により観察者に視認される3次元画像の結像高さを制御する画像生成制御部とを備え、By controlling the interval between the left-eye image and the right-eye image in the three-dimensional display image generated by the image generation unit, a three-dimensional image that is visually recognized by the observer by the three-dimensional display image. An image generation control unit for controlling the image height,
前記画像生成制御部は、The image generation control unit
所定の値を用いて、前記画像生成部で生成する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定し、A predetermined value is used to determine an interval between the left-eye image and the right-eye image of the three-dimensional display image generated by the image generation unit,
前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を変化させることを特徴とする画像表示装置。When the input position acquired by the position acquisition unit is a position corresponding to the 3D display image, the interval between the left eye image and the right eye image of the 3D display image is changed. An image display device.
前記画像生成制御部は、前記位置取得部で取得した入力位置が、前記3次元表示用画像に対応する位置である場合、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を段階的に縮小し、前記3次元表示用画像の左眼用画像と右眼用画像との間隔が所定間隔以下になった後、縮小開始前の間隔に戻るまで段階的に間隔を拡大するように、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を変化させることを特徴とする請求項10または11に記載の画像表示装置。 When the input position acquired by the position acquisition unit is a position corresponding to the three-dimensional display image, the image generation control unit performs a left-eye image and a right-eye image of the three-dimensional display image. The interval is reduced stepwise, and after the interval between the left-eye image and the right-eye image in the three-dimensional display image is equal to or less than a predetermined interval, the interval is gradually increased until the interval before the reduction starts. The image display device according to claim 10 or 11 , wherein an interval between the left-eye image and the right-eye image of the three-dimensional display image is changed . 前記画像生成制御部は、前記3次元表示用画像の左眼用画像と右眼用画像との間隔が所定間隔以下になった後、前記3次元表示用画像に関連づけられた機能の実行処理が終了するまで間隔が所定間隔以下の状態を維持することを特徴とする請求項12に記載の画像表示装置。 The image generation control unit performs an execution process of a function associated with the three-dimensional display image after the interval between the left-eye image and the right-eye image of the three-dimensional display image is equal to or less than a predetermined interval. The image display device according to claim 12 , wherein the interval is maintained at a predetermined interval or less until the operation is completed. 前記画像生成制御部は、前記3次元表示用画像の左眼用画像と右眼用画像との間隔が所定間隔以下になった後、縮小開始前の間隔に戻るまで、前記3次元表示用画像に関連づけられた機能の実行処理の進行状況に応じて段階的に間隔を拡大することを特徴とする請求項12に記載の画像表示装置。 The image generation control unit includes the three-dimensional display image until the interval between the left-eye image and the right-eye image of the three-dimensional display image is equal to or less than a predetermined interval and then returns to the interval before the start of reduction. The image display device according to claim 12 , wherein the interval is expanded stepwise in accordance with the progress of execution processing of the function associated with. 表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部とを備える画像表示装置の前記表示部に画像を表示する画像表示方法であって、
眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像における左眼用画像と右眼用画像との間隔を決定するステップと、
決定した左眼用画像と右眼用画像との間隔に基づいて前記3次元表示用画像を生成するステップと、
前記3次元表示用画像を前記表示部に表示するステップとを含み、
前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップは、
前記表示画面の表面と前記検出部の前記入力面との間の距離、一般的な人間の左眼と右眼との間隔の想定値、および観察者の左眼および右眼から前記検出部の前記入力面までの距離を用いて、3次元画像が前記入力面の近傍に結像し、その結像高さが前記入力面より低くならないように、前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップであることを特徴とする画像表示方法。
An image is displayed on the display unit of the image display device having a display unit and a detection unit that includes an input surface arranged on the surface side of the display screen of the display unit and detects that the input surface is pressed An image display method for
Determining a distance between the left eye and the image for the right eye in the three-dimensional display image comprising a left eye image and a right eye image in order to visually recognize a three-dimensional image to the observer by binocular parallax,
Generating the three-dimensional display image based on the determined interval between the left-eye image and the right-eye image;
See containing and displaying the 3-dimensional display image on the display unit,
Determining the interval between the left-eye image and the right-eye image of the three-dimensional display image,
The distance between the surface of the display screen and the input surface of the detection unit, an assumed value of a general human left eye and right eye distance, and the left and right eyes of an observer Using the distance to the input surface, a three-dimensional image is formed in the vicinity of the input surface, and the image for the left eye of the three-dimensional display image is set so that the image formation height does not become lower than the input surface. And an image display method characterized in that it is a step of determining an interval between the right eye image and the right eye image .
表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部とを備える画像表示装置の前記表示部に画像を表示する画像表示方法であって、
両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像における左眼用画像と右眼用画像との間隔を決定するステップと、
決定した左眼用画像と右眼用画像との間隔に基づいて前記3次元表示用画像を生成するステップと、
前記3次元表示用画像を前記表示部に表示するステップとを含み、
前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップは、
結像高さの互いに異なる複数の調整用3次元表示用画像を前記表示部に表示するステップと、
観察者により選択された1つの前記調整用3次元表示用画像の左眼用画像と右眼用画像との間隔に基づいて、前記表示部に表示する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップと
を含むことを特徴とする画像表示方法。
An image is displayed on the display unit of the image display device having a display unit and a detection unit that includes an input surface arranged on the surface side of the display screen of the display unit and detects that the input surface is pressed An image display method for
Determining an interval between a left-eye image and a right-eye image in a three-dimensional display image composed of a left-eye image and a right-eye image for allowing an observer to visually recognize a three-dimensional image by binocular parallax;
Generating the three-dimensional display image based on the determined interval between the left-eye image and the right-eye image;
Displaying the three-dimensional display image on the display unit,
Determining the interval between the left-eye image and the right-eye image of the three-dimensional display image,
Displaying a plurality of adjustment three-dimensional display images having different imaging heights on the display unit;
The left-eye image of the 3D display image displayed on the display unit based on the interval between the left-eye image and the right-eye image of the one adjustment-use 3D display image selected by the observer And a step of determining an interval between the right eye image and the right eye image.
表示部と、前記表示部の表示画面の表面側に配置された入力面を有し、前記入力面が押圧されたことを検出する検出部とを備える画像表示装置の前記表示部に画像を表示する画像表示方法であって、
両眼視差により観察者に3次元画像を視認させるための左眼用画像および右眼用画像からなる3次元表示用画像における左眼用画像と右眼用画像との間隔を決定するステップと、
決定した左眼用画像と右眼用画像との間隔に基づいて前記3次元表示用画像を生成するステップと、
前記3次元表示用画像を前記表示部に表示するステップとを含み、
前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップは、
調整用右眼用画像と調整用左眼用画像とを前記表示部の前記表示画面の略同じ位置に順次表示し、前記調整用右眼用画像の表示時において観察者の操作に応じて取得した前記入力面における入力位置と、前記調整用左眼用画像の表示時において観察者の操作に応じて取得した前記入力面における入力位置とを用いて、前記表示部に表示する前記3次元表示用画像の左眼用画像と右眼用画像との間隔を決定するステップであることを特徴とする画像表示方法。
An image is displayed on the display unit of the image display device having a display unit and a detection unit that includes an input surface arranged on the surface side of the display screen of the display unit and detects that the input surface is pressed An image display method for
Determining an interval between a left-eye image and a right-eye image in a three-dimensional display image composed of a left-eye image and a right-eye image for allowing an observer to visually recognize a three-dimensional image by binocular parallax;
Generating the three-dimensional display image based on the determined interval between the left-eye image and the right-eye image;
Displaying the three-dimensional display image on the display unit,
Determining the interval between the left-eye image and the right-eye image of the three-dimensional display image,
The image for right eye for adjustment and the image for left eye for adjustment are sequentially displayed at substantially the same position on the display screen of the display unit, and acquired according to the operation of the observer when the image for right eye for adjustment is displayed. The three-dimensional display displayed on the display unit using the input position on the input surface and the input position on the input surface acquired according to the operation of the observer when the adjustment left-eye image is displayed An image display method comprising a step of determining an interval between a left-eye image and a right-eye image of an image for use.
JP2010035009A 2010-02-19 2010-02-19 Image display device and image display method Active JP5375656B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010035009A JP5375656B2 (en) 2010-02-19 2010-02-19 Image display device and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010035009A JP5375656B2 (en) 2010-02-19 2010-02-19 Image display device and image display method

Publications (2)

Publication Number Publication Date
JP2011170694A JP2011170694A (en) 2011-09-01
JP5375656B2 true JP5375656B2 (en) 2013-12-25

Family

ID=44684739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010035009A Active JP5375656B2 (en) 2010-02-19 2010-02-19 Image display device and image display method

Country Status (1)

Country Link
JP (1) JP5375656B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130096050A (en) 2012-02-21 2013-08-29 삼성디스플레이 주식회사 Display device
CN110007763B (en) * 2019-04-04 2021-02-26 惠州Tcl移动通信有限公司 Display method, flexible display device and electronic equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280496A (en) * 2003-03-17 2004-10-07 Kyocera Mita Corp Operation panel device
JP4251952B2 (en) * 2003-10-01 2009-04-08 シャープ株式会社 Stereoscopic image display apparatus and stereoscopic image display method

Also Published As

Publication number Publication date
JP2011170694A (en) 2011-09-01

Similar Documents

Publication Publication Date Title
JP6380881B2 (en) Stereoscopic image display apparatus, image processing apparatus, and stereoscopic image processing method
KR101280636B1 (en) Active type display apparatus for stereographic image and driving method thereof
JP5160741B2 (en) 3D graphic processing apparatus and stereoscopic image display apparatus using the same
JP6569496B2 (en) Input device, input method, and program
JP5497882B2 (en) Display device, terminal device, and display method
US9164621B2 (en) Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium
EP2372512A1 (en) Vehicle user interface unit for a vehicle electronic device
US20100201785A1 (en) Method and system for displaying stereoscopic detail-in-context presentations
JP5676608B2 (en) Stereoscopic display device, stereoscopic imaging device, and instruction determination method
CN103282859A (en) Gesture operation input system and gesture operation input method
JP5693708B2 (en) Stereoscopic display device, instruction receiving method and program, and recording medium therefor
JP5496032B2 (en) Tactile sensation presentation apparatus and control method for tactile sensation presentation apparatus
JP2011239398A (en) Method for displaying setting menu, and corresponding device
JP2012243012A (en) Display control device, display control method, program, and recording medium
JP5375656B2 (en) Image display device and image display method
JP2008176438A (en) Image display device
JP6266229B2 (en) Image processing apparatus, method, and program
JPWO2013140702A1 (en) Image processing apparatus, image processing method, and program
CN113196212A (en) Mobile platform as a physical interface for interaction
KR101808758B1 (en) Stereoscopic image display device and misalignment correction method for the same
JP4493082B2 (en) CG presentation device, program thereof, and CG display system
JP5830705B2 (en) Image signal processing apparatus and image signal processing method
JP5391917B2 (en) Head mounted display
JP5307177B2 (en) Stereoscopic image generating apparatus, stereoscopic image generating method, and program
JPH08329275A (en) Stereoscopic picture operation program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111012

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130909

R150 Certificate of patent or registration of utility model

Ref document number: 5375656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150