JP2012252663A - Operation panel device and electronic information equipment - Google Patents

Operation panel device and electronic information equipment Download PDF

Info

Publication number
JP2012252663A
JP2012252663A JP2011126801A JP2011126801A JP2012252663A JP 2012252663 A JP2012252663 A JP 2012252663A JP 2011126801 A JP2011126801 A JP 2011126801A JP 2011126801 A JP2011126801 A JP 2011126801A JP 2012252663 A JP2012252663 A JP 2012252663A
Authority
JP
Japan
Prior art keywords
image
user
touch
eye
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011126801A
Other languages
Japanese (ja)
Inventor
Kimihiko Masuda
公彦 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011126801A priority Critical patent/JP2012252663A/en
Publication of JP2012252663A publication Critical patent/JP2012252663A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an operation panel device allowing a user to perform an operation as intended by the user on a stereoscopic image in a displayed state of the stereoscopic image regardless of whether a dominant eye of the user is a left eye or a right eye to avoid feeling of discomfort with a display image by the user when the user performs a touch operation or avoid unintended image processing by the touch operation due to a difference of the dominant eye of the user.SOLUTION: An operation panel device 100 includes a three-dimensional image space processing section 104 for generating three-dimensional image data defining an object in a virtual three-dimensional space to stereoscopically display the object. The operation panel device 100 further includes a user view point determination section 105 for determining a user view point to the stereoscopically displayed object. An operation position to an operation surface of the touch panel is determined by specifying an operation position to a two-dimensional image when viewing the stereoscopically displayed object from a left eye or a right eye to be the determined user view point as a reference.

Description

本発明は、操作パネル装置および電子情報機器に関し、特に、タッチパネルが設けられた表示装置を備え、該表示装置の表示面上に画像(以下、物体ともいう。)を立体表示し、この立体表示された画像(つまり、立体画像)をタッチパネルに対するタッチ操作により操作可能に構成した操作パネル装置において、ユーザーの利き目に応じて、立体画像の表示面上での位置を特定する2次元座標系を変更するようにしたもの、およびこのような操作パネル装置を搭載した電子情報機器に関するものである。   The present invention relates to an operation panel device and an electronic information device, and in particular, includes a display device provided with a touch panel, and stereoscopically displays an image (hereinafter also referred to as an object) on the display surface of the display device. In the operation panel device configured to be able to operate the obtained image (that is, the stereoscopic image) by a touch operation on the touch panel, a two-dimensional coordinate system for specifying the position of the stereoscopic image on the display surface is determined according to the user's dominant eye The present invention relates to a device to be changed and an electronic information device equipped with such an operation panel device.

近年、携帯電話やPDA(Personal DigitalAssistants)のような情報携帯端末、ディジタルビデオカメラレコーダなどの携帯型の電子機器では、メニュー画面に含まれるアイコンなどのオブジェクトをユーザーが選択するための入力デバイスとしてタッチパネルを搭載したものが多い。   In recent years, in portable electronic devices such as portable information devices such as mobile phones and PDAs (Personal Digital Assistants) and digital video camera recorders, a touch panel is used as an input device for a user to select an object such as an icon included in a menu screen. Many are equipped with.

このタッチパネルは、表示装置の表示面に、この表示面に表示されている画面が見えるよう重ねて配置され、指やペンで任意の位置に直接触れることで、マウスによるクリックやダブルクリックと同等のイベント発生操作が可能な入力装置であり、アナログ容量結合方式、アナログ抵抗膜方式など、様々な方式のものが知られている。   This touch panel is placed on the display surface of the display device so that the screen displayed on the display surface can be seen. By touching any position directly with a finger or pen, it is equivalent to a mouse click or double click. There are various types of input devices capable of event generation operations, such as an analog capacitive coupling method and an analog resistance film method.

例えば、画像を表示する表示装置と、この表示装置の表示面に取り付けられたタッチパネルとを有する操作パネル装置は、ユーザーがタッチパネルに触れることで、ユーザーが触れた位置(以下、タッチ位置ともいう。)を示す座標(以下、タッチ座標ともいう。)を算出し、算出したタッチ座標に基づいてタッチ位置に表示されているアイコンやボタンを操作可能な構成となっている。   For example, an operation panel device having a display device that displays an image and a touch panel attached to the display surface of the display device is referred to as a position touched by the user (hereinafter also referred to as a touch position). ) Indicating coordinates (hereinafter also referred to as touch coordinates), and an icon or button displayed at the touch position can be operated based on the calculated touch coordinates.

ところで、特許文献1には、このようなタッチパネルと表示装置を組み合わせた操作パネル装置において、表示装置に表示した仮想3次元空間内のオブジェクト(物体)に対してタッチ操作で様々な処理を行う技術が開示されている。   By the way, in Patent Document 1, in an operation panel device combining such a touch panel and a display device, a technique for performing various processes by touch operations on an object (object) in a virtual three-dimensional space displayed on the display device. Is disclosed.

また、近年の液晶ディスプレイ(LCD)技術の進歩に伴い、画像を立体表示可能な表示装置をタッチパネルと組み合わせた操作パネル装置も開発されている。   Further, along with recent advances in liquid crystal display (LCD) technology, an operation panel device has been developed in which a display device capable of displaying an image in three dimensions is combined with a touch panel.

このような画像の立体表示が可能な操作パネル装置では、ユーザーが画像を立体的に認識するよう、表示装置の表示面に一対の視差画像、つまり、被写体を左目でみたときの画像(左目用視差画像)と被写体を右目でみたときの画像(右目用視差画像)とを、人の平均的な左右両目の間隔(以下、両目視差という。)だけずらして表示している。   In such an operation panel device capable of stereoscopic display of an image, a pair of parallax images on the display surface of the display device, that is, an image when the subject is viewed with the left eye (for the left eye) so that the user can recognize the image stereoscopically. A parallax image) and an image when the subject is viewed with the right eye (right-eye parallax image) are displayed while being shifted by an average distance between the left and right eyes of a person (hereinafter referred to as binocular parallax).

また、人の目から脳に伝達される情報は、左右両目のうちの利き目からの情報が、利き目でない目からの情報より速く脳に伝達され、利き目からの速く脳に伝達された情報が基本となり、利き目でない方の目からの情報が補助的な役割を果たして、ユーザーには画像が立体的に認識されることとなる。   In addition, information transmitted from the human eye to the brain was transmitted from the dominant eye of the left and right eyes to the brain faster than information from the non-dominant eye, and from the dominant eye to the brain faster. Information is the basis, and information from the non-dominant eye plays an auxiliary role, and the image is recognized three-dimensionally by the user.

このため、立体表示された画像(立体画像)の操作のためにユーザーがタッチパネルにタッチする場合、例えば、左目が利き目の人は、タッチすべき目標位置(例えば、物体の中心位置)を、表示面上の左目用視差画像上で判断してタッチ操作を行うこととなり、右目が利き目の人は、タッチすべき目標位置(例えば、物体の中心位置)を、表示面上の右目用視差画像上で判断してタッチ操作を行うこととなる。   For this reason, when the user touches the touch panel for the operation of a stereoscopically displayed image (stereoscopic image), for example, a person with a dominant left eye selects a target position to be touched (for example, the center position of the object), A touch operation is performed based on the left-eye parallax image on the display surface, and a person with a right-handed eye selects the target position to be touched (for example, the center position of the object) and the right-eye parallax on the display surface. It is determined on the image and a touch operation is performed.

従って、個々のユーザーが同一の立体画像の中心を触れるつもりでタッチ操作を行う場合でも、ユーザーの利き目が右目か左目かによって、ユーザーがタッチするタッチパネル上の場所が異なることとなり、タッチパネルを用いた操作パネル装置では、立体画像に対する操作性が悪いという問題がある。   Therefore, even when an individual user performs a touch operation with the intention of touching the center of the same stereoscopic image, the location on the touch panel that the user touches differs depending on whether the user's dominant eye is the right eye or the left eye. The conventional operation panel device has a problem that the operability with respect to the stereoscopic image is poor.

ところで、特許文献2では、このような操作パネル装置での立体画像に対する操作性を改善するために、表示装置に表示された立体画像を、タッチパネル上で操作が行われる直前に平面画像に切替えるという対策を講じたものが開示されている。   By the way, in patent document 2, in order to improve the operativity with respect to the three-dimensional image in such an operation panel apparatus, the three-dimensional image displayed on the display apparatus is switched to a plane image immediately before operation is performed on a touch panel. The thing which took measures is disclosed.

図11は、特許文献2に開示の操作パネル装置を説明する図であり、図11(a)は全体構成を示し、図11(b)は、この操作パネル装置を構成する操作パネルの構造を示している。   FIG. 11 is a diagram for explaining the operation panel device disclosed in Patent Document 2. FIG. 11 (a) shows the overall configuration, and FIG. 11 (b) shows the structure of the operation panel constituting this operation panel device. Show.

図11(a)に示す操作パネル装置10は、表示面に表示された操作画面に対してタッチ操作を行うための操作パネル1と、該操作パネル1を制御する制御部9とを有している。ここで、操作パネル1は、表示面を有し、該表示面に種々の画像を表示する表示部2と、該表示部2の表示面上に重ねて配置され、ユーザーがタッチしたタッチ位置を検出して、タッチ位置を示す座標データを出力するタッチパネル3と、該タッチパネル3の操作面と所定の間隔Aを空けて配設され、ユーザーの指あるいはタッチペンなどの押圧部材がタッチパネル3の操作面に触れる前に、この操作面への指などの接近を検知する近接センサー4とを備えている。   An operation panel device 10 illustrated in FIG. 11A includes an operation panel 1 for performing a touch operation on an operation screen displayed on a display surface, and a control unit 9 that controls the operation panel 1. Yes. Here, the operation panel 1 has a display surface, and a display unit 2 that displays various images on the display surface, and is arranged so as to overlap the display surface of the display unit 2, and the touch position touched by the user is displayed. A touch panel 3 that detects and outputs coordinate data indicating a touch position, and is disposed at a predetermined interval A from the operation surface of the touch panel 3, and a pressing member such as a user's finger or a touch pen is operated on the operation surface of the touch panel 3. And a proximity sensor 4 for detecting the approach of a finger or the like to the operation surface before touching.

そして、この操作パネル1では、制御部9は、近接センサー4からの検知出力に基づいて、表示部2で表示する画像を、ユーザーに立体画像を認識させるための一対の視差画像と1つの平面画像との間で切替えるよう構成されている。   In the operation panel 1, the control unit 9 uses the detection output from the proximity sensor 4 to display an image to be displayed on the display unit 2 as a pair of parallax images and one plane for allowing the user to recognize a stereoscopic image. It is configured to switch between images.

したがって、特許文献2に開示の操作パネル装置10では、表示部2に表示されている立体画像を形成するための一対の視差画像、つまり右目用視差画像および左目用視差画像を、タッチパネル3上で操作が行われる直前に1つの平面画像に切替えることにより、上述したようなユーザーの利き目の違いにより、立体画像に対してタッチする場所がタッチパネルの操作面で異なってしまうという問題は回避できる。   Therefore, in the operation panel device 10 disclosed in Patent Document 2, a pair of parallax images for forming a stereoscopic image displayed on the display unit 2, that is, a right-eye parallax image and a left-eye parallax image are displayed on the touch panel 3. By switching to a single planar image immediately before the operation is performed, the problem that the location where the stereoscopic image is touched differs on the operation surface of the touch panel due to the difference in the dominant hand of the user as described above can be avoided.

特開2004−259065号公報JP 2004-259065 A 特開2004−280496号公報Japanese Patent Application Laid-Open No. 2004-280496

しかしながら、特許文献2では、操作性の向上を図るために指やタッチペンなどの押圧部材の接近を近接センサーで検知し、その検知情報に基づいて一対の視差画像と単一の平面画像との切替を行っているが、近接センサーの設置によりデザイン性が悪くなり、また、コストの増加要因にもなる。また、ユーザーに立体画像を認識させる一対の視差画像と、単なる平面画像とを切り替えることに起因して、ユーザーが、タッチ操作時に表示画像に違和感を感じ、また、この表示画像のリアリティも損なってしまう。   However, in Patent Document 2, in order to improve operability, the proximity sensor detects the approach of a pressing member such as a finger or a touch pen, and switches between a pair of parallax images and a single planar image based on the detection information. However, the installation of the proximity sensor deteriorates the design and also increases the cost. In addition, due to switching between a pair of parallax images that allow the user to recognize a stereoscopic image and a simple planar image, the user feels uncomfortable with the display image during a touch operation, and the reality of the display image is also impaired. End up.

一方、一対の視差画像を表示面に表示したまま、タッチパネルに対するタッチ操作を行う場合には、ユーザーが立体画像の中心をタッチ操作しているつもりでも、上述したように、ユーザーの利き目の違いにより、ユーザーよって、タッチパネルの操作面上の異なる位置をタッチすることとなり、操作パネル装置1では、ユーザーの意図する操作とは異なる操作がなされたと判定され、意図しない画像処理が行われてしまうという問題がある。   On the other hand, when a touch operation is performed on the touch panel while a pair of parallax images is displayed on the display surface, even if the user intends to touch the center of the stereoscopic image, as described above, the difference between the user's dominant eyes Thus, the user touches a different position on the operation surface of the touch panel, and the operation panel device 1 determines that an operation different from the operation intended by the user is performed, and unintended image processing is performed. There's a problem.

本発明は、上記のような問題点を解決するためになされたものであり、ユーザーの利き目が左目であるか右目であるかに拘わらず、立体画像を表示したままで、立体画像に対してユーザーが意図したとおりのタッチ操作をより正確に行うことができ、これによりユーザーがタッチ操作を行う際に表示画像に違和感を感じたり、あるいはユーザーの利き目の違いによりユーザーの意図したとおりのタッチ操作ができなかったりするのを回避することができる操作パネル装置、およびこのような操作パネル装置を有する電子情報機器を得ることを目的とする。   The present invention has been made in order to solve the above-described problems. Regardless of whether the user's dominant eye is the left eye or the right eye, the stereoscopic image is displayed while the stereoscopic image is displayed. The touch operation as intended by the user can be performed more accurately, which makes the display image feel uncomfortable when the user performs the touch operation, or the user's dominant eye It is an object of the present invention to obtain an operation panel device capable of avoiding a touch operation from being impossible and an electronic information device having such an operation panel device.

本発明に係る操作パネル装置は、画像を表示する表示面を有する表示装置と、該表示装置の表示面に重ね合わせて設けられた操作面を有し、該操作面に対するタッチ操作により情報入力を行うタッチパネルとを備えた操作パネル装置であって、仮想3次元空間内に位置する物体を定義する3次元画像データを生成する3次元画像空間処理部と、該3次元画像データに基づいて該物体の左目視差画像及び右目視差画像の画像データを生成し、該表示装置の表示面に該物体が立体表示されるよう該表示装置に供給する表示画像生成部と、立体表示された物体に対するユーザー視点を決定するユーザー視点決定部とを備え、該タッチパネルの操作面に対する操作位置を、決定されたユーザー視点から該立体表示された物体を見たときの2次元画像に対する操作位置とするものであり、そのことにより上記目的が達成される。   An operation panel device according to the present invention has a display device having a display surface for displaying an image, and an operation surface provided to be superimposed on the display surface of the display device, and inputs information by a touch operation on the operation surface. An operation panel device having a touch panel to perform, a three-dimensional image space processing unit that generates three-dimensional image data defining an object located in a virtual three-dimensional space, and the object based on the three-dimensional image data A display image generation unit that generates image data of the left-eye parallax image and right-eye parallax image of the display device and supplies the image to the display device so that the object is stereoscopically displayed on the display surface of the display device; A two-dimensional image when the stereoscopically displayed object is viewed from the determined user viewpoint. It is intended to be operated position, the objects can be achieved.

本発明は、上記操作パネル装置において、前記ユーザー視点決定部は、前記仮想3次元空間におけるユーザー視点を算出し、この算出したユーザー視点が、前記仮想3次元空間におけるユーザーの左目の位置及び右目の位置のいずれの位置に近いかを判定し、前記左目視差画像及び右目視差画像のうちの、算出したユーザー視点が近い方の目に対応するものを、前記タッチパネルの操作面でのタッチ操作の対象となる2次元画像として用いることが好ましい。   According to the present invention, in the operation panel device, the user viewpoint determination unit calculates a user viewpoint in the virtual three-dimensional space, and the calculated user viewpoint indicates the position of the left eye and the right eye of the user in the virtual three-dimensional space. It is determined which position of the position is close, and the left eye parallax image and the right eye parallax image corresponding to the eye with the closer calculated user viewpoint is the target of the touch operation on the operation surface of the touch panel It is preferable to use as a two-dimensional image.

本発明は、上記操作パネル装置において、前記ユーザー視点決定部は、前記仮想3次元空間におけるユーザー視点を算出し、この算出したユーザー視点から該立体表示された物体を見たときの2次元画像を、前記タッチパネルの操作面でのタッチ操作の対象となる2次元画像として用いることが好ましい。   According to the present invention, in the operation panel device, the user viewpoint determination unit calculates a user viewpoint in the virtual three-dimensional space, and displays a two-dimensional image when the stereoscopically displayed object is viewed from the calculated user viewpoint. It is preferable to use as a two-dimensional image to be touched on the operation surface of the touch panel.

本発明は、上記操作パネル装置において、前記表示画像生成部は、前記仮想3次元空間におけるユーザーの左目の位置と前記物体の中心とを結ぶ直線に対して垂直な第1の2次元平面に、該物体の画像を投影して前記左目視差画像を生成し、前記仮想3次元空間におけるユーザーの右目の位置と前記物体の中心とを結ぶ直線に対して垂直な第2の2次元平面に、該物体の画像を投影して前記右目視差画像を生成するものであることが好ましい。   According to the present invention, in the operation panel device, the display image generation unit is arranged on a first two-dimensional plane perpendicular to a straight line connecting a position of the user's left eye and the center of the object in the virtual three-dimensional space. Projecting the image of the object to generate the left-eye parallax image, on a second two-dimensional plane perpendicular to a straight line connecting the position of the user's right eye in the virtual three-dimensional space and the center of the object, It is preferable that the right-eye parallax image is generated by projecting an object image.

本発明は、上記操作パネル装置において、前記ユーザー視点決定部は、電源がオンされた後の初期設定に続いて、立体表示された物体に対するユーザー視点が決定されているか否かの判定を行い、該判定の結果、該ユーザー視点が決定されている場合は、既に格納されているユーザー視点に関する情報を用いて、前記左目視差画像及び前記右目視差画像のいずれかを、前記タッチパネルの操作面でのタッチ操作の対象となる2次元画像とし、該判定の結果、前記ユーザー視点が決定されていない場合は、立体表示された物体に対するユーザー視点を決定し、その後、該決定したユーザー視点に基づいて、前記左目視差画像及び前記右目視差画像のいずれかを、前記タッチパネルの操作面でのタッチ操作の対象となる2次元画像とすることが好ましい。   According to the present invention, in the operation panel device, the user viewpoint determination unit determines whether or not a user viewpoint for a stereoscopically displayed object has been determined following an initial setting after the power is turned on. As a result of the determination, when the user viewpoint is determined, either the left-eye parallax image or the right-eye parallax image is displayed on the operation surface of the touch panel using information about the user viewpoint already stored. If the user viewpoint is not determined as a result of the determination as a two-dimensional image to be touched, determine the user viewpoint for the stereoscopically displayed object, and then based on the determined user viewpoint, Either the left-eye parallax image or the right-eye parallax image is preferably a two-dimensional image that is a target of a touch operation on the operation surface of the touch panel. Arbitrariness.

本発明は、上記操作パネル装置において、種々の情報を記憶する記憶部を有し、前記ユーザー視点決定部は、前記判定の結果、前記ユーザー視点が決定されていない場合に、立体表示された物体に対するユーザー視点を決定したときは、決定したユーザー視点に関する情報を該記憶部に保存することが好ましい。   The present invention includes a storage unit that stores various information in the operation panel device, wherein the user viewpoint determination unit is a three-dimensionally displayed object when the user viewpoint is not determined as a result of the determination When the user viewpoint for is determined, information regarding the determined user viewpoint is preferably stored in the storage unit.

本発明は、上記操作パネル装置において、前記タッチパネルに対するタッチ操作に応じて、前記仮想3次元空間処理部が、前記3次元画像空間における物体の生成、回転、移動、拡大、及び縮小を少なくとも含む種々の画像処理のうちの特定の画像処理を行うよう、該仮想3次元空間処理部を制御する表示制御部を備えていることが好ましい。   According to the present invention, in the operation panel device, in response to a touch operation on the touch panel, the virtual three-dimensional space processing unit includes at least generation, rotation, movement, enlargement, and reduction of an object in the three-dimensional image space. It is preferable that a display control unit for controlling the virtual three-dimensional space processing unit is provided so as to perform specific image processing of the image processing.

本発明は、上記操作パネル装置において、前記タッチパネルに接続され、該タッチパネルからのタッチ検出信号に基づいて、ユーザーのタッチ操作した操作面上にタッチ位置を示す接触座標データを出力する接触座標検知部を備え、前記ユーザー視点決定部は、該接触座標検知部からの接触座標データに基づいて、ユーザーがタッチした、前記左目視差画像あるいは前記右目視差画像におけるタッチ位置を検出し、該タッチ位置を示すタッチ位置座標データを出力し、前記表示制御部は、該接触座標検知部からの接触座標データと、該ユーザー視点決定部から出力されたタッチ位置座標データとに基づいて、ユーザーのタッチ操作が示す画像処理の種類を判別し、判断した種類の画像処理が行われるよう、前記仮想3次元空間処理部を制御することが好ましい。   According to the present invention, in the operation panel device, a contact coordinate detection unit that is connected to the touch panel and outputs contact coordinate data indicating a touch position on an operation surface touched by a user based on a touch detection signal from the touch panel. The user viewpoint determination unit detects a touch position in the left-eye parallax image or the right-eye parallax image touched by the user based on the contact coordinate data from the contact coordinate detection unit, and indicates the touch position Touch position coordinate data is output, and the display control unit indicates the touch operation of the user based on the contact coordinate data from the contact coordinate detection unit and the touch position coordinate data output from the user viewpoint determination unit. The type of image processing is determined, and the virtual three-dimensional space processing unit is controlled so that the determined type of image processing is performed. It is preferable.

本発明に係る電子情報機器は、画像を表示する表示面を有する表示装置と、該表示装置の表示面に重ね合わせて設けられた操作面を有し、該操作面に対するタッチ操作により情報入力を行うタッチパネルとを備えた操作パネル装置を搭載した電子情報機器であって、該操作パネル装置は、上述した本発明に係る操作パネル装置であり、そのことにより上記目的が達成される。   An electronic information device according to the present invention has a display device having a display surface for displaying an image, and an operation surface provided to be superimposed on the display surface of the display device, and inputs information by a touch operation on the operation surface. An electronic information device equipped with an operation panel device having a touch panel to perform, the operation panel device being the above-described operation panel device according to the present invention, thereby achieving the above object.

次に作用について説明する。   Next, the operation will be described.

本発明においては、操作パネル装置において、仮想3次元空間内に位置する物体を定義する3次元画像データを生成する3次元画像空間処理部と、該3次元画像データに基づいて該物体の左目視差画像及び右目視差画像の画像データを生成し、該表示装置の表示面に該物体が立体表示されるよう該表示装置に供給する表示画像生成部と、立体表示された物体に対するユーザー視点を決定するユーザー視点決定部とを備え、該タッチパネルの操作面に対する操作位置を、決定されたユーザー視点から該立体表示された物体を見たときの2次元画像に対する操作位置とするので、ユーザーのタッチパネルに対する操作位置の判定を、ユーザーの利き目が見ている視差画像に基づいて行われることとなり、これにより、ユーザーの利き目が左目であるか右目であるかに拘わらず、立体画像を表示したままで、立体画像に対してユーザーが意図したとおりの操作を行うことができ、これによりユーザーがタッチ操作を行う際に表示画像に違和感を感じたり、あるいはユーザーの利き目の違いによりタッチ操作により意図しない画像処理が行われたりするのを回避することができる。   In the present invention, in the operation panel device, a three-dimensional image space processing unit that generates three-dimensional image data defining an object located in the virtual three-dimensional space, and the left-eye parallax of the object based on the three-dimensional image data The image data of the image and the right-eye parallax image is generated, a display image generation unit that supplies the display device with the display device so that the object is stereoscopically displayed on the display surface of the display device, and a user viewpoint for the stereoscopically displayed object is determined A user viewpoint determination unit, and an operation position on the operation surface of the touch panel is set as an operation position for a two-dimensional image when the stereoscopically displayed object is viewed from the determined user viewpoint. The position is determined based on the parallax image that the user's dominant eye sees, so that the user's dominant eye is the left eye. Regardless of whether the user has a right eye or a right eye, the user can operate the stereoscopic image as intended by the user while displaying the stereoscopic image. This makes the display image uncomfortable when the user performs a touch operation. It is possible to avoid unintentional image processing due to a touch operation due to a feeling or a difference in user's dominant eye.

また、本発明においては、前記ユーザー視点決定部を、仮想3次元空間におけるユーザー視点を算出し、この算出したユーザー視点から該立体表示された物体を見たときの2次元画像を、タッチパネルの操作面でのタッチ操作の対象となる2次元画像として用いるよう構成しているので、立体表示されている物体に対するユーザー操作の位置判定が、実質的にユーザーが立体表示されている物体を見ている視点を基準として行われることとなり、これによりユーザーがタッチ操作を行う際に表示画像に違和感を感じたり、あるいはユーザーの利き目の違いによりタッチ操作により意図しない画像処理が行われたりするのを確実に回避することが可能となる。   In the present invention, the user viewpoint determination unit calculates a user viewpoint in a virtual three-dimensional space, and displays a two-dimensional image when the stereoscopically displayed object is viewed from the calculated user viewpoint. Since it is configured to be used as a two-dimensional image to be touched on the surface, the position determination of the user operation with respect to the three-dimensionally displayed object is that the user substantially sees the three-dimensionally displayed object. This is done based on the viewpoint, and this ensures that the user feels uncomfortable when the touch operation is performed, or that unintended image processing is performed by the touch operation due to the difference in the user's dominant eye. It is possible to avoid it.

以上のように、本発明によれば、ユーザーの利き目が左目であるか右目であるかに拘わらず、立体画像を表示したままで、立体画像に対してユーザーが意図したとおりの操作を行うことができ、これによりユーザーがタッチ操作を行う際に表示画像に違和感を感じたり、あるいはユーザーの利き目の違いによりタッチ操作により意図しない画像処理が行われたりするのを回避することができる操作パネル装置、およびこのような操作パネル装置を有する電子情報機器を得ることができる。   As described above, according to the present invention, regardless of whether the user's dominant eye is the left eye or the right eye, the stereoscopic image is displayed and the operation as intended by the user is performed on the stereoscopic image. Operation that can prevent the user from feeling uncomfortable with the displayed image when performing a touch operation, or unintentional image processing due to the touch operation due to the difference in user's dominant eye A panel device and an electronic information device having such an operation panel device can be obtained.

図1は、本発明の実施形態1による操作パネル装置を説明する図であり、図1(a)は、該操作パネルの構成を示すブロック図であり、図1(b)は、該操作パネル装置を構成するタッチパネルおよび表示装置を分離して示す斜視図である。FIG. 1 is a view for explaining an operation panel device according to Embodiment 1 of the present invention, FIG. 1 (a) is a block diagram showing the configuration of the operation panel, and FIG. 1 (b) is the operation panel. It is a perspective view which isolate | separates and shows the touch panel and display apparatus which comprise an apparatus. 図2は、本発明の実施形態1による操作パネル装置を説明する図であり、該操作パネル装置を構成する表示装置の表示面に定義された表示座標系、および該操作パネル装置を構成するタッチパネルの操作面に定義された操作座標系を示している。FIG. 2 is a diagram for explaining the operation panel device according to the first embodiment of the present invention. The display coordinate system defined on the display surface of the display device constituting the operation panel device and the touch panel constituting the operation panel device. The operation coordinate system defined on the operation surface is shown. 図3は、本発明の実施形態1による操作パネル装置を説明する図であり、図3(a)は、この操作パネル装置の仮想3次元空間処理部で作成される仮想3次元空間内の物体を示し、図3(b)は、該仮想3次元空間内で物体を2次元平面に投影する方法を示している。FIG. 3 is a diagram illustrating the operation panel device according to the first embodiment of the present invention. FIG. 3A illustrates an object in the virtual three-dimensional space created by the virtual three-dimensional space processing unit of the operation panel device. FIG. 3B shows a method for projecting an object onto a two-dimensional plane in the virtual three-dimensional space. 図4は、本発明の実施形態1による操作パネル装置の表示画像生成部で作成される2次元画像を説明する図であり、図4(a)は、上記仮想3次元空間内で該物体を所定の距離だけ離れた位置からみるとき、左目で見る画像(左目用視差画像)を示し、図4(b)は、該仮想3次元空間内で該物体を所定の距離だけ離れた位置からみるとき、右目で見る画像(右目用視差画像)を示している。FIG. 4 is a diagram illustrating a two-dimensional image created by the display image generation unit of the operation panel device according to the first embodiment of the present invention, and FIG. 4A illustrates the object in the virtual three-dimensional space. FIG. 4B shows an image viewed from the left eye (parallax image for left eye) when viewed from a position separated by a predetermined distance, and FIG. 4B illustrates the object viewed from a position separated by a predetermined distance in the virtual three-dimensional space. At this time, an image viewed by the right eye (a parallax image for the right eye) is shown. 図5は、本発明の実施形態1による操作パネル装置を説明する図であり、この操作パネル装置の表示装置で仮想3次元空間の物体が立体表示されるよう、その表示面に左目用視差画像と右目用視差画像とをずらして表示した状態を示している。FIG. 5 is a diagram for explaining the operation panel device according to the first embodiment of the present invention. The left-eye parallax image is displayed on the display surface so that an object in the virtual three-dimensional space is stereoscopically displayed on the display device of the operation panel device. And the right-eye parallax image are displayed in a shifted manner. 図6は、本発明の実施形態1による操作パネル装置の動作をフローチャートにより説明する図である。FIG. 6 is a diagram for explaining the operation of the operation panel device according to the first embodiment of the present invention with a flowchart. 図7は、本発明の実施形態2による操作パネル装置を説明する図であり、該操作パネルの構成を示している。FIG. 7 is a diagram for explaining an operation panel device according to the second embodiment of the present invention, and shows a configuration of the operation panel. 図8は、本発明の実施形態2による操作パネル装置を説明する図であり、この操作パネル装置の仮想3次元空間処理部で作成される仮想3次元空間内の物体が投影される2次元平面を示している。FIG. 8 is a diagram for explaining an operation panel device according to the second embodiment of the present invention. A two-dimensional plane onto which an object in a virtual three-dimensional space created by a virtual three-dimensional space processing unit of the operation panel device is projected. Is shown. 図9は、本発明の実施形態2による操作パネル装置を説明する図であり、仮想3次元空間内で物体を、ユーザー視点と物体の中心とを結ぶ直線に垂直な2次元平面に投影して得られる2次元画像を示している。FIG. 9 is a diagram for explaining an operation panel device according to Embodiment 2 of the present invention, in which an object is projected on a two-dimensional plane perpendicular to a straight line connecting a user viewpoint and the center of the object in a virtual three-dimensional space. The obtained two-dimensional image is shown. 図10は、本発明の実施形態3による携帯情報端末として携帯電話機を説明する図である。FIG. 10 is a diagram for explaining a cellular phone as a portable information terminal according to Embodiment 3 of the present invention. 図11は、特許文献2に開示の操作パネル装置を説明する図であり、図11(a)は、全体構成を示すフロック図、図11(b)は、該操作パネル装置を構成する操作パネルの斜視図である。11A and 11B are diagrams for explaining the operation panel device disclosed in Patent Document 2. FIG. 11A is a flock diagram showing the overall configuration, and FIG. 11B is an operation panel that constitutes the operation panel device. FIG.

以下、本発明の実施形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施形態1)
図1は、本発明の実施形態1による操作パネル装置を説明する図であり、図1(a)は、該操作パネルの構成を示すブロック図であり、図1(b)は、該操作パネル装置を構成するタッチパネルおよび表示装置を分離して示す斜視図である。
(Embodiment 1)
FIG. 1 is a view for explaining an operation panel device according to Embodiment 1 of the present invention, FIG. 1 (a) is a block diagram showing the configuration of the operation panel, and FIG. 1 (b) is the operation panel. It is a perspective view which isolate | separates and shows the touch panel and display apparatus which comprise an apparatus.

この実施形態1の操作パネル装置100は、3次元表示された物体に対するタッチ操作により、3次元表示されている物体を操作可能に構成したものであり、動作モードとして、ユーザーの利き目を判定するユーザー視点判定モードと、3次元表示された物体の操作を行うための通常表示モードとを有している。なお、この実施形態1では、3次元表示された物体という表現は、従来技術の説明で用いた、立体表示された物体という表現と同じ意味で用いており、以下、3次元表示された物体を立体画像ともいう。   The operation panel device 100 according to the first embodiment is configured to be able to operate a three-dimensionally displayed object by a touch operation on the three-dimensionally displayed object, and determines a user's dominant eye as an operation mode. A user viewpoint determination mode and a normal display mode for operating a three-dimensionally displayed object are provided. In the first embodiment, the expression “three-dimensionally displayed object” has the same meaning as the expression “three-dimensionally displayed object” used in the description of the prior art. It is also called a stereoscopic image.

つまり、この操作パネル装置100は、画像を表示する表示面101aを有し、該表示面101a上に画像データIdに基づいて画像を表示する表示装置101と、操作面102aを有し、ユーザーが操作面102aに指やペンなどの部材でタッチしたとき、該操作面102aにユーザーの指やペンなどの部材が接触したことを検出して、ユーザーがタッチした位置(タッチ位置)に応じた接触検出信号Dtを出力するタッチパネル102とを有している。   That is, the operation panel device 100 has a display surface 101a for displaying an image, the display device 101 for displaying an image based on the image data Id on the display surface 101a, and an operation surface 102a. When the operation surface 102a is touched with a member such as a finger or a pen, the contact corresponding to the position (touch position) touched by the user is detected by detecting that the user's finger or pen or the like is in contact with the operation surface 102a. A touch panel 102 that outputs a detection signal Dt.

また、該表示装置101および該タッチパネル102は、該タッチパネル102に対するタッチ操作により、表示面101aに表示された物体に対する操作を行うための操作パネル100aを構成しており、該表示装置101aの表示面101aにタッチパネル102の操作面102aが重なるよう、該表示装置101上にタッチパネル102が配置されている。なお、タッチパネル102の操作面102aはこの操作面102aを介して表示装置101の表示面101aが見えるよう透明部材により構成されている。   The display device 101 and the touch panel 102 constitute an operation panel 100a for performing an operation on an object displayed on the display surface 101a by a touch operation on the touch panel 102, and the display surface of the display device 101a. The touch panel 102 is arranged on the display device 101 so that the operation surface 102a of the touch panel 102 overlaps the 101a. The operation surface 102a of the touch panel 102 is made of a transparent member so that the display surface 101a of the display device 101 can be seen through the operation surface 102a.

ここで、該表示装置101の表示面101aには、図2に示すように、該表示面101a上に表示されている画像の各点を特定するための表示座標系Dcsが設定されており、また、タッチパネル102の操作面102aには、図2に示すように、該操作面102aに対してタッチされた位置を特定するための操作座標系Tcsが設定されている。これらの操作座標系Tcsおよび表示座標系Dcsはそれぞれ、図2に示すようにX軸およびY軸を有する2次元座標系である。また、表示座標系Dcs及び操作座標系Tcsは、該タッチパネル102の操作面102aに設定されている操作座標系Tcsの同一座標の点Tpが、表示装置101の表示面101aに設定されている表示座標系Dcsの同一座標の点Dpと一致するよう定義されている。   Here, as shown in FIG. 2, a display coordinate system Dcs for specifying each point of the image displayed on the display surface 101a is set on the display surface 101a of the display device 101. Further, as shown in FIG. 2, an operation coordinate system Tcs for specifying a position touched on the operation surface 102a is set on the operation surface 102a of the touch panel 102. Each of the operation coordinate system Tcs and the display coordinate system Dcs is a two-dimensional coordinate system having an X axis and a Y axis as shown in FIG. Further, the display coordinate system Dcs and the operation coordinate system Tcs are displayed with the point Tp of the same coordinate of the operation coordinate system Tcs set on the operation surface 102 a of the touch panel 102 being set on the display surface 101 a of the display device 101. It is defined to coincide with the point Dp of the same coordinate in the coordinate system Dcs.

このような構成の操作パネル100aでは、ユーザーのタッチパネル2に対するタッチ操作は、ユーザーが指やペンでタッチパネルの操作面102aに触れることにより行われる。   In the operation panel 100a having such a configuration, the user's touch operation on the touch panel 2 is performed when the user touches the operation surface 102a of the touch panel with a finger or a pen.

上記操作パネル装置100は、上記タッチパネル102からの接触検出信号Dtに基づいて、タッチパネルの操作面102a上に定義されている操作座標系Tcsにおける、タッチ位置に対応するタッチ座標(接触座標)を示す接触座標データCdを出力する接触座標検知部103と、接触座標データCdに基づいてユーザー操作を判定し、該判定したユーザー操作に応じた命令信号CraおよびCrbを出力する表示制御部107とを有している。   The operation panel device 100 indicates touch coordinates (contact coordinates) corresponding to the touch position in the operation coordinate system Tcs defined on the operation surface 102a of the touch panel, based on the contact detection signal Dt from the touch panel 102. A contact coordinate detection unit 103 that outputs contact coordinate data Cd, and a display control unit 107 that determines a user operation based on the contact coordinate data Cd and outputs command signals Cra and Crb corresponding to the determined user operation. is doing.

ここで、上記接触座標検知部103は、ユーザー視点算出モード時には、タッチ位置として算出されるタッチ座標は一つでなければならないが、通常動作時には、タッチ位置として算出されるタッチ座標は複数であってもよい。   Here, the touch coordinate detection unit 103 must have one touch coordinate calculated as the touch position in the user viewpoint calculation mode, but there are a plurality of touch coordinates calculated as the touch position in the normal operation. May be.

上記操作パネル装置100は、表示制御部107からの命令信号Crbに基づいて、図3(a)に示す仮想3次元空間Tsにおける物体TBの描画、回転、移動、拡大、縮小などの仮想3次元空間Tsでの画像処理を行って、3次元画像データPdaおよびPdbを出力する仮想3次元空間処理部104と、図3(b)に示すように、該仮想3次元空間処理部104からの3次元画像データPdaに基づいて、左目Leおよび右目Reのそれぞれを視点とする2つの2次元平面LpおよびRp上に、仮想3次元空間Ts上の物体TBの点を投影して左目用視差画像LBおよび右目用視差画像RB(図4(a)および図4(b)参照)を生成し、これらの左目用視差画像LBおよび右目用視差画像RBの画像データを、仮想3次元空間内の物体を立体表示するための画像データIdとして出力する表示画像生成部106とを有している。   Based on the command signal Crb from the display control unit 107, the operation panel device 100 performs virtual three-dimensional drawing such as drawing, rotation, movement, enlargement, and reduction of the object TB in the virtual three-dimensional space Ts shown in FIG. A virtual three-dimensional space processing unit 104 that performs image processing in the space Ts and outputs three-dimensional image data Pda and Pdb, and a 3D from the virtual three-dimensional space processing unit 104 as shown in FIG. Based on the two-dimensional image data Pda, the point of the object TB on the virtual three-dimensional space Ts is projected on the two two-dimensional planes Lp and Rp with the left eye Le and the right eye Re as viewpoints, respectively, and the parallax image LB for the left eye And the right-eye parallax image RB (see FIGS. 4A and 4B) are generated, and the image data of the left-eye parallax image LB and the right-eye parallax image RB are converted into objects in a virtual three-dimensional space. And a display image generation unit 106 to output as image data Id for stereoscopic display.

つまり、上記仮想3次元空間処理部104は、命令信号Crbに基づいて、仮想3次元空間Tsにて物体TBの各点の位置を定義することで、該物体の描画、回転、移動、拡大、縮小などの画像処理を行うよう構成されており、また、表示画像生成部106は、仮想3次元空間処理部104で画像処理が施された物体を立体表示するための画像データIdを表示装置101に出力するよう構成されている。   That is, the virtual three-dimensional space processing unit 104 defines the position of each point of the object TB in the virtual three-dimensional space Ts based on the command signal Crb, thereby drawing, rotating, moving, enlarging the object, The display image generating unit 106 is configured to perform image processing such as reduction, and the display device 101 displays image data Id for stereoscopic display of the object subjected to image processing by the virtual three-dimensional space processing unit 104. Is configured to output.

なお、図3は、本発明の実施形態1による操作パネル装置を説明する図であり、図3(a)は、この操作パネル装置の仮想3次元空間処理部で作成される仮想3次元空間内の物体を示し、図3(b)は、この物体を仮想3次元空間内で2次元平面に投影するときの、左目および右目の視点、物体、並びに左目および右目の視点に対応する2次元平面の位置関係を示している。   FIG. 3 is a diagram for explaining the operation panel device according to the first embodiment of the present invention. FIG. 3A shows a virtual three-dimensional space created by the virtual three-dimensional space processing unit of the operation panel device. FIG. 3B shows the two-dimensional plane corresponding to the left-eye and right-eye viewpoints, the object, and the left-eye and right-eye viewpoints when the object is projected onto the two-dimensional plane in the virtual three-dimensional space. The positional relationship is shown.

また、図4は、仮想3次元空間Ts内の物体TBを2次元平面Lp及びRpに投影して得られる左目視差画像LB及び右目視差画像RBを示す図であり、図4(a)は、該仮想3次元空間内で該物体を所定の距離だけ離れた位置からみるとき、左目が見る画像(左目視差画像)LBを示し、図4(b)は、該仮想3次元空間内で該物体を所定の距離だけ離れた位置からみるとき、右目が見る画像(右目視差画像)RBを示している。ここでは、上記物体として野球のボールの画像を示している。   FIG. 4 is a diagram showing a left-eye parallax image LB and a right-eye parallax image RB obtained by projecting the object TB in the virtual three-dimensional space Ts onto the two-dimensional planes Lp and Rp, and FIG. FIG. 4B shows an image (left-eye parallax image) LB seen by the left eye when the object is viewed from a position separated by a predetermined distance in the virtual three-dimensional space, and FIG. 4B shows the object in the virtual three-dimensional space. When viewed from a position separated by a predetermined distance, an image (right-eye parallax image) RB viewed by the right eye is shown. Here, an image of a baseball ball is shown as the object.

具体的には、図4(a)に示す左目Leを視点とする2次元平面Lpは、仮想3次元空間Ts内で左目Leの位置と物体TBの中心TBcとを結ぶ直線LLnに垂直な平面として定義され、左目用視差画像LBは、この2次元平面Lpに物体TBを投影して得られたものであり、図4(b)に示す右目Reを視点とする2次元平面Rpは、仮想3次元空間Ts内で右目Reの位置と物体TBの中心TBcとを結ぶ直線RLnに垂直な平面として定義され、右目用視差画像RBは、この2次元平面Lcに物体TBを投影して得られたものである。   Specifically, the two-dimensional plane Lp with the left eye Le as the viewpoint shown in FIG. 4A is a plane perpendicular to the straight line LLn connecting the position of the left eye Le and the center TBc of the object TB in the virtual three-dimensional space Ts. The left-eye parallax image LB is obtained by projecting the object TB onto the two-dimensional plane Lp, and the two-dimensional plane Rp with the right eye Re shown in FIG. It is defined as a plane perpendicular to the straight line RLn connecting the position of the right eye Re and the center TBc of the object TB in the three-dimensional space Ts, and the right-eye parallax image RB is obtained by projecting the object TB onto the two-dimensional plane Lc. It is a thing.

ここで、仮想3次元画像空間Tsには、図3(a)および図3(b)に示すように、この仮想3次元画像空間Ts内での位置を特定するための、3つの座標軸TX、TY、TZを有する3次元座標系Tcが設定されており、この仮想3次元空間Ts内の各点の位置Pは、3次元座標(Px,Py,Pz)により表される。   Here, in the virtual three-dimensional image space Ts, as shown in FIGS. 3A and 3B, three coordinate axes TX for specifying a position in the virtual three-dimensional image space Ts, A three-dimensional coordinate system Tc having TY and TZ is set, and the position P of each point in the virtual three-dimensional space Ts is represented by three-dimensional coordinates (Px, Py, Pz).

また、2次元平面Lpには、図4(a)に示すように、この2次元平面Lp内での位置を特定するための、2つの座標軸LX、LYを有する2次元座標系Lcが設定されており、この2次元平面Lp内の各点Lの位置は、2次元座標(Lx,Ly)により表される。   Further, as shown in FIG. 4A, a two-dimensional coordinate system Lc having two coordinate axes LX and LY for specifying a position in the two-dimensional plane Lp is set in the two-dimensional plane Lp. The position of each point L in the two-dimensional plane Lp is represented by two-dimensional coordinates (Lx, Ly).

また、2次元平面Rpには、図4(b)に示すように、この2次元平面Rp内での位置を特定するための、2つの座標軸RX、RYを有する2次元座標系Rcが設定されており、この2次元平面Rp内の各点Rの位置は、2次元座標(Rx,Ry)により表される。   In the two-dimensional plane Rp, as shown in FIG. 4B, a two-dimensional coordinate system Rc having two coordinate axes RX and RY for specifying a position in the two-dimensional plane Rp is set. The position of each point R in the two-dimensional plane Rp is represented by two-dimensional coordinates (Rx, Ry).

また、表示画像生成部106から出力される画像データIdは、2次元平面Lp上の左目用視差画像LBと2次元平面Rp上の右目用視差画像RBとが、表示面101a上でインターレース表示されるよう作成された画像データである。例えば、画像データIdは、表示装置101では、この画像データIdに基づいて、その表示面101aを構成するマトリクス状に配列された複数の画素のうちの、奇数行の画素により左目視差画像LBが表示され、該複数の画素のうちの、偶数行の画素で右目視差画像RBが表示されるデータ構造となっている。   In addition, the image data Id output from the display image generation unit 106 is such that the left-eye parallax image LB on the two-dimensional plane Lp and the right-eye parallax image RB on the two-dimensional plane Rp are displayed interlaced on the display surface 101a. It is the image data created as follows. For example, in the display device 101, the left eye parallax image LB is generated by the pixels in the odd rows of the plurality of pixels arranged in a matrix that configures the display surface 101a based on the image data Id. The data structure is such that the right-eye parallax image RB is displayed with pixels in even rows among the plurality of pixels.

また、表示装置101では、画像データIdに基づいて、その表示面101aに、図5に示すように、上記左目視差画像LBと上記右目視差画像RBとが両目視差Edに相当する距離だけ左右にずれて表示される。   Further, in the display device 101, on the display surface 101a based on the image data Id, as shown in FIG. 5, the left-eye parallax image LB and the right-eye parallax image RB are left and right by a distance corresponding to the binocular parallax Ed. Displayed out of position.

なお、図5は、本発明の実施形態1の操作パネル装置の表示装置で仮想3次元空間の物体が立体表示されるよう、その表示面101aに左目用視差画像LBと右目用視差画像RBとをずらして表示した状態を示している。   FIG. 5 shows a parallax image for left eye LB and a parallax image for right eye RB on the display surface 101a so that an object in the virtual three-dimensional space is stereoscopically displayed on the display device of the operation panel device according to the first embodiment of the present invention. The state is shown in which the is shifted.

つまり、表示装置101の表示面101aに左目用視差画像LBおよび右目用視差画像RBを表示するとき、左目用視差画像LBを定義する2次元座標系Lcと右目用視差画像RBを定義する2次元座標系Rcとを、表示面101aに設定されている表示座標系DcsのX軸方向(つまり表示面102aでの水平方向)に人の両目の間隔に相当する距離(両目視差)Edだけずらして、表示座標系Dcsに対応付けている。   That is, when the left-eye parallax image LB and the right-eye parallax image RB are displayed on the display surface 101a of the display device 101, the two-dimensional coordinate system Lc that defines the left-eye parallax image LB and the two-dimensional that defines the right-eye parallax image RB. The coordinate system Rc is shifted by a distance (two-eye parallax) Ed corresponding to the distance between both eyes in the X-axis direction (that is, the horizontal direction on the display surface 102a) of the display coordinate system Dcs set on the display surface 101a. , Associated with the display coordinate system Dcs.

これにより、表示面101aから、仮想3次元空間Tsにおける物体と観察位置との距離に相当する距離だけ離れて位置するユーザーは、表示面101aに表示された左目視差画像LBおよび右目視差画像RBにより、仮想3次元空間における物体を立体画像として認識することとなる。   As a result, the user who is located away from the display surface 101a by a distance corresponding to the distance between the object and the observation position in the virtual three-dimensional space Ts is determined by the left-eye parallax image LB and the right-eye parallax image RB displayed on the display surface 101a. The object in the virtual three-dimensional space is recognized as a stereoscopic image.

また、操作パネル装置100は、ユーザー視点算出モード時には、仮想3次元空間処理部104からの3次元画像データPdb及び接触座標検知部103からの接触座標データCdに基づいて、立体表示された物体に対するユーザのタッチ操作の位置を、表示面101aに表示されている左目視差画像LBと右目視差画像RBのいずれを用いて判定するかを決定し、通常動作モード時には、ユーザー視点算出モードで決定した左目視差画像LB及び右目視差画像RBの一方を用いて、ユーザーのタッチ操作した位置を判定するユーザー視点決定部(以下、ユーザー視点算出部という。)105を有している。   Further, in the user viewpoint calculation mode, the operation panel device 100 applies the three-dimensionally displayed object based on the 3D image data Pdb from the virtual 3D space processing unit 104 and the contact coordinate data Cd from the contact coordinate detection unit 103. It is determined which of the left-eye parallax image LB and the right-eye parallax image RB displayed on the display surface 101a is used to determine the position of the user's touch operation. In the normal operation mode, the left eye determined in the user viewpoint calculation mode A user viewpoint determination unit (hereinafter, referred to as a user viewpoint calculation unit) 105 that determines a position touched by the user using one of the parallax image LB and the right-eye parallax image RB is provided.

なお、仮想3次元空間処理部104からの3次元画像データPdbは、仮想3次元空間内の物体の各位置を定義する位置情報のみを有するデータであり、仮想3次元空間処理部104から表示画像生成部106に出力される、該位置情報の他に色情報などを有する3次元画像データPdaとは異なるデータである。   Note that the three-dimensional image data Pdb from the virtual three-dimensional space processing unit 104 is data having only position information that defines each position of the object in the virtual three-dimensional space, and the display image from the virtual three-dimensional space processing unit 104 is displayed. The data is different from the three-dimensional image data Pda having color information in addition to the position information output to the generation unit 106.

つまり、ユーザー視点算出部105は、ユーザー視点算出モード時には、仮想3次元空間処理部104からの3次元画像データPdbを用いて、左目Leおよび右目Reのそれぞれを視点とする2つの2次元平面LpおよびRp上に、仮想3次元空間Ts上の物体TBの点を投影して左目用視差画像LBおよび右目用視差画像RB(図4(a)および図4(b)参照)を生成し、左目用視差画像LBを定義する2次元座標系Lcと右目用視差画像RBを定義する2次元座標系Rcとを、表示面101aに設定されている表示座標系DcsのX軸方向(つまり表示面102aでの水平方向)に人の両目の間隔に相当する距離(両目視差)Edだけずらして、表示座標系Dcsに対応付け、2次元座標系Lcにおける左目用視差画像LBの画像データおよび2次元座標系Rcにおける右目用視差画像RBの画像データを、表示座標系Dcsの画像データIdに置き換えて内部メモリ105aに格納する。   That is, in the user viewpoint calculation mode, the user viewpoint calculation unit 105 uses the two-dimensional plane Lp with the left eye Le and the right eye Re as viewpoints using the three-dimensional image data Pdb from the virtual three-dimensional space processing unit 104. A point of the object TB on the virtual three-dimensional space Ts is projected onto Rp to generate a left-eye parallax image LB and a right-eye parallax image RB (see FIGS. 4A and 4B), and the left eye The two-dimensional coordinate system Lc that defines the parallax image for LB and the two-dimensional coordinate system Rc that defines the parallax image for the right eye RB are set in the X-axis direction (that is, the display surface 102a) of the display coordinate system Dcs set on the display surface 101a. In the horizontal direction) is shifted by a distance (binocular parallax) Ed corresponding to the distance between both eyes of the human and is associated with the display coordinate system Dcs. The image data of the right-eye parallax image RB in data and two-dimensional coordinate system Rc, and stores in the internal memory 105a is replaced with the image data Id in the display coordinate system Dcs.

また、ユーザー視点算出部105は、図5に示すように、表示面101a上に左目視差画像LBと右目視差画像RBとが表示された状態で、立体表示された物体の特定位置(例えば物体の中心)をタッチするよう指示されたユーザーがタッチした位置Uの接触座標データCdを接触座標検知部103から取得し、内部メモリ105aに格納する。   In addition, as illustrated in FIG. 5, the user viewpoint calculation unit 105 displays a specific position of a three-dimensionally displayed object (for example, the object's position) with the left-eye parallax image LB and the right-eye parallax image RB displayed on the display surface 101a. The contact coordinate data Cd of the position U touched by the user who is instructed to touch the center is acquired from the contact coordinate detection unit 103 and stored in the internal memory 105a.

さらに、ユーザー視点算出部105は、ユーザーがタッチした位置Uと左目視差画像LBの中心Lcの位置との距離DLと、ユーザーがタッチした位置Uと右目視差画像RBの中心Rcの位置との距離DRとを比較し、中心がユーザーのタッチ位置Uと近い方の視差画像を定義する2次元座標系を、ユーザー視点座標系として決定する。   Further, the user viewpoint calculation unit 105 determines the distance DL between the position U touched by the user and the position of the center Lc of the left-eye parallax image LB, and the distance DL between the position U touched by the user and the position of the center Rc of the right-eye parallax image RB. Compared with DR, a two-dimensional coordinate system that defines a parallax image whose center is closer to the touch position U of the user is determined as the user viewpoint coordinate system.

ここで、距離DLは、2次元座標系Lcでの左目用視差画像LBの中心を示す座標(Lcx,Lcy)を表示座標系の座標(Ldx,Ldy)に変換して、以下の(1)式で表される。   Here, the distance DL is obtained by converting the coordinates (Lcx, Lcy) indicating the center of the left-eye parallax image LB in the two-dimensional coordinate system Lc into the coordinates (Ldx, Ldy) of the display coordinate system. It is expressed by a formula.

DL=((Ldx−Ux)+(Ldy−Uy)1/2 (1)
また、距離DRは、2次元座標系Lcでの右目視差画像RBの中心を示す座標(Rcx,Rcy)を表示座標系の座標(Rdx,Rdy)に変換して、以下の(2)式で表される。
DL = ((Ldx−Ux) 2 + (Ldy−Uy) 2 ) 1/2 (1)
The distance DR is obtained by converting the coordinates (Rcx, Rcy) indicating the center of the right-eye parallax image RB in the two-dimensional coordinate system Lc into the coordinates (Rdx, Rdy) of the display coordinate system, and using the following equation (2): expressed.

DR=((Rdx−Ux)+(Rdy−Uy)1/2 (2)
例えば、図5に示すように、距離DRが距離DLにより小さい場合は、ユーザー視点算出部105は、右目Reを視点とする2次元平面Rpを定義する2次元座標系Rcを、ユーザー視点座標系として決定する。
DR = ((Rdx−Ux) 2 + (Rdy−Uy) 2 ) 1/2 (2)
For example, as shown in FIG. 5, when the distance DR is smaller than the distance DL, the user viewpoint calculation unit 105 uses the two-dimensional coordinate system Rc that defines the two-dimensional plane Rp with the right eye Re as the viewpoint as the user viewpoint coordinate system. Determine as.

一方、通常動作モード時には、ユーザー視点算出部105は、決定したユーザー視点座標系により定義される2次元平面(つまり、2次元平面Rp)に、仮想3次元空間における物体を投影して、この2次元平面での各物体の位置座標を取得し、このユーザー視点座標系をタッチパネル102の操作座標系Tcsに対応付けて、ユーザー操作でタッチしたタッチ位置をこのユーザー視点座標系の位置として検出し、ユーザーのタッチ位置を示すタッチ位置座標データVpを表示制御部107に出力する。   On the other hand, in the normal operation mode, the user viewpoint calculation unit 105 projects an object in the virtual three-dimensional space onto the two-dimensional plane (that is, the two-dimensional plane Rp) defined by the determined user viewpoint coordinate system. The position coordinate of each object on the dimension plane is acquired, this user viewpoint coordinate system is associated with the operation coordinate system Tcs of the touch panel 102, and the touch position touched by the user operation is detected as the position of this user viewpoint coordinate system, Touch position coordinate data Vp indicating the touch position of the user is output to the display control unit 107.

なお、このユーザー視点算出部105は、ユーザーによる視差のバラツキを修正するために、両目視差Edを調節するために左右の視点の間隔を変更した場合には、ユーザー視点座標系の更新を行うよう構成されている。   The user viewpoint calculation unit 105 updates the user viewpoint coordinate system when the distance between the left and right viewpoints is changed to adjust the binocular parallax Ed in order to correct the parallax variation by the user. It is configured.

従って、表示制御部107は、ユーザー視点算出部105にて算出されたタッチ位置座標データVpに基づいて、仮想3次元空間内の物体に対するタッチ位置を判定し、さらに、接触座標検知部103からの接触座標データCdに基づいて、表示面102a上でのタッチ操作の種類を判定し、ユーザーがタッチパネル上でどのような操作を行ったか判定を行い、その操作に応じて仮想3次元空間上の物体に対してどのような処理を行うかを決定し、仮想3次元空間処理部104に対して命令信号Crbを出力する。   Therefore, the display control unit 107 determines the touch position with respect to the object in the virtual three-dimensional space based on the touch position coordinate data Vp calculated by the user viewpoint calculation unit 105, and further, from the contact coordinate detection unit 103. Based on the contact coordinate data Cd, the type of touch operation on the display surface 102a is determined, the operation performed by the user on the touch panel is determined, and an object in the virtual three-dimensional space is determined according to the operation. Is determined, and a command signal Crb is output to the virtual three-dimensional space processing unit 104.

また、操作パネル装置100は、各種データを格納する記憶部120と、上記各部の動作の監視および制御を行う制御部110とを有している。   The operation panel device 100 also includes a storage unit 120 that stores various data, and a control unit 110 that monitors and controls the operation of each unit.

この制御部110は、操作パネル装置100の電源オンを検出して、初期化シーケンスを実行し、初期化シーケンスでは、ユーザー情報であるユーザー名を読み出したり、表示装置での起動画面の表示などの初期設定を行ったりするものである。   The control unit 110 detects the power-on of the operation panel device 100 and executes an initialization sequence. In the initialization sequence, a user name as user information is read, a startup screen is displayed on the display device, and the like. It performs initial setting.

次に、本実施形態1の操作パネル装置の動作について説明する。   Next, the operation of the operation panel device according to the first embodiment will be described.

図6は、本発明の実施形態1による操作パネル装置の動作をフローチャートにより説明する図である。   FIG. 6 is a diagram for explaining the operation of the operation panel device according to the first embodiment of the present invention with a flowchart.

最初に、操作パネル装置100の電源がONされると(ステップS1)、制御部110は、初期化シーケンスを実行する(ステップS2)。この初期化シーケンスでは、制御部110は、記憶部120に格納されているユーザー情報の読み出しを行い、表示制御部107に、表示面102aに表示する画面の明るさやコントラストなど各種初期設定を行うよう指令する。ここで、ユーザー情報は、例えば、登録されているユーザー名である。   First, when the operation panel device 100 is powered on (step S1), the control unit 110 executes an initialization sequence (step S2). In this initialization sequence, the control unit 110 reads the user information stored in the storage unit 120 and performs various initial settings such as the brightness and contrast of the screen displayed on the display surface 102a in the display control unit 107. Command. Here, the user information is, for example, a registered user name.

また、制御部110は、この初期化シーケンスを実行した後、表示制御部107およびユーザー視点算出部105に命令信号Cr7およびCr5を出力して、ユーザー視点判定処理を行うよう指令する。なお、このユーザー視点判定処理は、ユーザーがこの操作パネル装置100の表示装置101の表示面101aに表示された左目用視差画像LBおよび右目用視差画像RBによって立体画像を認識するとき、ユーザーの視点がどこにおかれているかを検出する処理であり、ここでは、ユーザーの利き目が左右のいずれの目であるかを判定する利き目判定処理としている。   Further, after executing this initialization sequence, the control unit 110 outputs command signals Cr7 and Cr5 to the display control unit 107 and the user viewpoint calculation unit 105 to instruct the user viewpoint determination processing. This user viewpoint determination process is performed when the user recognizes a stereoscopic image from the left-eye parallax image LB and the right-eye parallax image RB displayed on the display surface 101a of the display device 101 of the operation panel device 100. Is a process for detecting where the user's dominant eye is, which is the dominant eye determination process for determining whether the user's dominant eye is the left or right eye.

ユーザー視点算出部105は、命令信号Cr5が入力されると、ユーザー視点判定処理が完了しているか否かを判定する(ステップS3)。この判定は、ユーザー視点算出部105が、記憶部120にユーザー視点を示すユーザー視点情報が格納されているか否かによって行う。   When the command signal Cr5 is input, the user viewpoint calculation unit 105 determines whether or not the user viewpoint determination process has been completed (step S3). This determination is performed by the user viewpoint calculation unit 105 based on whether or not the user viewpoint information indicating the user viewpoint is stored in the storage unit 120.

そして、判定の結果、ユーザー視点判定処理が完了している場合は、ユーザー視点算出部105は、記憶部120に格納されているユーザー視点情報R20を読み出して内部メモリ105aに格納するとともに、通知信号Nt5を制御部110に送り、ユーザー視点判定処理が完了していることを制御部110に通知する(ステップS4)。   If the user viewpoint determination processing is completed as a result of the determination, the user viewpoint calculation unit 105 reads out the user viewpoint information R20 stored in the storage unit 120 and stores it in the internal memory 105a, and a notification signal Nt5 is sent to the control unit 110 to notify the control unit 110 that the user viewpoint determination processing has been completed (step S4).

制御部110は、ユーザー視点算出部105からの通知信号Nt5により、ユーザー視点判定処理が完了していることが通知されると、表示制御部107に対して命令信号Cr7を出力して、操作パネル100a上で立体表示された物体(立体画像)に対するユーザー操作が可能となるよう、表示装置にて左目視差画像LB及び右目視差画像RBを表示する表示処理の実行を表示制御部107に命令する。   When notified by the notification signal Nt5 from the user viewpoint calculation unit 105 that the user viewpoint determination process is completed, the control unit 110 outputs a command signal Cr7 to the display control unit 107, and the operation panel The display control unit 107 is instructed to execute a display process for displaying the left-eye parallax image LB and the right-eye parallax image RB on the display device so that a user operation can be performed on an object (stereoscopic image) stereoscopically displayed on 100a.

表示制御部107は、制御部110からの表示処理の実行命令を受けると、仮想3次元空間処理部104に、仮想3次元空間Tcでの、物体の描画、回転、移動、拡大、縮小などの画像処理を行うよう指令信号Crbにより指令し、さらに表示画像生成部106に、仮想3次元空間処理部104からの3次元画像データPdaに基づいて、立体画像を形成するための左目用視差画像LBおよび右目用視差画像RBを表示するための画像データIdを作成するよう指令信号Craにより指令する。   When the display control unit 107 receives an execution instruction for display processing from the control unit 110, the display control unit 107 causes the virtual three-dimensional space processing unit 104 to draw, rotate, move, enlarge, reduce, etc. the object in the virtual three-dimensional space Tc. The left eye parallax image LB for instructing the display image generation unit 106 to perform image processing and for forming a stereoscopic image on the display image generation unit 106 based on the three-dimensional image data Pda from the virtual three-dimensional space processing unit 104 The command signal Cra is used to create image data Id for displaying the right-eye parallax image RB.

一方、ステップS3にて、ユーザー視点算出部105が、ユーザー視点判定処理が完了していないと判定した場合は、通知信号Nt5により、ユーザー視点判定処理が完了していないことを制御部110に通知する(ステップS5)。   On the other hand, if the user viewpoint calculation unit 105 determines in step S3 that the user viewpoint determination process has not been completed, the notification unit Nt5 notifies the control unit 110 that the user viewpoint determination process has not been completed. (Step S5).

制御部110は、ユーザー視点算出部105からユーザー視点判定処理が完了していないことが通知されると、表示制御部107に対して命令信号Cr7を出力して、ユーザー視点判定処理を行うよう表示制御部107に命令する。   When notified from the user viewpoint calculation unit 105 that the user viewpoint determination process is not completed, the control unit 110 outputs a command signal Cr7 to the display control unit 107 to display the user viewpoint determination process. Command the control unit 107.

表示制御部107は、制御部110からのユーザー視点判定処理の実行命令を受けると、仮想3次元空間処理部104に、仮想3次元空間Tsにおける物体TBを定義する3次元画像データPda及びPdbを作成するよう指令し、さらに、表示画像生成部106に、仮想3次元空間処理部104で作成された3次元画像データPdaに基づいて、仮想3次元空間における物体を立体表示するための左目用視差画像LBおよび右目用視差画像RBの画像データIdを生成するよう指令する。   When the display control unit 107 receives the execution instruction of the user viewpoint determination process from the control unit 110, the display control unit 107 sends the three-dimensional image data Pda and Pdb defining the object TB in the virtual three-dimensional space Ts to the virtual three-dimensional space processing unit 104. The left-eye parallax for instructing the display image generation unit 106 to further stereoscopically display the object in the virtual three-dimensional space based on the three-dimensional image data Pda generated by the virtual three-dimensional space processing unit 104 Command to generate image data Id of image LB and parallax image RB for right eye.

なお、図3は、上記仮想3次元空間Tsにおける物体TBを示す図であり、ここでは、物体TBの一例として、仮想3次元空間Tc内に位置している野球のボールを示しており、この仮想3次元空間における任意の位置Pは、3つの座標軸TX,TY、TZを有する3次元座標Tc上の座標(Px,Py,Pz)により定義されている。   FIG. 3 is a diagram showing the object TB in the virtual three-dimensional space Ts. Here, as an example of the object TB, a baseball ball located in the virtual three-dimensional space Tc is shown. An arbitrary position P in the virtual three-dimensional space is defined by coordinates (Px, Py, Pz) on the three-dimensional coordinate Tc having three coordinate axes TX, TY, and TZ.

具体的には、仮想3次元空間処理部104は、仮想3次元空間Tsにおける物体TB(図3(a)参照)を定義する3次元画像データ(つまり、仮想3次元空間における物体の各点の位置を示すデータ)をコンピュータグラフィック処理により作成する。表示画像生成部106は、図3(b)に示すように、仮想3次元空間処理部104で作成された3次元画像データPdaを用いて、仮想3次元空間Ts内で物体TBを所定の位置から見たときの、左目Leを視点とする2次元空間Lpに、該物体TBを投影して左目用視差画像LB(図4(a)参照)を作成し、さらに、表示画像生成部106は、仮想3次元空間Ts内で物体TBを所定の位置から見たときの、右目Reを視点とする2次元空間Rpに、該物体TBを投影して右目用視差画像RB(図4(b))を作成する。   Specifically, the virtual 3D space processing unit 104 3D image data (that is, each point of the object in the virtual 3D space) that defines the object TB (see FIG. 3A) in the virtual 3D space Ts. Data indicating the position) is created by computer graphic processing. As shown in FIG. 3B, the display image generation unit 106 uses the 3D image data Pda created by the virtual 3D space processing unit 104 to place the object TB in a predetermined position in the virtual 3D space Ts. The object TB is projected onto the two-dimensional space Lp with the left eye Le as the viewpoint when viewed from the left side to create a left-eye parallax image LB (see FIG. 4A), and the display image generation unit 106 further When the object TB is viewed from a predetermined position in the virtual three-dimensional space Ts, the object TB is projected onto the two-dimensional space Rp with the right eye Re as the viewpoint, and the right-eye parallax image RB (FIG. 4B). ).

さらに、表示画像生成部106は、これらの左目用視差画像LBおよび右目用視差画像RBを、表示面の表示座標系Dcs上で左右両目の視差Edに相当する距離だけずれて表示されるよう重ね合わせた画像を作成し、この画像を示す画像データIdを出力する。   Further, the display image generation unit 106 superimposes the left-eye parallax image LB and the right-eye parallax image RB so that the left-eye parallax image RB and the left-eye parallax image RB are displayed on the display coordinate system Dcs on the display surface with a shift corresponding to the parallax Ed. A combined image is created, and image data Id indicating this image is output.

これにより、表示装置101の表示面101aには、図5に示すように、仮想3次元空間Ts内の物体TBを立体表示するための左目用視差画像LBおよび右目用視差画像RBが、表示座標系Dcsにて左右両目の視差に相当する距離ずれた状態で表示される。   Accordingly, as shown in FIG. 5, the left-eye parallax image LB and the right-eye parallax image RB for stereoscopic display of the object TB in the virtual three-dimensional space Ts are displayed on the display surface 101 a of the display device 101. In the system Dcs, the image is displayed in a state shifted by a distance corresponding to the parallax between the left and right eyes.

なお、図5では、座標軸X、Y、LX、RX、LY、RYを説明の都合上示しているが、実際の表示面101aにはこれらの座標軸は表示されるものではない。   In FIG. 5, the coordinate axes X, Y, LX, RX, LY, RY are shown for convenience of explanation, but these coordinate axes are not displayed on the actual display surface 101a.

このとき、ユーザー視点算出部105においても、仮想3次元空間処理部104で作成された3次元画像データPdbを用いて、表示画像生成部106と同様に、それぞれ左目および右目を視点とする2次元平面Lp及びRpに該仮想3次元空間Ts内の物体TBを投影して左目用視差画像LBおよび右目用視差画像RBを作成し、これらの視差画像を、表示面101aに設定されている表示座標系Dcsにおいて重ね合わせて、図5に示す左目視差画像LB及び右目視差画像RBの各点の位置Dpを示す表示座標系Dの位置座標(Dx,Dy)を取得し、この位置座標の情報を内部メモリ105aに格納する。   At this time, the user viewpoint calculation unit 105 also uses the three-dimensional image data Pdb created by the virtual three-dimensional space processing unit 104 to perform two-dimensional viewing with the left eye and the right eye as viewpoints, similarly to the display image generation unit 106. The object TB in the virtual three-dimensional space Ts is projected on the planes Lp and Rp to create a left-eye parallax image LB and a right-eye parallax image RB, and these parallax images are displayed on display coordinates set on the display surface 101a. The position coordinate (Dx, Dy) of the display coordinate system D indicating the position Dp of each point of the left-eye parallax image LB and the right-eye parallax image RB shown in FIG. Store in the internal memory 105a.

このようにユーザー視点算出部105にて、仮想3次元空間Ts内の物体TBを立体表示するための一対の視差画像の各点の位置座標が取得された状態で、表示制御部107からの指令信号Craにより、表示画像生成部106は表示装置101に、例えば『物体(野球のボール)TBの中心を触ってください。』といったメッセージを表示させる。ユーザーに立体表示された物体に対するタッチを促す方法は、メッセージを表示させる方法に限るものではなく、音声で行う方法でもよい。また、ユーザーによるタッチパネルに対するタッチは、ユーザーが指で行っても、ペンで行っても良い。   As described above, in the state where the position coordinates of each point of the pair of parallax images for stereoscopic display of the object TB in the virtual three-dimensional space Ts are acquired by the user viewpoint calculation unit 105, a command from the display control unit 107 is obtained. In response to the signal Cra, the display image generation unit 106 touches the display device 101, for example, “the center of the object (baseball ball) TB”. Is displayed. The method of prompting the user to touch the three-dimensionally displayed object is not limited to the method of displaying a message, but may be a method of performing by voice. Further, the touch on the touch panel by the user may be performed by the user with a finger or with a pen.

このメッセージを見たユーザーが、表示面101a上に重なっている操作面102aの、立体表示された物体TBの中心位置と認識される位置をユーザーがタッチすると、タッチパネル102から出力されたタッチ位置を示す接触検出信号Dtが接触座標検知部103に入力され、接触座標検知部103は、該接触検出信号Dtに基づいてタッチ位置を示す操作座標系Tcsの位置座標(Tx,Ty)を算出し、該位置座標を示す接触座標データCdをユーザー視点算出部105に出力する。   When the user who sees this message touches the position recognized as the center position of the three-dimensionally displayed object TB on the operation surface 102a overlapping the display surface 101a, the touch position output from the touch panel 102 is displayed. The contact detection signal Dt is input to the contact coordinate detection unit 103, and the contact coordinate detection unit 103 calculates the position coordinates (Tx, Ty) of the operation coordinate system Tcs indicating the touch position based on the contact detection signal Dt. Contact coordinate data Cd indicating the position coordinates is output to the user viewpoint calculation unit 105.

ユーザー視点算出部105は、接触座標検知部103からの座標情報データCdが示す操作座標系Tcsの位置座標(Tx,Ty)を、表示座標系Dcsの位置座標(Dx,Dy)に変換する。ただし、この実施形態では、操作座標系Tcsと表示座標系Dcsとが一致するよう、表示装置101の表示面101a上にタッチパネル102の操作面102aが重ねられているので、接触座標検知部103からの接触座標データCdが示す操作座標系Tcsの位置座標(Tx,Ty)をそのまま、表示座標系Dcsの位置座標(Dx,Dy)として用いる。   The user viewpoint calculation unit 105 converts the position coordinate (Tx, Ty) of the operation coordinate system Tcs indicated by the coordinate information data Cd from the contact coordinate detection unit 103 into the position coordinate (Dx, Dy) of the display coordinate system Dcs. However, in this embodiment, since the operation surface 102a of the touch panel 102 is superimposed on the display surface 101a of the display device 101 so that the operation coordinate system Tcs and the display coordinate system Dcs coincide with each other, the contact coordinate detection unit 103 The position coordinate (Tx, Ty) of the operation coordinate system Tcs indicated by the contact coordinate data Cd is used as the position coordinate (Dx, Dy) of the display coordinate system Dcs as it is.

例えば、ユーザーのタッチ位置が、表示座標系Dcsの位置座標(Ux,Uy)により示される位置である場合、この位置座標(Ux,Uy)が、表示座標系Dcsにおける左目視差画像LBの中心を示す位置座標(Lcx,Lcy)と、表示座標系Dcsにおける右目視差画像RBの中心を示す位置座標(Rcx,Rcy)とを用いて、ユーザーのタッチ位置が、左目視差画像LBと右目視差画像RBのいずれの中心に近いかを判定する。   For example, when the touch position of the user is a position indicated by the position coordinate (Ux, Uy) of the display coordinate system Dcs, the position coordinate (Ux, Uy) is the center of the left-eye parallax image LB in the display coordinate system Dcs. Using the position coordinates (Lcx, Lcy) shown and the position coordinates (Rcx, Rcy) showing the center of the right-eye parallax image RB in the display coordinate system Dcs, the touch position of the user is the left-eye parallax image LB and the right-eye parallax image RB. It is determined which of the centers is close.

具体的には、上述したように、式(1)及び式(2)を用いて、左目視差画像LBの中心位置とユーザーのタッチ位置との距離DLと、右目視差画像RBの中心位置とユーザーのタッチ位置との距離DRとの大小関係から、ユーザーの視点位置を、左目とするか右目とするかを決定する。   Specifically, as described above, using the expressions (1) and (2), the distance DL between the center position of the left-eye parallax image LB and the touch position of the user, the center position of the right-eye parallax image RB, and the user Whether the user's viewpoint position is the left eye or the right eye is determined from the magnitude relationship with the distance DR to the touch position.

例えば、図5に示すように、距離DRが距離DLにより小さい場合は、ユーザー視点算出部105は、右目Reを視点とする2次元平面Rpを定義する2次元座標系Rcを、ユーザー視点座標系として決定する。   For example, as shown in FIG. 5, when the distance DR is smaller than the distance DL, the user viewpoint calculation unit 105 uses the two-dimensional coordinate system Rc that defines the two-dimensional plane Rp with the right eye Re as the viewpoint as the user viewpoint coordinate system. Determine as.

ユーザー視点算出部105は、ユーザー視点を右目とするかあるいは左目とするかを決定すると、次回からはユーザー視点判定処理を行わないようにするために、決定した情報をユーザー視点情報R20として記憶部120に記憶し(ステップS6)、制御部110にユーザー視点判定処理が完了したことを通知信号Nt5により通知する。   When determining whether the user viewpoint is the right eye or the left eye, the user viewpoint calculation unit 105 stores the determined information as user viewpoint information R20 so that the user viewpoint determination process is not performed from the next time. 120 (step S6), and notifies the control unit 110 that the user viewpoint determination processing is completed by a notification signal Nt5.

その後、表示制御部107が、制御部110から命令信号Cr5により、通常動作モードで、表示装置101に仮想3次元空間Ts内の物体TBを立体表示させるよう指令されると、表示制御部107は、仮想3次元空間処理部104に、仮想3次元空間Tcでの、物体TBの描画、回転、移動、拡大、縮小などの画像処理を行うよう指令信号Crbにより指令し、さらに表示画像生成部106に、仮想3次元空間処理部104で作成された3次元画像データPdaに基づいて、物体を立体表示するための左目用視差画像LBおよび右目用視差画像RBの画像データIdを作成するよう指令信号Craにより指令する。   Thereafter, when the display control unit 107 instructs the display device 101 to stereoscopically display the object TB in the virtual three-dimensional space Ts in the normal operation mode by the command signal Cr5 from the control unit 110, the display control unit 107 The virtual three-dimensional space processing unit 104 is commanded by a command signal Crb to perform image processing such as drawing, rotation, movement, enlargement, and reduction of the object TB in the virtual three-dimensional space Tc, and the display image generation unit 106 In addition, based on the three-dimensional image data Pda created by the virtual three-dimensional space processing unit 104, a command signal for creating the left-eye parallax image LB and the right-eye parallax image RB for stereoscopic display of the object Command by Cra.

仮想3次元空間処理部104は、仮想3次元空間Tsにおける物体TB(図3(a)参照)を定義する3次元画像データ(つまり、仮想3次元空間における物体の各点の位置を示すデータ)Pda及びPdbをコンピュータグラフィック処理により作成する。表示画像生成部106は、図3(b)に示すように、仮想3次元空間処理部104で作成された3次元画像データPdaを用いて、仮想3次元空間Ts内で物体TBを所定の位置から見たときの左目Leを視点とする2次元空間Lpに、該物体TBを投影して左目用視差画像LB(図4(a)参照)を作成し、さらに、表示画像生成部106は、仮想3次元空間Ts内で物体TBを所定の位置から見たときの右目Reを視点とする2次元空間Rpに、該物体TBを投影して右目用視差画像RB(図4(b))を作成する。   The virtual three-dimensional space processing unit 104 defines three-dimensional image data that defines the object TB (see FIG. 3A) in the virtual three-dimensional space Ts (that is, data indicating the position of each point of the object in the virtual three-dimensional space). Pda and Pdb are created by computer graphic processing. As shown in FIG. 3B, the display image generation unit 106 uses the 3D image data Pda created by the virtual 3D space processing unit 104 to place the object TB in a predetermined position in the virtual 3D space Ts. A left-eye parallax image LB (see FIG. 4A) is created by projecting the object TB onto a two-dimensional space Lp with the left eye Le as a viewpoint when viewed from the viewpoint, and the display image generation unit 106 further includes: When the object TB is viewed from a predetermined position in the virtual three-dimensional space Ts, the object TB is projected onto the two-dimensional space Rp with the right eye Re as a viewpoint, and the parallax image RB for right eye (FIG. 4B) is displayed. create.

さらに、表示画像生成部106は、これらの左目用視差画像LBおよび右目用視差画像RBを、表示面の表示座標系Dcs上で左右両目の視差Edに相当する距離だけずれて表示されるよう重ね合わせた画像を作成し、この画像を示す画像データIdを出力する。   Further, the display image generation unit 106 superimposes the left-eye parallax image LB and the right-eye parallax image RB so that the left-eye parallax image RB and the left-eye parallax image RB are displayed on the display coordinate system Dcs on the display surface with a shift corresponding to the parallax Ed. A combined image is created, and image data Id indicating this image is output.

これにより、表示装置101の表示面101aには、図5に示すように、仮想3次元空間Ts内の物体TBを立体表示するための左目用視差画像LBおよび右目用視差画像RBが、表示座標系Dcsにて左右両目の視差Edに相当する距離ずれた状態で表示される。ユーザーは、仮想3次元空間Tsにおける物体TBの立体画像を認識することとなる(ステップS7)。   Accordingly, as shown in FIG. 5, the left-eye parallax image LB and the right-eye parallax image RB for stereoscopic display of the object TB in the virtual three-dimensional space Ts are displayed on the display surface 101 a of the display device 101. The system Dcs is displayed in a state where a distance corresponding to the parallax Ed between the left and right eyes is shifted. The user recognizes a stereoscopic image of the object TB in the virtual three-dimensional space Ts (Step S7).

その後、タッチパネル102上でのタッチ操作が行われると、タッチパネル102は、その操作面102aにユーザーの指やペンなどの部材が接触したことを検出して、ユーザーがタッチした位置(タッチ位置)に応じた接触検出信号Dtを出力する(ステップS8)。   Thereafter, when a touch operation is performed on the touch panel 102, the touch panel 102 detects that a member such as a user's finger or a pen has come into contact with the operation surface 102a, and a position touched by the user (touch position) is detected. A corresponding contact detection signal Dt is output (step S8).

接触座標検知部103は、上記タッチパネル102からの接触検出信号Dtに基づいて、タッチパネルの操作面102a上に定義されている操作座標系Tcsにおける、タッチ位置に対応するタッチ座標(接触座標)を示す接触座標データCdを検出し、表示面101aの表示座標系Dcsにおける位置座標を示すデータとして、ユーザー視点算出部105及び表示制御部107に出力する(ステップS9)。   The contact coordinate detection unit 103 indicates touch coordinates (contact coordinates) corresponding to the touch position in the operation coordinate system Tcs defined on the operation surface 102a of the touch panel, based on the contact detection signal Dt from the touch panel 102. The contact coordinate data Cd is detected and output to the user viewpoint calculation unit 105 and the display control unit 107 as data indicating the position coordinates of the display surface 101a in the display coordinate system Dcs (step S9).

ユーザー視点算出部105は、左目および右目のうちの利き目判定により決定された方を視点とする2次元平面(ここで、右目を視点とする2次元平面Rp)に該仮想3次元空間Ts内の物体TBを投影して右目用視差画像RBを作成する(ステップS10)。   The user viewpoint calculation unit 105 creates a two-dimensional plane whose viewpoint is the direction determined by the dominant eye determination of the left eye and the right eye (here, the two-dimensional plane Rp whose right eye is the viewpoint) in the virtual three-dimensional space Ts. The right object parallax image RB is created by projecting the object TB (step S10).

つまり、ユーザー視点算出部105では、既にユーザー視点判定処理が完了しているので、左目および右目を視点とする2次元平面Lp及びRpのうちの、ユーザーの利き目を視点とする2次元平面にのみ、例えば右目が利き目の場合は、右目を視点とする2次元平面Rpにのみ、該仮想3次元空間Ts内の物体TBを投影して、右目用視差画像RBを作成し、この右目視差画像RBの各点の位置Dpを示す表示座標系Dの位置座標(Dx,Dy)を取得し、この位置座標の情報を、ユーザーのタッチ位置判定のための画像データとして内部メモリ105aに格納する。   That is, since the user viewpoint calculation unit 105 has already completed the user viewpoint determination process, the user viewpoint calculation unit 105 selects a two-dimensional plane with the user's dominant eye as a viewpoint out of the two-dimensional planes Lp and Rp with the left eye and the right eye as the viewpoint. Only, for example, when the right eye is dominant, the object TB in the virtual three-dimensional space Ts is projected only on the two-dimensional plane Rp with the right eye as the viewpoint, and a right-eye parallax image RB is created. The position coordinate (Dx, Dy) of the display coordinate system D indicating the position Dp of each point of the image RB is acquired, and information on this position coordinate is stored in the internal memory 105a as image data for determining the touch position of the user. .

なお、上記ステップS9とS10の処理は必ずしも、上で説明した順番に実行される必要はなく並列で処理を行ってもよい。   Note that the processes in steps S9 and S10 are not necessarily performed in the order described above, and may be performed in parallel.

さらに、ユーザー視点算出部105は、ユーザー視点算出モードで決定した左目視差画像LB及び右目視差画像RBの一方(ここでは、右目視差画像RB)を用いて、ユーザーのタッチ操作した位置を判定する。つまり、ユーザー視点算出部105は、表示座標系Dcsにおいて、接触座標検知部103から出力された接触座標データCdが示す位置が、右目を視点とする2次元平面Rpに投影されている右目視差画像RBのどの位置に該当するかを判定し、タッチ位置に該当する右目視差画像RBの位置を示すタッチ位置座標データVpを表示制御部107に出力する。   Furthermore, the user viewpoint calculation unit 105 determines a position where the user performs a touch operation using one of the left eye parallax image LB and the right eye parallax image RB determined in the user viewpoint calculation mode (here, the right eye parallax image RB). That is, the user viewpoint calculation unit 105 projects the right-eye parallax image in which the position indicated by the contact coordinate data Cd output from the contact coordinate detection unit 103 is projected on the two-dimensional plane Rp with the right eye as the viewpoint in the display coordinate system Dcs. The position corresponding to the RB is determined, and touch position coordinate data Vp indicating the position of the right-eye parallax image RB corresponding to the touch position is output to the display control unit 107.

表示制御部107では、タッチ位置座標データVpに基づいてユーザーが立体表示された物体のどの位置にタッチしたかを判別し、さらに、接触座標検知部103から出力された接触座標データCdに基づいてどのような操作を行ったかを判定する。例えば、物体を、その中心を通る垂直な軸を回転軸として回転させる操作とか、物体を移動させる操作とか、あるいは拡大あるいは縮小させる操作であるとかを判定する(ステップS11)。   The display control unit 107 determines which position on the three-dimensionally displayed object the user has touched based on the touch position coordinate data Vp, and further, based on the contact coordinate data Cd output from the contact coordinate detection unit 103. Determine what operation was performed. For example, it is determined whether the operation is an operation for rotating an object with a vertical axis passing through the center thereof as a rotation axis, an operation for moving the object, or an operation for enlarging or reducing (step S11).

その後、表示制御部107が、判定した操作に応じた画像処理が行われるよう命令信号Crbにより仮想3次元空間処理部104に指令すると、仮想3次元空間処理部104では、コンピュータグラフィック処理により、ユーザー操作に応じた画像処理が物体に対して施されて、表示装置101の表示面101aには、ユーザー操作に応じて、回転する物体、移動する物体、あるいは拡大あるいは縮小された物体が立体表示される(ステップS12)。   Thereafter, when the display control unit 107 instructs the virtual three-dimensional space processing unit 104 by the command signal Crb to perform image processing according to the determined operation, the virtual three-dimensional space processing unit 104 performs user graphic processing by computer graphic processing. Image processing according to the operation is performed on the object, and the display surface 101a of the display device 101 displays a three-dimensional display of a rotating object, a moving object, or an enlarged or reduced object according to a user operation. (Step S12).

この結果、利き目によってユーザー毎に視差画像の見え方が異なる問題を解決し、ユーザーが快適な操作を行うことが可能になる。   As a result, the problem that the parallax image looks different for each user depending on the dominant eye can be solved, and the user can perform a comfortable operation.

このように本実施形態1では、立体表示された仮想3次元空間の物体を見るときの、ユーザーの視点を、仮想3次元空間における右目と左目の位置を基準として検出し、ユーザー視点が右目と左目のいずれに近いかに応じて、ユーザーのタッチ位置を判定するための、物体を投影して左目視差画像あるいは右目視差画像を作成するための2次元平面として、右目を視点する2次元平面と左目を視点とする2次元平面のいずれかに設定するようにしたので、ユーザーの利き目が左目であるか右目であるかに拘わらず、立体画像を表示したままで、立体画像に対してユーザーが意図した操作を精度よく行うことができ、これによりユーザーがタッチ操作を行う際に表示画像に違和感を感じたり、あるいはユーザーの利き目の違いによりタッチ操作により意図しない画像処理が行われたりするのを回避することができる。   As described above, in the first embodiment, the user's viewpoint when viewing the stereoscopically displayed object in the virtual three-dimensional space is detected based on the positions of the right eye and the left eye in the virtual three-dimensional space, and the user viewpoint is As a two-dimensional plane for projecting an object and creating a left-eye parallax image or a right-eye parallax image for determining a user's touch position depending on which one is close to the left eye, a two-dimensional plane and a left eye that are viewed from the right eye Is set to any one of the two-dimensional planes with the viewpoint as the viewpoint, regardless of whether the user's dominant eye is the left eye or the right eye, the user can display the stereoscopic image and The intended operation can be performed with high accuracy, which makes the display image feel uncomfortable when the user performs the touch operation, or the touch operation due to the difference in the user's dominant eye It is possible to avoid or more unintended image processing is performed.

このため、操作性の向上を図るために指やタッチペンなどの押圧部材の接近を近接センサーで検知し、その検知情報に基づいて一対の視差画像と単一の平面画像との切替を行っている従来技術におけるのような押圧手段の接近を検知するためのセンサーが不要になり、デザインの向上、コストの低減が可能になる。   For this reason, in order to improve operability, the proximity sensor detects the approach of a pressing member such as a finger or a touch pen, and switches between a pair of parallax images and a single planar image based on the detection information. A sensor for detecting the approach of the pressing means as in the prior art becomes unnecessary, and the design can be improved and the cost can be reduced.

なお、上記実施形態1では、操作パネル装置の電源がオンされ、初期化シーケンスが実行された後に、ユーザー視点を決定しているが、ユーザーの決定は、ユーザーが操作していく過程で、立体表示されている物体に対するユーザーがタッチすべき位置と、実際にユーザーがタッチしたと判定される位置とのずれに基づいて、立体表示された物体をユーザーが見ているときの視点ユーザー視点を取得してもよい。   In the first embodiment, the user viewpoint is determined after the operation panel device is turned on and the initialization sequence is executed. However, the determination of the user is performed in the process in which the user operates. Based on the difference between the position where the user should touch the displayed object and the position where it is determined that the user actually touched, the viewpoint when the user is viewing the three-dimensional object is obtained. May be.

また、上記実施形態1では、ユーザー視点座標系は、右目または左目を視点とする2次元座標系に設定するようにしているが、ユーザー視点座標系は、右目または左目を視点とする2次元座標系に限定されるものではなく、右目と左目との間の位置を視点とする2次元座標系としてもよい。   In the first embodiment, the user viewpoint coordinate system is set to a two-dimensional coordinate system with the right eye or the left eye as a viewpoint. However, the user viewpoint coordinate system is a two-dimensional coordinate with the right eye or the left eye as a viewpoint. The system is not limited to the system, and a two-dimensional coordinate system having a viewpoint between the right eye and the left eye may be used.

(実施形態2)
図7〜図9は、本発明の実施形態2による操作パネル装置を説明する図であり、図7は該操作パネルの構成を示している。図8は、この操作パネル装置の仮想3次元空間処理部で作成される仮想3次元空間内の物体が投影される2次元平面を示し、図9は、仮想3次元空間内の物体を左目と右目の間の位置を視点として2次元平面に投影して得られる2次元画像を示している。
(Embodiment 2)
7 to 9 are diagrams for explaining an operation panel device according to Embodiment 2 of the present invention, and FIG. 7 shows a configuration of the operation panel. FIG. 8 shows a two-dimensional plane onto which an object in the virtual three-dimensional space created by the virtual three-dimensional space processing unit of this operation panel device is projected, and FIG. 9 shows the object in the virtual three-dimensional space as the left eye. A two-dimensional image obtained by projecting onto the two-dimensional plane with the position between the right eyes as the viewpoint is shown.

この実施形態2の操作パネル装置200は、実施形態1におけるユーザー視点算出部105に代えて、仮想3次元空間におけるユーザー視点を算出し、この算出したユーザー視点から立体表示された物体を見たときの2次元画像を、タッチパネルの操作面でのタッチ操作の対象となる2次元画像として決定するユーザー視点決定部205を備えたものであり、その他の構成は、実施形態1の操作パネル装置100と同一である。   When the operation panel device 200 according to the second embodiment calculates a user viewpoint in the virtual three-dimensional space instead of the user viewpoint calculation unit 105 according to the first embodiment, and sees a stereoscopically displayed object from the calculated user viewpoint. The user viewpoint determination unit 205 that determines the two-dimensional image as a two-dimensional image to be touched on the operation surface of the touch panel, and the other configuration is the same as that of the operation panel device 100 of the first embodiment. Are the same.

つまり、この実施形態2の操作パネル装置200におけるユーザー視点算出部205は、図5に示すように、表示面101a上に左目視差画像LBと右目視差画像RBとが表示された状態で、立体表示された物体の特定位置(例えば物体の中心)をタッチするよう指示されたユーザーがタッチした位置Uの接触座標データCdを接触座標検知部103から取得し、内部メモリ205aに格納する。   That is, the user viewpoint calculation unit 205 in the operation panel device 200 according to the second embodiment displays a stereoscopic image in a state where the left-eye parallax image LB and the right-eye parallax image RB are displayed on the display surface 101a as illustrated in FIG. The contact coordinate data Cd of the position U touched by the user who is instructed to touch a specific position of the object (for example, the center of the object) is acquired from the contact coordinate detection unit 103 and stored in the internal memory 205a.

さらに、ユーザー視点算出部205は、ユーザーがタッチした位置Uと左目視差画像LBの中心Lcの位置との距離DLと、ユーザーがタッチした位置Uと右目視差画像RBの中心Rcの位置との距離DRとから、ユーザーが立体表示された物体を見ている時の視点位置に相当する、3次元画像空間Tsにおけるユーザー視点位置を算出する。   Further, the user viewpoint calculation unit 205 determines the distance DL between the position U touched by the user and the position of the center Lc of the left-eye parallax image LB, and the distance between the position U touched by the user and the position of the center Rc of the right-eye parallax image RB. From the DR, the user viewpoint position in the three-dimensional image space Ts corresponding to the viewpoint position when the user is viewing the stereoscopically displayed object is calculated.

そして、ユーザー視点算出部205は、図8に示すように、このように決定したユーザー視点Meと物体TBの中心TBcとを結ぶ直線MLnに垂直な平面として2次元平面Mpを定義し、この2次元平面Mpに物体TBを投影して得られたユーザー視点画像MB(図9)の画像データを作成する。   Then, as shown in FIG. 8, the user viewpoint calculation unit 205 defines a two-dimensional plane Mp as a plane perpendicular to the straight line MLn connecting the user viewpoint Me determined in this way and the center TBc of the object TB, Image data of the user viewpoint image MB (FIG. 9) obtained by projecting the object TB onto the dimension plane Mp is created.

そして、ユーザー視点算出部205は、ユーザー視点画像MBを、タッチパネル102の操作面102aでのタッチ操作の対象となる2次元画像として用いて、ユーザーのタッチ操作した位置を判定する。つまり、ユーザー視点算出部205は、表示座標系Dcsにおいて、接触座標検知部103から出力された接触座標データCdが示す位置が、上記ユーザー視点画像MBのどの位置に該当するかを判定し、タッチ位置に該当するユーザー視点画像MBの位置を示すタッチ位置座標データVpを表示制御部107に出力する。   Then, the user viewpoint calculation unit 205 uses the user viewpoint image MB as a two-dimensional image that is a target of the touch operation on the operation surface 102a of the touch panel 102, and determines the position where the user performs the touch operation. That is, the user viewpoint calculation unit 205 determines in the display coordinate system Dcs which position of the user viewpoint image MB the position indicated by the contact coordinate data Cd output from the contact coordinate detection unit 103 corresponds to, and touches Touch position coordinate data Vp indicating the position of the user viewpoint image MB corresponding to the position is output to the display control unit 107.

その他の動作は、実施形態1の操作パネル装置と同一である。   Other operations are the same as those of the operation panel device of the first embodiment.

なお、この実施形態2の操作パネル装置200では、視差画像生成用の右目視点、左目視点、およびユーザー視点を、仮想3次元空間内で物体に対して回転あるいは移動させるとき、右目視点、左目視点およびユーザー視点の相対位置関係が崩れないよう、回転は、仮想3次元空間内に設定した同一の回転軸を使用して行い、移動は仮想3次元空間内に3つの視点を同じ方向に同じ距離だけ移動させる処理により行う。   In the operation panel device 200 according to the second embodiment, when the right eye viewpoint, the left eye viewpoint, and the user viewpoint for generating the parallax image are rotated or moved with respect to the object in the virtual three-dimensional space, the right eye viewpoint, the left eye viewpoint In addition, the rotation is performed using the same rotation axis set in the virtual three-dimensional space, and the movement is performed by moving the three viewpoints in the same direction and the same distance in the virtual three-dimensional space so that the relative positional relationship between the user viewpoint and the user viewpoint is not lost. It is done by the process of moving only.

このような構成の実施形態2の操作パネル装置200では、仮想3次元空間におけるユーザー視点を算出し、この算出したユーザー視点から立体表示された物体を見たときの2次元画像を、タッチパネルの操作面でのタッチ操作の対象となる2次元画像として決定するので、立体表示されている物体に対するユーザー操作を、実質的にユーザーが立体表示されている物体を見ている視点で行うことが可能となり、ユーザーがタッチ操作を行う際に表示画像に違和感を感じたり、あるいはユーザーの利き目の違いによりタッチ操作により意図しない画像処理が行われたりするのを確実に回避することが可能となる。   In the operation panel device 200 according to the second embodiment having such a configuration, a user viewpoint in a virtual three-dimensional space is calculated, and a two-dimensional image obtained by viewing a stereoscopically displayed object from the calculated user viewpoint is displayed on the touch panel. Since it is determined as a two-dimensional image to be touched on the screen, it is possible to perform a user operation on the stereoscopically displayed object from the viewpoint that the user is substantially looking at the stereoscopically displayed object. Thus, it is possible to reliably prevent the display image from feeling uncomfortable when the user performs a touch operation, or unintentional image processing due to the touch operation due to a difference in the dominant eye of the user.

さらに、上記実施形態1および2では、特に説明しなかったが、上記実施形態1および2の操作パネル装置の少なくともいずれかを情報入力装置として用いた、例えば電子情報機器について以下簡単に説明する。
(実施形態3)
図10は、本発明の実施の形態3による携帯情報端末の一例を示す外観図である。
Furthermore, although not specifically described in the first and second embodiments, for example, an electronic information device using at least one of the operation panel devices of the first and second embodiments as an information input device will be briefly described below.
(Embodiment 3)
FIG. 10 is an external view showing an example of a portable information terminal according to Embodiment 3 of the present invention.

この携帯情報端末20は、表示装置とタッチパネルとを組み合わせた操作パネル部を備えた携帯電話機である。   The mobile information terminal 20 is a mobile phone including an operation panel unit that combines a display device and a touch panel.

すなわち、この携帯電話機20は、筐体21と、該筐体21に組み込まれたスピーカ11および送信用マイクロホン14と、該筐体21の表面に設けられた操作キー13と、該筐体21に取り付けられた、表示装置とタッチパネルとを組み合わせた操作パネル部12とを有している。   That is, the mobile phone 20 includes a housing 21, a speaker 11 and a transmission microphone 14 incorporated in the housing 21, an operation key 13 provided on the surface of the housing 21, and the housing 21. It has the operation panel part 12 which combined the display apparatus and touch panel which were attached.

この携帯電話機20では、上記操作パネル部12として、上記実施形態1の操作パネル装置100あるいは実施形態2の操作パネル装置200のいずれかの操作パネル装置が用いられている。   In the cellular phone 20, the operation panel device 12 is one of the operation panel device 100 of the first embodiment and the operation panel device 200 of the second embodiment.

このような携帯電話機20においても、仮想3次元空間内の物体を立体表示した場合には、ユーザーの利き目が左目であるか右目であるかに拘わらず、物体の立体画像を表示したままで、この立体画像に対してユーザーが意図した操作を精度よく行うことができ、これによりユーザーがタッチ操作を行う際に表示画像に違和感を感じたり、あるいはユーザーの利き目の違いによりタッチ操作により意図しない画像処理が行われたりするのを回避することができる。   Even in such a cellular phone 20, when an object in the virtual three-dimensional space is stereoscopically displayed, the stereoscopic image of the object remains displayed regardless of whether the user's dominant eye is the left eye or the right eye. Therefore, the user's intended operation can be accurately performed on the stereoscopic image, and when the user performs a touch operation, the display image feels uncomfortable, or the user feels uncomfortable due to the difference in user's dominant eye. It is possible to avoid image processing that is not performed.

以上のように、本発明の好ましい実施形態を用いて本発明を例示してきたが、本発明は、この実施形態に限定して解釈されるべきものではない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。当業者は、本発明の具体的な好ましい実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。本明細書において引用した特許文献は、その内容自体が具体的に本明細書に記載されているのと同様にその内容が本明細書に対する参考として援用されるべきであることが理解される。   As mentioned above, although this invention has been illustrated using preferable embodiment of this invention, this invention should not be limited and limited to this embodiment. It is understood that the scope of the present invention should be construed only by the claims. It is understood that those skilled in the art can implement an equivalent range based on the description of the present invention and the common general technical knowledge from the description of specific preferred embodiments of the present invention. It is understood that the patent documents cited in the present specification should be incorporated by reference into the present specification in the same manner as the content itself is specifically described in the present specification.

本発明は、操作パネル装置、およびこのような操作パネル装置を備えた電子情報機器の分野において、ユーザーの利き目が左目であるか右目であるかに拘わらず、立体画像を表示したままで、立体画像に対してユーザーが意図したとおりの操作がより正確に行われ、これによりユーザーがタッチ操作を行う際に表示画像に違和感を感じたり、あるいはユーザーの利き目の違いによりタッチ操作により意図しない画像処理が行われたりするのを回避することができる操作パネル装置、およびこのような操作パネル装置を有する電子情報機器を得ることができる。   In the field of the operation panel device and the electronic information device including such an operation panel device, the present invention displays a stereoscopic image regardless of whether the user's dominant eye is the left eye or the right eye, The user's intended operation on the stereoscopic image is performed more accurately, which may cause the display image to feel uncomfortable when the user performs a touch operation, or may not be intended by the touch operation due to a difference in the user's dominant eye An operation panel device that can avoid performing image processing and an electronic information device having such an operation panel device can be obtained.

11 スピーカ
12 操作パネル装置
13 操作キー
14 送信用マイクロホン
20 携帯電話機
21 筐体
100 操作パネル装置
100a 操作パネル
101 表示装置
101a 表示面
102 タッチパネル
102a 操作面
103 接触座標検知部
104 仮想3次元空間処理部
105 ユーザー視点算出部
105a 内部メモリ
106 表示画像生成部
107 表示制御部
110 制御部
120 記憶部
Cd 接触座標データ
Cr5,Cr7,Cra、Crb 命令信号
Dcs 表示座標系
Dp、L、R、Tp 点
Dt 接触検出信号
Ed 両目視差
Id 画像データ
LB 左目視差画像
Lc、Rc 2次元座標系
Lp、Rp 2次元平面
LX、LY、RX、RY、TX、TY、TZ 座標軸
Nt5 通知信号
Pda、Pdb 3次元画像データ
R20 ユーザー視点情報
RB 右目視差画像
TB 物体
Tcs 操作座標系
Tc 3次元座標系
Ts 仮想3次元空間
Vp タッチ位置座標データ
DESCRIPTION OF SYMBOLS 11 Speaker 12 Operation panel apparatus 13 Operation key 14 Transmission microphone 20 Mobile phone 21 Case 100 Operation panel apparatus 100a Operation panel 101 Display apparatus 101a Display surface 102 Touch panel 102a Operation surface 103 Contact coordinate detection part 104 Virtual three-dimensional space processing part 105 User viewpoint calculation unit 105a Internal memory 106 Display image generation unit 107 Display control unit 110 Control unit 120 Storage unit Cd Contact coordinate data Cr5, Cr7, Cra, Crb Command signal Dcs Display coordinate system Dp, L, R, Tp point Dt Contact detection Signal Ed Parallax Id Image data LB Left-eye parallax image Lc, Rc 2D coordinate system Lp, Rp 2D plane LX, LY, RX, RY, TX, TY, TZ coordinate axis Nt5 Notification signal Pda, Pdb 3D image data R20 User viewpoint information RB Right-eye parallax image TB Object Tcs Operation coordinate system Tc 3D coordinate system Ts Virtual 3D space Vp Touch position coordinate data

Claims (9)

画像を表示する表示面を有する表示装置と、該表示装置の表示面に重ね合わせて設けられた操作面を有し、該操作面に対するタッチ操作により情報入力を行うタッチパネルとを備えた操作パネル装置であって、
仮想3次元空間内に位置する物体を定義する3次元画像データを生成する3次元画像空間処理部と、
該3次元画像データに基づいて該物体の左目視差画像及び右目視差画像の画像データを生成し、該表示装置の表示面に該物体が立体表示されるよう該表示装置に供給する表示画像生成部と、
立体表示された物体に対するユーザー視点を決定するユーザー視点決定部とを備え、
該タッチパネルの操作面に対する操作位置を、決定されたユーザー視点から該立体表示された物体を見たときの2次元画像に対する操作位置とする、操作パネル装置。
An operation panel device comprising: a display device having a display surface for displaying an image; and a touch panel having an operation surface provided to be superimposed on the display surface of the display device and inputting information by a touch operation on the operation surface Because
A 3D image space processing unit for generating 3D image data defining an object located in the virtual 3D space;
A display image generation unit that generates image data of a left-eye parallax image and a right-eye parallax image of the object based on the three-dimensional image data, and supplies the image to the display device so that the object is stereoscopically displayed on the display surface of the display device When,
A user viewpoint determination unit that determines a user viewpoint for a stereoscopically displayed object;
An operation panel device, wherein an operation position with respect to an operation surface of the touch panel is an operation position with respect to a two-dimensional image when the stereoscopically displayed object is viewed from a determined user viewpoint.
請求項1に記載の操作パネル装置において、
前記ユーザー視点決定部は、前記仮想3次元空間におけるユーザー視点を算出し、この算出したユーザー視点が、前記仮想3次元空間におけるユーザーの左目の位置及び右目の位置のいずれの位置に近いかを判定し、前記左目視差画像及び右目視差画像のうちの、算出したユーザー視点が近い方の目に対応するものを、前記タッチパネルの操作面でのタッチ操作の対象となる2次元画像として用いる、操作パネル装置。
The operation panel device according to claim 1,
The user viewpoint determination unit calculates a user viewpoint in the virtual three-dimensional space, and determines whether the calculated user viewpoint is closer to the position of the user's left eye or right eye in the virtual three-dimensional space. An operation panel that uses the left-eye parallax image and the right-eye parallax image corresponding to the eye with the closer calculated user viewpoint as a two-dimensional image to be touched on the operation surface of the touch panel. apparatus.
請求項1に記載の操作パネル装置において、
前記ユーザー視点決定部は、前記仮想3次元空間におけるユーザー視点を算出し、この算出したユーザー視点から該立体表示された物体を見たときの2次元画像を、前記タッチパネルの操作面でのタッチ操作の対象となる2次元画像として用いる、操作パネル装置。
The operation panel device according to claim 1,
The user viewpoint determination unit calculates a user viewpoint in the virtual three-dimensional space, and performs a touch operation on the operation surface of the touch panel when a two-dimensional image is viewed from the calculated user viewpoint. An operation panel device used as a two-dimensional image to be subjected to.
請求項1に記載の操作パネル装置において、
前記表示画像生成部は、前記仮想3次元空間におけるユーザーの左目の位置と前記物体の中心とを結ぶ直線に対して垂直な第1の2次元平面に、該物体の画像を投影して前記左目視差画像を生成し、前記仮想3次元空間におけるユーザーの右目の位置と前記物体の中心とを結ぶ直線に対して垂直な第2の2次元平面に、該物体の画像を投影して前記右目視差画像を生成するものである、操作パネル装置。
The operation panel device according to claim 1,
The display image generation unit projects the image of the object onto a first two-dimensional plane perpendicular to a straight line connecting the position of the user's left eye and the center of the object in the virtual three-dimensional space, and the left eye The right-eye parallax is generated by generating a parallax image and projecting the image of the object onto a second two-dimensional plane perpendicular to a straight line connecting the position of the right eye of the user and the center of the object in the virtual three-dimensional space. An operation panel device for generating an image.
請求項1に記載の操作パネル装置において、
前記ユーザー視点決定部は、電源がオンされた後の初期設定に続いて、立体表示された物体に対するユーザー視点が決定されているか否かの判定を行い、
該判定の結果、該ユーザー視点が決定されている場合は、既に格納されているユーザー視点に関する情報を用いて、前記左目視差画像及び前記右目視差画像のいずれかを、前記タッチパネルの操作面でのタッチ操作の対象となる2次元画像とし、
該判定の結果、前記ユーザー視点が決定されていない場合は、立体表示された物体に対するユーザー視点を決定し、その後、該決定したユーザー視点に基づいて、前記左目視差画像及び前記右目視差画像のいずれかを、前記タッチパネルの操作面でのタッチ操作の対象となる2次元画像とする、操作パネル装置。
The operation panel device according to claim 1,
The user viewpoint determination unit determines whether a user viewpoint for a three-dimensionally displayed object has been determined following the initial setting after the power is turned on,
As a result of the determination, when the user viewpoint is determined, either the left-eye parallax image or the right-eye parallax image is displayed on the operation surface of the touch panel using information about the user viewpoint already stored. A two-dimensional image to be touched,
If the user viewpoint is not determined as a result of the determination, a user viewpoint for the stereoscopically displayed object is determined, and then either the left-eye parallax image or the right-eye parallax image is determined based on the determined user viewpoint. An operation panel device, wherein the two-dimensional image is a target of a touch operation on the operation surface of the touch panel.
請求項5に記載の操作パネル装置において、
種々の情報を記憶する記憶部を有し、
前記ユーザー視点決定部は、前記判定の結果、前記ユーザー視点が決定されていない場合に、立体表示された物体に対するユーザー視点を決定したときは、決定したユーザー視点に関する情報を該記憶部に保存する、操作パネル装置。
The operation panel device according to claim 5,
A storage unit for storing various information;
When the user viewpoint is determined as a result of the determination and the user viewpoint is determined for the stereoscopically displayed object, the user viewpoint determination unit stores information on the determined user viewpoint in the storage unit Operation panel device.
請求項1に記載の操作パネル装置において、
前記タッチパネルに対するタッチ操作に応じて、前記仮想3次元空間処理部が、前記3次元画像空間における物体の生成、回転、移動、拡大、及び縮小を少なくとも含む種々の画像処理のうちの特定の画像処理を行うよう、該仮想3次元空間処理部を制御する表示制御部を備えた、操作パネル装置。
The operation panel device according to claim 1,
In response to a touch operation on the touch panel, the virtual three-dimensional space processing unit performs specific image processing among various image processing including at least generation, rotation, movement, enlargement, and reduction of an object in the three-dimensional image space. An operation panel device comprising a display control unit for controlling the virtual three-dimensional space processing unit so as to perform
請求項7に記載の操作パネル装置において、
前記タッチパネルに接続され、該タッチパネルからのタッチ検出信号に基づいて、ユーザーのタッチ操作した操作面上にタッチ位置を示す接触座標データを出力する接触座標検知部を備え、
前記ユーザー視点決定部は、該接触座標検知部からの接触座標データに基づいて、ユーザーがタッチした、前記左目視差画像あるいは前記右目視差画像におけるタッチ位置を検出し、該タッチ位置を示すタッチ位置座標データを出力し、
前記表示制御部は、該接触座標検知部からの接触座標データと、該ユーザー視点決定部から出力されたタッチ位置座標データとに基づいて、ユーザーのタッチ操作が示す画像処理の種類を判別し、判断した種類の画像処理が行われるよう、前記仮想3次元空間処理部を制御する、操作パネル装置。
The operation panel device according to claim 7,
A touch coordinate detection unit connected to the touch panel and outputting touch coordinate data indicating a touch position on an operation surface touched by a user based on a touch detection signal from the touch panel,
The user viewpoint determination unit detects a touch position in the left-eye parallax image or the right-eye parallax image touched by the user based on the contact coordinate data from the contact coordinate detection unit, and touch position coordinates indicating the touch position Output data,
The display control unit determines the type of image processing indicated by the user's touch operation based on the contact coordinate data from the contact coordinate detection unit and the touch position coordinate data output from the user viewpoint determination unit, An operation panel device that controls the virtual three-dimensional space processing unit so that the determined type of image processing is performed.
画像を表示する表示面を有する表示装置と、該表示装置の表示面に重ね合わせて設けられた操作面を有し、該操作面に対するタッチ操作により情報入力を行うタッチパネルとを備えた操作パネル装置を搭載した電子情報機器であって、
該操作パネル装置は、請求項1ないし8のいずれかに記載の操作パネル装置である、電子情報機器。
An operation panel device comprising: a display device having a display surface for displaying an image; and a touch panel having an operation surface provided to be superimposed on the display surface of the display device and inputting information by a touch operation on the operation surface An electronic information device equipped with
The operation panel device is an electronic information device which is the operation panel device according to any one of claims 1 to 8.
JP2011126801A 2011-06-06 2011-06-06 Operation panel device and electronic information equipment Withdrawn JP2012252663A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011126801A JP2012252663A (en) 2011-06-06 2011-06-06 Operation panel device and electronic information equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011126801A JP2012252663A (en) 2011-06-06 2011-06-06 Operation panel device and electronic information equipment

Publications (1)

Publication Number Publication Date
JP2012252663A true JP2012252663A (en) 2012-12-20

Family

ID=47525382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011126801A Withdrawn JP2012252663A (en) 2011-06-06 2011-06-06 Operation panel device and electronic information equipment

Country Status (1)

Country Link
JP (1) JP2012252663A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105657098A (en) * 2016-03-16 2016-06-08 努比亚技术有限公司 Part device for digital product
US20210263308A1 (en) * 2020-02-20 2021-08-26 Canon Kabushiki Kaisha Apparatus configured to display shared information on plurality of display apparatuses and method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105657098A (en) * 2016-03-16 2016-06-08 努比亚技术有限公司 Part device for digital product
US20210263308A1 (en) * 2020-02-20 2021-08-26 Canon Kabushiki Kaisha Apparatus configured to display shared information on plurality of display apparatuses and method thereof
US11703682B2 (en) * 2020-02-20 2023-07-18 Canon Kabushiki Kaisha Apparatus configured to display shared information on plurality of display apparatuses and method thereof

Similar Documents

Publication Publication Date Title
JP6703044B2 (en) System, method and electronic device for providing haptic effect according to line of sight
KR101708696B1 (en) Mobile terminal and operation control method thereof
CN109656354B (en) Information processing apparatus, information processing method, and computer program
US20170293351A1 (en) Head mounted display linked to a touch sensitive input device
JP5357238B2 (en) Mobile terminal and operation control method thereof
KR20230106727A (en) Gaze-based user interactions
JP6508280B2 (en) Control device, detection device, display system, electronic device, and program
US20050083314A1 (en) Computerized portable handheld means
WO2012043111A1 (en) Information processing terminal and control method therefor
EP2544071A2 (en) Display control apparatus, display control method, and program
JP7005161B2 (en) Electronic devices and their control methods
KR20180099182A (en) A system including head mounted display and method for controlling the same
JP2017097716A (en) Input device, input method and program
CN106067833B (en) Mobile terminal and control method thereof
KR101887452B1 (en) Apparatus for unlocking mobile terminal and method thereof
JP2007310599A (en) Video display device
US11582438B2 (en) Control device and master slave system
KR20130049152A (en) A stereoscopic interaction system and stereoscopic interaction method
JP6065908B2 (en) Stereoscopic image display device, cursor display method thereof, and computer program
JP2012252663A (en) Operation panel device and electronic information equipment
JP2010205031A (en) Method, system and program for specifying input position
KR20120034303A (en) Mobile terminal and method for controlling thereof
CN110494915B (en) Electronic device, control method thereof, and computer-readable medium
JP7005160B2 (en) Electronic devices and their control methods
KR101622695B1 (en) Mobile terminal and control method for the mobile terminal

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902