JP2008210359A - Operation device - Google Patents

Operation device Download PDF

Info

Publication number
JP2008210359A
JP2008210359A JP2007106011A JP2007106011A JP2008210359A JP 2008210359 A JP2008210359 A JP 2008210359A JP 2007106011 A JP2007106011 A JP 2007106011A JP 2007106011 A JP2007106011 A JP 2007106011A JP 2008210359 A JP2008210359 A JP 2008210359A
Authority
JP
Japan
Prior art keywords
image
hand
stereoscopic
seat side
operation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007106011A
Other languages
Japanese (ja)
Other versions
JP4356763B2 (en
Inventor
Hitoshi Kumon
仁 久門
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007106011A priority Critical patent/JP4356763B2/en
Priority to US12/010,627 priority patent/US8094189B2/en
Priority to CN2008100002726A priority patent/CN101236454B/en
Priority to DE102008000192A priority patent/DE102008000192B4/en
Publication of JP2008210359A publication Critical patent/JP2008210359A/en
Application granted granted Critical
Publication of JP4356763B2 publication Critical patent/JP4356763B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an operation device capable of securing operability substantially same to that in reflecting type configuration, while adopting prompter type configuration. <P>SOLUTION: The operation device of the present invention is provided with an operation part 20 arranged with an operation switch, a display part 40 allowing naked-eye stereoscopic view, imaging means 50, 500 for imaging a hand of a user for operating the operation part, from a plurality of directions, and a stereoscopic view image generating means 76 for generating a stereoscopic view image of the hand, based on parallax images obtained from the imaging means, and combines an operation menu image for expressing an arrangement position of the operation switch in the operation part and a function of the operation switch, with the stereoscopic view image of the hand generated by the stereoscopic view image generating means, to be displayed on the display. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、操作メニュー画像上に、操作部を操作するユーザの手の画像を重畳表示する操作装置に関する。   The present invention relates to an operation device that superimposes and displays an image of a user's hand operating an operation unit on an operation menu image.

従来から、車内の好適位置に配置され,各種車載機器を作動操作するための複数種のスイッチが集約して配列された多機能スイッチ操作プレートと,操作者が前方視できる視野領域の車内好適位置に配置され,前記複数種のスイッチの配列画像を画面表示する表示器と,前記操作者が指先で前記スイッチの目標とするものを操作するとき,その目標スイッチを感知した検出信号に基づいて前記表示器に画面表示されている前記目標スイッチの画像の配列位置および機能を前記操作者に認識させるよう制御するコントローラと,を備え,前記操作者が前方視状態で前記表示器に表示されている前記目標スイッチの画像を視認しつつ前記多機能スイッチ操作プレート上の目標スイッチをリアルタイムで指先操作可能に構成したことを特徴とする車載機器スイッチ安全操作システムが知られている(例えば、特許文献1参照)。   Conventionally, a multi-function switch operation plate that is arranged at a suitable position in the vehicle and is arranged by integrating a plurality of types of switches for operating various on-vehicle devices, and a suitable position in the vehicle in a visual field area that can be viewed forward by the operator And a display for displaying an array image of the plurality of types of switches on the screen, and when the operator operates a target of the switch with a fingertip, the detection unit detects the target switch based on the detection signal. A controller that controls the operator to recognize the arrangement position and function of the image of the target switch displayed on the screen on the display, and the operator is displayed on the display in a forward view state. A vehicle characterized in that a target switch on the multi-function switch operation plate can be operated in real time while visually recognizing an image of the target switch. Device switch safe operation system is known (e.g., see Patent Document 1).

また、使用者によりタッチ操作されるスイッチが表示画面内に設けられているタッチパネル式ディスプレイと、反射面を使用者に向けて配置される第1の鏡手段と、前記タッチパネル式ディスプレイの表示画像を反射画像として前記第1の鏡手段の反射面に反射する第2の鏡手段と、を有する反射光学系と、を備える操作装置が知られている(例えば、特許文献2参照)。この操作装置では、使用者によりタッチ操作されるタッチパネル式ディスプレイの表示画面が、第1、第2の鏡手段による反射光学系を介して使用者に向けて表示される。
特開2000−6687号公報 特開2005−335510号公報
In addition, a touch panel type display in which a switch touched by the user is provided in the display screen, a first mirror means arranged with the reflecting surface facing the user, and a display image of the touch panel type display There is known an operation device including a reflection optical system having a second mirror unit that reflects the reflection surface of the first mirror unit as a reflected image (see, for example, Patent Document 2). In this operation device, the display screen of the touch panel display that is touch-operated by the user is displayed to the user via the reflective optical system by the first and second mirror means.
JP 2000-6687 A JP 2005-335510 A

ところで、上述の特許文献1に開示されるようなプロンプター方式の構成では、操作部を操作するユーザの手をカメラで撮像して、当該手の画像を、表示部が表示する操作メニュー画像に重畳するので、車載機器のいわゆるブラインド操作が容易となる。   By the way, in the structure of the prompter system as disclosed in the above-mentioned Patent Document 1, the user's hand operating the operation unit is imaged with a camera, and the image of the hand is superimposed on the operation menu image displayed on the display unit. Therefore, so-called blind operation of the in-vehicle device is facilitated.

しかしながら、上述の特許文献1に開示されるようなプロンプター方式の構成では、表示部に表示される手の画像は、1つのカメラからの画像データに基づいて生成されるので、2次元表示しかできない。このため、ユーザは、操作メニュー画像と同様に平面的に見える手の画像を見ながら操作部の操作スイッチを操作するので、操作スイッチと手の距離感を掴み難く、操作性が良好でないという欠点がある。   However, in the configuration of the prompter system as disclosed in Patent Document 1 described above, since the hand image displayed on the display unit is generated based on the image data from one camera, only two-dimensional display can be performed. . For this reason, since the user operates the operation switch of the operation unit while viewing the hand image that looks planar like the operation menu image, it is difficult to grasp the sense of distance between the operation switch and the hand, and the operability is not good. There is.

一方、上述の特許文献2に開示される種の反射式の構成(操作部を操作するユーザの手を、ミラーを用いてユーザに見せる構成)では、ユーザの目には、手が立体的に映るので、操作スイッチと手の距離感を掴み易く、操作性が非常に良好となる。   On the other hand, in the reflection type configuration disclosed in the above-described Patent Document 2 (a configuration in which the user's hand operating the operation unit is shown to the user using a mirror), the user's eyes are three-dimensionally. Since it is reflected, it is easy to grasp the sense of distance between the operation switch and the hand, and the operability is very good.

そこで、本発明は、プロンプター方式の構成を採用しつつ、反射式の構成と略同等の操作性を確保することができる操作装置の提供を目的とする。   In view of the above, an object of the present invention is to provide an operating device that can ensure operability substantially equal to that of a reflective configuration while adopting a prompter configuration.

上記目的を達成するため、第1の発明に係る操作装置は、操作スイッチが配置された操作部と、
裸眼立体視可能な表示器と、
前記操作部を操作するユーザの手を複数の方向から撮影する撮像手段と、
前記撮像手段から得られる視差画像に基づいて、前記手の立体視画像を生成する立体視画像生成手段とを備え、
前記表示器上に、前記操作部における操作スイッチの配置位置及び操作スイッチの機能を表す操作メニュー画像と、前記立体視画像生成手段により生成された手の立体視画像とを合成して表示することを特徴とする。
In order to achieve the above object, an operating device according to a first aspect of the present invention includes an operation unit in which an operation switch is disposed,
An indicator capable of autostereoscopic viewing,
Imaging means for photographing a user's hand operating the operation unit from a plurality of directions;
A stereoscopic image generation unit that generates a stereoscopic image of the hand based on a parallax image obtained from the imaging unit;
On the display unit, the operation menu image representing the position of the operation switch and the function of the operation switch in the operation unit and the stereoscopic image of the hand generated by the stereoscopic image generation unit are combined and displayed. It is characterized by.

第2の発明は、第1の発明に係る操作装置において、
前記操作部及び表示器が、車室内における車両幅方向で運転席と助手席との間の位置に配置されている請求項1に記載の操作装置において、
前記撮像手段は、車両幅方向で運転席側から前記操作部を斜め下方に俯瞰する少なくとも2つの撮像手段を含み、
前記立体視画像生成手段は、前記2つの撮像手段から得られる視差画像に基づいて、運転席側からの視線方向で前記手の立体視画像を生成する、操作装置。
According to a second aspect of the present invention, in the operating device according to the first aspect,
The operation device according to claim 1, wherein the operation unit and the indicator are arranged at a position between the driver seat and the passenger seat in the vehicle width direction in the vehicle interior.
The imaging means includes at least two imaging means for looking down the operation unit obliquely downward from the driver seat side in the vehicle width direction,
The operation device, wherein the stereoscopic image generation unit generates the stereoscopic image of the hand in a line-of-sight direction from the driver's seat based on parallax images obtained from the two imaging units.

第3の発明は、第1の発明に係る操作装置において、
前記操作部及び表示器が、車室内における車両幅方向で運転席と助手席との間の位置に配置されており、
前記操作部が運転席側から操作されているか又は助手席側から操作されているかを判別する操作者判別手段を更に備え、
前記立体視画像生成手段は、前記操作者判別手段により前記操作部が運転席側から操作されていると判別された場合には、運転席側からの視線方向で前記手の立体視画像を生成し、前記操作者判別手段により前記操作部が助手席側から操作されていると判別された場合には、助手席側からの視線方向で前記手の立体視画像を生成することを特徴とする。
According to a third aspect of the present invention, in the operating device according to the first aspect,
The operation unit and the indicator are arranged at a position between the driver seat and the passenger seat in the vehicle width direction in the vehicle interior,
An operator discriminating means for discriminating whether the operation unit is operated from the driver's seat side or the passenger seat side;
The stereoscopic image generation means generates the stereoscopic image of the hand in the line-of-sight direction from the driver seat side when the operator determination means determines that the operation unit is operated from the driver seat side. When the operator determining unit determines that the operation unit is operated from the passenger seat side, the stereoscopic image of the hand is generated in the line-of-sight direction from the passenger seat side. .

第4の発明は、第3の発明に係る操作装置において、
前記撮像手段は、車両幅方向で互いに離間した3つ以上の撮像手段を備え、
前記立体視画像生成手段は、前記操作者判別手段により前記操作部が運転席側から操作されていると判別された場合には、運転席側にある2つの撮像手段から得られる視差画像に基づいて、前記手の立体視画像を生成し、前記操作者判別手段により前記操作部が助手席側から操作されていると判別された場合には、助手席側にある2つの撮像手段から得られる視差画像に基づいて、前記手の立体視画像を生成することを特徴とする。
4th invention is the operating device which concerns on 3rd invention,
The imaging means includes three or more imaging means spaced apart from each other in the vehicle width direction,
The stereoscopic image generation means is based on parallax images obtained from two imaging means on the driver seat side when the operator determination means determines that the operation unit is operated from the driver seat side. When the operator discriminating unit determines that the operation unit is operated from the passenger seat side, the stereoscopic image of the hand is generated and obtained from the two imaging units on the passenger seat side. The stereoscopic image of the hand is generated based on the parallax image.

第5の発明は、第3の発明に係る操作装置において、
前記撮像手段は、車両幅方向で可動な2つの撮像手段を備え、
前記立体視画像生成手段は、前記操作者判別手段により前記操作部が運転席側から操作されていると判別された場合には、運転席側に移動された2つの撮像手段から得られる視差画像に基づいて、前記手の立体視画像を生成し、前記操作者判別手段により前記操作部が助手席側から操作されていると判別された場合には、助手席側に移動された2つの撮像手段から得られる視差画像に基づいて、前記手の立体視画像を生成することを特徴とする。
According to a fifth aspect of the present invention, in the operating device according to the third aspect,
The imaging means includes two imaging means movable in the vehicle width direction,
The stereoscopic image generation means is a parallax image obtained from two imaging means moved to the driver seat side when the operator determination means determines that the operation unit is operated from the driver seat side. The stereoscopic image of the hand is generated on the basis of the two images, and when the operation determining unit determines that the operation unit is operated from the passenger seat side, the two images moved to the passenger seat side are generated. The hand stereoscopic image is generated based on a parallax image obtained from the means.

第6の発明は、第1の発明に係る操作装置において、
前記表示器上において、前記操作メニュー画像における操作スイッチを表す画像部分を立体視で表示すると共に、前記手の立体視画像を、前記表示器の表示面から所定高さオフセットした面を高さゼロの基準面として表示することを特徴とする。
A sixth aspect of the present invention is the operating device according to the first aspect,
On the display device, an image portion representing the operation switch in the operation menu image is displayed in a stereoscopic view, and a surface obtained by offsetting the stereoscopic image of the hand by a predetermined height from the display surface of the display device has a height of zero. It is displayed as a reference plane.

第7の発明は、第6の発明に係る操作装置において、
前記操作メニュー画像における操作スイッチを表す画像部分を、前記表示器の表示面を高さゼロの基準面として立体視で表示し、
前記オフセットされる所定高さは、前記操作スイッチを表す画像部分の立体視の高さに略一致することを特徴とする。
7th invention is the operating device which concerns on 6th invention,
An image portion representing an operation switch in the operation menu image is displayed in a stereoscopic view with a display surface of the display as a reference surface having a height of zero,
The predetermined height to be offset is substantially equal to the stereoscopic height of the image portion representing the operation switch.

第8の発明は、第6又は7の発明に係る操作装置において、
前記操作部に手の指が接触したときに表示される前記手の立体視画像における該指の前記表示器の表示面から高さは、前記操作メニュー画像における操作スイッチを表す画像部分の立体視の高さに略一致することを特徴とする。
An eighth invention is the operating device according to the sixth or seventh invention,
The height of the finger from the display surface of the display in the stereoscopic image of the hand displayed when the finger of the hand touches the operation unit is the stereoscopic view of the image portion representing the operation switch in the operation menu image. It is characterized by substantially coincident with the height of.

本発明によれば、プロンプター方式の構成を採用しつつ、反射式の構成と略同等の操作性を確保することができる操作装置が得られる。   According to the present invention, it is possible to obtain an operating device that can ensure operability substantially equal to that of a reflective configuration while adopting a prompter configuration.

以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本発明に係る操作装置10の車両搭載状態の実施例1を示す斜視図である。図2は、図1に示す操作装置10の側面視による概略的な断面図であり、機能ブロックについても示す。本実施例の操作装置10は、図1に示すように、操作部20、表示部40及びカメラ50を備え、操作部20及び表示部40は、車室内の物理的に離れた位置に別々に配置される。   FIG. 1 is a perspective view showing Example 1 of the operating device 10 according to the present invention mounted on a vehicle. FIG. 2 is a schematic cross-sectional view of the operating device 10 shown in FIG. 1 as viewed from the side, and also shows functional blocks. As shown in FIG. 1, the operating device 10 of the present embodiment includes an operating unit 20, a display unit 40, and a camera 50, and the operating unit 20 and the display unit 40 are separately located at physically separated positions in the vehicle interior. Be placed.

操作部20は、タッチパネルにより構成される。操作部20は、運転者が手を伸ばして容易に操作できるような位置に配置される。例えば、操作部20は、図1に示すように、コンソールボックスに配置される。或いは、操作部20は、インストルメントパネルにおける表示部40よりも手前側に配置されてもよい。操作部20は、その略平らな操作面が略水平になるように配置される。   The operation unit 20 is configured by a touch panel. The operation unit 20 is disposed at a position where the driver can easily operate by reaching out. For example, the operation unit 20 is arranged in a console box as shown in FIG. Or the operation part 20 may be arrange | positioned in the near side rather than the display part 40 in an instrument panel. The operation unit 20 is arranged such that its substantially flat operation surface is substantially horizontal.

操作部20は、通常的なタッチパネル構成であってよいが、好ましくは、発光可能な透明タッチパネルからなる。透明タッチパネルは、例えば、薄膜透明電極を設けたガラス基板を下に、薄膜透明電極を設けたフィルム基板を上にして、薄膜透明電極同士をドットスペーサを介して対向させた積層構造を有する。透明タッチパネル上での操作信号(操作位置信号)は、透明タッチパネルの側部に接着されるFPC(フレキシブル印刷回路)を介して表示制御部80(図2参照)に供給される。表示制御部80は、透明タッチパネル上での操作信号(操作位置信号)に応じて、各種機能(後述の操作メニュー画像の切り替えや各種車載機器30の制御)を実現する。透明タッチパネルの発光は、例えば透明タッチパネルを青色に発光させるLEDより実現されてもよい。尚、操作部20の透明タッチパネルの裏側には、タッチパネル式ディスプレイのようなディスプレイを設ける必要はない(即ち、操作部20における操作スイッチを操作部20上に表示する必要はない)。   The operation unit 20 may have a normal touch panel configuration, but preferably includes a transparent touch panel capable of emitting light. The transparent touch panel has, for example, a laminated structure in which a thin film transparent electrode is opposed to each other through a dot spacer with a glass substrate provided with a thin film transparent electrode facing down and a film substrate provided with a thin film transparent electrode facing up. An operation signal (operation position signal) on the transparent touch panel is supplied to the display control unit 80 (see FIG. 2) via an FPC (flexible printed circuit) bonded to the side of the transparent touch panel. The display control unit 80 realizes various functions (switching of operation menu images described later and control of various in-vehicle devices 30) according to an operation signal (operation position signal) on the transparent touch panel. The light emission of the transparent touch panel may be realized by, for example, an LED that causes the transparent touch panel to emit blue light. Note that it is not necessary to provide a display such as a touch panel display on the back side of the transparent touch panel of the operation unit 20 (that is, it is not necessary to display the operation switch in the operation unit 20 on the operation unit 20).

表示部40は、裸眼立体視が可能な表示器により構成される。裸眼立体視が可能な表示部40は、例えばパララックスバリア(視差バリア)方式,レンティキュラ方式など、視線の視差分割方式(両眼輻輳方式)を利用して実現されてもよいし、DFD(Depth Fused 3D)方式を利用して実現されてもよい。   The display unit 40 is configured by a display capable of autostereoscopic viewing. The display unit 40 capable of autostereoscopic viewing may be realized by using a parallax division method (binocular convergence method) of the line of sight such as a parallax barrier (parallax barrier) method, a lenticular method, or the like. Depth Fused 3D) method may be used.

視差バリア方式の場合には、表示部40は、図3(A)にて示す原理図のように、画素列(例えばTFT液晶で構成された画素列)の横方向に交互に左眼用画素領域41L及び右眼用画素領域41Rが設定され、視差バリア(縦方向のスリット)42により左眼用画素領域41Lからの光が左眼だけに到達し且つ右眼用画素領域41Rからの光が右眼だけに到達するように構成される。視差バリア42は、電子制御可能なスイッチ液晶により構成されてよい。また、視差バリア42は、画素列の背後で且つ光源の手前側に設定されてもよい。   In the case of the parallax barrier method, as shown in the principle diagram shown in FIG. 3A, the display unit 40 alternates left-eye pixels in the horizontal direction of a pixel column (for example, a pixel column composed of TFT liquid crystals). The region 41L and the right-eye pixel region 41R are set, and the light from the left-eye pixel region 41L reaches only the left eye and the light from the right-eye pixel region 41R is caused by the parallax barrier (vertical slit) 42. Configured to reach only the right eye. The parallax barrier 42 may be configured by a switch liquid crystal that can be electronically controlled. Further, the parallax barrier 42 may be set behind the pixel row and on the near side of the light source.

レンティキュラ方式の場合には、表示部40は、図3(B)にて示す原理図のように、画面の横方向に交互に左眼用画素領域41L及び右眼用画素領域41Rが設定され、かまぼこ状のレンチキュラレンズ44により左眼用画素領域41Lからの光が左眼だけに到達し且つ右眼用画素領域41Rからの光が右眼だけに到達するように構成される。このように視差分割方式では、人間の左右の目にそれぞれ異なる画像を映すことにより奥行き感を出すことができる。   In the case of the lenticular method, the display unit 40 has left-eye pixel areas 41L and right-eye pixel areas 41R alternately set in the horizontal direction of the screen as shown in the principle diagram of FIG. The kamaboko-shaped lenticular lens 44 is configured such that light from the left-eye pixel region 41L reaches only the left eye and light from the right-eye pixel region 41R reaches only the right eye. Thus, in the parallax division method, it is possible to give a sense of depth by projecting different images to the left and right eyes of a human.

DFD方式の場合には、表示部40は、前後2枚の透明なTFT液晶を適当な間隔をあけて重ね合わせて構成される。前後2枚の透明なTFT液晶には、明るさの違う同じ画像が表示される。このようにDFD方式では、前後に重なった同一画像の輝度比を変化させることにより二面間に連続的な奥行き感を出すことができる。   In the case of the DFD method, the display unit 40 is configured by superimposing two transparent TFT liquid crystals on the front and rear sides at an appropriate interval. The same image with different brightness is displayed on two transparent TFT LCDs. As described above, in the DFD method, a continuous sense of depth can be obtained between the two surfaces by changing the luminance ratio of the same image overlapped in the front and rear.

表示部40は、ユーザが見やすい位置、好ましくは、運転者が運転中の視野を大きく変えることなく見ることができるような位置に配置される。例えば、表示部40は、図1に示すように、インストルメントパネル上面の中央部に配置される。或いは、表示部40は、メーター内に配置されてもよい。また、表示部40は、立体感を得やすいように、運転者方向に角度を付けて設置してもよい。   The display unit 40 is arranged at a position that is easy for the user to see, preferably at a position where the driver can see without greatly changing the field of view during driving. For example, the display part 40 is arrange | positioned in the center part of the upper surface of an instrument panel, as shown in FIG. Or the display part 40 may be arrange | positioned in a meter. In addition, the display unit 40 may be installed with an angle in the driver direction so that a stereoscopic effect can be easily obtained.

カメラ50(撮像手段)は、図1に示すように、車両幅方向に沿って離間して配置された2つのカメラ51,52からなるステレオカメラ(2眼カメラ)である。以下では、必要に応じて、車両幅方向で助手席側(右ハンドル車の場合には左側)のカメラ51を、「左眼用カメラ51」とも称し、車両幅方向で運転席側(右ハンドル車の場合には右側)のカメラ52を、「右眼用カメラ52」とも称する。各カメラ51,52は、例えばCCDやCMOSを撮像素子とする小型カラーカメラであり、操作部20(及びそれを操作するユーザの手)をそれぞれ別の方向から俯瞰できるように配置される。図示の例では、左眼用カメラ51は、操作部20の車幅方向の中心よりも助手席側に配置され、操作部20の全体を助手席側から斜め下方に撮像するように配置され、右眼用カメラ52は、操作部20の車幅方向の中心よりも運転席側に配置され、操作部20の全体を運転席側から斜め下方に撮像するように配置されている。このようにして、各カメラ51,52は、ユーザが表示部40を見るときの視差及び輻輳角に対応した視差及び輻輳角で操作部20を撮像するように配置される。これにより、操作部20を操作するユーザの手の立体情報がカメラ50により取得可能となる。   As shown in FIG. 1, the camera 50 (imaging means) is a stereo camera (two-lens camera) including two cameras 51 and 52 that are arranged apart from each other in the vehicle width direction. Hereinafter, if necessary, the camera 51 on the passenger seat side (left side in the case of a right-hand drive vehicle) in the vehicle width direction is also referred to as a “left-eye camera 51”, and the driver seat side (right handle) in the vehicle width direction. The right camera 52 in the case of a car is also referred to as a “right-eye camera 52”. Each of the cameras 51 and 52 is a small color camera using, for example, a CCD or a CMOS as an image sensor, and is arranged so that the operation unit 20 (and the user's hand operating it) can be seen from different directions. In the illustrated example, the left-eye camera 51 is disposed on the passenger seat side with respect to the center of the operation unit 20 in the vehicle width direction, and is disposed so as to capture the entire operation unit 20 obliquely downward from the passenger seat side. The right-eye camera 52 is disposed closer to the driver's seat than the center of the operation unit 20 in the vehicle width direction, and is disposed so as to capture the entire operation unit 20 obliquely downward from the driver's seat side. Thus, each camera 51 and 52 is arrange | positioned so that the operation part 20 may be imaged with the parallax and convergence angle corresponding to the parallax and convergence angle when a user looks at the display part 40. FIG. As a result, the stereoscopic information of the hand of the user who operates the operation unit 20 can be acquired by the camera 50.

操作部20をユーザが操作すると、操作部20を操作するためユーザの手が各カメラ51,52の撮像エリアに入り、各カメラ51,52により操作部20を操作する手が撮像される。この手の画像を含むカメラ画像は、表示画像生成回路70(図2参照)に供給される。   When the user operates the operation unit 20, the user's hand enters the imaging area of each camera 51, 52 in order to operate the operation unit 20, and the hand operating the operation unit 20 is imaged by each camera 51, 52. The camera image including the hand image is supplied to the display image generation circuit 70 (see FIG. 2).

表示画像生成回路70は、表示制御部80による制御下で、裸眼立体視可能な表示部40で表示されるのに適した画像を生成する。   The display image generation circuit 70 generates an image suitable for display on the display unit 40 capable of autostereoscopic viewing under the control of the display control unit 80.

表示画像生成回路70は、図2に示すように、背景画像生成回路71と、左眼用画像合成回路72と、右眼用画像合成回路74と、立体視画像生成回路76とを備える。   As shown in FIG. 2, the display image generation circuit 70 includes a background image generation circuit 71, a left eye image synthesis circuit 72, a right eye image synthesis circuit 74, and a stereoscopic image generation circuit 76.

背景画像生成回路71は、表示部40上に表示される背景画像を生成する。背景画像は、ここでは、図4に示すような操作メニュー画像である。その他、背景画像としては、ナビゲーションシステムの地図画像等を含んでよい。操作メニュー画像は、操作部20の操作スイッチ(タッチスイッチ)の配置位置及びその機能を表す。操作メニュー画像は、操作スイッチに対する操作で実現される各種機能を、ユーザに知らせると共に、当該各種機能を実現するために操作されるべき各操作スイッチの位置を、ユーザに知らせる役割を果たす。   The background image generation circuit 71 generates a background image displayed on the display unit 40. Here, the background image is an operation menu image as shown in FIG. In addition, the background image may include a map image of the navigation system. The operation menu image represents the position of the operation switch (touch switch) of the operation unit 20 and its function. The operation menu image serves to notify the user of various functions realized by operations on the operation switches and to notify the user of the position of each operation switch to be operated to realize the various functions.

図4に示す例では、操作メニュー画像は、操作部20における8つの操作スイッチを表す図形画像F1〜F8を含む。この操作メニュー画像を見るユーザは、操作スイッチが前後2列に配列されていることを知ると共に、各図形画像F1〜F8内の文字を見ることで、各操作スイッチを操作して実現できる機能を知ることができる。例えば、ユーザがメールをしたいと思った場合、ユーザは、“メール”
の文字を含む図形画像F3に対応する位置にある操作スイッチ、即ち、前列の左から3番目の操作スイッチを押せばよいことを理解することができる。
In the example illustrated in FIG. 4, the operation menu image includes graphic images F <b> 1 to F <b> 8 representing eight operation switches in the operation unit 20. The user who sees the operation menu image knows that the operation switches are arranged in two rows in the front and rear, and also has a function that can be realized by operating each operation switch by looking at the characters in the graphic images F1 to F8. I can know. For example, if a user wants to email, the user can enter “email”
It can be understood that the operation switch located at the position corresponding to the graphic image F3 including the character, that is, the third operation switch from the left in the front row may be pressed.

尚、操作メニュー画像は、各種用意されてよく、操作部20の操作スイッチに対するユーザの操作状況等に応じて、適宜切り替えられてよい。この場合、当該操作メニュー画像の切り替えに応じて、操作部20の操作スイッチの配置位置及びその機能が変更される。かかる構成では、操作部20において多くの車載機器30の操作スイッチを実現することができ、操作スイッチの効率的な集約を図ることができる。例えば、操作部20には、図4には示していないが、メールや電話、周辺施設案内等の情報通信系の車載機器の操作のみならず、空調装置、オーディオ装置の各種操作のための各種操作スイッチが実現されてよい。   Various operation menu images may be prepared, and may be switched as appropriate according to the user's operation status with respect to the operation switch of the operation unit 20. In this case, the position and function of the operation switch of the operation unit 20 are changed according to the switching of the operation menu image. With such a configuration, the operation switches of many in-vehicle devices 30 can be realized in the operation unit 20, and the operation switches can be efficiently integrated. For example, although not shown in FIG. 4, the operation unit 20 includes various operations for various operations of an air conditioner and an audio device as well as operations of in-vehicle devices for information communication systems such as e-mails, telephones, and peripheral facility guidance. An operation switch may be realized.

左眼用画像合成回路72は、背景画像生成回路71からの操作メニュー画像と、左眼用カメラ51からのカメラ画像とに基づいて、左眼用画像を生成する。具体的には、左眼用画像合成回路72は、先ず、左眼用カメラ51からのカメラ画像から、手の画像(以下、「手画像」という)だけを抽出する。手画像の抽出には、カメラ画像に含まれる手以外の部分(操作部20)と手の色度(彩度)差ないしコントラスト差を利用して実現されてよい。典型的には、それ自体広く知られているクロマキー合成技術が用いられる。これは、特定の色(キーカラー)を背景に画像を撮影しておき、そのキーカラーに別な画像を重ねることで合成を行なう技術である。キーカラーとして一般的に用いられている色は、青である。それは、人間の肌色と最も対極にあるのが青色なため、人間の手を抜き出す処理には適しているためである。従って、操作部20をキーカラー(例えば青色)で着色し又はキーカラーで発光させ、カメラ画像においてクロマキーで青色部分を抜き取ると、手画像だけが残る。尚、手画像の抽出には他の方法、例えば、ルミナンス合成技術(画像の輝度とコントラストの情報を含むルミナンス信号(Luminance)のうちのある輝度信号を指定してその信号以下または以上のみを抜く方法)等があるが、以下では、主にクロマキー合成技術が用いられる場合について説明していく。   The left-eye image synthesis circuit 72 generates a left-eye image based on the operation menu image from the background image generation circuit 71 and the camera image from the left-eye camera 51. Specifically, the left-eye image composition circuit 72 first extracts only the hand image (hereinafter referred to as “hand image”) from the camera image from the left-eye camera 51. The extraction of the hand image may be realized using a portion other than the hand (operation unit 20) included in the camera image and a chromaticity (saturation) difference or contrast difference of the hand. Typically, a chroma key synthesis technique that is widely known per se is used. This is a technique in which an image is shot against a background of a specific color (key color), and another image is superimposed on the key color for composition. A color generally used as a key color is blue. This is because blue is the most opposite to human skin color and is suitable for processing to extract human hands. Accordingly, when the operation unit 20 is colored with a key color (for example, blue) or light is emitted with the key color, and the blue portion is extracted with the chroma key in the camera image, only the hand image remains. It should be noted that other methods for hand image extraction, such as luminance synthesis technology (designating a luminance signal in a luminance signal (Luminance including information on luminance and contrast of an image), and extracting only the signal below or above that signal are extracted. In the following, the case where the chroma key composition technique is mainly used will be described.

左眼用画像合成回路72は、手画像を抽出すると、当該抽出した手画像を、背景画像生成回路71からの操作メニュー画像に合成して左眼用画像を生成する。このようにして生成された左眼用画像は、立体視画像生成回路76に供給される。   When the left-eye image composition circuit 72 extracts the hand image, the left-eye image composition circuit 72 composes the extracted hand image with the operation menu image from the background image generation circuit 71 to generate the left-eye image. The left-eye image generated in this way is supplied to the stereoscopic image generation circuit 76.

同様に、右眼用画像合成回路74は、背景画像生成回路71からの操作メニュー画像と、右眼用カメラ52からのカメラ画像とに基づいて、右眼用画像を生成する。尚、右眼用画像合成回路74には、左眼用画像合成回路72と共通の操作メニュー画像が生成される。このようにして生成された右眼用画像は、立体視画像生成回路76に供給される。   Similarly, the right-eye image synthesis circuit 74 generates a right-eye image based on the operation menu image from the background image generation circuit 71 and the camera image from the right-eye camera 52. The right eye image composition circuit 74 generates an operation menu image common to the left eye image composition circuit 72. The right-eye image generated in this way is supplied to the stereoscopic image generation circuit 76.

立体視画像生成回路76は、左眼用画像合成回路72からの左眼用画像と、右眼用画像合成回路74からの右眼用画像とに基づいて、裸眼立体視が可能な表示部40に適合した立体視画像を生成する。この際、立体視画像生成回路76は、操作メニュー画像が2次元の平面でユーザの目に映り、且つ、手画像が3次元の立体でユーザの目に映るように、立体視画像を生成する。即ち、立体視画像生成回路76は、表示部40の表示面を高さゼロの基準面として、操作メニュー画像に対する手画像の手の各指の高さと方向が、実際の手の各位置の操作部20に対する高さと方向に対応する立体視になるように、立体視画像を生成する。立体視画像生成回路76により生成される立体視画像は、表示部40にて表示される。   The stereoscopic image generation circuit 76 is a display unit 40 capable of autostereoscopic viewing based on the left-eye image from the left-eye image synthesis circuit 72 and the right-eye image from the right-eye image synthesis circuit 74. A stereoscopic image suitable for the above is generated. At this time, the stereoscopic image generation circuit 76 generates a stereoscopic image so that the operation menu image is visible to the user's eye on a two-dimensional plane and the hand image is visible to the user's eye on a three-dimensional solid. . That is, the stereoscopic image generation circuit 76 uses the display surface of the display unit 40 as a reference plane having a height of zero, and the height and direction of each finger of the hand image with respect to the operation menu image corresponds to the operation at each position of the actual hand. A stereoscopic image is generated so that a stereoscopic view corresponding to the height and direction with respect to the unit 20 is obtained. The stereoscopic image generated by the stereoscopic image generation circuit 76 is displayed on the display unit 40.

表示部40が視差分割方式である場合には、立体視画像生成回路76は、左眼用画像合成回路72からの左眼用画像を所定の間隔で分割して、分割した画像片を表示部40の各左眼用画像用画素領域41Lに割り当てると共に、且つ、右眼用画像合成回路74からの右眼用画像を所定の間隔で分割して、分割した画像片を表示部40の各右眼用画像用画素領域41Rに割り当てる。このようにして、立体視画像生成回路76は、左眼用画像がユーザの左眼だけに映るように(表示部40上における左眼用画像用画素領域の光がユーザの左眼にだけ到達するように)、且つ、右眼用画像がユーザの右眼だけに映るように(表示部40上における右眼用画像用画素領域の光がユーザの右眼にだけ到達するように)、立体視画像を生成する。これにより、ユーザの左眼には、左眼用カメラ51で得られた手画像だけが映り、ユーザの右眼には、右眼用カメラ52で得られた手画像だけが映り、これらの2つの手画像の視差による視線分割により、ユーザに、表示部40で表示された画像(立体視画像中の手の部分)があたかも立体的であるかのように見せることができる。   When the display unit 40 uses the parallax division method, the stereoscopic image generation circuit 76 divides the left-eye image from the left-eye image synthesis circuit 72 at a predetermined interval, and displays the divided image pieces as the display unit. The right-eye image from the right-eye image synthesis circuit 74 is divided at predetermined intervals, and the divided image pieces are assigned to the respective right parts of the display unit 40. This is assigned to the eye image pixel area 41R. In this way, the stereoscopic image generation circuit 76 makes the left eye image appear only in the user's left eye (the light in the left eye image pixel region on the display unit 40 reaches only the user's left eye. So that the right-eye image appears only to the right eye of the user (so that the light in the right-eye image pixel area on the display unit 40 reaches only the right eye of the user). A visual image is generated. As a result, only the hand image obtained by the left-eye camera 51 is shown in the user's left eye, and only the hand image obtained by the right-eye camera 52 is shown in the user's right eye. By dividing the line of sight by the parallax of two hand images, the image displayed on the display unit 40 (the hand portion in the stereoscopic image) can be shown to the user as if it were stereoscopic.

表示部40がDFD方式である場合には、立体視画像生成回路76は、左眼用画像合成回路72からの左眼用画像と、右眼用画像合成回路74からの右眼用画像とに基づいて、前後2枚のディスプレイに表示させるべき表示用手画像を生成すると共に、表示用手画像における手の各位置の操作部20に対する高さに関する情報を取得する。次いで、立体視画像生成回路76は、表示用手画像の各画素の輝度を、高さ情報に基づいて決定する。このようにして、立体視画像生成回路76は、手の各位置の操作部20に対する高さに応じた輝度差を備えた前後の表示用手画像(立体視画像)を生成する。これにより、ユーザの眼に、表示部40で表示された画像(立体視画像中の手の部分)があたかも立体的であるかのように見せることができる。   When the display unit 40 is a DFD method, the stereoscopic image generation circuit 76 converts the left eye image from the left eye image synthesis circuit 72 and the right eye image from the right eye image synthesis circuit 74. Based on this, a display hand image to be displayed on the two front and rear displays is generated, and information regarding the height of each position of the hand relative to the operation unit 20 in the display hand image is acquired. Next, the stereoscopic image generation circuit 76 determines the luminance of each pixel of the display hand image based on the height information. In this way, the stereoscopic image generation circuit 76 generates front and rear display hand images (stereoscopic images) having a luminance difference corresponding to the height of the respective positions of the hand with respect to the operation unit 20. Thereby, it is possible to make the user's eyes appear as if the image displayed on the display unit 40 (the hand portion in the stereoscopic image) is stereoscopic.

図5は、立体視画像の複数例を示す。以下では、立体視画像中の手の部分の画像を、「立体視手画像」と称する。尚、図面上では、立体視手画像を立体的に見せることが不可能であるので、平面的な画像が示されているが、実際には、表示部40に表示される立体視手画像は上述の如く立体的に見える。   FIG. 5 shows a plurality of examples of stereoscopic images. Hereinafter, the image of the hand portion in the stereoscopic image is referred to as a “stereoscopic hand image”. In the drawing, since it is impossible to show the stereoscopic hand image stereoscopically, a planar image is shown. However, actually, the stereoscopic hand image displayed on the display unit 40 is It looks three-dimensional as described above.

尚、立体視手画像の合成位置、即ち操作メニュー画像のどの位置に合成するかは、操作部20における実際の手の位置と各操作スイッチの位置との相対位置関係が、表示部40(合成画像)における手画像の手の位置と各図形画像F1〜F8との相対位置関係によって正確に再現されるように決定される。尚、この合成位置は、カメラ画像における座標系と操作メニュー画像における座標系との相対関係(座標変換式)に基づいて演算されてよい。   Note that the composition position of the stereoscopic hand image, that is, the position in the operation menu image, is determined by the relative positional relationship between the actual hand position in the operation unit 20 and the position of each operation switch. The position of the hand of the hand image in the image) and the relative positional relationship between the graphic images F1 to F8 are determined so as to be accurately reproduced. This composite position may be calculated based on the relative relationship (coordinate conversion formula) between the coordinate system in the camera image and the coordinate system in the operation menu image.

図5に示す例では、立体視手画像の人差し指の先が図形画像F3を操作する位置に示されている。この場合、ユーザは、現在の手の位置で人差し指によりスイッチ操作を行うと、図形画像F3に対応するスイッチの機能、即ちメール機能が実現されることを知ることができる。このように、ユーザは、操作部20を直視しなくても、表示部40を見ながら操作部20における所望の操作スイッチを操作することができる。従って、ユーザが運転者の場合は、特に運転姿勢や視線を大きく変えることなく、視野前方の表示部40を見ながら手元付近にある操作部20でスイッチ操作(いわゆるブラインドタッチ操作)を行うことが可能となり、運転に支障の出ない安全なスイッチ操作を実現することができる。   In the example shown in FIG. 5, the tip of the index finger of the stereoscopic hand image is shown at the position where the graphic image F3 is operated. In this case, the user can know that the switch function corresponding to the graphic image F3, that is, the mail function is realized by performing the switch operation with the index finger at the current hand position. In this way, the user can operate a desired operation switch in the operation unit 20 while looking at the display unit 40 without directly viewing the operation unit 20. Therefore, when the user is a driver, a switch operation (so-called blind touch operation) can be performed with the operation unit 20 near the hand while looking at the display unit 40 in front of the field of view without greatly changing the driving posture or line of sight. Therefore, it is possible to realize a safe switch operation that does not interfere with driving.

また、特に本実施例では、操作メニュー画像上に重畳されている手の画像が、上述の如く立体で見えることにより、手の画像が平面的に見える場合に比べて、操作性が大幅に向上する。即ち、図6(A)に簡易的に示す1つのカメラを用いた従来のプロンプター方式では、操作メニュー画像上に重畳される手の画像は、手の3D情報(手元、指先の立体情報)が失われて平面上の合成画像となるので、手の画像から得られる情報が、例えば図6に示すような反射式の構成(タッチパネル式ディスプレイを操作するユーザの手を、第1及び第2ミラーを用いて反射させてユーザに見せる構成)に比べて少なくなり、その分だけ、操作性が悪くなる。これに対して、本実施例では、上述の反射式で見える手の反射像と略同等の立体視手画像を生成することにより、プロンプター方式を採用しつつ、従来のプロンプター方式で喪失される手の3D情報(手元、指先の立体情報)を回復させることができる。このため、本実施例によれば、プロンプター方式を採用しつつ、反射式と同等の高い操作性を実現することができる。また、本実施例では、上述の如く反射式で見える手の反射像と略同等の立体視手画像を生成することにより、平面的な手画像を重畳する従来のプロンプター方式に比べて、手画像により隠蔽される操作メニュー画像の領域が少なくなるので、その分だけ操作メニュー画像と手の位置関係が把握し易くなり、操作性が向上する。   In particular, in the present embodiment, the hand image superimposed on the operation menu image is seen as a three-dimensional image as described above, so that the operability is greatly improved as compared with the case where the hand image looks planar. To do. That is, in the conventional prompter method using a single camera shown in FIG. 6A, the hand image superimposed on the operation menu image is 3D information of the hand (stereo information on the hand and fingertip). Since it is lost and becomes a composite image on a plane, the information obtained from the image of the hand is, for example, a reflection-type configuration as shown in FIG. In other words, the operability is reduced by that amount. On the other hand, in this embodiment, by generating a stereoscopic hand image that is substantially equivalent to the reflected image of the hand that can be seen by the reflection method described above, the hand lost by the conventional prompter method is adopted while adopting the prompter method. 3D information (stereo information at hand and fingertip) can be recovered. For this reason, according to the present embodiment, it is possible to realize high operability equivalent to the reflection type while adopting the prompter method. Further, in the present embodiment, a hand image is generated as compared with the conventional prompter method in which a planar hand image is superimposed by generating a stereoscopic hand image that is substantially equivalent to a reflection image of a hand that is seen as a reflection type as described above. As a result, the area of the operation menu image that is concealed is reduced, so that the positional relationship between the operation menu image and the hand can be easily grasped, and the operability is improved.

また、本実施例では、図2に示すように、カメラ50の視線方向に対する操作部20のなす角度βが、ユーザの視線方向に対する表示部40のなす角度αと同一若しくは略同一に設定されているので、側面視で、カメラ50の手に対する視線方向が、ユーザの表示部40に対する視線方向(ひいては表示部40の立体視手画像の立体視方向)に略対応することで、操作性が大幅に向上する。また、かかる角度関係によれば、立体視手画像の生成の際に視線変換処理等の特別な処理を必要とすることなく、上述の反射式で見える手の反射像と略同等の立体視手画像を生成することができる。   In this embodiment, as shown in FIG. 2, the angle β formed by the operation unit 20 with respect to the line-of-sight direction of the camera 50 is set to be the same or substantially the same as the angle α formed by the display unit 40 with respect to the user's line-of-sight direction. Therefore, in a side view, the line-of-sight direction with respect to the hand of the camera 50 substantially corresponds to the line-of-sight direction with respect to the display unit 40 of the user (as a result, the stereoscopic direction of the stereoscopic hand image on the display unit 40). To improve. In addition, according to such an angular relationship, a stereoscopic hand that is substantially equivalent to the reflected image of the hand that is seen by the above-described reflection type without requiring special processing such as a line-of-sight conversion process when generating the stereoscopic hand image. An image can be generated.

ここで、立体視手画像は、好ましくは、図5(A)に示すように、手の生の画像を直接用いて生成されるが、図5(B)に示すように、手の生々しさを排除したシルエット式の立体視手画像であってもよいし、図5(C)に示すように、背後の操作メニュー画像が見えるような半透明のシルエット式の立体視手画像であってもよいし、図5(D)に示すように、手の生の画像を半透明に加工した立体視手画像であってもよい。図5(B)及び図5(C)に示す立体視手画像によれば、手の細部をリアルに表示することによるユーザが受けうる生理的な違和感を防止することができる。また、図5(C)及び図5(D)に示す立体視手画像によれば、手画像により隠蔽される操作メニュー画像の領域を更に少なくして、操作メニュー画像と手の位置関係が把握し易くすることができる。但し、図5(A)や図5(B)においても、2次元手画像を表示する従来のプロンプター方式に比べて、ステレオカメラ50での立体視差によりメニュー画像を隠蔽する領域が少なくなっており、これにより視認性が向上する。   Here, the stereoscopic hand image is preferably generated by directly using the raw image of the hand as shown in FIG. 5A, but the freshness of the hand as shown in FIG. 5B. This may be a silhouette-type stereoscopic hand image that eliminates the above, or a semi-transparent silhouette-type stereoscopic hand image that allows the operation menu image to be seen behind to be seen as shown in FIG. Alternatively, as shown in FIG. 5D, a stereoscopic hand image obtained by processing a raw image of a hand to be translucent may be used. According to the stereoscopic hand image shown in FIGS. 5B and 5C, it is possible to prevent a physiological discomfort that can be received by the user due to realistic display of hand details. In addition, according to the stereoscopic hand image shown in FIGS. 5C and 5D, the area of the operation menu image hidden by the hand image is further reduced to grasp the positional relationship between the operation menu image and the hand. Can be made easier. However, in FIGS. 5A and 5B, the area for concealing the menu image due to the stereoscopic parallax in the stereo camera 50 is reduced as compared with the conventional prompter system that displays the two-dimensional hand image. This improves the visibility.

以上説明した実施例1に対しては、以下のような変形例が考えられる。   The following modifications can be considered for the first embodiment described above.

例えば、上述の実施例1では、図5(A)に示したように直上視で立体視手画像を生成するので、運転者及び助手席の乗員のいずれが操作者に対しても、操作メニュー画像と手の高さ方向(画面の面直方向)の位置関係を把握し易くしているが、例えば運転者の操作性が特に重要であることを重視し、2つのカメラ51,52をいずれも運転席側に配置して、運転席側から視た立体視の手画像(例えば、後述の図9参照)を生成してもよい。   For example, in the above-described first embodiment, as shown in FIG. 5A, a stereoscopic hand image is generated in a direct view, so that either the driver or the passenger on the passenger seat can operate the operation menu. Although it is easy to grasp the positional relationship between the image and the height direction of the hand (straight direction of the screen), for example, emphasizing that the operability of the driver is particularly important, the two cameras 51 and 52 are either Alternatively, it may be arranged on the driver's seat side to generate a stereoscopic hand image (for example, see FIG. 9 described later) viewed from the driver's seat side.

図7は、本発明に係る操作装置100の車両搭載状態の実施例2を示す斜視図である。図8は、図7に示す操作装置100の主要な機能を示す機能ブロック図である。実施例2において、上述の実施例1と同様であってよい構成については、同一の参照符号を付して説明を省略する。   FIG. 7 is a perspective view showing Example 2 of the operating device 100 according to the present invention mounted in a vehicle. FIG. 8 is a functional block diagram showing main functions of the operating device 100 shown in FIG. In the second embodiment, components that may be the same as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.

実施例2は、操作部20が運転席側から操作されているか又は助手席側から操作されているかに応じて、立体視手画像を生成するのに用いるカメラ画像を切り替える点に主なる特徴を有する。以下では、実施例2に特有の構成について、重点的に説明していく。   The second embodiment is mainly characterized in that the camera image used for generating the stereoscopic hand image is switched depending on whether the operation unit 20 is operated from the driver seat side or the passenger seat side. Have. In the following, the configuration unique to the second embodiment will be described mainly.

カメラ500は、図7に示すように、車両幅方向に沿って離間して配置された3つのカメラ501,502,503からなる3眼カメラである。これにより、各カメラ501,502,503は、例えばCCDやCMOSを撮像素子とする小型カラーカメラであり、操作部20(及びそれを操作するユーザの手)をそれぞれ別の方向から俯瞰できるように配置される。図示の例では、カメラ501は、操作部20の車幅方向の中心よりも助手席側に配置され、カメラ502は、操作部20の車幅方向の中心付近に配置され、カメラ503は、操作部20の車幅方向の中心よりも運転席側に配置されている。各カメラ501,502,503は、操作部20の全体を車両前側から斜め下方の視線で撮像するように配置されている。このようにして、対のカメラ501,502は、助手席側乗員が表示部40を見るときの視差及び輻輳角に対応した視差及び輻輳角で操作部20を撮像するように配置され、対のカメラ502,503は、運転者が表示部40を見るときの視差及び輻輳角に対応した視差及び輻輳角で操作部20を撮像するように配置される。   As shown in FIG. 7, the camera 500 is a three-lens camera including three cameras 501, 502, and 503 that are spaced apart from each other along the vehicle width direction. Accordingly, each of the cameras 501, 502, and 503 is a small color camera using, for example, a CCD or CMOS as an image sensor so that the operation unit 20 (and the user's hand operating it) can be seen from different directions. Be placed. In the illustrated example, the camera 501 is disposed closer to the passenger seat side than the center of the operation unit 20 in the vehicle width direction, the camera 502 is disposed near the center of the operation unit 20 in the vehicle width direction, and the camera 503 is It is arranged closer to the driver's seat than the center of the portion 20 in the vehicle width direction. Each of the cameras 501, 502, and 503 is disposed so as to capture the entire operation unit 20 with a line of sight obliquely downward from the front side of the vehicle. In this way, the pair of cameras 501 and 502 are arranged so as to capture the operation unit 20 with the parallax and the convergence angle corresponding to the parallax and the convergence angle when the passenger on the passenger side looks at the display unit 40. The cameras 502 and 503 are arranged so as to capture the operation unit 20 with a parallax and a convergence angle corresponding to the parallax and the convergence angle when the driver views the display unit 40.

操作装置100は、上述の実施例1における構成に対する追加の構成要素として、操作者判定部90、及び、カメラ切替部92を備える。   The operating device 100 includes an operator determination unit 90 and a camera switching unit 92 as additional components to the configuration in the first embodiment.

操作者判定部90は、操作部20が運転席側から操作されているか又は助手席側から操作されているかを判定する。この種の判定方法は、多種多様であり、任意の適切な方法が採用されてよい。例えば、簡易的な方法として、右ハンドル車の場合、操作者判定部90は、カメラ500により撮像されるカメラ画像内の手が左手である場合には、操作部20が運転席側から操作されている(即ち操作者は運転者である)と判定し、カメラ500により撮像されるカメラ画像内の手が右手である場合には、操作部20が助手側から操作されている(即ち操作者は助手席の乗員である)と判定してもよい。或いは、操作部20の車両幅方向両側(助手席側と運転席側)に赤外線センサを設置して、いずれの側の赤外線センサにより操作部20へと延びる手の存在が検出されたかを判定してもよい。或いは、例えば助手席側から操作する場合にオンに操作されるスイッチを車室内に設け、当該スイッチのオン/オフ状態に基づいて、操作者を判別してもよいし、或いは、車載カメラによる画像認識結果や、助手席及び運転席の各シートと操作部20との間の静電容量の変化等に基づいて操作者を判別してもよい。   The operator determination unit 90 determines whether the operation unit 20 is operated from the driver seat side or the passenger seat side. There are various types of determination methods of this type, and any appropriate method may be adopted. For example, as a simple method, in the case of a right-hand drive vehicle, the operator determination unit 90 operates the operation unit 20 from the driver seat side when the hand in the camera image captured by the camera 500 is the left hand. If the hand in the camera image captured by the camera 500 is the right hand, the operation unit 20 is operated from the assistant side (ie, the operator). May be a passenger in the passenger seat). Alternatively, infrared sensors are installed on both sides of the operation unit 20 in the vehicle width direction (passenger seat side and driver seat side), and it is determined by which side infrared sensor the presence of the hand extending to the operation unit 20 is detected. May be. Alternatively, for example, a switch that is turned on when operating from the passenger seat side may be provided in the passenger compartment, and the operator may be determined based on the on / off state of the switch, or an image by the in-vehicle camera The operator may be determined based on the recognition result, the change in capacitance between the passenger seat and driver seat, and the operation unit 20.

カメラ切替部92は、操作者判定部90からの判別結果に応じて、左眼用画像合成回路72及び右眼用画像合成回路74に対するカメラ501,502,503の接続状態を切り替える。具体的には、操作部20が運転席側から操作されている場合には、カメラ切替部92は、図8において実線で示すように、左眼用画像合成回路72にカメラ502からのカメラ画像が入力され、且つ、右眼用画像合成回路74にカメラ503からのカメラ画像が入力されるようにする。一方、操作部20が助手側から操作されている場合には、カメラ切替部92は、図8において点線で示すように、左眼用画像合成回路72にカメラ501からのカメラ画像が入力され、且つ、右眼用画像合成回路74にカメラ502からのカメラ画像が入力されるようにする。   The camera switching unit 92 switches the connection state of the cameras 501, 502, and 503 with respect to the left-eye image composition circuit 72 and the right-eye image composition circuit 74 according to the determination result from the operator determination unit 90. Specifically, when the operation unit 20 is operated from the driver's seat side, the camera switching unit 92 sends the camera image from the camera 502 to the left-eye image synthesis circuit 72 as shown by a solid line in FIG. And the camera image from the camera 503 is input to the image synthesis circuit 74 for the right eye. On the other hand, when the operation unit 20 is operated from the assistant side, the camera switching unit 92 inputs the camera image from the camera 501 to the image synthesis circuit 72 for the left eye, as indicated by a dotted line in FIG. In addition, the camera image from the camera 502 is input to the image synthesis circuit 74 for the right eye.

図9は、一例として、操作部20が運転席側から操作されている場合に出力される立体視画像を示す図である。   FIG. 9 is a diagram illustrating a stereoscopic image output when the operation unit 20 is operated from the driver seat side as an example.

操作部20が運転席側から操作されている場合には、上述の如く、操作部20を運転席側から斜め下方に俯瞰する2つのカメラ502,503のカメラ画像に基づいて、立体視手画像が形成されるので、この立体視手画像は、図9に示すように、運転席側から見た手の立体視となる。同様に、図示しないが、操作部20が助手側から操作されている場合に生成・出力される立体視手画像は、操作部20を助手席側から斜め下方に俯瞰する2つのカメラ501,502のカメラ画像に基づいて生成されるので、助手席側から見た手の立体視となる。これにより、実施例2によれば、操作者側から見た立体視で立体視手画像が生成されるので、直上視で立体視手画像(図5(A)等参照)を生成する上述の実施例1に比べて、操作部20に対する指の上下の状況(ひいては操作メニュー画像に対する指の上下の状況)がより把握し易くなり、操作性が更に向上する。即ち、実施例2によれば、立体視手画像を、操作者側からの視線方向に対応した立体視で表示することにより、操作者の眼に、操作者の手があたかも表示部40まで伸びているような感覚を与えることができ、操作性が更に向上する。   When the operation unit 20 is operated from the driver's seat side, as described above, the stereoscopic hand image is based on the camera images of the two cameras 502 and 503 that look down on the operation unit 20 obliquely downward from the driver's seat side. Therefore, the stereoscopic hand image becomes a stereoscopic view of the hand viewed from the driver's seat side, as shown in FIG. Similarly, although not shown, a stereoscopic hand image generated and output when the operation unit 20 is operated from the passenger side is two cameras 501 and 502 that look down the operation unit 20 obliquely downward from the passenger seat side. Therefore, the stereoscopic view of the hand viewed from the passenger seat side is obtained. Thus, according to the second embodiment, since the stereoscopic hand image is generated by the stereoscopic view viewed from the operator side, the above-described stereoscopic hand image (see FIG. 5A and the like) is generated by the direct view. Compared to the first embodiment, it becomes easier to grasp the up / down state of the finger with respect to the operation unit 20 (and consequently the up / down state of the finger with respect to the operation menu image), and the operability is further improved. That is, according to the second embodiment, the stereoscopic hand image is displayed in a stereoscopic view corresponding to the direction of the line of sight from the operator side, so that the operator's hand extends to the display unit 40 in the eyes of the operator. The operability is further improved.

尚、本実施例2においても、上述の実施例1に関連して図5(B)乃至(D)で示したような他の形態で立体視手画像を生成してもよい。   In the second embodiment, a stereoscopic hand image may be generated in another form as shown in FIGS. 5B to 5D in relation to the first embodiment.

以上説明した実施例2に対しては、以下のような変形例・改良例が考えられる。   The following modifications and improvements can be considered for the second embodiment described above.

例えば、上述の実施例2では、3つのカメラ501,502,503を用いているが、運転席側と助手席側にそれぞれ2つずつカメラを設定してもよい。この場合、操作部20が運転席側から操作されている場合には、運転席側の2つのカメラ(車幅方向で離間した2つのカメラ)を用いて立体視画像を生成し、操作部20が助手席側から操作されている場合には、助手席側の2つのカメラ(車幅方向で離間した2つのカメラ)を用いて立体視画像を生成すればよい。   For example, in the above-described second embodiment, three cameras 501, 502, and 503 are used, but two cameras may be set on each of the driver seat side and the passenger seat side. In this case, when the operation unit 20 is operated from the driver's seat side, a stereoscopic image is generated using two cameras on the driver's seat side (two cameras separated in the vehicle width direction), and the operation unit 20 Is operated from the passenger seat side, the stereoscopic image may be generated using two cameras on the passenger seat side (two cameras separated in the vehicle width direction).

また、上述の実施例2では、3つのカメラ501,502,503を用いているが、図10(A)及び図10(B)に示すように、車幅方向に移動可能なステレオカメラ600(カメラ602及び603)を設定してもよい。この場合、ステレオカメラ600は、例えば車幅方向に沿ったスライドレール608上に移動可能に設けられ、モータのような適切なアクチュエータ610を駆動源として駆動されてよい。かかる構成では、操作部20が運転席側から操作されている場合には、図10(A)に示すように、運転席側に移動させたステレオカメラ600を用いて立体視画像を生成し、操作部20が助手席側から操作されている場合には、図10(B)に示すように、助手席側に移動させたステレオカメラ600を用いて立体視画像を生成すればよい。   In the second embodiment, the three cameras 501, 502, and 503 are used. As shown in FIGS. 10A and 10B, a stereo camera 600 (movable in the vehicle width direction) ( Cameras 602 and 603) may be set. In this case, the stereo camera 600 may be movably provided on a slide rail 608 along the vehicle width direction, for example, and may be driven using an appropriate actuator 610 such as a motor as a drive source. In such a configuration, when the operation unit 20 is operated from the driver's seat side, as shown in FIG. 10A, a stereoscopic image is generated using the stereo camera 600 moved to the driver's seat side, When the operation unit 20 is operated from the passenger seat side, a stereoscopic image may be generated using the stereo camera 600 moved to the passenger seat side as shown in FIG.

また、表示部40を液晶視差バリア方式3Dディスプレイにより構成した場合には、通常時には、図11(A)に示すように、中央分割のデュアルビュー状態を形成して、左右それぞれの画面に異なる画像(運転席用画像及び助手席用画像)を表示してよく、操作部20に対する操作があったときには、図11(B)に示すように、操作者(この場合、運転者)側から視た立体視の立体視画像(左眼用画像+右眼用画像)を生成・出力することとしてもよい。   In addition, when the display unit 40 is configured by a liquid crystal parallax barrier 3D display, normally, as shown in FIG. 11A, a centrally divided dual view state is formed, and different images are displayed on the left and right screens. (Driver seat image and passenger seat image) may be displayed, and when an operation is performed on the operation unit 20, as shown in FIG. 11B, it is viewed from the operator (in this case, the driver) side. A stereoscopic image (left-eye image + right-eye image) may be generated and output.

実施例3では、操作メニュー画像における操作スイッチを表す図形画像F1〜F8についても立体視で表示する点が、主に上述の実施例1,2と異なる。上述の実施例1と同様であってよい構成要素については、同一の参照符号を付して説明を省略する。   The third embodiment is mainly different from the first and second embodiments described above in that the graphic images F1 to F8 representing the operation switches in the operation menu image are also displayed in a stereoscopic view. Constituent elements that may be the same as those in the first embodiment are given the same reference numerals, and descriptions thereof are omitted.

図12は、実施例3による操作装置200の側面視による概略的な断面図である。   FIG. 12 is a schematic cross-sectional view of the operating device 200 according to the third embodiment as viewed from the side.

背景画像生成回路710は、表示部40上に表示される背景画像(ここでは、操作メニュー画像)を生成し、生成した背景画像を左眼用画像合成回路72及び右眼用画像合成回路74に供給する。本実施例では、背景画像生成回路710は、図13に示すように、操作メニュー画像における操作スイッチを表す図形画像F1〜F8を立体視差表示画像で生成する。   The background image generation circuit 710 generates a background image (in this case, an operation menu image) displayed on the display unit 40, and sends the generated background image to the left-eye image synthesis circuit 72 and the right-eye image synthesis circuit 74. Supply. In the present embodiment, the background image generation circuit 710 generates graphic images F1 to F8 representing operation switches in the operation menu image as stereoscopic parallax display images as shown in FIG.

立体視画像生成回路760は、左眼用画像合成回路72からの左眼用画像と、右眼用画像合成回路74からの右眼用画像とに基づいて、裸眼立体視が可能な表示部40に適合した立体視画像を生成する。この際、立体視画像生成回路760は、操作メニュー画像の図形画像F1〜F8を除く部分が2次元の平面でユーザの目に映り、且つ、手画像及び操作メニュー画像の図形画像F1〜F8が3次元の立体でユーザの目に映るように、立体視画像を生成する。本実施例では、立体視画像生成回路760は、表示部40の表示面から所定高さA[mm]オフセットした面を高さゼロの基準面として、当該基準面に対する手画像の手の各指の高さが、実際の手の各位置の操作部20に対する高さとに対応する立体視になるように、立体視画像の手画像の部分を生成する。また、立体視画像生成回路760は、表示部40の表示面を高さゼロの基準面として、図形画像F1〜F8の上面140(図13参照)が当該基準面に対して所定高さB[mm]に立体視されるように、立体視画像の図形画像F1〜F8の部分を生成する。立体視画像生成回路760により生成される立体視画像は、表示部40にて表示される。   The stereoscopic image generation circuit 760 is a display unit 40 capable of autostereoscopic viewing based on the left-eye image from the left-eye image synthesis circuit 72 and the right-eye image from the right-eye image synthesis circuit 74. A stereoscopic image suitable for the above is generated. At this time, in the stereoscopic image generation circuit 760, a portion of the operation menu image excluding the graphic images F1 to F8 is visible to the user on a two-dimensional plane, and the hand images and the graphic images F1 to F8 of the operation menu image are displayed. A stereoscopic image is generated so as to be seen by the user in a three-dimensional solid. In the present embodiment, the stereoscopic image generation circuit 760 uses each surface of the hand image of the hand image with respect to the reference surface as a reference surface having a height of zero (A) that is offset from the display surface of the display unit 40 by a predetermined height A [mm]. A portion of the hand image of the stereoscopic image is generated such that the height of the stereoscopic view corresponds to the height of the actual hand position relative to the operation unit 20 at each position. In addition, the stereoscopic image generation circuit 760 uses the display surface of the display unit 40 as a reference surface having a height of zero, and the upper surface 140 (see FIG. 13) of the graphic images F1 to F8 has a predetermined height B [ mm], the graphic image portions F1 to F8 of the stereoscopic image are generated. The stereoscopic image generated by the stereoscopic image generation circuit 760 is displayed on the display unit 40.

図13は、表示部40にて表示される操作メニュー画像の図形画像F1〜F8の部分の一例を示す図である。操作メニュー画像の図形画像F1〜F8は、図13に示すように、その上面140が表示部40の表示面から所定高さB[mm]だけ手前側にあるかのように立体視表示(凸状に表示)される。以下、このようにして立体視表示される操作メニュー画像の図形画像F1〜F8を、「立体視スイッチ画像」と称する。尚、走行規制等で走行中に操作できない操作スイッチに対する図形画像(本例では、図形画像F3)については、図13に示すように、2次元表示されてもよい。これにより、ユーザは、現在操作できない操作スイッチを容易に把握することができる。   FIG. 13 is a diagram illustrating an example of graphic image portions F1 to F8 of the operation menu image displayed on the display unit 40. As shown in FIG. 13, the graphic images F1 to F8 of the operation menu image are stereoscopically displayed (convex) as if the upper surface 140 is on the near side from the display surface of the display unit 40 by a predetermined height B [mm]. Displayed). Hereinafter, the graphic images F1 to F8 of the operation menu image displayed stereoscopically in this way are referred to as “stereoscopic switch images”. Note that the graphic image (in this example, the graphic image F3) for the operation switch that cannot be operated during travel due to travel restrictions or the like may be displayed two-dimensionally as shown in FIG. Accordingly, the user can easily grasp the operation switch that cannot be operated at present.

図14は、図13のA視を模式的に示す図であり、図14(A)は、操作部20における立体視スイッチ画像F1,F5に対応する操作スイッチが操作されていない状態を示し、図14(A)は、操作部20における立体視スイッチ画像F1に対応する操作スイッチが操作されてオンとなった状態を示す。立体視画像生成回路760は、透明タッチパネル上での操作信号(操作位置信号)に基づいて、図14に示すように、操作部20における操作スイッチが操作された場合には、当該操作スイッチに対応する立体視スイッチ画像(本例では、立体視スイッチ画像F1)の上面140の基準面(表示部40の表示面)に対する高さをB’(<B)[mm]に変更する。これにより、ユーザは、操作スイッチに対する操作が操作装置200に検知されたことを視覚的に確認することができる。   FIG. 14 is a diagram schematically illustrating the A view of FIG. 13, and FIG. 14A illustrates a state in which the operation switches corresponding to the stereoscopic switch images F1 and F5 in the operation unit 20 are not operated. FIG. 14A shows a state in which the operation switch corresponding to the stereoscopic switch image F1 in the operation unit 20 is operated and turned on. The stereoscopic image generation circuit 760 responds to an operation switch when the operation switch in the operation unit 20 is operated based on an operation signal (operation position signal) on the transparent touch panel, as shown in FIG. The height of the upper surface 140 of the stereoscopic switch image to be performed (stereoscopic switch image F1 in this example) with respect to the reference surface (display surface of the display unit 40) is changed to B ′ (<B) [mm]. Thus, the user can visually confirm that the operation device 200 has detected an operation on the operation switch.

図15は、立体視スイッチ画像と立体視手画像との相対的な高さ関係を模式的に示す図であり、図15(A)は、操作部20におけるユーザの手と操作面(タッチパネル面)との高さ関係を示し、図15(B)は、図15(A)の状態に対応した表示部40における立体視スイッチ画像と立体視手画像との高さ関係を示す。   FIG. 15 is a diagram schematically illustrating a relative height relationship between the stereoscopic switch image and the stereoscopic hand image. FIG. 15A illustrates the user's hand and the operation surface (touch panel surface) in the operation unit 20. ) And FIG. 15B shows the height relationship between the stereoscopic switch image and the stereoscopic hand image in the display unit 40 corresponding to the state of FIG.

図15(A)に示すように、ユーザの手の指先が操作面に接触する位置まで来ると(即ち図のy座標のゼロ位置まで来ると)、図15(B)に示すように、立体視手画像の指先Gは、表示部40の表示面に対して所定高さA(図のY軸に沿った高さ)の位置に見える。このとき、所定高さAを、立体視スイッチ画像の上面140の高さBと一致するように設定すると(即ちA=Bの関係にすると)、図15(B)に示すように、立体視手画像の指先Gが立体視スイッチ画像の上面140に触れているような立体視表示となる。即ち、立体視手画像の指先Gが立体視スイッチ画像の上面140に載っているような立体視表示となる。これにより、実際の操作部20のタッチパネルへの接触状態と、表示部40上の立体視表示の状態とが整合するので、ユーザの操作性が向上する。   As shown in FIG. 15A, when the fingertip of the user's hand comes to a position where it touches the operation surface (that is, when it reaches the zero position of the y coordinate in the figure), as shown in FIG. The fingertip G of the sight image is seen at a position of a predetermined height A (height along the Y axis in the figure) with respect to the display surface of the display unit 40. At this time, if the predetermined height A is set to coincide with the height B of the upper surface 140 of the stereoscopic switch image (that is, A = B), as shown in FIG. The stereoscopic display is such that the fingertip G of the hand image touches the upper surface 140 of the stereoscopic switch image. That is, the stereoscopic display is such that the fingertip G of the stereoscopic hand image is placed on the upper surface 140 of the stereoscopic switch image. Thereby, since the actual contact state of the operation unit 20 with the touch panel matches the state of the stereoscopic display on the display unit 40, the operability for the user is improved.

尚、図15(A)に示す状態から、ユーザが操作面を押圧すると(スイッチ操作すると)、操作部20の操作スイッチがオンとなり、上述の如く、立体視スイッチ画像があたかもメカニカルスイッチが押し込まれたような立体視表示となる(一点鎖線参照)。これにより、ユーザは、実際のハードスイッチを操作したかのようなリアルな操作感を感じることができる。   When the user presses the operation surface (switch operation) from the state shown in FIG. 15A, the operation switch of the operation unit 20 is turned on, and the mechanical switch is pushed as if the stereoscopic switch image is as described above. Stereoscopic display (see alternate long and short dash lines). Thereby, the user can feel a realistic operation feeling as if he / she operated an actual hard switch.

また、図15(A)に示す状態から、ユーザの手が操作面から遠ざかると(例えばy座標での高さhまで遠ざかると)、それに応じて、立体視手画像の指先Gは、表示部40の表示面に対して高さH(図のY軸に沿った高さ)の位置に来る。この高さHは、h+Aであってもよいし、立体視画像のスケーリングファクタ等に依存して、h’+Aであってもよい。但し、h’=k・h(kは定数)。   When the user's hand moves away from the operation surface from the state shown in FIG. 15A (for example, when the user moves away to the height h in the y coordinate), the fingertip G of the stereoscopic hand image is displayed on the display unit. It is at a position of height H (height along the Y axis in the figure) with respect to 40 display surfaces. The height H may be h + A, or may be h ′ + A depending on the scaling factor of the stereoscopic image. However, h ′ = k · h (k is a constant).

このように本実施例3によれば、上述の如く、立体視スイッチ画像を表示すると共に、立体視スイッチ画像の高さに対応した高さだけオフセットして立体視手画像を表示することで、立体視スイッチ画像と立体視スイッチ画像とを適切な高さ関係で表示することができる。これにより、ユーザは、操作部20の操作スイッチに対する手の距離感がより把握しやすくなると共に、リアルな操作感を感じることができ、操作性が向上する。   Thus, according to the third embodiment, as described above, the stereoscopic switch image is displayed and the stereoscopic hand image is displayed with an offset corresponding to the height of the stereoscopic switch image. The stereoscopic switch image and the stereoscopic switch image can be displayed with an appropriate height relationship. This makes it easier for the user to grasp the sense of distance of the hand with respect to the operation switch of the operation unit 20, and allows the user to feel a realistic operational feeling, improving operability.

以上説明した実施例3に対しては、以下のような変形例・改良例が考えられる。   The following modifications and improvements can be considered for the third embodiment described above.

例えば、所定高さAを、立体視スイッチ画像の上面140の高さBと一致するように設定した場合を説明したが、所定高さAは、立体視スイッチ画像の上面140の高さBと略一致していればよい。例えば、所定高さAとしては、操作状態の立体視スイッチ画像の上面140の高さB’以上であって、高さB以下の範囲内の適切な値が選択されてよい。例えば、所定高さAとしては、A=(B−B’)/2+B’であってよい。或いは、所定高さAとしては、立体視スイッチ画像の上面140の高さBより僅かに大きい値であってもよい。   For example, although the case where the predetermined height A is set to coincide with the height B of the upper surface 140 of the stereoscopic switch image has been described, the predetermined height A is equal to the height B of the upper surface 140 of the stereoscopic switch image. It suffices if they substantially match. For example, as the predetermined height A, an appropriate value within the range of the height B ′ or more of the upper surface 140 of the stereoscopic switch image in the operation state and not more than the height B may be selected. For example, the predetermined height A may be A = (B−B ′) / 2 + B ′. Alternatively, the predetermined height A may be a value slightly larger than the height B of the upper surface 140 of the stereoscopic switch image.

また、表示部40を凹表示可能な3Dディスプレイにより構成した場合には、ユーザが操作スイッチを操作した際に、当該操作スイッチに対応する立体視スイッチ画像を凹状の立体視表示としてもよい(即ち、B’をマイナスの値としてもよい)。   Further, when the display unit 40 is configured by a 3D display capable of concave display, when the user operates the operation switch, the stereoscopic switch image corresponding to the operation switch may be a concave stereoscopic display (that is, , B ′ may be a negative value).

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

例えば、図2や図8に示した表示画像生成回路70の回路構成は、あくまで一例であり、ある回路の一部の機能が他の回路により実現されてもよい。また、図2や図8に示した表示画像生成回路70の回路構成は、あくまで一例であり、ある回路の一部の機能がソフトウェアにより実現されてもよい。例えば、表示画像生成回路70の一部又は全部をマイコン等で構成し、ファームウェアにより同機能を実現することとしてもよい。また、図2や図8に示した表示画像生成回路70の一部又は全部及び/又は表示制御部80の機能が、例えばナビゲーションシステムのECUに組み込まれてもよい。   For example, the circuit configuration of the display image generation circuit 70 shown in FIGS. 2 and 8 is merely an example, and some functions of a certain circuit may be realized by another circuit. The circuit configuration of the display image generation circuit 70 shown in FIGS. 2 and 8 is merely an example, and some functions of a certain circuit may be realized by software. For example, part or all of the display image generation circuit 70 may be configured by a microcomputer or the like, and the same function may be realized by firmware. Further, a part or all of the display image generation circuit 70 shown in FIGS. 2 and 8 and / or the function of the display control unit 80 may be incorporated in the ECU of the navigation system, for example.

また、上述した実施例では、操作部20での操作が可能であるため、表示部40のディスプレイがタッチパネル式である必要はないが、表示部40のディスプレイがタッチパネル式であってもよい。   Further, in the above-described embodiment, the operation of the operation unit 20 is possible, so the display of the display unit 40 does not have to be a touch panel type, but the display of the display unit 40 may be a touch panel type.

また、上述した実施例において、操作メニュー画像は、他の画像上に、操作部20における操作スイッチに対応した図形画像を重畳したものであってもよく、例えばTVや再生中のDVD等の各種画像や、ナビゲーションシステムの地図画像上に、操作スイッチの図形画像を重畳したものであってもよい。   In the above-described embodiment, the operation menu image may be a graphic image corresponding to the operation switch in the operation unit 20 superimposed on another image. For example, the operation menu image may be various types such as a TV or a DVD being played back. The graphic image of the operation switch may be superimposed on the image or the map image of the navigation system.

また、上述した実施例では、操作装置10,100は、好ましい実施例として、車両用の操作装置として具現化されているが、本発明はこれに限定されることはなく、他のアプリケーションで用いられる操作装置であってもよい。   In the embodiment described above, the operation devices 10 and 100 are embodied as a vehicle operation device as a preferred embodiment, but the present invention is not limited to this and is used in other applications. It may be an operating device.

本発明に係る操作装置10の車両搭載状態の実施例1を示す斜視図である。It is a perspective view which shows Example 1 of the vehicle mounting state of the operating device 10 which concerns on this invention. 図1に示す操作装置10の側面視による概略的な断面図である。FIG. 2 is a schematic cross-sectional view of the operating device 10 shown in FIG. 1 as viewed from the side. 視差分割方式を利用した表示部40の原理図である。It is a principle figure of the display part 40 using a parallax division system. 操作メニュー画像の一例を示す図である。It is a figure which shows an example of an operation menu image. 立体視画像の複数の例を示す図である。It is a figure which shows the some example of a stereoscopic vision image. 従来のプロンプター方式と反射式の概略的な構成をそれぞれ示す図である。It is a figure which shows the general structure of the conventional prompter system and a reflection type, respectively. 本発明に係る操作装置100の車両搭載状態の実施例2を示す斜視図である。It is a perspective view which shows Example 2 of the vehicle mounting state of the operating device 100 which concerns on this invention. 図6に示す操作装置100の主要な機能を示す機能ブロック図である。It is a functional block diagram which shows the main functions of the operating device 100 shown in FIG. 操作部20が運転席側から操作されている場合に出力される立体視画像を示す図である。It is a figure which shows the stereoscopic image output when the operation part 20 is operated from the driver's seat side. 車幅方向に移動可能なステレオカメラ600を設けた構成を示す図である。It is a figure which shows the structure which provided the stereo camera 600 which can move to a vehicle width direction. その他の変形例を概略的に示す図である。It is a figure which shows the other modification schematically. 実施例3による操作装置200の側面視による概略的な断面図である。FIG. 10 is a schematic cross-sectional view of a controller device 200 according to Embodiment 3 as viewed from the side. 表示部40にて表示される操作メニュー画像の図形画像F1〜F8の部分の一例を示す図である。It is a figure which shows an example of the part of the graphic images F1-F8 of the operation menu image displayed on the display part. 図13のA視を模式的に示す図である。It is a figure which shows typically the A view of FIG. 立体視スイッチ画像と立体視手画像との相対的な高さ関係を模式的に示す図である。It is a figure which shows typically the relative height relationship of a stereoscopic vision switch image and a stereoscopic vision hand image.

符号の説明Explanation of symbols

10,100 操作装置
20 操作部
30 各種車載機器
40 表示部
50,500 カメラ
70 表示画像生成回路
71 背景画像生成回路
72 左眼用画像合成回路
74 右眼用画像合成回路
76 立体視画像生成回路
80 表示制御部
90 操作者判定部
92 カメラ切替部
DESCRIPTION OF SYMBOLS 10,100 Operation apparatus 20 Operation part 30 Various vehicle equipment 40 Display part 50,500 Camera 70 Display image generation circuit 71 Background image generation circuit 72 Left-eye image synthesis circuit 74 Right-eye image synthesis circuit 76 Stereoscopic image generation circuit 80 Display control unit 90 Operator determination unit 92 Camera switching unit

Claims (8)

操作スイッチが配置された操作部と、
裸眼立体視可能な表示器と、
前記操作部を操作するユーザの手を複数の方向から撮影する撮像手段と、
前記撮像手段から得られる視差画像に基づいて、前記手の立体視画像を生成する立体視画像生成手段とを備え、
前記表示器上に、前記操作部における操作スイッチの配置位置及び操作スイッチの機能を表す操作メニュー画像と、前記立体視画像生成手段により生成された手の立体視画像とを合成して表示することを特徴とする、操作装置。
An operation unit in which operation switches are arranged; and
An indicator capable of autostereoscopic viewing,
Imaging means for photographing a user's hand operating the operation unit from a plurality of directions;
A stereoscopic image generation unit that generates a stereoscopic image of the hand based on a parallax image obtained from the imaging unit;
On the display unit, the operation menu image representing the position of the operation switch and the function of the operation switch in the operation unit and the stereoscopic image of the hand generated by the stereoscopic image generation unit are combined and displayed. An operation device characterized by.
前記操作部及び表示器が、車室内における車両幅方向で運転席と助手席との間の位置に配置されている請求項1に記載の操作装置において、
前記撮像手段は、車両幅方向で運転席側から前記操作部を斜め下方に俯瞰する少なくとも2つの撮像手段を含み、
前記立体視画像生成手段は、前記2つの撮像手段から得られる視差画像に基づいて、運転席側からの視線方向で前記手の立体視画像を生成する、操作装置。
The operation device according to claim 1, wherein the operation unit and the indicator are arranged at a position between the driver seat and the passenger seat in the vehicle width direction in the vehicle interior.
The imaging means includes at least two imaging means for looking down the operation unit obliquely downward from the driver seat side in the vehicle width direction,
The operation device, wherein the stereoscopic image generation unit generates the stereoscopic image of the hand in a line-of-sight direction from the driver's seat based on parallax images obtained from the two imaging units.
前記操作部及び表示器が、車室内における車両幅方向で運転席と助手席との間の位置に配置されている請求項1に記載の操作装置において、
前記操作部が運転席側から操作されているか又は助手席側から操作されているかを判別する操作者判別手段を更に備え、
前記立体視画像生成手段は、前記操作者判別手段により前記操作部が運転席側から操作されていると判別された場合には、運転席側からの視線方向で前記手の立体視画像を生成し、前記操作者判別手段により前記操作部が助手席側から操作されていると判別された場合には、助手席側からの視線方向で前記手の立体視画像を生成する、操作装置。
The operation device according to claim 1, wherein the operation unit and the indicator are arranged at a position between the driver seat and the passenger seat in the vehicle width direction in the vehicle interior.
An operator discriminating means for discriminating whether the operation unit is operated from the driver's seat side or the passenger seat side;
The stereoscopic image generation means generates the stereoscopic image of the hand in the line-of-sight direction from the driver seat side when the operator determination means determines that the operation unit is operated from the driver seat side. An operation device that generates a stereoscopic image of the hand in a line-of-sight direction from the passenger seat side when the operator determination unit determines that the operation unit is operated from the passenger seat side.
前記撮像手段は、車両幅方向で互いに離間した3つ以上の撮像手段を備え、
前記立体視画像生成手段は、前記操作者判別手段により前記操作部が運転席側から操作されていると判別された場合には、運転席側にある2つの撮像手段から得られる視差画像に基づいて、前記手の立体視画像を生成し、前記操作者判別手段により前記操作部が助手席側から操作されていると判別された場合には、助手席側にある2つの撮像手段から得られる視差画像に基づいて、前記手の立体視画像を生成する、請求項3に記載の操作装置。
The imaging means includes three or more imaging means spaced apart from each other in the vehicle width direction,
The stereoscopic image generation means is based on parallax images obtained from two imaging means on the driver seat side when the operator determination means determines that the operation unit is operated from the driver seat side. When the operator discriminating means determines that the operation unit is operated from the passenger seat side, the stereoscopic image of the hand is generated and obtained from the two imaging means on the passenger seat side. The operating device according to claim 3, wherein the stereoscopic image of the hand is generated based on a parallax image.
前記撮像手段は、車両幅方向で可動な2つの撮像手段を備え、
前記立体視画像生成手段は、前記操作者判別手段により前記操作部が運転席側から操作されていると判別された場合には、運転席側に移動された2つの撮像手段から得られる視差画像に基づいて、前記手の立体視画像を生成し、前記操作者判別手段により前記操作部が助手席側から操作されていると判別された場合には、助手席側に移動された2つの撮像手段から得られる視差画像に基づいて、前記手の立体視画像を生成する、請求項3に記載の操作装置。
The imaging means includes two imaging means movable in the vehicle width direction,
The stereoscopic image generation means is a parallax image obtained from two imaging means moved to the driver seat side when the operator determination means determines that the operation unit is operated from the driver seat side. The stereoscopic image of the hand is generated on the basis of the two images, and when the operation determining unit determines that the operation unit is operated from the passenger seat side, the two images moved to the passenger seat side are generated. The operating device according to claim 3, wherein the stereoscopic image of the hand is generated based on a parallax image obtained from the means.
前記表示器上において、前記操作メニュー画像における操作スイッチを表す画像部分を立体視で表示すると共に、前記手の立体視画像を、前記表示器の表示面から所定高さオフセットした面を高さゼロの基準面として表示する、請求項1に記載の操作装置。   On the display device, an image portion representing the operation switch in the operation menu image is displayed in a stereoscopic view, and a surface obtained by offsetting the stereoscopic image of the hand by a predetermined height from the display surface of the display device has a height of zero. The operating device according to claim 1, wherein the operating device is displayed as a reference plane. 前記操作メニュー画像における操作スイッチを表す画像部分を、前記表示器の表示面を高さゼロの基準面として立体視で表示し、
前記オフセットされる所定高さは、前記操作スイッチを表す画像部分の立体視の高さに略一致する、請求項6に記載の操作装置。
An image portion representing an operation switch in the operation menu image is displayed in a stereoscopic view with a display surface of the display as a reference surface having a height of zero,
The operation device according to claim 6, wherein the predetermined height to be offset substantially matches a stereoscopic view height of an image portion representing the operation switch.
前記操作部に手の指が接触したときに表示される前記手の立体視画像における該指の前記表示器の表示面から高さは、前記操作メニュー画像における操作スイッチを表す画像部分の立体視の高さに略一致する、請求項6又は7に記載の操作装置。   The height of the finger from the display surface of the display in the stereoscopic image of the hand displayed when the finger of the hand touches the operation unit is the stereoscopic view of the image portion representing the operation switch in the operation menu image. The operating device according to claim 6 or 7, which substantially matches the height of the operating device.
JP2007106011A 2007-01-30 2007-04-13 Operating device Expired - Fee Related JP4356763B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007106011A JP4356763B2 (en) 2007-01-30 2007-04-13 Operating device
US12/010,627 US8094189B2 (en) 2007-01-30 2008-01-28 Operating device
CN2008100002726A CN101236454B (en) 2007-01-30 2008-01-30 Operating device
DE102008000192A DE102008000192B4 (en) 2007-01-30 2008-01-30 actuator

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007019788 2007-01-30
JP2007106011A JP4356763B2 (en) 2007-01-30 2007-04-13 Operating device

Publications (2)

Publication Number Publication Date
JP2008210359A true JP2008210359A (en) 2008-09-11
JP4356763B2 JP4356763B2 (en) 2009-11-04

Family

ID=39786572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007106011A Expired - Fee Related JP4356763B2 (en) 2007-01-30 2007-04-13 Operating device

Country Status (2)

Country Link
JP (1) JP4356763B2 (en)
CN (1) CN101236454B (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010085835A (en) * 2008-10-01 2010-04-15 Canon Inc Display control device, display control method, program, and storage medium
JP2010102508A (en) * 2008-10-23 2010-05-06 Toyota Motor Corp Input device
JP2010267192A (en) * 2009-05-18 2010-11-25 J Touch Corp Touch control device for three-dimensional imaging
KR101071777B1 (en) * 2009-03-19 2011-10-11 현대자동차일본기술연구소 Handling device for vehicle
JP2012503818A (en) * 2008-09-25 2012-02-09 パナソニック オートモーティブ システムズ カンパニー オブ アメリカ ディビジョン オブ パナソニック コーポレイション オブ ノース アメリカ Dual view touch screen display system and method of operation
JP2012047866A (en) * 2010-08-25 2012-03-08 Kawasaki Heavy Ind Ltd Display device, aviation survey system having the same, and display method of display device
JP2012115414A (en) * 2010-11-30 2012-06-21 Nintendo Co Ltd Game device, method of providing game, game program, and game system
KR101491169B1 (en) 2009-05-07 2015-02-06 현대자동차일본기술연구소 Device and method for controlling AVN of vehicle
WO2019016878A1 (en) * 2017-07-19 2019-01-24 三菱電機株式会社 Operation support device and operation support method
DE102018126525A1 (en) 2017-11-01 2019-05-02 Toyota Jidosha Kabushiki Kaisha In-vehicle system, procedure and storage medium
JP2019101755A (en) * 2017-12-01 2019-06-24 三菱自動車工業株式会社 On-vehicle user interface device
CN111052179A (en) * 2017-09-12 2020-04-21 Jvc建伍株式会社 Vehicle device, calibration result determination system, calibration result determination method, and program
JP2020113298A (en) * 2015-09-16 2020-07-27 グーグル エルエルシー Touchscreen hover detection in augmented and/or virtual reality environment

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8888004B2 (en) * 2010-10-08 2014-11-18 Authentec, Inc. Finger sensing device including differential measurement circuitry and related methods
CN102650906B (en) * 2012-04-06 2015-11-04 深圳创维数字技术有限公司 A kind of control method of user interface and device
DE102012206247A1 (en) * 2012-04-17 2013-10-17 Ford Global Technologies, Llc Method and device for displaying a hand of an operator of a control element of a vehicle
US10062204B2 (en) * 2013-12-23 2018-08-28 Harman International Industries, Incorporated Virtual three-dimensional instrument cluster with three-dimensional navigation system
JP6614087B2 (en) * 2016-10-06 2019-12-04 トヨタ自動車株式会社 Vehicle control device
CN109491585B (en) * 2018-11-05 2020-11-13 广州小鹏汽车科技有限公司 Touch control method of vehicle-mounted central control equipment and vehicle-mounted central control equipment
CN109710104A (en) * 2018-11-05 2019-05-03 广州小鹏汽车科技有限公司 A kind of method of toch control and system of vehicle-mounted middle control large-size screen monitors
CN109828687A (en) * 2019-01-22 2019-05-31 北京汽车股份有限公司 Touch device and its control method, vehicle

Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0346724A (en) * 1989-07-14 1991-02-28 Aisin Seiki Co Ltd Switching device
JPH05150925A (en) * 1991-05-31 1993-06-18 Philips Gloeilampenfab:Nv Apparatus having man-machine interface
JPH06274270A (en) * 1993-03-10 1994-09-30 Roehm Properties Bv Virtual actual-space-data input device
JPH0764709A (en) * 1993-08-26 1995-03-10 Olympus Optical Co Ltd Instruction processor
JPH09190278A (en) * 1996-01-09 1997-07-22 Mitsubishi Motors Corp Selecting device for operation system of equipment
JPH10207620A (en) * 1997-01-28 1998-08-07 Atr Chinou Eizo Tsushin Kenkyusho:Kk Stereoscopic interaction device and method therefor
JPH10333094A (en) * 1996-12-18 1998-12-18 Toyota Motor Corp Stereoscopic image display device, method thereof and recording medium
JP2000006687A (en) * 1998-06-25 2000-01-11 Yazaki Corp Onboard equipment switch safety operation system
JP2000066784A (en) * 1998-08-26 2000-03-03 Nissan Motor Co Ltd Display and operation device for automobile
JP2000075991A (en) * 1998-08-28 2000-03-14 Aqueous Research:Kk Information input device
JP2001174268A (en) * 1999-12-16 2001-06-29 Nec Corp On-vehicle navigation system
JP2001282428A (en) * 2000-03-29 2001-10-12 Matsushita Electric Ind Co Ltd Information processor
JP2002132487A (en) * 2000-10-25 2002-05-10 Oki Electric Ind Co Ltd Remote operation supporting system
JP2003005912A (en) * 2001-06-20 2003-01-10 Hitachi Ltd Display device with touch panel and display method
JP2003104122A (en) * 2001-09-28 2003-04-09 Clarion Co Ltd On-vehicle information device
JP2004012626A (en) * 2002-06-04 2004-01-15 Honda Motor Co Ltd Stereoscopic video display device and stereoscopic video display method
JP2004026078A (en) * 2002-06-27 2004-01-29 Clarion Co Ltd Device for switching display and operation mode
JP2004198971A (en) * 2002-12-20 2004-07-15 Namco Ltd Stereoscopic display, and stereoscopic display method
JP2004258714A (en) * 2003-02-24 2004-09-16 Toshiba Corp Device for displaying picture
JP2004334590A (en) * 2003-05-08 2004-11-25 Denso Corp Operation input device
JP2005078078A (en) * 2003-08-30 2005-03-24 Sharp Corp Multi-view directional display
JP2005141102A (en) * 2003-11-07 2005-06-02 Pioneer Electronic Corp Stereoscopic two-dimensional image display device and its method
JP2005196530A (en) * 2004-01-08 2005-07-21 Alpine Electronics Inc Space input device and space input method
JP2005254851A (en) * 2004-03-09 2005-09-22 Nissan Motor Co Ltd Command input device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3645196B2 (en) * 2001-02-09 2005-05-11 松下電器産業株式会社 Image synthesizer
US7206309B2 (en) * 2001-03-27 2007-04-17 Nortel Networks Limited High availability packet forward apparatus and method
KR100866450B1 (en) * 2001-10-15 2008-10-31 파나소닉 주식회사 Automobile surrounding observation device and method for adjusting the same
JP2005311868A (en) * 2004-04-23 2005-11-04 Auto Network Gijutsu Kenkyusho:Kk Vehicle periphery visually recognizing apparatus

Patent Citations (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0346724A (en) * 1989-07-14 1991-02-28 Aisin Seiki Co Ltd Switching device
JPH05150925A (en) * 1991-05-31 1993-06-18 Philips Gloeilampenfab:Nv Apparatus having man-machine interface
JPH06274270A (en) * 1993-03-10 1994-09-30 Roehm Properties Bv Virtual actual-space-data input device
JPH0764709A (en) * 1993-08-26 1995-03-10 Olympus Optical Co Ltd Instruction processor
JPH09190278A (en) * 1996-01-09 1997-07-22 Mitsubishi Motors Corp Selecting device for operation system of equipment
JPH10333094A (en) * 1996-12-18 1998-12-18 Toyota Motor Corp Stereoscopic image display device, method thereof and recording medium
JPH10207620A (en) * 1997-01-28 1998-08-07 Atr Chinou Eizo Tsushin Kenkyusho:Kk Stereoscopic interaction device and method therefor
JP2000006687A (en) * 1998-06-25 2000-01-11 Yazaki Corp Onboard equipment switch safety operation system
JP2000066784A (en) * 1998-08-26 2000-03-03 Nissan Motor Co Ltd Display and operation device for automobile
JP2000075991A (en) * 1998-08-28 2000-03-14 Aqueous Research:Kk Information input device
JP2001174268A (en) * 1999-12-16 2001-06-29 Nec Corp On-vehicle navigation system
JP2001282428A (en) * 2000-03-29 2001-10-12 Matsushita Electric Ind Co Ltd Information processor
JP2002132487A (en) * 2000-10-25 2002-05-10 Oki Electric Ind Co Ltd Remote operation supporting system
JP2003005912A (en) * 2001-06-20 2003-01-10 Hitachi Ltd Display device with touch panel and display method
JP2003104122A (en) * 2001-09-28 2003-04-09 Clarion Co Ltd On-vehicle information device
JP2004012626A (en) * 2002-06-04 2004-01-15 Honda Motor Co Ltd Stereoscopic video display device and stereoscopic video display method
JP2004026078A (en) * 2002-06-27 2004-01-29 Clarion Co Ltd Device for switching display and operation mode
JP2004198971A (en) * 2002-12-20 2004-07-15 Namco Ltd Stereoscopic display, and stereoscopic display method
JP2004258714A (en) * 2003-02-24 2004-09-16 Toshiba Corp Device for displaying picture
JP2004334590A (en) * 2003-05-08 2004-11-25 Denso Corp Operation input device
JP2005078078A (en) * 2003-08-30 2005-03-24 Sharp Corp Multi-view directional display
JP2005141102A (en) * 2003-11-07 2005-06-02 Pioneer Electronic Corp Stereoscopic two-dimensional image display device and its method
JP2005196530A (en) * 2004-01-08 2005-07-21 Alpine Electronics Inc Space input device and space input method
JP2005254851A (en) * 2004-03-09 2005-09-22 Nissan Motor Co Ltd Command input device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012503818A (en) * 2008-09-25 2012-02-09 パナソニック オートモーティブ システムズ カンパニー オブ アメリカ ディビジョン オブ パナソニック コーポレイション オブ ノース アメリカ Dual view touch screen display system and method of operation
JP2010085835A (en) * 2008-10-01 2010-04-15 Canon Inc Display control device, display control method, program, and storage medium
JP2010102508A (en) * 2008-10-23 2010-05-06 Toyota Motor Corp Input device
US8514276B2 (en) 2009-03-19 2013-08-20 Hyundai Motor Japan R&D Center, Inc. Apparatus for manipulating vehicular devices
KR101071777B1 (en) * 2009-03-19 2011-10-11 현대자동차일본기술연구소 Handling device for vehicle
KR101491169B1 (en) 2009-05-07 2015-02-06 현대자동차일본기술연구소 Device and method for controlling AVN of vehicle
JP2010267192A (en) * 2009-05-18 2010-11-25 J Touch Corp Touch control device for three-dimensional imaging
JP2012047866A (en) * 2010-08-25 2012-03-08 Kawasaki Heavy Ind Ltd Display device, aviation survey system having the same, and display method of display device
JP2012115414A (en) * 2010-11-30 2012-06-21 Nintendo Co Ltd Game device, method of providing game, game program, and game system
JP2020113298A (en) * 2015-09-16 2020-07-27 グーグル エルエルシー Touchscreen hover detection in augmented and/or virtual reality environment
WO2019016878A1 (en) * 2017-07-19 2019-01-24 三菱電機株式会社 Operation support device and operation support method
JPWO2019016878A1 (en) * 2017-07-19 2019-11-07 三菱電機株式会社 Operation support apparatus and operation support method
CN111052179A (en) * 2017-09-12 2020-04-21 Jvc建伍株式会社 Vehicle device, calibration result determination system, calibration result determination method, and program
CN111052179B (en) * 2017-09-12 2023-10-24 Jvc建伍株式会社 Vehicle device, calibration result determination system, calibration result determination method, and computer-readable storage medium storing program
DE102018126525A1 (en) 2017-11-01 2019-05-02 Toyota Jidosha Kabushiki Kaisha In-vehicle system, procedure and storage medium
JP2019101755A (en) * 2017-12-01 2019-06-24 三菱自動車工業株式会社 On-vehicle user interface device

Also Published As

Publication number Publication date
JP4356763B2 (en) 2009-11-04
CN101236454A (en) 2008-08-06
CN101236454B (en) 2010-06-02

Similar Documents

Publication Publication Date Title
JP4356763B2 (en) Operating device
US8094189B2 (en) Operating device
CN109070803B (en) Vehicle display system providing depth information
US10247941B2 (en) Vehicle vision system with light field monitor
EP1876840B1 (en) Image display device and image display method
EP2914002B1 (en) Virtual see-through instrument cluster with live video
JP4747810B2 (en) In-vehicle remote control device
JP3443271B2 (en) 3D image display device
EP2372512A1 (en) Vehicle user interface unit for a vehicle electronic device
CN105988220B (en) Method and control device for operating an autostereoscopic field display for a vehicle
WO2015146042A1 (en) Image display apparatus
CN109643219B (en) Method for interacting with image content presented on a display device in a vehicle
WO2015145933A1 (en) Virtual image display device, head-up display system, and vehicle
JP5510431B2 (en) Vehicle display device
JP2012017100A (en) Method for displaying information in means of transport, and combination instrument for motor vehicle
JP6121131B2 (en) Multiple display device
JP2010113161A (en) Video display apparatus
WO2004084559A1 (en) Video display for vehicle
WO2018101170A1 (en) Display device and electronic mirror
JP2014050062A (en) Stereoscopic display device and display method thereof
JP6313271B2 (en) Vehicle driving support device
JP2011031886A (en) On-vehicle remote controller
WO2018109991A1 (en) Display device, electronic mirror, display device control method, program, and storage medium
WO2023228770A1 (en) Image display device
JP2018202950A (en) Display system, electronic mirror system, and mobile body

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090714

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090727

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4356763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130814

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees