JP4857885B2 - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP4857885B2
JP4857885B2 JP2006119712A JP2006119712A JP4857885B2 JP 4857885 B2 JP4857885 B2 JP 4857885B2 JP 2006119712 A JP2006119712 A JP 2006119712A JP 2006119712 A JP2006119712 A JP 2006119712A JP 4857885 B2 JP4857885 B2 JP 4857885B2
Authority
JP
Japan
Prior art keywords
virtual image
video information
eye
display
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006119712A
Other languages
Japanese (ja)
Other versions
JP2007292956A (en
Inventor
真司 柏田
浩 安藤
耕治 中村
卓之 藤川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2006119712A priority Critical patent/JP4857885B2/en
Publication of JP2007292956A publication Critical patent/JP2007292956A/en
Application granted granted Critical
Publication of JP4857885B2 publication Critical patent/JP4857885B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、例えば、自動車等の車両において、前景に虚像を重ねて表示し、乗員に情報を提供する表示装置に関する。   The present invention relates to a display device that provides information to an occupant by displaying a virtual image superimposed on a foreground in a vehicle such as an automobile.

従来より、車両に適用される表示装置として、光学ユニットから、車両のウインドシールドに映像情報を投射することで、乗員に、前景に重畳した虚像を表示するヘッドアップディスプレイ装置がある。この装置は、運転者の視点移動が少なくて済むので、車両の安全性を高めることができる。そして、この装置の有効性を高めるために、両眼立体視機能を利用し、虚像表示に奥行き感を持たせ、視認距離を可変として、前方の実体物に虚像を重ねて表示することで、運転者に実体物の存在を分かりやすくする等の提案がされている(特許文献1参照)。
特開2005−70255号公報
Conventionally, as a display device applied to a vehicle, there is a head-up display device that displays a virtual image superimposed on a foreground to an occupant by projecting video information from an optical unit onto a windshield of the vehicle. This device can increase the safety of the vehicle because the driver's viewpoint movement is small. And in order to increase the effectiveness of this device, by utilizing the binocular stereoscopic function, giving a sense of depth to the virtual image display, making the viewing distance variable, displaying the virtual image superimposed on the front entity, Proposals have been made to make it easier for the driver to understand the existence of an entity (see Patent Document 1).
JP-A-2005-70255

ヘッドアップディスプレイ装置は、両眼立体視機能を利用するものであるから、右目用の虚像、左目用の虚像をそれぞれ表示しなければならない。そのため、ヘッドアップディスプレイ装置は、右目用の虚像を生成するための映像情報(右目用の映像情報)と、左目用の虚像を生成するための映像情報(左目用の映像情報)とがそれぞれ必要になる。そこで、従来の装置は、右目用の映像情報を生成する表示機と、左目用の映像情報を生成する表示機とを、それぞれ備えていた。しかし、表示機を2つも備えることは、ヘッドアップディスプレイ装置の製造コストを上昇させてしまう。   Since the head-up display device uses a binocular stereoscopic function, the virtual image for the right eye and the virtual image for the left eye must be displayed. Therefore, the head-up display device requires video information (right-eye video information) for generating a right-eye virtual image and video information (left-eye video information) for generating a left-eye virtual image, respectively. become. Therefore, the conventional apparatus includes a display device that generates video information for the right eye and a display device that generates video information for the left eye. However, providing two display devices increases the manufacturing cost of the head-up display device.

本発明は以上の点に鑑みなされたものであり、表示機を複数備える必要がなく、視認距離を変化させられる表示装置を提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide a display device that can change the viewing distance without requiring a plurality of display devices.

(1)請求項1記載の表示装置は、表示手段が投射する映像情報を、分割手段で分割することにより、右目用の映像情報と左目用の映像情報とを生成する。そのため、右目用の映像情報を投射する表示手段と、左目用の映像情報を投射する表示手段とを個別に備える必要がない。
また、請求項1の表示装置では、反射手段上において、右目用の映像情報は、観察者に右目用の虚像として視認される位置にあるとともに、左目用の映像情報は、観察者に左目用の虚像として視認される位置にあり、右目用の映像情報と、左目用の映像情報とが、左右対称となる。そのことにより、図10に示すように、映像情報55に含まれる表示77の左右位置をどちらかに変えると、右目用の映像情報57に含まれる表示77Rと、左目用の映像情報59に含まれる表示77Lは、互いに反対方向に移動するので、それらの間隔を調整することができる。
(2)請求項2の表示装置では、前記分割手段から前記反射手段までの光路において、前記右目用の映像情報の反転回数Rと、前記左目用の映像情報の反転回数Lとの差が奇数であるため、必然的に、反射手段上において、右目用の映像情報と、左目用の映像情報とが、左右対称となる。
(1) The display device according to claim 1 generates the video information for the right eye and the video information for the left eye by dividing the video information projected by the display means by the dividing means. Therefore, there is no need to separately provide display means for projecting video information for the right eye and display means for projecting video information for the left eye.
In the display device according to claim 1, on the reflecting means, the video information for the right eye is in a position visually recognized by the observer as a virtual image for the right eye, and the video information for the left eye is for the left eye for the observer. The video information for the right eye and the video information for the left eye are left-right symmetric. As a result, as shown in FIG. 10, when the left and right positions of the display 77 included in the video information 55 are changed to either one, the display 77R included in the right-eye video information 57 and the video information 59 for the left eye are included. Since the display 77L to be moved moves in directions opposite to each other, the interval between them can be adjusted.
(2) In the display device according to claim 2, in the optical path from the dividing unit to the reflecting unit, the difference between the number of inversions R of the right-eye video information and the number of inversions L of the left-eye video information is an odd number. Therefore, inevitably, the video information for the right eye and the video information for the left eye are symmetrical on the reflecting means.

1.第1の実施の形態
(a)表示装置1の構成
本発明の表示装置1の全体構成を図1に基づいて説明する。この表示装置1は車両に適用したものである。
1. First Embodiment (a) Configuration of Display Device 1 The overall configuration of a display device 1 of the present invention will be described with reference to FIG. This display device 1 is applied to a vehicle.

表示装置1は、単一の映像情報を光として投射する表示機3、表示機3にて投射された単一の映像情報を右目用の映像情報と左目用の映像情報とに分割し、それぞれを半透明のウインドシールド5にて反射させる光学ユニット7、表示装置1における各種制御を実行する表示処理部9、乗員の両目の上下左右方向(図1における上下方向を「上下方向」とし、奥行き方向を「左右方向」とする)での位置及び両目の幅を取得するために、乗員の顔を正面のやや下方から撮影するカメラ11、乗員の前後方向(図1における左右方向を「前後方向」とする)における位置(すなわち、乗員の両目の前後位置)を取得するために、シートポジションの前後位置を検出するシートポジションセンサ13、同じく乗員の前後位置を取得するために、乗員の頭部を側方から撮影するカメラ15、及び車両の前方(乗員から見て虚像と重畳する方向)における輝度を取得するために、前景を撮影するカメラ17を備えている。   The display device 1 divides the single video information projected by the display 3 and the display 3 that project single video information as light into video information for the right eye and video information for the left eye, respectively. Is reflected by the translucent windshield 5, the display processing unit 9 that executes various controls in the display device 1, the up and down left and right directions of both eyes of the occupant (the up and down direction in FIG. In order to obtain the position and the width of both eyes in order to obtain the position in the “left-right direction”, the camera 11 that captures the occupant's face from slightly below the front, the occupant's front-rear direction (the left-right direction in FIG. In order to obtain the position of the occupant (ie, the front and back positions of both eyes of the occupant), the seat position sensor 13 that detects the front and back positions of the seat position, Camera 15 shooting head from the side, and to obtain the brightness in the front of the vehicle (direction overlapping with the virtual image as viewed from the occupant), and a camera 17 for photographing the foreground.

次に、図2に基づいて、表示処理部9の構成を説明する。表示処理部9は、CPU21、ROM23、RAM25、入出力部27、描画RAM29、及び表示コントローラ31から成る。CPU21、ROM23、RAM25、入出力部27、及び描画RAM29は、周知のプロセッサ及びメモリーモジュールからなり、CPU21がRAM25を一時記憶領域として利用し、ROM23に記憶されているプログラムに基づいて各種の処理を実行し、描画RAM29に映像データを記憶する。入出力部27は、光学ユニット7内の調整機構51、53(後述)への出力、カメラ11、15、17からの入力、シートポジションセンサ13からの入力、及びCPU21、ROM23、RAM25、描画RAM29、表示コントローラ31との入出力を行うインターフェースである。表示コントローラ31は、描画RAM29に記憶された映像情報を読み出して、表示機3へ出力する。   Next, the configuration of the display processing unit 9 will be described with reference to FIG. The display processing unit 9 includes a CPU 21, a ROM 23, a RAM 25, an input / output unit 27, a drawing RAM 29, and a display controller 31. The CPU 21, ROM 23, RAM 25, input / output unit 27, and drawing RAM 29 are composed of a well-known processor and memory module. The CPU 21 uses the RAM 25 as a temporary storage area, and performs various processes based on programs stored in the ROM 23. The image data is stored in the drawing RAM 29. The input / output unit 27 outputs to adjustment mechanisms 51 and 53 (described later) in the optical unit 7, inputs from the cameras 11, 15, and 17, inputs from the sheet position sensor 13, and the CPU 21, ROM 23, RAM 25, and drawing RAM 29. This is an interface for performing input / output with the display controller 31. The display controller 31 reads out the video information stored in the drawing RAM 29 and outputs it to the display device 3.

次に、図3に基づいて、光学ユニット7の構成を説明する。光学ユニット7は、ハーフミラー41、ミラー43、ミラー47、ミラー49、結像レンズ45、調整機構51、及び調整機構53を備えている。ハーフミラー41は、表示機3から投射された単一の映像情報55を右目用の映像情報57と左目用の映像情報59とに分割する。すなわち、ハーフミラー41にて反射したものが右目用の映像情報57となり、ハーフミラー41を透過したものが左目用の映像情報59となる。ミラー43は、右目用の映像情報57を反射し、ミラー47とミラー49は、左目用の映像情報59を反射する。結像レンズ45は、ミラー43で反射された右目用の映像情報57と、ミラー49で反射された左目用の映像情報59とを結像させる。なお、結像レンズ45を通過した右目用の映像情報57と左目用の映像情報59は、ウインドシールド5に至る。調整機構51は、ミラー43の角度を変更することで、ウインドシールド5上における右目用の映像情報57の位置(左右方向における位置)を調整する。調整機構53は、ミラー49の角度を変更することで、ウインドシールド5上における左目用の映像情報59の位置(左右方向における位置)を調整する。   Next, the configuration of the optical unit 7 will be described with reference to FIG. The optical unit 7 includes a half mirror 41, a mirror 43, a mirror 47, a mirror 49, an imaging lens 45, an adjustment mechanism 51, and an adjustment mechanism 53. The half mirror 41 divides the single video information 55 projected from the display device 3 into video information 57 for the right eye and video information 59 for the left eye. That is, the image information 57 for the right eye is reflected by the half mirror 41, and the image information 59 for the left eye is transmitted through the half mirror 41. The mirror 43 reflects the video information 57 for the right eye, and the mirror 47 and the mirror 49 reflect the video information 59 for the left eye. The imaging lens 45 images the right-eye video information 57 reflected by the mirror 43 and the left-eye video information 59 reflected by the mirror 49. Note that the right-eye video information 57 and the left-eye video information 59 that have passed through the imaging lens 45 reach the windshield 5. The adjustment mechanism 51 adjusts the position (position in the left-right direction) of the video information 57 for the right eye on the windshield 5 by changing the angle of the mirror 43. The adjustment mechanism 53 adjusts the position (position in the left-right direction) of the left-eye video information 59 on the windshield 5 by changing the angle of the mirror 49.

(b)表示装置1が映像を表示する原理
次に、図4に基づいて、表示装置1が映像を表示する原理を説明する。乗員63の右目63Rは、ウインドシールド5上の右目用の映像情報を、虚像61Rとして視認し、ウインドシールド5上の左目用の映像情報を、虚像61Lとして視認する。そして、乗員63は、基本的には、右目63R及び虚像61Rを通る直線と、左目63L及び虚像61Lを通る直線との交点である基本視認位置71に、融合した立体視虚像を視認する。ここで、乗員63の両目63R、63Lと、基本視認位置71との距離を基本視認距離73とする。
(B) Principle of Display Device 1 Displaying Image Next, the principle of display device 1 displaying an image will be described with reference to FIG. The right eye 63R of the occupant 63 visually recognizes the video information for the right eye on the windshield 5 as a virtual image 61R, and visually recognizes the video information for the left eye on the windshield 5 as a virtual image 61L. Then, the occupant 63 visually recognizes the combined stereoscopic virtual image at the basic visual recognition position 71 that is the intersection of the straight line passing through the right eye 63R and the virtual image 61R and the straight line passing through the left eye 63L and the virtual image 61L. Here, the distance between the eyes 63R and 63L of the passenger 63 and the basic visual recognition position 71 is defined as a basic visual recognition distance 73.

この基本視認距離73は、概略、視認させる距離範囲の最大距離に予め設定すると良い。なぜなら通常虚像までの結像距離は数m程度で目の焦点調節により近距離に知覚されるが、視認させる距離はそれより遠い場合が多く、その最大距離に設定すれば、目の輻輳は遠距離を見た場合となり遠距離に知覚され、両者の知覚が相殺されることで、表示内容により体感視認距離が決まるためである。   This basic visual recognition distance 73 is generally set in advance to the maximum distance of the distance range to be visually recognized. This is because the image formation distance to the virtual image is usually several meters and is perceived as a short distance by adjusting the focus of the eye, but the distance to be visually recognized is often farther than that. This is because when viewing the distance, the distance is perceived as a long distance, and the perception of both is offset, so that the visual perception distance is determined by the display content.

なお、乗員63の右目63Rと左目63Lとの間隔(以下では「両目の幅」とする)65、虚像61Rの中心と虚像61Lの中心との間隔(以下では、「虚像間幅」とする)67、結像距離69、基本視認距離73の関係は、図4に示すとおりである。   The distance between the right eye 63R and the left eye 63L of the occupant 63 (hereinafter referred to as “width of both eyes”) 65 and the distance between the center of the virtual image 61R and the center of the virtual image 61L (hereinafter referred to as “width between virtual images”). The relationship between 67, the imaging distance 69, and the basic viewing distance 73 is as shown in FIG.

(c)表示処理部9が実行する処理
次に、図5のフローチャートに基づいて、表示処理部9が実行する処理を説明する。
ステップ110では、カメラ11に、乗員63の顔を正面から撮像させ、その画像データを取り込む。
(C) Processing Performed by Display Processing Unit 9 Next, processing performed by the display processing unit 9 will be described based on the flowchart of FIG.
In step 110, the camera 11 is caused to capture the face of the occupant 63 from the front, and the image data is captured.

ステップ120では、前記ステップ110で取り込んだ画像データから、乗員63の両目の幅65を算出する。
ステップ130では、乗員63の前後位置を算出するために、乗員63の顔を側面から撮像するカメラ15を使用するか否かを判断する。YESの場合はステップ140に進み、NOの場合はステップ160に進む。なお、このステップ130及び後述するステップ160における判断は、乗員63が予め行った設定によるものであってもよいし、ROM23(図2参照)に記憶されたプログラムに従って判断してもよい。
In step 120, the width 65 of both eyes of the occupant 63 is calculated from the image data captured in step 110.
In step 130, in order to calculate the front-rear position of the occupant 63, it is determined whether to use the camera 15 that captures the occupant 63 from the side. If yes, then continue with step 140; if no, continue with step 160. Note that the determination in step 130 and step 160 described later may be based on settings made in advance by the occupant 63 or may be determined according to a program stored in the ROM 23 (see FIG. 2).

ステップ140では、カメラ15に、乗員63の顔を側面から撮像させ、その画像データを取り込む。
ステップ150では、前記ステップ140で取り込んだ画像データから、乗員63の両目63R、63Lの前後位置を算出する。
In step 140, the camera 15 is caused to capture the face of the occupant 63 from the side, and the image data is captured.
In step 150, the front and rear positions of the eyes 63R and 63L of the passenger 63 are calculated from the image data captured in step 140.

一方、前記ステップ130にてNOと判断した場合は、ステップ160に進み、乗員63の前後位置を算出するために、シートポジションセンサ13を使用するか否かを判断する。YESの場合はステップ170に進み、NOの場合はステップ190に進む。   On the other hand, if NO is determined in step 130, the process proceeds to step 160, and it is determined whether or not the seat position sensor 13 is used to calculate the front-rear position of the occupant 63. If yes, then continue with step 170, otherwise continue with step 190.

ステップ170では、シートポジションセンサ13から信号を取り込む。
ステップ180では、前記ステップ170で取り込んだ信号から、シートの前後位置(すなわち、乗員63の両目63R、63Lの前後位置)を算出する。
In step 170, a signal is taken from the sheet position sensor 13.
In step 180, the front / rear position of the seat (that is, the front / rear positions of the eyes 63R and 63L of the occupant 63) is calculated from the signal captured in step 170.

一方、前記ステップ160にてNOと判断した場合は、ステップ190にて、乗員63の両目63R、63Lの前後位置として、予めROM23に記憶しておいた既定値を取得する。   On the other hand, if it is determined NO in step 160, in step 190, a predetermined value stored in the ROM 23 in advance as the front and rear positions of the eyes 63R and 63L of the occupant 63 is acquired.

ステップ200では、予め設定された基本視認距離73と、前記ステップ120で算出した両目の幅65と、前記ステップ150、180、190のいずれかで取得した、乗員63の両目63R、63Lの前後位置とから、虚像間幅67を決定する。すなわち、図4において、基本視認距離73を予め設定された値とし、両目の幅65を前記ステップ120で算出した値とし、結像距離69を前記ステップ150、180、190のいずれかで取得した、乗員63の両目63R、63Lの前後位置から設定したとき、一義的に定まる虚像間幅67を決定する。   In step 200, the basic viewing distance 73 set in advance, the width 65 of both eyes calculated in step 120, and the front-rear positions of the eyes 63R and 63L of the occupant 63 obtained in any of steps 150, 180, and 190 are obtained. From this, a virtual image width 67 is determined. That is, in FIG. 4, the basic viewing distance 73 is a preset value, the width 65 of both eyes is the value calculated in step 120, and the imaging distance 69 is acquired in any one of steps 150, 180, and 190. When the distance is set from the front and rear positions of the eyes 63R and 63L of the occupant 63, a virtual image width 67 that is uniquely determined is determined.

ステップ210では、虚像間幅67が前記ステップ200にて決定した値となるように、調整機構51、調整機構53を駆動して、ミラー43及びミラー49の角度を調整する。   In step 210, the adjustment mechanism 51 and the adjustment mechanism 53 are driven to adjust the angles of the mirror 43 and the mirror 49 so that the virtual image width 67 becomes the value determined in the step 200.

ステップ220では、体感視認距離を取得する。この体感視認距離とは、乗員63が、像61R及び虚像61Lに基づく立体視像までの距離として、実際に知覚する距離であり、図4に示す基本視認距離73は一定であっても、虚像61R及び虚像61Lにおける表示の大きさ、表示の上下位置、表示の色、表示の輝度等に応じて変動する。体感視認距離は、乗員63等が図示しない入力部に入力した値であってもよいし、また、ROM23(図2参照)に記憶されたプログラムが設定する値であってもよい。   In step 220, the sensation visual recognition distance is acquired. This bodily sensation visual recognition distance is a distance that the occupant 63 actually perceives as a distance to a stereoscopic image based on the image 61R and the virtual image 61L. Even if the basic visual recognition distance 73 shown in FIG. The display size of 61R and virtual image 61L varies depending on the display vertical position, display color, display brightness, and the like. The sensation visual recognition distance may be a value input to an input unit (not shown) by the occupant 63 or the like, or may be a value set by a program stored in the ROM 23 (see FIG. 2).

ステップ230では、前記ステップ110で取り込んだ、乗員63の顔を正面から撮像した画像データから、乗員63の両目63R、63Lの上下位置を算出する。
ステップ240では、前記ステップ220で取得した体感視認距離と、前記ステップ230で算出した、乗員63の両目63R、63Lの上下位置とから、虚像61R及び虚像61Lの上下位置を決定する。
In step 230, the vertical positions of the eyes 63R and 63L of the occupant 63 are calculated from the image data captured from the front of the occupant 63 taken in step 110.
In step 240, the vertical positions of the virtual image 61R and the virtual image 61L are determined from the sensation visual recognition distance acquired in step 220 and the vertical positions of the eyes 63R and 63L of the occupant 63 calculated in step 230.

まず、乗員63の両目63R、63Lの上下位置が所定の基準位置にあるとの前提で、前記ステップ220で取得した体感視認距離に応じて、虚像61R及び虚像61Lの上下位置を決定する。具体的には、体感視認距離が長いほど、虚像61R及び虚像61Lの上下位置を高くし、体感視認距離が短いほど、虚像61R及び虚像61Lの上下位置を低くする。これは、基本視認距離73が一定であっても、乗員63から見て、虚像61R及び虚像61Lの上下位置が高いほど、体感視認距離は長くなり、虚像61R及び虚像61Lの上下位置が低いほど、体感視認距離は短くなるからである。   First, on the assumption that the vertical positions of the eyes 63R and 63L of the occupant 63 are at predetermined reference positions, the vertical positions of the virtual image 61R and the virtual image 61L are determined according to the sensation visual recognition distance acquired in step 220. Specifically, the vertical positions of the virtual image 61R and the virtual image 61L are increased as the body sensation visual recognition distance is longer, and the vertical positions of the virtual image 61R and the virtual image 61L are lowered as the body sensation visual recognition distance is shorter. This is because, even when the basic visual recognition distance 73 is constant, the higher the vertical positions of the virtual image 61R and the virtual image 61L are, the longer the sensation visual recognition distance is, and the lower the vertical positions of the virtual image 61R and the virtual image 61L are. This is because the visual perception distance is shortened.

次に、前記ステップ230で算出した乗員63の両目63R、63Lの上下位置を用いて、両目63R、63Lの上下位置のばらつきに起因する体感視認距離のずれを補正する。すなわち、乗員63の両目63R、63Lの上下位置が所定の基準位置からずれていると、乗員63から見た虚像61R及び虚像61Lの相対的な上下位置が、乗員63の両目63R、63Lの上下位置が所定の基準位置にある場合とは違ってしまうので、乗員63の両目63R、63Lの上下位置に応じて、虚像61R及び虚像61Lの上下位置を補正する。具体的には、乗員63の両目63R、63Lの上下位置が高いほど、虚像61R及び虚像61Lの上下位置を高くし、乗員63の両目63R、63Lの上下位置が低いほど、虚像61R及び虚像61Lの上下位置を低くする。この補正により、乗員63の両目63R、63Lの上下位置が変動しても、乗員63から見た虚像61R及び虚像61Lの相対的な上下位置を設定とおりとし、結果として、体感視認距離を設定とおりにすることができる。   Next, using the vertical positions of the eyes 63R and 63L of the occupant 63 calculated in step 230, the shift in the visual perception distance due to the variation in the vertical positions of the eyes 63R and 63L is corrected. That is, when the vertical positions of the eyes 63R and 63L of the occupant 63 are shifted from the predetermined reference position, the relative vertical positions of the virtual image 61R and the virtual image 61L viewed from the occupant 63 are the vertical positions of the eyes 63R and 63L of the occupant 63. Since the position is different from that at the predetermined reference position, the vertical positions of the virtual image 61R and the virtual image 61L are corrected according to the vertical positions of the eyes 63R and 63L of the occupant 63. Specifically, the higher the vertical position of both eyes 63R, 63L of the occupant 63 is, the higher the vertical position of the virtual image 61R and virtual image 61L is, and the lower the vertical position of both eyes 63R, 63L of the occupant 63 is, the lower the virtual image 61R and virtual image 61L is. Lower the vertical position of. With this correction, even if the vertical positions of both eyes 63R and 63L of the occupant 63 change, the relative vertical positions of the virtual image 61R and the virtual image 61L viewed from the occupant 63 are set as set, and as a result, the sensation visual recognition distance is set as set. Can be.

なお、ここでは、説明の便宜上、最初に、乗員63の両目63R、63Lの上下位置が所定の基準位置にあるとの前提で、体感視認距離に応じて虚像61R及び虚像61Lの上下位置を決定し、次に、乗員63の両目63R、63Lの上下位置に応じて、虚像61R及び虚像61Lの上下位置を補正するとしたが、これらの処理を一度に行うこともできる。例えば、ROM23に、体感視認距離及び乗員63両目63R、63Lの上下位置と、虚像61R及び虚像61Lの上下位置との対応テーブルを記憶させておき、この対応テーブルを用いて、虚像61R及び虚像61Lの上下位置を決定することができる。   Here, for convenience of explanation, first, the vertical positions of the virtual image 61R and the virtual image 61L are determined according to the sensation visual recognition distance on the assumption that the vertical positions of the eyes 63R and 63L of the passenger 63 are at a predetermined reference position. Then, although the vertical positions of the virtual image 61R and the virtual image 61L are corrected according to the vertical positions of the eyes 63R and 63L of the occupant 63, these processes can be performed at a time. For example, the ROM 23 stores a correspondence table between the sensation visual recognition distance and the vertical positions of the occupant 63 eyes 63R and 63L and the vertical positions of the virtual image 61R and the virtual image 61L, and the virtual image 61R and the virtual image 61L are stored using this correspondence table. Can be determined.

ステップ250では、カメラ17に、車外前方(乗員63から見て、虚像61R及び虚像61Lと重畳する方向)を撮像させ、その画像を取り込む。
ステップ260では、前記ステップ250にて取り込んだ画像に基づき、車外前方の輝度を測定する。
In step 250, the camera 17 is imaged in front of the vehicle (in the direction superimposed on the virtual image 61R and the virtual image 61L when viewed from the passenger 63), and the image is captured.
In step 260, the brightness in front of the vehicle is measured based on the image captured in step 250.

ステップ270では、前記ステップ220で取得した体感視認距離と、前記ステップ260で測定した、車外前方の輝度から、虚像61R及び虚像61Lの輝度を決定する。
まず、車外前方の輝度が所定の基準値にあるとの前提で、前記ステップ220で取得した体感視認距離に応じて、虚像61R及び虚像61Lの輝度の輝度を決定する。具体的には、体感視認距離が長いほど、虚像61R及び虚像61Lの輝度を低くし、体感視認距離が短いほど、虚像61R及び虚像61Lの上下位置を高くする。これは、基本視認距離73が一定であっても、乗員63から見て、虚像61R及び虚像61Lの輝度が低いほど、体感視認距離は長くなり、虚像61R及び虚像61Lの輝度が高いほど、体感視認距離は短くなるからである。
In step 270, the brightness of the virtual image 61R and the virtual image 61L is determined from the sensation visual recognition distance acquired in step 220 and the brightness in front of the vehicle measured in step 260.
First, on the assumption that the brightness in front of the vehicle is at a predetermined reference value, the brightness of the virtual image 61R and the virtual image 61L is determined according to the sensation visual recognition distance acquired in step 220. Specifically, the longer the bodily sensation visual recognition distance, the lower the luminance of the virtual image 61R and the virtual image 61L, and the shorter the bodily sensation visual recognition distance, the higher the vertical positions of the virtual image 61R and the virtual image 61L. This is because, even when the basic visual recognition distance 73 is constant, the lower the luminance of the virtual image 61R and the virtual image 61L, the longer the visual recognition distance is, and the higher the luminance of the virtual image 61R and the virtual image 61L is, This is because the viewing distance becomes shorter.

次に、前記ステップ260で測定した車外前方の輝度を用いて、車外前方の輝度の変動に起因する体感視認距離のずれを補正する。すなわち、車外前方の輝度が所定の基準値からずれていると、車外前方の輝度に対する虚像61R及び虚像61Lの相対的な輝度が、車外前方の輝度が基準値である場合とは違ってしまうので、車外前方の輝度に応じて、虚像61R及び虚像61Lの輝度を補正する。具体的には、車外前方の輝度が高いほど、虚像61R及び虚像61Lの輝度を高くし、車外前方の輝度が低いほど、虚像61R及び虚像61Lの輝度を低くする。この補正により、車外前方の輝度が変動しても、乗員63から見た、車外前方の輝度に対する虚像61R及び虚像61Lの相対的な輝度を設定とおりとし、結果として、体感視認距離を設定とおりにすることができる。   Next, using the luminance in front of the vehicle measured in the step 260, the deviation of the visual recognition distance due to the variation in luminance in front of the vehicle is corrected. That is, if the brightness ahead of the vehicle deviates from the predetermined reference value, the relative brightness of the virtual image 61R and the virtual image 61L with respect to the brightness ahead of the vehicle is different from the case where the brightness outside the vehicle is the reference value. The brightness of the virtual image 61R and the virtual image 61L is corrected according to the brightness ahead of the vehicle. Specifically, the luminance of the virtual image 61R and the virtual image 61L is increased as the luminance in front of the vehicle is higher, and the luminance of the virtual image 61R and virtual image 61L is decreased as the luminance in the front of the vehicle is lower. With this correction, even if the luminance in front of the vehicle fluctuates, the relative luminance of the virtual image 61R and the virtual image 61L with respect to the luminance in front of the vehicle viewed from the occupant 63 is set as set, and as a result, the visual perception distance is set as set. can do.

なお、ここでは、説明の便宜上、最初に、車外前方の輝度が所定の基準値にあるとの前提で、体感視認距離に応じて虚像61R及び虚像61Lの輝度を決定し、次に、車外前方の輝度に応じて、虚像61R及び虚像61Lの輝度を補正するとしたが、これらの処理を一度に行うこともできる。例えば、ROM23に、体感視認距離及び車外前方の輝度と、虚像61R及び虚像61Lの輝度との対応テーブルを記憶させておき、この対応テーブルを用いて、虚像61R及び虚像61Lの輝度を決定することができる。   Here, for convenience of explanation, first, the luminance of the virtual image 61R and the virtual image 61L is determined according to the sensation visual recognition distance on the assumption that the luminance of the front side outside the vehicle is at a predetermined reference value, and then the front side outside the vehicle The brightness of the virtual image 61R and the virtual image 61L is corrected according to the brightness of the image, but these processes can be performed at a time. For example, the correspondence table of the visual perception distance and the brightness in front of the vehicle and the brightness of the virtual image 61R and the virtual image 61L is stored in the ROM 23, and the brightness of the virtual image 61R and the virtual image 61L is determined using the correspondence table. Can do.

ステップ280では、前記ステップ220で取得した体感視認距離から、虚像61R及び虚像61Lに含まれる表示の大きさ(映像情報の拡大率)を決定する。具体的には、ROM23に、体感視認距離と、虚像61R及び虚像61Lに含まれる表示の大きさとの対応テーブルが記憶されており、この対応テーブルを用いて、虚像61R及び虚像61Lに含まれる表示の大きさを決定する。上記対応テーブルは、取得された体感視認距離が長いほど、虚像61R及び虚像61Lに含まれる表示を小さくし、取得された体感視認距離が短いほど、虚像61R及び虚像61Lに含まれる表示を大きくする。基本視認距離73は一定であっても、虚像61R及び虚像61Lに含まれる表示が小さいほど、体感視認距離は長くなり、虚像61R及び虚像61Lに含まれる表示が大きいほど、体感視認距離は短くなるから、上記のように虚像61R及び虚像61Lに含まれる表示の大きさを調整することで、体感視認距離を調整し、前記ステップ220で取得した値に合わせることができる。   In step 280, the display size (magnification rate of video information) included in the virtual image 61R and the virtual image 61L is determined from the sensation visual recognition distance acquired in step 220. Specifically, the ROM 23 stores a correspondence table between the visual perception distance and the display size included in the virtual image 61R and the virtual image 61L, and the display included in the virtual image 61R and the virtual image 61L using the correspondence table. Determine the size of. The correspondence table reduces the display included in the virtual image 61R and the virtual image 61L as the acquired bodily sensation visual recognition distance is long, and increases the display included in the virtual image 61R and the virtual image 61L as the acquired bodily sensation visual recognition distance is short. . Even if the basic viewing distance 73 is constant, the smaller the display included in the virtual image 61R and the virtual image 61L, the longer the bodily sensation viewing distance, and the larger the display included in the virtual image 61R and the virtual image 61L, the shorter the bodily sensation viewing distance. Thus, by adjusting the display size included in the virtual image 61R and the virtual image 61L as described above, the visual perception distance can be adjusted to match the value acquired in step 220.

ステップ290では、虚像61R及び虚像61Lを表示する。
その後はステップ110→ステップ220〜290を繰り返すと、調整機構を稼働する必要がなく高速に処理できる。
In step 290, the virtual image 61R and the virtual image 61L are displayed.
Thereafter, if step 110 → steps 220 to 290 are repeated, the adjustment mechanism does not need to be operated and processing can be performed at high speed.

(d)虚像の表示例
次に、図6に基づいて、表示機3が投射した映像情報55により生じる、乗員63から見た虚像61R及び虚像61Lを説明する。この図6には、体感視認距離をd1に設定した場合において、虚像61Rに含まれる虚像表示75R、及び虚像61Lに含まれる虚像表示75Lが表されている。また、図6には、体感視認距離をd2に設定した場合において、虚像61Rに含まれる虚像表示77R、及び虚像61Lに含まれる虚像表示77Lが表されている。ここで、d1>d2である。体感視認距離をd1に設定した場合と、体感視認距離をd2に設定した場合とで、虚像間幅67は同一であり、基本視認距離73も同一である。しかしながら、体感視認距離をd1に設定した場合は、虚像表示75R及び75Lの上下位置を高くし、表示サイズを小さくし、輝度を小さくすることにより、体感視認距離d1が大きくなっている(すなわち遠くに見える)。一方、体感視認距離をd2に設定した場合は、虚像表示77R及び77Lの上下位置を低くし、表示サイズを大きくし、輝度を大きくすることにより、体感視認距離d2が小さくなっている(すなわち近くに見える)。
(D) Display example of virtual image Next, based on FIG. 6, the virtual image 61R and the virtual image 61L which were seen from the passenger | crew 63 produced by the video information 55 which the display machine 3 projected are demonstrated. The Figure 6, in a case of setting the experience viewing distance d 1, the virtual image display 75R included in the virtual image 61R, and the virtual image display 75L included in the virtual image 61L are represented. Further, in FIG. 6, in the case of setting the experience viewing distance d 2, the virtual image display 77R included in the virtual image 61R, and the virtual image display 77L included in the virtual image 61L are represented. Here, d 1 > d 2 . When the sensation visual recognition distance is set to d 1 and when the sensation visual recognition distance is set to d 2 , the virtual image width 67 is the same, and the basic visual recognition distance 73 is also the same. However, if you set the experience viewing distance d 1, to increase the vertical position of the virtual image display 75R and 75L, to reduce the display size, by reducing the luminance is increased experience viewing distance d 1 ( Ie it looks far away). On the other hand, if you set sensible viewing distance d 2, to lower the vertical position of the virtual image display 77R and 77L, a larger display size, by increasing the brightness, it is perceived visibility distance d 2 is smaller ( Ie look close).

(e)表示装置1が奏する効果
(i)表示装置1は、表示機3が投射する映像情報55を、ハーフミラー41で分割することにより、右目用の映像情報57と左目用の映像情報59とを生成する。そのため、右目用の映像情報57を投射する表示機と、左目用の映像情報59を投射する表示機とを個別に備える必要がない。また、映像情報55を分割する手段としてハーフミラー41を用いているので、複雑な分割装置が必要なく、簡易に時間遅れなく映像情報55を分割できる。
(ii) 表示装置1は、虚像表示75R及び75Lにおける表示内容(表示の上下位置、表示サイズの大きさ、表示の輝度)を調整することにより、虚像間幅67が同一(すなわち基本視認距離73が同一)のままでも、体感視認距離を変化させることができる。また、表示内容のみで体感視認距離を変動させることができるので、虚像表示75Rと虚像表示75Lとは共通で良く、それぞれを別個に生成する必要がない。
(iii) 表示装置1は、乗員63の両目63R、63Lの上下位置に応じて、虚像61R及び虚像61Lの上下位置を調整することができる(図5のステップ230〜250)。そのことにより、乗員63の両目63R、63Lの上下位置が変動しても、乗員63から見た虚像61R及び虚像61Lの相対的な上下位置を一定にすることができる。また、表示装置1は、カメラ11で撮像した画像を用いることにより、乗員63の両目63R、63Lの上下位置を正確に測定することができる。
(iv) 表示装置1は、車外前方における輝度に応じて、虚像61R及び虚像61Lの輝度を調整することができる(図5のステップ250〜280)。そのことにより、車外前方の輝度に対する虚像61R及び虚像61Lの相対的な輝度を一定とすることができる。また、表示装置1は、カメラ17で撮像した画像を用いることにより、車外前方の輝度を正確に測定することができる。
(v) 表示装置1は、乗員63の両目の幅65、乗員63の前後位置に応じて、虚像間隔67を調整することができる(図5のステップ110〜210)。そのことにより、乗員63の両目の幅65や、乗員63の前後位置が変動しても、基本視認距離73を一定にすることができる。また、表示装置1は、カメラ11で撮像した画像を用いることにより、両目の幅65を正確に測定することができ、カメラ15で撮像した画像又はシートポジションセンサ13からの信号を用いることにより、乗員63の前後位置を正確に測定することができる。
(vi) 表示装置1は、ハーフミラー41から虚像61Rまでの光路距離と、ハーフミラー41から虚像61Lまでの光路距離とが等しいように構成されている。そのことにより、乗員63が虚像をみたときの違和感が少ない。
2.第2の実施の形態
(a)表示装置1の構成
表示装置1の構成は、基本的には前記第1の実施の形態(図1〜図3)と同一であるが、光学ユニット7の構成において一部相違する。光学ユニット7の構成のうち、前記第1の実施の形態と相違する部分を中心に、図7に基づいて説明する。光学ユニット7は、ハーフミラー41、ミラー101、103、105、107、109、111、結像レンズ45、調整機構113、及び調整機構115を備えている。ハーフミラー41は、表示機3から投射された単一の映像情報55を右目用の映像情報57と左目用の映像情報59に分割する。すなわち、ハーフミラー41にて反射したもの右目用の映像情報57となり、ハーフミラー41を透過したものが左目用の映像情報59となる。ミラー101、103、105は、右目用の映像情報57を順次反射し、ミラー107、109、111は、左目用の映像情報59を順次反射する。結像レンズ45は、ミラー105で反射された右目用の映像情報57と、ミラー111で反射された左目用の映像情報59とを結像させる。なお、結像レンズ45を通過した右目用の映像情報57と左目用の映像情報59は、ウインドシールド5に至る。調整機構113は、表示機3及び光学ユニット7全体の左右方向における位置を調整する。また、調整機構115は、調整機構113と同期して、結像レンズ45の左右方向における位置を調整する。従って、表示機3及び光学ユニット7と、結像レンズ45との相対的な位置関係は、整機構113及び調整機構115を動作させても変わらない。
(E) Effects exhibited by the display device 1
(i) The display device 1 generates video information 57 for the right eye and video information 59 for the left eye by dividing the video information 55 projected by the display device 3 with the half mirror 41. Therefore, it is not necessary to separately provide a display device that projects the video information 57 for the right eye and a display device that projects the video information 59 for the left eye. Further, since the half mirror 41 is used as means for dividing the video information 55, a complicated dividing device is not required, and the video information 55 can be easily divided without time delay.
(ii) The display device 1 adjusts the display contents (the vertical position of the display, the size of the display, the display brightness) in the virtual image displays 75R and 75L, so that the width between virtual images 67 is the same (that is, the basic viewing distance 73). Even if the same is maintained), the visual perception distance can be changed. Further, since the visual perception distance can be changed only by the display content, the virtual image display 75R and the virtual image display 75L may be common, and it is not necessary to generate each separately.
(iii) The display device 1 can adjust the vertical positions of the virtual image 61R and the virtual image 61L according to the vertical positions of the eyes 63R and 63L of the occupant 63 (steps 230 to 250 in FIG. 5). Accordingly, even if the vertical positions of the eyes 63R and 63L of the occupant 63 are changed, the relative vertical positions of the virtual image 61R and the virtual image 61L viewed from the occupant 63 can be made constant. Further, the display device 1 can accurately measure the vertical positions of the eyes 63R and 63L of the occupant 63 by using the image captured by the camera 11.
(iv) The display device 1 can adjust the luminance of the virtual image 61R and the virtual image 61L according to the luminance in front of the vehicle (steps 250 to 280 in FIG. 5). Thereby, the relative luminance of the virtual image 61R and the virtual image 61L with respect to the luminance ahead of the vehicle can be made constant. Moreover, the display apparatus 1 can measure the brightness | luminance ahead of a vehicle correctly by using the image imaged with the camera 17. FIG.
(v) The display device 1 can adjust the virtual image interval 67 according to the width 65 of both eyes of the occupant 63 and the front-rear position of the occupant 63 (steps 110 to 210 in FIG. 5). As a result, even if the width 65 of both eyes of the occupant 63 and the front-rear position of the occupant 63 vary, the basic visual recognition distance 73 can be made constant. In addition, the display device 1 can accurately measure the width 65 of both eyes by using an image captured by the camera 11, and by using an image captured by the camera 15 or a signal from the sheet position sensor 13, The front-rear position of the passenger 63 can be accurately measured.
(vi) The display device 1 is configured such that the optical path distance from the half mirror 41 to the virtual image 61R is equal to the optical path distance from the half mirror 41 to the virtual image 61L. Therefore, there is little discomfort when the occupant 63 sees a virtual image.
2. Second Embodiment (a) Configuration of Display Device 1 The configuration of the display device 1 is basically the same as that of the first embodiment (FIGS. 1 to 3), but the configuration of the optical unit 7 Is partially different. The configuration of the optical unit 7 will be described with reference to FIG. 7 with a focus on the differences from the first embodiment. The optical unit 7 includes a half mirror 41, mirrors 101, 103, 105, 107, 109, 111, an imaging lens 45, an adjustment mechanism 113, and an adjustment mechanism 115. The half mirror 41 divides the single video information 55 projected from the display device 3 into video information 57 for the right eye and video information 59 for the left eye. That is, the image information 57 for the right eye reflected by the half mirror 41 becomes the image information 57 for the left eye, and the information transmitted through the half mirror 41 becomes the image information 59 for the left eye. The mirrors 101, 103, and 105 sequentially reflect the video information 57 for the right eye, and the mirrors 107, 109, and 111 sequentially reflect the video information 59 for the left eye. The imaging lens 45 images the right-eye video information 57 reflected by the mirror 105 and the left-eye video information 59 reflected by the mirror 111. Note that the right-eye video information 57 and the left-eye video information 59 that have passed through the imaging lens 45 reach the windshield 5. The adjustment mechanism 113 adjusts the position of the entire display unit 3 and the optical unit 7 in the left-right direction. The adjustment mechanism 115 adjusts the position of the imaging lens 45 in the left-right direction in synchronization with the adjustment mechanism 113. Therefore, the relative positional relationship between the display 3 and the optical unit 7 and the imaging lens 45 does not change even when the adjusting mechanism 113 and the adjusting mechanism 115 are operated.

(b)表示装置1の表示処理部9が実行する処理
次に、図8のフローチャートに基づいて、表示処理部9が実行する処理を説明する。
ステップ310では、カメラ11に、乗員63の顔を正面から撮像させ、その画像データを取り込む。
(B) Processing executed by the display processing unit 9 of the display device 1 Next, processing executed by the display processing unit 9 will be described based on the flowchart of FIG.
In step 310, the camera 11 is caused to capture the face of the occupant 63 from the front, and the image data is captured.

ステップ320では、前記ステップ310で取り込んだ画像データから、乗員63の両目63R、63Lの左右位置を算出する。
ステップ330では、乗員63に視認させる位置を考慮し、乗員63から見たときの背景(車外前方の風景)の中における虚像61R及び虚像61Lの左右位置を取得する。例えば、図9は、乗員63が見た車外前方の風景と、そこに重畳して表示された虚像に含まれる虚像表示を示しているが、虚像表示119R及び虚像表示119Lの左右位置は、虚像表示117R及び虚像表示117Lよりも左である。
In step 320, the left and right positions of the eyes 63R and 63L of the occupant 63 are calculated from the image data captured in step 310.
In step 330, taking into account the position visually recognized by the occupant 63, the left and right positions of the virtual image 61R and the virtual image 61L in the background (scene outside the vehicle) when viewed from the occupant 63 are acquired. For example, FIG. 9 shows a scene in front of the vehicle viewed by the occupant 63 and a virtual image display included in a virtual image displayed superimposed thereon, but the left and right positions of the virtual image display 119R and the virtual image display 119L are virtual images. It is to the left of the display 117R and the virtual image display 117L.

ステップ340では、前記ステップ330で取得した、虚像61R及び虚像61Lの左右位置と、前記ステップ320で算出した乗員63の目の左右位置に応じて、調整機構113、115を用い、虚像61R及び虚像61Lの左右位置(車両を基準とした左右位置)を調整する。   In step 340, the virtual images 61 </ b> R and virtual images are obtained using the adjustment mechanisms 113 and 115 according to the left and right positions of the virtual images 61 </ b> R and 61 </ b> L acquired in step 330 and the left and right positions of the occupant 63 eyes calculated in step 320. The left / right position of 61L (the left / right position with respect to the vehicle) is adjusted.

まず、乗員63の両目63R、63Lの左右位置が所定の基準位置にあるとの前提で、前記ステップ330で取得した、虚像61R及び虚像61Lの左右位置に応じて、調整機構113及び115を用いて、虚像61R及び虚像61Lの左右位置(車両を基準とした左右位置)を決定する。具体的には、虚像61R及び虚像61Lの左右位置が右であるほど、虚像61R及び虚像61Lを右方向に移動させ、虚像61R及び虚像61Lの左右位置が左であるほど、虚像61R及び虚像61Lを左方向に移動させる。   First, on the assumption that the left and right positions of both eyes 63R and 63L of the occupant 63 are at predetermined reference positions, the adjustment mechanisms 113 and 115 are used according to the left and right positions of the virtual image 61R and the virtual image 61L acquired in step 330. Thus, the left and right positions (left and right positions with reference to the vehicle) of the virtual image 61R and the virtual image 61L are determined. Specifically, the virtual image 61R and the virtual image 61L are moved in the right direction as the left and right positions of the virtual image 61R and the virtual image 61L are right, and the virtual image 61R and the virtual image 61L are moved as the left and right positions of the virtual image 61R and the virtual image 61L are left. Move to the left.

次に、前記ステップ320で算出した乗員63の両目63R、63Lの左右位置を用いて、両目63R、63Lの左右位置のばらつきに起因する虚像61R及び虚像61Lの左右位置のずれを補正する。すなわち、乗員63の両目63R、63Lの左右位置が所定の基準位置からずれていると、乗員63から見た虚像61R及び虚像61Lの左右位置が、乗員63の両目63R、63Lの左右位置が所定の基準位置にある場合とは違ってしまうので、乗員63の両目63R、63Lの左右位置に応じて、虚像61R及び虚像61Lの左右位置を補正する。具体的には、乗員63の両目63R、63Lの左右位置が右にあるほど、虚像61R及び虚像61Lの左右位置も右に補正し、乗員63の両目63R、63Lの左右位置が左にあるほど、虚像61R及び虚像61Lの左右位置を左に補正する。この補正により、乗員63の両目63R、63Lの左右位置が変動しても、乗員63から見た虚像61R及び虚像61Lの左右位置を設定とおりとすることができる。   Next, using the left and right positions of the eyes 63R and 63L of the occupant 63 calculated in step 320, the left and right positions of the virtual image 61R and the virtual image 61L due to the variation in the left and right positions of the eyes 63R and 63L are corrected. That is, when the left and right positions of both eyes 63R and 63L of the occupant 63 are deviated from a predetermined reference position, the left and right positions of the virtual image 61R and the virtual image 61L viewed from the occupant 63 are the same as the left and right positions of both eyes 63R and 63L of the occupant 63. Therefore, the left and right positions of the virtual image 61R and the virtual image 61L are corrected according to the left and right positions of the eyes 63R and 63L of the occupant 63. Specifically, the left and right positions of both eyes 63R and 63L of the occupant 63 are corrected to the right as the left and right positions of the virtual image 61R and the virtual image 61L are corrected, and the left and right positions of the eyes 63R and 63L of the occupant 63 are left. The left and right positions of the virtual image 61R and the virtual image 61L are corrected to the left. With this correction, even if the left and right positions of both eyes 63R and 63L of the occupant 63 change, the left and right positions of the virtual image 61R and the virtual image 61L viewed from the occupant 63 can be set as set.

なお、ここでは、説明の便宜上、最初に、乗員63の両目63R、63Lの左右位置が所定の基準位置にあるとの前提で、虚像61R及び虚像61Lの左右位置の設定値に応じて虚像61R及び虚像61Lの左右位置を決定し、次に、乗員63の両目63R、63Lの左右位置に応じて、虚像61R及び虚像61Lの左右位置を補正するとしたが、これらの処理を一度に行うこともできる。例えば、ROM23に、虚像61R及び虚像61Lの左右位置及び乗員63の両目63R、63Lの左右位置と、虚像61R及び虚像61Lの左右位置との対応テーブルを記憶させておき、この対応テーブルを用いて、虚像61R及び虚像61Lの左右位置を決定することができる。   Here, for convenience of explanation, first, the virtual image 61R is set in accordance with the set values of the left and right positions of the virtual image 61R and the virtual image 61L on the assumption that the left and right positions of the eyes 63R and 63L of the occupant 63 are at predetermined reference positions. The left and right positions of the virtual image 61L are determined, and then the left and right positions of the virtual image 61R and the virtual image 61L are corrected according to the left and right positions of the eyes 63R and 63L of the occupant 63. However, these processes may be performed at a time. it can. For example, the ROM 23 stores a correspondence table of the left and right positions of the virtual image 61R and the virtual image 61L, the left and right positions of the eyes 63R and 63L of the occupant 63, and the left and right positions of the virtual image 61R and the virtual image 61L. The left and right positions of the virtual image 61R and the virtual image 61L can be determined.

ステップ350では、前記ステップ310で取り込んだ画像データから、乗員63の両目の幅65を算出する。
ステップ360では、乗員63の前後位置(すなわち、乗員63の両目63R、63Lの前後位置)を算出するために、乗員63の顔を側面から撮像するカメラ15を使用するか否かを判断する。YESの場合はステップ370に進み、NOの場合はステップ390に進む。
In step 350, the width 65 of both eyes of the occupant 63 is calculated from the image data captured in step 310.
In step 360, in order to calculate the front-rear position of the occupant 63 (that is, the front-rear position of both eyes 63R, 63L of the occupant 63), it is determined whether to use the camera 15 that captures the face of the occupant 63 from the side. If yes, then continue with step 370, otherwise continue with step 390.

ステップ370では、カメラ15に、乗員63の顔を側面から撮像させ、その画像データを取り込む。
ステップ380では、前記ステップ370で取り込んだ画像データから、乗員63の両目63R、63Lの前後位置を算出する。
In step 370, the camera 15 is caused to capture the face of the occupant 63 from the side, and the image data is captured.
In step 380, the front and rear positions of the eyes 63R and 63L of the occupant 63 are calculated from the image data captured in step 370.

一方、前記ステップ360にてNOと判断した場合は、ステップ390に進み、乗員63の前後位置を算出するために、シートポジションセンサ13を使用するか否かを判断する。YESの場合はステップ400に進み、NOの場合はステップ420に進む。   On the other hand, if NO is determined in step 360, the process proceeds to step 390, and it is determined whether or not the seat position sensor 13 is used to calculate the front-rear position of the occupant 63. If yes, then continue with step 400, otherwise continue with step 420.

ステップ400では、シートポジションセンサ13から信号を取り込む。
ステップ410では、前記ステップ400で取り込んだ信号から、シートの前後位置(すなわち、乗員63の両目63R、63Lの前後位置)を算出する。
In step 400, a signal is taken from the sheet position sensor 13.
In step 410, the front and rear positions of the seat (that is, the front and rear positions of both eyes 63R and 63L of the occupant 63) are calculated from the signal captured in step 400.

一方、前記ステップ390にてNOと判断した場合は、ステップ420にて、乗員63の両目63R、63Lの前後位置として、予めROM23に記憶しておいた既定値を取得する。   On the other hand, if NO is determined in step 390, a predetermined value stored in advance in the ROM 23 is acquired in step 420 as the front and rear positions of the eyes 63R and 63L of the occupant 63.

ステップ430では、視認させる距離と、前記ステップ350で算出した乗員の両目の幅65と、前記ステップ380、410、420のいずれかで取得した、乗員63の両目63R、63Lの前後位置とから、虚像間幅67を決定する。すなわち、図4において、基本視認距離73を視認させる距離とし、両目の幅65を前記ステップ350で算出した値とし、結像距離69を前記ステップ380、410、420のいずれかで取得した、乗員63の両目63R、63Lの前後位置から設定したとき、一義的に定まる虚像間幅67を決定する。   In Step 430, from the distance to be visually recognized, the width 65 of both eyes of the occupant calculated in Step 350, and the front and rear positions of both eyes 63R and 63L of the occupant 63 obtained in any of Steps 380, 410, and 420, The virtual image width 67 is determined. That is, in FIG. 4, the basic viewing distance 73 is the distance to be viewed, the width 65 of both eyes is the value calculated in Step 350, and the imaging distance 69 is acquired in any of Steps 380, 410, and 420. When setting from the front and rear positions of the 63 eyes 63R and 63L, a virtual image width 67 determined uniquely is determined.

この虚像間幅67を決定することは、すなわち、虚像61Rに含まれる表示77と、虚像61Lに含まれる表示との間隔を決定することを意味する。この間隔の決定方法を図10に基づいて説明する。図10の(a)は、表示機3が投射する映像情報55において、中央に三角形の虚像表示77がある場合である。このとき、映像情報55を分割して成る右目用の映像情報57(及びそれに基づく虚像61R)と左目用の映像情報59(及びそれに基づく虚像61L)においても、虚像表示77は中心にある。図10の(b)、(c)は、表示機3が投射する映像情報55において、三角形の虚像表示77が左右どちらかに寄った場合である。ところで、右目用の映像情報57(及びそれに基づく虚像61R)と、左目用の映像情報59(及びそれに基づく虚像61L)とは、光学ユニット7における反転回数の差が奇数(1回)であるから、左右対称となる。そのため、虚像61Rにおいて虚像表示77Rが右寄りにあれば、虚像61Lにおいて虚像表示77Lは左寄りとなり、両者の間隔は広がる。反対に、虚像61Rにおいて虚像表示77Rが左寄りにあれば、虚像61Lにおいて虚像表示77Lは右寄りとなり、両者の間隔は狭まる。すなわち、映像情報55において、三角形の虚像表示77の左右位置を変えることにより、虚像61Rにおける虚像表示77Rと、虚像61Lにおける虚像表示77Lとの間隔を調整することができる。   Determining the inter-virtual image width 67 means determining an interval between the display 77 included in the virtual image 61R and the display included in the virtual image 61L. A method for determining this interval will be described with reference to FIG. (A) of FIG. 10 is a case where there is a triangular virtual image display 77 in the center in the video information 55 projected by the display device 3. At this time, in the right-eye video information 57 (and the virtual image 61R based thereon) and the left-eye video information 59 (and the virtual image 61L based thereon) formed by dividing the video information 55, the virtual image display 77 is at the center. 10B and 10C show the case where the triangular virtual image display 77 is shifted to either the left or right in the video information 55 projected by the display device 3. FIG. By the way, the difference in the number of inversions in the optical unit 7 between the video information 57 for the right eye (and the virtual image 61R based thereon) and the video information 59 for the left eye (and the virtual image 61L based thereon) is an odd number (one time). Is symmetrical. Therefore, if the virtual image display 77R is on the right side in the virtual image 61R, the virtual image display 77L is on the left side in the virtual image 61L, and the distance between the two is increased. On the other hand, if the virtual image display 77R is on the left side in the virtual image 61R, the virtual image display 77L is on the right side in the virtual image 61L, and the distance between the two is reduced. That is, by changing the left and right positions of the triangular virtual image display 77 in the video information 55, the interval between the virtual image display 77R in the virtual image 61R and the virtual image display 77L in the virtual image 61L can be adjusted.

ステップ440では、体感視認距離を取得する。この体感視認距離の意味は上述したとおりである。
ステップ450では、前記ステップ310で取り込んだ、乗員63の顔を正面から撮像した画像データから、乗員63の両目63R、63Lの上下位置を算出する。
In step 440, the sensation visual recognition distance is acquired. The meaning of the visual perception distance is as described above.
In step 450, the vertical positions of the eyes 63R and 63L of the occupant 63 are calculated from the image data captured in step 310 from the front of the occupant 63.

ステップ460では、前記ステップ440で取得した体感視認距離と、前記ステップ450で算出した、乗員63の両目63R、63Lの上下位置とから、虚像61R及び虚像61Lの上下位置を決定する。その決定方法は、前記第1の実施の形態と同様である。   In step 460, the vertical positions of the virtual image 61R and the virtual image 61L are determined from the sensation visual recognition distance acquired in step 440 and the vertical positions of the eyes 63R and 63L of the passenger 63 calculated in step 450. The determination method is the same as that in the first embodiment.

ステップ470では、カメラ17に、車外前方(乗員63から見て、虚像61R及び虚像61Lと重畳する方向)を撮像させ、その画像を取り込む。
ステップ480では、前記ステップ470にて取り込んだ画像に基づき、車外前方の輝度を測定する。
In step 470, the camera 17 is imaged in front of the vehicle (in the direction superimposed on the virtual image 61R and the virtual image 61L when viewed from the passenger 63), and the image is captured.
In step 480, the brightness in front of the vehicle is measured based on the image captured in step 470.

ステップ490では、前記ステップ440で取得した体感視認距離と、前記ステップ490で測定した、車外前方の輝度から、虚像61R及び虚像61Lの輝度を決定する。その決定の方法は、前記第1の実施の形態と同様である。   In step 490, the brightness of the virtual image 61R and the virtual image 61L is determined from the sensation visual recognition distance acquired in step 440 and the brightness in front of the vehicle measured in step 490. The determination method is the same as that in the first embodiment.

ステップ500では、前記ステップ440で取得した体感視認距離に応じて、虚像61R及び虚像61Lに含まれる表示の大きさ(映像情報の拡大率)を決定する。決定の方法は前記第1の実施の形態と同様である。   In step 500, the display size (magnification rate of video information) included in the virtual image 61R and the virtual image 61L is determined in accordance with the sensation visual recognition distance acquired in step 440. The determination method is the same as that in the first embodiment.

ステップ510では、虚像61R及び虚像61Lを表示する。
(c)虚像の表示例
次に、図9に基づいて、表示機3が投射した映像情報55により生じる、乗員63から見た虚像61R及び虚像61Lを説明する。この図9には、体感視認距離をd1に設定した場合において、虚像61Rに含まれる虚像表示121R、及び虚像61Lに含まれる虚像表示121Lが表されている。また、図9には、体感視認距離をd2に設定した場合において、虚像61Rに含まれる虚像表示117R、及び虚像61Lに含まれる虚像表示117Lが表されている。さらに、図9には、体感視認距離をd2に設定し、左右位置を、左寄りにした場合に、虚像61Rに含まれる虚像表示119R、及び虚像61Lに含まれる虚像表示119Lが表されている。
In step 510, the virtual image 61R and the virtual image 61L are displayed.
(C) Display example of virtual image Next, based on FIG. 9, the virtual image 61R and the virtual image 61L seen from the passenger | crew 63 produced by the video information 55 which the display machine 3 projected are demonstrated. In this FIG. 9, in the case of setting the experience viewing distance d 1, the virtual image display 121R included in the virtual image 61R, and the virtual image display 121L included in the virtual image 61L are represented. Further, in FIG. 9, in the case of setting the experience viewing distance d 2, the virtual image display 117R included in the virtual image 61R, and the virtual image display 117L included in the virtual image 61L are represented. Further, in FIG. 9, sets the experience viewing distance d 2, the left and right positions, in the case of leftward, the virtual image display 119R included in the virtual image 61R, and the virtual image display 119L included in the virtual image 61L are represented .

ここで、d1>d2である。体感視認距離をd1に設定した場合の虚像間幅67は、体感視認距離をd2に設定した場合の虚像間幅67よりも大きい。虚像間幅67を変化させる方法は、図10に基づいて説明したとおりである。虚像間幅67を大きくすることにより、体感視認距離を大きくすることができる。 Here, d 1 > d 2 . The virtual image width 67 when the sensation visual recognition distance is set to d 1 is larger than the virtual image width 67 when the sensation visual recognition distance is set to d 2 . The method of changing the virtual image width 67 is as described based on FIG. By increasing the inter-virtual image width 67, the visual perception distance can be increased.

また、体感視認距離をd1に設定した場合は、虚像表示121R及び121Lの上下位置を高くし、虚像表示の表示サイズを小さくし、輝度を小さくすることにより、体感視認距離d1が大きくなっている(すなわち遠くに見える。)一方、体感視認距離をd2に設定した場合は、虚像表示117R及び117Lの上下位置を低くし、表示サイズを大きくし、輝度を大きくすることにより、体感視認距離d2が小さくなっている(すなわち近くに見える)。 Also, if you set the experience viewing distance d 1, to increase the vertical position of the virtual image display 121R and 121L, to reduce the display size of the virtual image display by reducing the luminance becomes large sensible viewing distance d 1 On the other hand, when the visual perception distance is set to d 2 , the vertical position of the virtual image displays 117R and 117L is lowered, the display size is increased, and the luminance is increased. The distance d 2 is small (ie looks close).

また、本第2の実施の形態では、虚像表示の左右位置を変化させることができる。例えば、虚像表示117R及び117Lのように中央に表示することもできるし、虚像表示119R及び119Lのように、左寄りに表示することもできる。
(d)表示装置1が奏する効果
(i) 表示装置1の光学ユニット7では、右目用の映像情報57の反転回数(4回)と、左目用の映像情報の反転回数(3回)との差が奇数(1回)である。そのため、右目用の映像情報57に基づく虚像61Rと、左目用の映像情報59に基づく虚像61Lとは、左右対称となる。そのことにより、映像情報55において、虚像表示77の左右位置を変えることにより、虚像61Rにおける虚像表示77Rと、虚像61Lにおける虚像表示77Lとの間隔を調整することができる(図10参照)。
In the second embodiment, the left and right positions of the virtual image display can be changed. For example, it can be displayed in the center like the virtual image displays 117R and 117L, or can be displayed on the left side like the virtual image displays 119R and 119L.
(D) Effects produced by the display device 1
(i) In the optical unit 7 of the display device 1, the difference between the number of inversions (4 times) of the video information 57 for the right eye and the number of inversions (3 times) of the video information for the left eye is an odd number (1 time). . Therefore, the virtual image 61R based on the video information 57 for the right eye and the virtual image 61L based on the video information 59 for the left eye are symmetric. Accordingly, by changing the left and right positions of the virtual image display 77 in the video information 55, the interval between the virtual image display 77R in the virtual image 61R and the virtual image display 77L in the virtual image 61L can be adjusted (see FIG. 10).

(ii) 表示装置1は、虚像61R及び61Lの左右位置を変化させることができる。また、表示装置1は、乗員63の両目63R、63Lの左右位置を取得し、その値に基づいて、虚像61R及び61Lの左右位置を補正するので、乗員63の両目63R、63Lの左右位置が変動しても、乗員63から見た虚像61R及び虚像61Lの左右位置を設定とおりとすることができる。
(iii)その他、前記第1の実施の形態と同様の効果も奏する。
(ii) The display device 1 can change the left and right positions of the virtual images 61R and 61L. In addition, the display device 1 acquires the left and right positions of the eyes 63R and 63L of the occupant 63 and corrects the left and right positions of the virtual images 61R and 61L based on the values, so that the left and right positions of the eyes 63R and 63L of the occupant 63 are determined. Even if it fluctuates, the left and right positions of the virtual image 61R and the virtual image 61L viewed from the passenger 63 can be set as set.
(iii) In addition, the same effects as those of the first embodiment can be obtained.

尚、本発明は前記実施の形態になんら限定されるものではなく、本発明を逸脱しない範囲において種々の態様で実施しうることはいうまでもない。
例えば、虚像表示の色を変化させることにより、体感視認距離を調整してもよい。つまり、体感視認距離が長いときは、虚像表示の色を青系統の色とし、体感視認距離が短いときは、虚像表示の色を赤系統の色とする。これは、赤い表示は近く感じ、青い表示は遠く感じるという特性を利用するものである。
In addition, this invention is not limited to the said embodiment at all, and it cannot be overemphasized that it can implement with a various aspect in the range which does not deviate from this invention.
For example, the visual perception distance may be adjusted by changing the color of the virtual image display. That is, when the sensation visual recognition distance is long, the virtual image display color is a blue color, and when the sensation visual recognition distance is short, the virtual image display color is a red color. This utilizes the characteristic that a red display feels close and a blue display feels far.

また、両目の幅65、乗員63の両目63R、63L前後位置や左右位置、車外前方の輝度などは、カメラやセンサで取得するのではなく、乗員63が、表示装置1が備える、図示しない入力手段に入力するようにしてもよい。   Further, the width 65 of the eyes, the positions of the eyes 63R and 63L of the occupant 63, the front / rear position, the luminance in front of the vehicle, and the like are not acquired by a camera or a sensor. You may make it input into a means.

表示装置1の構成を表す説明図である。3 is an explanatory diagram illustrating a configuration of a display device 1. FIG. 表示処理部9の構成を表すブロック図である。3 is a block diagram illustrating a configuration of a display processing unit 9. FIG. 光学ユニット7の構成及び作用を表す説明図である。FIG. 4 is an explanatory diagram showing the configuration and action of the optical unit 7. 虚像と基本視認距離の関係を表す説明図である。It is explanatory drawing showing the relationship between a virtual image and a basic visual recognition distance. 表示処理部9が実行する処理を表すフローチャートである。It is a flowchart showing the process which the display process part 9 performs. 乗員63から見た虚像の例を表す説明図である。6 is an explanatory diagram illustrating an example of a virtual image viewed from the passenger 63. FIG. 光学ユニット7の構成及び作用を表す説明図である。FIG. 4 is an explanatory diagram showing the configuration and action of the optical unit 7. 表示処理部9が実行する処理を表すフローチャートである。It is a flowchart showing the process which the display process part 9 performs. 乗員63から見た虚像の例を表す説明図である。6 is an explanatory diagram illustrating an example of a virtual image viewed from the passenger 63. FIG. 虚像表示77の間隔を変化させる原理を示す説明図である。It is explanatory drawing which shows the principle which changes the space | interval of the virtual image display 77. FIG.

符号の説明Explanation of symbols

1・・・表示装置
3・・・表示機
5・・・ウインドシールド
7・・・光学ユニット
9・・・表示処理部
11、15、17・・・カメラ
43、47、49、101、103、107、109、111・・・ミラー
41・・・ハーフミラー
55・・・映像情報
57・・・右目用の映像情報
59・・・左目用の映像情報
61・・・虚像
63・・・乗員
65・・・両目の幅
67・・・虚像間幅
69・・・結像距離
71・・・基本視認位置
73・・・基本視認距離
75、77、117、119、121・・・虚像表示
DESCRIPTION OF SYMBOLS 1 ... Display apparatus 3 ... Display machine 5 ... Windshield 7 ... Optical unit 9 ... Display processing part 11, 15, 17 ... Camera 43, 47, 49, 101, 103, 107, 109, 111 ... Mirror 41 ... Half mirror 55 ... Video information 57 ... Video information for right eye 59 ... Video information for left eye 61 ... Virtual image 63 ... Crew 65 ... both eyes 67 ... width between virtual images 69 ... imaging distance 71 ... basic visual recognition position 73 ... basic visual recognition distance 75, 77, 117, 119, 121 ... virtual image display

Claims (2)

右目用の映像情報及び左目用の映像情報を投射する投射手段と、
前記右目用の映像情報及び前記左目用の映像情報を反射させる半透明な反射手段と、を備え、
観察者の視点から見て、前記反射手段上の前記右目用の映像情報及び前記左目用の映像情報は、それぞれ、前記反射手段による右目用の虚像及び左目用の虚像として視認可能な表示装置であって、
前記投射手段は、単一の映像情報を投射する表示手段と、
前記単一の映像情報を、前記右目用の映像情報及び前記左目用の映像情報に分割する分割手段と、を備え、
前記反射手段上において、前記右目用の映像情報は、前記観察者に前記右目用の虚像として視認される位置にあるとともに、前記左目用の映像情報は、前記観察者に前記左目用の虚像として視認される位置にあり、前記右目用の映像情報と、前記左目用の映像情報とが左右対称であることを特徴とする表示装置。
Projection means for projecting video information for the right eye and video information for the left eye,
Translucent reflecting means for reflecting the video information for the right eye and the video information for the left eye, and
The right-eye video information and the left-eye video information on the reflecting means viewed from the viewpoint of the observer are display devices that can be visually recognized as a right-eye virtual image and a left-eye virtual image by the reflecting means, respectively. There,
The projection means includes display means for projecting single video information;
Dividing means for dividing the single video information into the video information for the right eye and the video information for the left eye,
On the reflecting means, the video information for the right eye is in a position where it is visually recognized by the observer as the virtual image for the right eye, and the video information for the left eye is displayed as a virtual image for the left eye to the observer. A display device, wherein the display device is in a position to be visually recognized, and the video information for the right eye and the video information for the left eye are symmetrical.
前記分割手段から前記反射手段までの光路において、前記右目用の映像情報の反転回数Rと、前記左目用の映像情報の反転回数Lとの差が奇数であることを特徴とする請求項1に記載の表示装置。   2. The difference between the number of inversions R of the right-eye video information and the number of inversions L of the left-eye video information in the optical path from the dividing unit to the reflecting unit is an odd number. The display device described.
JP2006119712A 2006-04-24 2006-04-24 Display device Expired - Fee Related JP4857885B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006119712A JP4857885B2 (en) 2006-04-24 2006-04-24 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006119712A JP4857885B2 (en) 2006-04-24 2006-04-24 Display device

Publications (2)

Publication Number Publication Date
JP2007292956A JP2007292956A (en) 2007-11-08
JP4857885B2 true JP4857885B2 (en) 2012-01-18

Family

ID=38763651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006119712A Expired - Fee Related JP4857885B2 (en) 2006-04-24 2006-04-24 Display device

Country Status (1)

Country Link
JP (1) JP4857885B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9360667B2 (en) 2013-10-21 2016-06-07 Industrial Technology Research Institute Beam splitting module and projector device using the same

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5125435B2 (en) 2006-12-13 2013-01-23 三菱マテリアル株式会社 Porous titanium with low contact resistance
JP2009257815A (en) * 2008-04-14 2009-11-05 Calsonic Kansei Corp Meter brightness adjusting system
JP2009269551A (en) * 2008-05-09 2009-11-19 Calsonic Kansei Corp Display for vehicle
JP4886751B2 (en) * 2008-09-25 2012-02-29 株式会社東芝 In-vehicle display system and display method
KR101696473B1 (en) * 2010-07-05 2017-01-16 엘지디스플레이 주식회사 Stereoscopic image display device and drving method thereof
JP2012047995A (en) * 2010-08-27 2012-03-08 Fujitsu Ltd Information display device
US9179133B2 (en) 2010-10-19 2015-11-03 Mitsubishi Electric Corporation 3Dimension stereoscopic display device
CN107264283B (en) * 2013-03-29 2019-07-19 株式会社斯巴鲁 Transporting equipment display device
JP2014030749A (en) * 2013-08-21 2014-02-20 Sanyo Product Co Ltd Game machine
JPWO2017056953A1 (en) * 2015-10-02 2018-07-26 株式会社リコー Display device
CN108463764B (en) * 2016-01-16 2022-10-28 镭亚股份有限公司 Head-up display based on multibeam diffraction grating
CN111566538B (en) 2017-12-18 2023-09-08 镭亚股份有限公司 Head-up display, system and method based on multi-beam element
JP2021021914A (en) * 2019-07-30 2021-02-18 怡利電子工業股▲ふん▼有限公司 Naked eye 3d reflection type diffusion piece head-up display device
JP2023064280A (en) * 2021-10-26 2023-05-11 矢崎総業株式会社 Display device for vehicle

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62137236A (en) * 1985-12-09 1987-06-20 Nissan Motor Co Ltd Head-up display device for vehicle
JP3404427B2 (en) * 1994-03-31 2003-05-06 マツダ株式会社 Vehicle display device
JP3727078B2 (en) * 1994-12-02 2005-12-14 富士通株式会社 Display device
US5808802A (en) * 1996-11-15 1998-09-15 Daewoo Electronics Co. Ltd. Head-mounted display apparatus with a single image display device
JP3330129B2 (en) * 2000-09-21 2002-09-30 株式会社パルカ Video display device
JP2004240092A (en) * 2003-02-05 2004-08-26 Pioneer Electronic Corp Display device
JP2004361467A (en) * 2003-06-02 2004-12-24 Pioneer Electronic Corp Display device and display method
JP2005070255A (en) * 2003-08-22 2005-03-17 Denso Corp Virtual image display device
JP2005247224A (en) * 2004-03-05 2005-09-15 Sumitomo Electric Ind Ltd Vehicular display device
JP4707368B2 (en) * 2004-06-25 2011-06-22 雅貴 ▲吉▼良 Stereoscopic image creation method and apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9360667B2 (en) 2013-10-21 2016-06-07 Industrial Technology Research Institute Beam splitting module and projector device using the same

Also Published As

Publication number Publication date
JP2007292956A (en) 2007-11-08

Similar Documents

Publication Publication Date Title
JP4857885B2 (en) Display device
US9618759B2 (en) Image display apparatus and image display method
JP4686586B2 (en) In-vehicle display device and display method
US8130259B2 (en) Three-dimensional display device and method as well as program
WO2018142610A1 (en) Stereoscopic display device and head-up display
US20020024592A1 (en) Stereoscopic CG image generating apparatus and stereoscopic TV apparatus
CN105988220B (en) Method and control device for operating an autostereoscopic field display for a vehicle
JP2007052304A (en) Video display system
JP4367212B2 (en) Virtual image display device and program
JP2014150304A (en) Display device and display method therefor
JP2014045473A (en) Stereoscopic image display device, image processing apparatus, and stereoscopic image processing method
WO2019107295A1 (en) Head-up display device
US20200201054A1 (en) Head-up display device
JP2019102936A (en) Display device, electronic mirror, control method of display device, and display control program
JP2018203245A (en) Display system, electronic mirror system, and mobile body
JP4929768B2 (en) Visual information presentation device and visual information presentation method
US20190166358A1 (en) Display device, electronic mirror and method for controlling display device
JP2017171146A (en) Head-up display device
JPH08327948A (en) Method and device for displaying stereoscopic picture
WO2018101170A1 (en) Display device and electronic mirror
JP2018202927A (en) Head-up display device
WO2018109991A1 (en) Display device, electronic mirror, display device control method, program, and storage medium
WO2023054307A1 (en) Display control device, head-up display device, and display control method
JP2020141295A (en) Vehicle display device
JP2015094831A (en) Stereoscopic imaging device, control method thereof, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111017

R151 Written notification of patent or utility model registration

Ref document number: 4857885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141111

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees