JP2014068331A - Stereoscopic display device and display method of the same - Google Patents

Stereoscopic display device and display method of the same Download PDF

Info

Publication number
JP2014068331A
JP2014068331A JP2012258089A JP2012258089A JP2014068331A JP 2014068331 A JP2014068331 A JP 2014068331A JP 2012258089 A JP2012258089 A JP 2012258089A JP 2012258089 A JP2012258089 A JP 2012258089A JP 2014068331 A JP2014068331 A JP 2014068331A
Authority
JP
Japan
Prior art keywords
image
display
eye
eye image
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012258089A
Other languages
Japanese (ja)
Inventor
Hisami Watanabe
寿巳 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2012258089A priority Critical patent/JP2014068331A/en
Publication of JP2014068331A publication Critical patent/JP2014068331A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic display device which informs an observer of a direction where stereoscopic display is possible and a direction where stereoscopic display can be maintained and can reduce troublesomeness of the observer with shift of a viewpoint position and to provide a display method of the stereoscopic display device.SOLUTION: A control section 20 allows display means 30 to display a direction indication image for suggesting a center direction of an observation region as an image observed by an observer in a left eye image and a right eye image when it is determined that one of a left eye and a right eye of an operator 102 reaches an end of the observation region where the left eye image or the right eye image can be observed or an outer side of the observation region in response to a viewpoint position which position detection means detects.

Description

本発明は、立体表示装置及びその表示方法に関するものである。   The present invention relates to a stereoscopic display device and a display method thereof.

従来の立体表示装置として、裸眼で立体視を可能とするべく、左右2つの視差画像を観察者の左眼及び右眼にそれぞれ観察させるものが知られている(例えば特許文献1参照)。かかる立体表示装置は、液晶表示パネルなどの表示手段に左右の視差画像を列毎に交互に配置した合成画像を表示し、この合成画像を所定のスリットを有する視差バリアやかまぼこ状のレンズを複数配置したレンチキュラレンズなどの画像分離手段を介して左右の視差画像に光学的に分離し、観察者に左右の眼でそれぞれの眼に対応する視差画像を観察させることで立体視を可能とするものである。   2. Description of the Related Art As a conventional stereoscopic display device, there is known a device that allows two left and right parallax images to be observed by an observer's left eye and right eye in order to enable stereoscopic viewing with the naked eye (see, for example, Patent Document 1). Such a stereoscopic display device displays a composite image in which left and right parallax images are alternately arranged for each column on a display unit such as a liquid crystal display panel, and this composite image is provided with a plurality of parallax barriers and kamaboko-shaped lenses having predetermined slits. Optical separation into left and right parallax images via an image separating means such as a lenticular lens arranged, and allowing a viewer to observe a parallax image corresponding to each eye with the left and right eyes, enabling stereoscopic viewing It is.

また、観察者の視点位置が正視領域(左右の眼でそれぞれの眼に対応する視差画像を観察できる領域)から外れて左右の眼で反対の眼に対応する視差画像を観察する逆視や1つの眼で両方の視差画像を観察するクロストークなどが生じて立体視ができなくなる問題点を解消する方法として、観察者の視点位置を検出可能な検出手段を設け、観察者の視点位置に応じて観察される左右の視差画像を切り替える技術が知られている(例えば特許文献2参照)。   In addition, the viewer's viewpoint position deviates from the normal viewing area (the area where the left and right eyes can observe the parallax images corresponding to the respective eyes) and the left and right eyes observe the parallax images corresponding to the opposite eyes or 1 As a method to solve the problem that stereoscopic vision is not possible due to crosstalk that observes both parallax images with one eye, detection means that can detect the observer's viewpoint position is provided, and according to the viewpoint position of the observer A technique for switching left and right parallax images observed in this manner is known (see, for example, Patent Document 2).

特開2005−91447号公報JP 2005-91447 A 特開2003−107392号公報JP 2003-107392 A

しかしながら、特許文献2に開示されるように観察者の視点位置に応じて左右の視差画像を切り替える方法を用いたとしても、観察者の左眼あるいは右眼の一方が視差画像を観察可能な観察領域の外側に位置する場合には、立体表示ができなくなる。このとき、観察者はどのように視点位置を移動させれば立体表示ができるかを瞬時に把握することが困難であり、観察者が煩わしさを感じるという問題点があった。また、観察者は立体表示ができなくなって初めて自らの視点位置が立体表示できない位置であることが認識できるため、立体表示が維持できずに観察者が煩わしさを感じるという問題点があった。   However, even if the method of switching the left and right parallax images according to the observer's viewpoint position as disclosed in Patent Document 2 is used, the observation in which one of the left eye or the right eye of the observer can observe the parallax image If it is located outside the area, stereoscopic display cannot be performed. At this time, it is difficult for the observer to instantly understand how the stereoscopic display can be performed by moving the viewpoint position, and there is a problem that the observer feels troublesome. In addition, since the observer can recognize that his / her viewpoint position is a position where the stereoscopic display cannot be performed only after the stereoscopic display cannot be performed, the stereoscopic display cannot be maintained and the observer feels troublesome.

そこで本発明は、前記問題点を解消し、立体表示が可能となる方向や立体表示を維持できる方向を観察者に報知し、視点位置の移動に伴う観察者の煩わしさを軽減することが可能な立体表示装置及びその表示方法を提供することを目的とするものである。   Therefore, the present invention solves the above problems, notifies the observer of the direction in which stereoscopic display is possible and the direction in which stereoscopic display can be maintained, and can reduce the troublesomeness of the observer associated with the movement of the viewpoint position. An object of the present invention is to provide a stereoscopic display device and a display method thereof.

本発明は、前記課題を解決するために、左眼用画像と右眼用画像と並べて表示する表示手段と、
前記左眼用画像と前記右眼用画像とを前記表示手段に表示させる表示制御手段と、
前記表示手段に表示された前記左眼用画像と前記右眼用画像とを分離する画像分離手段と、
観察者の視点位置を検出可能な位置検出手段と、を備える立体表示装置であって、
前記表示制御手段は、前記位置検出手段が検出した前記視点位置に基づいて前記観察者の左眼あるいは右眼のいずれかが前記左眼用画像あるいは前記右眼用画像が観察可能な観察領域の端部あるいは前記観察領域の外側に達していると判定される場合は、前記表示手段に前記左眼用画像あるいは前記右眼用画像のうち前記観察者に観察される画像として前記観察領域の中央方向を示唆する方向指示画像を表示させることを特徴とする。
In order to solve the above problems, the present invention provides a display means for displaying a left-eye image and a right-eye image side by side;
Display control means for causing the display means to display the left-eye image and the right-eye image;
Image separating means for separating the left-eye image and the right-eye image displayed on the display means;
A position detecting means capable of detecting an observer's viewpoint position, and a stereoscopic display device comprising:
The display control unit is configured to display an observation region in which either the left eye or the right eye of the observer can observe the left eye image or the right eye image based on the viewpoint position detected by the position detection unit. If it is determined that the image has reached the end or the outside of the observation area, the display means displays the center of the observation area as an image observed by the observer among the left-eye image or the right-eye image. A direction indication image suggesting a direction is displayed.

本発明は、前記課題を解決するために、左眼用画像と右眼用画像と並べて表示する表示手段と、
前記表示手段に表示された前記左眼用画像と前記右眼用画像とを分離する画像分離手段と、
観察者の視点位置を検出可能な位置検出手段と、を備える立体表示装置の表示方法であって、
前記位置検出手段が検出した前記視点位置に基づいて前記観察者の左眼あるいは右眼のいずれかが前記左眼用画像あるいは前記右眼用画像が観察可能な観察領域の端部あるいは前記観察領域の外側に達していると判定される場合は、前記表示手段に前記左眼用画像あるいは前記右眼用画像のうち前記観察者に観察される画像として前記観察領域の中央方向を示唆する方向指示画像を表示させることを特徴とする。
In order to solve the above problems, the present invention provides a display means for displaying a left-eye image and a right-eye image side by side;
Image separating means for separating the left-eye image and the right-eye image displayed on the display means;
A position detection means capable of detecting the viewpoint position of the observer, and a display method of a stereoscopic display device comprising:
Based on the viewpoint position detected by the position detecting means, either the left eye or the right eye of the observer can observe the image for the left eye or the image for the right eye, or the observation area. If it is determined that it has reached the outside of the image, a direction indication suggesting a central direction of the observation region as an image observed by the observer among the left-eye image or the right-eye image on the display means An image is displayed.

本発明は、所期の目的を達成することができ、立体表示が可能となる方向や立体表示を維持できる方向を観察者に報知し、視点位置の移動に伴う観察者の煩わしさを軽減することが可能となる。   The present invention can achieve the intended purpose, informs the observer of the direction in which stereoscopic display is possible and the direction in which stereoscopic display can be maintained, and reduces the burden on the observer associated with the movement of the viewpoint position. It becomes possible.

本発明の第一の実施形態のヘッドアップディスプレイ装置の概略図。1 is a schematic diagram of a head-up display device according to a first embodiment of the present invention. 同上における立体表示の例を説明する図。The figure explaining the example of the three-dimensional display in the same as the above. 同上の制御部の電気的構成を示すブロック図。The block diagram which shows the electric constitution of a control part same as the above. 同上における制御方法を示すフローチャート図。The flowchart figure which shows the control method in the same as the above. 同上における視点検知を説明する図。The figure explaining the viewpoint detection in the same as the above. 同上における視点位置の移動に伴う画像変更の一例を説明する図。The figure explaining an example of the image change accompanying the movement of a viewpoint position in the same as the above. 同上における視点位置の移動に伴う画像変更の一例を説明する図。The figure explaining an example of the image change accompanying the movement of a viewpoint position in the same as the above. 同上における方向指示画像の一例を示す図。The figure which shows an example of the direction instruction image in the same as the above. 本発明の第二の実施形態のヘッドアップディスプレイ装置の電気的構成を示すブロック図。The block diagram which shows the electrical constitution of the head-up display apparatus of 2nd embodiment of this invention. 同上における視点位置の移動に伴う報知動作の一例を説明する図。The figure explaining an example of alerting | reporting operation | movement accompanying the movement of a viewpoint position in the same as the above.

以下、添付図面を用いて本発明をヘッドアップディスプレイ(HUD)装置100に適用した第一の実施形態を説明する。
HUD装置100は、車両の車室内のダッシュボード内に設置されるものであり、図1に示すように、撮像部(位置検出手段)10と、制御部20と、表示手段30と、画像分離手段40と、凹面鏡50と、を備える。HUD装置100から出力された所定の画像を示す表示光Lは車両のウィンドシールド101にて反射し、運転者(観察者)102の眼に達する。運転者102は、ウィンドシールド101の前方に表示される虚像Vを視認する。
Hereinafter, a first embodiment in which the present invention is applied to a head-up display (HUD) device 100 will be described with reference to the accompanying drawings.
The HUD device 100 is installed in a dashboard in a vehicle interior of a vehicle, and as shown in FIG. 1, an imaging unit (position detection unit) 10, a control unit 20, a display unit 30, and image separation are performed. Means 40 and a concave mirror 50. The display light L indicating a predetermined image output from the HUD device 100 is reflected by the windshield 101 of the vehicle and reaches the eyes of the driver (observer) 102. The driver 102 visually recognizes the virtual image V displayed in front of the windshield 101.

撮像部10は、CCD等の周知の撮像素子とこれを制御する周辺回路やレンズからなり、運転者102の前方に設置され、運転者102の顔を撮像して撮像画像を出力するものである。   The imaging unit 10 includes a known imaging device such as a CCD and peripheral circuits and lenses that control the imaging device. The imaging unit 10 is installed in front of the driver 102 and images the face of the driver 102 and outputs a captured image. .

制御部20は、いわゆるマイクロコンピュータからなるものである。制御部20は、撮像部10や表示手段30と接続され、撮像部10から出力される運転者102の顔画像を解析して運転者102の視点位置を算出する視点位置検出処理を行い、この算出結果に基づいて表示手段30に対して制御信号を出力して画像表示制御を行う。すなわち、制御部20は、撮像部10とともに本発明の位置検出手段として機能し、また、本発明の表示制御手段として機能する。制御部20は、対象物を左眼から見た左眼用画像と対象物を右眼から見た右眼用画像とをそれぞれストライプ状の分割画像を切り出し、各分割画像を水平方向に交互に並べて左目用画像と右目用画像とが含まれる合成画像を生成し、この合成画像を表示手段30に表示させる。   The control unit 20 is a so-called microcomputer. The control unit 20 is connected to the imaging unit 10 and the display unit 30, performs a viewpoint position detection process for analyzing the face image of the driver 102 output from the imaging unit 10 and calculating the viewpoint position of the driver 102. Based on the calculation result, a control signal is output to the display means 30 to perform image display control. That is, the control unit 20 functions as the position detection unit of the present invention together with the imaging unit 10 and also functions as the display control unit of the present invention. The control unit 20 cuts out a striped divided image from the image for the left eye when the object is viewed from the left eye and the image for the right eye when the object is viewed from the right eye, and alternately converts the divided images in the horizontal direction. A composite image including the left-eye image and the right-eye image is generated side by side, and this composite image is displayed on the display means 30.

表示手段30は、例えばバックライト光源31とドットマトリクス型の液晶表示パネル32とからなるものであり、前記合成画像を表示光Lとして凹面鏡50に向けて発するものである。なお、表示手段30は、前記合成画像を表示光Lとして出射するものであればよく、有機ELパネルなどの自発光型の表示パネルを用いても良い。   The display unit 30 includes, for example, a backlight light source 31 and a dot matrix type liquid crystal display panel 32, and emits the composite image as display light L toward the concave mirror 50. The display unit 30 may be any unit that emits the composite image as display light L, and may be a self-luminous display panel such as an organic EL panel.

画像分離手段40は、例えば光を透過するストライプ状のスリット部が複数設けられた視差バリア(パララックスバリア)からなり、表示手段30の出射面側に所定の間隔を有して設けられる。表示光Lが画像分離手段40のスリット部を透過することで、前記合成画像を左目用画像と右目用画像とに分割し、左眼用画像の光と右目用画像の光とを運転者102の左右の眼に別々に入射させることができる。なお、画像分離手段40として、レンチキュラレンズを用いてもよい。   The image separating means 40 is composed of, for example, a parallax barrier (parallax barrier) provided with a plurality of stripe-shaped slit portions that transmit light, and is provided on the emission surface side of the display means 30 with a predetermined interval. The display light L passes through the slit portion of the image separation means 40, so that the composite image is divided into a left-eye image and a right-eye image, and the left-eye image light and the right-eye image light are divided by the driver 102. Can be incident separately on the left and right eyes. A lenticular lens may be used as the image separation means 40.

凹面鏡50は、表示光Lが運転者102の左右の眼に対して結像するように、表示光Lをウィンドシールド101に照射するものである。凹面鏡50は、図示していない回転軸を備えている。この回転軸は、図1の図面に対して垂直方向であり、この回転軸を中心として、凹面鏡50のウィンドシールド101に対する角度を変えることが可能である。また、凹面鏡50には、凹面鏡50の角度を変えるために、駆動手段としてモータ(図示しない)を備えており、このモータによって、凹面鏡50のウィンドシールド101に対する角度を変更し、また、その角度を維持することができる。以上により、表示光Lを運転者102の目線に合わせることが可能となる。   The concave mirror 50 irradiates the windshield 101 with the display light L so that the display light L is focused on the left and right eyes of the driver 102. The concave mirror 50 includes a rotating shaft (not shown). The rotation axis is perpendicular to the drawing of FIG. 1, and the angle of the concave mirror 50 relative to the windshield 101 can be changed around the rotation axis. In addition, the concave mirror 50 is provided with a motor (not shown) as a driving means in order to change the angle of the concave mirror 50. By this motor, the angle of the concave mirror 50 with respect to the windshield 101 is changed, and the angle is changed. Can be maintained. As described above, the display light L can be adjusted to the driver's 102 line of sight.

運転者102は、表示光Lのうち、左眼用画像の光が左眼に入射し、右眼用画像が右眼に入射すると、両画像の視差によって虚像Vを立体像として認識することができる。図2は、表示手段30に左眼用画像と右眼用画像とをそれぞれ2個(合計4個)含む前記合成画像を表示して立体表示を行う状態を示すものである。図2におけるE1〜E4は画像を観察可能な観察領域Eにおける各領域(ローブ)を示している。表示手段30に、左眼用画像60Lの分割画像と右眼用画像60Rの分割画像とを2個ずつ交互に配置した合成画像を表示すると(図2において左眼用画像60Lの分割画像の表示位置を「L」、右眼用画像60Rの分割画像の表示位置を「R」と表記している)、運転者102は前記合成画像を画像分離手段40のスリット部41を介して観察することにより、左眼と右眼とで異なる画像を観察する。図2においては、観察領域Eのうち、領域E1、E2で右眼用画像60Rを観察でき、領域E3、E4で左眼用画像60Lを観察できる。したがって、運転者102の右眼が領域E1からE2までの間に位置し、左眼が領域E3からE4までの間に位置すると、立体表示が可能となる。また、画像を分割して立体表示を行う視差バリア方式あるいはレンチキュラ方式においては、表示手段30からの光の広がりによって、観察領域Eにおいて領域E1〜E4が繰り返し存在することとなる。本実施形態において、観察領域Eのうち、中央に位置する領域E1〜E4が設計上の画像(虚像V)の観察位置であるメインローブとなり、メインローブの外側に位置する領域E1〜E4がサイドローブとなる。
なお、図2においては、図を簡略にするべく凹面鏡50及びウィンドシールド101は省略した。
The driver 102 recognizes the virtual image V as a three-dimensional image by the parallax between the two images when the light of the left-eye image is incident on the left eye and the right-eye image is incident on the right eye of the display light L. it can. FIG. 2 shows a state in which the composite image including two images for the left eye and two for the right eye (four in total) is displayed on the display unit 30 to perform stereoscopic display. E1 to E4 in FIG. 2 indicate each region (lobe) in the observation region E where the image can be observed. When a composite image in which two divided images of the left-eye image 60L and two divided images of the right-eye image 60R are alternately arranged is displayed on the display means 30 (display of the divided image of the left-eye image 60L in FIG. 2). The position is “L” and the display position of the divided image of the right-eye image 60R is “R”), and the driver 102 observes the composite image through the slit portion 41 of the image separation means 40. Thus, different images are observed for the left eye and the right eye. In FIG. 2, the right-eye image 60R can be observed in the areas E1 and E2 of the observation area E, and the left-eye image 60L can be observed in the areas E3 and E4. Therefore, when the right eye of the driver 102 is positioned between the areas E1 and E2 and the left eye is positioned between the areas E3 and E4, stereoscopic display is possible. Further, in the parallax barrier method or the lenticular method in which an image is divided and stereoscopic display is performed, the areas E1 to E4 exist repeatedly in the observation area E due to the spread of light from the display means 30. In the present embodiment, among the observation areas E, the areas E1 to E4 located in the center are main lobes that are the observation positions of the designed image (virtual image V), and the areas E1 to E4 located outside the main lobes are the side lobes. Become a robe.
In FIG. 2, the concave mirror 50 and the windshield 101 are omitted to simplify the drawing.

図3は、制御部20の電気的構成を示すものである。制御部20は、図3に示すように、CPU21、ROM22、汎用メモリ23、ビデオメモリ24及び外部デバイスI/F25を有してなる。   FIG. 3 shows the electrical configuration of the control unit 20. As illustrated in FIG. 3, the control unit 20 includes a CPU 21, a ROM 22, a general-purpose memory 23, a video memory 24, and an external device I / F 25.

CPU21は、ROM22内に予め記憶された所定のプログラムを読み出し、実行して撮像部10からの撮像画像、これを画像処理した処理画像及び視点位置などの演算結果等を汎用メモリ23に一時的に記憶させ、また、表示手段30で表示させる前記合成画像をビデオメモリ24に記憶させる。   The CPU 21 reads out and executes a predetermined program stored in advance in the ROM 22, temporarily stores the captured image from the imaging unit 10, a processed image obtained by performing image processing on the image, a calculation result such as a viewpoint position, and the like in the general-purpose memory 23. The synthesized image to be stored and displayed on the display means 30 is stored in the video memory 24.

ROM22は、CPU21が動作するプログラムが記憶されるものである。   The ROM 22 stores a program for operating the CPU 21.

汎用メモリ23は、撮像部10からの撮像画像、これを画像処理した処理画像及び視点位置などの演算結果等を一時的に記憶するものである。   The general-purpose memory 23 temporarily stores a captured image from the imaging unit 10, a processed image obtained by performing image processing on the captured image, a calculation result such as a viewpoint position, and the like.

ビデオメモリ24は、表示手段30で表示させる前記合成画像を記憶するものである。   The video memory 24 stores the composite image to be displayed on the display means 30.

外部デバイスI/F25は、制御部20を撮像部10、表示手段30及び車両を制御するコンピュータからなる車両制御システム部103と電気的に接続するものである。外部デバイスI/F25は、撮像部10から撮像画像を取得し、表示手段30に制御信号を出力し、また、車両制御システム部103から車速などの車両情報を取得する。CPU21は、取得した車両情報に基づいて表示手段30に車両情報を表示させることができる。   The external device I / F 25 electrically connects the control unit 20 to a vehicle control system unit 103 including a computer that controls the imaging unit 10, the display unit 30, and the vehicle. The external device I / F 25 acquires a captured image from the imaging unit 10, outputs a control signal to the display unit 30, and acquires vehicle information such as a vehicle speed from the vehicle control system unit 103. CPU21 can display vehicle information on the display means 30 based on the acquired vehicle information.

次に、図4を用いて制御部20における視点検出処理及び画像表示制御について説明する。
まず、CPU21は、ステップS1において、撮像部10から出力される運転者102の顔を撮像した撮像画像から、運転者102の左眼及び右眼を検知する。具体的には、図5に示すように、運転者102の顔を含む撮像画像Pに対して、例えば周知の画像処理技術であるテンプレートマッチングを行い、所定のテンプレートTを撮像画像P上で移動させ、テンプレートTとマッチングする個所を撮像画像P上の運転者102の左眼と右眼として検知する。
Next, viewpoint detection processing and image display control in the control unit 20 will be described with reference to FIG.
First, in step S <b> 1, the CPU 21 detects the left eye and the right eye of the driver 102 from the captured image obtained by capturing the face of the driver 102 output from the imaging unit 10. Specifically, as shown in FIG. 5, for example, template matching which is a well-known image processing technique is performed on the captured image P including the face of the driver 102, and a predetermined template T is moved on the captured image P. Then, the location that matches the template T is detected as the left eye and the right eye of the driver 102 on the captured image P.

次に、CPU21は、ステップS2において、ステップS1で検知した撮像画像P上の運転者102の左眼と右眼の位置に基づいて運転者102の空間上の左眼視点位置と右眼視点位置とを算出する。この左眼視点位置及び右眼視点位置の位置情報は2次元情報であっても3次元情報であってもよい。なお、撮像部10は、運転者102の左眼あるいは右眼が観察領域Eのメインローブ外、すなわちサイドローブ内にある場合及び観察領域Eの外側であっても、運転者102の顔を撮像することができ、CPU21は運転者102の左眼視点位置及び右眼視点位置を算出可能であるものとする。   Next, in step S2, the CPU 21 determines the left eye viewpoint position and the right eye viewpoint position in the space of the driver 102 based on the positions of the left eye and the right eye of the driver 102 on the captured image P detected in step S1. And calculate. The position information of the left eye viewpoint position and the right eye viewpoint position may be two-dimensional information or three-dimensional information. Note that the imaging unit 10 captures the face of the driver 102 even when the left eye or the right eye of the driver 102 is outside the main lobe of the observation area E, that is, inside the side lobe and outside the observation area E. It is assumed that the CPU 21 can calculate the left eye viewpoint position and the right eye viewpoint position of the driver 102.

次に、CPU21は、ステップS3において、ステップS2で算出した運転者102の左眼視点位置及び右眼視点位置に対応するように、表示手段30における左眼用画像60Lの表示位置と右眼用画像60Rの表示位置とを規定する。具体的には、左眼用画像60Lの分割画像と右眼用画像60Rの分割画像の表示位置を算出し、左眼用画像60Lの分割画像と右眼用画像60Rの分割画像を所定の順序で配置した前記合成画像を生成する。また、このとき、CPU21は、表示手段30における左眼用画像60Lと右眼用画像60Rとの運転者102の左眼視点位置及び右眼視点位置に基づいた表示輝度を算出する。また、このとき、CPU21は、運転者102の左眼視点位置及び右眼視点位置に基づいて、運転者102の左眼あるいは右眼が、観察領域Eの外側あるいは端部に達したと判定される場合に、運転者102が観察可能な左眼用画像60Lあるいは右眼用画像60Rを、後述する観察領域Eの中央方向を示唆する方向指示画像を含む画像とする。   Next, in step S3, the CPU 21 displays the display position of the left-eye image 60L on the display means 30 and the right-eye viewpoint so as to correspond to the left-eye viewpoint position and right-eye viewpoint position of the driver 102 calculated in step S2. The display position of the image 60R is defined. Specifically, the display positions of the divided images of the left-eye image 60L and the right-eye image 60R are calculated, and the divided images of the left-eye image 60L and the right-eye image 60R are arranged in a predetermined order. The composite image arranged in (1) is generated. Further, at this time, the CPU 21 calculates the display luminance based on the left eye viewpoint position and the right eye viewpoint position of the driver 102 in the left eye image 60L and the right eye image 60R on the display means 30. At this time, the CPU 21 determines that the left eye or the right eye of the driver 102 has reached the outside or the end of the observation area E based on the left eye viewpoint position and the right eye viewpoint position of the driver 102. In this case, the left-eye image 60L or the right-eye image 60R that can be observed by the driver 102 is an image including a direction indication image that suggests the center direction of the observation region E described later.

次に、CPU21は、ステップS4において、表示手段30に前記合成画像を表示させ、ステップS3において算出された表示位置に同ステップで算出された表示輝度で左眼用画像60Lと右眼用画像60Rとを表示させる。   Next, in step S4, the CPU 21 causes the display unit 30 to display the composite image, and displays the left-eye image 60L and the right-eye image 60R with the display brightness calculated in the same step at the display position calculated in step S3. Is displayed.

CPU21は、電源がオフされるまでステップS1〜S4を無限ループで実行する。   The CPU 21 executes steps S1 to S4 in an infinite loop until the power is turned off.

次に、図6を用いて運転者102の視点位置の移動に伴う左眼用画像60L及び右眼用画像60Rの表示位置の変更及び表示輝度の変更の一例を説明する。   Next, an example of changing the display position and the display brightness of the left-eye image 60L and the right-eye image 60R accompanying the movement of the viewpoint position of the driver 102 will be described with reference to FIG.

図6(a)は、運転者102の視点の中心(左眼と右眼の間の中心)が、観察領域Eの中心(メインローブにおける領域E2、E3の境界上)に位置する場合を示している。このとき、運転者102の右眼はメインローブにおける領域E1、E2の境界上に位置し、左眼は領域E3、E4の境界上に位置している。したがって、右眼用画像60Rが領域E1、E2で観察され、左眼用画像60Lが領域E3、E4で観察されるように、左眼用画像60Lと右眼用画像60Rの表示手段30上における表示位置が定められる。また、運転者102の左眼及び右眼はいずれもメインローブ内に位置するため、左眼用画像60Lと右眼用画像60Rの表示手段30上における表示輝度は同等に保たれる。   FIG. 6A shows a case where the center of the viewpoint of the driver 102 (the center between the left eye and the right eye) is located at the center of the observation region E (on the boundary between the regions E2 and E3 in the main lobe). ing. At this time, the right eye of the driver 102 is located on the boundary between the areas E1 and E2 in the main lobe, and the left eye is located on the boundary between the areas E3 and E4. Therefore, the left eye image 60L and the right eye image 60R are displayed on the display unit 30 so that the right eye image 60R is observed in the regions E1 and E2 and the left eye image 60L is observed in the regions E3 and E4. A display position is determined. Further, since both the left eye and the right eye of the driver 102 are located in the main lobe, the display brightness of the left eye image 60L and the right eye image 60R on the display means 30 is kept equal.

図6(b)は、図6(a)から運転者102の視点が運転者102から見て右方向(図6における左方向)に移動し、運転者102の視点の中心が、メインローブにおける領域E2の中央付近に位置する場合を示している。このとき、運転者102の右眼はメインローブにおける領域E1に位置し、左眼は領域E3に位置している。したがって、図6(a)から左眼用画像60Lと右眼用画像60Rの表示位置及び表示輝度に変更はない。   6B, the viewpoint of the driver 102 moves to the right (left direction in FIG. 6) as viewed from the driver 102 from FIG. 6A, and the center of the viewpoint of the driver 102 is in the main lobe. The case where it locates near the center of the area | region E2 is shown. At this time, the right eye of the driver 102 is located in the area E1 in the main lobe, and the left eye is located in the area E3. Therefore, the display position and display brightness of the left-eye image 60L and the right-eye image 60R are not changed from FIG.

図6(c)は、図6(b)からさらに運転者102の視点が運転者102から見て右方向に移動し、運転者102の視点の中心が、メインローブにおける領域E1、E2の境界上に位置する場合を示している。このとき、運転者102の右眼はメインローブにおける領域E1とサイドローブにおける領域E4との境界上に位置し、左眼はメインローブにおける領域E2、E3の境界上に位置する。したがって、前述したように算出される運転者102の視点位置に基づいて、右眼用画像60Rが領域E1、E4で観察され、左眼用画像60Lが領域E2、E3で観察されるように、左眼用画像60Lと右眼用画像60Rとの表示手段30上における表示位置が定められる。具体的には、図6(b)の場合から領域E2と領域E4とで観察される画像が切り替えられるように、表示手段30上における領域E2に対応する位置に表示される画像が右眼用画像60Rの分割画像から左眼用画像60Lの分割画像に変更され、また、表示手段30上における領域E4に対応する位置に表示される画像が左眼用画像60Lの分割画像から右眼用画像60Rの分割画像に変更される。そして、この場合、運転者102の右眼がサイドローブに達していると判定されるため、領域E4で運転者102に観察される画像、すなわち領域E4に対応する位置に表示される右眼用画像60Rの表示手段30における表示輝度をメインローブで観察される場合の表示輝度よりも高くする。これは、メインローブとサイドローブとで運転者102に観察される画像に輝度差が生じ、立体表示ができない場合がある(輝度が高いメインローブの画像のみが認識される)という問題を解決するためである。なお、表示輝度の変更は液晶表示パネル32における透過率を部分的に変更することで行うことができる。これにより、運転者102の視点が水平方向に移動する場合であっても運転者102は左眼及び右眼でそれぞれ左眼用画像60L及び右眼用画像60Rを観察することができ立体表示を保つことができる。また、運転者102の視点位置がメインローブとサイドローブとに位置する場合であっても観察される左眼用画像60Lと右眼用画像60Rとの輝度差を低減して立体表示を保つことができる。なお、サイドローブで観察される場合の表示輝度をどの程度高くするかは、メインローブにおける輝度とサイドローブにおける輝度とを予め測定し、視点位置と輝度調整値とを対応させたデータテーブルを用いて表示輝度を変更してもよいし、撮像部10から取得した撮像画像を用いて運転者102に反射する表示光Lの明るさを判定し、適宜表示輝度を調整してもよい。   In FIG. 6C, the viewpoint of the driver 102 further moves to the right when viewed from the driver 102 from FIG. 6B, and the center of the viewpoint of the driver 102 is the boundary between the regions E1 and E2 in the main lobe. The case located above is shown. At this time, the right eye of the driver 102 is located on the boundary between the region E1 in the main lobe and the region E4 in the side lobe, and the left eye is located on the boundary between the regions E2 and E3 in the main lobe. Therefore, based on the viewpoint position of the driver 102 calculated as described above, the right-eye image 60R is observed in the regions E1 and E4, and the left-eye image 60L is observed in the regions E2 and E3. Display positions on the display means 30 for the left-eye image 60L and the right-eye image 60R are determined. Specifically, the image displayed at the position corresponding to the region E2 on the display unit 30 is for the right eye so that the images observed in the region E2 and the region E4 can be switched from the case of FIG. The divided image of the image 60R is changed to the divided image of the left-eye image 60L, and the image displayed at a position corresponding to the region E4 on the display unit 30 is changed from the divided image of the left-eye image 60L to the right-eye image. It is changed to a 60R divided image. In this case, since it is determined that the right eye of the driver 102 has reached the side lobe, the image observed by the driver 102 in the region E4, that is, the right eye displayed at a position corresponding to the region E4. The display brightness of the image 60R on the display means 30 is set higher than the display brightness when observed in the main lobe. This solves the problem that a luminance difference occurs in the image observed by the driver 102 between the main lobe and the side lobe and stereoscopic display cannot be performed (only the image of the main lobe with high luminance is recognized). Because. Note that the display brightness can be changed by partially changing the transmittance of the liquid crystal display panel 32. Thus, even when the viewpoint of the driver 102 moves in the horizontal direction, the driver 102 can observe the left-eye image 60L and the right-eye image 60R with the left eye and the right eye, respectively, and can display a three-dimensional display. Can keep. In addition, even when the viewpoint position of the driver 102 is located at the main lobe and the side lobe, the luminance difference between the observed left-eye image 60L and the right-eye image 60R is reduced, and stereoscopic display is maintained. Can do. It should be noted that the level of display brightness when observed with side lobes is determined by using a data table in which the brightness in the main lobe and the brightness in the side lobe are measured in advance and the viewpoint position and brightness adjustment value are associated with each other. The display brightness may be changed, or the brightness of the display light L reflected to the driver 102 may be determined using the captured image acquired from the imaging unit 10, and the display brightness may be adjusted as appropriate.

図6(d)は、図6(c)からさらに運転者102の視点が運転者102から見て右方向に移動し、運転者102の視点の中心が、メインローブにおける領域E1の中央付近に位置する場合を示している。このとき、運転者102の右眼はサイドローブにおける領域E4に位置し、左眼はメインローブにおける領域E2に位置する。したがって、左眼用画像60Lと右眼用画像60Rとの表示手段30上における表示位置は図6(c)から変更されない。また、この場合、運転者102の右眼はサイドローブに達していると判定され、かつ、運転者102はサイドローブにおける領域E4のみで右眼用画像60Rを観察するため、運転者102の右眼で観察される右眼用画像60Rの輝度は図6(c)よりも低くなると考えられる。したがって、領域E4に対応する位置に表示される右眼用画像60Rの表示手段30における表示輝度を図6(c)における表示輝度よりもさらに高くする。   In FIG. 6D, the viewpoint of the driver 102 further moves to the right when viewed from the driver 102 from FIG. 6C, and the center of the viewpoint of the driver 102 is near the center of the region E1 in the main lobe. The case where it is located is shown. At this time, the right eye of the driver 102 is located in the region E4 in the side lobe, and the left eye is located in the region E2 in the main lobe. Accordingly, the display positions of the left eye image 60L and the right eye image 60R on the display means 30 are not changed from FIG. In this case, it is determined that the right eye of the driver 102 has reached the side lobe, and the driver 102 observes the right eye image 60R only in the region E4 in the side lobe. It is considered that the luminance of the right-eye image 60R observed with the eyes is lower than that in FIG. Accordingly, the display brightness of the right eye image 60R displayed at the position corresponding to the region E4 on the display means 30 is made higher than the display brightness in FIG.

次に、図7を用いて、運転者102の視点位置がさらに移動し、観察領域Eの端部あるいは観察領域Eの外側に達した場合の表示方法の一例を説明する。   Next, an example of a display method when the viewpoint position of the driver 102 further moves and reaches the end of the observation area E or the outside of the observation area E will be described with reference to FIG.

図7(a)は、図6(d)から運転者の視点が運転者102から見てさらに右方向(図7における左方向)に移動し、運転者102の視点の中心が、メインローブにおける領域E1の中央付近に位置する場合を示している。このとき、運転者102の右眼は、サイドローブにおける領域E3に位置し、左眼はメインローブにおける領域E1に位置する。したがって、前述したように算出される運転者102の視点位置に基づいて、右眼用画像60Rが領域E3、E4で観察され、左眼用画像60Lが領域E1、E2で観察されるように、左眼用画像60Lと右眼用画像60Rとの表示手段30上における表示位置が定められる。具体的には、図6(d)の場合から領域E1と領域E3とで観察される画像が切り替えられるように、表示手段30上における領域E1に対応する位置に表示される画像が右眼用画像60Rの分割画像から左眼用画像60Lの分割画像に変更され、また、表示手段30上における領域E3に対応する位置に表示される画像が左眼用画像60Lの分割画像から右眼用画像60Rの分割画像に変更される。そして、この場合、運転者102の右眼がサイドローブに達していると判定されるため、領域E3で運転者102に観察される画像、すなわち領域E3に対応する位置に表示される右眼用画像60Rの表示手段30における表示輝度をメインローブで観察される場合の表示輝度よりも高くする。
また、このとき、運転者102の右眼は、観察領域Eとその外側との境界から中央方向(メインローブに水平方向に向かう方向)に所定距離内に設定される端部領域E21、E31のうちの端部領域E31に位置する。この場合、CPU21は、運転者102の右眼が観察領域Eの端部に達したと判定し、運転者102が観察可能な右眼用画像60R及び左眼用画像60Lとして、観察領域Eの中央方向を示唆する方向指示画像を表示手段30に表示させる。図8は、方向指示画像の一例を示すものである。図8(a)に示す方向指示画像60W1及び図8(b)に示す方向指示画像60W2は、観察領域Eの中央方向を示す矢印画像である。図8(c)に示す方向指示画像60W3は、観察領域Eの中央方向を示す三角形画像である。図8(d)に示す方向指示画像60W4は、観察領域Eの中央方向を複数のドット(点)の位置関係によって示す画像である(図中ではドットが集中している方向が観察領域Eの中央方向を示す)。なお、方向指示画像60W4においては、各ドットを周期的に点滅させて観察領域Eの中央方向を示唆してもよい。方向指示画像が表示されることによって、運転者102は、自らの視点位置が観察領域Eの端部にあり、これ以上視点位置を移動させると立体表示ができなくなることを瞬時に把握することができる。また、方向指示画像が観察領域Eの中央方向を示唆する画像であるため、運転者102は方向指示画像が表示されない通常の表示に復帰するために視点を移動するべき方向を瞬時に判断することができる。
7A, the driver's viewpoint moves further to the right (left direction in FIG. 7) when viewed from the driver 102 from FIG. 6D, and the center of the viewpoint of the driver 102 is in the main lobe. The case where it locates near the center of the area | region E1 is shown. At this time, the right eye of the driver 102 is located in the region E3 in the side lobe, and the left eye is located in the region E1 in the main lobe. Therefore, based on the viewpoint position of the driver 102 calculated as described above, the right eye image 60R is observed in the regions E3 and E4, and the left eye image 60L is observed in the regions E1 and E2. Display positions on the display means 30 for the left-eye image 60L and the right-eye image 60R are determined. Specifically, the image displayed at the position corresponding to the region E1 on the display unit 30 is for the right eye so that the image observed in the region E1 and the region E3 can be switched from the case of FIG. The divided image of the image 60R is changed to the divided image of the left-eye image 60L, and the image displayed at a position corresponding to the region E3 on the display unit 30 is changed from the divided image of the left-eye image 60L to the right-eye image. It is changed to a 60R divided image. In this case, since it is determined that the right eye of the driver 102 has reached the side lobe, the image observed by the driver 102 in the region E3, that is, the right eye displayed at a position corresponding to the region E3. The display brightness of the image 60R on the display means 30 is set higher than the display brightness when observed in the main lobe.
Further, at this time, the right eye of the driver 102 has the end regions E21 and E31 set within a predetermined distance from the boundary between the observation region E and the outside thereof in the central direction (the direction toward the main lobe in the horizontal direction). It is located in the end region E31. In this case, the CPU 21 determines that the right eye of the driver 102 has reached the end of the observation region E, and the right eye image 60R and the left eye image 60L that can be observed by the driver 102 are displayed in the observation region E. A direction indication image suggesting the center direction is displayed on the display means 30. FIG. 8 shows an example of a direction indication image. The direction indication image 60W1 shown in FIG. 8A and the direction indication image 60W2 shown in FIG. 8B are arrow images indicating the central direction of the observation region E. A direction indicating image 60W3 shown in FIG. 8C is a triangular image showing the central direction of the observation region E. A direction indication image 60W4 shown in FIG. 8D is an image showing the central direction of the observation area E by the positional relationship of a plurality of dots (points) (in the figure, the direction in which the dots are concentrated is the observation area E). Shows the center direction). In the direction indicating image 60W4, each dot may be blinked periodically to suggest the central direction of the observation area E. By displaying the direction indication image, the driver 102 can instantly grasp that his / her viewpoint position is at the end of the observation area E and that the stereoscopic display cannot be performed if the viewpoint position is further moved. it can. Further, since the direction indication image is an image suggesting the central direction of the observation area E, the driver 102 instantaneously determines the direction in which the viewpoint should be moved in order to return to the normal display in which the direction indication image is not displayed. Can do.

図7(b)は、図7(a)から運転者の視点が運転者102から見てさらに右方向(図7における左方向)に移動し、運転者102の視点の中心が、サイドローブにおける領域E4に位置する場合を示している。このとき、運転者102の右眼は、観察領域Eの外側に位置し、左眼はサイドローブにおける領域E4に位置する。この場合は左眼視点位置に基づいて、右眼用画像60Rが領域E2、E3で観察され、左眼用画像60Lが領域E1、E4で観察されるように、左眼用画像60Lと右眼用画像60Rとの表示手段30上における表示位置が定められる。具体的には、図7(a)の場合から領域E2と領域E4とで観察される画像が切り替えられるように、表示手段30上における領域E2に対応する位置に表示される画像が左眼用画像60Lの分割画像から右眼用画像60Rの分割画像に変更され、また、表示手段30上における領域E4に対応する位置に表示される画像が右眼用画像60Rの分割画像から左眼用画像60Lの分割画像に変更される。そして、この場合、運転者102の左眼がサイドローブに達していると判定されるため、領域E4で運転者102に観察される画像、すなわち領域E4に対応する位置に表示される左眼用画像60Lの表示手段30における表示輝度をメインローブで観察される場合の表示輝度よりも高くする。ただし、運転者102には右眼用画像60Rは観察されず、左眼用画像60Lのみが観察され平面表示となる。
また、このとき、運転者102の右眼は、観察領域Eの外側に位置する。この場合、CPU21は、運転者102の右眼が観察領域Eの外側に達したと判定し、運転者102が観察可能な左眼用画像60Lとして、観察領域Eの中央方向を示唆する方向指示画像を表示手段30に表示させる。方向指示画像については図7(a)の場合と同様に例えば図8に示すものが表示される。方向指示画像が表示されることによって、運転者102は、自らの視点位置が観察領域Eの外側にあるために立体表示ができなくなったことを瞬時に把握することができる。また、方向指示画像が観察領域Eの中央方向を示唆する画像であるため、運転者102は立体表示が可能な視点位置に復帰するために視点を移動するべき方向を瞬時に判断することができる。
7B, the driver's viewpoint moves further to the right (left direction in FIG. 7) when viewed from the driver 102 from FIG. 7A, and the center of the viewpoint of the driver 102 is in the side lobe. The case where it locates in the area | region E4 is shown. At this time, the right eye of the driver 102 is located outside the observation region E, and the left eye is located in the region E4 in the side lobe. In this case, based on the left eye viewpoint position, the left eye image 60L and the right eye are observed so that the right eye image 60R is observed in the regions E2 and E3 and the left eye image 60L is observed in the regions E1 and E4. The display position on the display means 30 with the image for use 60R is determined. Specifically, the image displayed at the position corresponding to the region E2 on the display means 30 is for the left eye so that the image observed in the region E2 and the region E4 can be switched from the case of FIG. The divided image of the image 60L is changed to the divided image of the right-eye image 60R, and the image displayed at a position corresponding to the region E4 on the display unit 30 is changed from the divided image of the right-eye image 60R to the left-eye image. It is changed to a 60L divided image. In this case, since it is determined that the left eye of the driver 102 has reached the side lobe, the image observed by the driver 102 in the region E4, that is, the left eye displayed at a position corresponding to the region E4. The display brightness of the image 60L on the display means 30 is set higher than the display brightness when observed in the main lobe. However, the right-eye image 60R is not observed by the driver 102, and only the left-eye image 60L is observed and is displayed as a flat display.
At this time, the right eye of the driver 102 is located outside the observation region E. In this case, the CPU 21 determines that the right eye of the driver 102 has reached the outside of the observation area E, and designates the direction indicating the center direction of the observation area E as the left-eye image 60L that can be observed by the driver 102. The image is displayed on the display means 30. For example, the direction indication image shown in FIG. 8 is displayed as in the case of FIG. By displaying the direction indication image, the driver 102 can instantly recognize that the stereoscopic display cannot be performed because his / her viewpoint position is outside the observation area E. In addition, since the direction indication image is an image suggesting the center direction of the observation area E, the driver 102 can instantaneously determine the direction in which the viewpoint should be moved in order to return to the viewpoint position where stereoscopic display is possible. .

本実施形態におけるHUD装置100は、左眼用画像60Lと右眼用画像60Rと並べて表示する表示手段30と、左眼用画像60Lと右眼用画像60Rとを表示手段30に表示させる表示制御手段(制御部20)と、表示手段30に表示された左眼用画像60Lと右眼用画像60Rとを分離する画像分離手段40と、運転者102の視点位置を検出可能な位置検出手段(撮像部10及び制御部20)と、を備え、
前記表示制御手段は、前記位置検出手段が検出した前記視点位置に基づいて運転者102の左眼あるいは右眼のいずれかが左眼用画像60Lあるいは右眼用画像60Rが観察可能な観察領域Eの端部あるいは観察領域Eの外側に達していると判定される場合は、表示手段30に左眼用画像60Lあるいは右眼用画像60Rのうち運転者102に観察される画像として観察領域Eの中央方向を示唆する方向指示画像60W1〜60W4を表示させることを特徴とする。
The HUD device 100 according to the present embodiment has a display unit 30 that displays the left-eye image 60L and the right-eye image 60R side by side, and a display control that causes the display unit 30 to display the left-eye image 60L and the right-eye image 60R. Means (control unit 20), image separation means 40 for separating the image for left eye 60L and the image for right eye 60R displayed on the display means 30, and position detection means for detecting the viewpoint position of the driver 102 ( An imaging unit 10 and a control unit 20),
The display control means is an observation region E in which either the left eye or the right eye of the driver 102 can observe the left-eye image 60L or the right-eye image 60R based on the viewpoint position detected by the position detection means. Of the observation area E as an image observed by the driver 102 out of the left-eye image 60L or the right-eye image 60R on the display means 30. Direction indication images 60W1 to 60W4 suggesting the center direction are displayed.

また、HUD装置100の表示方法は、前記位置検出手段が検出した前記視点位置に基づいて運転者102の左眼あるいは右眼のいずれかが左眼用画像60Lあるいは右眼用画像60Rが観察可能な観察領域Eの端部あるいは観察領域Eの外側に達していると判定される場合は、表示手段30に左眼用画像60Lあるいは右眼用画像60Rのうち運転者102に観察される画像として観察領域Eの中央方向を示唆する方向指示画像60W1〜60W4を表示させることを特徴とする。   The display method of the HUD device 100 is such that either the left eye or the right eye of the driver 102 can observe the left-eye image 60L or the right-eye image 60R based on the viewpoint position detected by the position detection unit. If it is determined that the image has reached the end of the observation area E or the outside of the observation area E, the image displayed on the display means 30 is the image observed by the driver 102 among the left-eye image 60L or the right-eye image 60R. Direction indication images 60W1 to 60W4 suggesting the central direction of the observation area E are displayed.

これによれば、方向指示画像60W1〜60W4によって運転者102は立体表示を維持するための方向あるいは立体表示が可能となる方向を瞬時に把握することができ、視点位置の移動に伴う運転者102の煩わしさを軽減することが可能となる。   According to this, the driver 102 can instantly grasp the direction for maintaining the three-dimensional display or the direction in which the three-dimensional display is possible by using the direction instruction images 60W1 to 60W4, and the driver 102 accompanying the movement of the viewpoint position. Can be alleviated.

本実施形態におけるHUD装置100において、前記表示制御手段は、前記位置検出手段が検出した前記視点位置に基づいて左眼用画像60Lと右眼用画像60Rとがそれぞれ運転者102の左眼と右眼とで観察されるように表示手段30における左眼用画像60Lの表示位置と右眼用画像60Rの表示位置とを変更する。   In the HUD device 100 according to the present embodiment, the display control unit generates a left-eye image 60L and a right-eye image 60R based on the viewpoint position detected by the position detection unit, respectively. The display position of the left-eye image 60L and the display position of the right-eye image 60R on the display means 30 are changed so as to be observed with the eyes.

また、HUD装置100の表示方法は、前記位置検出手段が検出した前記視点位置に基づいて左眼用画像60Lと右眼用画像60Rとがそれぞれ運転者102の左眼と右眼とで観察されるように表示手段30における左眼用画像60Lの表示位置と右眼用画像60Rの表示位置とを変更する。   Further, according to the display method of the HUD device 100, the left eye image 60L and the right eye image 60R are observed by the left eye and the right eye of the driver 102 based on the viewpoint position detected by the position detection unit, respectively. Thus, the display position of the left eye image 60L and the display position of the right eye image 60R on the display means 30 are changed.

これによれば、運転者102の視点が水平方向に移動する場合であっても運転者102は左眼及び右眼でそれぞれ左眼用画像60L及び右眼用画像60Rを観察することができ立体表示を保つことができる。   According to this, even when the viewpoint of the driver 102 moves in the horizontal direction, the driver 102 can observe the left-eye image 60L and the right-eye image 60R with the left eye and the right eye, respectively. The display can be kept.

本実施形態におけるHUD装置100において、前記表示制御手段は、前記位置検出手段が検出した前記視点位置に基づいて運転者102の左眼あるいは右眼のいずれかが左眼用画像60Lあるいは右眼用画像60Rが観察可能な観察領域Eのうち所定の主領域(メインローブ)の外側に位置する側方領域(サイドローブ)に達していると判定される場合は、左眼用画像60Lあるいは右眼用画像60Rのうち前記側方領域で運転者102に視認される画像の表示手段30における表示輝度を前記主領域で観察される場合の表示輝度よりも高くする。   In the HUD device 100 according to the present embodiment, the display control means is configured such that either the left eye or the right eye of the driver 102 is the left eye image 60L or the right eye based on the viewpoint position detected by the position detection means. When it is determined that the image 60R has reached a lateral region (side lobe) located outside a predetermined main region (main lobe) in the observable observation region E, the left eye image 60L or the right eye The display brightness in the display means 30 of the image visually recognized by the driver 102 in the side area of the image 60R is set higher than the display brightness in the case of being observed in the main area.

また、HUD装置100の表示方法は、前記位置検出手段が検出した前記視点位置に基づいて運転者102の左眼あるいは右眼のいずれかが左眼用画像60Lあるいは右眼用画像60Rが観察可能な観察領域Eのうち所定の主領域(メインローブ)の外側に位置する側方領域(サイドローブ)に達していると判定される場合は、左眼用画像60Lあるいは右眼用画像60Rのうち前記側方領域で運転者102に視認される画像の表示手段30における表示輝度を前記主領域で観察される場合の表示輝度よりも高くする。   The display method of the HUD device 100 is such that either the left eye or the right eye of the driver 102 can observe the left-eye image 60L or the right-eye image 60R based on the viewpoint position detected by the position detection unit. Of the left eye image 60L or the right eye image 60R when it is determined that the side area (side lobe) located outside the predetermined main area (main lobe) is reached in the observation area E. The display brightness in the display means 30 of the image visually recognized by the driver 102 in the side area is set higher than the display brightness in the case of being observed in the main area.

これによれば、メインローブとサイドローブとで視差画像(左眼用画像60Lあるいは右眼用画像60R)が観察される場合であっても立体表示を可能とし、運転者102の不快感を軽減することが可能となる。   According to this, even when a parallax image (the left-eye image 60L or the right-eye image 60R) is observed between the main lobe and the side lobe, stereoscopic display is possible, and the driver 102 is less uncomfortable. It becomes possible to do.

次に、本発明の第二の実施形態について説明する。なお、前述の第一の実施形態と同一または相当箇所には同一符号を付してその詳細を省略する。   Next, a second embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected to the same or equivalent part as above-mentioned 1st embodiment, and the detail is abbreviate | omitted.

図9は、本発明の第二の実施形態であるHUD装置200の電気構成を示すものである。HUD装置200が、前述の第一の実施形態であるHUD装置100と異なる点は、運転者102の聴覚あるいは触覚を通じた報知動作を実行するスピーカ71、シートベルトリトラクタ72、ステアリング振動部73及びシート振動部74(報知手段の一例)と、スピーカ71、シートベルトリトラクタ72、ステアリング振動部73及びシート振動部74を制御する制御部20(報知制御手段の一例)と、を備え、制御部20は、撮像部10が検出した運転者102の視点位置に基づいて運転者102の左眼あるいは右眼のいずれかが観察領域Eの端部あるいは観察領域Eの外側に達していると判定される場合は、スピーカ71、シートベルトリトラクタ72、ステアリング振動部73及びシート振動部74の少なくともいずれかに前記報知動作を実行させる点である。   FIG. 9 shows an electrical configuration of the HUD device 200 according to the second embodiment of the present invention. The HUD device 200 is different from the HUD device 100 of the first embodiment described above in that a speaker 71, a seat belt retractor 72, a steering vibration unit 73, and a seat that perform a notification operation through hearing or touch of the driver 102 are provided. The control unit 20 includes a vibration unit 74 (an example of a notification unit) and a control unit 20 (an example of a notification control unit) that controls the speaker 71, the seat belt retractor 72, the steering vibration unit 73, and the seat vibration unit 74. When it is determined that either the left eye or the right eye of the driver 102 has reached the end of the observation area E or the outside of the observation area E based on the viewpoint position of the driver 102 detected by the imaging unit 10. Are connected to at least one of the speaker 71, the seat belt retractor 72, the steering vibration unit 73, and the seat vibration unit 74. Is the point to be executed intellectual behavior.

制御部20は、外部デバイスI/F25を介して、スピーカ71、シートベルトリトラクタ72、ステアリング振動部73及びシート振動部74と電気的に接続される。CPU21は、外部デバイスI/F25を介して、スピーカ71、シートベルトリトラクタ72、ステアリング振動部73及びシート振動部74に制御信号を出力し、後で詳述する報知動作を実行させる。すなわち、制御部20は、本発明の報知制御手段として機能する。   The control unit 20 is electrically connected to the speaker 71, the seat belt retractor 72, the steering vibration unit 73, and the seat vibration unit 74 via the external device I / F 25. The CPU 21 outputs control signals to the speaker 71, the seat belt retractor 72, the steering vibration unit 73, and the seat vibration unit 74 via the external device I / F 25, and executes a notification operation that will be described in detail later. That is, the control unit 20 functions as a notification control unit of the present invention.

スピーカ71は、車両に搭載され、制御部20からの制御信号に基づいて任意の音声を出力するものである。運転者102は聴覚を通じて音声を知覚することができる。すなわち、スピーカ71は、運転者102の聴覚を通じた前記報知動作として音声の出力を実行し、本発明の報知手段として機能する。   The speaker 71 is mounted on the vehicle and outputs an arbitrary sound based on a control signal from the control unit 20. The driver 102 can perceive sound through hearing. That is, the speaker 71 outputs a voice as the notification operation through the hearing of the driver 102 and functions as a notification unit of the present invention.

シートベルトリトラクタ72は、運転者102を拘束するシートベルト(図示しない)のベルト部(ウェビング)を巻き取る装置であって、制御部20からの制御信号に基づいて前記ベルト部の引き込みが可能なモータを備えるものである。運転者102は触覚を通じて前記ベルト部の引き込みによる圧力を知覚することができる。すなわち、シートベルトリトラクタ72は、運転者102の触覚を通じた前記報知動作として前記ベルト部の引き込みを実行し、本発明の報知手段として機能する。   The seat belt retractor 72 is a device that winds up a belt portion (webbing) of a seat belt (not shown) that restrains the driver 102, and can retract the belt portion based on a control signal from the control unit 20. A motor is provided. The driver 102 can perceive the pressure caused by the pulling of the belt portion through the sense of touch. That is, the seat belt retractor 72 performs the pull-in of the belt portion as the notification operation through the tactile sensation of the driver 102 and functions as a notification unit of the present invention.

ステアリング振動部73は、車両のステアリングホイール(図示しない)に配設される振動子からなり、制御部20からの制御信号に基づいて振動し、前記ステアリングホイール全体を振動させるものである。運転者102は触覚を通じて前記ステアリングホイールの振動を知覚することができる。すなわち、ステアリング振動部73は、運転者102の触覚を通じた前記報知動作として前記ステアリングホイールの振動を実行し、本発明の報知手段として機能する。なお、前記ステアリングホイールの振動音が生じる場合は、前記ステアリングホイールの振動は運転者102の聴覚を通じた前記報知動作ともなり得る。   The steering vibration unit 73 is composed of a vibrator arranged on a steering wheel (not shown) of the vehicle, and vibrates based on a control signal from the control unit 20 to vibrate the entire steering wheel. The driver 102 can perceive the vibration of the steering wheel through the sense of touch. That is, the steering vibration unit 73 performs vibration of the steering wheel as the notification operation through the tactile sense of the driver 102, and functions as a notification unit of the present invention. In addition, when the vibration sound of the steering wheel is generated, the vibration of the steering wheel can be the notification operation through the hearing of the driver 102.

シート振動部74は、車両の運転席のシート(図示しない)内に配設される振動子からなり、制御部20からの制御信号に基づいて振動し、前記シートの特に座面及び/あるいは背面を振動させるものである。運転者102は触覚を通じて前記シートの振動を知覚することができる。すなわち、シート振動部74は、運転者102の触覚を通じた前記報知動作として前記シートの振動を実行し、本発明の報知手段として機能する。なお、前記シートの振動音が生じる場合は、前記シートの振動は運転者102の聴覚を通じた前記報知動作ともなり得る。   The seat vibration unit 74 is composed of a vibrator disposed in a seat (not shown) of the driver's seat of the vehicle, vibrates based on a control signal from the control unit 20, and particularly the seat surface and / or the back surface of the seat. Is to vibrate. The driver 102 can perceive the vibration of the seat through the sense of touch. That is, the seat vibration unit 74 performs the vibration of the seat as the notification operation through the tactile sense of the driver 102, and functions as a notification unit of the present invention. In addition, when the vibration sound of the seat is generated, the vibration of the seat may be the notification operation through the hearing of the driver 102.

CPU21は、図3のステップS2で算出する運転者102の左眼視点位置及び右眼視点位置に基づいて、運転者102の左眼あるいは右眼が、観察領域Eの外側あるいは端部に達したと判定される場合に、運転者102が観察可能な左眼用画像60Lあるいは右眼用画像60Rを、図8に示す観察領域Eの中央方向を示唆する方向指示画像を含む画像とするとともに、スピーカ71、シートベルトリトラクタ72、ステアリング振動部73及びシート振動部74に制御信号を出力し、前記報知動作を実行させる。図10は、報知動作の一例を示すものである。図10においては、運転者102の左眼が観察領域Eの左の外側あるいは左側端部(端部領域E21)に達した場合(図10中「左側」と表記される場合)と、運転者102の右眼が観察領域Eの右の外側あるいは右側端部(端部領域E31)に達した場合(図10中「右側」と表記された場合)とで、前記報知動作の回数を異ならせることで、前記報知動作のみでも運転者102が観察領域Eの中央方向を判断可能となっている。具体的には、運転者102の左眼が観察領域Eの左の外側あるいは左側端部(端部領域E21)に達した場合は前記報知動作が1回実行され、運転者102の右眼が観察領域Eの右の外側あるいは右側端部(端部領域E31)に達した場合には前記報知動作が2回実行される。なお、スピーカ71で音声を出力する場合には、「右に視点を動かして下さい」、「左に視点を動かして下さい」などの音声を出力して直接的に観察領域Eの中央方向を示唆してもよい。また、表示手段30が方向指示画像を点滅表示させる場合に、スピーカ71、シートベルトリトラクタ72、ステアリング振動部73及びシート振動部74に方向指示画像の点滅に同調して前記報知動作を実行させてもよい。   Based on the left eye viewpoint position and right eye viewpoint position of the driver 102 calculated in step S2 in FIG. 3, the CPU 21 has reached the outside or end of the observation region E. The left-eye image 60L or the right-eye image 60R that can be observed by the driver 102 is an image including a direction indication image that suggests the central direction of the observation region E shown in FIG. Control signals are output to the speaker 71, the seat belt retractor 72, the steering vibration unit 73, and the seat vibration unit 74 to execute the notification operation. FIG. 10 shows an example of the notification operation. In FIG. 10, when the left eye of the driver 102 reaches the left outer side or the left end (end region E21) of the observation area E (indicated as “left side” in FIG. 10), the driver 102 When the right eye 102 reaches the right outer side or right end (end region E31) of the observation area E (indicated as “right side” in FIG. 10), the number of notification operations is made different. Thus, the driver 102 can determine the central direction of the observation area E only by the notification operation. Specifically, when the left eye of the driver 102 reaches the left outside or the left end (end region E21) of the observation area E, the notification operation is executed once, and the right eye of the driver 102 is When the observation area E reaches the right outside or right end (end area E31), the notification operation is executed twice. In addition, when outputting sound from the speaker 71, sounds such as “Please move the viewpoint to the right” and “Please move the viewpoint to the left” are directly output to suggest the center direction of the observation area E. May be. When the display means 30 blinks the direction indication image, the speaker 71, the seat belt retractor 72, the steering vibration unit 73, and the seat vibration unit 74 execute the notification operation in synchronization with the blinking of the direction indication image. Also good.

図7(a)に示した場合を例に挙げると、運転者102の右眼は、観察領域Eとその外側との境界から中央方向(メインローブに水平方向に向かう方向)に所定距離内に設定される端部領域E21、E31のうちの端部領域E31に位置する。この場合、CPU21は、運転者102の右眼が観察領域Eの右側端部に達したと判定し、運転者102が観察可能な右眼用画像60R及び左眼用画像60Lとして、観察領域Eの中央方向を示唆する方向指示画像を表示手段30に表示させ、また、スピーカ71、シートベルトリトラクタ72、ステアリング振動部73及びシート振動部74に前記報知動作を実行させる。このとき、スピーカ71による前記報知動作としては警告音の出力が2回行われる。また、シートベルトリトラクタ72による前記報知動作としては前記ベルト部の引き込みと解除が2回行われる。また、ステアリング振動部73による前記報知動作としては前記ステアリングホイールの所定時間の振動が2回行われる。また、シート振動部74による前記報知動作としては前記シートの所定時間の振動が2回行われる。なお、これらの前記報知動作は全てが実行される必要はなく、1つあるいは複数行われても良い。前記報知動作が実行されることによっても、運転者102は、自らの視点位置が観察領域Eの端部にあり、これ以上視点位置を移動させると立体表示ができなくなることを聴覚あるいは触覚を通じて瞬時に把握することができる。また、前記報知動作の回数によって、運転者102は前記報知動作が実行されない通常の状態に復帰するために視点を移動するべき方向を瞬時に判断することができる。   Taking the case shown in FIG. 7A as an example, the right eye of the driver 102 is within a predetermined distance from the boundary between the observation region E and the outside thereof in the central direction (the direction toward the main lobe in the horizontal direction). It is located in the end region E31 of the set end regions E21, E31. In this case, the CPU 21 determines that the right eye of the driver 102 has reached the right end of the observation region E, and the observation region E is used as the right eye image 60R and the left eye image 60L that can be observed by the driver 102. A direction indication image suggesting the center direction of the image is displayed on the display unit 30 and the speaker 71, the seat belt retractor 72, the steering vibration unit 73, and the seat vibration unit 74 are caused to execute the notification operation. At this time, as the notification operation by the speaker 71, a warning sound is output twice. Further, as the notification operation by the seat belt retractor 72, the belt portion is retracted and released twice. Further, as the notification operation by the steering vibration unit 73, vibration of the steering wheel for a predetermined time is performed twice. In addition, as the notification operation by the seat vibration unit 74, the seat is vibrated twice for a predetermined time. Note that not all of these notification operations need be executed, and one or more of them may be performed. Even when the notification operation is performed, the driver 102 instantly hears or senses that his / her viewpoint position is at the end of the observation area E, and that the stereoscopic display cannot be performed if the viewpoint position is moved any further. Can grasp. In addition, the driver 102 can instantaneously determine the direction in which the viewpoint should be moved in order to return to a normal state where the notification operation is not performed, according to the number of the notification operations.

また、図7(b)に示した場合を例に挙げると、運転者102の右眼は、観察領域Eの右の外側に位置する。この場合、CPU21は、運転者102の右眼が観察領域Eの右の外側に達したと判定し、運転者102が観察可能な左眼用画像60Lとして、観察領域Eの中央方向を示唆する方向指示画像を表示手段30に表示させ、また、スピーカ71、シートベルトリトラクタ72、ステアリング振動部73及びシート振動部74に前記報知動作を実行させる。このとき、スピーカ71による前記報知動作としては警告音の出力が2回行われる。また、シートベルトリトラクタ72による前記報知動作としては前記ベルト部の引き込みと解除が2回行われる。また、ステアリング振動部73による前記報知動作としては前記ステアリングホイールの所定時間の振動が2回行われる。また、シート振動部74による前記報知動作としては前記シートの所定時間の振動が2回行われる。なお、これらの前記報知動作は全てが実行される必要はなく、1つあるいは複数行われても良い。前記報知動作が実行されることによっても、運転者102は、自らの視点位置が観察領域Eの外側にあるために立体表示ができなくなったことを聴覚あるいは触覚を通じて瞬時に把握することができる。また、前記報知動作の回数によって、運転者102は立体表示が可能な視点位置に復帰するために視点を移動するべき方向を瞬時に判断することができる。   In addition, taking the case shown in FIG. 7B as an example, the right eye of the driver 102 is located outside the right side of the observation region E. In this case, the CPU 21 determines that the right eye of the driver 102 has reached the right outside of the observation area E, and suggests the center direction of the observation area E as the left-eye image 60L that can be observed by the driver 102. A direction instruction image is displayed on the display unit 30 and the speaker 71, the seat belt retractor 72, the steering vibration unit 73, and the seat vibration unit 74 execute the notification operation. At this time, as the notification operation by the speaker 71, a warning sound is output twice. Further, as the notification operation by the seat belt retractor 72, the belt portion is retracted and released twice. Further, as the notification operation by the steering vibration unit 73, vibration of the steering wheel for a predetermined time is performed twice. In addition, as the notification operation by the seat vibration unit 74, the seat is vibrated twice for a predetermined time. Note that not all of these notification operations need be executed, and one or more of them may be performed. Even when the notification operation is performed, the driver 102 can instantaneously grasp through auditory or tactile sense that the stereoscopic display cannot be performed because his / her viewpoint position is outside the observation area E. Further, the driver 102 can instantaneously determine the direction in which the viewpoint should be moved in order to return to the viewpoint position where stereoscopic display is possible, based on the number of the notification operations.

本実施形態におけるHUD装置200は、前述のHUD装置100の構成にさらに、運転者102の聴覚あるいは触覚を通じた報知動作を実行する報知手段(スピーカ71、シートベルトリトラクタ72、ステアリング振動部73及びシート振動部74)と、前記報知手段を制御する報知制御手段(制御部20)と、を備え、
前記報知制御手段は、前記位置検出手段が検出した前記視点位置に基づいて運転者102の左眼あるいは右眼のいずれかが観察領域Eの端部あるいは観察領域Eの外側に達していると判定される場合は、前記報知手段に前記報知動作を実行させることを特徴とする。
The HUD device 200 according to the present embodiment further includes notification means (speaker 71, seat belt retractor 72, steering vibration unit 73, and seat) that performs a notification operation through the auditory or tactile sensation of the driver 102 in addition to the configuration of the HUD device 100 described above. A vibration unit 74) and a notification control unit (control unit 20) for controlling the notification unit,
The notification control means determines that either the left eye or the right eye of the driver 102 has reached the end of the observation area E or the outside of the observation area E based on the viewpoint position detected by the position detection means. If so, the notification means is caused to execute the notification operation.

これによれば、前記報知動作によって、運転者102は自らの視点位置が観察領域Eの端部にあり、これ以上視点位置を移動させると立体表示ができなくなること、あるいは自らの視点位置が観察領域Eの外側にあるために立体表示ができなくなったことを聴覚あるいは触覚を通じて瞬時に把握することができる。また、運転者102の聴覚あるいは触覚を通じた前記報知動作を行うことで、観察領域Eの中央方向を示唆する方向指示画像60W1〜60W4への注意を促すことができ、視点位置の移動に伴う運転者102の煩わしさを軽減することが可能となる。   According to this, by the notification operation, the driver 102 has his / her viewpoint position at the end of the observation area E, and if the viewpoint position is moved further, stereoscopic display cannot be performed, or his / her viewpoint position is observed. It is possible to instantly grasp through auditory or tactile sense that stereoscopic display is no longer possible because it is outside the region E. In addition, by performing the notification operation through hearing or tactile sense of the driver 102, attention to the direction indication images 60W1 to 60W4 suggesting the center direction of the observation area E can be urged, and driving accompanying movement of the viewpoint position The troublesomeness of the person 102 can be reduced.

また、前記報知手段は、前記報知動作の回数によって前記観察領域の中央方向を示唆する。これによれば、前記報知動作のみによっても、運転者102は立体表示を維持するための方向あるいは立体表示が可能となる方向を瞬時に把握することができ、視点位置の移動に伴う運転者102の煩わしさを軽減することが可能となる。   Further, the notifying means suggests a central direction of the observation region based on the number of the notification operations. According to this, the driver 102 can instantaneously grasp the direction for maintaining the stereoscopic display or the direction in which the stereoscopic display can be performed only by the notification operation, and the driver 102 accompanying the movement of the viewpoint position. Can be alleviated.

また、前記表示制御手段(制御部20)は、表示手段30に方向指示画像60W1〜60W4を点滅表示させ、
前記報知制御手段は、前記報知手段に方向指示画像60W1〜60W4の点滅に同調して前記報知手段を実行させる。
これによれば、方向指示画像60W1〜60W4と同調した前記報知動作を行うことで、観察領域Eの中央方向を示唆する方向指示画像60W1〜60W4への注意を促すことができ、視点位置の移動に伴う運転者102の煩わしさを軽減することが可能となる。
Further, the display control means (control unit 20) causes the display means 30 to blink and display the direction indicating images 60W1 to 60W4,
The notification control unit causes the notification unit to execute the notification unit in synchronization with blinking of the direction indication images 60W1 to 60W4.
According to this, by performing the notification operation in synchronization with the direction indication images 60W1 to 60W4, attention to the direction indication images 60W1 to 60W4 suggesting the central direction of the observation area E can be urged, and the movement of the viewpoint position Therefore, it is possible to reduce the troublesomeness of the driver 102.

また、HUD装置200は、車両に搭載される立体表示装置であって、
前記報知手段は、前記報知動作として、音声の出力、ステアリングホイールの振動、シートの振動及びシートベルトのベルト部の引き込みのうち少なくともいずれかを実行する。
これによれば、車両の運転者102に対して容易に、また確実に聴覚あるいは触覚を通じた前記報知動作を実行することができる。
The HUD device 200 is a stereoscopic display device mounted on a vehicle,
The notification means performs at least one of voice output, steering wheel vibration, seat vibration, and retracting of the belt portion of the seat belt as the notification operation.
According to this, it is possible to easily and surely execute the notification operation through hearing or tactile sense to the driver 102 of the vehicle.

なお、本発明は前述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の変更(構成要素の削除を含む)が可能であることはもちろんである。本実施形態は、表示手段30に左眼用画像60Lと右眼用画像60Rとを2個ずつ(合計4個)並べて表示するものであったが、表示手段30に左眼用画像60Lと右眼用画像60Rとを1個ずつ表示するものであっても良いし、各3個以上ずつ表示するものであっても良い。また、本実施形態においては立体表示装置として虚像Vを表示するHUD装置100を例に挙げたが、本発明を表示手段の画面を直接視認する立体表示装置に適用しても良い。また、本実施形態のHUD装置100は車両用であったが、本発明を車両用以外の表示装置に適用しても良い。   Note that the present invention is not limited to the above-described embodiment, and various modifications (including deletion of constituent elements) can be made without departing from the scope of the invention. In the present embodiment, the left-eye image 60L and the right-eye image 60R are displayed side by side on the display unit 30 (four in total), but the left-eye image 60L and the right-eye image 60R are displayed on the display unit 30. The eye images 60R may be displayed one by one, or three or more of each may be displayed. In the present embodiment, the HUD device 100 that displays the virtual image V is taken as an example of the stereoscopic display device. However, the present invention may be applied to a stereoscopic display device that directly recognizes the screen of the display unit. Moreover, although the HUD apparatus 100 of this embodiment was for vehicles, you may apply this invention to display apparatuses other than the object for vehicles.

本発明は、立体表示装置に利用可能である。   The present invention is applicable to a stereoscopic display device.

100、200 ヘッドアップディスプレイ装置
102 運転者(観察者)
10 撮像部
20 制御部
30 表示手段
40 画像分離手段
50 凹面鏡
60L 左眼用画像
60R 右眼用画像
60W1〜60W4 方向指示画像
71 スピーカ(報知手段)
72 シートベルトリトラクタ(報知手段)
73 ステアリング振動部(報知手段)
74 シート振動部(報知手段)
100, 200 Head-up display device 102 Driver (observer)
DESCRIPTION OF SYMBOLS 10 Imaging part 20 Control part 30 Display means 40 Image separation means 50 Concave mirror 60L Image for left eye 60R Image for right eye 60W1-60W4 Direction indication image 71 Speaker (notification means)
72 Seat belt retractor (notification means)
73 Steering vibration part (notification means)
74 Seat vibration part (notification means)

Claims (10)

左眼用画像と右眼用画像と並べて表示する表示手段と、
前記左眼用画像と前記右眼用画像とを前記表示手段に表示させる表示制御手段と、
前記表示手段に表示された前記左眼用画像と前記右眼用画像とを分離する画像分離手段と、
観察者の視点位置を検出可能な位置検出手段と、を備える立体表示装置であって、
前記表示制御手段は、前記位置検出手段が検出した前記視点位置に基づいて前記観察者の左眼あるいは右眼のいずれかが前記左眼用画像あるいは前記右眼用画像が観察可能な観察領域の端部あるいは前記観察領域の外側に達していると判定される場合は、前記表示手段に前記左眼用画像あるいは前記右眼用画像のうち前記観察者に観察される画像として前記観察領域の中央方向を示唆する方向指示画像を表示させることを特徴とする立体表示装置。
Display means for displaying the left eye image and the right eye image side by side;
Display control means for causing the display means to display the left-eye image and the right-eye image;
Image separating means for separating the left-eye image and the right-eye image displayed on the display means;
A position detecting means capable of detecting an observer's viewpoint position, and a stereoscopic display device comprising:
The display control unit is configured to display an observation region in which either the left eye or the right eye of the observer can observe the left eye image or the right eye image based on the viewpoint position detected by the position detection unit. If it is determined that the image has reached the end or the outside of the observation area, the display means displays the center of the observation area as an image observed by the observer among the left-eye image or the right-eye image. A stereoscopic display device that displays a direction indication image that suggests a direction.
前記表示制御手段は、前記位置検出手段が検出した前記視点位置に基づいて前記左眼用画像と前記右眼用画像とがそれぞれ前記観察者の左眼と右眼とで観察されるように前記表示手段における前記左眼用画像の表示位置と前記右眼用画像の表示位置とを変更してなることを特徴とする請求項1に記載の立体表示装置。 The display control means is configured so that the left-eye image and the right-eye image are observed by the observer's left eye and right eye, respectively, based on the viewpoint position detected by the position detection means. The stereoscopic display device according to claim 1, wherein a display position of the left-eye image and a display position of the right-eye image in a display unit are changed. 前記表示制御手段は、前記位置検出手段が検出した前記視点位置に基づいて前記観察者の左眼あるいは右眼のいずれかが前記観察領域のうち所定の主領域の外側に位置する側方領域に達していると判定される場合は、前記左眼用画像あるいは前記右眼用画像のうち前記側方領域で前記観察者に視認される画像の前記表示手段における表示輝度を前記主領域で観察される場合の表示輝度よりも高くすることを特徴とする請求項1または請求項2に記載の立体表示装置。 The display control means may be configured such that either the left eye or the right eye of the observer is located in a lateral area located outside a predetermined main area in the observation area based on the viewpoint position detected by the position detection means. When it is determined that the image has reached, the display brightness of the display means of the image visually recognized by the observer in the lateral region of the left-eye image or the right-eye image is observed in the main region. The stereoscopic display device according to claim 1, wherein the display brightness is higher than the display brightness in the case of the display. 前記観察者の聴覚あるいは触覚を通じた報知動作を実行する報知手段と、
前記報知手段を制御する報知制御手段と、を備え、
前記報知制御手段は、前記位置検出手段が検出した前記視点位置に基づいて前記観察者の左眼あるいは右眼のいずれかが前記観察領域の端部あるいは前記観察領域の外側に達していると判定される場合は、前記報知手段に前記報知動作を実行させることを特徴とする請求項1に記載の立体表示装置。
Informing means for performing an informing operation through the observer's auditory or tactile sense;
Notification control means for controlling the notification means,
The notification control means determines that either the left eye or the right eye of the observer has reached the end of the observation area or the outside of the observation area based on the viewpoint position detected by the position detection means. 2. The stereoscopic display device according to claim 1, wherein the notification unit causes the notification unit to execute the notification operation.
前記報知手段は、前記報知動作の回数によって前記観察領域の中央方向を示唆することを特徴とする請求項4に記載の立体表示装置。 The stereoscopic display device according to claim 4, wherein the notification unit suggests a central direction of the observation region based on the number of the notification operations. 前記表示制御手段は、前記表示手段に前記方向指示画像を点滅表示させ、
前記報知制御手段は、前記報知手段に前記方向指示画像の点滅に同調して前記報知手段を実行させることを特徴とする請求項4に記載の立体表示装置。
The display control unit causes the display unit to blink the direction indication image,
The stereoscopic display device according to claim 4, wherein the notification control unit causes the notification unit to execute the notification unit in synchronization with blinking of the direction indication image.
車両に搭載される立体表示装置であって、
前記報知手段は、前記報知動作として、音声の出力、ステアリングホイールの振動、シートの振動及びシートベルトのベルト部の引き込みのうち少なくともいずれかを実行することを特徴とする請求項4に記載の立体表示装置。
A stereoscopic display device mounted on a vehicle,
5. The three-dimensional image according to claim 4, wherein the notification unit executes at least one of voice output, steering wheel vibration, seat vibration, and retracting of a belt portion of the seat belt as the notification operation. Display device.
左眼用画像と右眼用画像と並べて表示する表示手段と、
前記表示手段に表示された前記左眼用画像と前記右眼用画像とを分離する画像分離手段と、
観察者の視点位置を検出可能な位置検出手段と、を備える立体表示装置の表示方法であって、
前記位置検出手段が検出した前記視点位置に基づいて前記観察者の左眼あるいは右眼のいずれかが前記左眼用画像あるいは前記右眼用画像が観察可能な観察領域の端部あるいは前記観察領域の外側に達していると判定される場合は、前記表示手段に前記左眼用画像あるいは前記右眼用画像のうち前記観察者に観察される画像として前記観察領域の中央方向を示唆する方向指示画像を表示させることを特徴とする立体表示装置の表示方法。
Display means for displaying the left eye image and the right eye image side by side;
Image separating means for separating the left-eye image and the right-eye image displayed on the display means;
A position detection means capable of detecting the viewpoint position of the observer, and a display method of a stereoscopic display device comprising:
Based on the viewpoint position detected by the position detecting means, either the left eye or the right eye of the observer can observe the image for the left eye or the image for the right eye, or the observation area. If it is determined that it has reached the outside of the image, a direction indication suggesting a central direction of the observation region as an image observed by the observer among the left-eye image or the right-eye image on the display means A display method for a stereoscopic display device, characterized by displaying an image.
前記位置検出手段が検出した前記視点位置に基づいて前記左眼用画像と前記右眼用画像とがそれぞれ前記観察者の左眼と右眼とで観察されるように前記表示手段における前記左眼用画像の表示位置と前記右眼用画像の表示位置とを変更することを特徴とする請求項8に記載の立体表示装置の表示方法。 The left eye in the display means so that the left eye image and the right eye image are observed with the left eye and the right eye of the observer based on the viewpoint position detected by the position detection means, respectively. The display method of the stereoscopic display device according to claim 8, wherein the display position of the image for use and the display position of the image for the right eye are changed. 前記位置検出手段が検出した前記視点位置に基づいて前記観察者の左眼あるいは右眼のいずれかが前記左眼用画像あるいは前記観察領域のうち所定の主領域の外側に位置する側方領域に達していると判定される場合は、前記左眼用画像あるいは前記右眼用画像のうち前記側方領域で前記観察者に視認される画像の前記表示手段における表示輝度を前記主領域で観察される場合の表示輝度よりも高くすることを特徴とする請求項8または請求項9に記載の立体表示装置の表示方法。 Based on the viewpoint position detected by the position detection means, either the left eye or the right eye of the observer is located in a side area located outside a predetermined main area in the left eye image or the observation area. When it is determined that the image has reached, the display brightness of the display means of the image visually recognized by the observer in the lateral region of the left-eye image or the right-eye image is observed in the main region. The display method of the stereoscopic display device according to claim 8 or 9, wherein the display brightness is higher than the display brightness in the case of the display.
JP2012258089A 2012-09-06 2012-11-27 Stereoscopic display device and display method of the same Pending JP2014068331A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012258089A JP2014068331A (en) 2012-09-06 2012-11-27 Stereoscopic display device and display method of the same

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012195755 2012-09-06
JP2012195755 2012-09-06
JP2012258089A JP2014068331A (en) 2012-09-06 2012-11-27 Stereoscopic display device and display method of the same

Publications (1)

Publication Number Publication Date
JP2014068331A true JP2014068331A (en) 2014-04-17

Family

ID=50744293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012258089A Pending JP2014068331A (en) 2012-09-06 2012-11-27 Stereoscopic display device and display method of the same

Country Status (1)

Country Link
JP (1) JP2014068331A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015174049A1 (en) * 2014-05-12 2015-11-19 パナソニックIpマネジメント株式会社 Display device
JP2018022129A (en) * 2016-07-21 2018-02-08 Tianma Japan株式会社 Stereoscopic display device and control method
WO2018199185A1 (en) * 2017-04-26 2018-11-01 京セラ株式会社 Display device, display system, and mobile body
JP2018185439A (en) * 2017-04-26 2018-11-22 京セラ株式会社 Display unit, display system, and movable body
JP2018185440A (en) * 2017-04-26 2018-11-22 京セラ株式会社 Display unit, display system, and movable body
WO2019009240A1 (en) * 2017-07-07 2019-01-10 京セラ株式会社 Image projection device and mobile body
WO2019021340A1 (en) * 2017-07-24 2019-01-31 三菱電機株式会社 Display control device, display system, and display control method
WO2020031977A1 (en) * 2018-08-08 2020-02-13 京セラ株式会社 Image display device, image display system, and mobile body
WO2020031978A1 (en) * 2018-08-08 2020-02-13 京セラ株式会社 Image display device, image display system, and mobile body
WO2020090584A1 (en) * 2018-10-31 2020-05-07 京セラ株式会社 Image display device, image display system, and movable body
WO2020241863A1 (en) * 2019-05-30 2020-12-03 京セラ株式会社 Head-up display system and moving body
WO2021152683A1 (en) * 2020-01-28 2021-08-05 三菱電機株式会社 Display control device, display control system, and display control method

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10222625B2 (en) 2014-05-12 2019-03-05 Panasonic Intellectual Property Management Co., Ltd. Display device
JP2015215508A (en) * 2014-05-12 2015-12-03 パナソニックIpマネジメント株式会社 Display device and display method thereof
EP3144718A4 (en) * 2014-05-12 2017-06-14 Panasonic Intellectual Property Management Co., Ltd. Display device
WO2015174049A1 (en) * 2014-05-12 2015-11-19 パナソニックIpマネジメント株式会社 Display device
JP2018022129A (en) * 2016-07-21 2018-02-08 Tianma Japan株式会社 Stereoscopic display device and control method
JP7038981B2 (en) 2016-07-21 2022-03-22 天馬微電子有限公司 Stereoscopic display device and control method
WO2018199185A1 (en) * 2017-04-26 2018-11-01 京セラ株式会社 Display device, display system, and mobile body
JP2018185439A (en) * 2017-04-26 2018-11-22 京セラ株式会社 Display unit, display system, and movable body
JP2018185440A (en) * 2017-04-26 2018-11-22 京セラ株式会社 Display unit, display system, and movable body
US11221482B2 (en) 2017-04-26 2022-01-11 Kyocera Corporation Display apparatus, display system, and mobile body
US11385470B2 (en) 2017-07-07 2022-07-12 Kyocera Corporation Image projection apparatus and mobile body
JP2019015892A (en) * 2017-07-07 2019-01-31 京セラ株式会社 Image forming apparatus and movable body
CN110832382B (en) * 2017-07-07 2022-04-26 京瓷株式会社 Image projection apparatus and moving object
CN110832382A (en) * 2017-07-07 2020-02-21 京瓷株式会社 Image projection apparatus and moving object
WO2019009240A1 (en) * 2017-07-07 2019-01-10 京セラ株式会社 Image projection device and mobile body
JPWO2019021340A1 (en) * 2017-07-24 2019-11-07 三菱電機株式会社 Display control device, display system, and display control method
WO2019021340A1 (en) * 2017-07-24 2019-01-31 三菱電機株式会社 Display control device, display system, and display control method
EP3835850A4 (en) * 2018-08-08 2022-04-20 Kyocera Corporation Image display device, image display system, and mobile body
JP7227977B2 (en) 2018-08-08 2023-02-22 京セラ株式会社 Image display device, image display system, and moving body
US11885961B2 (en) 2018-08-08 2024-01-30 Kyocera Corporation Image display device, image display system, and mobile body
JPWO2020031977A1 (en) * 2018-08-08 2021-09-09 京セラ株式会社 Image display devices, image display systems, and mobiles
WO2020031977A1 (en) * 2018-08-08 2020-02-13 京セラ株式会社 Image display device, image display system, and mobile body
WO2020031978A1 (en) * 2018-08-08 2020-02-13 京セラ株式会社 Image display device, image display system, and mobile body
WO2020090584A1 (en) * 2018-10-31 2020-05-07 京セラ株式会社 Image display device, image display system, and movable body
JPWO2020090584A1 (en) * 2018-10-31 2021-10-21 京セラ株式会社 Image display devices, image display systems, and mobiles
US11496725B2 (en) 2018-10-31 2022-11-08 Kyocera Corporation Image display device, image display system, and movable body
JP7189228B2 (en) 2018-10-31 2022-12-13 京セラ株式会社 Image display device, image display system, and moving object
CN112997110A (en) * 2018-10-31 2021-06-18 京瓷株式会社 Image display device, image display system, and moving object
WO2020241863A1 (en) * 2019-05-30 2020-12-03 京セラ株式会社 Head-up display system and moving body
JPWO2020241863A1 (en) * 2019-05-30 2020-12-03
US20220232202A1 (en) 2019-05-30 2022-07-21 Kyocera Corporation Head-up display system and movable object
JP7337153B2 (en) 2019-05-30 2023-09-01 京セラ株式会社 Head-up display system and moving object
US11882268B2 (en) 2019-05-30 2024-01-23 Kyocera Corporation Head-up display system and movable object
WO2021152683A1 (en) * 2020-01-28 2021-08-05 三菱電機株式会社 Display control device, display control system, and display control method

Similar Documents

Publication Publication Date Title
JP2014068331A (en) Stereoscopic display device and display method of the same
US10288882B2 (en) Head mounted display device
JP6493361B2 (en) Vehicle device, vehicle program, filter design program
JP6289498B2 (en) System and method for automatically adjusting the angle of a three-dimensional display in a vehicle
JP6394281B2 (en) In-vehicle alert system, alarm control device
WO2018142610A1 (en) Stereoscopic display device and head-up display
WO2015174051A1 (en) Display device and display method
WO2018047400A1 (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
EP3125018B1 (en) Virtual-image display apparatus, heads-up-display system, and vehicle
JP2014150304A (en) Display device and display method therefor
JP6410987B2 (en) Driving support device, driving support method, and driving support program
JP7047837B2 (en) Attention device
JP2013168063A (en) Image processing device, image display system, and image processing method
JP6176070B2 (en) Gaze direction detector
JP2014090315A (en) On-vehicle image generation apparatus
JP5849628B2 (en) Vehicle display device
JP5008611B2 (en) Vehicle display device
US20190166357A1 (en) Display device, electronic mirror and method for controlling display device
JP2018129732A (en) Vehicular video display device
JP2018121287A (en) Display control apparatus for vehicle, display system for vehicle, display control method for vehicle, and program
JP2014050062A (en) Stereoscopic display device and display method thereof
US20190166358A1 (en) Display device, electronic mirror and method for controlling display device
WO2017168953A1 (en) Vehicle device, vehicle program, and filter design program
JP6504382B2 (en) Display control apparatus, display system, display control method, display control program, and projection apparatus
JP2018041011A (en) Display device