WO2011016079A1 - 表示装置、車両 - Google Patents

表示装置、車両 Download PDF

Info

Publication number
WO2011016079A1
WO2011016079A1 PCT/JP2009/003706 JP2009003706W WO2011016079A1 WO 2011016079 A1 WO2011016079 A1 WO 2011016079A1 JP 2009003706 W JP2009003706 W JP 2009003706W WO 2011016079 A1 WO2011016079 A1 WO 2011016079A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
display device
head
straight line
observer
Prior art date
Application number
PCT/JP2009/003706
Other languages
English (en)
French (fr)
Inventor
森屋彰久
永原収
奥村治彦
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to PCT/JP2009/003706 priority Critical patent/WO2011016079A1/ja
Publication of WO2011016079A1 publication Critical patent/WO2011016079A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the present invention relates to a display device and a vehicle for irradiating an observer's eyes with an image.
  • a head-up display HUD (Head-Up Display) that enables operation information such as vehicle speed and direction of travel to be projected by projecting it onto the windshield and allowing the outside world information and operation information to be viewed simultaneously )
  • a normal HUD observes a display image with both eyes, but a monocular HUD that visually recognizes a display image with one eye has been proposed to improve visibility.
  • a projection unit that projects light including an image, a plurality of distance sensors that measure the distance to the head of the observer, and the head of the observer measured by the plurality of distance sensors
  • a display device comprising: an estimation unit that estimates a projection target position for the observer based on a distance; and a control unit that changes a direction in which the projection unit projects light according to the projection target position;
  • a vehicle equipped with a display device is provided.
  • the eyeball position is estimated from the measurement results from a plurality of distance sensors, it is strong against noise caused by light and also improved in robustness.
  • the figure which illustrates the use condition of the display apparatus of this embodiment The figure which shows the display apparatus of 1st Embodiment.
  • the display device 50 is mounted on a vehicle and projects a display image in the traveling direction of the vehicle.
  • the observer who watches the video is a driver
  • the projection target position is the position of one eye of the driver.
  • FIG. 1 is a diagram illustrating a method of using the display device 50 of this embodiment.
  • the display image 510 includes, for example, the current position 511 of the vehicle, information 512 of the surrounding building 710, the display arrow 513 of the route, vehicle information 514 such as speed and fuel, etc.
  • the display image 510 is projected and displayed on a reflecting portion (not shown) provided on a part of the windshield 17. As a result, the driver 1 can view the external image 520 and the display image 510 simultaneously.
  • FIG. 2 is a diagram showing the display device 50 of the present embodiment.
  • the display device 50 includes a distance sensor 11 that measures the distance 31 to the head of the driver 1 provided on the headrest 15, and an estimation unit that estimates the position of one eye of the driver 1 from the distance 31 measured by the distance sensor 11. 12, a projection unit 14 that projects the image 2, a control unit 13 that controls the projection unit 14 according to the position of one eye, and a reflection layer 18 that is provided on the windshield 17 and reflects light from the projection unit 14 .
  • the driver 1 can visually recognize the image projected on the reflective layer 18 through one eye, and the display device 50 can be used as a HUD.
  • the display device 50 estimates the position of one eye of the driver 1 using the distance sensor 11 and the projection unit 14 adjusts so that the image 2 is correctly projected onto the position of one eye of the driver 1. .
  • the distance sensor 11 preferably has a plurality of one-dimensional distance sensors 110 arranged two-dimensionally on one surface of the headrest 15.
  • the one-dimensional distance sensor 110 uses an ultrasonic sensor, a PSD (Position / Sensitive / Detector) sensor, a laser, or the like.
  • a PSD sensor the distance from the front surface of the one-dimensional distance sensor 110 to the object is output as a voltage value. The higher the output voltage, the shorter the distance between the one-dimensional distance sensor 110 and the object, and the lower the voltage, the longer the distance between the one-dimensional distance sensor 110 and the object.
  • the PSD sensor has a measurable distance range. When used as the one-dimensional distance sensor 110, it is necessary to measure the distance to the head of the driver 1 in advance and select a sensor that can measure an appropriate range.
  • the estimation unit 12 estimates the shape of the head of the driver 1 based on the distribution of the distance 31 to the head of the driver 1 measured by the distance sensor 11, and the one eye of the driver 1 from the estimated shape. Is estimated.
  • various optical switches such as a liquid crystal display device, DMD (Digital Micromirror Device), and MEMS (Micro-electro-mechanical System) can be used.
  • a liquid crystal display device DMD (Digital Micromirror Device)
  • MEMS Micro-electro-mechanical System
  • the projection unit 14 includes a light source 141, a lens 142, a closed aperture 143, a lens 144, a liquid crystal panel 145, a concave movable mirror 146, and a drive unit 147 that is a motor that controls the angle of the mirror 146. And an aspheric Fresnel lens 148.
  • the input image 2 is projected by the projection unit 14.
  • the light source 141 an LED (Light Emitting Diode), a high-pressure mercury lamp, a halogen lamp, a laser, or the like is used. If an LED is used, the device can be miniaturized.
  • the control unit 13 controls the light amount of the light source 141 and displays the image 2 on the liquid crystal panel 145. Further, the angle of the mirror 146 is adjusted by controlling the drive unit 147 according to the position of one eye estimated by the estimation unit 12. By changing the angle of the mirror 146, the projection position of the light from the projection unit 14 can be appropriately controlled.
  • the distance sensor 11 measures the distance 31 to the driver's 1 head in real time. In accordance with the measurement result of the distance sensor 11, the estimation unit 12 sequentially estimates the position of one eye.
  • the control unit 13 controls the drive unit 147 to change the angle of the mirror 146 according to the position of one eye. As a result, even when the driver 1 moves his / her head, it is possible to control the projection position of the image to be the position of the eyeball automatically following it.
  • FIG. 3 is a diagram illustrating an example in which the one-dimensional distance sensor 110 is disposed on the headrest 15 of the driving seat 150.
  • the example of FIG. 3A shows an example in which the one-dimensional distance sensors 110 are arranged at equal intervals in the horizontal direction and the vertical direction.
  • one row of one-dimensional distance sensors 110 is arranged in the horizontal direction passing through the center position in the vertical direction, and the one-dimensional distance sensors 110 are arranged vertically by one row at both ends thereof. Arranged. This arrangement is suitable for detecting the horizontal movement of the head.
  • the sensor lines arranged vertically in the horizontal direction are arranged at an arbitrary position such as the center or end of one surface.
  • FIG. 3 is a diagram illustrating an example in which the one-dimensional distance sensor 110 is disposed on the headrest 15 of the driving seat 150.
  • FIG. 3A shows an example in which the one-dimensional distance sensors 110 are arranged at equal intervals in the horizontal direction and the vertical direction.
  • one row of one-dimensional distance sensors 110 is arranged in
  • the one-dimensional distance sensor 110 is arranged so as to follow the shape of the head. In this case, it specializes in the detection of roll motion with the neck as the rotation axis. According to the examples of FIGS. 3B and 3C, it is possible to perform measurement that can accurately estimate the position of one eye even if the number of distance sensors 110 is small.
  • FIG. 4 is a diagram for explaining the distance information acquired by the distance sensor 11.
  • FIG. 4A is a diagram illustrating distance information acquired by the one-dimensional distance sensor 110 arranged in the horizontal direction.
  • FIG. 4B is a diagram for explaining distance information acquired by the one-dimensional distance sensor 110 arranged in the vertical direction.
  • the distance sensor 11 measures a distance 31 from each one-dimensional distance sensor 110 to the head of the driver 1 and sends the distance 31 to the estimation unit 12.
  • the estimation unit 12 converts the distance information obtained from the one-dimensional distance sensor 110 arranged in an array as shown in FIG. 3 into a three-dimensional graph.
  • Each of the three-dimensional components indicates a position in the horizontal direction (X direction) and a position in the vertical direction (Y direction) on the arrangement surface of the one-dimensional distance sensor 110, and a distance 31 from the one-dimensional distance sensor 110.
  • the position of the one-dimensional distance sensor 110 and the measured distance 31 are fitted to a three-dimensional curved surface to approximate the shape of the driver's 1 head.
  • coordinates hereinafter referred to as peak coordinates
  • the curved surface fitting uses a Gaussian function fitting or a least square method.
  • FIG. 5 is a diagram for explaining a method for estimating the position of one eye from the calculated peak coordinates.
  • FIGS. 5A and 5B are diagrams showing a method of measuring the position 42 of one eye from the result of curved surface fitting calculated when the position of the head is different.
  • Contour lines 41 corresponding to the distance 31 are created on the XY plane at arbitrary intervals with the estimated peak coordinates 40 as vertices. Then, a straight line A that passes through the peak coordinates 40 and has the longest interval width 43 between the contour lines 41 is calculated.
  • the straight line A is calculated by calculating the straight line having the longest distance between the two intersections between the straight line passing through the peak coordinates 40 and the contour line 41 with respect to all the contour lines 41, and calculating all the calculated straight lines.
  • the average may be a straight line A.
  • FIG. 5 shows an example in which a plurality of contour lines 41 are obtained. However, a contour line 41 that passes through the half value of the value of the z component of the peak coordinate 40 and the maximum value of the z component is obtained, and a straight line passing through the peak coordinate 40 is obtained. A straight line having the longest intersection point with the contour line 41 may be obtained as the straight line A.
  • the straight line A is perpendicular to the straight line A, and a straight line B passing through the peak coordinates 40 is obtained.
  • the vicinity of the midline of the back of the head is the most prominent, and the head has a shape that is long in the midline direction. Therefore, it can be regarded as a straight line indicating the calculated straight line A driver 1 head inclination.
  • the straight line A is estimated as the head midline, and a straight line B that passes through the peak coordinates 40 and is orthogonal to the straight line A is calculated. It can be estimated that the eyeball is on the straight line B.
  • a position moved on the straight line B by a preset value from the peak coordinate 40 is estimated as a position 42 where the eyeball exists.
  • the position 42 of the eyeball can be estimated that the eyeball is located at a position moved 32.5 millimeters, for example, on the left or right side of the head midline.
  • the position 42 of the eyeball can be estimated by appropriately changing the distance from the peak coordinate 40.
  • the processing cost can be suppressed and the IC can be replaced with an inexpensive one.
  • the robustness of the estimation accuracy is improved against noise caused by light.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Instrument Panels (AREA)

Abstract

 投影部は、映像を含む光を投影する。観察者の頭部までの距離を測定する距離センサが複数設けられている。推定部は、複数の距離センサが測定した観察者の頭部まで距離に基づいて、観察者の投影目標位置を推定する。制御部は投影目標位置に応じて、投影部が光を投影する方向を調整する。

Description

表示装置、車両
 本発明は、観察者の眼に映像を照射する表示装置、車両に関する。
 車載用の表示装置として、車両速度や進行方向指示等の運行情報をフロントガラスに投影して観視可能とし、外界情報と運行情報とを同時に視認可能とするヘッドアップディスプレイHUD(Head-Up Display)がある。通常のHUDは両眼で表示像を観察するが、視認性の向上のために、片眼で表示像を視認する単眼HUDが提案されている。
 単眼HUDでは表示領域が狭まっているため、頭部の移動によって映像が見えなくなってしまう場合がある。そのため、表示領域と目との位置あわせが重要となる。そのため、観視者を撮像した画像から片目位置を推定し、その位置に映像を照射させる手法がある(例えば特許文献1)。
特開2009-128565号 公報
 従来、カメラで撮像した映像に画像処理を施し、顔や目の位置を推定していた。この手法では、画像処理をするICをハイスペックな物にする必要や、カメラで取得する画像が光の影響を多大に受けて画像処理がロバストに処理できないという問題があった。
 上述した課題を解決するため、映像を含む光を投影する投影部と、観察者の頭部までの距離を測定する複数の距離センサと、複数の前記距離センサが測定した前記観察者の頭部まで距離に基づいて、前記観察者に対する投影目標位置を推定する推定部と、前記投影目標位置に応じて、前記投影部が光を投影する方向を変更する制御部と、を備える表示装置及び前記表示装置が搭載された車両を提供する。
 複数の距離センサによる測定結果から眼球位置を推定するため、光によるノイズにも強くロバスト性も向上する。
本実施形態の表示装置の使用状態を例示する図。 第1の実施形態の表示装置を示す図。 距離センサの配置方法の例を示す図。 距離センサの測定結果の模式図。 片眼位置を推定する方法を説明する図。
 以下、本発明の実施形態について説明する。なお、互いに同様の動作をする構成や処理には共通の符号を付して、重複する説明は省略する。
 (第1の実施形態)
 本実施形態では、表示装置50が車両に搭載され、車両の進行方向に表示映像を投影する。ここでは映像を見る観察者は運転者である例について説明する。また、投影目標位置を運転者の片眼の位置とする例について述べる。
 図1は、本実施形態の表示装置50の使用方法を例示する図である。表示映像510は、図1に表したように、例えば、車両の現在位置511、周辺の建物710の情報等512、進路の表示矢印513、速度や燃料等の車両情報514等を含み、これらの表示映像510をフロントガラス17の一部に設けられた反射部(図示せず)に投影して表示する。それによって、運転者1は外界映像520と表示映像510を同時に見ることができる。
 図2は、本実施形態の表示装置50を示す図である。表示装置50は、ヘッドレスト15に設けられた運転者1の頭部までの距離31を測る距離センサ11と、距離センサ11が測った距離31から運転者1の片眼の位置を推定する推定部12と、画像2を投影する投影部14と、片眼の位置に応じて投影部14を制御する制御部13と、フロントガラス17に設けられ投影部14からの光を反射する反射層18と、を備える。反射層18に投影された像を運転者1は片眼を通じて視認することができ、表示装置50はHUDとして使用できる。表示装置50は、距離センサ11を用いて運転者1の片眼の位置を推定し、画像2が運転者1の片眼の位置に正しく投影されるうように投影部14が調整している。
 距離センサ11は、複数の1次元距離センサ110をヘッドレスト15の一面に2次元的に配置することが好ましい。1次元距離センサ110は、超音波センサ、PSD (Position Sensitive Detector)センサ、レーザーなどを用いる。例えばPSDセンサであれば、1次元距離センサ110の前面から物体までの距離が電圧値として出力される。出力電圧が高い程、1次元距離センサ110と物体の距離が短く、電圧が低い程、1次元距離センサ110と物体との距離が長いと測定される。なお、PSDセンサは計測可能な距離のレンジがある。1次元距離センサ110として使用する場合は、運転者1の頭部までの距離をあらかじめ計測し、適切な範囲を測定可能なセンサを選択する必要がある。
 推定部12は、距離センサ11が測定した運転者1の頭部までの距離31の分布に基づいて、運転者1の頭部の形状を推定し、推定される形状から運転手1の片眼の位置を推定する。
 投影部14として、例えば液晶表示装置やDMD(Digital Micromirror Device)、MEMS(Micro-electro-mechanical System)等の各種光スイッチを用いることができる。本実施形態では液晶表示装置を用いた例を示す。
 投影部14は、光源141と、レンズ142と、閉口絞り143と、レンズ144と、液晶パネル145と、凹面状の可動式のミラー146と、ミラー146の角度を制御するモーターである駆動部147と、非球面フレネルレンズ148を備える。入力画像2を投影部14によって投影する。
 光源141としては、LED(Light Emitting Diode)や高圧水銀ランプ、ハロゲンランプ、レーザーなどが用いられる。LEDを用いると装置を小型化できる。
 制御部13は、光源141の光量を制御し、液晶パネル145に画像2を表示させる。また、推定部12が推定した片眼の位置に応じて駆動部147を制御することにより、ミラー146の角度を調整する。ミラー146の角度を変えることで投影部14からの光の投影位置を適切に制御することが可能である。距離センサ11によって、運転者1の頭部までの距離31をリアルタイムで測定する。距離センサ11の測定結果に応じて、推定部12は片眼の位置を逐次推定する。制御部13は、片眼の位置に応じてミラー146の角度を変更するよう駆動部147を制御する。それによって運転者1が頭部を動かした際にも、それに自動的に追従して、映像の投影位置が眼球の位置となるように制御することが可能となる。
 図3は、1次元距離センサ110が運転シート150のヘッドレスト15に配置される例を示した図である。図3(a)の例は、水平方向・垂直方向に等間隔で1次元距離センサ110を配した例を示す。図3(b)の例は、垂直方向の中心位置を通る水平方向に1列の1次元距離センサ110を配しており、その両端で水平方向に1列ずつ垂直に1次元距離センサ110を配している。この配置は、頭部の水平移動の検出に好適である。水平方向に垂直に配置されたセンサラインはセンサは一面の中央や端など任意の位置に配置される。図3(c)の例は、頭部の形に添うように、1次元距離センサ110を配している。この場合は、首を回転軸としたロール運動の検出に特化している。図3(b)(c)の例によれば、距離センサ110の数を少なくても精度良く片眼の位置を推定できる測定をすることができる。
 図4は、距離センサ11が取得する距離情報を説明する図である。図4(a)は、水平方向に配された1次元距離センサ110が取得する距離情報を説明する図である。図4(b)は、垂直方向に配された1次元距離センサ110が取得する距離情報を説明する図である。距離センサ11は、それぞれの1次元距離センサ110から、運転者1の頭部までの距離31を測定し、推定部12に送る。
 次に、距離センサ11から得られた距離情報から、片眼の位置を推定する方法について説明する。推定部12は、図3のようにアレイ状に配置された1次元距離センサ110から得られる距離情報を3次元グラフ化する。3次元の各成分は、1次元距離センサ110の配置面での水平方向(X方向)の位置と垂直方向(Y方向)の位置と、1次元距離センサ110からの距離31を示す。1次元距離センサ110の位置と、測定した距離31とを、3次元曲面にフィッティングし、運転者1の頭部の形状を近似する。フィッティングされた結果、距離センサ110の配置面との距離が最も短くなると推定される座標(以下、ピーク座標と記載)を算出する。曲面フィッティングは、ガウシアン関数でのフィッティングや、最小二乗法などを用いる。
 図5は、算出したピーク座標から、片眼の位置を推定する方法について説明する図である。図5(a)、図5(b)は、それぞれ頭部の位置が異なる場合に算出された曲面フィッティングの結果から片眼の位置42を測定する方法を示す図である。それぞれ推定されたピーク座標40を頂点として、距離31に応じた等高線41を任意の間隔でXY平面上に作成する。そして、ピーク座標40を通り、等高線41の間隔の幅43が最も長くなる直線Aを算出する。なお、直線Aの算出方法は、ピーク座標40を通る直線と、等高線41との交点2点間の距離が最長になる直線を全ての等高線41に対して算出し、算出された全ての直線の平均を直線Aとしても良い。図5では、複数の等高線41を求める例について示したが、ピーク座標40のz成分の値と、z成分の最大値との半値の値を通る等高線41を求め、ピーク座標40を通る直線であり、かつ等高線41との交点の長さが最長になる直線を直線Aとして求めても良い。
 次に、直線Aと直行し、ピーク座標40を通る直線Bを求める。人体の頭部の形状を考慮すると後頭部の正中線付近が一番突起しておりさらに、頭部は正中線方向に長い形状となる。そのため、算出された直線A運転者1の頭部の傾きを示す直線とみなすことが出来る。直線Aを頭部正中線と推定し、ピーク座標40を通り直線Aと直行する直線Bを算出する。眼球は直線B上にあると推定することが出来る。ピーク座標40からあらかじめ設定された値だけ直線B上を移動した位置を、眼球が存在する位置42と推定する。眼球の位置42は、頭部正中線から左右どちらかに例えば、日本人では32.5ミリメートル移動した所に眼球があると推定することが出来る。また運転者1が、日本人以外の場合にはピーク座標40からの距離を適宜変更することで眼球の位置42を推定することが出来る。
 本実施形態の表示装置では、1次元の距離センサによる測定結果によって眼球位置を推定することで、処理コストが抑えられICも安価なもので代用可能となる。また、光によるノイズにも強く推定精度のロバスト性も向上する。
1・・・運転者
50・・・表示装置

2・・・入力画像
11、110・・・距離センサ、12・・・推定部、13・・・制御部、
14・・・投影部、141・・・光源、142・・・レンズ、147・・・閉口絞り、144・・・レンズ、145・・・液晶パネル、146・・・ミラー、147・・・駆動部、148・・・非球面フレネルレンズ、
15・・・ヘッドレスト、17・・・フロントガラス、18・・・反射層
150・・・運転シート

Claims (6)

  1. 映像を含む光を投影する投影部と、
    観察者の頭部までの距離を測定する複数の距離センサと、
    複数の前記距離センサが測定した前記観察者の頭部まで距離に基づいて、前記観察者に対する投影目標位置を推定する推定部と、
    前記投影目標位置に応じて、前記投影部が光を投影する方向を変更する制御部と、
    を備える表示装置。
  2. 前記推定部は、前記観察者の頭部の正中線と、前記距離センサまでの距離が最小となるピーク位置とを推定し、前記正中線と前記ピーク位置とに基づいて前記投影目標位置を推定することを特徴とする請求項1記載の表示装置。
  3. 前記推定部は、
    (a)複数の前記距離センサが推定した頭部までの距離の分布を曲面に近似し、(b)前記曲面上で距離が最小となるピーク座標を算出し、(c)前記ピーク座標を通り、前記曲面上で距離の勾配がなだらかな直線を前記正中線と推定する
    ことを特徴とする請求項2記載の表示装置。
  4. 前記推定部は、前記曲面上で所定の幅の距離の等高線を求め、前記等高線毎に前記ピーク座標を通り前記等高線との交点間の距離が最長となる直線を算出し、算出された直線の平均を前記正中線と推定することを特徴とする請求項3記載の表示装置。
  5.  前記推定部は、前記正中線を示す直線と直行し、前記ピーク座標を通る直線上の位置に前記片眼があると推定することを特徴とする請求項4記載の表示装置。
  6.  請求項1に記載の表示装置と、
     前記投影部が投影する光を前記観察者に向けて反射させるフロントガラスと、
     複数の前記距離センサを備えたヘッドレストと、
     を備えたことを特徴とする車両。
PCT/JP2009/003706 2009-08-04 2009-08-04 表示装置、車両 WO2011016079A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/003706 WO2011016079A1 (ja) 2009-08-04 2009-08-04 表示装置、車両

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/003706 WO2011016079A1 (ja) 2009-08-04 2009-08-04 表示装置、車両

Publications (1)

Publication Number Publication Date
WO2011016079A1 true WO2011016079A1 (ja) 2011-02-10

Family

ID=43544004

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/003706 WO2011016079A1 (ja) 2009-08-04 2009-08-04 表示装置、車両

Country Status (1)

Country Link
WO (1) WO2011016079A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173253A (ja) * 2011-02-24 2012-09-10 Toshiba Corp 車載用頭部位置検出装置、車載用表示装置及び運転支援装置
US8928983B2 (en) 2012-01-31 2015-01-06 Kabushiki Kaisha Toshiba Display apparatus, moving body, and method for mounting display apparatus
US8970453B2 (en) 2009-12-08 2015-03-03 Kabushiki Kaisha Toshiba Display apparatus, display method, and vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60152966A (ja) * 1984-01-20 1985-08-12 Nippon Denso Co Ltd 車両運転者位置認識装置
JPS61133436U (ja) * 1985-02-08 1986-08-20
JP2001116841A (ja) * 1991-04-15 2001-04-27 Mitsubishi Electric Corp 乗員検知装置
JP2003341383A (ja) * 2002-05-29 2003-12-03 Denso Corp 車両用表示装置
JP2008290527A (ja) * 2007-05-23 2008-12-04 Panasonic Corp 車両用眩惑防止システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60152966A (ja) * 1984-01-20 1985-08-12 Nippon Denso Co Ltd 車両運転者位置認識装置
JPS61133436U (ja) * 1985-02-08 1986-08-20
JP2001116841A (ja) * 1991-04-15 2001-04-27 Mitsubishi Electric Corp 乗員検知装置
JP2003341383A (ja) * 2002-05-29 2003-12-03 Denso Corp 車両用表示装置
JP2008290527A (ja) * 2007-05-23 2008-12-04 Panasonic Corp 車両用眩惑防止システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8970453B2 (en) 2009-12-08 2015-03-03 Kabushiki Kaisha Toshiba Display apparatus, display method, and vehicle
JP2012173253A (ja) * 2011-02-24 2012-09-10 Toshiba Corp 車載用頭部位置検出装置、車載用表示装置及び運転支援装置
US8928983B2 (en) 2012-01-31 2015-01-06 Kabushiki Kaisha Toshiba Display apparatus, moving body, and method for mounting display apparatus

Similar Documents

Publication Publication Date Title
JP6470335B2 (ja) 車両の表示システム及び車両の表示システムの制御方法
US10976545B2 (en) Display device and adjustment method
US10705334B2 (en) Display device, display method and display medium
JP5204309B2 (ja) 表示装置およびその制御方法
JP6377508B2 (ja) 表示装置、制御方法、プログラム、及び記憶媒体
WO2015064080A1 (ja) 視線方向検出装置および視線方向検出方法
US20170046880A1 (en) Display device and display method
JP2005247224A (ja) 車両用表示装置
US20180264941A1 (en) Vehicle display system and method of controlling vehicle display system
JP6674793B2 (ja) 運転支援情報表示装置
JP3819292B2 (ja) 人物状態判別装置
JP2014010409A (ja) 投射型ディスプレイ装置
WO2011016079A1 (ja) 表示装置、車両
US20200055399A1 (en) Head-Up Display Apparatus
EP3657232B1 (en) Display device, display system, and mobile object
JP2003341383A (ja) 車両用表示装置
US11619811B2 (en) Image display system, moving body, image display method, and program
JP5039185B2 (ja) 表示装置
JP7062038B2 (ja) 虚像表示装置
GB2536882A (en) Head up display adjustment
JP2982377B2 (ja) 障害物表示装置
JP6726883B2 (ja) 表示システム、移動体、及び表示システムの制御方法
WO2019138970A1 (ja) 投影距離測定方法及び装置
JP2019191368A (ja) 虚像表示装置、およびヘッドアップディスプレイ装置
JP7253719B2 (ja) 表示装置を備える車両

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09848013

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09848013

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP