JP2020083280A - Image display system, movable body, image display method, and image display device - Google Patents
Image display system, movable body, image display method, and image display device Download PDFInfo
- Publication number
- JP2020083280A JP2020083280A JP2018225797A JP2018225797A JP2020083280A JP 2020083280 A JP2020083280 A JP 2020083280A JP 2018225797 A JP2018225797 A JP 2018225797A JP 2018225797 A JP2018225797 A JP 2018225797A JP 2020083280 A JP2020083280 A JP 2020083280A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- unit
- vehicle
- moving body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 33
- 238000003384 imaging method Methods 0.000 claims abstract description 44
- 238000001514 detection method Methods 0.000 claims description 100
- 230000008569 process Effects 0.000 claims description 18
- 230000003190 augmentative effect Effects 0.000 abstract description 5
- 210000003128 head Anatomy 0.000 description 68
- 238000010586 diagram Methods 0.000 description 46
- 238000012545 processing Methods 0.000 description 40
- 238000005096 rolling process Methods 0.000 description 19
- 230000008859 change Effects 0.000 description 17
- 238000012937 correction Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 238000006073 displacement reaction Methods 0.000 description 8
- 239000000203 mixture Substances 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 230000004907 flux Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Abstract
Description
本発明は、画像表示システム、移動体、画像表示方法、及び画像表示装置に関する。 The present invention relates to an image display system, a moving body, an image display method, and an image display device.
従来から、車両等の移動体に設けられ、運転者等の乗員の視界に直接画像を投射するヘッドアップディスプレイ(以降、HUDという)が知られている。 2. Description of the Related Art A head-up display (hereinafter referred to as HUD), which is provided in a moving body such as a vehicle and projects an image directly on the field of view of an occupant such as a driver, has been known.
またHUDでは、加速度センサにより検出された車両の振動情報と、撮像部により取得された乗員の姿勢情報とに応じてHUDの画像の投射位置を補正して、拡張現実(AR:Augmented Reality)感のある画像を表示する技術が開示されている(例えば、特許文献1参照)。 In the HUD, the projection position of the image of the HUD is corrected according to the vibration information of the vehicle detected by the acceleration sensor and the posture information of the occupant acquired by the image capturing unit to obtain an augmented reality (AR) feeling. A technique for displaying a certain image is disclosed (for example, refer to Patent Document 1).
しかしながら、特許文献1の技術では、加速度センサと撮像部という異なる構成要素がそれぞれ出力した情報に基づき、HUDの画像の投射位置を補正しているため、加速度センサと撮像部の出力の相互関係を校正する必要があり、手間がかかる場合があった。
However, in the technique of
本発明は、上記に鑑みてなされたものであり、校正の手間をかけずに、拡張現実感のある画像表示を行うことを課題とする。 The present invention has been made in view of the above, and an object of the present invention is to display an image with augmented reality without the trouble of calibration.
開示の技術の一態様に係る画像表示システムは、撮像装置と、画像表示装置と、を有し、移動体に設けられる画像表示システムであって、前記撮像装置は、前記移動体の乗員の頭部と、前記移動体の外部と、が同一画像内に含まれている画像を撮像する撮像部を有し、前記画像表示装置は、表示画像を生成する画像生成部と、生成された前記表示画像を、前記乗員による視認の際に前記移動体の外部と重なる位置に表示する画像表示部と、前記画像に応じて、前記表示画像を表示する位置及び傾きの少なくとも1つを変更する変更部と、を有する。 An image display system according to an aspect of the disclosed technology is an image display system that includes an imaging device and an image display device and is provided in a moving body, wherein the imaging device is a head of an occupant of the moving body. And an outside of the moving body have an image pickup unit that picks up an image included in the same image, and the image display device includes an image generation unit that generates a display image, and the generated display. An image display unit that displays an image at a position overlapping the outside of the moving body when visually recognized by the occupant, and a changing unit that changes at least one of a position and an inclination at which the display image is displayed according to the image. And have.
開示の技術によれば、校正の手間をかけずに、拡張現実感のある画像表示を行うことができる。 According to the disclosed technology, it is possible to display an image with an augmented reality without the need for calibration.
以下、図面を参照して発明を実施するための形態について説明する。各図面において、同一の構成部分には同一符号を付し、重複した説明を省略する場合がある。 Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In each drawing, the same reference numerals are given to the same components, and duplicate description may be omitted.
実施形態に係る画像表示システムは、撮像装置と、画像表示装置とを有し、車両等の移動体に設けられるシステムである。実施形態では、移動体の一例である車両に、撮像装置の一例である広角カメラと、画像表示装置の一例であるヘッドアップディスプレイ(以降、HUDという)とが搭載される例を説明する。 The image display system according to the embodiment is a system that includes an imaging device and an image display device and is provided in a moving body such as a vehicle. In the embodiment, an example will be described in which a vehicle, which is an example of a moving body, is provided with a wide-angle camera, which is an example of an image capturing device, and a head-up display (hereinafter, referred to as HUD), which is an example of an image display device.
<HUDの構成>
先ず、実施形態に係るHUDの構成について説明する。
<HUD configuration>
First, the configuration of the HUD according to the embodiment will be described.
HUDは、搭載された車両のフロントガラスを介して、車両の操縦に必要なナビゲーション情報を、車両の運転者(乗員の一例)に視認可能に表示する画像表示装置である。ここで、ナビゲーション情報とは、車両の速度、進路情報、目的地までの距離、現在地名称、車両前方における物体の有無や位置、制限速度等の標識、渋滞情報等の情報である。HUDにより表示されるナビゲーション情報を含む画像は、「表示画像」の一例であり、以降では単に表示画像という。 The HUD is an image display device that visually displays navigation information necessary for operating the vehicle to a driver (an example of an occupant) of the vehicle through a windshield of the mounted vehicle. Here, the navigation information is information such as the speed of the vehicle, route information, distance to the destination, current location name, presence/absence or position of an object in front of the vehicle, signs such as speed limits, and traffic jam information. The image including the navigation information displayed by the HUD is an example of “display image”, and will be simply referred to as a display image hereinafter.
図1は、実施形態に係るHUDの構成の一例を説明する図であり、(a)はHUDの車両への配置の一例を説明する図であり、(b)は車両のピッチング角、ヨー角、及びロール角を説明する図である。 FIG. 1 is a diagram illustrating an example of a configuration of a HUD according to an embodiment, FIG. 1A is a diagram illustrating an example of arrangement of a HUD in a vehicle, and FIG. 1B is a pitching angle and a yaw angle of the vehicle. It is a figure explaining a roll angle.
図1(a)に示すように、HUD100は、車両120に搭載されており、処理部101と、画像表示部102とを有している。
As shown in FIG. 1A, the
処理部101は、上述のナビゲーション情報を含む表示画像を生成し、画像表示部102に出力する機能を有する。なお、処理部101は、車両120内の任意の位置に配置することができる。
The
画像表示部102は、車両120内で処理部101が生成した表示画像を、運転者130の視界に虚像として重畳して表示する機能を有する。換言すると、画像表示部102は入力した表示画像を運転者130による視認の際に車両120の外部と重なる位置に表示することができる。
The
画像表示部102は、車両120のインテリアデザインに準拠して任意の位置に配置してよく、車両120内のダッシュボード上に配置することができる。画像表示部102を車両120内の天井部等に配置してもよい。或いは、画像表示部102をダッシュボード内に埋め込んでもよい。
The
より詳しくは、画像表示部102は、内部で生成した中間像をミラーやレンズ等で拡大虚像表示し、運転者130の視点から所定の距離感を持って画像を表示することができる。
More specifically, the
画像表示部102の実現形態としては、液晶パネル、DMD(Digital Micro-mirror Device)パネル、蛍光表示管(VFD;Vacuum Fluorescent Display)のようなイメージングデバイスで中間像を形成する「パネル方式」と、レーザ光源から射出されたレーザビームを2次元走査デバイスで走査し、中間像を形成する「レーザ走査方式」等があるが、実施形態では何れの形態を用いてもよい。
The
但し、レーザ走査方式は、虚像の広角化が可能であること、外光に対してロバストな高輝度画像を表示できることから、実施形態において用いると好適である。実施形態では、レーザ走査方式の画像表示部102を例にして説明する。
However, the laser scanning method is suitable for use in the embodiment because it can widen the angle of the virtual image and can display a high-luminance image that is robust against external light. In the embodiment, the laser scanning
図1(b)は車両9のピッチング角、ヨー角、及びロール角を示している。移動体など前後・左右・上下が決まった物体が、前後の軸(図のZ軸)に対して回転(又は傾斜)することをローリング、左右の軸(図のX軸)に対して回転(又は傾斜)することをピッチング、上下軸(図のY軸)に対して回転(又は傾斜)することをヨーイングという。また、それぞれの回転量又は傾斜量をロール角、ピッチング角、ヨー角という。 FIG. 1B shows a pitching angle, a yaw angle, and a roll angle of the vehicle 9. Rolling (rotating or tilting) an object such as a moving object whose front, rear, left and right, and top and bottom are rotated (or tilted) about the front and rear axes (Z axis in the figure), and rotation about the left and right axes (X axis in the figure) ( Or tilting is called pitching, and rotating (or tilting) about the vertical axis (Y axis in the figure) is called yawing. In addition, each rotation amount or inclination amount is referred to as a roll angle, a pitching angle, or a yaw angle.
次に、図2は、実施形態に係る画像表示部の構成の一例を説明する図である。図2に示すように、画像表示部102は、光源部51と、光偏向器52と、第1ミラー53と、被走査面54と、第2ミラー55とを有する。なお、図2において、135は運転者130の眼球(以降、眼球135とする)を示し、160は虚像(以降、虚像160とする)を示している。
Next, FIG. 2 is a diagram illustrating an example of the configuration of the image display unit according to the embodiment. As shown in FIG. 2, the
光源部51は、RGBに対応した3つのレーザ光源、カップリングレンズ、アパーチャ、合成素子、レンズ等を備えており、3つのレーザ光源から出射されたレーザ光を合成して光偏向器52の反射面に向かって導く。光偏向器52の反射面に導かれたレーザ光は、光偏向器52により2次元的に偏向される。光源部51は、RGBに対応した3つのLD(Laser Diode)等で構成されている。
The
光偏向器52としては、直交する2軸に対して揺動する1つの微小なミラーや、1軸に揺動又は回動する2つの微小なミラー等を用いることができる。光偏向器52は、半導体プロセス等で作製されたMEMS(Micro Electro Mechanical Systems)とすることができる。光偏向器52は、圧電素子の変形力を駆動力とするアクチュエータにより駆動することができる。
As the
光偏向器52により2次元的に偏向された光束は、第1ミラー53に入射し、第1ミラー53により折り返されて被走査面54に2次元像を描画する。第1ミラー53としては、凹面ミラー等を用いることができる。また第1ミラー53の反射面をアナモフィックな形状にしてもよい。つまり、第1ミラー53の反射面は、所定方向の曲率と、それに直交する方向の曲率とが異なる形状の反射面とすることができる。第1ミラー53の反射面をアナモフィックな形状にすることにより、収差補正性能を向上させることができる。
The light beam deflected two-dimensionally by the
被走査面54は、第1ミラー53で反射された光束が入射して2次元像が形成される透過性を有する面である。被走査面54は、合成されたレーザ光を所望の発散角で発散させる機能を有しており、マイクロレンズアレイ構造等にすると好適である。被走査面54から射出された光束は、第2ミラー55及び透過反射部材59により拡大表示される。第2ミラー55としては、凹面ミラー等を用いることができる。画像表示部102は、レンズやプリズム等の透過型光学素子を具備してもよい。
The scanned
透過反射部材59は、可視域の透過率が10〜70%程度である鏡であり、第2ミラー55により折り返された光束が入射する側に、例えば、誘電体多層膜或いはワイヤーグリッド等が形成された反射面を有する。透過反射部材59の反射面は、レーザが出射する光束の波長帯を選択的に反射するものとすることができる。すなわち、RGBに対応した3つのレーザからの出射光を包含する反射ピークや反射バンドを有するものや、特定の偏向方向に対して反射率を強めるように形成されたものとすることができる。
The transmissive/reflecting
透過反射部材59は、車両120のフロントガラス125(図1参照)であっても良い。また、フロントガラス125とは異なる部材であってもよい。画像表示部102を車両120において運転者130の前方に配置することにより、透過反射部材59の反射面で反射された光束は、運転席にいる運転者130の眼球135へ入射する。そして、被走査面54の2次元像が、透過反射部材59の反射面よりも前方の所定の位置に拡大された虚像160として運転者130に視認される。
The
次に、HUD100が搭載される車両の画像表示システムの構成について説明する。図3Aは、HUDが搭載された車両の画像表示システムの構成の一例を説明するブロック図である。
Next, the configuration of the image display system of the vehicle in which the
画像表示システム1はCAN(Controller Area Network)バスなどの車載ネットワークNWを介して通信する舵角センサ61と、着座センサ62と、車速センサ63と、HUD100と、広角カメラ200とを有する。
The
舵角センサ61は、運転者によるステアリングホイールの操舵角を検出するセンサである。主に操舵の方向と操舵量を検出する。どのような原理で検出してもよいが例えば、ステアリングホイールと連動して回転するスリット円盤を通過する光のON/OFFをカウントするものがある。
The
着座センサ62は車両の座席ごとに乗員が着座しているか否かを検出するセンサである。例えば、シート内に設置された圧力検知センサ、又は赤外線センサなどにより着座の有無を検出する。車室内を撮像するカメラにより検出してもよい。
The
車速センサ63は、例えば車輪の回転をホール素子などで検出し、回転速度に応じたパルス波を出力する。単位時間の回転量(パルス数)とタイヤの外径とから車速を検出する。
The
HUD100は車載された各センサからの情報を取得できる。また、HUD100は車載ネットワークからではなく外部のネットワークからの情報を取得してもよい。例えば、GPS情報、操舵角、又は車速などを取得できる。操舵角、車速については、今後自動運転が実用化された場合、ITS(Intelligent Transport Systems)によって走行車両の位置姿勢や車速を観測して車載デバイスをコントロール可能であると考えられる。
The
広角カメラ200は、広角レンズを備えるカメラであり、車両120内の運転者130の頭部131と、運転者130の視界等の車両120の外部が同一画像内に含まれる検出画像を撮像することができる。この詳細については第1の実施形態において説明する。また、広角カメラ200に代えて、第2の実施形態で説明するステレオカメラ300がネットワークNWに接続されてもよい。
The wide-
次に、HUDの備える処理部のハードウェア構成について説明する。図3は、実施形態に係る処理部のハードウェア構成の一例を示すブロック図である。 Next, the hardware configuration of the processing unit included in the HUD will be described. FIG. 3 is a block diagram showing an example of the hardware configuration of the processing unit according to the embodiment.
処理部101は、CPU(Central Processing Unit)103と、ROM(Read Only Memory)104と、RAM(Random Access Memory)105と、入出力I/F(Inter/face)106と、SSD(Solid State Drive)107と、GPS(Global Positioning System)受信機108と、FPGA(Field-Programmable Gate Array)と、LDドライバ92と、MEMSコントローラ93とを有し、それぞれはバスBで相互に接続されている。
The
CPU103は、ROM104やSSD107等の記憶装置からプログラムやデータをRAM105上に読み出し、処理を実行することで、処理部101全体の制御や、別途図10等用いて説明する各種機能を実現する演算装置である。なお、CPU103の有する機能の一部、又は全部を、ASIC(application specific integrated circuit)やFPGA等のハードウェアにより実現させてもよい。
The
ROM104は、電源を切ってもプログラムやデータを保持することが可能な不揮発性の半導体メモリ(記憶装置)である。ROM104には、プログラムやデータが格納されている。
The
RAM105は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。RAM105には、CPU103が画像処理等の処理を実行するために画像データを一時保存する画像メモリが含まれている。
The
SSD107は、プログラムやデータを格納している不揮発性の記憶装置である。SSD107の代わりにHDD(Hard Disk Drive)等が設けられてもよい。
The
入出力I/F106は、後述する広角カメラ200等の外部機器と接続するためのインターフェースである。また、入出力I/F106を介して、処理部101はCANバス等の車載ネットワークに接続することができる。さらに、処理部101は入出力I/F106を介してPC(Personal Computer)や映像機器等の外部機器と接続してもよい。
The input/output I/
GPS受信機108は、GPS情報を受信する電気回路である。なお、CANバスを介してカーナビゲーションシステムが接続され、カーナビゲーションシステムからルートや方向等の情報が受信されるようにしても良い。また、カーナビゲーションシステムが、後述する地図情報記憶部110と、現在位置情報取得部111の機能を実現してもよい。
The
FPGA91は、CPU103が作成した画像に基づいてLDドライバ92を制御する。LDドライバ92は光源部51に電気的に接続され、光源部51のLDを駆動することで、画像に応じたLDの発光を制御する。
The
FPGA91は、画像の画素位置に応じた方向にレーザビームが偏向されるように、光偏向器52に電気的に接続されたMEMSコントローラ93により、光偏向器52を動作させる。
The
<HUDによる表示画像とその位置・傾きのずれ>
ここで、HUD100による表示画像について説明する。図4は実施形態に係る表示画像の一例を説明する図である。(a)はマークの表示画像の一例を説明する図であり、(b)は進路情報の表示画像の一例を説明する図である。
<Displacement of display image and its position/tilt due to HUD>
Here, a display image by the
図4では、フロントガラス125を通した運転者130の視界(車両120の前方の風景であり、以降では、単に運転者130の視界という)と、視界に重畳して表示された表示画像とが示されている。
In FIG. 4, a field of view of the
図4(a)では、道路150上に歩行者151が視認され、歩行者151の周囲に一点鎖線で示すマーク141が重畳して表示されている。このようにマーク141を運転者130の視界に重畳して表示することで、運転者130に歩行者151の存在を知らしめ、注意を喚起することができる。
In FIG. 4A, a
運転者130の視界でマーク141を表示させる位置は、車両120に搭載されたステレオカメラ等の前方認識手段の出力に基づき決定することができる。また、本実施形態では、後述するように、マーク141の位置及び傾きの少なくとも1つ(以降では、位置・傾きという)を広角カメラ200による画像に応じて変更することができる。
The position where the
一方、図4(b)では、十字路152が視認され、進路を矢印で示す進路情報142が十字路152に重畳して表示されている。このように、進路情報142を運転者130の視界に重畳して表示することで、運転者130に、十字路152で車両120を右折させるためのハンドル操作を促すことができる。
On the other hand, in FIG. 4B, the
右折や左折等の進路情報142の種類は、GPS等から提供される情報に基づき決定することができる。また、本実施形態では、後述するように、進路情報142の位置・傾きを広角カメラ200による画像に応じて変更することができる。
The type of the
ここで、車両120は、路面の凹凸やプレーキ操作、ハンドル操作等により、走行中にピッチングやローリング等の傾きの変化を起こす場合がある。そして車両120の傾きの変化により、運転者130の視界が変動し、運転者130の視界に対してHUD100による表示画像の位置・傾きがずれる場合がある。
Here, the
図5は、車両のピッチングによる表示画像の位置ずれの一例を説明する図である。図5(a)は車両のピッチングを説明する図であり、(b)は正常な表示画像を説明する図であり、(c)はピッチングによる表示画像の位置ずれを説明する図である。 FIG. 5 is a diagram illustrating an example of the positional deviation of the display image due to vehicle pitching. 5A is a diagram for explaining the pitching of the vehicle, FIG. 5B is a diagram for explaining a normal display image, and FIG. 5C is a diagram for explaining the positional deviation of the display image due to the pitching.
図5(a)に示すように、車両120の傾きがピッチングによって太矢印121aの方向に変化すると、運転者130の視界は相対的に太矢印121aの反対の方向に移動する。そのため、本来、図5(b)に示すように、車両120の前方の歩行者151の周囲にマーク141が表示されるところ、図5(c)に示すように、運転者130の視界が太矢印121bの方向に移動する。その結果、マーク141が歩行者151に対して相対的に位置ずれし、正しく表示されなくなる。なお、図5において、126はルームミラーを示し、150aは運転者130の視界に含まれる地平線を表している。
As shown in FIG. 5A, when the inclination of the
一方、図6は、車両のローリングによる表示画像の傾きずれの一例を説明する図である。図6(a)は車両のローリングを説明する図であり、(b)はローリングによる表示画像の傾きずれを説明する図である。 On the other hand, FIG. 6 is a diagram illustrating an example of a tilt shift of a display image due to rolling of the vehicle. FIG. 6A is a diagram for explaining rolling of the vehicle, and FIG. 6B is a diagram for explaining tilt deviation of a display image due to rolling.
図6(a)に示すように、車両120の傾きがローリングによって太矢印122aの方向に変化すると、運転者130の視界は相対的に太矢印122aの反対の方向に傾く。そして、図6(b)に示すように、運転者130の視界が太矢印122bの方向に傾く結果、マーク141が歩行者151に対して相対的な傾きずれをおこし、正しく表示されなくなる。
As shown in FIG. 6A, when the inclination of the
さらに、運転者130の頭部の位置や姿勢が変化した場合にも、運転者130の視界の位置や傾きは変化するため、上述のような表示画像の位置・傾きのずれが生じ得る。
Further, even when the position or posture of the head of the
図7は、運転者の頭部の移動による表示画像の位置ずれの一例を説明する図である。図7(a)は、運転者の頭部が含まれる画像を説明する図であり、(b)は頭部の移動を説明する図であり、(c)は頭部の移動による表示画像の位置ずれを説明する図である。 FIG. 7 is a diagram illustrating an example of the positional shift of the display image due to the movement of the driver's head. FIG. 7A is a diagram for explaining an image including the driver's head, FIG. 7B is a diagram for explaining movement of the head, and FIG. 7C is a diagram of a display image due to movement of the head. It is a figure explaining a position gap.
図7(a)において、運転者130は車両120の運転席に着座し、フロントガラス125を通して車両120の前方の風景を視認しながら車両120を運転している。ここで、車両120の前方の風景は、「移動体の外部」の一例である。但し、「移動体の外部」は前方の風景に限定されるものではなく、車両120の傾きが検出出来れば、車両120の後方や側方であってもよい。
In FIG. 7A, the
図7(a)の状態の場合に、図7(b)に示すように、運転者130の頭部131が太矢印123aの方向に移動すると、運転者130の視界は相対的に太矢印123bの反対の方向に移動する。そして、図7(c)に示すように、運転者130の視界が太矢印123bの方向に移動する結果、マーク141が歩行者151に対して相対的に位置ずれし、正しく表示されなくなる。
In the case of the state of FIG. 7A, when the
以上のことから、本実施形態に係る画像表示システム1は、運転者130の頭部131と、車両120の外部とが同一画像内(同一フレーム内。同一視野内)に含まれる画像を撮像する広角カメラ200を有する。広角カメラ200による画像は、「移動体の乗員の頭部と、移動体の外部と、が同一画像内に含まれている画像」の一例であり、また「入力画像」の一例である。以下では、広角カメラ200による画像を検出画像という。
From the above, the
広角カメラ200による検出画像に基づき、マーク141や進路情報142等の表示画像の位置・傾きを変更し、位置・傾きずれを補正する。以下に、その詳細を説明する。
Based on the image detected by the wide-
[第1の実施形態]
<広角カメラの構成>
図8は、本実施形態に係る広角カメラの車両への配置の一例を説明する図である。図8(a)は車両の側面図であり、(b)は車両の上面図である。図8に示すように、広角カメラ200は、車両120内の天井の中央部分に固定されている。
[First Embodiment]
<Structure of wide-angle camera>
FIG. 8 is a diagram illustrating an example of the arrangement of the wide-angle camera according to this embodiment in a vehicle. FIG. 8A is a side view of the vehicle, and FIG. 8B is a top view of the vehicle. As shown in FIG. 8, the wide-
この部分にはルームライトが配置される場合があるが、広角カメラ200はその近傍に配置されてもよいし、ルームライトに代えて配置されてもよい。或いはルームライトと広角カメラ200とを一体にした構成としてもよい。
A room light may be arranged in this portion, but the wide-
但し、広角カメラ200の固定位置は、上記の部分に限定されるものではなく、ルームミラー126の近傍等でもよい。またルームミラー126と広角カメラ200とを一体にした構成としてもよい。
However, the fixed position of the wide-
広角カメラ200は、広角レンズを備えるカメラであり、上述のように、車両120内の運転者130の頭部131と、運転者130の視界等の車両120の外部が同一画像内に含まれる検出画像を撮像することができる。
The wide-
但し、これに限定されるものではなく、運転者130の頭部131と車両120の外部が同一画像内に含まれる検出画像を撮像できるものであれば、撮像装置に必ずしも広角カメラを用いなくてもよい。
However, the present invention is not limited to this, and if the
一方で、撮像装置が180度以上の視野角のレンズを備えるカメラであれば、ルームミラー126の近傍に撮像装置を配置した場合にも、車両120内の運転者130の頭部131と運転者130の視界とを同一画像内に収めることができる。なお、この場合、運転者130はルームミラー126に対して右斜め後方、又は左斜め後方に位置することになるため、両方を視野に含めるために、撮像装置を運転者130に向けて配置する必要がある。
On the other hand, if the image pickup device is a camera having a lens with a viewing angle of 180 degrees or more, even when the image pickup device is arranged near the
また、撮像装置が360度の視野角のレンズを備えるカメラであれば、ルームミラー126の近傍に撮像装置を配置した場合にも、撮像装置を運転者130に向けて配置することなく、運転者130の頭部131と前方の風景とを同一画像内に収めることができる。
Further, if the image pickup device is a camera having a lens with a viewing angle of 360 degrees, even if the image pickup device is arranged in the vicinity of the
他に、撮像装置に広角、或いは超広角レンズを備えるカメラを用いることで、フロントガラス125だけでなく、サイドウィンドウやリヤウィンドウを通した車両120の外部の風景も運転者130の頭部131と同一画像内に収めることができる。そして、これらの情報を、表示画像の位置・傾きのずれの補正のさらなる高精度化等に利用することができる。
In addition, by using a camera having a wide-angle lens or an ultra-wide-angle lens as the image pickup device, not only the
次に、本実施形態に係る検出画像について説明する。 Next, the detected image according to this embodiment will be described.
図9は、本実施形態に係る検出画像の一例を説明する図である。(a)は同一画像内に車両の外部と運転者の頭部が含まれる検出画像を説明する図であり、(b)は車両の外部の詳細を説明する拡大図である。 FIG. 9 is a diagram illustrating an example of a detected image according to this embodiment. (A) is a figure explaining the detection image in which the exterior of a vehicle and a driver's head are contained in the same image, and (b) is an enlarged view explaining the details of the exterior of a vehicle.
図9(a)に示すように、検出画像には運転者130の頭部131と、フロントガラス125が含まれている。また図9(b)に示すように、検出画像には、運転者130の視界であるフロントガラス125を通した前方の風景が含まれている。
As shown in FIG. 9A, the detected image includes the
本実施形態では、このような検出画像に基づき、以下に説明する機能構成により、運転者130の視界に対する表示画像のずれを補正することができる。
In the present embodiment, the shift of the display image with respect to the visual field of the
<第1の実施形態に係る画像表示システムの機能構成>
図10は、本実施形態に係る画像表示システムの機能構成の一例を説明するブロック図である。なお、図10の各機能ブロックは概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。各機能ブロックの全部又は一部を、任意の単位で機能的又は物理的に分散・結合して構成してもよい。
<Functional configuration of the image display system according to the first embodiment>
FIG. 10 is a block diagram illustrating an example of the functional configuration of the image display system according to this embodiment. The functional blocks in FIG. 10 are conceptual and do not necessarily have to be physically configured as illustrated. All or a part of each functional block may be functionally or physically dispersed or combined in arbitrary units.
図10に示すように、画像表示システム1はHUD100と、広角カメラ200とを有している。また広角カメラ200は、撮像部210と、画像出力部211とを有している。広角カメラ200は、撮像部210により撮像された検出画像を、画像出力部211を介してHUD100に出力する機能を有する。
As shown in FIG. 10, the
撮像部210は、被写体像を結像させる広角レンズと、結像された被写体像を撮像する撮像素子と、撮像素子を制御する撮像制御部とを有している。広角レンズは、レンズ等の複数の光学素子を用いて構成することができる。
The
撮像素子には、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor Device)等を用いることができる。撮像制御部は、撮像素子の露光制御、画像読み出し制御、外部回路との通信、及び画像データの送信制御等を行う電気回路により実現できる。なお、撮像制御部は、CPUやROM等を含んで構成されてもよい。 A CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor Device), or the like can be used as the image sensor. The image pickup control unit can be realized by an electric circuit that controls exposure of the image pickup element, image reading control, communication with an external circuit, transmission control of image data, and the like. The imaging control unit may be configured to include a CPU, a ROM and the like.
画像出力部211は、HUD100等の外部機器に向けてデータや信号を送信する機能を有し、インターフェースを行う電気回路等により実現できる。尚、画像出力部211は「出力部」の一例である。
The
一方で、HUD100は、処理部101と、画像表示部102とを有し、また処理部101は、検出部109と、地図情報記憶部110と、現在位置情報取得部111と、画像生成部112と、変更部113とを有している。
On the other hand, the
検出部109は、検出画像入力部114と、車両傾き検出部115と、頭部位置・姿勢検出部116と、物体検出部117とを有している。検出画像入力部114は広角カメラ200から入力した検出画像を、車両傾き検出部115、及び頭部位置・姿勢検出部116に出力することができる。検出画像入力部114は入出力I/F106により実現できる。
The
車両傾き検出部115は、入力した検出画像に対して画像処理を実行し、車両120の傾きを検出する機能を有する。
The vehicle
一例として、車両傾き検出部115は、検出画像に含まれている地平線150a(図5(b)等参照)の検出画像内での位置(座標)と傾きを検出する。検出画像内での地平線150aの位置と傾きは、相対的には地平線150aに対する広角カメラ200の傾きを意味し、また広角カメラ200は車両120に固定されているため、広角カメラ200の傾きは車両120の傾き、すなわちピッチング及びローリングを意味する。図5及び図6で説明したように、車両120のピッチングにより地平線150aの位置が変化し、車両120のローリングにより地平線150aの傾きが変化する。
As an example, the vehicle
従って、車両傾き検出部115は、検出画像内での地平線150aの位置を検出することで、車両120のピッチングを検出し、地平線150aの傾きを検出することで車両120のローリングを検出することができる。
Therefore, the vehicle
一例として、走行中にほとんど変化しない地平線150aの位置が車両120のピッチングがない状態を示し、これに対する地平線150aの位置の変化が、車両120のピッチングとして検出される。
As an example, the position of the
同様に、走行中にほとんど変化しない地平線150aの傾きが車両120のローリングがない状態を示し、これに対する地平線150aの傾きの変化が車両120のローリングとして検出される。
Similarly, the inclination of the
また検出画像は広角カメラ200の撮像周期(フレームレート)により時系列で撮像されるため、車両傾き検出部115は、地平線150aに対する車両120のピッチング及びローリング(以降では、両者を区別しない場合は併せて傾きという)の時間変化を撮像周期に合わせて検出することができる。
In addition, since the detected image is captured in time series at the imaging cycle (frame rate) of the wide-
検出画像に地平線が含まれない場合は、車両傾き検出部115は、遠方のビルや家屋、或いは前方車両等の走行中に変化の少ない風景を利用して、車両120の傾きを検出してもよい。
When the detected image does not include the horizon, the vehicle
また検出画像に含まれる前方車両や歩行者、建造物等の被写体のオプティカルフローや、隣接フレーム間での画像差分に基づき、走行中の車両120の傾きを検出してもよい。この場合、オプティカルフローや画像差分値の定常状態からの変化が、車両120の傾きとして検出される。
Further, the tilt of the running
なお、上述したように、車両120のピッチングにより車両120の外部の風景の位置が変化し、車両120のローリングにより車両120の外部の風景の傾きが変化する。このように車両の傾きと外部の風景の位置・傾きは相対的なものであるため、車両傾き検出部115は、車両120の外部の風景の位置・傾きを検出すると換言してもよい。
As described above, the position of the scenery outside the
位置・傾き検出の画像処理アルゴリズムには従来の方法を適用できるため、ここでは説明を省略する。車両傾き検出部115は、検出した車両120の傾きを変更部113に出力する。
Since a conventional method can be applied to the image processing algorithm for position/tilt detection, description thereof will be omitted here. The vehicle
一方、頭部位置・姿勢検出部116は、入力した検出画像に対して画像処理を実行し、運転者130の頭部131の位置及び姿勢の少なくとも1つ(以降では、位置・姿勢という)を検出する機能を有する。
On the other hand, the head position/
一例として、地平線150aに対する頭部131の位置が検出され、地平線150aに対する頭部131の姿勢が検出される。
As an example, the position of the
上述と同様に、位置・傾き検出のための画像処理アルゴリズムには従来の方法を適用できるため、ここでは説明を省略する。頭部位置・姿勢検出部116は、検出した頭部131の位置・姿勢を変更部113に出力する。
Similar to the above, a conventional method can be applied to the image processing algorithm for detecting the position/tilt, and thus the description thereof is omitted here. The head position/
物体検出部117は、図示を省略するステレオカメラから車両120の前方の情報を入力し、前方画像に含まれる歩行者の位置情報を画像生成部112に出力する。ここで、車両120の前方の情報は、車両120の前方の物体の距離情報であってもよいし、車両120の前方の画像情報であってもよい。また、車両120の前方の物体の距離情報は、ステレオカメラだけでなく、レーザーレーダー等の装置から入力してもよい。一方で、物体検出部117は、ステレオカメラから入力した視差画像に対して視差演算処理を実行し、車両120の前方の距離情報を検出してもよい。
The
地図情報記憶部110は道路情報を含む地図情報を記憶している。現在位置情報取得部111は、入力したGPS情報に基づき、地図情報記憶部110を参照して車両120の現在位置、及びその周辺状況の情報を取得し、画像生成部112に出力する。
The map
画像生成部112は、物体検出部117から入力した歩行者の位置情報に基づき、運転者130の視界に含まれる歩行者と重なる位置に、マーク141を表示する表示画像を生成する。
The
また、画像生成部112は、現在位置情報取得部111から入力した車両120の現在位置、及びその周辺状況の情報に基づき、運転者130の視界に含まれる道路と重なる位置に、進路情報142を表示する表示画像を生成してもよい。画像生成部112は、生成した表示画像を変更部113に出力する。
In addition, the
変更部113は、車両傾き検出部115から入力した車両120の傾きと、頭部位置・姿勢検出部116から入力した頭部131の位置・姿勢とに基づき、表示画像の位置・傾を変更する。これにより運転者130の視界に対する表示画像の位置・傾きのずれを補正することができる。
The changing
具体的には、変更部113は、検出された車両120のピッチングによる傾き、及び/又は頭部131の位置に応じて表示画像をシフトさせる幾何変換画像処理を実行する。これにより運転者130の視界に対する表示画像の位置ずれを補正することができる。
Specifically, the changing
また変更部113は、検出された車両120のローリングによる傾き、及び/又は頭部131の姿勢に応じて表示画像を回転させる幾何変換画像処理を実行する。この場合の回転中心は、マーク141や進路情報142の重心位置とすることができる。これにより運転者130の視界に対する表示画像の傾きずれを補正することができる。
Further, the changing
但し、変更部113による補正処理は、表示画像の幾何変換画像処理に限定されるものではなく、画像表示部102に含まれる第1ミラーや第2ミラーをシフト、及び/又は回転させる処理であっても良い。
However, the correction process by the changing
なお、本実施形態では、HUD100が処理部101の機能を有する例を説明したが、処理部101の一部又は全部の機能を広角カメラ200が備えてもよい。また処理部101を、HUD100及び広角カメラ200とは別に設けてもよい。
Note that, in the present embodiment, an example in which the
<第1の実施形態に係る画像表示システムの動作>
次に、画像表示システム1の動作について説明する。
<Operation of Image Display System According to First Embodiment>
Next, the operation of the
図11は、本実施形態に係る画像表示システムの動作の一例を説明するシーケンス図である。なお、図11では、運転者130の視界に含まれる歩行者と重なる位置に、表示画像としてマーク141を表示する場合を一例として説明する。
FIG. 11 is a sequence diagram illustrating an example of the operation of the image display system according to this embodiment. Note that, in FIG. 11, a case where the
先ず、ステップS111において、HUD100の備える物体検出部117は、ステレオカメラ等から入力された車両120の前方画像に含まれる歩行者を検出し、歩行者の位置情報を画像生成部112に出力する。
First, in step S111, the
続いて、ステップS112において、画像生成部112は、入力した歩行者の位置情報に基づき、運転者130の視界に含まれる歩行者と重なる位置にマーク141を表示する表示画像を生成し、変更部113に出力する。
Subsequently, in step S112, the
続いて、ステップS113において、広角カメラ200の備える撮像部210は、同一画像内に車両の外部と運転者の頭部が含まれる検出画像を撮像し、画像出力部211に出力する。
Subsequently, in step S113, the
続いて、ステップS114において、画像出力部211は、入力した検出画像をHUD100の備える検出画像入力部114に出力する。検出画像入力部114は、入力した検出画像を車両傾き検出部115及び頭部位置・姿勢検出部116に出力する。
Subsequently, in step S114, the
なお、ステップS111〜S112の表示画像の生成処理と、ステップS113〜S114の検出画像の撮像及び出力処理の順番は適宜変更可能であり、また表示画像の生成処理と検出画像の撮像及び出力処理が並行して実行されてもよい。 Note that the order of the display image generation processing in steps S111 to S112 and the detection image capturing and output processing in steps S113 to S114 can be changed as appropriate, and the display image generation processing and the detection image capturing and output processing can be changed. It may be executed in parallel.
続いて、ステップS115において、車両傾き検出部115は、入力した検出画像に基づき、車両120の傾きを検出し、検出結果を変更部113に出力する。
Subsequently, in step S115, the vehicle
続いて、ステップS116において、頭部位置・姿勢検出部116は、入力した検出画像に基づき、頭部131の位置・姿勢を検出し、検出結果を変更部113に出力する。
Subsequently, in step S116, the head position/
なお、ステップS115〜S116の処理の順番は適宜変更可能であり、またS115〜S116の処理が並行して実行されてもよい。 The order of the processes of steps S115 to S116 can be changed as appropriate, and the processes of S115 to S116 may be executed in parallel.
続いて、ステップS117において、変更部113は入力した車両120の傾き、及び/又は、頭部131の位置・姿勢に応じて、マーク141の位置・傾きを変更する。そして変更部113は、マーク141の位置・傾きが変更された表示画像を画像表示部102に出力する。
Subsequently, in step S117, the changing
続いて、ステップS118において、画像表示部102は、入力した表示画像を表示する。
Subsequently, in step S118, the
このようにして、画像表示システム1は、位置・傾きのずれが補正された表示画像を、フロントガラス125を介して運転者130に視認可能に表示することができる。
In this way, the
なお、上述の説明では、HUD100が物体検出部117を備える例を説明したが、CANバスに接続された外部の装置が物体検出部117の機能を備えてもよい。この場合は、ステップS111の処理は外部の装置で実行され、歩行者の位置情報が画像生成部112に入力される。ステップS111以降の処理は、上述したものと同様である。
In the above description, the
また、上述の説明では、表示画像としてマーク141を表示する場合を一例に説明したが、進路情報142の位置・傾きのずれを補正して表示してもよい。この場合は、ステップS111において、HUD100の備える現在位置情報取得部111は、入力したGPS情報に基づき、地図情報記憶部110を参照して車両120の現在位置、及びその周辺状況の情報を取得し、画像生成部112に出力する。ステップS112以降の処理は、表示画像が進路情報142となる点を除き、上述したものと同様である。
Further, in the above description, the case where the
<作用効果>
次に、本実施形態に係る画像表示システム1の作用効果について説明する。
<Effect>
Next, operation effects of the
図12は、位置及び傾きずれを補正後の表示画像の一例を説明する図である。(a)は車両のピッチングによる位置ずれ補正後の表示画像を説明する図であり、(b)は車両のローリングによる傾きずれ補正後の表示画像を説明する図であり、(c)は乗員の頭部の移動による位置ずれ補正後の表示画像を説明する図である。 FIG. 12 is a diagram illustrating an example of the display image after the position and the tilt shift are corrected. (A) is a figure explaining the display image after position shift correction by pitching of a vehicle, (b) is a figure explaining the display image after inclination shift correction by rolling of a vehicle, (c) is a figure of a passenger. It is a figure explaining the display image after position gap correction by movement of a head.
図12に示すように、本実施形態により、運転者130の視界の変化に応じてマーク141の位置及び傾きを変更し、歩行者151の周囲に適切にマーク141を表示することができる。
As shown in FIG. 12, according to the present embodiment, the position and the inclination of the
一方、上述の説明ではピッチングに起因する表示画像の鉛直方向の位置ずれの例を述べたが、本実施形態は、車両120が坂道の斜面に差し掛かる前の状態で、歩行者が坂道の斜面に存在する場合における表示画像の鉛直方向の位置ずれの補正にも効果を発揮する。
On the other hand, in the above description, an example of the vertical displacement of the display image due to pitching has been described. However, in the present embodiment, the pedestrian is on the slope of the slope before the
図13は、このような坂道に起因する表示画像の位置ずれ補正効果の第1例について説明する図である。図13(a)は上り坂の場合を説明する図であり、(b)は下り坂の場合を説明する図である。 FIG. 13 is a diagram illustrating a first example of the effect of correcting the positional deviation of the display image due to such a slope. FIG. 13A is a diagram for explaining the case of an uphill, and FIG. 13B is a diagram for explaining the case of a downhill.
図13(a)において、車両120は傾斜のない道路150を走行中であり、前方の上り坂153に差し掛かる手前の状態である。そして上り坂153の斜面に歩行者151が存在している。
In FIG. 13( a ), the
この場合、車両120は傾いていないため、車両120の備えるステレオカメラ等の前方認識手段は、傾斜のない道路150の延長線上に歩行者151が存在すると認識する。そのため、傾斜のない道路150を想定して表示した表示画像と、斜面上に実在する歩行者151との間で、鉛直方向の位置ずれが生じる場合がある。
In this case, since the
ピッチングによる鉛直方向の位置ずれであれば、例えば、車両に備えられたジャイロセンサ等の姿勢センサの出力を用い、表示画像の位置を補正することができる。しかし図13に示す場合は、車両120自体は傾いていないため、姿勢センサの出力では表示画像の位置ずれを適切に補正することはできない。図13(b)に示す下り坂の場合も同様である。
In the case of vertical displacement due to pitching, for example, the position of the display image can be corrected using the output of a posture sensor such as a gyro sensor provided in the vehicle. However, in the case shown in FIG. 13, since the
これに対し、本実施形態では、車両120の外部が含まれている検出画像に応じて表示画像の位置ずれを補正するため、運転者130の視界に含まれる歩行者151の周囲に適切にマーク141を表示することができる。
On the other hand, in the present embodiment, since the positional deviation of the display image is corrected according to the detected image including the outside of the
次に、図14は、坂道に起因する表示画像の位置ずれ補正効果の第2例を説明する図である。図14において、車両120は傾斜θの上り坂153を走行中であり、坂道の道路に対してピッチング角度θaで傾いている。
Next, FIG. 14 is a diagram illustrating a second example of the effect of correcting the positional deviation of the display image due to the slope. In FIG. 14, the
この場合、比較例として、車両に備えられたジャイロセンサ等の姿勢センサの出力に応じて表示画像の表示位置を補正すると、姿勢センサの出力は鉛直方向を基準とするため、角度θ―θaが出力され、坂道の道路に対するピッチング角度θaに起因する表示画像の位置ずれを適切に補正することはできない。 In this case, as a comparative example, when the display position of the display image is corrected according to the output of the attitude sensor such as a gyro sensor provided in the vehicle, the output of the attitude sensor is based on the vertical direction. It is not possible to appropriately correct the positional deviation of the displayed image that is output and that is caused by the pitching angle θa with respect to the road on the slope.
これに対し、本実施形態では、車両120の外部が含まれている検出画像に応じて表示画像の位置ずれを補正するため、ピッチング角度θaに起因する表示画像の位置ずれを検出して補正することができ、運転者130の視界に含まれる歩行者151の周囲に適切にマーク141を表示することができる。
On the other hand, in the present embodiment, since the positional deviation of the display image is corrected according to the detected image including the outside of the
次に、図15は、進路情報の表示画像の位置ずれ補正効果の第1例を説明する図であり、(a)は補正前の進路情報の表示画像を説明する図であり、(b)は補正後の進路情報の表示画像を説明する図である。 Next, FIG. 15 is a diagram illustrating a first example of the positional deviation correction effect of the display image of the route information, (a) is a diagram illustrating a display image of the route information before correction, and (b). FIG. 6 is a diagram illustrating a display image of route information after correction.
図15は、走行中の車両120の前方に十字路があり、十字路の右折を促す進路情報を表示する例を示している。
FIG. 15 shows an example in which there is a crossroad in front of the running
車両120の傾き、及び/又は頭部131の位置・姿勢に応じて、上述したように運転者130の視界が変化する。一方、進路情報を提供するGPS情報には、車両120の傾き及び頭部131の位置・姿勢の情報は含まれない。従って、両者でずれが生じ、図15(a)の進路情報143のように、交差道路155に対して手前の位置に進路情報を表示したり、進路情報144のように交差道路155に対して傾いた進路情報を表示したりする場合がある。
The field of view of the
これに対し、本実施形態では、頭部131と車両120の外部が同一画像内に含まれている検出画像に基づき、表示画像の位置ずれを補正するため、図15(b)に示すように進路情報142を適切に表示することができる。
On the other hand, in the present embodiment, since the positional deviation of the display image is corrected based on the detected image in which the
次に、図16は、進路情報の表示画像の位置ずれ補正効果の第2例を説明する図である。(a)は坂道を説明する図、(b)は坂道による位置ずれ補正後の進路情報の表示画像を説明する図である。 Next, FIG. 16 is a diagram illustrating a second example of the positional deviation correction effect of the display image of the route information. (A) is a figure explaining a slope, (b) is a figure explaining a display image of course information after position gap amendment by a slope.
図16(a)において、車両120は傾斜のない道路150を走行中であり、下り坂154に差し掛かろうとしている。そして下り坂154の途中に、交差道路155が存在している。
In FIG. 16( a ), the
この場合、車両120自体は傾いていないため、車両120の備える前方認識手段は、傾斜のない道路150の延長線上に交差道路155があると認識する。そして傾斜のない道路150を想定して表示した進路情報と、斜面上に実在する交差道路155との間で、鉛直方向の位置ずれが生じる場合がある。
In this case, since the
本実施形態では、車両120の外部が含まれている検出画像に基づき、表示画像の位置ずれを補正するため、このような場合にも、図15(b)に示すように、交差道路155の位置に進路情報を適切に表示することができる。
In the present embodiment, since the positional deviation of the display image is corrected based on the detected image including the outside of the
以上説明してきたように、本実施形態では、運転者130の頭部131と、車両120の外部とが同一画像内に含まれている検出画像に応じて表示画像の位置・傾きを変更する。これにより、ピッチング、ローリング等による車両120の傾き、或いは運転者130の頭部131の位置・姿勢に起因する表示画像の位置・傾きのずれを適切に補正することができる。
As described above, in the present embodiment, the position/tilt of the display image is changed according to the detected image in which the
また、同一画像内に含まれている情報に基づき、車両120の傾きと、頭部131の位置・姿勢を検出する。これにより車両120の傾きと、頭部131の位置・姿勢とを、別々の構成要素で検出する場合に必要となる出力の相互関係の校正を不要にでき、校正の手間をかけずに、拡張現実感のある画像表示を行うことができる。
Further, the tilt of the
<変形例>
ここで、第1の実施形態の変形例に係る画像表示システムについて説明する。
<Modification>
Here, an image display system according to a modified example of the first embodiment will be described.
第1の実施形態では、広角カメラ200の位置・傾きは車両120の位置・傾きを意味するとみなして、運転者130の視界に対する車両120の位置・傾きを検出する例を示した。この場合、車両120に固定された広角カメラ200の位置・傾きが経時変化すると検出誤差が生じる場合がある。このような検出誤差を防ぐためには、広角カメラ200と車両120との位置・傾きの関係を校正する必要があり、手間がかかる場合がある。
In the first embodiment, the position/tilt of the wide-
そこで、変形例では、広角カメラ200による検出画像の同一画像内に車両120の内部構造が含まれるようにし、外部に対する車両120の内部構造の位置・傾きを検出することで、校正の手間をかけることなく、外部に対する車両120の位置・傾きを検出可能としている。
Therefore, in the modification, the calibration of the wide-
図17は、変形例に係る画像表示システムによる検出方法の一例を説明する図である。(a)は正常な表示画像を説明する図であり、(b)は検出された表示画像の位置・傾きのずれを説明する図である。 FIG. 17 is a diagram illustrating an example of a detection method by the image display system according to the modification. (A) is a figure explaining a normal display image, (b) is a figure explaining the gap of the position and inclination of the detected display image.
図17では、車両120の内部構造の一例として、フロントガラス125の枠の上辺127を利用し、上辺127を基準に車両120の外部の位置・傾きを検出している。図17(a)において、上辺127に対して地平線150aはPだけ下方に離れた位置にあり、また傾きはゼロである。
In FIG. 17, as an example of the internal structure of the
一方、図17(b)では、上辺127に対して地平線150aはP+sだけ下方に離れた位置にあり、図17(a)に対して鉛直方向にシフトsが生じている。また上辺127に対して地平線150aは角度Aだけ傾いている。
On the other hand, in FIG. 17B, the
このように車両120の内部構造を基準に、車両120の外部の位置・傾きを検出することができる。
In this way, the position/tilt outside the
車両120の内部構造を基準とするため、広角カメラ200の車両120に対する位置・傾きが経時変化しても、検出誤差は生じない。そのため校正の手間をかけることなく、外部に対する車両120の位置・傾きを検出することができる。
Since the internal structure of the
なお、内部構造としてフロントガラス125の枠の上辺127を一例として説明したが、これに限定されるものでなく、ルームミラー126等を利用してもよい。
Although the
[第2の実施形態]
次に、第2の実施形態に係る画像表示システムを説明する。なお、既に説明した実施形態と同一の構成部分についての説明は省略する。
[Second Embodiment]
Next, an image display system according to the second embodiment will be described. Note that description of the same components as those of the above-described embodiment will be omitted.
<第2の実施形態に係る画像表示システムの構成>
図18Aは、本実施形態に係る画像表示システムの構成の一例を説明する図である。画像表示システム1aは、HUD100aと、撮像装置の一例としてステレオカメラ300とを有する。図18Aに示すように、ステレオカメラ300は、車両120内の天井の中央部分に固定されている。
<Structure of Image Display System According to Second Embodiment>
FIG. 18A is a diagram illustrating an example of the configuration of the image display system according to the present embodiment. The
ステレオカメラ300は、車両120の運転者130の頭部131と、車両120の外部が同一画像内に含まれている検出画像を撮像することができる。画像表示システム1aは、ステレオカメラ300による検出画像に基づき、運転者130の頭部131の3次元位置情報を取得して、表示画像の位置・傾きのずれを補正することができる。
<第2の実施形態に係る画像表示システムの機能構成>
図18Bは、本実施形態に係る画像表示システムの機能構成の一例を説明するブロック図である。図18Bに示すように、画像表示システム1aは、HUD100aと、ステレオカメラ300とを有している。また、ステレオカメラ300は、第1撮像部301と、第2撮像部302と、検出画像出力部303と、視差画像取得部304と、距離画像取得部305と、距離画像出力部306とを有し、HUD100は、距離画像入力部118と、頭部位置・姿勢検出部116aと、物体検出部117aと、変更部113aとを有している。
<Functional configuration of image display system according to second embodiment>
FIG. 18B is a block diagram illustrating an example of the functional configuration of the image display system according to this embodiment. As shown in FIG. 18B, the
第1撮像部301は、被写体像を結像させるレンズと、結像された被写体像を撮像する撮像素子と、撮像素子を制御する撮像制御部とを有し、車両120の運転者130の頭部131と、車両120の外部とが同一画像内に含まれている検出画像を撮像する。第2撮像部302の構成も第1撮像部301と同様である。
The first imaging unit 301 includes a lens that forms a subject image, an imaging device that captures the formed subject image, and an imaging control unit that controls the imaging device, and the head of the
第1撮像部301は、第2撮像部302に対して基線長だけ離れた位置に設けられ、それぞれが撮像する検出画像間には基線長に対応する視差が含まれる。ここで、図19は、本実施形態に係るステレオカメラによる検出画像の一例を説明する図である。(a)は第1撮像部による検出画像を説明する図であり、(b)は第2撮像部による検出画像を説明する図である。
The first imaging unit 301 is provided at a position separated from the
図19に示すように、第1撮像部301による検出画像と第2撮像部302による検出画像の間には左右方向の視差が生じている。この視差に基づき、ステレオカメラ300は、運転者130の頭部131までの距離を検出することができる。尚、説明の便宜のため、以降では、第1撮像部301による検出画像を第1検出画像と称し、第2撮像部302による検出画像を第2検出画像と称する。
As shown in FIG. 19, there is a parallax in the left-right direction between the image detected by the first imaging unit 301 and the image detected by the
図18Bに戻り、説明を続ける。第1撮像部301は、第1検出画像を検出画像出力部303及び視差画像取得部304に出力し、第2撮像部302は、第2検出画像を視差画像取得部304に出力する。
Returning to FIG. 18B, the description will be continued. The first imaging unit 301 outputs the first detection image to the detection
検出画像出力部303は、入力した第1検出画像をHUD100aの検出画像入力部114に出力する。なお、検出画像出力部303は、第2検出画像を入力して検出画像入力部114に出力してもよい。
The detection
視差画像取得部304は、入力した第1検出画像と第2検出画像に基づき、両者の視差を演算して視差画像を取得する。視差演算処理ではブロックマッチング画像処理等が実行され、検出画像の微小ブロック毎の視差が含まれる視差画像等が取得される。視差演算処理には公知の技術を適用できるため、ここでは説明を省略する。視差画像取得部304は、取得した視差画像を距離画像取得部305に出力する。
The parallax
距離画像取得部305は、視差画像の視差を距離に換算して距離画像を取得し、距離画像出力部306に出力する。距離画像出力部306は入力した距離画像をHUD100aの距離画像入力部118に出力する。
The distance
頭部位置・姿勢検出部116aは、距離画像入力部118を介して入力した距離画像から運転者130の頭部131を抽出し、頭部131の3次元な位置・姿勢を検出して、検出結果を変更部113aに出力する。
The head position/orientation detection unit 116a extracts the
物体検出部117aは、ステレオカメラ300から入力された車両120の前方の距離情報に含まれる歩行者を検出し、歩行者の位置情報を画像生成部112に出力することができる。但し、物体検出部117aは、ステレオカメラ300から画像情報を入力し、画像情報に含まれる歩行者を検出して、歩行者の位置情報を画像生成部112に出力してもよい。
The
また、上記の車両120の前方の距離情報、又は画像情報は、CANバスに接続された外部の装置から物体検出部117aに入力されてもよい。
Further, the distance information in front of the
変更部113aは、入力した頭部131の3次元な位置・姿勢に基づき、表示画像の位置・傾きを変更する。これにより運転者130の視界に対する表示画像の位置・傾きの位置ずれを補正する。
The changing
なお、本実施形態では、HUD100aが処理部101aを有する例を説明したが、処理部101aの一部又は全部の機能をステレオカメラ300が備えてもよい。また処理部101aをHUD100a及びステレオカメラ300とは別に設けてもよい。
Note that, in the present embodiment, an example in which the
<第2の実施形態に係る画像表示システムの動作>
次に、画像表示システム1aの動作について説明する。
<Operation of Image Display System According to Second Embodiment>
Next, the operation of the
図20は、本実施形態に係る画像表示システムの動作の一例を説明するシーケンス図である。なお、図20では、運転者130の視界に含まれる歩行者と重なる位置に、表示画像としてマーク141を表示する場合を一例として説明する。
FIG. 20 is a sequence diagram illustrating an example of the operation of the image display system according to this embodiment. In addition, in FIG. 20, a case where the
先ず、ステップS201において、ステレオカメラ300の備える第1撮像部301は、第1検出画像を撮像し、検出画像出力部303及び視差画像取得部304に出力する。
First, in step S201, the first imaging unit 301 included in the
続いて、ステップS202において、第2撮像部302は、第2検出画像を撮像し、視差画像取得部304に出力する。
Subsequently, in step S202, the
続いて、ステップS203において、視差画像取得部304は、入力した第1検出画像と第2検出画像に基づき、両者の視差を演算して視差画像を取得する。視差画像取得部304は、取得した視差画像を距離画像取得部305に出力する。
Subsequently, in step S203, the parallax
続いて、ステップS204において、距離画像取得部305は、視差画像の視差を距離に換算して距離画像を取得し、距離画像出力部306に出力する。
Subsequently, in step S204, the distance
続いて、ステップS205において、検出画像出力部303は、入力した検出画像をHUD100の備える検出画像入力部114に出力し、検出画像入力部114は、入力した検出画像を車両傾き検出部115に出力する。
Subsequently, in step S205, the detection
続いて、ステップS206において、距離画像出力部306は、入力した距離画像を距離画像入力部118に出力し、距離画像入力部118は、入力した距離画像を頭部位置・姿勢検出部116aに出力する。
Subsequently, in step S206, the distance
続いて、ステップS207において、HUD100aの備える物体検出部117aは、ステレオカメラ300から入力された距離画像に含まれる歩行者を検出し、歩行者の位置情報を画像生成部112に出力する。
Subsequently, in step S207, the
続いて、ステップS208において、画像生成部112は、入力した歩行者の位置情報に基づき、運転者130の視界に含まれる歩行者と重なる位置にマーク141を表示する表示画像を生成し、変更部113aに出力する。
Subsequently, in step S208, the
なお、ステップS201〜S204の距離画像取得処理と、ステップS207〜S208の表示画像生成処理の順番は適宜変更可能であり、また距離画像取得処理と表示画像生成処理が並行して実行されてもよい。同様に、ステップS205〜S206の処理の順番も適宜変更可能であり、またS205〜S206の処理が並行して実行されてもよい。 The order of the distance image acquisition process of steps S201 to S204 and the display image generation process of steps S207 to S208 can be changed as appropriate, and the distance image acquisition process and the display image generation process may be executed in parallel. .. Similarly, the order of the processes of steps S205 to S206 can be changed as appropriate, and the processes of S205 to S206 may be executed in parallel.
続いて、ステップS209において、車両傾き検出部115は、入力した第1検出画像に基づき、車両120の傾きを検出し、検出結果を変更部113aに出力する。
Subsequently, in step S209, the vehicle
続いて、ステップS210において、頭部位置・姿勢検出部116は、入力した距離画像に基づき、頭部131の3次元的な位置・姿勢を検出し、検出結果を変更部113aに出力する。
Subsequently, in step S210, the head position/
なお、距離画像取得処理後にS207〜S208の処理を行う場合、ステップS207〜S210の処理の順番は適宜変更可能であり、またS207〜S210の処理が並行して実行されてもよい。 When performing the processing of S207 to S208 after the distance image acquisition processing, the order of the processing of steps S207 to S210 can be changed as appropriate, and the processing of S207 to S210 may be executed in parallel.
続いて、ステップS211において、変更部113aは入力した車両120の傾き、並びに頭部131の位置・姿勢に応じて、マーク141の位置・傾きを変更する。そして変更部113aは、マーク141の位置・傾きが変更された表示画像を画像表示部102に出力する。
Subsequently, in step S211, the changing
続いて、ステップS212において、画像表示部102は、入力した表示画像を表示する。
Subsequently, in step S212, the
このようにして、画像表示システム1aは、位置・傾きのずれが補正された表示画像を、フロントガラス125を介して運転者130に視認可能に表示することができる。
In this way, the
なお、上述では、表示画像としてマーク141を表示する場合を一例に説明したが、進路情報142の位置・傾きのずれを補正して表示してもよい。この場合は、ステップS201において、HUD100aの備える現在位置情報取得部111は、入力したGPS情報に基づき、地図情報記憶部110を参照して車両120の現在位置、及びその周辺状況の情報を取得し、画像生成部112に出力する。ステップS202以降の処理は、表示画像が進路情報142となる点を除き、上述したものと同様である。
Note that, in the above description, the case where the
以上説明してきたように、本実施形態では、ステレオカメラ300を撮像装置とし、運転者130の頭部131の3次元位置情報を利用する。これにより、高精度に頭部131の位置・姿勢を検出することができ、頭部131の位置・姿勢の変化による表示画像の位置・傾きのずれを、より適切に補正することができる。
As described above, in the present embodiment, the
なお、これ以外の効果は上述の実施形態で説明したものと同様である。 The other effects are similar to those described in the above embodiment.
[第3の実施形態]
次に、第3の実施形態に係る画像表示システムを説明する。
[Third Embodiment]
Next, an image display system according to the third embodiment will be described.
本実施形態に係る画像表示システムは、受動的表示画像と能動的表示画像とが含まれる表示画像を表示するものである。ここで、受動的表示画像とは、表示の位置・傾きが変更部113により変更される画像であり、また能動的表示画像とは、表示の位置・傾きが何れも変更部113により変更されない画像である。
The image display system according to the present embodiment displays a display image including a passive display image and an active display image. Here, the passive display image is an image whose display position/tilt is changed by the changing
図21は、本実施形態に係る表示画像の一例を説明する図である。図21に示すように、フロントガラスを通した運転者の視界221には、前方車両222が含まれている。また運転者の視界221に重畳して、受動的表示画像223と、能動的表示画像224が表示されている。
FIG. 21 is a diagram illustrating an example of a display image according to this embodiment. As shown in FIG. 21, a driver's
受動的表示画像223は、自車両である車両120の進路を示す矢印を表示する画像であり、車両120の傾きや運転者130の頭部131の位置・姿勢に応じて位置・傾きが変更される画像である。
The
一方、能動的表示画像224は、図21に示すように、走行速度「30km」と右折地点までの距離「100m」とを表示する画像である。これらは運転者130の視界とは無関係の情報を提示するものであるため、運転者130の視界の変化に応じて、位置・傾きを変更する必要がなく、逆に静止させた状態で表示したほうが好適な情報である。従って、本実施形態では、能動的表示画像224を、表示の位置・傾きが何れも変更部113により変更されない画像としている。
On the other hand, as shown in FIG. 21, the
このように、本実施形態によれば、必要な情報の位置・傾きのみを運転者130の視界の変化に応じて変更することで、拡張現実感のある画像表示を適切に行うことができる。
As described above, according to the present embodiment, only the position/tilt of necessary information is changed according to the change in the field of view of the
以上、好ましい実施の形態について詳説したが、上述した実施の形態に制限されることはなく、特許請求の範囲に記載された範囲を逸脱することなく、上述した実施の形態に種々の変形及び置換を加えることができる。 Although the preferred embodiments have been described in detail above, the present invention is not limited to the above-described embodiments, and various modifications and replacements of the above-described embodiments are possible without departing from the scope of the claims. Can be added.
具体的には、移動体としては2輪車、一般車などの4輪車、建設・農業・産業車両、鉄道車両、特殊車両であってもよく、また、ドローンなどの飛行体であってもよい。これらまとめて移動体と称する。 Specifically, the moving body may be a two-wheeled vehicle, a four-wheeled vehicle such as a general vehicle, a construction/agriculture/industrial vehicle, a railway vehicle, a special vehicle, or a flying body such as a drone. Good. These are collectively called a moving body.
また実施形態は、画像表示方法も含む。例えば、画像表示方法は、撮像装置と、画像表示装置と、を有し、移動体に設けられる画像表示システムによる画像表示方法であって、前記撮像装置が、前記移動体の乗員の頭部と、前記移動体の外部と、が同一画像内に含まれている画像を撮像する撮像工程と、前記画像を前記画像表示装置に出力する出力工程と、を含み、前記画像表示装置が、表示画像を生成する画像生成工程と、生成された前記表示画像を、前記乗員による視認の際に前記移動体の外部と重なる位置に表示する画像表示工程と、前記画像に応じて、前記表示画像を表示する位置及び傾きの少なくとも1つを変更する変更工程と、を含む。 The embodiment also includes an image display method. For example, the image display method is an image display method using an image display system provided in a moving body, which includes an image pickup device and an image display device, wherein the image pickup device is a head of an occupant of the moving body. A step of outputting the image to the image display device, and an image capturing step of capturing an image included in the same image outside the moving body, and an output step of outputting the image to the image display device. And an image display step of displaying the generated display image at a position overlapping the outside of the moving body when visually recognized by the occupant, and displaying the display image according to the image. And a changing step of changing at least one of the position and the inclination.
このような画像表示方法により、上述の画像表示システムと同様の効果を得ることができる。またこのような画像表示方法は、CPU、LSIなどの回路、ICカード又は単体のモジュール等によって、実現されてもよい。 With such an image display method, it is possible to obtain the same effect as the above-described image display system. Further, such an image display method may be realized by a circuit such as a CPU or an LSI, an IC card or a single module.
1、1a 画像表示システム
51 光源部
52 光偏向器
53 第1ミラー
54 被走査面
55 第2ミラー
59 透過反射部材
61 舵角センサ
62 着座センサ
63 車速センサ
91 FPGA
92 LDドライバ
93 MEMSコントローラ
100、100a HUD(画像表示装置の一例)
101、101a 処理部
102 画像表示部
103 CPU
104 ROM
105 RAM
106 入出力I/F
107 SSD
108 GPS受信機
109、109a 検出部
110 地図情報記憶部
111 現在位置情報取得部
112 画像生成部
113、113a 変更部
114 検出画像入力部
115 車両傾き検出部
116、116a 頭部位置・姿勢検出部
117、117a 物体検出部
118 距離画像入力部
120 車両(移動体の一例)
125 フロントガラス
126 ルームミラー
127 上辺(内部構造の一例)
130 運転者(乗員の一例)
131 頭部
135 眼球
141 マーク
142〜144 進路情報
150 道路
150a 地平線
151 歩行者
152 十字路
153 上り坂
154 下り坂
155 交差道路
160 虚像
200 広角カメラ
210 撮像部
211 画像出力部(出力部の一例)
221 視界
222 前方車両
223 受動的表示画像
224 能動的表示画像
300 ステレオカメラ
301 第1撮像部
302 第2撮像部
303 検出画像出力部
304 視差画像取得部
305 距離画像取得部
306 距離画像出力部
1, 1a
92
101,
104 ROM
105 RAM
106 Input/output I/F
107 SSD
108
125
130 Driver (an example of a passenger)
131
221 Field of
Claims (11)
前記撮像装置は、
前記移動体の乗員の頭部と、前記移動体の外部と、が同一画像内に含まれている画像を撮像する撮像部を有し、
前記画像表示装置は、
表示画像を生成する画像生成部と、
生成された前記表示画像を、前記乗員による視認の際に前記移動体の外部と重なる位置に表示する画像表示部と、
前記画像に応じて、前記表示画像を表示する位置及び傾きの少なくとも1つを変更する変更部と、を有する
画像表示システム。 An image display system having an image pickup device and an image display device, the image display system being provided on a moving body,
The imaging device is
A head of the occupant of the moving body, and the outside of the moving body, and an imaging unit that captures images included in the same image,
The image display device,
An image generation unit that generates a display image,
An image display unit that displays the generated display image at a position overlapping the outside of the moving body when visually recognized by the occupant,
An image display system comprising: a changing unit that changes at least one of a position and an inclination at which the display image is displayed according to the image.
請求項1に記載の画像表示システム。 A detection unit that detects at least one of the position of the head of the occupant, the posture of the head of the occupant, and the inclination of the moving body based on the image;
The image display system according to claim 1.
前記検出部は、前記内部構造の前記外部に対する位置及び傾きの少なくとも1つに基づき、前記移動体の前記外部に対する傾きを検出する
請求項1、又は2に記載の画像表示システム。 In the image, in addition to the head of the occupant of the moving body and the outside of the moving body, the internal structure of the moving body is further included in the same image,
The image display system according to claim 1, wherein the detection unit detects an inclination of the moving body with respect to the outside based on at least one of a position and an inclination of the internal structure with respect to the outside.
請求項1乃至3の何れか1項に記載の画像表示システム。 The image display system according to claim 1, wherein the imaging device has a wide-angle lens.
請求項1乃至4の何れか1項に記載の画像表示システム。 The image display system according to claim 1, wherein the imaging device includes a stereo camera.
請求項1乃至5の何れか1項に記載の画像表示システム。 The image display system according to claim 1, wherein the display image includes information indicating a course of the moving body.
前記表示画像を表示する位置及び傾きの少なくとも1つが前記変更部により変更される受動的表示画像と、
前記表示画像を表示する位置及び傾きが何れも前記変更部により変更されない能動的表示画像と、が含まれている
請求項1乃至6の何れか1項に記載の画像表示システム。 In the display image,
At least one of a position and a tilt at which the display image is displayed is changed by the changing unit, and
The image display system according to any one of claims 1 to 6, further comprising: an active display image whose position and inclination for displaying the display image are not changed by the changing unit.
前記撮像装置が、
前記移動体の乗員の頭部と、前記移動体の外部と、が同一画像内に含まれている画像を撮像する撮像工程と、
前記画像を前記画像表示装置に出力する出力工程と、を含み、
前記画像表示装置が、
表示画像を生成する画像生成工程と、
生成された前記表示画像を、前記乗員による視認の際に前記移動体の外部と重なる位置に表示する画像表示工程と、
前記画像に応じて、前記表示画像を表示する位置及び傾きの少なくとも1つを変更する変更工程と、を含む
画像表示方法。 An image display method using an image display system provided on a moving body, the method including an imaging device and an image display device,
The imaging device is
An imaging step of capturing an image in which the head of the occupant of the moving body and the outside of the moving body are included in the same image,
An output step of outputting the image to the image display device,
The image display device,
An image generation process for generating a display image,
An image display step of displaying the generated display image at a position overlapping the outside of the moving body when visually recognized by the occupant,
And a changing step of changing at least one of a position and a tilt at which the display image is displayed according to the image.
表示画像を生成する画像生成部と、
生成された前記表示画像を、乗員による視認の際に前記移動体の外部と重なる位置に表示する画像表示部と、
前記移動体の前記乗員の頭部と、前記移動体の外部と、が同一画像内に含まれている入力画像に基づき、前記表示画像を表示する位置及び傾きの少なくとも1つを変更する変更部と、を有する
画像表示装置。 An image display device provided on a moving body,
An image generation unit that generates a display image,
An image display unit that displays the generated display image at a position overlapping the outside of the moving body when visually recognized by an occupant,
A changing unit that changes at least one of a position and an inclination at which the display image is displayed based on an input image in which the head of the occupant of the moving body and the outside of the moving body are included in the same image. And an image display device having.
表示画像を生成する画像生成ステップと、
生成された前記表示画像を、乗員による視認の際に前記移動体の外部と重なる位置に表示する画像表示ステップと、
前記移動体の前記乗員の頭部と、前記移動体の外部と、が同一画像内に含まれている入力画像に基づき、前記表示画像を表示する位置及び傾きの少なくとも1つを変更する変更ステップと、を実行させる
プログラム。 In the computer of the image display device provided in the moving body,
An image generation step of generating a display image,
An image display step of displaying the generated display image at a position overlapping the outside of the moving body when visually recognized by an occupant,
A changing step of changing at least one of a position and an inclination at which the display image is displayed, based on an input image in which the head of the occupant of the moving body and the outside of the moving body are included in the same image. And a program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018225797A JP2020083280A (en) | 2018-11-30 | 2018-11-30 | Image display system, movable body, image display method, and image display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018225797A JP2020083280A (en) | 2018-11-30 | 2018-11-30 | Image display system, movable body, image display method, and image display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020083280A true JP2020083280A (en) | 2020-06-04 |
Family
ID=70906044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018225797A Withdrawn JP2020083280A (en) | 2018-11-30 | 2018-11-30 | Image display system, movable body, image display method, and image display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020083280A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010156608A (en) * | 2008-12-26 | 2010-07-15 | Toshiba Corp | Automotive display system and display method |
JP2012230522A (en) * | 2011-04-26 | 2012-11-22 | Nissan Motor Co Ltd | Image processing apparatus and image processing method |
JP2013237320A (en) * | 2012-05-14 | 2013-11-28 | Toshiba Alpine Automotive Technology Corp | Discomfort reduction display device and method for controlling display thereof |
JP2018103697A (en) * | 2016-12-26 | 2018-07-05 | 日本精機株式会社 | Display device for vehicle |
-
2018
- 2018-11-30 JP JP2018225797A patent/JP2020083280A/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010156608A (en) * | 2008-12-26 | 2010-07-15 | Toshiba Corp | Automotive display system and display method |
JP2012230522A (en) * | 2011-04-26 | 2012-11-22 | Nissan Motor Co Ltd | Image processing apparatus and image processing method |
JP2013237320A (en) * | 2012-05-14 | 2013-11-28 | Toshiba Alpine Automotive Technology Corp | Discomfort reduction display device and method for controlling display thereof |
JP2018103697A (en) * | 2016-12-26 | 2018-07-05 | 日本精機株式会社 | Display device for vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6731644B2 (en) | Display position correction device, display device including display position correction device, and moving body including display device | |
CN111433067B (en) | Head-up display device and display control method thereof | |
CN110573369B (en) | Head-up display device and display control method thereof | |
JP5161760B2 (en) | In-vehicle display system and display method | |
JP6201690B2 (en) | Vehicle information projection system | |
US8094192B2 (en) | Driving support method and driving support apparatus | |
US20210019867A1 (en) | Image display system, image display method, storage medium, and moving vehicle including the image display system | |
CN110308556B (en) | Image forming system, image correcting system, image displaying method, moving object, and non-transitory computer-readable medium | |
JP2001344597A (en) | Fused visual field device | |
JP2019073272A (en) | Display device, program, video processing method, display system, and movable body | |
WO2019224922A1 (en) | Head-up display control device, head-up display system, and head-up display control method | |
WO2020012879A1 (en) | Head-up display | |
JP2016159656A (en) | Display device for vehicle | |
CN110632755B (en) | Video display system and method, non-transitory recording medium, and moving object | |
JP2020083280A (en) | Image display system, movable body, image display method, and image display device | |
JP2009005054A (en) | Driving support device, driving support method, and program | |
US20200047686A1 (en) | Display device, display control method, and storage medium | |
JP5756741B2 (en) | Image display device for vehicle | |
JPWO2020090187A1 (en) | Virtual image display device and head-up display device | |
WO2019074114A1 (en) | Display device, program, image processing method, display system, and moving body | |
JP2023074703A (en) | Display control device, head-up display device and display control method | |
JPWO2019124323A1 (en) | Virtual image display device and head-up display device | |
JP2022077138A (en) | Display controller, head-up display device, and display control method | |
JP2013026797A (en) | Image display unit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210915 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20221111 |