JP2020083280A - Image display system, movable body, image display method, and image display device - Google Patents

Image display system, movable body, image display method, and image display device Download PDF

Info

Publication number
JP2020083280A
JP2020083280A JP2018225797A JP2018225797A JP2020083280A JP 2020083280 A JP2020083280 A JP 2020083280A JP 2018225797 A JP2018225797 A JP 2018225797A JP 2018225797 A JP2018225797 A JP 2018225797A JP 2020083280 A JP2020083280 A JP 2020083280A
Authority
JP
Japan
Prior art keywords
image
display
unit
vehicle
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2018225797A
Other languages
Japanese (ja)
Inventor
紘史 山口
Hiroshi Yamaguchi
紘史 山口
真人 草▲なぎ▼
Masato Kusanagi
真人 草▲なぎ▼
賢一郎 齊所
Kenichiro Saisho
賢一郎 齊所
友規 鈴木
Tomonori Suzuki
友規 鈴木
敬太 片桐
Keita Katagiri
敬太 片桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018225797A priority Critical patent/JP2020083280A/en
Publication of JP2020083280A publication Critical patent/JP2020083280A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

To perform image display having augmented reality without requiring calibration.SOLUTION: An image display system equipped with an imaging device and an image display device is provided to a movable body. The imaging device includes an imaging unit for capturing an image in which the head of a crew member of the movable body and the outside of the movable body are included in the same image. The image display device includes an image creation unit for creating a display image, an image display unit for displaying the created display image at a position overlapping with the outside of the movable body when visually recognized by the crew member, and a changing unit for changing at least one of a position and an inclination for displaying the display image according to the image.SELECTED DRAWING: Figure 10

Description

本発明は、画像表示システム、移動体、画像表示方法、及び画像表示装置に関する。 The present invention relates to an image display system, a moving body, an image display method, and an image display device.

従来から、車両等の移動体に設けられ、運転者等の乗員の視界に直接画像を投射するヘッドアップディスプレイ(以降、HUDという)が知られている。 2. Description of the Related Art A head-up display (hereinafter referred to as HUD), which is provided in a moving body such as a vehicle and projects an image directly on the field of view of an occupant such as a driver, has been known.

またHUDでは、加速度センサにより検出された車両の振動情報と、撮像部により取得された乗員の姿勢情報とに応じてHUDの画像の投射位置を補正して、拡張現実(AR:Augmented Reality)感のある画像を表示する技術が開示されている(例えば、特許文献1参照)。 In the HUD, the projection position of the image of the HUD is corrected according to the vibration information of the vehicle detected by the acceleration sensor and the posture information of the occupant acquired by the image capturing unit to obtain an augmented reality (AR) feeling. A technique for displaying a certain image is disclosed (for example, refer to Patent Document 1).

しかしながら、特許文献1の技術では、加速度センサと撮像部という異なる構成要素がそれぞれ出力した情報に基づき、HUDの画像の投射位置を補正しているため、加速度センサと撮像部の出力の相互関係を校正する必要があり、手間がかかる場合があった。 However, in the technique of Patent Document 1, the projection position of the image of the HUD is corrected based on the information output by the different components of the acceleration sensor and the image pickup unit. It was necessary to calibrate, which was time-consuming.

本発明は、上記に鑑みてなされたものであり、校正の手間をかけずに、拡張現実感のある画像表示を行うことを課題とする。 The present invention has been made in view of the above, and an object of the present invention is to display an image with augmented reality without the trouble of calibration.

開示の技術の一態様に係る画像表示システムは、撮像装置と、画像表示装置と、を有し、移動体に設けられる画像表示システムであって、前記撮像装置は、前記移動体の乗員の頭部と、前記移動体の外部と、が同一画像内に含まれている画像を撮像する撮像部を有し、前記画像表示装置は、表示画像を生成する画像生成部と、生成された前記表示画像を、前記乗員による視認の際に前記移動体の外部と重なる位置に表示する画像表示部と、前記画像に応じて、前記表示画像を表示する位置及び傾きの少なくとも1つを変更する変更部と、を有する。 An image display system according to an aspect of the disclosed technology is an image display system that includes an imaging device and an image display device and is provided in a moving body, wherein the imaging device is a head of an occupant of the moving body. And an outside of the moving body have an image pickup unit that picks up an image included in the same image, and the image display device includes an image generation unit that generates a display image, and the generated display. An image display unit that displays an image at a position overlapping the outside of the moving body when visually recognized by the occupant, and a changing unit that changes at least one of a position and an inclination at which the display image is displayed according to the image. And have.

開示の技術によれば、校正の手間をかけずに、拡張現実感のある画像表示を行うことができる。 According to the disclosed technology, it is possible to display an image with an augmented reality without the need for calibration.

実施形態に係るHUDの構成の一例を説明する図であり、(a)はHUDの車両への配置の一例を説明する図であり、(b)は車両のピッチング角、ヨー角、及びロール角を説明する図である。It is a figure explaining an example of composition of HUD concerning an embodiment, (a) is a figure explaining an example of arrangement in a vehicle of HUD, and (b) is a pitching angle of a vehicle, a yaw angle, and a roll angle. It is a figure explaining. 実施形態に係る画像表示部の構成の一例を説明する図である。It is a figure explaining an example of composition of an image display part concerning an embodiment. HUDが搭載された車両の画像表示システムの構成の一例を説明するブロック図である。It is a block diagram explaining an example of composition of an image display system of a vehicle carrying HUD. 実施形態に係る処理部のハードウェア構成の一例を説明するブロック図である。It is a block diagram explaining an example of hardware constitutions of a treating part concerning an embodiment. 実施形態に係る表示画像の一例を説明する図であり、(a)はマークの表示画像の一例を説明する図であり、(b)は進路情報の表示画像の一例を説明する図である。It is a figure explaining an example of a display image concerning an embodiment, (a) is a figure explaining an example of a display image of a mark, and (b) is a figure explaining an example of a display image of course information. 車両のピッチングによる表示画像の位置ずれの一例を説明する図であり、(a)は車両のピッチングを説明する図であり、(b)は正常な表示画像を説明する図であり、(c)はピッチングによる表示画像の位置ずれを説明する図である。It is a figure explaining an example of a position gap of a display picture by pitching of vehicles, (a) is a figure explaining pitching of vehicles, (b) is a figure explaining a normal display picture, (c). FIG. 6 is a diagram for explaining a positional shift of a display image due to pitching. 車両のローリングによる表示画像の傾きずれの一例を説明する図であり、(a)は車両のローリングを説明する図であり、(b)はローリングによる表示画像の傾きずれを説明する図である。It is a figure explaining an example of the inclination gap of the display image by rolling of a vehicle, (a) is a figure explaining rolling of a vehicle, and (b) is a figure explaining the inclination gap of a display image by rolling. 運転者の頭部の移動による表示画像の位置ずれの一例を説明する図であり、(a)は運転者の頭部が含まれる画像を説明する図であり、(b)は頭部の移動を説明する図であり、(c)は頭部の移動による表示画像の位置ずれを説明する図である。It is a figure explaining an example of the position gap of a display image by movement of a driver's head, (a) is a figure explaining an image in which a driver's head is included, and (b) is a movement of a head. FIG. 6C is a diagram for explaining the positional deviation of the display image due to the movement of the head. 第1の実施形態に係る広角カメラの車両への配置の一例を説明する図であり、(a)は車両の側面図であり、(b)は車両の上面図である。It is a figure explaining an example of arrangement in a vehicle of a wide-angle camera concerning a 1st embodiment, (a) is a side view of a vehicle, and (b) is a top view of a vehicle. 第1の実施形態に係る検出画像の一例を説明する図であり、(a)は同一画像内に車両の外部と運転者の頭部が含まれる検出画像を説明する図であり、(b)は車両の外部の詳細を説明する拡大図である。It is a figure explaining an example of the detection image which concerns on 1st Embodiment, (a) is a figure explaining the detection image in which the exterior of a vehicle and a driver|operator's head are contained in the same image, (b) FIG. 3 is an enlarged view illustrating details of the outside of the vehicle. 第1の実施形態に係る画像表示システムの機能構成の一例を説明するブロック図である。It is a block diagram explaining an example of functional composition of an image display system concerning a 1st embodiment. 第1の実施形態に係る画像表示システムの動作の一例を説明するシーケンス図である。It is a sequence diagram explaining an example of operation|movement of the image display system which concerns on 1st Embodiment. 位置ずれ補正後の表示画像の一例を説明する図であり、(a)は車両のピッチングによる位置ずれ補正後の表示画像を説明する図であり、(b)は車両のローリングによる傾きずれ補正後の表示画像を説明する図であり、(c)は乗員の頭部の移動による位置ずれ補正後の表示画像を説明する図である。It is a figure explaining an example of a display image after position gap amendment, (a) is a figure explaining a display image after position gap amendment by pitching of a vehicle, and (b) is after tilt gap amendment by rolling of a vehicle. 6C is a diagram for explaining the display image of FIG. 6C, and FIG. 7C is a diagram for explaining the display image after positional displacement correction due to the movement of the head of the occupant. 坂道による表示画像の位置ずれ補正効果の第1例を説明する図であり、(a)は上り坂の場合を説明する図であり、(b)は下り坂の場合を説明する図である。It is a figure explaining the 1st example of the position gap correction effect of the display image by a slope, (a) is a figure explaining the case of an uphill, and (b) is a figure explaining the case of a downhill. 坂道による表示画像の位置ずれ補正効果の第2例を説明する図である。It is a figure explaining the 2nd example of the position gap correction effect of the display image by a slope. 進路情報の表示画像の位置ずれ補正効果の第1例を説明する図であり、(a)は補正前の進路情報の表示画像を説明する図であり、(b)は補正後の進路情報の表示画像を説明する図である。It is a figure explaining the 1st example of position gap amendment effect of the display image of course information, (a) is a figure explaining the display image of course information before amendment, (b) is the course information after amendment. It is a figure explaining a display image. 進路情報の表示画像の位置ずれ補正効果の第2例を説明する図であり、(a)は坂道を説明する図であり、(b)は坂道による位置ずれ補正後の進路情報の表示画像を説明する図である。It is a figure explaining the 2nd example of the position gap correction effect of the display image of track information, (a) is a figure explaining a slope, (b) is a display image of track information after position shift correction by a slope. It is a figure explaining. 第1の実施形態の変形例に係る画像表示システムによる検出方法の一例を説明する図であり、(a)は正常な表示画像を説明する図であり、(b)は検出された表示画像の位置・傾きのずれを説明する図である。It is a figure explaining an example of the detection method by the image display system concerning the modification of a 1st embodiment, (a) is a figure explaining a normal display image, and (b) is a figure of a detected display image. It is a figure explaining the gap of a position and inclination. 第2の実施形態に係る画像表示システムの構成の一例を説明する図である。It is a figure explaining an example of composition of an image display system concerning a 2nd embodiment. 第2の実施形態に係る画像表示システムの機能構成の一例を説明するブロック図である。It is a block diagram explaining an example of functional composition of an image display system concerning a 2nd embodiment. 第2の実施形態に係るステレオカメラによる検出画像の一例を説明する図であり、(a)は第1撮像部による検出画像を説明する図であり、(b)は第2撮像部による検出画像を説明する図である。It is a figure explaining an example of the detection image by the stereo camera which concerns on 2nd Embodiment, (a) is a figure explaining the detection image by a 1st imaging part, (b) is a detection image by a 2nd imaging part. It is a figure explaining. 第2の実施形態に係る画像表示システムの動作の一例を説明するシーケンス図である。It is a sequence diagram explaining an example of operation of the image display system concerning a 2nd embodiment. 第3の実施形態に係る表示画像の一例を説明する図である。It is a figure explaining an example of the display image concerning a 3rd embodiment.

以下、図面を参照して発明を実施するための形態について説明する。各図面において、同一の構成部分には同一符号を付し、重複した説明を省略する場合がある。 Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In each drawing, the same reference numerals are given to the same components, and duplicate description may be omitted.

実施形態に係る画像表示システムは、撮像装置と、画像表示装置とを有し、車両等の移動体に設けられるシステムである。実施形態では、移動体の一例である車両に、撮像装置の一例である広角カメラと、画像表示装置の一例であるヘッドアップディスプレイ(以降、HUDという)とが搭載される例を説明する。 The image display system according to the embodiment is a system that includes an imaging device and an image display device and is provided in a moving body such as a vehicle. In the embodiment, an example will be described in which a vehicle, which is an example of a moving body, is provided with a wide-angle camera, which is an example of an image capturing device, and a head-up display (hereinafter, referred to as HUD), which is an example of an image display device.

<HUDの構成>
先ず、実施形態に係るHUDの構成について説明する。
<HUD configuration>
First, the configuration of the HUD according to the embodiment will be described.

HUDは、搭載された車両のフロントガラスを介して、車両の操縦に必要なナビゲーション情報を、車両の運転者(乗員の一例)に視認可能に表示する画像表示装置である。ここで、ナビゲーション情報とは、車両の速度、進路情報、目的地までの距離、現在地名称、車両前方における物体の有無や位置、制限速度等の標識、渋滞情報等の情報である。HUDにより表示されるナビゲーション情報を含む画像は、「表示画像」の一例であり、以降では単に表示画像という。 The HUD is an image display device that visually displays navigation information necessary for operating the vehicle to a driver (an example of an occupant) of the vehicle through a windshield of the mounted vehicle. Here, the navigation information is information such as the speed of the vehicle, route information, distance to the destination, current location name, presence/absence or position of an object in front of the vehicle, signs such as speed limits, and traffic jam information. The image including the navigation information displayed by the HUD is an example of “display image”, and will be simply referred to as a display image hereinafter.

図1は、実施形態に係るHUDの構成の一例を説明する図であり、(a)はHUDの車両への配置の一例を説明する図であり、(b)は車両のピッチング角、ヨー角、及びロール角を説明する図である。 FIG. 1 is a diagram illustrating an example of a configuration of a HUD according to an embodiment, FIG. 1A is a diagram illustrating an example of arrangement of a HUD in a vehicle, and FIG. 1B is a pitching angle and a yaw angle of the vehicle. It is a figure explaining a roll angle.

図1(a)に示すように、HUD100は、車両120に搭載されており、処理部101と、画像表示部102とを有している。 As shown in FIG. 1A, the HUD 100 is mounted on a vehicle 120 and has a processing unit 101 and an image display unit 102.

処理部101は、上述のナビゲーション情報を含む表示画像を生成し、画像表示部102に出力する機能を有する。なお、処理部101は、車両120内の任意の位置に配置することができる。 The processing unit 101 has a function of generating a display image including the above-mentioned navigation information and outputting the display image to the image display unit 102. The processing unit 101 can be arranged at any position in the vehicle 120.

画像表示部102は、車両120内で処理部101が生成した表示画像を、運転者130の視界に虚像として重畳して表示する機能を有する。換言すると、画像表示部102は入力した表示画像を運転者130による視認の際に車両120の外部と重なる位置に表示することができる。 The image display unit 102 has a function of superimposing the display image generated by the processing unit 101 in the vehicle 120 on the visual field of the driver 130 as a virtual image and displaying the superimposed image. In other words, the image display unit 102 can display the input display image at a position overlapping the outside of the vehicle 120 when viewed by the driver 130.

画像表示部102は、車両120のインテリアデザインに準拠して任意の位置に配置してよく、車両120内のダッシュボード上に配置することができる。画像表示部102を車両120内の天井部等に配置してもよい。或いは、画像表示部102をダッシュボード内に埋め込んでもよい。 The image display unit 102 may be arranged at any position according to the interior design of the vehicle 120, and can be arranged on the dashboard inside the vehicle 120. The image display unit 102 may be arranged on the ceiling or the like in the vehicle 120. Alternatively, the image display unit 102 may be embedded in the dashboard.

より詳しくは、画像表示部102は、内部で生成した中間像をミラーやレンズ等で拡大虚像表示し、運転者130の視点から所定の距離感を持って画像を表示することができる。 More specifically, the image display unit 102 can display the internally generated intermediate image as a magnified virtual image using a mirror, a lens, or the like, and display the image with a certain sense of distance from the viewpoint of the driver 130.

画像表示部102の実現形態としては、液晶パネル、DMD(Digital Micro-mirror Device)パネル、蛍光表示管(VFD;Vacuum Fluorescent Display)のようなイメージングデバイスで中間像を形成する「パネル方式」と、レーザ光源から射出されたレーザビームを2次元走査デバイスで走査し、中間像を形成する「レーザ走査方式」等があるが、実施形態では何れの形態を用いてもよい。 The image display unit 102 can be implemented by a "panel method" in which an intermediate image is formed by an imaging device such as a liquid crystal panel, a DMD (Digital Micro-mirror Device) panel, or a fluorescent display tube (VFD; Vacuum Fluorescent Display). Although there is a “laser scanning method” in which a laser beam emitted from a laser light source is scanned by a two-dimensional scanning device to form an intermediate image, any of the modes may be used in the embodiment.

但し、レーザ走査方式は、虚像の広角化が可能であること、外光に対してロバストな高輝度画像を表示できることから、実施形態において用いると好適である。実施形態では、レーザ走査方式の画像表示部102を例にして説明する。 However, the laser scanning method is suitable for use in the embodiment because it can widen the angle of the virtual image and can display a high-luminance image that is robust against external light. In the embodiment, the laser scanning image display unit 102 will be described as an example.

図1(b)は車両9のピッチング角、ヨー角、及びロール角を示している。移動体など前後・左右・上下が決まった物体が、前後の軸(図のZ軸)に対して回転(又は傾斜)することをローリング、左右の軸(図のX軸)に対して回転(又は傾斜)することをピッチング、上下軸(図のY軸)に対して回転(又は傾斜)することをヨーイングという。また、それぞれの回転量又は傾斜量をロール角、ピッチング角、ヨー角という。 FIG. 1B shows a pitching angle, a yaw angle, and a roll angle of the vehicle 9. Rolling (rotating or tilting) an object such as a moving object whose front, rear, left and right, and top and bottom are rotated (or tilted) about the front and rear axes (Z axis in the figure), and rotation about the left and right axes (X axis in the figure) ( Or tilting is called pitching, and rotating (or tilting) about the vertical axis (Y axis in the figure) is called yawing. In addition, each rotation amount or inclination amount is referred to as a roll angle, a pitching angle, or a yaw angle.

次に、図2は、実施形態に係る画像表示部の構成の一例を説明する図である。図2に示すように、画像表示部102は、光源部51と、光偏向器52と、第1ミラー53と、被走査面54と、第2ミラー55とを有する。なお、図2において、135は運転者130の眼球(以降、眼球135とする)を示し、160は虚像(以降、虚像160とする)を示している。 Next, FIG. 2 is a diagram illustrating an example of the configuration of the image display unit according to the embodiment. As shown in FIG. 2, the image display unit 102 includes a light source unit 51, a light deflector 52, a first mirror 53, a scanned surface 54, and a second mirror 55. In FIG. 2, reference numeral 135 denotes an eyeball of the driver 130 (hereinafter referred to as an eyeball 135), and 160 denotes a virtual image (hereinafter referred to as a virtual image 160).

光源部51は、RGBに対応した3つのレーザ光源、カップリングレンズ、アパーチャ、合成素子、レンズ等を備えており、3つのレーザ光源から出射されたレーザ光を合成して光偏向器52の反射面に向かって導く。光偏向器52の反射面に導かれたレーザ光は、光偏向器52により2次元的に偏向される。光源部51は、RGBに対応した3つのLD(Laser Diode)等で構成されている。 The light source unit 51 includes three laser light sources corresponding to RGB, a coupling lens, an aperture, a synthesizing element, a lens, and the like, and synthesizes the laser light emitted from the three laser light sources to reflect the light from the optical deflector 52. Lead towards the surface. The laser light guided to the reflecting surface of the light deflector 52 is two-dimensionally deflected by the light deflector 52. The light source unit 51 is composed of three LDs (Laser Diodes) corresponding to RGB.

光偏向器52としては、直交する2軸に対して揺動する1つの微小なミラーや、1軸に揺動又は回動する2つの微小なミラー等を用いることができる。光偏向器52は、半導体プロセス等で作製されたMEMS(Micro Electro Mechanical Systems)とすることができる。光偏向器52は、圧電素子の変形力を駆動力とするアクチュエータにより駆動することができる。 As the optical deflector 52, it is possible to use one minute mirror that oscillates with respect to two orthogonal axes, or two minute mirrors that oscillate or rotate about one axis. The optical deflector 52 can be a MEMS (Micro Electro Mechanical Systems) manufactured by a semiconductor process or the like. The optical deflector 52 can be driven by an actuator that uses the deforming force of the piezoelectric element as a driving force.

光偏向器52により2次元的に偏向された光束は、第1ミラー53に入射し、第1ミラー53により折り返されて被走査面54に2次元像を描画する。第1ミラー53としては、凹面ミラー等を用いることができる。また第1ミラー53の反射面をアナモフィックな形状にしてもよい。つまり、第1ミラー53の反射面は、所定方向の曲率と、それに直交する方向の曲率とが異なる形状の反射面とすることができる。第1ミラー53の反射面をアナモフィックな形状にすることにより、収差補正性能を向上させることができる。 The light beam deflected two-dimensionally by the optical deflector 52 is incident on the first mirror 53, is folded back by the first mirror 53, and draws a two-dimensional image on the scanned surface 54. A concave mirror or the like can be used as the first mirror 53. Further, the reflecting surface of the first mirror 53 may have an anamorphic shape. That is, the reflecting surface of the first mirror 53 can be a reflecting surface having a shape in which the curvature in the predetermined direction and the curvature in the direction orthogonal thereto are different. By making the reflecting surface of the first mirror 53 an anamorphic shape, the aberration correction performance can be improved.

被走査面54は、第1ミラー53で反射された光束が入射して2次元像が形成される透過性を有する面である。被走査面54は、合成されたレーザ光を所望の発散角で発散させる機能を有しており、マイクロレンズアレイ構造等にすると好適である。被走査面54から射出された光束は、第2ミラー55及び透過反射部材59により拡大表示される。第2ミラー55としては、凹面ミラー等を用いることができる。画像表示部102は、レンズやプリズム等の透過型光学素子を具備してもよい。 The scanned surface 54 is a transparent surface on which the light flux reflected by the first mirror 53 is incident to form a two-dimensional image. The surface 54 to be scanned has a function of diverging the combined laser light at a desired divergence angle, and is preferably a microlens array structure or the like. The light flux emitted from the surface 54 to be scanned is enlarged and displayed by the second mirror 55 and the transmission/reflection member 59. A concave mirror or the like can be used as the second mirror 55. The image display unit 102 may include a transmissive optical element such as a lens or a prism.

透過反射部材59は、可視域の透過率が10〜70%程度である鏡であり、第2ミラー55により折り返された光束が入射する側に、例えば、誘電体多層膜或いはワイヤーグリッド等が形成された反射面を有する。透過反射部材59の反射面は、レーザが出射する光束の波長帯を選択的に反射するものとすることができる。すなわち、RGBに対応した3つのレーザからの出射光を包含する反射ピークや反射バンドを有するものや、特定の偏向方向に対して反射率を強めるように形成されたものとすることができる。 The transmissive/reflecting member 59 is a mirror having a transmittance in the visible range of about 10 to 70%, and a dielectric multilayer film or a wire grid, for example, is formed on the side where the light flux folded by the second mirror 55 enters. Has a reflective surface. The reflection surface of the transflective member 59 can selectively reflect the wavelength band of the light beam emitted by the laser. That is, it may be one having a reflection peak or reflection band that includes light emitted from three lasers corresponding to RGB, or one that is formed so as to increase the reflectance in a specific deflection direction.

透過反射部材59は、車両120のフロントガラス125(図1参照)であっても良い。また、フロントガラス125とは異なる部材であってもよい。画像表示部102を車両120において運転者130の前方に配置することにより、透過反射部材59の反射面で反射された光束は、運転席にいる運転者130の眼球135へ入射する。そして、被走査面54の2次元像が、透過反射部材59の反射面よりも前方の所定の位置に拡大された虚像160として運転者130に視認される。 The transflective member 59 may be the windshield 125 (see FIG. 1) of the vehicle 120. Further, it may be a member different from the windshield 125. By arranging the image display unit 102 in front of the driver 130 in the vehicle 120, the light flux reflected by the reflection surface of the transflective member 59 enters the eyeball 135 of the driver 130 in the driver's seat. Then, the two-dimensional image of the surface to be scanned 54 is visually recognized by the driver 130 as a virtual image 160 enlarged at a predetermined position in front of the reflecting surface of the transmissive reflecting member 59.

次に、HUD100が搭載される車両の画像表示システムの構成について説明する。図3Aは、HUDが搭載された車両の画像表示システムの構成の一例を説明するブロック図である。 Next, the configuration of the image display system of the vehicle in which the HUD 100 is mounted will be described. FIG. 3A is a block diagram illustrating an example of the configuration of an image display system of a vehicle equipped with a HUD.

画像表示システム1はCAN(Controller Area Network)バスなどの車載ネットワークNWを介して通信する舵角センサ61と、着座センサ62と、車速センサ63と、HUD100と、広角カメラ200とを有する。 The image display system 1 includes a steering angle sensor 61 that communicates via an in-vehicle network NW such as a CAN (Controller Area Network) bus, a seating sensor 62, a vehicle speed sensor 63, a HUD 100, and a wide-angle camera 200.

舵角センサ61は、運転者によるステアリングホイールの操舵角を検出するセンサである。主に操舵の方向と操舵量を検出する。どのような原理で検出してもよいが例えば、ステアリングホイールと連動して回転するスリット円盤を通過する光のON/OFFをカウントするものがある。 The steering angle sensor 61 is a sensor that detects the steering angle of the steering wheel by the driver. The steering direction and steering amount are mainly detected. It may be detected by any principle, but for example, there is one that counts ON/OFF of light passing through the slit disk that rotates in conjunction with the steering wheel.

着座センサ62は車両の座席ごとに乗員が着座しているか否かを検出するセンサである。例えば、シート内に設置された圧力検知センサ、又は赤外線センサなどにより着座の有無を検出する。車室内を撮像するカメラにより検出してもよい。 The seating sensor 62 is a sensor that detects whether or not an occupant is seated for each seat of the vehicle. For example, the presence or absence of seating is detected by a pressure detection sensor installed in the seat, an infrared sensor, or the like. It may be detected by a camera that images the interior of the vehicle.

車速センサ63は、例えば車輪の回転をホール素子などで検出し、回転速度に応じたパルス波を出力する。単位時間の回転量(パルス数)とタイヤの外径とから車速を検出する。 The vehicle speed sensor 63 detects, for example, rotation of wheels by a hall element or the like, and outputs a pulse wave corresponding to the rotation speed. The vehicle speed is detected from the rotation amount (pulse number) per unit time and the outer diameter of the tire.

HUD100は車載された各センサからの情報を取得できる。また、HUD100は車載ネットワークからではなく外部のネットワークからの情報を取得してもよい。例えば、GPS情報、操舵角、又は車速などを取得できる。操舵角、車速については、今後自動運転が実用化された場合、ITS(Intelligent Transport Systems)によって走行車両の位置姿勢や車速を観測して車載デバイスをコントロール可能であると考えられる。 The HUD 100 can acquire information from each sensor mounted on the vehicle. Further, the HUD 100 may acquire information from an external network instead of the vehicle-mounted network. For example, GPS information, steering angle, vehicle speed, etc. can be acquired. Regarding the steering angle and the vehicle speed, it is considered possible to control the in-vehicle device by observing the position and orientation of the traveling vehicle and the vehicle speed by ITS (Intelligent Transport Systems) when automatic driving is put to practical use in the future.

広角カメラ200は、広角レンズを備えるカメラであり、車両120内の運転者130の頭部131と、運転者130の視界等の車両120の外部が同一画像内に含まれる検出画像を撮像することができる。この詳細については第1の実施形態において説明する。また、広角カメラ200に代えて、第2の実施形態で説明するステレオカメラ300がネットワークNWに接続されてもよい。 The wide-angle camera 200 is a camera including a wide-angle lens, and captures a detection image in which the head 131 of the driver 130 in the vehicle 120 and the outside of the vehicle 120 such as the field of view of the driver 130 are included in the same image. You can The details will be described in the first embodiment. Further, instead of the wide-angle camera 200, the stereo camera 300 described in the second embodiment may be connected to the network NW.

次に、HUDの備える処理部のハードウェア構成について説明する。図3は、実施形態に係る処理部のハードウェア構成の一例を示すブロック図である。 Next, the hardware configuration of the processing unit included in the HUD will be described. FIG. 3 is a block diagram showing an example of the hardware configuration of the processing unit according to the embodiment.

処理部101は、CPU(Central Processing Unit)103と、ROM(Read Only Memory)104と、RAM(Random Access Memory)105と、入出力I/F(Inter/face)106と、SSD(Solid State Drive)107と、GPS(Global Positioning System)受信機108と、FPGA(Field-Programmable Gate Array)と、LDドライバ92と、MEMSコントローラ93とを有し、それぞれはバスBで相互に接続されている。 The processing unit 101 includes a CPU (Central Processing Unit) 103, a ROM (Read Only Memory) 104, a RAM (Random Access Memory) 105, an input/output I/F (Inter/face) 106, and an SSD (Solid State Drive). ) 107, a GPS (Global Positioning System) receiver 108, an FPGA (Field-Programmable Gate Array), an LD driver 92, and a MEMS controller 93, which are interconnected by a bus B.

CPU103は、ROM104やSSD107等の記憶装置からプログラムやデータをRAM105上に読み出し、処理を実行することで、処理部101全体の制御や、別途図10等用いて説明する各種機能を実現する演算装置である。なお、CPU103の有する機能の一部、又は全部を、ASIC(application specific integrated circuit)やFPGA等のハードウェアにより実現させてもよい。 The CPU 103 reads a program or data from a storage device such as the ROM 104 or the SSD 107 onto the RAM 105 and executes a process to control the entire processing unit 101 or an arithmetic device that realizes various functions that will be described separately with reference to FIG. Is. Note that some or all of the functions of the CPU 103 may be realized by hardware such as an ASIC (application specific integrated circuit) or FPGA.

ROM104は、電源を切ってもプログラムやデータを保持することが可能な不揮発性の半導体メモリ(記憶装置)である。ROM104には、プログラムやデータが格納されている。 The ROM 104 is a non-volatile semiconductor memory (storage device) that can retain programs and data even when the power is turned off. Programs and data are stored in the ROM 104.

RAM105は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。RAM105には、CPU103が画像処理等の処理を実行するために画像データを一時保存する画像メモリが含まれている。 The RAM 105 is a volatile semiconductor memory (storage device) that temporarily holds programs and data. The RAM 105 includes an image memory that temporarily stores image data for the CPU 103 to execute processing such as image processing.

SSD107は、プログラムやデータを格納している不揮発性の記憶装置である。SSD107の代わりにHDD(Hard Disk Drive)等が設けられてもよい。 The SSD 107 is a non-volatile storage device that stores programs and data. An HDD (Hard Disk Drive) or the like may be provided instead of the SSD 107.

入出力I/F106は、後述する広角カメラ200等の外部機器と接続するためのインターフェースである。また、入出力I/F106を介して、処理部101はCANバス等の車載ネットワークに接続することができる。さらに、処理部101は入出力I/F106を介してPC(Personal Computer)や映像機器等の外部機器と接続してもよい。 The input/output I/F 106 is an interface for connecting to an external device such as a wide-angle camera 200 described later. Further, the processing unit 101 can be connected to an in-vehicle network such as a CAN bus via the input/output I/F 106. Further, the processing unit 101 may be connected to an external device such as a PC (Personal Computer) or a video device via the input/output I/F 106.

GPS受信機108は、GPS情報を受信する電気回路である。なお、CANバスを介してカーナビゲーションシステムが接続され、カーナビゲーションシステムからルートや方向等の情報が受信されるようにしても良い。また、カーナビゲーションシステムが、後述する地図情報記憶部110と、現在位置情報取得部111の機能を実現してもよい。 The GPS receiver 108 is an electric circuit that receives GPS information. The car navigation system may be connected via the CAN bus so that information such as the route and direction can be received from the car navigation system. Further, the car navigation system may realize the functions of the map information storage unit 110 and the current position information acquisition unit 111 described later.

FPGA91は、CPU103が作成した画像に基づいてLDドライバ92を制御する。LDドライバ92は光源部51に電気的に接続され、光源部51のLDを駆動することで、画像に応じたLDの発光を制御する。 The FPGA 91 controls the LD driver 92 based on the image created by the CPU 103. The LD driver 92 is electrically connected to the light source unit 51, and drives the LD of the light source unit 51 to control the light emission of the LD according to the image.

FPGA91は、画像の画素位置に応じた方向にレーザビームが偏向されるように、光偏向器52に電気的に接続されたMEMSコントローラ93により、光偏向器52を動作させる。 The FPGA 91 operates the optical deflector 52 by the MEMS controller 93 electrically connected to the optical deflector 52 so that the laser beam is deflected in the direction corresponding to the pixel position of the image.

<HUDによる表示画像とその位置・傾きのずれ>
ここで、HUD100による表示画像について説明する。図4は実施形態に係る表示画像の一例を説明する図である。(a)はマークの表示画像の一例を説明する図であり、(b)は進路情報の表示画像の一例を説明する図である。
<Displacement of display image and its position/tilt due to HUD>
Here, a display image by the HUD 100 will be described. FIG. 4 is a diagram illustrating an example of a display image according to the embodiment. (A) is a figure explaining an example of a display image of a mark, (b) is a figure explaining an example of a display image of course information.

図4では、フロントガラス125を通した運転者130の視界(車両120の前方の風景であり、以降では、単に運転者130の視界という)と、視界に重畳して表示された表示画像とが示されている。 In FIG. 4, a field of view of the driver 130 through the windshield 125 (a landscape in front of the vehicle 120, and hereinafter, simply referred to as the field of view of the driver 130) and a display image superimposed and displayed on the field of view. It is shown.

図4(a)では、道路150上に歩行者151が視認され、歩行者151の周囲に一点鎖線で示すマーク141が重畳して表示されている。このようにマーク141を運転者130の視界に重畳して表示することで、運転者130に歩行者151の存在を知らしめ、注意を喚起することができる。 In FIG. 4A, a pedestrian 151 is visually recognized on the road 150, and a mark 141 indicated by a one-dot chain line is superimposed and displayed around the pedestrian 151. By thus displaying the mark 141 so as to be superimposed on the field of view of the driver 130, it is possible to inform the driver 130 of the presence of the pedestrian 151 and call attention.

運転者130の視界でマーク141を表示させる位置は、車両120に搭載されたステレオカメラ等の前方認識手段の出力に基づき決定することができる。また、本実施形態では、後述するように、マーク141の位置及び傾きの少なくとも1つ(以降では、位置・傾きという)を広角カメラ200による画像に応じて変更することができる。 The position where the mark 141 is displayed in the field of view of the driver 130 can be determined based on the output of the front recognition means such as a stereo camera mounted on the vehicle 120. Further, in this embodiment, as will be described later, at least one of the position and the inclination of the mark 141 (hereinafter, referred to as position/inclination) can be changed according to the image captured by the wide-angle camera 200.

一方、図4(b)では、十字路152が視認され、進路を矢印で示す進路情報142が十字路152に重畳して表示されている。このように、進路情報142を運転者130の視界に重畳して表示することで、運転者130に、十字路152で車両120を右折させるためのハンドル操作を促すことができる。 On the other hand, in FIG. 4B, the crossroads 152 are visually recognized, and the route information 142 in which the route is indicated by an arrow is superimposed and displayed on the crossroads 152. In this way, by displaying the route information 142 so as to be superimposed on the field of view of the driver 130, the driver 130 can be prompted to perform a steering wheel operation for turning the vehicle 120 right at the crossroads 152.

右折や左折等の進路情報142の種類は、GPS等から提供される情報に基づき決定することができる。また、本実施形態では、後述するように、進路情報142の位置・傾きを広角カメラ200による画像に応じて変更することができる。 The type of the route information 142 such as right turn and left turn can be determined based on the information provided from the GPS or the like. Further, in the present embodiment, as will be described later, the position/inclination of the route information 142 can be changed according to the image captured by the wide-angle camera 200.

ここで、車両120は、路面の凹凸やプレーキ操作、ハンドル操作等により、走行中にピッチングやローリング等の傾きの変化を起こす場合がある。そして車両120の傾きの変化により、運転者130の視界が変動し、運転者130の視界に対してHUD100による表示画像の位置・傾きがずれる場合がある。 Here, the vehicle 120 may cause a change in inclination such as pitching or rolling during traveling due to unevenness of the road surface, braking operation, steering wheel operation, or the like. The view of the driver 130 may change due to the change of the tilt of the vehicle 120, and the position and tilt of the display image by the HUD 100 may be displaced from the view of the driver 130.

図5は、車両のピッチングによる表示画像の位置ずれの一例を説明する図である。図5(a)は車両のピッチングを説明する図であり、(b)は正常な表示画像を説明する図であり、(c)はピッチングによる表示画像の位置ずれを説明する図である。 FIG. 5 is a diagram illustrating an example of the positional deviation of the display image due to vehicle pitching. 5A is a diagram for explaining the pitching of the vehicle, FIG. 5B is a diagram for explaining a normal display image, and FIG. 5C is a diagram for explaining the positional deviation of the display image due to the pitching.

図5(a)に示すように、車両120の傾きがピッチングによって太矢印121aの方向に変化すると、運転者130の視界は相対的に太矢印121aの反対の方向に移動する。そのため、本来、図5(b)に示すように、車両120の前方の歩行者151の周囲にマーク141が表示されるところ、図5(c)に示すように、運転者130の視界が太矢印121bの方向に移動する。その結果、マーク141が歩行者151に対して相対的に位置ずれし、正しく表示されなくなる。なお、図5において、126はルームミラーを示し、150aは運転者130の視界に含まれる地平線を表している。 As shown in FIG. 5A, when the inclination of the vehicle 120 changes in the direction of the thick arrow 121a due to pitching, the field of view of the driver 130 relatively moves in the direction opposite to the thick arrow 121a. Therefore, originally, as shown in FIG. 5B, when the mark 141 is displayed around the pedestrian 151 in front of the vehicle 120, as shown in FIG. 5C, the field of view of the driver 130 is wide. Move in the direction of arrow 121b. As a result, the mark 141 is displaced relative to the pedestrian 151, and is not displayed correctly. In FIG. 5, 126 is a rearview mirror, and 150a is a horizon included in the field of view of the driver 130.

一方、図6は、車両のローリングによる表示画像の傾きずれの一例を説明する図である。図6(a)は車両のローリングを説明する図であり、(b)はローリングによる表示画像の傾きずれを説明する図である。 On the other hand, FIG. 6 is a diagram illustrating an example of a tilt shift of a display image due to rolling of the vehicle. FIG. 6A is a diagram for explaining rolling of the vehicle, and FIG. 6B is a diagram for explaining tilt deviation of a display image due to rolling.

図6(a)に示すように、車両120の傾きがローリングによって太矢印122aの方向に変化すると、運転者130の視界は相対的に太矢印122aの反対の方向に傾く。そして、図6(b)に示すように、運転者130の視界が太矢印122bの方向に傾く結果、マーク141が歩行者151に対して相対的な傾きずれをおこし、正しく表示されなくなる。 As shown in FIG. 6A, when the inclination of the vehicle 120 changes in the direction of the thick arrow 122a due to rolling, the field of view of the driver 130 relatively leans in the direction opposite to the thick arrow 122a. Then, as shown in FIG. 6B, as a result of the driver's field of view tilting in the direction of the thick arrow 122b, the mark 141 causes a relative tilt shift with respect to the pedestrian 151, and the mark is not displayed correctly.

さらに、運転者130の頭部の位置や姿勢が変化した場合にも、運転者130の視界の位置や傾きは変化するため、上述のような表示画像の位置・傾きのずれが生じ得る。 Further, even when the position or posture of the head of the driver 130 changes, the position or inclination of the field of view of the driver 130 changes, so that the above-described shift in the position or inclination of the display image may occur.

図7は、運転者の頭部の移動による表示画像の位置ずれの一例を説明する図である。図7(a)は、運転者の頭部が含まれる画像を説明する図であり、(b)は頭部の移動を説明する図であり、(c)は頭部の移動による表示画像の位置ずれを説明する図である。 FIG. 7 is a diagram illustrating an example of the positional shift of the display image due to the movement of the driver's head. FIG. 7A is a diagram for explaining an image including the driver's head, FIG. 7B is a diagram for explaining movement of the head, and FIG. 7C is a diagram of a display image due to movement of the head. It is a figure explaining a position gap.

図7(a)において、運転者130は車両120の運転席に着座し、フロントガラス125を通して車両120の前方の風景を視認しながら車両120を運転している。ここで、車両120の前方の風景は、「移動体の外部」の一例である。但し、「移動体の外部」は前方の風景に限定されるものではなく、車両120の傾きが検出出来れば、車両120の後方や側方であってもよい。 In FIG. 7A, the driver 130 is sitting in the driver's seat of the vehicle 120 and is driving the vehicle 120 while visually recognizing the scenery in front of the vehicle 120 through the windshield 125. Here, the scenery in front of the vehicle 120 is an example of “outside the moving body”. However, the “outside of the moving body” is not limited to the scenery in front, and may be behind or to the side of the vehicle 120 as long as the inclination of the vehicle 120 can be detected.

図7(a)の状態の場合に、図7(b)に示すように、運転者130の頭部131が太矢印123aの方向に移動すると、運転者130の視界は相対的に太矢印123bの反対の方向に移動する。そして、図7(c)に示すように、運転者130の視界が太矢印123bの方向に移動する結果、マーク141が歩行者151に対して相対的に位置ずれし、正しく表示されなくなる。 In the case of the state of FIG. 7A, when the head 131 of the driver 130 moves in the direction of the thick arrow 123a as shown in FIG. 7B, the field of view of the driver 130 is relatively thick. Move in the opposite direction. Then, as shown in FIG. 7C, as a result of the driver 130 moving in the direction of the thick arrow 123b, the mark 141 is displaced relative to the pedestrian 151 and is not displayed correctly.

以上のことから、本実施形態に係る画像表示システム1は、運転者130の頭部131と、車両120の外部とが同一画像内(同一フレーム内。同一視野内)に含まれる画像を撮像する広角カメラ200を有する。広角カメラ200による画像は、「移動体の乗員の頭部と、移動体の外部と、が同一画像内に含まれている画像」の一例であり、また「入力画像」の一例である。以下では、広角カメラ200による画像を検出画像という。 From the above, the image display system 1 according to the present embodiment captures an image in which the head 131 of the driver 130 and the outside of the vehicle 120 are included in the same image (in the same frame. In the same field of view). It has a wide-angle camera 200. The image captured by the wide-angle camera 200 is an example of “an image in which the head of the occupant of the moving body and the outside of the moving body are included in the same image”, and is also an example of the “input image”. Hereinafter, the image captured by the wide-angle camera 200 will be referred to as a detected image.

広角カメラ200による検出画像に基づき、マーク141や進路情報142等の表示画像の位置・傾きを変更し、位置・傾きずれを補正する。以下に、その詳細を説明する。 Based on the image detected by the wide-angle camera 200, the position/tilt of the display image such as the mark 141 and the route information 142 is changed to correct the position/tilt shift. The details will be described below.

[第1の実施形態]
<広角カメラの構成>
図8は、本実施形態に係る広角カメラの車両への配置の一例を説明する図である。図8(a)は車両の側面図であり、(b)は車両の上面図である。図8に示すように、広角カメラ200は、車両120内の天井の中央部分に固定されている。
[First Embodiment]
<Structure of wide-angle camera>
FIG. 8 is a diagram illustrating an example of the arrangement of the wide-angle camera according to this embodiment in a vehicle. FIG. 8A is a side view of the vehicle, and FIG. 8B is a top view of the vehicle. As shown in FIG. 8, the wide-angle camera 200 is fixed to the central portion of the ceiling inside the vehicle 120.

この部分にはルームライトが配置される場合があるが、広角カメラ200はその近傍に配置されてもよいし、ルームライトに代えて配置されてもよい。或いはルームライトと広角カメラ200とを一体にした構成としてもよい。 A room light may be arranged in this portion, but the wide-angle camera 200 may be arranged in the vicinity thereof or may be arranged instead of the room light. Alternatively, the room light and the wide-angle camera 200 may be integrated.

但し、広角カメラ200の固定位置は、上記の部分に限定されるものではなく、ルームミラー126の近傍等でもよい。またルームミラー126と広角カメラ200とを一体にした構成としてもよい。 However, the fixed position of the wide-angle camera 200 is not limited to the above-mentioned part, and may be in the vicinity of the room mirror 126 or the like. Alternatively, the room mirror 126 and the wide-angle camera 200 may be integrated.

広角カメラ200は、広角レンズを備えるカメラであり、上述のように、車両120内の運転者130の頭部131と、運転者130の視界等の車両120の外部が同一画像内に含まれる検出画像を撮像することができる。 The wide-angle camera 200 is a camera including a wide-angle lens, and as described above, the head 131 of the driver 130 inside the vehicle 120 and the outside of the vehicle 120 such as the field of view of the driver 130 are detected in the same image. An image can be taken.

但し、これに限定されるものではなく、運転者130の頭部131と車両120の外部が同一画像内に含まれる検出画像を撮像できるものであれば、撮像装置に必ずしも広角カメラを用いなくてもよい。 However, the present invention is not limited to this, and if the head 131 of the driver 130 and the outside of the vehicle 120 can capture a detection image included in the same image, a wide-angle camera is not necessarily used as the imaging device. Good.

一方で、撮像装置が180度以上の視野角のレンズを備えるカメラであれば、ルームミラー126の近傍に撮像装置を配置した場合にも、車両120内の運転者130の頭部131と運転者130の視界とを同一画像内に収めることができる。なお、この場合、運転者130はルームミラー126に対して右斜め後方、又は左斜め後方に位置することになるため、両方を視野に含めるために、撮像装置を運転者130に向けて配置する必要がある。 On the other hand, if the image pickup device is a camera having a lens with a viewing angle of 180 degrees or more, even when the image pickup device is arranged near the rearview mirror 126, the head 131 of the driver 130 and the driver 130 in the vehicle 120 can be reduced. The field of view of 130 can be included in the same image. In this case, since the driver 130 is positioned diagonally to the right rear or the left diagonal to the rearview mirror 126, the imaging device is arranged toward the driver 130 in order to include both of them in the visual field. There is a need.

また、撮像装置が360度の視野角のレンズを備えるカメラであれば、ルームミラー126の近傍に撮像装置を配置した場合にも、撮像装置を運転者130に向けて配置することなく、運転者130の頭部131と前方の風景とを同一画像内に収めることができる。 Further, if the image pickup device is a camera having a lens with a viewing angle of 360 degrees, even if the image pickup device is arranged in the vicinity of the room mirror 126, the driver does not need to arrange the image pickup device toward the driver 130. The head 131 of 130 and the landscape in front can be accommodated in the same image.

他に、撮像装置に広角、或いは超広角レンズを備えるカメラを用いることで、フロントガラス125だけでなく、サイドウィンドウやリヤウィンドウを通した車両120の外部の風景も運転者130の頭部131と同一画像内に収めることができる。そして、これらの情報を、表示画像の位置・傾きのずれの補正のさらなる高精度化等に利用することができる。 In addition, by using a camera having a wide-angle lens or an ultra-wide-angle lens as the image pickup device, not only the windshield 125 but also the outside scenery of the vehicle 120 through the side window and the rear window can be seen as the head 131 of the driver 130. Can fit in the same image. Then, these pieces of information can be used for further improving the accuracy of correction of the position/tilt shift of the display image.

次に、本実施形態に係る検出画像について説明する。 Next, the detected image according to this embodiment will be described.

図9は、本実施形態に係る検出画像の一例を説明する図である。(a)は同一画像内に車両の外部と運転者の頭部が含まれる検出画像を説明する図であり、(b)は車両の外部の詳細を説明する拡大図である。 FIG. 9 is a diagram illustrating an example of a detected image according to this embodiment. (A) is a figure explaining the detection image in which the exterior of a vehicle and a driver's head are contained in the same image, and (b) is an enlarged view explaining the details of the exterior of a vehicle.

図9(a)に示すように、検出画像には運転者130の頭部131と、フロントガラス125が含まれている。また図9(b)に示すように、検出画像には、運転者130の視界であるフロントガラス125を通した前方の風景が含まれている。 As shown in FIG. 9A, the detected image includes the head 131 of the driver 130 and the windshield 125. Further, as shown in FIG. 9B, the detected image includes the scenery in front of the driver 130 through the windshield 125.

本実施形態では、このような検出画像に基づき、以下に説明する機能構成により、運転者130の視界に対する表示画像のずれを補正することができる。 In the present embodiment, the shift of the display image with respect to the visual field of the driver 130 can be corrected by the functional configuration described below based on such a detected image.

<第1の実施形態に係る画像表示システムの機能構成>
図10は、本実施形態に係る画像表示システムの機能構成の一例を説明するブロック図である。なお、図10の各機能ブロックは概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。各機能ブロックの全部又は一部を、任意の単位で機能的又は物理的に分散・結合して構成してもよい。
<Functional configuration of the image display system according to the first embodiment>
FIG. 10 is a block diagram illustrating an example of the functional configuration of the image display system according to this embodiment. The functional blocks in FIG. 10 are conceptual and do not necessarily have to be physically configured as illustrated. All or a part of each functional block may be functionally or physically dispersed or combined in arbitrary units.

図10に示すように、画像表示システム1はHUD100と、広角カメラ200とを有している。また広角カメラ200は、撮像部210と、画像出力部211とを有している。広角カメラ200は、撮像部210により撮像された検出画像を、画像出力部211を介してHUD100に出力する機能を有する。 As shown in FIG. 10, the image display system 1 has a HUD 100 and a wide-angle camera 200. The wide-angle camera 200 also includes an image capturing unit 210 and an image output unit 211. The wide-angle camera 200 has a function of outputting the detection image captured by the image capturing unit 210 to the HUD 100 via the image output unit 211.

撮像部210は、被写体像を結像させる広角レンズと、結像された被写体像を撮像する撮像素子と、撮像素子を制御する撮像制御部とを有している。広角レンズは、レンズ等の複数の光学素子を用いて構成することができる。 The image pickup unit 210 includes a wide-angle lens that forms a subject image, an image pickup device that picks up the formed subject image, and an image pickup control unit that controls the image pickup device. The wide-angle lens can be configured using a plurality of optical elements such as lenses.

撮像素子には、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor Device)等を用いることができる。撮像制御部は、撮像素子の露光制御、画像読み出し制御、外部回路との通信、及び画像データの送信制御等を行う電気回路により実現できる。なお、撮像制御部は、CPUやROM等を含んで構成されてもよい。 A CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor Device), or the like can be used as the image sensor. The image pickup control unit can be realized by an electric circuit that controls exposure of the image pickup element, image reading control, communication with an external circuit, transmission control of image data, and the like. The imaging control unit may be configured to include a CPU, a ROM and the like.

画像出力部211は、HUD100等の外部機器に向けてデータや信号を送信する機能を有し、インターフェースを行う電気回路等により実現できる。尚、画像出力部211は「出力部」の一例である。 The image output unit 211 has a function of transmitting data and signals to an external device such as the HUD 100, and can be realized by an electric circuit or the like that performs an interface. The image output unit 211 is an example of an “output unit”.

一方で、HUD100は、処理部101と、画像表示部102とを有し、また処理部101は、検出部109と、地図情報記憶部110と、現在位置情報取得部111と、画像生成部112と、変更部113とを有している。 On the other hand, the HUD 100 includes a processing unit 101 and an image display unit 102, and the processing unit 101 includes a detection unit 109, a map information storage unit 110, a current position information acquisition unit 111, and an image generation unit 112. And a changing unit 113.

検出部109は、検出画像入力部114と、車両傾き検出部115と、頭部位置・姿勢検出部116と、物体検出部117とを有している。検出画像入力部114は広角カメラ200から入力した検出画像を、車両傾き検出部115、及び頭部位置・姿勢検出部116に出力することができる。検出画像入力部114は入出力I/F106により実現できる。 The detection unit 109 includes a detected image input unit 114, a vehicle tilt detection unit 115, a head position/posture detection unit 116, and an object detection unit 117. The detection image input unit 114 can output the detection image input from the wide-angle camera 200 to the vehicle tilt detection unit 115 and the head position/posture detection unit 116. The detected image input unit 114 can be realized by the input/output I/F 106.

車両傾き検出部115は、入力した検出画像に対して画像処理を実行し、車両120の傾きを検出する機能を有する。 The vehicle tilt detection unit 115 has a function of performing image processing on the input detected image and detecting the tilt of the vehicle 120.

一例として、車両傾き検出部115は、検出画像に含まれている地平線150a(図5(b)等参照)の検出画像内での位置(座標)と傾きを検出する。検出画像内での地平線150aの位置と傾きは、相対的には地平線150aに対する広角カメラ200の傾きを意味し、また広角カメラ200は車両120に固定されているため、広角カメラ200の傾きは車両120の傾き、すなわちピッチング及びローリングを意味する。図5及び図6で説明したように、車両120のピッチングにより地平線150aの位置が変化し、車両120のローリングにより地平線150aの傾きが変化する。 As an example, the vehicle tilt detection unit 115 detects the position (coordinates) and tilt of the horizon 150a (see FIG. 5B, etc.) included in the detected image within the detected image. The position and tilt of the horizon 150a in the detected image relatively means the tilt of the wide-angle camera 200 with respect to the horizon 150a, and since the wide-angle camera 200 is fixed to the vehicle 120, the tilt of the wide-angle camera 200 is the vehicle. It means a slope of 120, ie pitching and rolling. As described with reference to FIGS. 5 and 6, the position of the horizon 150a changes due to the pitching of the vehicle 120, and the inclination of the horizon 150a changes due to the rolling of the vehicle 120.

従って、車両傾き検出部115は、検出画像内での地平線150aの位置を検出することで、車両120のピッチングを検出し、地平線150aの傾きを検出することで車両120のローリングを検出することができる。 Therefore, the vehicle inclination detection unit 115 can detect the pitching of the vehicle 120 by detecting the position of the horizon 150a in the detected image, and can detect the rolling of the vehicle 120 by detecting the inclination of the horizon 150a. it can.

一例として、走行中にほとんど変化しない地平線150aの位置が車両120のピッチングがない状態を示し、これに対する地平線150aの位置の変化が、車両120のピッチングとして検出される。 As an example, the position of the horizon 150a that hardly changes during traveling indicates a state in which there is no pitching of the vehicle 120, and a change in the position of the horizon 150a in response to this is detected as the pitching of the vehicle 120.

同様に、走行中にほとんど変化しない地平線150aの傾きが車両120のローリングがない状態を示し、これに対する地平線150aの傾きの変化が車両120のローリングとして検出される。 Similarly, the inclination of the horizon 150a that hardly changes during traveling indicates a state in which the vehicle 120 is not rolling, and a change in the inclination of the horizon 150a in response thereto is detected as the rolling of the vehicle 120.

また検出画像は広角カメラ200の撮像周期(フレームレート)により時系列で撮像されるため、車両傾き検出部115は、地平線150aに対する車両120のピッチング及びローリング(以降では、両者を区別しない場合は併せて傾きという)の時間変化を撮像周期に合わせて検出することができる。 In addition, since the detected image is captured in time series at the imaging cycle (frame rate) of the wide-angle camera 200, the vehicle tilt detection unit 115 causes the vehicle 120 to pitch and roll with respect to the horizon line 150a (hereinafter, in the case where the two are not distinguished from each other, they are also combined. It is possible to detect a change in time (referred to as “tilt”) in accordance with the imaging cycle.

検出画像に地平線が含まれない場合は、車両傾き検出部115は、遠方のビルや家屋、或いは前方車両等の走行中に変化の少ない風景を利用して、車両120の傾きを検出してもよい。 When the detected image does not include the horizon, the vehicle tilt detection unit 115 detects the tilt of the vehicle 120 by using a landscape that is not changed while a distant building or house or a vehicle ahead is running. Good.

また検出画像に含まれる前方車両や歩行者、建造物等の被写体のオプティカルフローや、隣接フレーム間での画像差分に基づき、走行中の車両120の傾きを検出してもよい。この場合、オプティカルフローや画像差分値の定常状態からの変化が、車両120の傾きとして検出される。 Further, the tilt of the running vehicle 120 may be detected based on the optical flow of a subject such as a front vehicle, a pedestrian, or a building included in the detected image, or an image difference between adjacent frames. In this case, a change in the optical flow or the image difference value from the steady state is detected as the inclination of the vehicle 120.

なお、上述したように、車両120のピッチングにより車両120の外部の風景の位置が変化し、車両120のローリングにより車両120の外部の風景の傾きが変化する。このように車両の傾きと外部の風景の位置・傾きは相対的なものであるため、車両傾き検出部115は、車両120の外部の風景の位置・傾きを検出すると換言してもよい。 As described above, the position of the scenery outside the vehicle 120 changes due to the pitching of the vehicle 120, and the inclination of the scenery outside the vehicle 120 changes due to the rolling of the vehicle 120. Since the vehicle tilt and the position/tilt of the external scenery are relative as described above, it may be said that the vehicle tilt detecting unit 115 detects the position/tilt of the scenery outside the vehicle 120.

位置・傾き検出の画像処理アルゴリズムには従来の方法を適用できるため、ここでは説明を省略する。車両傾き検出部115は、検出した車両120の傾きを変更部113に出力する。 Since a conventional method can be applied to the image processing algorithm for position/tilt detection, description thereof will be omitted here. The vehicle tilt detection unit 115 outputs the detected tilt of the vehicle 120 to the change unit 113.

一方、頭部位置・姿勢検出部116は、入力した検出画像に対して画像処理を実行し、運転者130の頭部131の位置及び姿勢の少なくとも1つ(以降では、位置・姿勢という)を検出する機能を有する。 On the other hand, the head position/orientation detection unit 116 performs image processing on the input detected image to determine at least one of the position and orientation of the head 131 of the driver 130 (hereinafter referred to as position/orientation). It has the function of detecting.

一例として、地平線150aに対する頭部131の位置が検出され、地平線150aに対する頭部131の姿勢が検出される。 As an example, the position of the head 131 with respect to the horizon 150a is detected, and the posture of the head 131 with respect to the horizon 150a is detected.

上述と同様に、位置・傾き検出のための画像処理アルゴリズムには従来の方法を適用できるため、ここでは説明を省略する。頭部位置・姿勢検出部116は、検出した頭部131の位置・姿勢を変更部113に出力する。 Similar to the above, a conventional method can be applied to the image processing algorithm for detecting the position/tilt, and thus the description thereof is omitted here. The head position/orientation detecting unit 116 outputs the detected position/orientation of the head 131 to the changing unit 113.

物体検出部117は、図示を省略するステレオカメラから車両120の前方の情報を入力し、前方画像に含まれる歩行者の位置情報を画像生成部112に出力する。ここで、車両120の前方の情報は、車両120の前方の物体の距離情報であってもよいし、車両120の前方の画像情報であってもよい。また、車両120の前方の物体の距離情報は、ステレオカメラだけでなく、レーザーレーダー等の装置から入力してもよい。一方で、物体検出部117は、ステレオカメラから入力した視差画像に対して視差演算処理を実行し、車両120の前方の距離情報を検出してもよい。 The object detection unit 117 inputs information on the front of the vehicle 120 from a stereo camera (not shown) and outputs position information of the pedestrian included in the front image to the image generation unit 112. Here, the information in front of the vehicle 120 may be distance information of an object in front of the vehicle 120 or image information in front of the vehicle 120. Further, the distance information of the object in front of the vehicle 120 may be input not only from the stereo camera but also from a device such as a laser radar. On the other hand, the object detection unit 117 may detect the distance information in front of the vehicle 120 by executing parallax calculation processing on the parallax image input from the stereo camera.

地図情報記憶部110は道路情報を含む地図情報を記憶している。現在位置情報取得部111は、入力したGPS情報に基づき、地図情報記憶部110を参照して車両120の現在位置、及びその周辺状況の情報を取得し、画像生成部112に出力する。 The map information storage unit 110 stores map information including road information. Based on the input GPS information, the current position information acquisition unit 111 refers to the map information storage unit 110 to acquire information about the current position of the vehicle 120 and its surroundings, and outputs the information to the image generation unit 112.

画像生成部112は、物体検出部117から入力した歩行者の位置情報に基づき、運転者130の視界に含まれる歩行者と重なる位置に、マーク141を表示する表示画像を生成する。 The image generation unit 112 generates a display image that displays the mark 141 at a position overlapping the pedestrian included in the field of view of the driver 130, based on the pedestrian position information input from the object detection unit 117.

また、画像生成部112は、現在位置情報取得部111から入力した車両120の現在位置、及びその周辺状況の情報に基づき、運転者130の視界に含まれる道路と重なる位置に、進路情報142を表示する表示画像を生成してもよい。画像生成部112は、生成した表示画像を変更部113に出力する。 In addition, the image generation unit 112, based on the current position of the vehicle 120 input from the current position information acquisition unit 111 and the information on the surrounding conditions, the route information 142 at a position overlapping with a road included in the driver's 130 field of view. A display image to be displayed may be generated. The image generating unit 112 outputs the generated display image to the changing unit 113.

変更部113は、車両傾き検出部115から入力した車両120の傾きと、頭部位置・姿勢検出部116から入力した頭部131の位置・姿勢とに基づき、表示画像の位置・傾を変更する。これにより運転者130の視界に対する表示画像の位置・傾きのずれを補正することができる。 The changing unit 113 changes the position/tilt of the display image based on the tilt of the vehicle 120 input from the vehicle tilt detecting unit 115 and the position/posture of the head 131 input from the head position/posture detecting unit 116. .. This makes it possible to correct the deviation of the position/tilt of the display image with respect to the field of view of the driver 130.

具体的には、変更部113は、検出された車両120のピッチングによる傾き、及び/又は頭部131の位置に応じて表示画像をシフトさせる幾何変換画像処理を実行する。これにより運転者130の視界に対する表示画像の位置ずれを補正することができる。 Specifically, the changing unit 113 executes geometric transformation image processing for shifting the display image according to the detected inclination of the vehicle 120 due to pitching and/or the position of the head 131. Accordingly, it is possible to correct the positional deviation of the display image with respect to the visual field of the driver 130.

また変更部113は、検出された車両120のローリングによる傾き、及び/又は頭部131の姿勢に応じて表示画像を回転させる幾何変換画像処理を実行する。この場合の回転中心は、マーク141や進路情報142の重心位置とすることができる。これにより運転者130の視界に対する表示画像の傾きずれを補正することができる。 Further, the changing unit 113 executes geometric transformation image processing for rotating the display image according to the detected inclination of the vehicle 120 due to rolling and/or the posture of the head 131. In this case, the center of rotation can be the center of gravity of the mark 141 or the path information 142. This makes it possible to correct the tilt deviation of the display image with respect to the field of view of the driver 130.

但し、変更部113による補正処理は、表示画像の幾何変換画像処理に限定されるものではなく、画像表示部102に含まれる第1ミラーや第2ミラーをシフト、及び/又は回転させる処理であっても良い。 However, the correction process by the changing unit 113 is not limited to the geometrically transformed image process of the display image, and is a process of shifting and/or rotating the first mirror and the second mirror included in the image display unit 102. May be.

なお、本実施形態では、HUD100が処理部101の機能を有する例を説明したが、処理部101の一部又は全部の機能を広角カメラ200が備えてもよい。また処理部101を、HUD100及び広角カメラ200とは別に設けてもよい。 Note that, in the present embodiment, an example in which the HUD 100 has the function of the processing unit 101 has been described, but the wide-angle camera 200 may include some or all of the functions of the processing unit 101. Further, the processing unit 101 may be provided separately from the HUD 100 and the wide-angle camera 200.

<第1の実施形態に係る画像表示システムの動作>
次に、画像表示システム1の動作について説明する。
<Operation of Image Display System According to First Embodiment>
Next, the operation of the image display system 1 will be described.

図11は、本実施形態に係る画像表示システムの動作の一例を説明するシーケンス図である。なお、図11では、運転者130の視界に含まれる歩行者と重なる位置に、表示画像としてマーク141を表示する場合を一例として説明する。 FIG. 11 is a sequence diagram illustrating an example of the operation of the image display system according to this embodiment. Note that, in FIG. 11, a case where the mark 141 is displayed as a display image at a position overlapping with a pedestrian included in the field of view of the driver 130 will be described as an example.

先ず、ステップS111において、HUD100の備える物体検出部117は、ステレオカメラ等から入力された車両120の前方画像に含まれる歩行者を検出し、歩行者の位置情報を画像生成部112に出力する。 First, in step S111, the object detection unit 117 included in the HUD 100 detects a pedestrian included in a front image of the vehicle 120 input from a stereo camera or the like, and outputs position information of the pedestrian to the image generation unit 112.

続いて、ステップS112において、画像生成部112は、入力した歩行者の位置情報に基づき、運転者130の視界に含まれる歩行者と重なる位置にマーク141を表示する表示画像を生成し、変更部113に出力する。 Subsequently, in step S112, the image generation unit 112 generates a display image that displays the mark 141 at a position overlapping the pedestrian included in the field of view of the driver 130 based on the input position information of the pedestrian, and the changing unit. Output to 113.

続いて、ステップS113において、広角カメラ200の備える撮像部210は、同一画像内に車両の外部と運転者の頭部が含まれる検出画像を撮像し、画像出力部211に出力する。 Subsequently, in step S113, the image capturing unit 210 included in the wide-angle camera 200 captures a detected image in which the outside of the vehicle and the head of the driver are included in the same image, and outputs the captured image to the image output unit 211.

続いて、ステップS114において、画像出力部211は、入力した検出画像をHUD100の備える検出画像入力部114に出力する。検出画像入力部114は、入力した検出画像を車両傾き検出部115及び頭部位置・姿勢検出部116に出力する。 Subsequently, in step S114, the image output unit 211 outputs the input detected image to the detected image input unit 114 included in the HUD 100. The detection image input unit 114 outputs the input detection image to the vehicle tilt detection unit 115 and the head position/posture detection unit 116.

なお、ステップS111〜S112の表示画像の生成処理と、ステップS113〜S114の検出画像の撮像及び出力処理の順番は適宜変更可能であり、また表示画像の生成処理と検出画像の撮像及び出力処理が並行して実行されてもよい。 Note that the order of the display image generation processing in steps S111 to S112 and the detection image capturing and output processing in steps S113 to S114 can be changed as appropriate, and the display image generation processing and the detection image capturing and output processing can be changed. It may be executed in parallel.

続いて、ステップS115において、車両傾き検出部115は、入力した検出画像に基づき、車両120の傾きを検出し、検出結果を変更部113に出力する。 Subsequently, in step S115, the vehicle tilt detection unit 115 detects the tilt of the vehicle 120 based on the input detected image, and outputs the detection result to the change unit 113.

続いて、ステップS116において、頭部位置・姿勢検出部116は、入力した検出画像に基づき、頭部131の位置・姿勢を検出し、検出結果を変更部113に出力する。 Subsequently, in step S116, the head position/orientation detecting unit 116 detects the position/orientation of the head 131 based on the input detected image, and outputs the detection result to the changing unit 113.

なお、ステップS115〜S116の処理の順番は適宜変更可能であり、またS115〜S116の処理が並行して実行されてもよい。 The order of the processes of steps S115 to S116 can be changed as appropriate, and the processes of S115 to S116 may be executed in parallel.

続いて、ステップS117において、変更部113は入力した車両120の傾き、及び/又は、頭部131の位置・姿勢に応じて、マーク141の位置・傾きを変更する。そして変更部113は、マーク141の位置・傾きが変更された表示画像を画像表示部102に出力する。 Subsequently, in step S117, the changing unit 113 changes the position/tilt of the mark 141 according to the input tilt of the vehicle 120 and/or the position/orientation of the head 131. Then, the changing unit 113 outputs the display image in which the position/tilt of the mark 141 is changed to the image display unit 102.

続いて、ステップS118において、画像表示部102は、入力した表示画像を表示する。 Subsequently, in step S118, the image display unit 102 displays the input display image.

このようにして、画像表示システム1は、位置・傾きのずれが補正された表示画像を、フロントガラス125を介して運転者130に視認可能に表示することができる。 In this way, the image display system 1 can visually display the display image, in which the displacement of the position/tilt is corrected, to the driver 130 through the windshield 125.

なお、上述の説明では、HUD100が物体検出部117を備える例を説明したが、CANバスに接続された外部の装置が物体検出部117の機能を備えてもよい。この場合は、ステップS111の処理は外部の装置で実行され、歩行者の位置情報が画像生成部112に入力される。ステップS111以降の処理は、上述したものと同様である。 In the above description, the HUD 100 includes the object detection unit 117, but an external device connected to the CAN bus may have the function of the object detection unit 117. In this case, the process of step S111 is executed by the external device, and the pedestrian position information is input to the image generation unit 112. The processing after step S111 is the same as that described above.

また、上述の説明では、表示画像としてマーク141を表示する場合を一例に説明したが、進路情報142の位置・傾きのずれを補正して表示してもよい。この場合は、ステップS111において、HUD100の備える現在位置情報取得部111は、入力したGPS情報に基づき、地図情報記憶部110を参照して車両120の現在位置、及びその周辺状況の情報を取得し、画像生成部112に出力する。ステップS112以降の処理は、表示画像が進路情報142となる点を除き、上述したものと同様である。 Further, in the above description, the case where the mark 141 is displayed as the display image has been described as an example, but the position/tilt deviation of the route information 142 may be corrected and displayed. In this case, in step S111, the current position information acquisition unit 111 included in the HUD 100 acquires the current position of the vehicle 120 and information about the surrounding conditions thereof by referring to the map information storage unit 110 based on the input GPS information. , To the image generation unit 112. The process after step S112 is the same as that described above except that the display image becomes the route information 142.

<作用効果>
次に、本実施形態に係る画像表示システム1の作用効果について説明する。
<Effect>
Next, operation effects of the image display system 1 according to the present embodiment will be described.

図12は、位置及び傾きずれを補正後の表示画像の一例を説明する図である。(a)は車両のピッチングによる位置ずれ補正後の表示画像を説明する図であり、(b)は車両のローリングによる傾きずれ補正後の表示画像を説明する図であり、(c)は乗員の頭部の移動による位置ずれ補正後の表示画像を説明する図である。 FIG. 12 is a diagram illustrating an example of the display image after the position and the tilt shift are corrected. (A) is a figure explaining the display image after position shift correction by pitching of a vehicle, (b) is a figure explaining the display image after inclination shift correction by rolling of a vehicle, (c) is a figure of a passenger. It is a figure explaining the display image after position gap correction by movement of a head.

図12に示すように、本実施形態により、運転者130の視界の変化に応じてマーク141の位置及び傾きを変更し、歩行者151の周囲に適切にマーク141を表示することができる。 As shown in FIG. 12, according to the present embodiment, the position and the inclination of the mark 141 can be changed according to the change in the field of view of the driver 130, and the mark 141 can be appropriately displayed around the pedestrian 151.

一方、上述の説明ではピッチングに起因する表示画像の鉛直方向の位置ずれの例を述べたが、本実施形態は、車両120が坂道の斜面に差し掛かる前の状態で、歩行者が坂道の斜面に存在する場合における表示画像の鉛直方向の位置ずれの補正にも効果を発揮する。 On the other hand, in the above description, an example of the vertical displacement of the display image due to pitching has been described. However, in the present embodiment, the pedestrian is on the slope of the slope before the vehicle 120 approaches the slope of the slope. Is also effective in correcting the positional deviation of the display image in the vertical direction.

図13は、このような坂道に起因する表示画像の位置ずれ補正効果の第1例について説明する図である。図13(a)は上り坂の場合を説明する図であり、(b)は下り坂の場合を説明する図である。 FIG. 13 is a diagram illustrating a first example of the effect of correcting the positional deviation of the display image due to such a slope. FIG. 13A is a diagram for explaining the case of an uphill, and FIG. 13B is a diagram for explaining the case of a downhill.

図13(a)において、車両120は傾斜のない道路150を走行中であり、前方の上り坂153に差し掛かる手前の状態である。そして上り坂153の斜面に歩行者151が存在している。 In FIG. 13( a ), the vehicle 120 is traveling on a road 150 having no slope and is in a state before approaching the uphill 153 in the front. A pedestrian 151 exists on the slope of the uphill 153.

この場合、車両120は傾いていないため、車両120の備えるステレオカメラ等の前方認識手段は、傾斜のない道路150の延長線上に歩行者151が存在すると認識する。そのため、傾斜のない道路150を想定して表示した表示画像と、斜面上に実在する歩行者151との間で、鉛直方向の位置ずれが生じる場合がある。 In this case, since the vehicle 120 is not tilted, the front recognition means such as a stereo camera included in the vehicle 120 recognizes that the pedestrian 151 is present on the extension line of the road 150 which is not tilted. Therefore, a vertical displacement may occur between the display image that is displayed assuming the road 150 having no slope and the pedestrian 151 that actually exists on the slope.

ピッチングによる鉛直方向の位置ずれであれば、例えば、車両に備えられたジャイロセンサ等の姿勢センサの出力を用い、表示画像の位置を補正することができる。しかし図13に示す場合は、車両120自体は傾いていないため、姿勢センサの出力では表示画像の位置ずれを適切に補正することはできない。図13(b)に示す下り坂の場合も同様である。 In the case of vertical displacement due to pitching, for example, the position of the display image can be corrected using the output of a posture sensor such as a gyro sensor provided in the vehicle. However, in the case shown in FIG. 13, since the vehicle 120 itself is not leaning, it is not possible to appropriately correct the positional deviation of the display image by the output of the attitude sensor. The same applies to the case of the downhill shown in FIG.

これに対し、本実施形態では、車両120の外部が含まれている検出画像に応じて表示画像の位置ずれを補正するため、運転者130の視界に含まれる歩行者151の周囲に適切にマーク141を表示することができる。 On the other hand, in the present embodiment, since the positional deviation of the display image is corrected according to the detected image including the outside of the vehicle 120, the mark around the pedestrian 151 included in the field of view of the driver 130 is appropriately marked. 141 can be displayed.

次に、図14は、坂道に起因する表示画像の位置ずれ補正効果の第2例を説明する図である。図14において、車両120は傾斜θの上り坂153を走行中であり、坂道の道路に対してピッチング角度θaで傾いている。 Next, FIG. 14 is a diagram illustrating a second example of the effect of correcting the positional deviation of the display image due to the slope. In FIG. 14, the vehicle 120 is traveling on an uphill 153 having an inclination θ and is inclined at a pitching angle θa with respect to a road on a slope.

この場合、比較例として、車両に備えられたジャイロセンサ等の姿勢センサの出力に応じて表示画像の表示位置を補正すると、姿勢センサの出力は鉛直方向を基準とするため、角度θ―θaが出力され、坂道の道路に対するピッチング角度θaに起因する表示画像の位置ずれを適切に補正することはできない。 In this case, as a comparative example, when the display position of the display image is corrected according to the output of the attitude sensor such as a gyro sensor provided in the vehicle, the output of the attitude sensor is based on the vertical direction. It is not possible to appropriately correct the positional deviation of the displayed image that is output and that is caused by the pitching angle θa with respect to the road on the slope.

これに対し、本実施形態では、車両120の外部が含まれている検出画像に応じて表示画像の位置ずれを補正するため、ピッチング角度θaに起因する表示画像の位置ずれを検出して補正することができ、運転者130の視界に含まれる歩行者151の周囲に適切にマーク141を表示することができる。 On the other hand, in the present embodiment, since the positional deviation of the display image is corrected according to the detected image including the outside of the vehicle 120, the positional deviation of the display image due to the pitching angle θa is detected and corrected. Therefore, the mark 141 can be appropriately displayed around the pedestrian 151 included in the field of view of the driver 130.

次に、図15は、進路情報の表示画像の位置ずれ補正効果の第1例を説明する図であり、(a)は補正前の進路情報の表示画像を説明する図であり、(b)は補正後の進路情報の表示画像を説明する図である。 Next, FIG. 15 is a diagram illustrating a first example of the positional deviation correction effect of the display image of the route information, (a) is a diagram illustrating a display image of the route information before correction, and (b). FIG. 6 is a diagram illustrating a display image of route information after correction.

図15は、走行中の車両120の前方に十字路があり、十字路の右折を促す進路情報を表示する例を示している。 FIG. 15 shows an example in which there is a crossroad in front of the running vehicle 120 and the route information for prompting a right turn at the crossroad is displayed.

車両120の傾き、及び/又は頭部131の位置・姿勢に応じて、上述したように運転者130の視界が変化する。一方、進路情報を提供するGPS情報には、車両120の傾き及び頭部131の位置・姿勢の情報は含まれない。従って、両者でずれが生じ、図15(a)の進路情報143のように、交差道路155に対して手前の位置に進路情報を表示したり、進路情報144のように交差道路155に対して傾いた進路情報を表示したりする場合がある。 The field of view of the driver 130 changes as described above according to the inclination of the vehicle 120 and/or the position/orientation of the head 131. On the other hand, the GPS information that provides the course information does not include information about the inclination of the vehicle 120 and the position/orientation of the head 131. Therefore, a deviation occurs between the two, and the route information is displayed at a position before the intersection road 155 as shown in the route information 143 of FIG. 15A, or the intersection information 155 is displayed as the route information 144. There is a case where tilted course information is displayed.

これに対し、本実施形態では、頭部131と車両120の外部が同一画像内に含まれている検出画像に基づき、表示画像の位置ずれを補正するため、図15(b)に示すように進路情報142を適切に表示することができる。 On the other hand, in the present embodiment, since the positional deviation of the display image is corrected based on the detected image in which the head 131 and the outside of the vehicle 120 are included in the same image, as shown in FIG. The route information 142 can be displayed appropriately.

次に、図16は、進路情報の表示画像の位置ずれ補正効果の第2例を説明する図である。(a)は坂道を説明する図、(b)は坂道による位置ずれ補正後の進路情報の表示画像を説明する図である。 Next, FIG. 16 is a diagram illustrating a second example of the positional deviation correction effect of the display image of the route information. (A) is a figure explaining a slope, (b) is a figure explaining a display image of course information after position gap amendment by a slope.

図16(a)において、車両120は傾斜のない道路150を走行中であり、下り坂154に差し掛かろうとしている。そして下り坂154の途中に、交差道路155が存在している。 In FIG. 16( a ), the vehicle 120 is traveling on the sloping road 150 and is approaching the downhill 154. An intersection road 155 exists in the middle of the downhill 154.

この場合、車両120自体は傾いていないため、車両120の備える前方認識手段は、傾斜のない道路150の延長線上に交差道路155があると認識する。そして傾斜のない道路150を想定して表示した進路情報と、斜面上に実在する交差道路155との間で、鉛直方向の位置ずれが生じる場合がある。 In this case, since the vehicle 120 itself is not tilted, the front recognition means included in the vehicle 120 recognizes that the intersection road 155 is located on the extension of the road 150 having no slope. Then, there may be a vertical displacement between the route information displayed on the assumption that the road 150 has no slope and the intersection road 155 that actually exists on the slope.

本実施形態では、車両120の外部が含まれている検出画像に基づき、表示画像の位置ずれを補正するため、このような場合にも、図15(b)に示すように、交差道路155の位置に進路情報を適切に表示することができる。 In the present embodiment, since the positional deviation of the display image is corrected based on the detected image including the outside of the vehicle 120, even in such a case, as shown in FIG. The route information can be properly displayed at the position.

以上説明してきたように、本実施形態では、運転者130の頭部131と、車両120の外部とが同一画像内に含まれている検出画像に応じて表示画像の位置・傾きを変更する。これにより、ピッチング、ローリング等による車両120の傾き、或いは運転者130の頭部131の位置・姿勢に起因する表示画像の位置・傾きのずれを適切に補正することができる。 As described above, in the present embodiment, the position/tilt of the display image is changed according to the detected image in which the head 131 of the driver 130 and the outside of the vehicle 120 are included in the same image. As a result, it is possible to appropriately correct the tilt of the vehicle 120 due to pitching, rolling, or the like, or the position/tilt shift of the display image due to the position/orientation of the head 131 of the driver 130.

また、同一画像内に含まれている情報に基づき、車両120の傾きと、頭部131の位置・姿勢を検出する。これにより車両120の傾きと、頭部131の位置・姿勢とを、別々の構成要素で検出する場合に必要となる出力の相互関係の校正を不要にでき、校正の手間をかけずに、拡張現実感のある画像表示を行うことができる。 Further, the tilt of the vehicle 120 and the position/orientation of the head 131 are detected based on the information included in the same image. This makes it unnecessary to calibrate the mutual relationship of the outputs, which is necessary when the tilt of the vehicle 120 and the position/orientation of the head 131 are detected by different constituent elements, and expands without the need for calibration. A realistic image display can be performed.

<変形例>
ここで、第1の実施形態の変形例に係る画像表示システムについて説明する。
<Modification>
Here, an image display system according to a modified example of the first embodiment will be described.

第1の実施形態では、広角カメラ200の位置・傾きは車両120の位置・傾きを意味するとみなして、運転者130の視界に対する車両120の位置・傾きを検出する例を示した。この場合、車両120に固定された広角カメラ200の位置・傾きが経時変化すると検出誤差が生じる場合がある。このような検出誤差を防ぐためには、広角カメラ200と車両120との位置・傾きの関係を校正する必要があり、手間がかかる場合がある。 In the first embodiment, the position/tilt of the wide-angle camera 200 is considered to mean the position/tilt of the vehicle 120, and an example of detecting the position/tilt of the vehicle 120 with respect to the field of view of the driver 130 has been shown. In this case, if the position/tilt of the wide-angle camera 200 fixed to the vehicle 120 changes with time, a detection error may occur. In order to prevent such a detection error, it is necessary to calibrate the position/tilt relationship between the wide-angle camera 200 and the vehicle 120, which may be troublesome.

そこで、変形例では、広角カメラ200による検出画像の同一画像内に車両120の内部構造が含まれるようにし、外部に対する車両120の内部構造の位置・傾きを検出することで、校正の手間をかけることなく、外部に対する車両120の位置・傾きを検出可能としている。 Therefore, in the modification, the calibration of the wide-angle camera 200 is performed by including the internal structure of the vehicle 120 in the same image and detecting the position and inclination of the internal structure of the vehicle 120 with respect to the outside. The position/inclination of the vehicle 120 with respect to the outside can be detected without any trouble.

図17は、変形例に係る画像表示システムによる検出方法の一例を説明する図である。(a)は正常な表示画像を説明する図であり、(b)は検出された表示画像の位置・傾きのずれを説明する図である。 FIG. 17 is a diagram illustrating an example of a detection method by the image display system according to the modification. (A) is a figure explaining a normal display image, (b) is a figure explaining the gap of the position and inclination of the detected display image.

図17では、車両120の内部構造の一例として、フロントガラス125の枠の上辺127を利用し、上辺127を基準に車両120の外部の位置・傾きを検出している。図17(a)において、上辺127に対して地平線150aはPだけ下方に離れた位置にあり、また傾きはゼロである。 In FIG. 17, as an example of the internal structure of the vehicle 120, the upper side 127 of the frame of the windshield 125 is used, and the position/tilt outside the vehicle 120 is detected based on the upper side 127. In FIG. 17A, the horizon 150a is located at a position separated by P downward with respect to the upper side 127, and the inclination is zero.

一方、図17(b)では、上辺127に対して地平線150aはP+sだけ下方に離れた位置にあり、図17(a)に対して鉛直方向にシフトsが生じている。また上辺127に対して地平線150aは角度Aだけ傾いている。 On the other hand, in FIG. 17B, the horizon line 150a is located at a position separated by P+s downward with respect to the upper side 127, and a shift s occurs in the vertical direction with respect to FIG. 17A. Further, the horizon 150a is inclined by the angle A with respect to the upper side 127.

このように車両120の内部構造を基準に、車両120の外部の位置・傾きを検出することができる。 In this way, the position/tilt outside the vehicle 120 can be detected based on the internal structure of the vehicle 120.

車両120の内部構造を基準とするため、広角カメラ200の車両120に対する位置・傾きが経時変化しても、検出誤差は生じない。そのため校正の手間をかけることなく、外部に対する車両120の位置・傾きを検出することができる。 Since the internal structure of the vehicle 120 is used as a reference, even if the position/tilt of the wide-angle camera 200 with respect to the vehicle 120 changes with time, no detection error occurs. Therefore, the position/tilt of the vehicle 120 with respect to the outside can be detected without taking the trouble of calibration.

なお、内部構造としてフロントガラス125の枠の上辺127を一例として説明したが、これに限定されるものでなく、ルームミラー126等を利用してもよい。 Although the upper side 127 of the frame of the windshield 125 has been described as an example of the internal structure, the invention is not limited to this, and the room mirror 126 or the like may be used.

[第2の実施形態]
次に、第2の実施形態に係る画像表示システムを説明する。なお、既に説明した実施形態と同一の構成部分についての説明は省略する。
[Second Embodiment]
Next, an image display system according to the second embodiment will be described. Note that description of the same components as those of the above-described embodiment will be omitted.

<第2の実施形態に係る画像表示システムの構成>
図18Aは、本実施形態に係る画像表示システムの構成の一例を説明する図である。画像表示システム1aは、HUD100aと、撮像装置の一例としてステレオカメラ300とを有する。図18Aに示すように、ステレオカメラ300は、車両120内の天井の中央部分に固定されている。
<Structure of Image Display System According to Second Embodiment>
FIG. 18A is a diagram illustrating an example of the configuration of the image display system according to the present embodiment. The image display system 1a has a HUD 100a and a stereo camera 300 as an example of an imaging device. As shown in FIG. 18A, stereo camera 300 is fixed to the central portion of the ceiling inside vehicle 120.

ステレオカメラ300は、車両120の運転者130の頭部131と、車両120の外部が同一画像内に含まれている検出画像を撮像することができる。画像表示システム1aは、ステレオカメラ300による検出画像に基づき、運転者130の頭部131の3次元位置情報を取得して、表示画像の位置・傾きのずれを補正することができる。 Stereo camera 300 can capture a detection image in which the head 131 of driver 130 of vehicle 120 and the outside of vehicle 120 are included in the same image. The image display system 1a can acquire the three-dimensional position information of the head 131 of the driver 130 based on the image detected by the stereo camera 300, and correct the position/tilt deviation of the display image.

<第2の実施形態に係る画像表示システムの機能構成>
図18Bは、本実施形態に係る画像表示システムの機能構成の一例を説明するブロック図である。図18Bに示すように、画像表示システム1aは、HUD100aと、ステレオカメラ300とを有している。また、ステレオカメラ300は、第1撮像部301と、第2撮像部302と、検出画像出力部303と、視差画像取得部304と、距離画像取得部305と、距離画像出力部306とを有し、HUD100は、距離画像入力部118と、頭部位置・姿勢検出部116aと、物体検出部117aと、変更部113aとを有している。
<Functional configuration of image display system according to second embodiment>
FIG. 18B is a block diagram illustrating an example of the functional configuration of the image display system according to this embodiment. As shown in FIG. 18B, the image display system 1a has a HUD 100a and a stereo camera 300. In addition, the stereo camera 300 includes a first imaging unit 301, a second imaging unit 302, a detection image output unit 303, a parallax image acquisition unit 304, a distance image acquisition unit 305, and a distance image output unit 306. The HUD 100 has a distance image input unit 118, a head position/orientation detection unit 116a, an object detection unit 117a, and a change unit 113a.

第1撮像部301は、被写体像を結像させるレンズと、結像された被写体像を撮像する撮像素子と、撮像素子を制御する撮像制御部とを有し、車両120の運転者130の頭部131と、車両120の外部とが同一画像内に含まれている検出画像を撮像する。第2撮像部302の構成も第1撮像部301と同様である。 The first imaging unit 301 includes a lens that forms a subject image, an imaging device that captures the formed subject image, and an imaging control unit that controls the imaging device, and the head of the driver 130 of the vehicle 120. The detection image in which the unit 131 and the outside of the vehicle 120 are included in the same image is captured. The configuration of the second image pickup unit 302 is similar to that of the first image pickup unit 301.

第1撮像部301は、第2撮像部302に対して基線長だけ離れた位置に設けられ、それぞれが撮像する検出画像間には基線長に対応する視差が含まれる。ここで、図19は、本実施形態に係るステレオカメラによる検出画像の一例を説明する図である。(a)は第1撮像部による検出画像を説明する図であり、(b)は第2撮像部による検出画像を説明する図である。 The first imaging unit 301 is provided at a position separated from the second imaging unit 302 by the baseline length, and the detected images captured by each include a parallax corresponding to the baseline length. Here, FIG. 19 is a diagram illustrating an example of an image detected by the stereo camera according to the present embodiment. (A) is a figure explaining the detection image by a 1st imaging part, (b) is a figure explaining the detection image by a 2nd imaging part.

図19に示すように、第1撮像部301による検出画像と第2撮像部302による検出画像の間には左右方向の視差が生じている。この視差に基づき、ステレオカメラ300は、運転者130の頭部131までの距離を検出することができる。尚、説明の便宜のため、以降では、第1撮像部301による検出画像を第1検出画像と称し、第2撮像部302による検出画像を第2検出画像と称する。 As shown in FIG. 19, there is a parallax in the left-right direction between the image detected by the first imaging unit 301 and the image detected by the second imaging unit 302. Based on this parallax, the stereo camera 300 can detect the distance to the head 131 of the driver 130. For convenience of description, the image detected by the first imaging unit 301 will be referred to as a first detection image, and the image detected by the second imaging unit 302 will be referred to as a second detection image hereinafter.

図18Bに戻り、説明を続ける。第1撮像部301は、第1検出画像を検出画像出力部303及び視差画像取得部304に出力し、第2撮像部302は、第2検出画像を視差画像取得部304に出力する。 Returning to FIG. 18B, the description will be continued. The first imaging unit 301 outputs the first detection image to the detection image output unit 303 and the parallax image acquisition unit 304, and the second imaging unit 302 outputs the second detection image to the parallax image acquisition unit 304.

検出画像出力部303は、入力した第1検出画像をHUD100aの検出画像入力部114に出力する。なお、検出画像出力部303は、第2検出画像を入力して検出画像入力部114に出力してもよい。 The detection image output unit 303 outputs the input first detection image to the detection image input unit 114 of the HUD 100a. The detection image output unit 303 may input the second detection image and output the second detection image to the detection image input unit 114.

視差画像取得部304は、入力した第1検出画像と第2検出画像に基づき、両者の視差を演算して視差画像を取得する。視差演算処理ではブロックマッチング画像処理等が実行され、検出画像の微小ブロック毎の視差が含まれる視差画像等が取得される。視差演算処理には公知の技術を適用できるため、ここでは説明を省略する。視差画像取得部304は、取得した視差画像を距離画像取得部305に出力する。 The parallax image acquisition unit 304 calculates the parallax between the first detection image and the second detection image that have been input, and acquires the parallax image. In the parallax calculation processing, block matching image processing or the like is executed, and a parallax image or the like including parallax for each minute block of the detected image is acquired. Since a known technique can be applied to the parallax calculation process, the description thereof is omitted here. The parallax image acquisition unit 304 outputs the acquired parallax image to the distance image acquisition unit 305.

距離画像取得部305は、視差画像の視差を距離に換算して距離画像を取得し、距離画像出力部306に出力する。距離画像出力部306は入力した距離画像をHUD100aの距離画像入力部118に出力する。 The distance image acquisition unit 305 converts the parallax of the parallax image into a distance, acquires the distance image, and outputs the distance image to the distance image output unit 306. The distance image output unit 306 outputs the input distance image to the distance image input unit 118 of the HUD 100a.

頭部位置・姿勢検出部116aは、距離画像入力部118を介して入力した距離画像から運転者130の頭部131を抽出し、頭部131の3次元な位置・姿勢を検出して、検出結果を変更部113aに出力する。 The head position/orientation detection unit 116a extracts the head 131 of the driver 130 from the distance image input via the distance image input unit 118, detects the three-dimensional position/orientation of the head 131, and performs detection. The result is output to the changing unit 113a.

物体検出部117aは、ステレオカメラ300から入力された車両120の前方の距離情報に含まれる歩行者を検出し、歩行者の位置情報を画像生成部112に出力することができる。但し、物体検出部117aは、ステレオカメラ300から画像情報を入力し、画像情報に含まれる歩行者を検出して、歩行者の位置情報を画像生成部112に出力してもよい。 The object detection unit 117a can detect a pedestrian included in the distance information ahead of the vehicle 120 input from the stereo camera 300, and output the pedestrian position information to the image generation unit 112. However, the object detection unit 117a may input image information from the stereo camera 300, detect a pedestrian included in the image information, and output position information of the pedestrian to the image generation unit 112.

また、上記の車両120の前方の距離情報、又は画像情報は、CANバスに接続された外部の装置から物体検出部117aに入力されてもよい。 Further, the distance information in front of the vehicle 120 or the image information may be input to the object detection unit 117a from an external device connected to the CAN bus.

変更部113aは、入力した頭部131の3次元な位置・姿勢に基づき、表示画像の位置・傾きを変更する。これにより運転者130の視界に対する表示画像の位置・傾きの位置ずれを補正する。 The changing unit 113a changes the position/tilt of the display image based on the input three-dimensional position/orientation of the head 131. This corrects the positional deviation of the position/tilt of the display image with respect to the visual field of the driver 130.

なお、本実施形態では、HUD100aが処理部101aを有する例を説明したが、処理部101aの一部又は全部の機能をステレオカメラ300が備えてもよい。また処理部101aをHUD100a及びステレオカメラ300とは別に設けてもよい。 Note that, in the present embodiment, an example in which the HUD 100a has the processing unit 101a has been described, but the stereo camera 300 may have some or all of the functions of the processing unit 101a. Further, the processing unit 101a may be provided separately from the HUD 100a and the stereo camera 300.

<第2の実施形態に係る画像表示システムの動作>
次に、画像表示システム1aの動作について説明する。
<Operation of Image Display System According to Second Embodiment>
Next, the operation of the image display system 1a will be described.

図20は、本実施形態に係る画像表示システムの動作の一例を説明するシーケンス図である。なお、図20では、運転者130の視界に含まれる歩行者と重なる位置に、表示画像としてマーク141を表示する場合を一例として説明する。 FIG. 20 is a sequence diagram illustrating an example of the operation of the image display system according to this embodiment. In addition, in FIG. 20, a case where the mark 141 is displayed as a display image at a position overlapping with a pedestrian included in the field of view of the driver 130 will be described as an example.

先ず、ステップS201において、ステレオカメラ300の備える第1撮像部301は、第1検出画像を撮像し、検出画像出力部303及び視差画像取得部304に出力する。 First, in step S201, the first imaging unit 301 included in the stereo camera 300 captures a first detection image and outputs the first detection image to the detection image output unit 303 and the parallax image acquisition unit 304.

続いて、ステップS202において、第2撮像部302は、第2検出画像を撮像し、視差画像取得部304に出力する。 Subsequently, in step S202, the second imaging unit 302 images the second detection image and outputs the second detection image to the parallax image acquisition unit 304.

続いて、ステップS203において、視差画像取得部304は、入力した第1検出画像と第2検出画像に基づき、両者の視差を演算して視差画像を取得する。視差画像取得部304は、取得した視差画像を距離画像取得部305に出力する。 Subsequently, in step S203, the parallax image acquisition unit 304 calculates the parallax between the first detection image and the second detection image that have been input, and acquires the parallax image. The parallax image acquisition unit 304 outputs the acquired parallax image to the distance image acquisition unit 305.

続いて、ステップS204において、距離画像取得部305は、視差画像の視差を距離に換算して距離画像を取得し、距離画像出力部306に出力する。 Subsequently, in step S204, the distance image acquisition unit 305 converts the parallax of the parallax image into a distance, acquires the distance image, and outputs the distance image to the distance image output unit 306.

続いて、ステップS205において、検出画像出力部303は、入力した検出画像をHUD100の備える検出画像入力部114に出力し、検出画像入力部114は、入力した検出画像を車両傾き検出部115に出力する。 Subsequently, in step S205, the detection image output unit 303 outputs the input detection image to the detection image input unit 114 included in the HUD 100, and the detection image input unit 114 outputs the input detection image to the vehicle tilt detection unit 115. To do.

続いて、ステップS206において、距離画像出力部306は、入力した距離画像を距離画像入力部118に出力し、距離画像入力部118は、入力した距離画像を頭部位置・姿勢検出部116aに出力する。 Subsequently, in step S206, the distance image output unit 306 outputs the input distance image to the distance image input unit 118, and the distance image input unit 118 outputs the input distance image to the head position/posture detection unit 116a. To do.

続いて、ステップS207において、HUD100aの備える物体検出部117aは、ステレオカメラ300から入力された距離画像に含まれる歩行者を検出し、歩行者の位置情報を画像生成部112に出力する。 Subsequently, in step S207, the object detection unit 117a included in the HUD 100a detects a pedestrian included in the distance image input from the stereo camera 300, and outputs position information of the pedestrian to the image generation unit 112.

続いて、ステップS208において、画像生成部112は、入力した歩行者の位置情報に基づき、運転者130の視界に含まれる歩行者と重なる位置にマーク141を表示する表示画像を生成し、変更部113aに出力する。 Subsequently, in step S208, the image generation unit 112 generates a display image that displays the mark 141 at a position overlapping the pedestrian included in the field of view of the driver 130 based on the input position information of the pedestrian, and the changing unit. It is output to 113a.

なお、ステップS201〜S204の距離画像取得処理と、ステップS207〜S208の表示画像生成処理の順番は適宜変更可能であり、また距離画像取得処理と表示画像生成処理が並行して実行されてもよい。同様に、ステップS205〜S206の処理の順番も適宜変更可能であり、またS205〜S206の処理が並行して実行されてもよい。 The order of the distance image acquisition process of steps S201 to S204 and the display image generation process of steps S207 to S208 can be changed as appropriate, and the distance image acquisition process and the display image generation process may be executed in parallel. .. Similarly, the order of the processes of steps S205 to S206 can be changed as appropriate, and the processes of S205 to S206 may be executed in parallel.

続いて、ステップS209において、車両傾き検出部115は、入力した第1検出画像に基づき、車両120の傾きを検出し、検出結果を変更部113aに出力する。 Subsequently, in step S209, the vehicle tilt detection unit 115 detects the tilt of the vehicle 120 based on the input first detection image, and outputs the detection result to the change unit 113a.

続いて、ステップS210において、頭部位置・姿勢検出部116は、入力した距離画像に基づき、頭部131の3次元的な位置・姿勢を検出し、検出結果を変更部113aに出力する。 Subsequently, in step S210, the head position/orientation detecting unit 116 detects the three-dimensional position/orientation of the head 131 based on the input distance image, and outputs the detection result to the changing unit 113a.

なお、距離画像取得処理後にS207〜S208の処理を行う場合、ステップS207〜S210の処理の順番は適宜変更可能であり、またS207〜S210の処理が並行して実行されてもよい。 When performing the processing of S207 to S208 after the distance image acquisition processing, the order of the processing of steps S207 to S210 can be changed as appropriate, and the processing of S207 to S210 may be executed in parallel.

続いて、ステップS211において、変更部113aは入力した車両120の傾き、並びに頭部131の位置・姿勢に応じて、マーク141の位置・傾きを変更する。そして変更部113aは、マーク141の位置・傾きが変更された表示画像を画像表示部102に出力する。 Subsequently, in step S211, the changing unit 113a changes the position/tilt of the mark 141 according to the input tilt of the vehicle 120 and the position/orientation of the head 131. Then, the changing unit 113a outputs the display image in which the position/tilt of the mark 141 is changed to the image display unit 102.

続いて、ステップS212において、画像表示部102は、入力した表示画像を表示する。 Subsequently, in step S212, the image display unit 102 displays the input display image.

このようにして、画像表示システム1aは、位置・傾きのずれが補正された表示画像を、フロントガラス125を介して運転者130に視認可能に表示することができる。 In this way, the image display system 1a can visually display the display image, in which the displacement of the position/tilt is corrected, to the driver 130 through the windshield 125.

なお、上述では、表示画像としてマーク141を表示する場合を一例に説明したが、進路情報142の位置・傾きのずれを補正して表示してもよい。この場合は、ステップS201において、HUD100aの備える現在位置情報取得部111は、入力したGPS情報に基づき、地図情報記憶部110を参照して車両120の現在位置、及びその周辺状況の情報を取得し、画像生成部112に出力する。ステップS202以降の処理は、表示画像が進路情報142となる点を除き、上述したものと同様である。 Note that, in the above description, the case where the mark 141 is displayed as a display image has been described as an example, but the position/tilt deviation of the route information 142 may be corrected and displayed. In this case, in step S201, the current position information acquisition unit 111 included in the HUD 100a refers to the map information storage unit 110 based on the input GPS information, and acquires the current position of the vehicle 120 and information on the surrounding conditions thereof. , To the image generation unit 112. The process after step S202 is the same as that described above except that the display image becomes the route information 142.

以上説明してきたように、本実施形態では、ステレオカメラ300を撮像装置とし、運転者130の頭部131の3次元位置情報を利用する。これにより、高精度に頭部131の位置・姿勢を検出することができ、頭部131の位置・姿勢の変化による表示画像の位置・傾きのずれを、より適切に補正することができる。 As described above, in the present embodiment, the stereo camera 300 is used as an imaging device and the three-dimensional position information of the head 131 of the driver 130 is used. As a result, the position/orientation of the head 131 can be detected with high accuracy, and the deviation in the position/tilt of the display image due to the change in the position/orientation of the head 131 can be more appropriately corrected.

なお、これ以外の効果は上述の実施形態で説明したものと同様である。 The other effects are similar to those described in the above embodiment.

[第3の実施形態]
次に、第3の実施形態に係る画像表示システムを説明する。
[Third Embodiment]
Next, an image display system according to the third embodiment will be described.

本実施形態に係る画像表示システムは、受動的表示画像と能動的表示画像とが含まれる表示画像を表示するものである。ここで、受動的表示画像とは、表示の位置・傾きが変更部113により変更される画像であり、また能動的表示画像とは、表示の位置・傾きが何れも変更部113により変更されない画像である。 The image display system according to the present embodiment displays a display image including a passive display image and an active display image. Here, the passive display image is an image whose display position/tilt is changed by the changing unit 113, and the active display image is an image whose display position/tilt is not changed by the changing unit 113. Is.

図21は、本実施形態に係る表示画像の一例を説明する図である。図21に示すように、フロントガラスを通した運転者の視界221には、前方車両222が含まれている。また運転者の視界221に重畳して、受動的表示画像223と、能動的表示画像224が表示されている。 FIG. 21 is a diagram illustrating an example of a display image according to this embodiment. As shown in FIG. 21, a driver's view 221 through the windshield includes a front vehicle 222. Further, a passive display image 223 and an active display image 224 are displayed so as to be superimposed on the driver's visual field 221.

受動的表示画像223は、自車両である車両120の進路を示す矢印を表示する画像であり、車両120の傾きや運転者130の頭部131の位置・姿勢に応じて位置・傾きが変更される画像である。 The passive display image 223 is an image that displays an arrow indicating the course of the vehicle 120 that is the host vehicle, and the position/tilt is changed according to the tilt of the vehicle 120 and the position/posture of the head 131 of the driver 130. Image.

一方、能動的表示画像224は、図21に示すように、走行速度「30km」と右折地点までの距離「100m」とを表示する画像である。これらは運転者130の視界とは無関係の情報を提示するものであるため、運転者130の視界の変化に応じて、位置・傾きを変更する必要がなく、逆に静止させた状態で表示したほうが好適な情報である。従って、本実施形態では、能動的表示画像224を、表示の位置・傾きが何れも変更部113により変更されない画像としている。 On the other hand, as shown in FIG. 21, the active display image 224 is an image displaying the traveling speed “30 km” and the distance “100 m” to the right turn point. Since these present information that is irrelevant to the field of view of the driver 130, it is not necessary to change the position/tilt according to the change in the field of view of the driver 130, but instead, the information is displayed in a stationary state. Better information is better. Therefore, in this embodiment, the active display image 224 is an image in which neither the display position nor the inclination is changed by the changing unit 113.

このように、本実施形態によれば、必要な情報の位置・傾きのみを運転者130の視界の変化に応じて変更することで、拡張現実感のある画像表示を適切に行うことができる。 As described above, according to the present embodiment, only the position/tilt of necessary information is changed according to the change in the field of view of the driver 130, so that the image display with augmented reality can be appropriately performed.

以上、好ましい実施の形態について詳説したが、上述した実施の形態に制限されることはなく、特許請求の範囲に記載された範囲を逸脱することなく、上述した実施の形態に種々の変形及び置換を加えることができる。 Although the preferred embodiments have been described in detail above, the present invention is not limited to the above-described embodiments, and various modifications and replacements of the above-described embodiments are possible without departing from the scope of the claims. Can be added.

具体的には、移動体としては2輪車、一般車などの4輪車、建設・農業・産業車両、鉄道車両、特殊車両であってもよく、また、ドローンなどの飛行体であってもよい。これらまとめて移動体と称する。 Specifically, the moving body may be a two-wheeled vehicle, a four-wheeled vehicle such as a general vehicle, a construction/agriculture/industrial vehicle, a railway vehicle, a special vehicle, or a flying body such as a drone. Good. These are collectively called a moving body.

また実施形態は、画像表示方法も含む。例えば、画像表示方法は、撮像装置と、画像表示装置と、を有し、移動体に設けられる画像表示システムによる画像表示方法であって、前記撮像装置が、前記移動体の乗員の頭部と、前記移動体の外部と、が同一画像内に含まれている画像を撮像する撮像工程と、前記画像を前記画像表示装置に出力する出力工程と、を含み、前記画像表示装置が、表示画像を生成する画像生成工程と、生成された前記表示画像を、前記乗員による視認の際に前記移動体の外部と重なる位置に表示する画像表示工程と、前記画像に応じて、前記表示画像を表示する位置及び傾きの少なくとも1つを変更する変更工程と、を含む。 The embodiment also includes an image display method. For example, the image display method is an image display method using an image display system provided in a moving body, which includes an image pickup device and an image display device, wherein the image pickup device is a head of an occupant of the moving body. A step of outputting the image to the image display device, and an image capturing step of capturing an image included in the same image outside the moving body, and an output step of outputting the image to the image display device. And an image display step of displaying the generated display image at a position overlapping the outside of the moving body when visually recognized by the occupant, and displaying the display image according to the image. And a changing step of changing at least one of the position and the inclination.

このような画像表示方法により、上述の画像表示システムと同様の効果を得ることができる。またこのような画像表示方法は、CPU、LSIなどの回路、ICカード又は単体のモジュール等によって、実現されてもよい。 With such an image display method, it is possible to obtain the same effect as the above-described image display system. Further, such an image display method may be realized by a circuit such as a CPU or an LSI, an IC card or a single module.

1、1a 画像表示システム
51 光源部
52 光偏向器
53 第1ミラー
54 被走査面
55 第2ミラー
59 透過反射部材
61 舵角センサ
62 着座センサ
63 車速センサ
91 FPGA
92 LDドライバ
93 MEMSコントローラ
100、100a HUD(画像表示装置の一例)
101、101a 処理部
102 画像表示部
103 CPU
104 ROM
105 RAM
106 入出力I/F
107 SSD
108 GPS受信機
109、109a 検出部
110 地図情報記憶部
111 現在位置情報取得部
112 画像生成部
113、113a 変更部
114 検出画像入力部
115 車両傾き検出部
116、116a 頭部位置・姿勢検出部
117、117a 物体検出部
118 距離画像入力部
120 車両(移動体の一例)
125 フロントガラス
126 ルームミラー
127 上辺(内部構造の一例)
130 運転者(乗員の一例)
131 頭部
135 眼球
141 マーク
142〜144 進路情報
150 道路
150a 地平線
151 歩行者
152 十字路
153 上り坂
154 下り坂
155 交差道路
160 虚像
200 広角カメラ
210 撮像部
211 画像出力部(出力部の一例)
221 視界
222 前方車両
223 受動的表示画像
224 能動的表示画像
300 ステレオカメラ
301 第1撮像部
302 第2撮像部
303 検出画像出力部
304 視差画像取得部
305 距離画像取得部
306 距離画像出力部
1, 1a Image display system 51 Light source unit 52 Optical deflector 53 First mirror 54 Scanned surface 55 Second mirror 59 Transmission/reflection member 61 Steering angle sensor 62 Seating sensor 63 Vehicle speed sensor 91 FPGA
92 LD driver 93 MEMS controller 100, 100a HUD (an example of image display device)
101, 101a processing unit 102 image display unit 103 CPU
104 ROM
105 RAM
106 Input/output I/F
107 SSD
108 GPS receivers 109, 109a Detection unit 110 Map information storage unit 111 Current position information acquisition unit 112 Image generation unit 113, 113a Change unit 114 Detection image input unit 115 Vehicle tilt detection unit 116, 116a Head position/posture detection unit 117 117a Object detection unit 118 Distance image input unit 120 Vehicle (an example of a moving body)
125 Windshield 126 Interior mirror 127 Upper side (an example of internal structure)
130 Driver (an example of a passenger)
131 Head 135 Eyeball 141 Mark 142-144 Path information 150 Road 150a Horizon 151 Pedestrian 152 Crossroad 153 Uphill 154 Downhill 155 Crossroad 160 Virtual image 200 Wide-angle camera 210 Imaging unit 211 Image output unit (an example of output unit)
221 Field of view 222 Forward vehicle 223 Passive display image 224 Active display image 300 Stereo camera 301 First imaging unit 302 Second imaging unit 303 Detection image output unit 304 Parallax image acquisition unit 305 Distance image acquisition unit 306 Distance image output unit

特開2017−087826号公報JP, 2017-087826, A

Claims (11)

撮像装置と、画像表示装置と、を有し、移動体に設けられる画像表示システムであって、
前記撮像装置は、
前記移動体の乗員の頭部と、前記移動体の外部と、が同一画像内に含まれている画像を撮像する撮像部を有し、
前記画像表示装置は、
表示画像を生成する画像生成部と、
生成された前記表示画像を、前記乗員による視認の際に前記移動体の外部と重なる位置に表示する画像表示部と、
前記画像に応じて、前記表示画像を表示する位置及び傾きの少なくとも1つを変更する変更部と、を有する
画像表示システム。
An image display system having an image pickup device and an image display device, the image display system being provided on a moving body,
The imaging device is
A head of the occupant of the moving body, and the outside of the moving body, and an imaging unit that captures images included in the same image,
The image display device,
An image generation unit that generates a display image,
An image display unit that displays the generated display image at a position overlapping the outside of the moving body when visually recognized by the occupant,
An image display system comprising: a changing unit that changes at least one of a position and an inclination at which the display image is displayed according to the image.
前記画像に基づき、前記乗員の頭部の位置、前記乗員の頭部の姿勢、前記移動体の傾きの少なくとも1つを検出する検出部を有する、
請求項1に記載の画像表示システム。
A detection unit that detects at least one of the position of the head of the occupant, the posture of the head of the occupant, and the inclination of the moving body based on the image;
The image display system according to claim 1.
前記画像には、前記移動体の乗員の頭部と、前記移動体の外部と、に加え、前記移動体の内部構造が同一画像内にさらに含まれ、
前記検出部は、前記内部構造の前記外部に対する位置及び傾きの少なくとも1つに基づき、前記移動体の前記外部に対する傾きを検出する
請求項1、又は2に記載の画像表示システム。
In the image, in addition to the head of the occupant of the moving body and the outside of the moving body, the internal structure of the moving body is further included in the same image,
The image display system according to claim 1, wherein the detection unit detects an inclination of the moving body with respect to the outside based on at least one of a position and an inclination of the internal structure with respect to the outside.
前記撮像装置は、広角レンズを有する
請求項1乃至3の何れか1項に記載の画像表示システム。
The image display system according to claim 1, wherein the imaging device has a wide-angle lens.
前記撮像装置は、ステレオカメラを有する
請求項1乃至4の何れか1項に記載の画像表示システム。
The image display system according to claim 1, wherein the imaging device includes a stereo camera.
前記表示画像には、前記移動体の進路を示す情報が含まれている
請求項1乃至5の何れか1項に記載の画像表示システム。
The image display system according to claim 1, wherein the display image includes information indicating a course of the moving body.
前記表示画像には、
前記表示画像を表示する位置及び傾きの少なくとも1つが前記変更部により変更される受動的表示画像と、
前記表示画像を表示する位置及び傾きが何れも前記変更部により変更されない能動的表示画像と、が含まれている
請求項1乃至6の何れか1項に記載の画像表示システム。
In the display image,
At least one of a position and a tilt at which the display image is displayed is changed by the changing unit, and
The image display system according to any one of claims 1 to 6, further comprising: an active display image whose position and inclination for displaying the display image are not changed by the changing unit.
請求項1乃至7の何れか1項に記載の画像表示システムを有する移動体。 A moving body comprising the image display system according to claim 1. 撮像装置と、画像表示装置と、を有し、移動体に設けられる画像表示システムによる画像表示方法であって、
前記撮像装置が、
前記移動体の乗員の頭部と、前記移動体の外部と、が同一画像内に含まれている画像を撮像する撮像工程と、
前記画像を前記画像表示装置に出力する出力工程と、を含み、
前記画像表示装置が、
表示画像を生成する画像生成工程と、
生成された前記表示画像を、前記乗員による視認の際に前記移動体の外部と重なる位置に表示する画像表示工程と、
前記画像に応じて、前記表示画像を表示する位置及び傾きの少なくとも1つを変更する変更工程と、を含む
画像表示方法。
An image display method using an image display system provided on a moving body, the method including an imaging device and an image display device,
The imaging device is
An imaging step of capturing an image in which the head of the occupant of the moving body and the outside of the moving body are included in the same image,
An output step of outputting the image to the image display device,
The image display device,
An image generation process for generating a display image,
An image display step of displaying the generated display image at a position overlapping the outside of the moving body when visually recognized by the occupant,
And a changing step of changing at least one of a position and a tilt at which the display image is displayed according to the image.
移動体に設けられる画像表示装置であって、
表示画像を生成する画像生成部と、
生成された前記表示画像を、乗員による視認の際に前記移動体の外部と重なる位置に表示する画像表示部と、
前記移動体の前記乗員の頭部と、前記移動体の外部と、が同一画像内に含まれている入力画像に基づき、前記表示画像を表示する位置及び傾きの少なくとも1つを変更する変更部と、を有する
画像表示装置。
An image display device provided on a moving body,
An image generation unit that generates a display image,
An image display unit that displays the generated display image at a position overlapping the outside of the moving body when visually recognized by an occupant,
A changing unit that changes at least one of a position and an inclination at which the display image is displayed based on an input image in which the head of the occupant of the moving body and the outside of the moving body are included in the same image. And an image display device having.
移動体に設けられる画像表示装置のコンピュータに、
表示画像を生成する画像生成ステップと、
生成された前記表示画像を、乗員による視認の際に前記移動体の外部と重なる位置に表示する画像表示ステップと、
前記移動体の前記乗員の頭部と、前記移動体の外部と、が同一画像内に含まれている入力画像に基づき、前記表示画像を表示する位置及び傾きの少なくとも1つを変更する変更ステップと、を実行させる
プログラム。
In the computer of the image display device provided in the moving body,
An image generation step of generating a display image,
An image display step of displaying the generated display image at a position overlapping the outside of the moving body when visually recognized by an occupant,
A changing step of changing at least one of a position and an inclination at which the display image is displayed, based on an input image in which the head of the occupant of the moving body and the outside of the moving body are included in the same image. And a program to execute.
JP2018225797A 2018-11-30 2018-11-30 Image display system, movable body, image display method, and image display device Withdrawn JP2020083280A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018225797A JP2020083280A (en) 2018-11-30 2018-11-30 Image display system, movable body, image display method, and image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018225797A JP2020083280A (en) 2018-11-30 2018-11-30 Image display system, movable body, image display method, and image display device

Publications (1)

Publication Number Publication Date
JP2020083280A true JP2020083280A (en) 2020-06-04

Family

ID=70906044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018225797A Withdrawn JP2020083280A (en) 2018-11-30 2018-11-30 Image display system, movable body, image display method, and image display device

Country Status (1)

Country Link
JP (1) JP2020083280A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010156608A (en) * 2008-12-26 2010-07-15 Toshiba Corp Automotive display system and display method
JP2012230522A (en) * 2011-04-26 2012-11-22 Nissan Motor Co Ltd Image processing apparatus and image processing method
JP2013237320A (en) * 2012-05-14 2013-11-28 Toshiba Alpine Automotive Technology Corp Discomfort reduction display device and method for controlling display thereof
JP2018103697A (en) * 2016-12-26 2018-07-05 日本精機株式会社 Display device for vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010156608A (en) * 2008-12-26 2010-07-15 Toshiba Corp Automotive display system and display method
JP2012230522A (en) * 2011-04-26 2012-11-22 Nissan Motor Co Ltd Image processing apparatus and image processing method
JP2013237320A (en) * 2012-05-14 2013-11-28 Toshiba Alpine Automotive Technology Corp Discomfort reduction display device and method for controlling display thereof
JP2018103697A (en) * 2016-12-26 2018-07-05 日本精機株式会社 Display device for vehicle

Similar Documents

Publication Publication Date Title
JP6731644B2 (en) Display position correction device, display device including display position correction device, and moving body including display device
CN111433067B (en) Head-up display device and display control method thereof
CN110573369B (en) Head-up display device and display control method thereof
JP5161760B2 (en) In-vehicle display system and display method
JP6201690B2 (en) Vehicle information projection system
US8094192B2 (en) Driving support method and driving support apparatus
US20210019867A1 (en) Image display system, image display method, storage medium, and moving vehicle including the image display system
CN110308556B (en) Image forming system, image correcting system, image displaying method, moving object, and non-transitory computer-readable medium
JP2001344597A (en) Fused visual field device
JP2019073272A (en) Display device, program, video processing method, display system, and movable body
WO2019224922A1 (en) Head-up display control device, head-up display system, and head-up display control method
WO2020012879A1 (en) Head-up display
JP2016159656A (en) Display device for vehicle
CN110632755B (en) Video display system and method, non-transitory recording medium, and moving object
JP2020083280A (en) Image display system, movable body, image display method, and image display device
JP2009005054A (en) Driving support device, driving support method, and program
US20200047686A1 (en) Display device, display control method, and storage medium
JP5756741B2 (en) Image display device for vehicle
JPWO2020090187A1 (en) Virtual image display device and head-up display device
WO2019074114A1 (en) Display device, program, image processing method, display system, and moving body
JP2023074703A (en) Display control device, head-up display device and display control method
JPWO2019124323A1 (en) Virtual image display device and head-up display device
JP2022077138A (en) Display controller, head-up display device, and display control method
JP2013026797A (en) Image display unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210915

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20221111