JP6769187B2 - Display method of display device and display device - Google Patents

Display method of display device and display device Download PDF

Info

Publication number
JP6769187B2
JP6769187B2 JP2016172916A JP2016172916A JP6769187B2 JP 6769187 B2 JP6769187 B2 JP 6769187B2 JP 2016172916 A JP2016172916 A JP 2016172916A JP 2016172916 A JP2016172916 A JP 2016172916A JP 6769187 B2 JP6769187 B2 JP 6769187B2
Authority
JP
Japan
Prior art keywords
vehicle
image
virtual viewpoint
pedestrian
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016172916A
Other languages
Japanese (ja)
Other versions
JP2018039295A (en
Inventor
橋本 隆志
隆志 橋本
小林 誠一
誠一 小林
草柳 佳紀
佳紀 草柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2016172916A priority Critical patent/JP6769187B2/en
Publication of JP2018039295A publication Critical patent/JP2018039295A/en
Application granted granted Critical
Publication of JP6769187B2 publication Critical patent/JP6769187B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、自車両の周囲を表示し、乗員の視覚支援を行う表示装置の表示方法及び表示装置に関する発明である。 The present invention relates to a display method and a display device of a display device that displays the surroundings of the own vehicle and visually assists an occupant.

従来、自車両の現在位置を特定し、特定した現在位置を含む周辺の道路構成情報に基づいて自車両に設けられた複数のカメラの撮影画像のうちのいずれを表示するかを選択し、選択した撮影画像を表示装置に表示する表示方法が知られている(例えば、特許文献1参照)。 Conventionally, the current position of the own vehicle is specified, and one of the images taken by a plurality of cameras provided in the own vehicle is selected and selected based on the surrounding road configuration information including the specified current position. A display method for displaying the captured image on a display device is known (see, for example, Patent Document 1).

特開2005-309812号公報Japanese Unexamined Patent Publication No. 2005-309812

従来の表示装置の表示方法にあっては、自車両の走行状況に応じて、複数のカメラの撮影画像の中からいずれかを表示するというものであり、同じ画像の中でも視点変換をするものではなかった。そのため自車両の周囲に存在する対象物と、自車両との相対的な位置関係が変化した際、表示装置に表示された画像の中で、自車両と対象物との相対的な位置関係を把握することが難しい場合があった。 In the display method of the conventional display device, one of the images taken by a plurality of cameras is displayed according to the traveling condition of the own vehicle, and the viewpoint is not changed even in the same image. There wasn't. Therefore, when the relative positional relationship between the object existing around the own vehicle and the own vehicle changes, the relative positional relationship between the own vehicle and the object is displayed in the image displayed on the display device. Sometimes it was difficult to figure out.

本発明は、上記問題に着目してなされたもので、乗員に対して表示された画像の中で、自車両と対象物との相対的な位置関係を容易に把握することができる表示装置の表示方法及び表示装置を提供することを目的とする。 The present invention has been made by paying attention to the above problem, and is a display device capable of easily grasping the relative positional relationship between the own vehicle and the object in the image displayed to the occupant. It is an object of the present invention to provide a display method and a display device.

上記目的を達成するため、本発明は、自車両の周囲の対象物を検出し、自車両に備わる複数のカメラによって得られた撮影画像より、対象物を含んだ仮想視点からの画像を乗員の視覚支援情報として表示する表示装置の表示方法において、複数のカメラのうち、前記対象物を検出する所定カメラを特定するステップと、対象物位置特定ステップと、仮想視点設定ステップと、仮想画像生成ステップと、を有する。
対象物位置特定ステップでは、所定カメラに対する自車両の前後方向若しくは自車両の左右方向の対象物の位置を特定する。
仮想視点設定ステップでは、所定カメラに対する対象物の位置と反対側の位置に仮想視点の位置を設定し、自車両と対象物とを視界に含むように仮想視点の向きを設定する。
仮想画像生成ステップでは、設定した仮想視点から見たときの画像を生成する。
In order to achieve the above object, the present invention detects an object around the own vehicle, and obtains an image from a virtual viewpoint including the object from the captured images obtained by a plurality of cameras provided in the own vehicle . In the display method of the display device that displays as visual assistance information, a step of specifying a predetermined camera for detecting the object, an object position specifying step, a virtual viewpoint setting step, and a virtual image generation step among a plurality of cameras. And have.
In the object position specifying step, the position of the object in the front-rear direction of the own vehicle or the left-right direction of the own vehicle with respect to the predetermined camera is specified.
The virtual viewpoint setting step sets the position and the position of the virtual viewpoint in a position opposite to the object with respect to a given camera, to set the orientation of the virtual viewpoint to include the field of view of the subject vehicle and the object.
In the virtual image generation step, an image is generated when viewed from the set virtual viewpoint.

この結果、表示された画像の中で対象物を容易に把握することができる。 As a result, the object can be easily grasped in the displayed image.

実施例1の表示方法及び表示装置が適用された表示支援システムを示す全体システム構成図である。FIG. 5 is an overall system configuration diagram showing a display support system to which the display method and display device of the first embodiment are applied. 実施例1の視覚支援CPUにて実行される視覚支援制御処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the visual assist control processing executed by the visual assist CPU of Example 1. FIG. 自車両と第1位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。It is a top view which shows the positional relationship between the own vehicle and a pedestrian existing in the first position, and the virtual viewpoint at that time. 図3Aに示す仮想視点から見たときの仮想画像である。It is a virtual image when viewed from the virtual viewpoint shown in FIG. 3A. 自車両と第2位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。It is a top view which shows the positional relationship between the own vehicle and a pedestrian existing in a second position, and a virtual viewpoint at that time. 図4Aに示す仮想視点から見たときの仮想画像である。It is a virtual image when viewed from the virtual viewpoint shown in FIG. 4A. 自車両と第3位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。It is a top view which shows the positional relationship between the own vehicle and a pedestrian existing in a third position, and a virtual viewpoint at that time. 図5Aに示す仮想視点から見たときの仮想画像である。It is a virtual image when viewed from the virtual viewpoint shown in FIG. 5A. 自車両と第4位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。It is a top view which shows the positional relationship between the own vehicle and the pedestrian existing in the 4th position, and the virtual viewpoint at that time. 図6Aに示す仮想視点から見たときの仮想画像である。It is a virtual image when viewed from the virtual viewpoint shown in FIG. 6A. 図6Aに示す状態から所定時間経過後の自車両と歩行者との位置関係及びそのときの仮想視点を示す平面図である。It is a top view which shows the positional relationship between the own vehicle and a pedestrian after a lapse of a predetermined time from the state shown in FIG. 6A, and the virtual viewpoint at that time. 図6Cに示す仮想視点から見たときの仮想画像である。It is a virtual image when viewed from the virtual viewpoint shown in FIG. 6C. 自車両と第4位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。It is a top view which shows the positional relationship between the own vehicle and the pedestrian existing in the 4th position, and the virtual viewpoint at that time. 図7Aに示す仮想視点から見たときの仮想画像である。It is a virtual image when viewed from the virtual viewpoint shown in FIG. 7A. 図7Aに示す状態から所定時間経過後の自車両と歩行者との位置関係及びそのときの仮想視点を示す平面図である。It is a top view which shows the positional relationship between the own vehicle and a pedestrian after a lapse of a predetermined time from the state shown in FIG. 7A, and the virtual viewpoint at that time. 図7Cに示す仮想視点から見たときの仮想画像である。It is a virtual image when viewed from the virtual viewpoint shown in FIG. 7C. 実施例1の表示装置が適用された車両の他の第1例である。This is another first example of a vehicle to which the display device of the first embodiment is applied. 実施例1の表示装置が適用された車両の他の第2例である。This is another second example of the vehicle to which the display device of the first embodiment is applied. 図9に示す自車両と第7位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。9 is a plan view showing the positional relationship between the own vehicle and the pedestrian existing at the 7th position shown in FIG. 9 and the virtual viewpoint at that time. 実施例2の視覚支援CPUにて実行される視覚支援制御処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the visual assist control processing executed by the visual assist CPU of Example 2. 自車両と第8位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。It is a top view which shows the positional relationship between the own vehicle and the pedestrian existing in the 8th position, and the virtual viewpoint at that time. 図12Aに示す仮想視点から見たときの仮想画像である。It is a virtual image when viewed from the virtual viewpoint shown in FIG. 12A. 自車両と第9位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。It is a top view which shows the positional relationship between the own vehicle and the pedestrian existing in the 9th position, and the virtual viewpoint at that time. 図13Aに示す仮想視点から見たときの仮想画像である。It is a virtual image when viewed from the virtual viewpoint shown in FIG. 13A. 自車両と第10位置に存在する歩行者との位置関係及びそのときの仮想視点を示す平面図である。It is a top view which shows the positional relationship between the own vehicle and the pedestrian existing in the tenth position, and the virtual viewpoint at that time. 図14Aに示す状態から、歩行者が車両左方へ移動するときに生成される仮想画像であるIt is a virtual image generated when a pedestrian moves to the left of the vehicle from the state shown in FIG. 14A. 図14Aに示す状態から、歩行車が車両右方へ移動するときに生成される仮想画像である。It is a virtual image generated when a pedestrian vehicle moves to the right of the vehicle from the state shown in FIG. 14A. 実施例2の表示装置が適用された車両の他の例である。This is another example of a vehicle to which the display device of the second embodiment is applied.

以下、本発明の表示装置の表示方法及び表示装置を実施するための形態を、図面に示す実施例1に基づいて説明する。 Hereinafter, a display method of the display device of the present invention and a mode for carrying out the display device will be described with reference to Example 1 shown in the drawings.

(実施例1)
まず、構成を説明する。
実施例1における表示装置の表示方法及び表示装置は、車両に乗車している乗員の視覚支援を行う視覚支援システムを搭載した運転支援車両に適用したものである。以下、実施例1の構成を、「全体システム構成」、「乗員の視覚支援制御構成」、「視覚支援制御処理構成」に分けて説明する。
(Example 1)
First, the configuration will be described.
The display method and the display device of the display device in the first embodiment are applied to a driving support vehicle equipped with a visual support system that visually assists an occupant in the vehicle. Hereinafter, the configuration of the first embodiment will be described separately for the “overall system configuration”, the “visual assistance control configuration for the occupant”, and the “visual assistance control processing configuration”.

[全体システム構成]
図1は、実施例1の表示方法及び表示装置が適用された表示支援システムを示す全体システム構成図である。以下、図1に基づき、全体システム構成を説明する。
[Overall system configuration]
FIG. 1 is an overall system configuration diagram showing a display support system to which the display method and display device of the first embodiment are applied. Hereinafter, the overall system configuration will be described with reference to FIG.

実施例1の視覚支援システムは、図1に示すように、物体認識センサ21と、車載カメラ22と、舵角センサ23と、車速センサ24と、レンジ位置センサ25と、表示装置Dと、を備えている。そして、表示装置Dは、視覚支援CPU30(表示コントローラ)と、表示用ディスプレイ26と、を備えている。 As shown in FIG. 1, the visual support system of the first embodiment includes an object recognition sensor 21, an in-vehicle camera 22, a steering angle sensor 23, a vehicle speed sensor 24, a range position sensor 25, and a display device D. I have. The display device D includes a visual support CPU 30 (display controller) and a display display 26.

物体認識センサ21は、自車両に設けられ、車両周囲に存在する対象物の位置を検出するための対象物検出センサである。ここで、「対象物」とは、例えば歩行者や自転車、路面に設けられた区画線(駐車枠線)や縁石、フェンス、壁、対向車両等の乗員の視覚支援に必要となる物体である。
この物体認識センサ21は、自車両の前部に搭載されて車両前方領域を探索するフロントセンサ21aと、自車両の後部に搭載されて車両後方領域を探索するリヤセンサ21bと、自車両の左側面に搭載されて車両左方領域を探索する左側センサ21cと、自車両の右側面に搭載されて車両右方領域を探索する右側センサ21dと、を有している。
The object recognition sensor 21 is an object detection sensor provided in the own vehicle for detecting the position of an object existing around the vehicle. Here, the "object" is an object necessary for visual assistance of occupants such as pedestrians, bicycles, lane markings (parking borders) provided on the road surface, curbs, fences, walls, oncoming vehicles, and the like. ..
The object recognition sensor 21 includes a front sensor 21a mounted on the front portion of the own vehicle to search the front region of the vehicle, a rear sensor 21b mounted on the rear portion of the own vehicle to search the rear region of the vehicle, and a left side surface of the own vehicle. It has a left side sensor 21c mounted on the vehicle to search the left side region of the vehicle, and a right side sensor 21d mounted on the right side surface of the own vehicle to search the right side region of the vehicle.

物体認識センサ21としては、一般的に使用されているレーザレンジファインダに代表されるものである。しかし、レーザレンジファインダの他には、超音波を利用するクリアランスソナーを用いて対象物の位置を検出してもよい。レーザレンジファインダは、赤外線レーザーを目標物に照射し、その反射の度合いで目標物までの距離を測定できる装置であり、検出物体のまでの距離情報をポイントクラウド情報として取得できるようになっている。
物体認識センサ21によって取得された対象物までの距離情報は、視覚支援CPU30に出力される。
The object recognition sensor 21 is typified by a commonly used laser range finder. However, in addition to the laser range finder, the position of the object may be detected by using a clearance sonar that uses ultrasonic waves. The laser range finder is a device that can irradiate an infrared laser on a target and measure the distance to the target based on the degree of reflection, and can acquire distance information to the detected object as point cloud information. ..
The distance information to the object acquired by the object recognition sensor 21 is output to the visual aid CPU 30.

車載カメラ22は、自車両に設けられ、車両周囲に存在する対象物の位置を検出するための対象物検出センサである。この車載カメラ22は、自車両の前端部中央位置に搭載されて車両前方領域を撮影するフロントカメラ22aと、自車両の後端部中央位置に搭載されて車両前方領域を撮影するリヤカメラ22bと、自車両の左サイドミラーの下側左端位置に搭載されて車両左方領域を撮影する左サイドカメラ22cと、自車両の右サイドミラーの下側右端位置に搭載されて車両右方領域を撮影する右サイドカメラ22dと、を有している。 The in-vehicle camera 22 is an object detection sensor provided in the own vehicle for detecting the position of an object existing around the vehicle. The in-vehicle camera 22 includes a front camera 22a mounted at the center position of the front end of the own vehicle to photograph the front region of the vehicle, and a rear camera 22b mounted at the center position of the rear end of the vehicle to photograph the front region of the vehicle. The left side camera 22c mounted on the lower left end position of the left side mirror of the own vehicle to photograph the left side area of the vehicle, and the right side camera 22c mounted on the lower right end position of the right side mirror of the own vehicle to photograph the right side area of the vehicle. It has a right side camera 22d.

この車載カメラ22としては、一般的に使用されている単眼カメラに代表されるものである。しかし、単眼カメラの他には複数の撮影部を有するステレオカメラを用いて撮影してもよい。単眼カメラは、一つの撮影部を有するカメラであり、カラーカメラであってもよいし、モノクロカメラであってもよい。
車載カメラ22によって撮影された撮影画像情報は、視覚支援CPU30に出力される。
The in-vehicle camera 22 is typified by a commonly used monocular camera. However, in addition to the monocular camera, a stereo camera having a plurality of photographing units may be used for shooting. The monocular camera is a camera having one photographing unit, and may be a color camera or a monochrome camera.
The captured image information captured by the in-vehicle camera 22 is output to the visual support CPU 30.

舵角センサ23は、現在のタイヤ操舵角量などを見積もるための操舵角情報を取得するセンサである。舵角センサ信号は、視覚支援CPU30に出力される。 The steering angle sensor 23 is a sensor that acquires steering angle information for estimating the current tire steering angle amount and the like. The steering angle sensor signal is output to the visual aid CPU 30.

車速センサ24は、自車両の速度や走行距離を演算するための車速情報を取得するセンサであり、ここでは車輪に設けられた車輪速センサが用いられる。車速センサ信号は、視覚支援CPU30に出力される。 The vehicle speed sensor 24 is a sensor that acquires vehicle speed information for calculating the speed and mileage of the own vehicle, and here, a wheel speed sensor provided on the wheel is used. The vehicle speed sensor signal is output to the visual aid CPU 30.

レンジ位置センサ25は、セレクトレバーにより選択されたレンジポジション(P(パーキング),R(リバース),D(ドライブ),M(マニュアルモード)等)のレンジ位置情報を得るためのセンサであり、いわゆるインヒビタスイッチである。レンジ位置信号は、視覚支援CPU30に出力される。 The range position sensor 25 is a sensor for obtaining range position information of the range position (P (parking), R (reverse), D (drive), M (manual mode), etc.) selected by the select lever, and is so-called. It is an inhibitor switch. The range position signal is output to the visual aid CPU 30.

視覚支援CPU30は、物体認識センサ21等の各種センサからのセンサ情報及び車載カメラ22からの画像情報に基づいて、自車両の周囲に存在する対象物を設定し、自車両に対する当該対象物の位置を特定する。そして、特定した対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に仮想視点を設定し、設定した仮想視点からの画像(仮想画像)を生成する。生成した仮想画像情報は、表示用ディスプレイ26に出力される。 The visual support CPU 30 sets an object existing around the own vehicle based on sensor information from various sensors such as the object recognition sensor 21 and image information from the in-vehicle camera 22, and positions the object with respect to the own vehicle. To identify. Then, a virtual viewpoint is set at a position where the relative positional relationship between the own vehicle and the object is grasped according to the position of the specified object, and an image (virtual image) from the set virtual viewpoint is generated. The generated virtual image information is output to the display 26 for display.

表示用ディスプレイ26は、一般的に車両に設けられているナビゲーション用の液晶ディスプレイや、遠隔操作端末に設けられたモニタ等を利用することができ、視覚支援CPU30から入力された仮想画像情報を画面上に表示する。 The display 26 can use a liquid crystal display for navigation generally provided in a vehicle, a monitor provided in a remote control terminal, or the like, and displays virtual image information input from the visual support CPU 30 on a screen. Display above.

[乗員の視覚支援制御構成]
視覚支援CPU30は、自車両に搭載された表示装置Dが有する表示コントローラに相当し、図1に示すように、自車両状態把握部31及び対象物位置特定部32を有する画像切替処理部30Aと、仮想視点設定部33、画像生成部34、画像補正部35を有する画像生成処理部30Bと、を備えている。
[Owner's visual support control configuration]
The visual support CPU 30 corresponds to a display controller included in the display device D mounted on the own vehicle, and as shown in FIG. 1, the visual support CPU 30 and the image switching processing unit 30A having the own vehicle state grasping unit 31 and the object position specifying unit 32. , A virtual viewpoint setting unit 33, an image generation unit 34, and an image generation processing unit 30B having an image correction unit 35.

自車両状態把握部31は、舵角センサ23、車速センサ24、レンジ位置センサ25からの各種のセンサ情報に基づいて、自車両の運転状態を把握する。自車両状態把握部31によって把握された車両運転情報は、対象物位置特定部32に出力される。なお、自車両の運転状態は、各種センサ情報から推定してもよい。 The own vehicle state grasping unit 31 grasps the driving state of the own vehicle based on various sensor information from the steering angle sensor 23, the vehicle speed sensor 24, and the range position sensor 25. The vehicle driving information grasped by the own vehicle state grasping unit 31 is output to the object position specifying unit 32. The driving state of the own vehicle may be estimated from various sensor information.

対象物位置特定部32は、自車両状態把握部31から車両運転情報と、物体認識センサ21からの対象物までの距離情報と、車載カメラ22からの撮影画像情報と、に基づいて、自車両の周辺に存在する対象物(例えば縁石や歩行者等)の有無を判断する。そして、対象物が存在すると判断したとき、自車両に対する当該対象物の位置を特定する。
ここでは、対象物が自車両の幅方向中央位置よりも左方に存在していれば、車載カメラ22のうちの左サイドカメラ22cの位置に対する対象物の位置を特定する。つまり、左サイドカメラ22cの光軸中心位置を基準として、車両左側に存在する対象物の車両前後方向の位置を特定する。また、対象物が自車両の幅方向中央位置よりも右方に存在していれば、車載カメラ22のうちの右サイドカメラ22dの位置に対する対象物の位置を特定する。つまり、右サイドカメラ22dの光軸中心位置を基準として、車両右側に存在する対象物の車両前後方向の位置を特定する。
The object position specifying unit 32 is based on the vehicle driving information from the own vehicle state grasping unit 31, the distance information from the object recognition sensor 21 to the object, and the captured image information from the in-vehicle camera 22. Judge the presence or absence of objects (such as curbs and pedestrians) that exist in the vicinity of. Then, when it is determined that the object exists, the position of the object with respect to the own vehicle is specified.
Here, if the object exists to the left of the center position in the width direction of the own vehicle, the position of the object with respect to the position of the left side camera 22c of the vehicle-mounted camera 22 is specified. That is, the position of the object existing on the left side of the vehicle in the vehicle front-rear direction is specified with reference to the position of the center of the optical axis of the left side camera 22c. Further, if the object exists to the right of the center position in the width direction of the own vehicle, the position of the object with respect to the position of the right side camera 22d of the vehicle-mounted camera 22 is specified. That is, the position of the object existing on the right side of the vehicle in the vehicle front-rear direction is specified with reference to the position of the center of the optical axis of the right side camera 22d.

なお、対象物の有無の判断は、車載カメラ22によって撮影される撮影範囲内に、予め設定された特異点を有する物体が撮影されたことで判断する。また、対象物の位置情報は、左サイドカメラ22cと右サイドカメラ22dにより撮影した撮影画像を俯瞰変換して生成された俯瞰映像を解析すると共に、物体認識センサ21より得られる当該対象物までの距離を勘案することによって取得する。さらに、対象物位置特定部32には、タイマ32aからのタイマ情報が入力され、所定の時間ごとに対象物の位置の特定を繰り返す。対象物位置特定部32によって特定された対象物の位置情報は、画像生成処理部30Bに入力される。 The presence or absence of the object is determined by the fact that an object having a preset singular point is photographed within the photographing range photographed by the in-vehicle camera 22. Further, the position information of the object is obtained by analyzing the bird's-eye view image generated by converting the captured image taken by the left side camera 22c and the right side camera 22d into a bird's-eye view, and up to the object obtained by the object recognition sensor 21. Obtained by considering the distance. Further, timer information from the timer 32a is input to the object position specifying unit 32, and the identification of the position of the object is repeated at predetermined time intervals. The position information of the object specified by the object position specifying unit 32 is input to the image generation processing unit 30B.

仮想視点設定部33は、自車両状態把握部31から車両運転情報と、対象物位置特定部32からの対象物の位置情報と、に基づいて、自車両と自車両の周囲に存在する対象物との相対位置関係を把握するために最も適切と判断される仮想視点の位置を設定する。
すなわち、まず、対象物が車両前後方向のいずれのアングルでも表示可能であるか否かを判断する。ここでは、左右サイドカメラ22c,22dの光軸中心位置を挟んで車両前後方向の所定範囲内に対象物のすべての部分が撮影されているとき(対象物が左右サイドカメラ22c,22dのほぼ正面に存在するとき)と、対象物がフロントカメラ22a、リヤカメラ22b及び左右サイドカメラ22c,22dのいずれか一方によって撮影されているとき(区画線や縁石のように対象物が車両前後方向に長く伸びているとき)に、対象物が車両前後方向のいずれのアングルでも表示可能であると判断する。なお、「左右サイドカメラ22c,22dの光軸中心を挟んだ所定範囲」は、撮影画像の状態等により任意に設定する。
そして、「車両前方向のアングル」とは、車両後方から車両前方を見たときのアングルであり、「車両後方向のアングル」とは、車両前方から車両後方を見たときのアングルである。
The virtual viewpoint setting unit 33 is based on the vehicle driving information from the own vehicle state grasping unit 31 and the position information of the object from the object position specifying unit 32, and the own vehicle and the object existing around the own vehicle. Set the position of the virtual viewpoint that is judged to be the most appropriate for grasping the relative positional relationship with.
That is, first, it is determined whether or not the object can be displayed at any angle in the front-rear direction of the vehicle. Here, when all parts of the object are photographed within a predetermined range in the front-rear direction of the vehicle with the center positions of the optical axes of the left and right side cameras 22c and 22d in between (the object is substantially in front of the left and right side cameras 22c and 22d). When the object is photographed by either the front camera 22a, the rear camera 22b, or the left and right side cameras 22c, 22d (when the object extends long in the front-rear direction of the vehicle, such as a lane marking or a rim stone). (When), it is determined that the object can be displayed at any angle in the front-rear direction of the vehicle. The "predetermined range sandwiching the center of the optical axis of the left and right side cameras 22c and 22d" is arbitrarily set depending on the state of the captured image and the like.
The "angle in the front direction of the vehicle" is an angle when the front of the vehicle is viewed from the rear of the vehicle, and the "angle in the rear direction of the vehicle" is an angle when the rear of the vehicle is viewed from the front of the vehicle.

そして、対象物が車両前後方向のいずれかのアングルでしか表示できない場合には、対象物が左右サイドカメラ22c,22dの光軸中心位置よりも車両前方に存在するか否かを判断する。対象物が左右サイドカメラ22c,22dの光軸中心位置よりも車両後方に存在すると判断したときには、仮想視点を、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両よりも車両前方の位置から車両後方に向けて設定する。また、対象物が左右サイドカメラ22c,22dの光軸中心位置よりも車両前方に存在すると判断したときには、仮想視点を、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両よりも車両後方の位置から車両前方に向けて設定する。
すなわち、仮想視点は、対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に設定される。
Then, when the object can be displayed only at any angle in the front-rear direction of the vehicle, it is determined whether or not the object exists in front of the vehicle from the center positions of the optical axes of the left and right side cameras 22c and 22d. When it is determined that the object is behind the vehicle from the center position of the optical axis of the left and right side cameras 22c and 22d, the virtual viewpoint is a position that includes the object and the front and rear wheels of the vehicle in the field of view, and the object and the vehicle itself. Set from the position in front of the vehicle to the rear of the vehicle. Further, when it is determined that the object exists in front of the vehicle from the center position of the optical axis of the left and right side cameras 22c and 22d, the virtual viewpoint is a position including the object and the front and rear wheels of the own vehicle in the field of view. And, it is set from the position behind the vehicle to the front of the vehicle from the own vehicle.
That is, the virtual viewpoint is set at a position where the relative positional relationship between the own vehicle and the object is grasped according to the position of the object.

一方、対象物が車両前後方向のいずれのアングルでも表示可能の場合には、対象物と自車両との相対速度を検出し、当該相対速度がゼロより大きいか否かを判断する。そして、当該相対速度がゼロより大きいと判断したときには、仮想視点を、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両よりも車両後方の位置から車両前方に向けて設定する。また、当該相対速度がゼロ以下と判断したときには、仮想視点を、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両よりも車両前方の位置から車両後方に向けて設定する。
なお、「相対速度がゼロより大きい場合」とは、自車両よりも対象物の速度が速く、自車両から見たときに対象物が車両前方に向かって移動する場合である。また、「相対速度がゼロ以下の場合」とは、自車両よりも対象物の速度が遅く、自車両から見たときに対象物が車両後方に向かって移動していく場合である。
仮想視点設定部33によって設定された仮想視点情報は、画像生成部34に出力される。
On the other hand, when the object can be displayed at any angle in the front-rear direction of the vehicle, the relative speed between the object and the own vehicle is detected, and it is determined whether or not the relative speed is greater than zero. Then, when it is determined that the relative speed is greater than zero, the virtual viewpoint is a position that includes the object and the front and rear wheels of the own vehicle in the field of view, and is from a position behind the object and the own vehicle to the front of the vehicle. Set towards. When it is determined that the relative speed is zero or less, the virtual viewpoint is directed from the position in front of the object and the vehicle to the rear of the vehicle at a position that includes the object and the front and rear wheels of the vehicle in the field of view. And set.
The "case where the relative speed is greater than zero" is a case where the speed of the object is faster than that of the own vehicle and the object moves toward the front of the vehicle when viewed from the own vehicle. Further, "when the relative speed is zero or less" is a case where the speed of the object is slower than that of the own vehicle and the object moves toward the rear of the vehicle when viewed from the own vehicle.
The virtual viewpoint information set by the virtual viewpoint setting unit 33 is output to the image generation unit 34.

画像生成部34は、車載カメラ22からの撮影画像情報と、仮想視点設定部33からの仮想視点情報と、に基づいて、対象物の位置に応じて設定された仮想視点からの画像に視点変換し、自車両と対象物との相対位置関係を把握する仮想画像を生成する。
このとき、仮想視点が車両前方に向けて設定されていれば、左右サイドカメラ22c,22dのいずれか一方による撮影画像と、フロントカメラ22aによる撮影画像とを用いて、対象物と自車両の前後輪、側面及び車両下方領域を含む仮想画像を生成する。また、仮想視点が車両後方に向けて設定されていれば、左右サイドカメラ22c,22dのいずれか一方による撮影画像と、リヤカメラ22bによる撮影画像とを用いて、対象物と自車両の前後輪、側面及び車両下方領域を含む仮想画像を生成する。
なお、仮想画像は、車載カメラ22による撮影画像を視点変換、合成、選択して生成するだけでなく、撮影画像から生成した画像に予め記憶したCG画像を重畳させて生成してもよい。CG画像は、地図情報や路面情報に応じて作成しておき、撮影画像との特異点マッチングを行うことで重畳させる。
画像生成部34によって生成された仮想画像情報は、画像補正部35に出力される。
The image generation unit 34 converts the viewpoint into an image from a virtual viewpoint set according to the position of the object based on the captured image information from the in-vehicle camera 22 and the virtual viewpoint information from the virtual viewpoint setting unit 33. Then, a virtual image for grasping the relative positional relationship between the own vehicle and the object is generated.
At this time, if the virtual viewpoint is set toward the front of the vehicle, the front and rear of the object and the own vehicle are used by using the image taken by either the left and right side cameras 22c or 22d and the image taken by the front camera 22a. Generate a virtual image that includes the wheels, sides, and vehicle lower area. If the virtual viewpoint is set toward the rear of the vehicle, the image taken by either the left and right side cameras 22c or 22d and the image taken by the rear camera 22b are used to display the object and the front and rear wheels of the own vehicle. Generate a virtual image that includes the sides and the area below the vehicle.
The virtual image may not only be generated by converting, synthesizing, and selecting the image captured by the in-vehicle camera 22, but may also be generated by superimposing a CG image stored in advance on the image generated from the captured image. The CG image is created according to the map information and the road surface information, and is superimposed by performing singular point matching with the captured image.
The virtual image information generated by the image generation unit 34 is output to the image correction unit 35.

画像補正部35は、画像生成部34からの仮想画像情報に基づいて、仮想画像中に重畳された情報や、歪みを生じさせる情報等を補正し、表示可能な仮想画像を生成する。
画像補正部35によって補正された後の仮想画像情報は、表示用ディスプレイ26に出力される。
Based on the virtual image information from the image generation unit 34, the image correction unit 35 corrects the information superimposed on the virtual image, the information that causes distortion, and the like, and generates a displayable virtual image.
The virtual image information corrected by the image correction unit 35 is output to the display 26 for display.

[視覚支援制御処理構成]
図2は、実施例1の視覚支援CPUにて実行される視覚支援制御処理の流れを示すフローチャートである。以下、視覚支援制御処理構成をあらわす図2の各ステップについて説明する。
[Visual support control processing configuration]
FIG. 2 is a flowchart showing the flow of the visual assist control process executed by the visual assist CPU of the first embodiment. Hereinafter, each step of FIG. 2 representing the visual assist control processing configuration will be described.

ステップS101では、舵角センサ23、車速センサ24、レンジ位置センサ25により、車両の運転状態の情報を取得し、自車両の運転状態を把握し、ステップS102へ進む。 In step S101, the steering angle sensor 23, the vehicle speed sensor 24, and the range position sensor 25 acquire information on the driving state of the vehicle, grasp the driving state of the own vehicle, and proceed to step S102.

ステップS102では、ステップS101での運転状態の把握に続き、車載カメラ22によって撮影した撮影範囲内に対象物が存在するか否かを判断する。YES(対象物あり)の場合にはステップS103に進む。NO(対象物なし)の場合にはステップS113へ進む。
ここで、対象物の存在の有無は、車載カメラ22による撮影画像を解析すると共に、物体認識センサ21からのセンサ情報を考慮して判断する。
In step S102, following the grasp of the driving state in step S101, it is determined whether or not the object exists within the photographing range photographed by the in-vehicle camera 22. If YES (there is an object), the process proceeds to step S103. If NO (no object), the process proceeds to step S113.
Here, the presence or absence of the object is determined by analyzing the image captured by the in-vehicle camera 22 and considering the sensor information from the object recognition sensor 21.

ステップS103では、ステップS102での対象物ありとの判断に続き、当該対象物が車両前後方向のいずれのアングルでも表示可能であるか否かを判断する。YES(車両前後いずれからも表示可能)の場合にはステップS104へ進む。NO(車両前後一方からのみ表示可能)の場合にはステップS105へ進む。
ここで、対象物が車両前後方向のいずれのアングルでも表示可能であるか否かは、車載カメラ22による撮影状態に基づいて判断する。
In step S103, following the determination in step S102 that there is an object, it is determined whether or not the object can be displayed at any angle in the front-rear direction of the vehicle. If YES (displayable from both front and rear of the vehicle), the process proceeds to step S104. If NO (displayable only from one of the front and rear of the vehicle), the process proceeds to step S105.
Here, whether or not the object can be displayed at any angle in the front-rear direction of the vehicle is determined based on the shooting state by the in-vehicle camera 22.

ステップS104では、ステップS103での車両前後いずれからも表示可能との判断に続き、ステップS102にて存在を確認した対象物と自車両との車両前後方向の相対速度を検出し、検出した相対速度がゼロより大きいか否か、すなわち自車両よりも対象物の速度が速いか否かを判断する。YES(相対速度>ゼロ)の場合には、ステップS108へ進む。NO(相対速度≦ゼロ)の場合には、ステップS110へ進む。
ここで、対象物と自車両との相対速度は、タイマ32aでカウントした所定時間内での対象物の動き(移動方向)に基づいて検出する。
In step S104, following the determination in step S103 that the display can be performed from both the front and rear of the vehicle, the relative speed in the vehicle front-rear direction between the object confirmed to exist in step S102 and the own vehicle is detected, and the detected relative speed. Is greater than zero, that is, whether the speed of the object is faster than that of the own vehicle. If YES (relative velocity> zero), the process proceeds to step S108. If NO (relative velocity ≤ zero), the process proceeds to step S110.
Here, the relative speed between the object and the own vehicle is detected based on the movement (movement direction) of the object within the predetermined time counted by the timer 32a.

ステップS105(対象物位置特定ステップ)では、ステップS103での車両前後一方からのみ表示可能との判断に続き、ステップS102にて存在を確認した対象物の位置は、左右サイドカメラ22c,22dよりも後方位置であるか否かを判断する。YES(サイドカメラよりも後方)の場合には、ステップS106に進む。NO(サイドカメラよりも前方)の場合には、ステップS108に進む。
このとき、対象物の位置は、左右サイドカメラ22c,22dの光軸中心の位置を基準として判断され、左右サイドカメラ22c,22dの撮影画像に基づいて、対象物が当該光軸中心位置よりも車両前方位置に存在するか、車両後方位置に存在するかを判断する。
In step S105 (object position identification step), following the determination in step S103 that the display can be performed only from one of the front and rear of the vehicle, the position of the object whose existence is confirmed in step S102 is higher than that of the left and right side cameras 22c and 22d. Determine if it is in the rear position. If YES (behind the side camera), the process proceeds to step S106. If NO (in front of the side camera), the process proceeds to step S108.
At this time, the position of the object is determined based on the position of the center of the optical axis of the left and right side cameras 22c and 22d, and the object is located at the center position of the optical axis based on the captured images of the left and right side cameras 22c and 22d. It is determined whether the vehicle is located in the front position of the vehicle or in the rear position of the vehicle.

ステップS106(仮想視点設定ステップ)では、ステップS105での対象物がサイドカメラよりも後方に位置するとの判断に続き、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両(左右サイドカメラ22c,22d)よりも車両前方の位置から車両後方に向けて仮想視点を設定し、ステップS107に進む。
ここで、対象物が左右サイドカメラ22c,22dよりも車両後方に位置しているときには、左右サイドカメラ22c,22dのいずれかによって対象物の前面(車両前方を向いた面)と対象物の後方背景が撮影されていると考えられる。そのため、車両後方に向けて仮想視点を設定することで、左右サイドカメラ22c,22dの撮影画像を用いて、対象物と自車両の前後輪を含み、自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
つまり、このステップS106では、対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に仮想視点が設定される。
In step S106 (virtual viewpoint setting step), following the determination in step S105 that the object is located behind the side camera, the position includes the object and the front and rear wheels of the own vehicle in the field of view. A virtual viewpoint is set from the position in front of the vehicle (left and right side cameras 22c, 22d) toward the rear of the vehicle, and the process proceeds to step S107.
Here, when the object is located behind the vehicle with respect to the left and right side cameras 22c and 22d, either the left or right side cameras 22c or 22d can be used to move the front surface of the object (the surface facing the front of the vehicle) and the rear of the object. It is probable that the background has been photographed. Therefore, by setting the virtual viewpoint toward the rear of the vehicle, the relative positional relationship between the own vehicle and the object is determined by using the captured images of the left and right side cameras 22c and 22d, including the object and the front and rear wheels of the own vehicle. It is possible to generate a virtual image to be grasped.
That is, in this step S106, the virtual viewpoint is set at a position where the relative positional relationship between the own vehicle and the object is grasped according to the position of the object.

ステップS107(画像生成ステップ)では、ステップS106での仮想視点の設定に続き、このステップS106にて設定した仮想視点から見たときの画像に視点変換した仮想画像を、左右サイドカメラ22c,22dのいずれか一方と、リヤカメラ22bとの映像を用いて生成し、ステップS112へ進む。
このとき、生成する仮想画像は、対象物と、自車両の前後輪、側面及び車両下方領域を含んでおり、自車両と対象物との相対位置関係を把握する仮想画像とする。また、生成する仮想画像に応じて、適宜必要なCG画像等を重畳してもよい。
In step S107 (image generation step), following the setting of the virtual viewpoint in step S106, the virtual image obtained by converting the viewpoint to the image viewed from the virtual viewpoint set in step S106 is converted into the image of the left and right side cameras 22c and 22d. It is generated using the image of either one and the rear camera 22b, and the process proceeds to step S112.
At this time, the generated virtual image includes the object, the front and rear wheels, the side surface, and the vehicle lower region of the own vehicle, and is a virtual image for grasping the relative positional relationship between the own vehicle and the object. Further, a necessary CG image or the like may be superimposed as appropriate according to the virtual image to be generated.

ステップS108(仮想視点設定ステップ)では、ステップS104での対象物と自車両との相対速度>ゼロとの判断、又は、ステップS105での対象物がサイドカメラよりも前方に位置するとの判断に続き、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両(左右サイドカメラ22c,22d)よりも車両後方の位置から車両前方に向けて仮想視点を設定し、ステップS109に進む。
ここで、対象物と自車両との相対速度がゼロより大きいときには、自車両から見たときに対象物が車両前方に向かって移動していくと考えられる。そのため、車両前方に向けて仮想視点を設定することで、対象物が移動しても仮想視点の位置を変更することなく自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
また、対象物が左右サイドカメラ22c,22dよりも車両前方に位置しているときには、左右サイドカメラ22c,22dのいずれかによって対象物の後面(車両後方を向いた面)と対象物の前方背景が撮影されていると考えられる。そのため、車両前方に向けて仮想視点を設定することで、左右サイドカメラ22c,22dの撮影画像を用いて、対象物と自車両の前後輪を含む、自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
In step S108 (virtual viewpoint setting step), following the determination in step S104 that the relative speed between the object and the own vehicle> zero, or the determination in step S105 that the object is located in front of the side camera. , A position that includes the object and the front and rear wheels of the own vehicle in the field of view, and sets a virtual viewpoint from the position behind the object and the own vehicle (left and right side cameras 22c, 22d) toward the front of the vehicle, and steps. Proceed to S109.
Here, when the relative speed between the object and the own vehicle is greater than zero, it is considered that the object moves toward the front of the vehicle when viewed from the own vehicle. Therefore, by setting the virtual viewpoint toward the front of the vehicle, it is possible to generate a virtual image that grasps the relative positional relationship between the own vehicle and the object without changing the position of the virtual viewpoint even if the object moves. Become.
When the object is located in front of the vehicle with the left and right side cameras 22c and 22d, the rear surface of the object (the surface facing the rear of the vehicle) and the front background of the object by either of the left and right side cameras 22c and 22d. Is considered to have been photographed. Therefore, by setting the virtual viewpoint toward the front of the vehicle, the relative positional relationship between the own vehicle and the object, including the object and the front and rear wheels of the own vehicle, can be determined by using the captured images of the left and right side cameras 22c and 22d. It is possible to generate a virtual image to be grasped.

ステップS109(画像生成ステップ)では、ステップS108での仮想視点の設定に続き、このステップS108にて設定した仮想視点から見たときの画像に視点変換した仮想画像を、左右サイドカメラ22c,22dのいずれか一方と、フロントカメラ22aとの映像を用いて生成し、ステップS112へ進む。
このとき、生成する仮想画像は、対象物と、自車両の前後輪、側面及び車両下方領域を含んでおり、自車両と対象物との相対位置関係を把握する仮想画像とする。また、生成する仮想画像に応じて、適宜必要なCG画像等を重畳してもよい。
In step S109 (image generation step), following the setting of the virtual viewpoint in step S108, the virtual image obtained by converting the viewpoint to the image viewed from the virtual viewpoint set in step S108 is converted into the image of the left and right side cameras 22c and 22d. It is generated using the image of either one and the front camera 22a, and the process proceeds to step S112.
At this time, the generated virtual image includes the object, the front and rear wheels, the side surface, and the vehicle lower region of the own vehicle, and is a virtual image for grasping the relative positional relationship between the own vehicle and the object. Further, a necessary CG image or the like may be superimposed as appropriate according to the virtual image to be generated.

ステップS110では、ステップS104での対象物と自車両との相対速度≦ゼロとの判断に続き、対象物と自車両の前後輪を視界に含む位置であって、対象物及び自車両(左右サイドカメラ22c,22d)よりも車両前方の位置から車両後方に向けて仮想視点を設定し、ステップS111に進む。
ここで、対象物と自車両との相対速度がゼロ以下のときには、自車両から見たときに対象物が車両後方に向かって移動していくと考えられる。そのため、車両後方に向けて仮想視点を設定することで、対象物が移動しても仮想視点の位置を変更することなく対象物と自車両との相対位置関係を把握する仮想画像を生成可能となる。
In step S110, following the determination in step S104 that the relative speed between the object and the own vehicle is ≤ zero, the position includes the front and rear wheels of the object and the own vehicle in the field of view, and the object and the own vehicle (left and right sides). The virtual viewpoint is set from the position in front of the vehicle to the rear of the vehicle from the cameras 22c and 22d), and the process proceeds to step S111.
Here, when the relative speed between the object and the own vehicle is zero or less, it is considered that the object moves toward the rear of the vehicle when viewed from the own vehicle. Therefore, by setting the virtual viewpoint toward the rear of the vehicle, it is possible to generate a virtual image that grasps the relative positional relationship between the object and the own vehicle without changing the position of the virtual viewpoint even if the object moves. Become.

ステップS111では、ステップS110での仮想視点の設定に続き、このステップS110にて設定した仮想視点から見たときの画像に視点変換した仮想画像を、左右サイドカメラ22c,22dのいずれか一方と、リヤカメラ22bとの映像を用いて生成し、ステップS112へ進む。
このとき、生成する仮想画像は、対象物と、自車両の前後輪、側面及び車両下方領域を含んでおり、自車両と対象物との相対位置関係を把握する仮想画像とする。また、生成する仮想画像に応じて、適宜必要なCG画像等を重畳してもよい。
In step S111, following the setting of the virtual viewpoint in step S110, the virtual image whose viewpoint is converted to the image viewed from the virtual viewpoint set in step S110 is used with either the left and right side cameras 22c or 22d. It is generated using the image with the rear camera 22b, and the process proceeds to step S112.
At this time, the generated virtual image includes the object, the front and rear wheels, the side surface, and the vehicle lower region of the own vehicle, and is a virtual image for grasping the relative positional relationship between the own vehicle and the object. Further, a necessary CG image or the like may be superimposed as appropriate according to the virtual image to be generated.

ステップS112では、ステップS107,ステップS109,ステップS111での仮想画像の生成に続き、これらのステップにて生成された仮想画像を表示用ディスプレイ26に表示して、リターンへ進む。
これにより、表示用ディスプレイ26には、対象物と自車両との相対位置関係を把握する仮想画像が表示され、自車両に乗車した乗員の視覚支援が行われる。
In step S112, following the generation of the virtual image in step S107, step S109, and step S111, the virtual image generated in these steps is displayed on the display 26 for display, and the process proceeds to return.
As a result, the display 26 displays a virtual image for grasping the relative positional relationship between the object and the own vehicle, and visually assists the occupant who got on the own vehicle.

ステップS113では、ステップS102での対象物なしとの判断に続き、表示用ディスプレイ26に所定の仮想視点からの仮想画像を表示中であるか否かを判断する。YES(仮想画像表示中)の場合には、ステップS114へ進む。NO(仮想画像非表示)の場合には、ステップS101へ戻る。 In step S113, following the determination in step S102 that there is no object, it is determined whether or not a virtual image from a predetermined virtual viewpoint is being displayed on the display display 26. If YES (displaying a virtual image), the process proceeds to step S114. If NO (virtual image is not displayed), the process returns to step S101.

ステップS114では、ステップS113での仮想画像表示中との判断に続き、対象物が存在しないため仮想画像による視覚支援は不要であるとして、表示用ディスプレイ26における仮想画像の表示を終了し、リターンへ進む。 In step S114, following the determination that the virtual image is being displayed in step S113, it is determined that visual assistance by the virtual image is unnecessary because the object does not exist, and the display of the virtual image on the display display 26 is terminated and the process returns. move on.

次に、作用を説明する。
実施例1の作用を、「視覚支援制御処理作用」、「仮想視点設定作用」、「仮想画像生成作用」に分けて説明する。
Next, the action will be described.
The operation of the first embodiment will be described separately by dividing it into a "visual assistance control processing operation", a "virtual viewpoint setting operation", and a "virtual image generation operation".

[視覚支援制御処理作用]
以下、図2のフローチャートに基づき、視覚支援制御処理作用を説明する。
図3Aに示すように、自車両Sは、前端部中央位置に車載カメラ22のフロントカメラ22aが搭載され、後端部中央位置にリヤカメラ22bが搭載され、左サイドミラーに左サイドカメラ22cが搭載され、右サイドミラーに右サイドカメラ22dが搭載されている。
各カメラ22a〜22dの撮影範囲A〜Dは、図中に示す破線で囲んだ領域である。
[Visual assistance control processing action]
Hereinafter, the visual assist control processing operation will be described based on the flowchart of FIG.
As shown in FIG. 3A, the own vehicle S has the front camera 22a of the in-vehicle camera 22 mounted at the center position of the front end portion, the rear camera 22b mounted at the center position of the rear end portion, and the left side camera 22c mounted on the left side mirror. The right side camera 22d is mounted on the right side mirror.
The shooting ranges A to D of the cameras 22a to 22d are areas surrounded by broken lines shown in the figure.

ここで、自車両Sの走行中、自車両Sの左斜め前方位置である第1位置41に歩行者Hが存在する場合を考える。このとき、図2に示すフローチャートにおいて、ステップS101→ステップS102へと進み、フロントカメラ22a及び左サイドカメラ22cの撮影範囲A,C内に存在する歩行者Hを、「対象物」として設定する。 Here, consider a case where the pedestrian H exists at the first position 41, which is a position diagonally forward to the left of the own vehicle S, while the own vehicle S is traveling. At this time, in the flowchart shown in FIG. 2, the process proceeds from step S101 to step S102, and the pedestrian H existing in the shooting ranges A and C of the front camera 22a and the left side camera 22c is set as the “object”.

次に、ステップS103へと進み、対象物である歩行者Hが車両前後方向のいずれのアングルでも表示可能か否かを判断する。ここで、歩行者Hは、左サイドカメラ22cの光軸中心位置αを挟んで車両前後方向の所定領域X(図3Aでは斜線を付した領域)内では撮影されていない。そのため、歩行者Hは、車両前後方向のいずれかのアングルでしか表示できないとして、ステップS105へと進む。 Next, the process proceeds to step S103, and it is determined whether or not the pedestrian H, which is the object, can be displayed at any angle in the front-rear direction of the vehicle. Here, the pedestrian H is not photographed in the predetermined region X (the shaded area in FIG. 3A) in the vehicle front-rear direction with the optical axis center position α of the left side camera 22c sandwiched. Therefore, the pedestrian H proceeds to step S105, assuming that it can be displayed only at any angle in the front-rear direction of the vehicle.

ステップS105へ進んだら、歩行者Hの位置が左サイドカメラ22cよりも後方位置であるか否かを判断する。図3Aの場合では、歩行者Hは、左サイドカメラ22cの光軸中心位置αよりも車両前方に位置しているので、ステップS108へと進み、歩行者H及び自車両S(少なくとも左サイドカメラ22c)よりも車両後方の位置41aから、車両前方に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの前後輪11,12を含める。 After proceeding to step S105, it is determined whether or not the position of the pedestrian H is behind the left side camera 22c. In the case of FIG. 3A, since the pedestrian H is located in front of the vehicle from the optical axis center position α of the left side camera 22c, the process proceeds to step S108, and the pedestrian H and the own vehicle S (at least the left side camera) The virtual viewpoint K is set toward the front of the vehicle from the position 41a behind the vehicle from 22c). At this time, the front and rear wheels 11 and 12 of the pedestrian H and the own vehicle S are included in the field of view of the virtual viewpoint K.

仮想視点Kを設定したら、ステップS109→ステップS112へと進んで、この位置41aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。 After setting the virtual viewpoint K, the process proceeds from step S109 to step S112 to generate a virtual image whose viewpoint is converted to an image viewed from the virtual viewpoint K set at this position 41a, and then display the generated virtual image. It is displayed on the display 26.

このとき、生成される仮想画像は、図3Bに示すように、対象物である歩行者Hと、自車両Sの前後輪11,12、側面13及び車両下方領域を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hよりも後方に位置する左サイドカメラ22cと、歩行者Hよりも前方に位置するフロントカメラ22aとの映像を用いて生成し、歩行者Hの背面が映される。
すなわち、位置41aに設定された仮想視点Kからの仮想画像を生成する際、歩行者Hの直前位置に配置されたフロントカメラ22a(第1カメラ)により得られた第1撮影画像と、歩行者Hの直後位置に配置された左サイドカメラ22c(第2カメラ)により得られた第2撮影画像とを用いて、自車両Sの後方から前方を向いた画像を生成する。
At this time, as shown in FIG. 3B, the generated virtual image includes the pedestrian H, which is an object, the front and rear wheels 11, 12, the side surface 13, and the vehicle lower region of the own vehicle S, and the own vehicle S. It is a virtual image that grasps the relative positional relationship between the pedestrian H (object) and the pedestrian H (object). Further, this virtual image is generated by using the images of the left side camera 22c located behind the pedestrian H and the front camera 22a located in front of the pedestrian H, and the back surface of the pedestrian H is projected. Will be done.
That is, when generating a virtual image from the virtual viewpoint K set at the position 41a, the first captured image obtained by the front camera 22a (first camera) arranged at the position immediately before the pedestrian H and the pedestrian Using the second captured image obtained by the left side camera 22c (second camera) arranged at the position immediately after H, an image facing forward from the rear of the own vehicle S is generated.

なお、図3Bに示す仮想画像のうち、例えば自車両Sの側面13の一部(ドットで示す領域)や、路面Rの一部(ドットで示す領域)等、撮影画像に含まれていなかったり、含まれていても視点変換することで大きく歪んでしまう領域については、予め生成されたCG画像を重畳してもよい。 Of the virtual images shown in FIG. 3B, for example, a part of the side surface 13 of the own vehicle S (area indicated by dots), a part of the road surface R (area indicated by dots), etc. may not be included in the captured image. , Even if it is included, a CG image generated in advance may be superimposed on the region that is greatly distorted by the viewpoint conversion.

また、図4Aに示すように、自車両Sの走行中、自車両Sの左側方位置である第2位置42に歩行者Hが存在した場合では、ステップS101→ステップS102へと進んで歩行者Hを「対象物」として設定したら、ステップS103へと進み、対象物である歩行者Hが車両前後方向のいずれのアングルでも表示可能か否かを判断する。 Further, as shown in FIG. 4A, when the pedestrian H is present at the second position 42, which is the left side position of the own vehicle S, while the own vehicle S is traveling, the pedestrian proceeds to step S101 → step S102. After setting H as the "object", the process proceeds to step S103, and it is determined whether or not the pedestrian H, which is the object, can be displayed at any angle in the front-rear direction of the vehicle.

ここでは、歩行者Hが左サイドカメラ22cの光軸中心位置αを挟んで車両前後方向の所定領域X内で撮影されていないため、歩行者Hは、車両前後方向のいずれかのアングルでしか表示できないとして、ステップS105へと進む。ステップS105へ進んだら、歩行者Hの位置が左サイドカメラ22cよりも後方位置であるか否かを判断する。図4Aの場合では、歩行者Hは、左サイドカメラ22cの光軸中心位置αよりもわずかに車両後方に位置しているので、ステップS106に進む。これにより、歩行者H及び自車両S(左サイドカメラ22c)よりも車両前方の位置42aから、車両後方に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの前後輪11,12を含める。 Here, since the pedestrian H is not photographed within the predetermined region X in the vehicle front-rear direction with the optical axis center position α of the left side camera 22c in between, the pedestrian H can only be photographed at any angle in the vehicle front-rear direction. Assuming that the display cannot be performed, the process proceeds to step S105. After proceeding to step S105, it is determined whether or not the position of the pedestrian H is behind the left side camera 22c. In the case of FIG. 4A, since the pedestrian H is located slightly behind the vehicle from the optical axis center position α of the left side camera 22c, the process proceeds to step S106. As a result, the virtual viewpoint K is set from the position 42a in front of the pedestrian H and the own vehicle S (left side camera 22c) toward the rear of the vehicle. At this time, the front and rear wheels 11 and 12 of the pedestrian H and the own vehicle S are included in the field of view of the virtual viewpoint K.

仮想視点Kを設定したら、ステップS107→ステップS112へと進んで、この位置42aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。 After setting the virtual viewpoint K, the process proceeds from step S107 to step S112 to generate a virtual image whose viewpoint is converted to an image viewed from the virtual viewpoint K set at this position 42a, and then display the generated virtual image. It is displayed on the display 26.

このとき、生成される仮想画像は、図4Bに示すように、対象物である歩行者Hと、自車両Sの前後輪11,12、側面13及び車両下方領域を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hよりも前方に位置する左サイドカメラ22cと、歩行者Hよりも後方に位置するリヤカメラ22bとの映像を用いて生成し、歩行者Hの正面が映される。
すなわち、位置42aに設定された仮想視点Kからの仮想画像を生成する際、歩行者Hの直前位置に配置された左サイドカメラ22c(第1カメラ)により得られた第1撮影画像と、歩行者Hの直後位置に配置されたリヤカメラ22b(第2カメラ)により得られた第2撮影画像とを用いて、自車両Sの前方から後方を向けた画像を生成する。
At this time, as shown in FIG. 4B, the generated virtual image includes the pedestrian H, which is an object, the front and rear wheels 11, 12, the side surface 13, and the vehicle lower region of the own vehicle S, and the own vehicle S. It is a virtual image that grasps the relative positional relationship between the vehicle and the pedestrian H (object). Further, this virtual image is generated by using the images of the left side camera 22c located in front of the pedestrian H and the rear camera 22b located behind the pedestrian H, and the front of the pedestrian H is projected. To.
That is, when generating a virtual image from the virtual viewpoint K set at the position 42a, the first captured image obtained by the left side camera 22c (first camera) arranged at the position immediately before the pedestrian H and the walking An image of the own vehicle S facing from the front to the rear is generated by using the second captured image obtained by the rear camera 22b (second camera) arranged at the position immediately after the person H.

なお、図3Bに示す仮想画像と同様に、図4Bに示す仮想画像のうち、撮影画像に含まれていない領域等(図4Bにおいてドットで示す領域)については、予め生成されたCG画像を重畳してもよい。 Similar to the virtual image shown in FIG. 3B, in the virtual image shown in FIG. 4B, the pre-generated CG image is superimposed on the region and the like (the region indicated by the dot in FIG. 4B) not included in the captured image. You may.

さらに、図5Aに示すように、自車両Sの走行中、自車両Sの左斜め後方位置である第3位置43に歩行者Hが存在した場合では、ステップS101→ステップS102へと進んで歩行者Hを「対象物」として設定したら、ステップS103へと進み、対象物である歩行者Hが車両前後方向のいずれのアングルでも表示可能か否かを判断する。 Further, as shown in FIG. 5A, when the pedestrian H is present at the third position 43, which is a position diagonally to the left of the own vehicle S while the own vehicle S is traveling, the pedestrian H proceeds to step S101 → step S102 to walk. After setting the person H as the "object", the process proceeds to step S103, and it is determined whether or not the pedestrian H, which is the object, can be displayed at any angle in the front-rear direction of the vehicle.

このとき、歩行者Hが左サイドカメラ22cの光軸中心位置αを挟んで車両前後方向の所定領域X内で撮影されていないため、歩行者Hは、車両前後方向のいずれかのアングルでしか表示できないとして、ステップS105へと進む。ステップS105へ進んだら、歩行者Hの位置が左サイドカメラ22cよりも後方位置であるか否かを判断する。図5Aの場合では、歩行者Hは、左サイドカメラ22cの光軸中心位置αよりも車両後方に位置しているので、ステップS106に進む。これにより、歩行者H及び自車両S(左サイドカメラ22c)よりも車両前方の位置43aから、車両後方に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの前後輪11,12を含める。 At this time, since the pedestrian H is not photographed within the predetermined region X in the vehicle front-rear direction with the optical axis center position α of the left side camera 22c in between, the pedestrian H can only be photographed at any angle in the vehicle front-rear direction. Assuming that the display cannot be performed, the process proceeds to step S105. After proceeding to step S105, it is determined whether or not the position of the pedestrian H is behind the left side camera 22c. In the case of FIG. 5A, since the pedestrian H is located behind the vehicle from the optical axis center position α of the left side camera 22c, the process proceeds to step S106. As a result, the virtual viewpoint K is set from the position 43a in front of the pedestrian H and the own vehicle S (left side camera 22c) toward the rear of the vehicle. At this time, the front and rear wheels 11 and 12 of the pedestrian H and the own vehicle S are included in the field of view of the virtual viewpoint K.

仮想視点Kを設定したら、ステップS107→ステップS112へと進んで、この位置43aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。 After setting the virtual viewpoint K, the process proceeds from step S107 to step S112 to generate a virtual image whose viewpoint is converted to an image viewed from the virtual viewpoint K set at this position 43a, and then display the generated virtual image. It is displayed on the display 26.

このとき、生成される仮想画像は、図5Bに示すように、対象物である歩行者Hと、自車両Sの前後輪11,12、側面13及び車両下方領域を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hよりも前方に位置する左サイドカメラ22cと、歩行者Hよりも後方に位置するリヤカメラ22bとの映像を用いて生成し、歩行者Hの正面が映される。
すなわち、位置43aに設定された仮想視点Kからの仮想画像を生成する際、歩行者Hの直前位置に配置された左サイドカメラ22c(第1カメラ)により得られた第1撮影画像と、歩行者Hの直後位置に配置されたリヤカメラ22b(第2カメラ)により得られた第2撮影画像とを用いて、自車両Sの前方から後方を向いた画像を生成する。
At this time, as shown in FIG. 5B, the generated virtual image includes the pedestrian H, which is an object, the front and rear wheels 11, 12, the side surface 13, and the vehicle lower region of the own vehicle S, and the own vehicle S. It is a virtual image that grasps the relative positional relationship between the vehicle and the pedestrian H (object). Further, this virtual image is generated by using the images of the left side camera 22c located in front of the pedestrian H and the rear camera 22b located behind the pedestrian H, and the front of the pedestrian H is projected. To.
That is, when generating a virtual image from the virtual viewpoint K set at the position 43a, the first captured image obtained by the left side camera 22c (first camera) arranged at the position immediately before the pedestrian H and the walking An image facing from the front to the rear of the own vehicle S is generated by using the second captured image obtained by the rear camera 22b (second camera) arranged at the position immediately after the person H.

なお、図3B,図4Bに示す仮想画像と同様に、図5Bに示す仮想画像のうち、撮影画像に含まれていない領域等(図5Bにおいてドットで示す領域)については、予め生成されたCG画像を重畳してもよい。 Similar to the virtual images shown in FIGS. 3B and 4B, of the virtual images shown in FIG. 5B, the areas not included in the captured image (areas indicated by dots in FIG. 5B) are CGs generated in advance. Images may be superimposed.

このように、実施例1の表示方法及び表示装置Dでは、自車両Sの周囲に視覚支援に必要となる対象物(図3A〜図5Bでは歩行者H)を検出したら、自車両Sに対する対象物(歩行者H)の位置を特定する。そして、特定した対象物(歩行者H)の位置に応じて、自車両Sと対象物(歩行者H)との相対位置関係を把握する位置に仮想視点Kを設定する。
つまり、仮想視点Kの設定位置は、自車両Sに対する対象物(歩行者H)の位置に応じて変化し、自車両Sと対象物(歩行者H)との相対位置関係を把握するために最適な位置にその都度設定される。
As described above, in the display method and the display device D of the first embodiment, when an object (pedestrian H in FIGS. 3A to 5B) required for visual assistance is detected around the own vehicle S, the target for the own vehicle S is detected. Identify the position of an object (pedestrian H). Then, the virtual viewpoint K is set at a position where the relative positional relationship between the own vehicle S and the object (pedestrian H) is grasped according to the position of the specified object (pedestrian H).
That is, the set position of the virtual viewpoint K changes according to the position of the object (pedestrian H) with respect to the own vehicle S, and in order to grasp the relative positional relationship between the own vehicle S and the object (pedestrian H). It is set to the optimum position each time.

この結果、図3B,図4B,図5Bに示す仮想画像ように、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握可能な仮想画像を生成することができる。そして、乗員に対して表示するために表示用ディスプレイ26に表示された画像の中で、自車両Sと対象物(歩行者H)との相対的な位置関係を容易に把握することができ、自車両Sに乗車した乗員の視覚支援を効果的に行うことができる。 As a result, as shown in the virtual images shown in FIGS. 3B, 4B, and 5B, it is possible to generate a virtual image in which the relative positional relationship between the own vehicle S and the object (pedestrian H) can be easily grasped. Then, in the image displayed on the display 26 for displaying to the occupant, the relative positional relationship between the own vehicle S and the object (pedestrian H) can be easily grasped. It is possible to effectively provide visual support for the occupants who have boarded the own vehicle S.

また、自車両Sに対する対象物(歩行者H)の位置に応じて仮想視点Kの設定位置を変化させるので、自車両側方撮影用のカメラが片側あたり1台であっても、撮像対象が歪んだり、例えば対象物(歩行者H)の一部が切れるなどの、撮像対象の一部が描画されないといった不具合画像を提供することなく、乗員の視覚支援を行うことができる。 Further, since the set position of the virtual viewpoint K is changed according to the position of the object (pedestrian H) with respect to the own vehicle S, the imaging target can be captured even if there is only one camera for lateral photography of the own vehicle. It is possible to visually assist the occupant without providing a defective image such as distortion, for example, a part of the object (pedestrian H) is cut off, or a part of the imaged object is not drawn.

さらに、この実施例1において生成される仮想画像は、対象物である歩行者Hと、自車両Sの前後輪11,12、側面13及び車両下方領域を含む、いわゆる「サイドダウンビュー」である。そのため、センターラインのない比較的狭い道幅道路環境においても、自車両Sの真横周辺に存在する歩行者や自転車、縁石(道路境界)、或いは対向車両等への接近度合いを、分かりやすく表示することができる。そして、自車両Sに対する対象物(歩行者H)の位置に応じて仮想視点Kを設定することで、歩行者や自転車を気にしながら縁石と並行に車両を寄せるというシーン等において、乗員が車両の周囲状況を把握しやすい適切なサイドダウンビューを切り替え表示することができる。 Further, the virtual image generated in the first embodiment is a so-called "side-down view" including the pedestrian H, which is an object, and the front and rear wheels 11, 12, the side surface 13, and the vehicle lower region of the own vehicle S. .. Therefore, even in a relatively narrow road environment without a center line, the degree of approach to pedestrians, bicycles, curbs (road boundaries), oncoming vehicles, etc. existing in the immediate vicinity of the own vehicle S should be displayed in an easy-to-understand manner. Can be done. Then, by setting the virtual viewpoint K according to the position of the object (pedestrian H) with respect to the own vehicle S, the occupant moves the vehicle in parallel with the curb while paying attention to the pedestrian or the bicycle. It is possible to switch and display an appropriate side-down view that makes it easy to grasp the surrounding situation of.

また、この実施例1では、対象物(歩行者H)の位置を検出する対象物検出センサとして、車載カメラ22(フロントカメラ22a、リヤカメラ22b、左サイドカメラ22c、右サイドカメラ22d)を搭載している。そして、自車両Sに対する対象物(歩行者H)の位置を特定する際、対象物検出センサである左サイドカメラ22cの光軸中心位置αを基準にし、この左サイドカメラ22cの光軸中心位置αに対する対象物(歩行者H)の位置を特定している。
つまり、左サイドカメラ22cと対象物(歩行者H)との相対位置関係に応じて仮想視点Kの位置を調整する。
Further, in the first embodiment, an in-vehicle camera 22 (front camera 22a, rear camera 22b, left side camera 22c, right side camera 22d) is mounted as an object detection sensor for detecting the position of the object (pedestrian H). ing. Then, when specifying the position of the object (pedestrian H) with respect to the own vehicle S, the optical axis center position α of the left side camera 22c, which is the object detection sensor, is used as a reference, and the optical axis center position of the left side camera 22c. The position of the object (pedestrian H) with respect to α is specified.
That is, the position of the virtual viewpoint K is adjusted according to the relative positional relationship between the left side camera 22c and the object (pedestrian H).

これにより、図4Aに示すように、自車両Sの側方に位置する対象物(歩行者H)であっても、対象物(歩行者H)位置の特定を容易に行うことができ、仮想視点Kの設定を速やかに行って、仮想画像を短時間で生成することができる。そのため、自車両Sの速度が速い場合であっても、適切なタイミングで仮想画像を表示することができ、視覚支援効果を向上することができる。 As a result, as shown in FIG. 4A, the position of the object (pedestrian H) can be easily specified even for the object (pedestrian H) located on the side of the own vehicle S, which is virtual. The viewpoint K can be set quickly, and a virtual image can be generated in a short time. Therefore, even when the speed of the own vehicle S is high, the virtual image can be displayed at an appropriate timing, and the visual support effect can be improved.

[仮想視点設定作用]
図3A〜図5Bに示すシーンでは、対象物である歩行者Hが左サイドカメラ22cの光軸中心位置αを挟んで車両前後方向の所定領域X内で撮影されておらず、この歩行者Hは、車両前後方向のいずれかのアングルでしか表示できない例となっている。
[Virtual viewpoint setting action]
In the scenes shown in FIGS. 3A to 5B, the pedestrian H, which is an object, is not photographed in the predetermined region X in the front-rear direction of the vehicle with the optical axis center position α of the left side camera 22c in between, and the pedestrian H is not photographed. Is an example that can be displayed only at any angle in the front-rear direction of the vehicle.

これに対し、図6Aに示すように、左サイドカメラ22cの光軸中心位置αを挟んで車両前後方向の所定領域X内の第4位置44に歩行者Hが存在し、この所定領域X内に歩行者Hの全ての部分が撮影されているシーンを考える。
このときには、歩行者Hは、左サイドカメラ22cの正面に位置することになり、車両前後方向のいずれのアングルでも表示可能となる。
そのため、図2に示すフローチャートにおいて、ステップS101→ステップS102→ステップS103→ステップS104へと進み、歩行者Hと自車両Sとの相対速度を検出し、この検出した相対速度がゼロより大きいか否かを判断する。
On the other hand, as shown in FIG. 6A, the pedestrian H exists at the fourth position 44 in the predetermined area X in the vehicle front-rear direction with the optical axis center position α of the left side camera 22c in between, and the pedestrian H exists in the predetermined area X. Consider a scene in which all parts of pedestrian H are photographed.
At this time, the pedestrian H is located in front of the left side camera 22c, and can be displayed at any angle in the front-rear direction of the vehicle.
Therefore, in the flowchart shown in FIG. 2, the process proceeds from step S101 → step S102 → step S103 → step S104, the relative speed between the pedestrian H and the own vehicle S is detected, and whether or not the detected relative speed is greater than zero. To judge.

ここで、例えば自車両Sが走行中である一方、歩行者Hが立ち止っているときには、歩行者Hよりも自車両Sの移動速度が速く、相対速度はゼロ以下になる。そのため、ステップS104→ステップS110へと進み、歩行者H及び自車両S(左サイドカメラ22c)よりも車両前方の位置44aから、車両後方に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの前後輪11,12を含める。 Here, for example, when the own vehicle S is running and the pedestrian H is stopped, the moving speed of the own vehicle S is faster than that of the pedestrian H, and the relative speed is zero or less. Therefore, the process proceeds from step S104 to step S110, and the virtual viewpoint K is set from the position 44a in front of the pedestrian H and the own vehicle S (left side camera 22c) toward the rear of the vehicle. At this time, the front and rear wheels 11 and 12 of the pedestrian H and the own vehicle S are included in the field of view of the virtual viewpoint K.

仮想視点Kを設定したら、ステップS111→ステップS112へと進んで、この位置44aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。 After setting the virtual viewpoint K, the process proceeds from step S111 to step S112 to generate a virtual image whose viewpoint is converted to an image viewed from the virtual viewpoint K set at this position 44a, and then display the generated virtual image. It is displayed on the display 26.

このとき、生成される仮想画像は、図6Bに示すように、対象物である歩行者Hと、自車両Sの前後輪11,12、側面13及び車両下方領域を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hの側方に位置する左サイドカメラ22cと、歩行者Hよりも後方に位置するリヤカメラ22bとの映像を用いて生成し、歩行者Hの正面が映される。 At this time, as shown in FIG. 6B, the generated virtual image includes the pedestrian H, which is an object, the front and rear wheels 11, 12, the side surface 13, and the vehicle lower region of the own vehicle S, and the own vehicle S. It is a virtual image that grasps the relative positional relationship between the vehicle and the pedestrian H (object). Further, this virtual image is generated by using the images of the left side camera 22c located on the side of the pedestrian H and the rear camera 22b located behind the pedestrian H, and the front of the pedestrian H is projected. To.

その後、時間の経過と共に、自車両Sと歩行者Hとの相対的な位置関係が変化する。具体的には、図6Cに示すように、自車両Sの速度が高いことから、歩行者Hは自車両Sの左斜め後方位置である第5位置45へと相対的に移動する。 After that, with the passage of time, the relative positional relationship between the own vehicle S and the pedestrian H changes. Specifically, as shown in FIG. 6C, since the speed of the own vehicle S is high, the pedestrian H relatively moves to the fifth position 45, which is a position diagonally rearward to the left of the own vehicle S.

ここで、視覚支援のための仮想画像は、位置44aから車両後方に向いた状態で設定された仮想視点Kからの画像となっており、自車両Sを車両前方から後方に向かって見たときの画像となっている。そのため、時間の経過と共に、歩行者Hが自車両Sの左斜め後方位置へと相対的に移動したときであっても、図6Dに示すように、歩行者Hを仮想画像中に含め続けることができる。 Here, the virtual image for visual assistance is an image from the virtual viewpoint K set in a state of facing the rear of the vehicle from the position 44a, and when the own vehicle S is viewed from the front to the rear of the vehicle. It is an image of. Therefore, as shown in FIG. 6D, the pedestrian H is continuously included in the virtual image even when the pedestrian H relatively moves to the diagonally left rear position of the own vehicle S with the passage of time. Can be done.

一方、図7Aに示すように、左サイドカメラ22cの光軸中心位置αを挟んで車両前後方向の所定領域X内の第4位置44に歩行者Hが存在し、この所定領域X内に歩行者Hの全ての部分が撮影されている場合であっても、例えば自車両Sが停車しており、歩行者Hが車両前方に向かって歩いているときには、歩行者Hと自車両Sとの相対速度がゼロより大きくなる。 On the other hand, as shown in FIG. 7A, the pedestrian H exists at the fourth position 44 in the predetermined region X in the vehicle front-rear direction with the optical axis center position α of the left side camera 22c sandwiched, and walks in the predetermined region X. Even when all parts of the person H are photographed, for example, when the own vehicle S is stopped and the pedestrian H is walking toward the front of the vehicle, the pedestrian H and the own vehicle S Relative speed is greater than zero.

このときには、ステップS101→ステップS102→ステップS103→ステップS104→ステップS108へと進み、歩行者H及び自車両S(左サイドカメラ22c)よりも車両後方の位置44bから、車両前方に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの前後輪を含める。
その後、ステップS111→ステップS112へと進んで、この位置44bに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。
At this time, the process proceeds from step S101 → step S102 → step S103 → step S104 → step S108, and a virtual viewpoint is directed toward the front of the vehicle from the position 44b behind the vehicle H and the own vehicle S (left side camera 22c). Set K. At this time, the front and rear wheels of the pedestrian H and the own vehicle S are included in the field of view of the virtual viewpoint K.
After that, the process proceeds from step S111 to step S112 to generate a virtual image whose viewpoint is converted to an image when viewed from the virtual viewpoint K set at this position 44b, and then displays the generated virtual image on the display 26 for display. To do.

これにより、位置44bに設定された仮想視点Kから見たときの画像に視点変換した仮想画像は、図7Bに示すように、対象物である歩行者Hと、自車両Sの前後輪11,12、側面13及び車両下方領域を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hの側方に位置する左サイドカメラ22cと、歩行者Hよりも前方に位置するフロントカメラ22aとの映像を用いて生成され、歩行者Hの背面が映される。 As a result, as shown in FIG. 7B, the virtual image whose viewpoint is converted into the image when viewed from the virtual viewpoint K set at the position 44b includes the pedestrian H, which is an object, and the front and rear wheels 11 of the own vehicle S. It is a virtual image that includes 12, the side surface 13 and the vehicle lower region, and grasps the relative positional relationship between the own vehicle S and the pedestrian H (object). Further, this virtual image is generated by using the images of the left side camera 22c located on the side of the pedestrian H and the front camera 22a located in front of the pedestrian H, and the back surface of the pedestrian H is projected. Will be done.

そして、その後時間の経過と共に、自車両Sと歩行者Hとの相対的な位置関係が変化するが、この場合では歩行者Hの速度が高いことから、図7Cに示すように、歩行者Hは自車両Sの左斜め前方位置である第6位置46へと相対的に移動する。 Then, with the passage of time thereafter, the relative positional relationship between the own vehicle S and the pedestrian H changes. In this case, since the speed of the pedestrian H is high, the pedestrian H is as shown in FIG. 7C. Moves relatively to the sixth position 46, which is a position diagonally forward to the left of the own vehicle S.

ここで、視覚支援のための仮想画像では、位置44bから車両前方に向いた状態で設定された仮想視点Kからの画像となっており、自車両Sを車両後方から前方に向かって見たときの画像となっている。そのため、時間の経過と共に、歩行者Hが自車両Sの左斜め前方位置へと相対的に移動したときであっても、図7Dに示すように、歩行者Hを仮想画像中に含め続けることができる。 Here, the virtual image for visual assistance is an image from the virtual viewpoint K set in a state of facing the front of the vehicle from the position 44b, and when the own vehicle S is viewed from the rear of the vehicle to the front. It is an image of. Therefore, as shown in FIG. 7D, the pedestrian H is continuously included in the virtual image even when the pedestrian H relatively moves to the diagonally forward left position of the own vehicle S with the passage of time. Can be done.

このように、対象物(歩行者H)が、車両前後方向のいずれのアングルでも表示可能な場合には、自車両Sと対象物(歩行者H)との相対速度の大きさに応じて仮想視点Kの位置を設定する。これにより、時間の経過と共に、自車両Sと対象物(歩行者H)との車両前後方向の相対位置関係が変化しても、仮想視点Kの位置を変更することなく対象物(歩行者H)を仮想画像中に含め続けることができる。この結果、仮想画像のアングルを維持することができ、自車両Sと対象物(歩行者H)との相対位置関係を把握する仮想画像に大きな変化が生じず、この相対位置関係を容易に把握可能とすることができる。 In this way, when the object (pedestrian H) can be displayed at any angle in the front-rear direction of the vehicle, it is virtual according to the magnitude of the relative speed between the own vehicle S and the object (pedestrian H). Set the position of the viewpoint K. As a result, even if the relative positional relationship between the own vehicle S and the object (pedestrian H) in the vehicle front-rear direction changes with the passage of time, the object (pedestrian H) does not change the position of the virtual viewpoint K. ) Can be continued to be included in the virtual image. As a result, the angle of the virtual image can be maintained, and the virtual image for grasping the relative positional relationship between the own vehicle S and the object (pedestrian H) does not change significantly, and this relative positional relationship can be easily grasped. It can be possible.

これに対し、図3Aに示すように、対象物(歩行者H)が左サイドカメラ22cよりも車両前方に存在しているときには、仮想視点Kを、対象物(歩行者H)の後方位置から車両前方に向くように設定する。
これにより、左サイドカメラ22cに対して対象物(歩行者H)が前方に位置しているときであっても、車両前方を向いた仮想視点Kを基準として生成された仮想画像(図3B参照)の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。
On the other hand, as shown in FIG. 3A, when the object (pedestrian H) is in front of the vehicle from the left side camera 22c, the virtual viewpoint K is viewed from the rear position of the object (pedestrian H). Set to face the front of the vehicle.
As a result, even when the object (pedestrian H) is located in front of the left side camera 22c, a virtual image generated with reference to the virtual viewpoint K facing the front of the vehicle (see FIG. 3B). ), The relative positional relationship between the own vehicle S and the object (pedestrian H) can be grasped.

また、図4A及び図5Aに示すように、対象物(歩行者H)が左サイドカメラ22cよりも車両後方に存在しているときには、仮想視点Kを、対象物(歩行者H)の前方位置から車両後方に向くように設定する。
これにより、左サイドカメラ22cに対して対象物(歩行者H)が後方に位置しているときであっても、乗員は、車両後方を向いた仮想視点Kを基準として生成された仮想画像(図4B,5B参照)の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。
Further, as shown in FIGS. 4A and 5A, when the object (pedestrian H) is behind the vehicle with respect to the left side camera 22c, the virtual viewpoint K is set to the position in front of the object (pedestrian H). Set so that it faces the rear of the vehicle.
As a result, even when the object (pedestrian H) is located behind the left side camera 22c, the occupant can use the virtual image generated with reference to the virtual viewpoint K facing the rear of the vehicle. (See FIGS. 4B and 5B), the relative positional relationship between the own vehicle S and the object (pedestrian H) can be grasped.

[仮想画像生成作用]
実施例1において、対象物(歩行者H)の位置に応じて設定した仮想視点Kからの仮想画像を生成する際、上述したように、仮想視点Kを車両前方に向く位置に設定した場合(図3A,図7A参照)のときには、左サイドカメラ22cと、フロントカメラ22aとの映像を用いて生成し、図3Bや図7Bに示すように仮想画像中に歩行者Hの背面が映される。
一方、仮想視点Kを車両後方に向く位置に設定した場合(図4A,図5A,図6A参照)のときには、左サイドカメラ22cと、リヤカメラ22bとの映像を用いて生成し、図3B,図5Bや図6Bに示すように仮想画像中に歩行者Hの背面が映される。
[Virtual image generation action]
In the first embodiment, when the virtual image from the virtual viewpoint K set according to the position of the object (pedestrian H) is generated, the virtual viewpoint K is set to the position facing the front of the vehicle as described above ( In the case of (see FIGS. 3A and 7A), the images generated by the left side camera 22c and the front camera 22a are generated, and the back surface of the pedestrian H is projected in the virtual image as shown in FIGS. 3B and 7B. ..
On the other hand, when the virtual viewpoint K is set to a position facing the rear of the vehicle (see FIGS. 4A, 5A, and 6A), the images generated by the left side camera 22c and the rear camera 22b are generated, and FIGS. As shown in 5B and FIG. 6B, the back surface of the pedestrian H is projected in the virtual image.

このように、仮想視点Kが設定された向きによって、車載カメラ22の中から適切な位置に設けられたカメラを選定し、当該カメラによる撮影画像を用いて仮想画像を生成する。この結果、歪みや欠けた部分の少ない適切な仮想画像を生成することができ、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。 In this way, a camera provided at an appropriate position is selected from the in-vehicle cameras 22 according to the orientation in which the virtual viewpoint K is set, and a virtual image is generated using the image captured by the camera. As a result, an appropriate virtual image with few distortions and missing parts can be generated, and the relative positional relationship between the own vehicle S and the object (pedestrian H) can be grasped in the virtual image.

次に、効果を説明する。
実施例1の表示装置の表示方法及び表示装置にあっては、下記に列挙する効果を得ることができる。
Next, the effect will be described.
In the display method and the display device of the display device of the first embodiment, the effects listed below can be obtained.

(1) 自車両Sの周囲の対象物(歩行者H)を検出し、前記対象物(歩行者H)が含まれる仮想視点Kからの画像を生成し、前記画像を乗員の視覚支援情報として表示する表示装置の表示方法において、
所定の情報に基づいて、前記自車両Sに対する前記対象物(歩行者H)の位置41,42を特定する対象物位置特定ステップ(ステップS105)と、
前記対象物(歩行者H)の位置41,42に応じて、前記自車両Sと前記対象物(歩行者H)との相対位置関係を把握する位置41a,42aに前記仮想視点Kを設定する仮想視点設定ステップ(ステップS106,ステップS108)と、
前記仮想視点Kから見たときの画像を生成する画像生成ステップ(ステップS107,ステップS109)と、
を有する構成とした。
これにより、乗員に対して表示された画像の中で自車両Sと対象物(歩行者H)との相対的な位置関係を容易に把握することができる。
(1) An object (pedestrian H) around the own vehicle S is detected, an image from a virtual viewpoint K including the object (pedestrian H) is generated, and the image is used as visual support information for the occupant. In the display method of the display device to be displayed,
An object position specifying step (step S105) for specifying the positions 41 and 42 of the object (pedestrian H) with respect to the own vehicle S based on predetermined information.
The virtual viewpoint K is set at positions 41a and 42a for grasping the relative positional relationship between the own vehicle S and the object (pedestrian H) according to the positions 41 and 42 of the object (pedestrian H). Virtual viewpoint setting step (step S106, step S108) and
An image generation step (step S107, step S109) for generating an image when viewed from the virtual viewpoint K, and
It was configured to have.
As a result, the relative positional relationship between the own vehicle S and the object (pedestrian H) can be easily grasped in the image displayed to the occupant.

(2) 前記対象物(歩行者H)の位置を検出する対象物検出センサ(左サイドカメラ22c)を前記自車両Sに搭載し、
前記対象物位置特定ステップ(ステップS105)は、前記対象物検出センサ(左サイドカメラ22c)の位置(光軸中心位置α)に対する前記対象物(歩行者H)の位置41,42を特定する構成とした。
これにより、(1)の効果に加え、対象物(歩行者H)の位置を容易に特定し、仮想視点Kの設定を速やかに行って、適切なタイミングで仮想画像の表示を行うことができる。
(2) An object detection sensor (left side camera 22c) for detecting the position of the object (pedestrian H) is mounted on the own vehicle S.
The object position specifying step (step S105) is configured to specify the positions 41 and 42 of the object (pedestrian H) with respect to the position (optical axis center position α) of the object detection sensor (left side camera 22c). And said.
As a result, in addition to the effect of (1), the position of the object (pedestrian H) can be easily specified, the virtual viewpoint K can be quickly set, and the virtual image can be displayed at an appropriate timing. ..

(3) 前記仮想視点設定ステップ(ステップS106,ステップS108)は、前記対象物(歩行者H)の位置(第1位置41)が前記対象物検出センサ(左サイドカメラ22c)の位置(光軸中心位置α)よりも前方にある場合、前記仮想視点Kを、前記対象物(歩行者H)よりも車両後方の位置41aから車両前方に向けて設定する構成とした。
これにより、(2)の効果に加え、対象物検出センサ(左サイドカメラ22c)に対して対象物(歩行者H)が前方に位置しているときであっても、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握することができる。
(3) In the virtual viewpoint setting step (step S106, step S108), the position (first position 41) of the object (pedestrian H) is the position (optical axis) of the object detection sensor (left side camera 22c). When it is in front of the center position α), the virtual viewpoint K is set from the position 41a behind the vehicle to the front of the vehicle from the object (pedestrian H).
As a result, in addition to the effect of (2), even when the object (pedestrian H) is located in front of the object detection sensor (left side camera 22c), in the virtual image, The relative positional relationship between the own vehicle S and the object (pedestrian H) can be easily grasped.

(4) 前記画像生成ステップ(ステップS107,ステップS109)は、車両前方に向けて設定された仮想視点Kからの画像を生成する際、前記対象物(歩行者H)よりも車両後方に位置する対象物検出センサ(左サイドカメラ22c)によって検出された情報を用いて前記画像を生成する構成とした。
これにより、 (3)の効果に加え、仮想視点Kの向きに応じた適切な位置に設けられた対象物検出センサ(左サイドカメラ22c)からの情報を用いて仮想画像を生成でき、自車両Sと対象物(歩行者H)との相対位置関係を把握するための適切な仮想画像を生成することができる。
(4) The image generation step (step S107, step S109) is located behind the vehicle (pedestrian H) when generating an image from the virtual viewpoint K set toward the front of the vehicle. The image is generated using the information detected by the object detection sensor (left side camera 22c).
As a result, in addition to the effect of (3), a virtual image can be generated using the information from the object detection sensor (left side camera 22c) provided at an appropriate position according to the direction of the virtual viewpoint K, and the own vehicle can be generated. An appropriate virtual image for grasping the relative positional relationship between S and the object (pedestrian H) can be generated.

(5) 前記仮想視点設定ステップ(ステップS106,ステップS108)は、前記対象物(歩行者H)の位置(第2位置42)が前記対象物検出センサ(左サイドカメラ22c)の位置(光軸中心位置α)よりも後方にある場合、前記仮想視点Kを、前記対象物(歩行者H)よりも車両前方の位置42aから車両後方に向けて設定する構成とした。
これにより、(2)の効果に加え、対象物検出センサ(左サイドカメラ22c)に対して対象物(歩行者H)が後方に位置しているときであっても、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握することができる。
(5) In the virtual viewpoint setting step (step S106, step S108), the position (second position 42) of the object (pedestrian H) is the position (optical axis) of the object detection sensor (left side camera 22c). When it is behind the center position α), the virtual viewpoint K is set from the position 42a in front of the vehicle to the rear of the vehicle with respect to the object (pedestrian H).
As a result, in addition to the effect of (2), even when the object (pedestrian H) is located behind the object detection sensor (left side camera 22c), in the virtual image, The relative positional relationship between the own vehicle S and the object (pedestrian H) can be easily grasped.

(6) 前記画像生成ステップ(ステップS107,ステップS109)は、車両後方に向けて設定された仮想視点Kからの画像を生成する際、前記対象物(歩行者H)よりも車両前方に位置する対象物検出センサ(左サイドカメラ22c)によって検出された情報を用いて前記画像を生成する構成とした。
これにより、仮想視点Kの向きに応じた適切な位置に設けられた対象物検出センサ(左サイドカメラ22c)からの情報を用いて仮想画像を生成でき、自車両Sと対象物(歩行者H)との相対位置関係を把握するための適切な仮想画像を生成することができる。
(6) The image generation step (step S107, step S109) is located in front of the vehicle (pedestrian H) when generating an image from the virtual viewpoint K set toward the rear of the vehicle. The image is generated using the information detected by the object detection sensor (left side camera 22c).
As a result, a virtual image can be generated using the information from the object detection sensor (left side camera 22c) provided at an appropriate position according to the direction of the virtual viewpoint K, and the own vehicle S and the object (pedestrian H) can be generated. ) Can generate an appropriate virtual image for grasping the relative positional relationship.

(7) 自車両Sの周囲の対象物(歩行者H)を検出し、前記対象物(歩行者H)が含まれる仮想視点Kからの画像を生成し、乗員の視覚支援情報として表示する表示コントローラ(視覚支援CPU30)を備えた表示装置Dにおいて、
前記表示コントローラ(視覚支援CPU30)は、
所定の情報に基づいて、前記自車両Sに対する前記対象物(歩行者H)の位置41,42を特定する対象物位置特定部32と、
前記対象物(歩行者H)の位置に応じて、前記自車両Sと前記対象物(歩行者H)との相対位置関係を把握する位置41a,42aに前記仮想視点Kを設定する仮想視点設定部33と、
前記仮想視点Kからの画像を生成する画像生成部34と、
を有する構成とした。
これにより、乗員に対して表示された画像の中で自車両Sと対象物(歩行者H)との相対的な位置関係を容易に把握することができる。
(7) A display that detects an object (pedestrian H) around the own vehicle S, generates an image from a virtual viewpoint K including the object (pedestrian H), and displays it as visual support information for the occupant. In the display device D provided with the controller (visual support CPU 30),
The display controller (visual support CPU 30) is
Based on the predetermined information, the object position specifying unit 32 for specifying the positions 41 and 42 of the object (pedestrian H) with respect to the own vehicle S, and
Virtual viewpoint setting in which the virtual viewpoint K is set at positions 41a and 42a for grasping the relative positional relationship between the own vehicle S and the object (pedestrian H) according to the position of the object (pedestrian H). Part 33 and
An image generation unit 34 that generates an image from the virtual viewpoint K, and
It was configured to have.
As a result, the relative positional relationship between the own vehicle S and the object (pedestrian H) can be easily grasped in the image displayed to the occupant.

(実施例1の変形例)
図8は、実施例1の表示方法及び表示装置の第1変形例を適用される自車両S1の平面図である。
この自車両S1は、車載カメラ22として、自車両S1の前端部中央位置に搭載されて車両前方領域Aを撮影するフロントカメラ22aと、自車両S1の後端部中央位置に搭載されて車両前方領域Bを撮影するリヤカメラ22bと、自車両S1の左サイドミラーの下側左端位置に搭載されて車両左前方領域Cを撮影する第1左サイドカメラ22cと、自車両S1の左リヤピラーの下端位置に搭載されて車両左後方領域Eを撮影する第2左サイドカメラ22eと、自車両S1の右サイドミラーの下側右端位置に搭載されて車両右前方領域Dを撮影する第1右サイドカメラ22dと、自車両S1の右リヤピラーの下端位置に搭載されて車両右後方領域Fを撮影する第2右サイドカメラ22fと、を有している。
すなわち、自車両S1では、車載カメラ22が車両全体で6台、車両側方領域を撮影するカメラが片側あたり2台となっている。
(Modified Example 1)
FIG. 8 is a plan view of the own vehicle S1 to which the display method of the first embodiment and the first modification of the display device are applied.
The own vehicle S1 is mounted as an in-vehicle camera 22 at a front camera 22a mounted at the center position of the front end portion of the own vehicle S1 to photograph the vehicle front region A, and mounted at the center position of the rear end portion of the own vehicle S1 and is mounted on the front of the vehicle. The rear camera 22b for photographing the area B, the first left side camera 22c mounted at the lower left end position of the left side mirror of the own vehicle S1 for photographing the left front area C of the vehicle, and the lower end position of the left rear pillar of the own vehicle S1. The second left side camera 22e mounted on the vehicle to photograph the vehicle left rear region E, and the first right side camera 22d mounted on the vehicle S1 at the lower right end position of the right side mirror of the vehicle S1 to capture the vehicle right front region D. And a second right side camera 22f mounted at the lower end position of the right rear pillar of the own vehicle S1 and photographing the vehicle right rear region F.
That is, in the own vehicle S1, the number of in-vehicle cameras 22 is 6 in the entire vehicle, and the number of cameras for photographing the vehicle side region is 2 per side.

また、図9は、実施例1の表示方法及び表示装置の第2変形例を適用される自車両S2の平面図である。
この自車両S2は、車載カメラ22として、自車両S2の前端部中央位置に搭載されて車両前方領域Aを撮影するフロントカメラ22aと、自車両S2の後端部中央位置に搭載されて車両前方領域Bを撮影するリヤカメラ22bと、自車両S2の左サイドミラーの下側左端位置に搭載されて車両左前方領域Cを撮影する第1左サイドカメラ22cと、自車両S2の左リヤピラーの下端位置に搭載されて車両左後方領域Eを撮影する第2左サイドカメラ22eと、自車両S2のフロントバンパーの左端位置に搭載されて車両左前方領域Gを撮影する第3左サイドカメラ22gと、自車両S2の右サイドミラーの下側右端位置に搭載されて車両右前方領域Dを撮影する第1右サイドカメラ22dと、自車両S2の右リヤピラーの下端位置に搭載されて車両右後方領域Fを撮影する第2右サイドカメラ22fと、自車両S2のフロントバンパーの右端位置に搭載されて車両右前方領域Jを撮影する第3右サイドカメラ22jと、を有している。
すなわち、自車両S2では、車載カメラ22が車両全体で8台、車両側方領域を撮影するカメラが片側あたり3台となっている。
Further, FIG. 9 is a plan view of the own vehicle S2 to which the display method of the first embodiment and the second modification of the display device are applied.
The own vehicle S2 is mounted as an in-vehicle camera 22 at a front camera 22a mounted at the center position of the front end portion of the own vehicle S2 to photograph the vehicle front region A, and mounted at the center position of the rear end portion of the own vehicle S2 and is mounted in front of the vehicle. The rear camera 22b for photographing the area B, the first left side camera 22c mounted on the lower left end position of the left side mirror of the own vehicle S2 and photographing the left front area C of the vehicle, and the lower end position of the left rear pillar of the own vehicle S2. The second left side camera 22e mounted on the vehicle to photograph the vehicle left rear region E, the third left side camera 22g mounted on the left end position of the front bumper of the own vehicle S2 to photograph the vehicle left front region G, and the own vehicle. The first right side camera 22d mounted on the lower right end position of the right side mirror of S2 to photograph the vehicle right front region D, and the vehicle right rear region F mounted on the lower end position of the right rear pillar of the own vehicle S2. It has a second right side camera 22f, and a third right side camera 22j mounted at the right end position of the front bumper of the own vehicle S2 to photograph the vehicle right front region J.
That is, in the own vehicle S2, the number of in-vehicle cameras 22 is eight in the entire vehicle, and the number of cameras for photographing the vehicle side region is three per side.

この自車両S1や自車両S2のように、車両側方領域を撮影する複数のカメラを搭載した車両では、車両側方領域をサイドカメラの数に応じて分割し、左右のサイドカメラによって撮影することができる。そのため、サイドカメラの撮影範囲を実施例1の場合よりも広角(魚眼)にする必要性が低くなり、左右のサイドカメラの1台当たりの撮影範囲を狭角化することができる。
これにより、横方向における広範囲の画像情報を歪み等の違和感を抑制して表示させることができる。さらに、左右サイドカメラが1台の場合において設定した仮想視点の位置よりも、より後方の位置に仮想視点を設定することが可能となる。
In a vehicle equipped with a plurality of cameras for photographing the vehicle side area, such as the own vehicle S1 and the own vehicle S2, the vehicle side area is divided according to the number of side cameras and photographed by the left and right side cameras. be able to. Therefore, it is less necessary to set the shooting range of the side cameras to a wider angle (fisheye) than in the case of the first embodiment, and the shooting range of each of the left and right side cameras can be narrowed.
As a result, it is possible to display a wide range of image information in the horizontal direction while suppressing discomfort such as distortion. Further, it is possible to set the virtual viewpoint at a position further behind the position of the virtual viewpoint set when there is one left and right side camera.

また、図8や図9に示すように、サイドカメラの数を複数にしたことで、車両前後方向のいずれからのアングルであっても対象物を表示可能となる所定領域Xを拡大することができる。
すなわち、図8に示す場合では、第1左右サイドカメラ22c,22dの光軸中心位置αと、第2左右サイドカメラ22e,22fの光軸中心位置βで囲まれた領域と、その前後所定領域を、所定領域Xとする。また、図9に示す場合では、第3左右サイドカメラ22g,22jの光軸中心位置γと、第2左右サイドカメラ22e,22fの光軸中心位置βで囲まれた領域と、その前後所定領域を、所定領域Xとする。
Further, as shown in FIGS. 8 and 9, by increasing the number of side cameras, it is possible to expand the predetermined area X in which the object can be displayed regardless of the angle from the front-rear direction of the vehicle. it can.
That is, in the case shown in FIG. 8, the region surrounded by the optical axis center positions α of the first left and right side cameras 22c and 22d, the optical axis center positions β of the second left and right side cameras 22e and 22f, and the front and rear predetermined regions thereof. Is a predetermined area X. Further, in the case shown in FIG. 9, a region surrounded by the optical axis center position γ of the third left and right side cameras 22g, 22j, the optical axis center position β of the second left and right side cameras 22e, 22f, and a predetermined region before and after the region. Is a predetermined area X.

この結果、特に、図9に示すように、車両側方領域を撮影する第1〜第3左右サイドカメラ22c〜22jを設けた場合では、自車両S2の側方領域のほぼ全域において、前後いずれの画像アングルであっても可能とすることができる。
そのため、仮想画像の設定自由度が向上し、例えば縁石に等の道路境界線に自車両を寄せながら、当該縁石に対して平行に駐車させるシーン等に効果を発揮し、乗員への視覚支援効果を向上することができる。
As a result, in particular, as shown in FIG. 9, when the first to third left and right side cameras 22c to 22j for photographing the vehicle side region are provided, the front and rear sides of the own vehicle S2 can be almost the entire side region. It is possible even with the image angle of.
Therefore, the degree of freedom in setting the virtual image is improved, and it is effective in a scene where the vehicle is parked parallel to the curb while the vehicle is brought close to the road boundary such as the curb, and the visual support effect for the occupants is effective. Can be improved.

すなわち、例えば図10に示すように、自車両S2の側方の第7位置47に歩行者H(対象物)が存在する場合では、まず、複数のサイドカメラ(第1〜第3左サイドカメラ22c,22e,22g)によって撮影された撮影画像に基づいて歩行者Hの位置を特定し、自車両S2との相対速度に応じて画像アングルを設定する。
つまり、歩行者Hと自車両S2との相対速度がゼロより大きければ、車両前方を向き、歩行者Hと自車両S2の前後輪を視界に含む位置47aに仮想視点を設定する。また、当該相対速度がゼロ以下であれば、車両後方を向き、歩行者Hと自車両S2の前後輪を視界に含む位置47bに仮想視点を設定する。
That is, for example, as shown in FIG. 10, when the pedestrian H (object) exists at the seventh position 47 on the side of the own vehicle S2, first, a plurality of side cameras (first to third left side cameras). The position of the pedestrian H is specified based on the captured image taken by 22c, 22e, 22g), and the image angle is set according to the relative speed with the own vehicle S2.
That is, if the relative speed between the pedestrian H and the own vehicle S2 is greater than zero, the virtual viewpoint is set at the position 47a that faces the front of the vehicle and includes the front and rear wheels of the pedestrian H and the own vehicle S2 in the field of view. If the relative speed is zero or less, the virtual viewpoint is set at a position 47b that faces the rear of the vehicle and includes the front and rear wheels of the pedestrian H and the own vehicle S2 in the field of view.

そして、各位置47a,47bからの仮想画像を生成する際、歩行者Hの直前に配置された第3左サイドカメラ22g(第1カメラ)により得られた第1撮影画像と、歩行者Hの直後位置に配置された第1左サイドカメラ22c(第2カメラ)により得られた第2撮影画像とを用いて、前記自車両S2の側面及び車両下方領域を含む仮想画像を生成する。 Then, when generating virtual images from the positions 47a and 47b, the first captured image obtained by the third left side camera 22g (first camera) arranged immediately before the pedestrian H and the pedestrian H Using the second captured image obtained by the first left side camera 22c (second camera) arranged at the position immediately after, a virtual image including the side surface of the own vehicle S2 and the vehicle lower region is generated.

これにより、歩行者Hの直前に位置する第3左サイドカメラ22g、歩行者Hの直後に位置する第1左サイドカメラ22cの撮影画像を主体にして、自車両Sの側面13及び車両下方領域を含む画像(サイドダウンビュー)を生成し、これと同時に双方の第3,第1左サイドカメラ22g,22cの撮影画像の相対速度差からアングル(画像方向)を決定することが可能となる。そのため、乗員が自車両S2と歩行者Hとの相対的な位置関係を把握しやすい仮想画像のアングル(画像方向)を制限されにくくなる。 As a result, the side surface 13 of the own vehicle S and the vehicle lower region are mainly based on the captured images of the third left side camera 22g located immediately before the pedestrian H and the first left side camera 22c located immediately after the pedestrian H. It is possible to generate an image (side-down view) including the above, and at the same time, determine the angle (image direction) from the relative speed difference between the captured images of the third and first left side cameras 22g and 22c. Therefore, it is difficult for the occupant to limit the angle (image direction) of the virtual image that makes it easy for the occupant to grasp the relative positional relationship between the own vehicle S2 and the pedestrian H.

(実施例2)
実施例2は、自車両の周囲に存在する対象物の、自車両の幅方向中央位置に対する左右方向の位置に応じて仮想視点を設定する例である。
(Example 2)
The second embodiment is an example in which a virtual viewpoint is set according to the position of an object existing around the own vehicle in the left-right direction with respect to the center position in the width direction of the own vehicle.

図11は、実施例1の視覚支援CPUにて実行される視覚支援制御処理の流れを示すフローチャートである、以下、視覚支援制御処理構成をあらわす図11の各ステップについて説明する。 FIG. 11 is a flowchart showing the flow of the visual assistance control processing executed by the visual assistance CPU of the first embodiment. Hereinafter, each step of FIG. 11 showing the visual assistance control processing configuration will be described.

ステップS201では、舵角センサ23、車速センサ24、レンジ位置センサ25により、車両の運転状態の情報を取得し、自車両の運転状態を把握し、ステップS202へ進む。 In step S201, the steering angle sensor 23, the vehicle speed sensor 24, and the range position sensor 25 acquire information on the driving state of the vehicle, grasp the driving state of the own vehicle, and proceed to step S202.

ステップS202では、ステップS201での運転状態の把握に続き、車載カメラ22によって撮影した撮影範囲内に対象物が存在するか否かを判断する。YES(対象物あり)の場合にはステップS203に進む。NO(対象物なし)の場合にはステップS211へ進む。
ここで、対象物の存在の有無は、車載カメラ22による撮影画像を解析すると共に、物体認識センサ21からのセンサ情報を考慮して判断する。
In step S202, following the grasp of the driving state in step S201, it is determined whether or not the object exists within the photographing range photographed by the in-vehicle camera 22. If YES (there is an object), the process proceeds to step S203. If NO (no object), the process proceeds to step S211.
Here, the presence or absence of the object is determined by analyzing the image captured by the in-vehicle camera 22 and considering the sensor information from the object recognition sensor 21.

ステップS203では、ステップS202での対象物ありとの判断に続き、当該対象物が車両左右方向のいずれのアングルでも表示可能であるか否かを判断する。YES(車両左右いずれからも表示可能)の場合にはステップS204へ進む。NO(車両左右一方からのみ表示可能)の場合にはステップS205へ進む。
ここで、対象物が車両左右方向のいずれのアングルでも表示可能であるか否かは、車載カメラ22による撮影状態に基づいて判断する。
In step S203, following the determination in step S202 that there is an object, it is determined whether or not the object can be displayed at any angle in the left-right direction of the vehicle. If YES (displayable from either the left or right side of the vehicle), the process proceeds to step S204. If NO (displayable only from one of the left and right sides of the vehicle), the process proceeds to step S205.
Here, whether or not the object can be displayed at any angle in the left-right direction of the vehicle is determined based on the shooting state by the vehicle-mounted camera 22.

ステップS204では、ステップS203での車両左右いずれからも表示可能との判断に続き、ステップS202にて存在を確認した対象物が自車両の右方に向かって移動しているか否かを判断する。YES(右方への移動あり)の場合には、ステップS207へ進む。NO(右方への移動なし)の場合には、ステップS208へ進む。
ここで、対象物の移動については、タイマ32aでカウントした所定時間内での対象物の動き(移動方向)に基づいて検出する。なお、「右方への移動なし」には、対象物が自車両の左方に移動している場合と、その場で停止している場合を含む。
In step S204, following the determination that the display can be performed from either the left or right side of the vehicle in step S203, it is determined whether or not the object whose existence has been confirmed in step S202 is moving toward the right side of the own vehicle. If YES (moving to the right), the process proceeds to step S207. If NO (no movement to the right), the process proceeds to step S208.
Here, the movement of the object is detected based on the movement (movement direction) of the object within the predetermined time counted by the timer 32a. In addition, "no movement to the right" includes the case where the object is moving to the left of the own vehicle and the case where the object is stopped on the spot.

ステップS205(対象物位置特定ステップ)では、ステップS203での車両左右一方からのみ表示可能との判断に続き、ステップS202にて存在を確認した対象物が、左サイドカメラ22cにて撮影可能であるか否かを判断する。YES(左サイドカメラで撮影可能)の場合には、ステップS206へ進む。NO(左サイドカメラで撮影不可能)の場合には、ステップS207へ進む。
ここで、「左サイドカメラ22cにて撮影可能」とは、対象物の位置が、自車両の幅方向中心位置よりも左側位置に存在することを意味する。一方、「左サイドカメラ22cにて撮影不可能」ということは、右サイドカメラ22dにて撮影されており、対象物の位置が、自車両の幅方向中央位置よりも右側位置に存在することを意味する。
In step S205 (object position identification step), following the determination in step S203 that the display can be performed only from the left or right side of the vehicle, the object whose existence has been confirmed in step S202 can be photographed by the left side camera 22c. Judge whether or not. If YES (capable of shooting with the left side camera), the process proceeds to step S206. If NO (shooting is not possible with the left side camera), the process proceeds to step S207.
Here, "capable of shooting with the left side camera 22c" means that the position of the object is located on the left side of the center position in the width direction of the own vehicle. On the other hand, "cannot be photographed by the left side camera 22c" means that the image is photographed by the right side camera 22d, and the position of the object is located on the right side of the center position in the width direction of the own vehicle. means.

ステップS206(仮想視点設定ステップ)では、ステップS205での対象物が左サイドカメラ22cで撮影可能との判断に続き、対象物と自車両の一部を視界に含む位置であって、対象物及び自車両の幅方向中心位置よりも車両前方右側の位置から車両後方左側(車両左方)に向けて仮想視点を設定し、ステップS209に進む。
ここで、対象物が左サイドカメラ22cにて撮影されているときには、この左サイドカメラ22cによって対象物の右側面と車両の左方背景が撮影されていると考えられる。そのため、車両左方に向けて仮想視点を設定することで、左サイドカメラ22cの撮影画像を用いて、自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
つまり、このステップS206では、対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に仮想視点が設定される。
In step S206 (virtual viewpoint setting step), following the determination that the object in step S205 can be photographed by the left side camera 22c, the position includes the object and a part of the own vehicle in the field of view, and the object and the object and a part of the own vehicle are included in the field of view. A virtual viewpoint is set from the position on the right side in front of the vehicle to the left side behind the vehicle (left side of the vehicle) from the center position in the width direction of the own vehicle, and the process proceeds to step S209.
Here, when the object is photographed by the left side camera 22c, it is considered that the right side surface of the object and the left background of the vehicle are photographed by the left side camera 22c. Therefore, by setting the virtual viewpoint toward the left side of the vehicle, it is possible to generate a virtual image for grasping the relative positional relationship between the own vehicle and the object by using the captured image of the left side camera 22c.
That is, in this step S206, the virtual viewpoint is set at a position where the relative positional relationship between the own vehicle and the object is grasped according to the position of the object.

ステップS207(仮想視点設定ステップ)では、ステップS204での対象物が自車両の右方に向かって移動との判断、又は、ステップS205での対象物が左サイドカメラで撮影不可能との判断に続き、対象物と自車両の一部を視界に含む位置であって、対象物及び自車両の幅方向中心位置よりも車両前方左側の位置から車両後方右側(車両右方)に向けて仮想視点を設定し、ステップS209に進む。
ここで、対象物が自車両の右方に向かって移動するときには、車両右方に向けて仮想視点を設定することで、対象物が移動しても仮想視点の位置を変更することなく自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
また、対象物が左サイドカメラ22cにて撮影されていないときには、右サイドカメラ22dによって対象物の左側面と車両の右方背景が撮影されていると考えられる。そのため、車両右方に向けて仮想視点を設定することで、右サイドカメラ22dの撮影画像を用いて、自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
つまり、このステップS207では、対象物の位置に応じて、自車両と対象物との相対位置関係を把握する位置に仮想視点が設定される。
In step S207 (virtual field of view setting step), it is determined that the object in step S204 moves toward the right side of the own vehicle, or that the object in step S205 cannot be photographed by the left side camera. Next, it is a position that includes the object and a part of the own vehicle in the field of view, and is a virtual viewpoint from the position on the left front side of the vehicle to the right side behind the vehicle (right side of the vehicle) from the center position in the width direction of the object and the own vehicle. Is set, and the process proceeds to step S209.
Here, when the object moves toward the right side of the own vehicle, by setting the virtual viewpoint toward the right side of the vehicle, the own vehicle does not change the position of the virtual viewpoint even if the object moves. It is possible to generate a virtual image that grasps the relative positional relationship between the object and the object.
Further, when the object is not photographed by the left side camera 22c, it is considered that the left side surface of the object and the right background of the vehicle are photographed by the right side camera 22d. Therefore, by setting the virtual viewpoint toward the right side of the vehicle, it is possible to generate a virtual image for grasping the relative positional relationship between the own vehicle and the object by using the captured image of the right side camera 22d.
That is, in this step S207, the virtual viewpoint is set at a position where the relative positional relationship between the own vehicle and the object is grasped according to the position of the object.

ステップS208では、ステップS204での対象物が自車両の左方に向かって移動との判断に続き、対象物と自車両の一部を視界に含む位置であって、対象物及び自車両の幅方向中心位置よりも車両前方右側の位置から車両後方左側(車両左方)に向けて仮想視点を設定し、ステップS209に進む。
ここで、対象物が自車両の左方に向かって移動するときには、車両左方に向けて仮想視点を設定することで、対象物が移動しても仮想視点の位置を変更することなく自車両と対象物との相対位置関係を把握する仮想画像を生成可能となる。
In step S208, following the determination that the object moves to the left of the own vehicle in step S204, the position includes the object and a part of the own vehicle in the field of view, and the width of the object and the own vehicle. A virtual viewpoint is set from the position on the right side in front of the vehicle to the left side behind the vehicle (left side of the vehicle) from the center position, and the process proceeds to step S209.
Here, when the object moves toward the left side of the own vehicle, by setting the virtual viewpoint toward the left side of the vehicle, the own vehicle does not change the position of the virtual viewpoint even if the object moves. It is possible to generate a virtual image that grasps the relative positional relationship between the object and the object.

ステップS209では、ステップS206,ステップS207,ステップS208での仮想視点の設定に続き、いずれかのステップにて設定された仮想視点から見たときの画像に視点変換した仮想画像を、左右サイドカメラ22c,22dのいずれか一方と、フロントカメラ22a又はリヤカメラ22bとの映像を用いて生成し、ステップS210へ進む。
このとき、生成する仮想画像は、対象物と、自車両の一部(例えば、前輪、運転席、車両側面及び車両下方領域)を含んでおり、自車両と対象物との相対位置関係を把握する仮想画像とする。また、生成する仮想画像に応じて、適宜必要なCG画像等を重畳してもよい。
In step S209, following the setting of the virtual viewpoint in steps S206, S207, and S208, the left and right side cameras 22c display the virtual image whose viewpoint is converted to the image viewed from the virtual viewpoint set in any step. , 22d and the image of the front camera 22a or the rear camera 22b are used to generate an image, and the process proceeds to step S210.
At this time, the generated virtual image includes the object and a part of the own vehicle (for example, the front wheel, the driver's seat, the side surface of the vehicle, and the area below the vehicle), and grasps the relative positional relationship between the own vehicle and the object. Let it be a virtual image. Further, a necessary CG image or the like may be superimposed as appropriate according to the virtual image to be generated.

ステップS210では、ステップS209での仮想画像の生成に続き、このステップS209にて生成された仮想画像を表示用ディスプレイ26に表示して、リターンへ進む。
これにより、表示用ディスプレイ26には、対象物と自車両との相対位置関係を把握する仮想画像が表示され、自車両に乗車した乗員の視覚支援が行われる。
In step S210, following the generation of the virtual image in step S209, the virtual image generated in step S209 is displayed on the display 26 for display, and the process proceeds to return.
As a result, the display 26 displays a virtual image for grasping the relative positional relationship between the object and the own vehicle, and visually assists the occupant who got on the own vehicle.

ステップS211では、ステップS202での対象物なしとの判断に続き、表示用ディスプレイ26に所定の仮想視点からの仮想画像を表示中であるか否かを判断する。YES(仮想画像表示中)の場合には、ステップS212へ進む。NO(仮想画像非表示)の場合には、ステップS201へ戻る。 In step S211, following the determination in step S202 that there is no object, it is determined whether or not a virtual image from a predetermined virtual viewpoint is being displayed on the display display 26. If YES (displaying a virtual image), the process proceeds to step S212. If NO (virtual image is not displayed), the process returns to step S201.

ステップS212では、ステップS211での仮想画像表示中との判断に続き、対象物が存在しないため仮想画像による視覚支援は不要であるとして、表示用ディスプレイ26における仮想画像の表示を終了し、リターンへ進む。 In step S212, following the determination that the virtual image is being displayed in step S211, it is determined that visual assistance by the virtual image is unnecessary because there is no object, and the display of the virtual image on the display display 26 is terminated and the process returns. move on.

次に、作用を説明する。
実施例2の作用を、「視覚支援制御処理作用」、「仮想視点設定作用」に分けて説明する。
Next, the action will be described.
The operation of the second embodiment will be described by dividing it into a "visual assist control processing operation" and a "virtual viewpoint setting operation".

[視覚支援制御処理作用]
以下、図11のフローチャートに基づき、視覚支援制御処理作用を説明する。
図12Aに示すように、自車両Sは、前端部中央位置に車載カメラ22のフロントカメラ22aが搭載され、左サイドミラーに左サイドカメラ22cが搭載され、右サイドミラーに右サイドカメラ22dが搭載されている。なお、ここでは、対象物が車両前方に存在する例を説明するため、リヤカメラ22bについては図示しない。
各カメラ22a,22c,22dの撮影範囲A,C,Dは、図中に示す破線で囲んだ領域である。
[Visual assistance control processing action]
Hereinafter, the visual assist control processing operation will be described based on the flowchart of FIG.
As shown in FIG. 12A, the own vehicle S has the front camera 22a of the in-vehicle camera 22 mounted at the center position of the front end portion, the left side camera 22c mounted on the left side mirror, and the right side camera 22d mounted on the right side mirror. Has been done. Note that the rear camera 22b is not shown here because an example in which the object exists in front of the vehicle will be described.
The shooting ranges A, C, and D of the cameras 22a, 22c, and 22d are areas surrounded by broken lines shown in the figure.

ここで、自車両Sの左斜め前方位置である第8位置48に歩行者Hが存在する場合を考える。このとき、図11に示すフローチャートにおいて、ステップS201→ステップS202へと進み、フロントカメラ22a及び左サイドカメラ22cの撮影範囲A,C内に存在する歩行者Hを、「対象物」として設定する。 Here, consider a case where the pedestrian H exists at the eighth position 48, which is a position diagonally forward to the left of the own vehicle S. At this time, in the flowchart shown in FIG. 11, the process proceeds from step S201 to step S202, and the pedestrian H existing in the shooting ranges A and C of the front camera 22a and the left side camera 22c is set as the “object”.

次に、ステップS203へと進み、対象物である歩行者Hが車両左右方向のいずれのアングルでも表示可能か否かを判断する。ここで、歩行者Hは、フロントカメラ22aの光軸中心位置α´を挟んで車両左右方向の所定領域Y(図12Aでは斜線を付した領域)内で撮影されていない。そのため、歩行者Hは、車両左右方向のいずれかのアングルでしか表示できないとして、ステップS205へと進む。 Next, the process proceeds to step S203, and it is determined whether or not the pedestrian H, which is the object, can be displayed at any angle in the left-right direction of the vehicle. Here, the pedestrian H is not photographed in the predetermined region Y (the shaded area in FIG. 12A) in the left-right direction of the vehicle with the optical axis center position α'of the front camera 22a in between. Therefore, the pedestrian H proceeds to step S205, assuming that it can be displayed only at any angle in the left-right direction of the vehicle.

ステップS205へ進んだら、歩行者Hが左サイドカメラ22cによって撮影可能であるか否か、つまり自車両Sの幅方向中心位置よりも左側位置であるか否かを判断する。図12Aの場合では、歩行者Hが左サイドカメラ22cの撮影範囲C内に存在するため、左サイドカメラ22cにて撮影可能である。つまり、歩行者Hが自車両Sの左側方に存在するとして、ステップS206へ進み、歩行者H及び自車両Sの幅方向中央位置よりも車両前方右側の位置48aから車両後方左側(車両左方)に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの一部を含める。 After proceeding to step S205, it is determined whether or not the pedestrian H can be photographed by the left side camera 22c, that is, whether or not the position is on the left side of the center position in the width direction of the own vehicle S. In the case of FIG. 12A, since the pedestrian H is within the shooting range C of the left side camera 22c, it is possible to shoot with the left side camera 22c. That is, assuming that the pedestrian H exists on the left side of the own vehicle S, the process proceeds to step S206, from the position 48a on the front right side of the vehicle front and the left side behind the vehicle (left side of the vehicle) with respect to the center position in the width direction of the pedestrian H and the own vehicle S. ), The virtual viewpoint K is set. At this time, the pedestrian H and a part of the own vehicle S are included in the field of view of the virtual viewpoint K.

仮想視点Kを設定したら、ステップS209→ステップS210へと進んで、この位置48aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。 After setting the virtual viewpoint K, the process proceeds from step S209 to step S210 to generate a virtual image whose viewpoint is converted to an image viewed from the virtual viewpoint K set at this position 48a, and then display the generated virtual image. It is displayed on the display 26.

このとき、生成される仮想画像は、図12Bに示すように、対象物である歩行者Hと自車両Sの一部を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hよりも右側に位置する右サイドカメラ22dと、自車両Sの前部に位置するフロントカメラ22aとの映像を用いて生成し、歩行者Hの右側面が映される。 At this time, as shown in FIG. 12B, the generated virtual image includes a part of the pedestrian H and the own vehicle S, which are objects, and is relative to the own vehicle S and the pedestrian H (object). It is a virtual image that grasps the positional relationship. Further, this virtual image is generated by using the images of the right side camera 22d located on the right side of the pedestrian H and the front camera 22a located in the front part of the own vehicle S, and the right side surface of the pedestrian H is generated. It is projected.

なお、図12Bに示す仮想画像のうち、例えば自車両Sの側面13の一部や、路面Rの一部等、撮影画像に含まれていなかったり、含まれていても視点変換することで大きく歪んでしまう領域については、予め生成されたCG画像を重畳してもよい。 Of the virtual images shown in FIG. 12B, for example, a part of the side surface 13 of the own vehicle S, a part of the road surface R, etc. are not included in the captured image, or even if they are included, they can be greatly changed by changing the viewpoint. A pre-generated CG image may be superimposed on the distorted region.

また、図13Aに示すように、自車両Sの右斜め前方位置である第9位置49に歩行者Hが存在する場合では、ステップS201→ステップS202へと進んで歩行者Hを「対象物」として設定したら、ステップS203へと進み、対象物である歩行者Hが車両左右方向のいずれのアングルでも表示可能か否かを判断する。 Further, as shown in FIG. 13A, when the pedestrian H is present at the ninth position 49, which is a position diagonally forward to the right of the own vehicle S, the process proceeds from step S201 to step S202 to make the pedestrian H an “object”. Then, the process proceeds to step S203, and it is determined whether or not the pedestrian H, which is the object, can be displayed at any angle in the left-right direction of the vehicle.

ここでは、歩行者Hがフロントカメラ22aの光軸中心位置α´を挟んで車両前後方向の所定領域Y内で撮影されていないため、歩行者Hは、車両左右方向のいずれかのアングルでしか表示できないとして、ステップS205へと進む。ステップS205へ進んだら、歩行者Hが左サイドカメラ22cによって撮影可能であるか否か、つまり自車両Sの幅方向中心位置よりも左側位置であるか否かを判断する。図13Aの場合では、歩行者Hが右サイドカメラ22dの撮影範囲D内に存在しているので、左サイドカメラ22cによって撮影不可能としてステップS207に進む。これにより、歩行者Hが自車両Sの右側方に存在するとして、歩行者H及び自車両Sの幅方向中央位置よりも車両前方左側の位置49aから車両後方右側(車両右方)に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの一部を含める。 Here, since the pedestrian H is not photographed in the predetermined region Y in the vehicle front-rear direction with the optical axis center position α'of the front camera 22a in between, the pedestrian H can only be photographed at any angle in the vehicle left-right direction. Assuming that the display cannot be performed, the process proceeds to step S205. After proceeding to step S205, it is determined whether or not the pedestrian H can be photographed by the left side camera 22c, that is, whether or not the position is on the left side of the center position in the width direction of the own vehicle S. In the case of FIG. 13A, since the pedestrian H is within the shooting range D of the right side camera 22d, the left side camera 22c makes it impossible to shoot and proceeds to step S207. As a result, assuming that the pedestrian H exists on the right side of the own vehicle S, the pedestrian H and the own vehicle S are directed from the position 49a on the left side in front of the vehicle to the right side behind the vehicle (right side of the vehicle). Set the virtual viewpoint K. At this time, the pedestrian H and a part of the own vehicle S are included in the field of view of the virtual viewpoint K.

仮想視点Kを設定したら、ステップS209→ステップS210へと進んで、この位置49aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。 After setting the virtual viewpoint K, the process proceeds from step S209 to step S210 to generate a virtual image whose viewpoint is converted to an image viewed from the virtual viewpoint K set at this position 49a, and then display the generated virtual image. It is displayed on the display 26.

このとき、生成される仮想画像は、図13Bに示すように、対象物である歩行者Hと、自車両Sの一部を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hよりも左側に位置する右サイドカメラ22dと、自車両Sの前部に位置するフロントカメラ22aとの映像を用いて生成し、歩行者Hの左側面が映される。 At this time, as shown in FIG. 13B, the generated virtual image includes the pedestrian H, which is an object, and a part of the own vehicle S, and the own vehicle S and the pedestrian H (object). It is a virtual image that grasps the relative positional relationship. Further, this virtual image is generated by using the images of the right side camera 22d located on the left side of the pedestrian H and the front camera 22a located in the front part of the own vehicle S, and the left side surface of the pedestrian H is generated. It is projected.

なお、図12Bに示す仮想画像と同様に、図13Bに示す仮想画像のうち、撮影画像に含まれていない領域やゆがみが大きくなる領域等については、予め生成されたCG画像を重畳してもよい。 Similar to the virtual image shown in FIG. 12B, in the virtual image shown in FIG. 13B, the area not included in the captured image, the area where the distortion becomes large, and the like can be superposed with the CG image generated in advance. Good.

このように、実施例2の表示方法及び表示装置Dであっても、自車両Sの周囲に視覚支援に必要となる対象物(図12A〜図13Bでは歩行者H)を検出したら、自車両Sに対する対象物(歩行者H)の位置を特定する。そして、特定した対象物(歩行者H)の位置に応じて、自車両Sと対象物(歩行者H)との相対位置関係を把握する位置に仮想視点Kを設定する。
つまり、仮想視点Kの設定位置は、自車両Sに対する対象物(歩行者H)の位置に応じて変化し、自車両Sと対象物(歩行者H)との相対位置関係を把握するために最適な位置にその都度設定される。
In this way, even with the display method and display device D of the second embodiment, if an object (pedestrian H in FIGS. 12A to 13B) required for visual assistance is detected around the own vehicle S, the own vehicle The position of the object (pedestrian H) with respect to S is specified. Then, the virtual viewpoint K is set at a position where the relative positional relationship between the own vehicle S and the object (pedestrian H) is grasped according to the position of the specified object (pedestrian H).
That is, the set position of the virtual viewpoint K changes according to the position of the object (pedestrian H) with respect to the own vehicle S, and in order to grasp the relative positional relationship between the own vehicle S and the object (pedestrian H). It is set to the optimum position each time.

この結果、図12B,図13Bに示す仮想画像ように、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握可能な仮想画像を生成することができる。そして、乗員に対して表示するために表示用ディスプレイ26に表示された画像の中で、自車両Sと対象物(歩行者H)との相対的な位置関係を容易に把握することができ、自車両Sに乗車した乗員の視覚支援を効果的に行うことができる。 As a result, as shown in the virtual images shown in FIGS. 12B and 13B, it is possible to generate a virtual image in which the relative positional relationship between the own vehicle S and the object (pedestrian H) can be easily grasped. Then, in the image displayed on the display 26 for displaying to the occupant, the relative positional relationship between the own vehicle S and the object (pedestrian H) can be easily grasped. It is possible to effectively provide visual support for the occupants who have boarded the own vehicle S.

また、この実施例2では、対象物(歩行者H)が左サイドカメラ22cによって撮影可能であり、車両左側方に存在しているときには、仮想視点Kを、自車両Sの幅方向中央位置よりも右側の位置から車両左方に向くように設定する。
これにより、左サイドカメラ22cに対して対象物(歩行者H)が左側方に位置しているときであっても、車両左方を向いた仮想視点Kを基準として生成された仮想画像(図12B参照)の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。
Further, in the second embodiment, when the object (pedestrian H) can be photographed by the left side camera 22c and exists on the left side of the vehicle, the virtual viewpoint K is set from the center position in the width direction of the own vehicle S. Also set so that it faces the left side of the vehicle from the position on the right side.
As a result, even when the object (pedestrian H) is located on the left side with respect to the left side camera 22c, a virtual image generated with reference to the virtual viewpoint K facing the left side of the vehicle (FIG. In (see 12B), the relative positional relationship between the own vehicle S and the object (pedestrian H) can be grasped.

また、図13Aに示すように、対象物(歩行者H)が右サイドカメラ22dによって撮影可能であり、車両右側方に存在しているときには、仮想視点Kを、自車両Sの幅方向中央位置よりも左側の位置から車両右方に向くように設定する。
これにより、右サイドカメラ22dに対して対象物(歩行者H)が右側方に位置しているときであっても、車両右方を向いた仮想視点Kを基準として生成された仮想画像(図13B参照)の中で、自車両Sと対象物(歩行者H)との相対位置関係を把握することができる。
Further, as shown in FIG. 13A, when the object (pedestrian H) can be photographed by the right side camera 22d and exists on the right side of the vehicle, the virtual viewpoint K is set to the center position in the width direction of the own vehicle S. Set so that it faces the right side of the vehicle from the position on the left side.
As a result, even when the object (pedestrian H) is located on the right side with respect to the right side camera 22d, a virtual image generated with reference to the virtual viewpoint K facing the right side of the vehicle (FIG. In (see 13B), the relative positional relationship between the own vehicle S and the object (pedestrian H) can be grasped.

[仮想視点設定作用]
図12A〜図13Bに示すシーンでは、対象物である歩行者Hがフロントカメラ22aの光軸中心位置α´を挟んで車両前後方向の所定領域Y内で撮影されておらず、この歩行者Hは、車両左右方向のいずれかのアングルでしか表示できない例となっている。
[Virtual viewpoint setting action]
In the scenes shown in FIGS. 12A to 13B, the pedestrian H, which is an object, is not photographed in a predetermined region Y in the front-rear direction of the vehicle with the optical axis center position α'of the front camera 22a, and the pedestrian H is not photographed. Is an example that can be displayed only at any angle in the left-right direction of the vehicle.

これに対し、図14Aに示すように、フロントカメラ22aの光軸中心位置α´を挟んで車両左右方向の所定領域Y内の第10位置50に歩行者Hが存在し、この所定領域Y内に歩行者Hの全ての部分が撮影されているシーンを考える。
このときには、歩行者Hは、フロントカメラ22aのほぼ正面に位置することになり、車両左右方向のいずれのアングルでも表示可能となる。
そのため、図11に示すフローチャートにおいて、ステップS201→ステップS202→ステップS203→ステップS204へと進み、歩行者Hの移動方向を検出し、自車両Sの右方(右側方)に向かって移動しているか否かを判断する。
On the other hand, as shown in FIG. 14A, the pedestrian H exists in the tenth position 50 in the predetermined region Y in the left-right direction of the vehicle with the optical axis center position α'of the front camera 22a in between, and the pedestrian H exists in the predetermined region Y. Consider a scene in which all parts of pedestrian H are photographed.
At this time, the pedestrian H is located substantially in front of the front camera 22a, and can be displayed at any angle in the left-right direction of the vehicle.
Therefore, in the flowchart shown in FIG. 11, the process proceeds from step S201 → step S202 → step S203 → step S204, detects the moving direction of the pedestrian H, and moves toward the right side (right side) of the own vehicle S. Judge whether or not.

ここで、例えば歩行者Hが自車両Sの右方へ移動している場合には、ステップS204→ステップS207へと進み、歩行者H及び自車両Sの幅方向中央位置よりも車両前方左側の位置50aから車両後方右側(車両右方)に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの一部を含める。 Here, for example, when the pedestrian H is moving to the right of the own vehicle S, the process proceeds from step S204 to step S207, and the pedestrian H and the own vehicle S are on the left side in front of the vehicle from the center position in the width direction. The virtual viewpoint K is set from the position 50a toward the rear right side of the vehicle (right side of the vehicle). At this time, the pedestrian H and a part of the own vehicle S are included in the field of view of the virtual viewpoint K.

仮想視点Kを設定したら、ステップS209→ステップS210へと進んで、この位置50aに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。 After setting the virtual viewpoint K, the process proceeds from step S209 to step S210 to generate a virtual image whose viewpoint is converted to an image viewed from the virtual viewpoint K set at this position 50a, and then display the generated virtual image. It is displayed on the display 26.

このとき、生成される仮想画像は、図14Bに示すように、対象物である歩行者Hと、自車両Sの一部を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。 At this time, as shown in FIG. 14B, the generated virtual image includes the pedestrian H, which is an object, and a part of the own vehicle S, and the own vehicle S and the pedestrian H (object). It is a virtual image that grasps the relative positional relationship.

その後、時間の経過と共に、自車両Sと歩行者Hとの相対的な位置関係が変化する。具体的には、図14A及び図14Bに二点鎖線で示すように、自車両Sの右斜め前方位置51aへと歩行者Hが移動する。 After that, with the passage of time, the relative positional relationship between the own vehicle S and the pedestrian H changes. Specifically, as shown by the alternate long and short dash line in FIGS. 14A and 14B, the pedestrian H moves to the diagonally right forward position 51a of the own vehicle S.

ここで、視覚支援のための仮想画像は、位置50aから車両右方に向いた状態で設定された仮想視点Kからの画像となっており、自車両Sを車両前方左側から車両右方に向かって見たときの画像となっている。そのため、時間の経過と共に、歩行者Hが自車両Sの右斜め前方位置51aへと相対的に移動したときであっても、図14Bに示すように、歩行者Hを仮想画像中に含め続けることができる。 Here, the virtual image for visual assistance is an image from the virtual viewpoint K set in a state of facing the vehicle right from the position 50a, and the own vehicle S is directed from the front left side of the vehicle to the right side of the vehicle. It is an image when viewed. Therefore, as shown in FIG. 14B, the pedestrian H is continuously included in the virtual image even when the pedestrian H relatively moves to the diagonally right forward position 51a of the own vehicle S with the passage of time. be able to.

一方、フロントカメラ22aの光軸中心位置α´を挟んで車両前後方向の所定領域Y内の第10位置50に歩行者Hが存在し、この所定領域X内に歩行者Hの全ての部分が撮影されている場合であって、歩行者Hが自車両Sの左方(左側方)へ移動しているときを考える。このときには、ステップS201→ステップS202→ステップS203→ステップS204→ステップS208へと進み、歩行者H及び自車両Sの幅方向中央位置よりも車両前方右側の位置50bから車両後方左側(車両左方)に向けて仮想視点Kを設定する。このとき、仮想視点Kの視界に、歩行者Hと自車両Sの一部を含める。
その後、ステップS209→ステップS210へと進んで、この位置50bに設定された仮想視点Kから見たときの画像に視点変換した仮想画像を生成した上、生成した仮想画像を表示用ディスプレイ26に表示する。
On the other hand, the pedestrian H exists at the tenth position 50 in the predetermined region Y in the vehicle front-rear direction with the optical axis center position α'of the front camera 22a, and all the parts of the pedestrian H are in the predetermined region X. Consider the case where the pedestrian H is moving to the left side (left side) of the own vehicle S in the case of being photographed. At this time, the process proceeds from step S201 → step S202 → step S203 → step S204 → step S208, and from the position 50b on the front right side of the vehicle to the center position in the width direction of the pedestrian H and the own vehicle S, the left side behind the vehicle (left side of the vehicle) Set the virtual viewpoint K toward. At this time, the pedestrian H and a part of the own vehicle S are included in the field of view of the virtual viewpoint K.
After that, the process proceeds from step S209 to step S210 to generate a virtual image whose viewpoint is converted into an image when viewed from the virtual viewpoint K set at this position 50b, and then displays the generated virtual image on the display 26 for display. To do.

これにより、位置50bに設定された仮想視点Kから見たときの画像に視点変換した仮想画像は、図14Cに示すように、対象物である歩行者Hと自車両Sの一部を含んでおり、自車両Sと歩行者H(対象物)との相対位置関係を把握する仮想画像となる。また、この仮想画像は、歩行者Hよりも左側に位置する左サイドカメラ22cと、自車両Sの前部に位置するフロントカメラ22aとの映像を用いて生成し、歩行者Hの左側面が映される。 As a result, the virtual image whose viewpoint is converted into an image when viewed from the virtual viewpoint K set at the position 50b includes a part of the pedestrian H and the own vehicle S, which are objects, as shown in FIG. 14C. This is a virtual image for grasping the relative positional relationship between the own vehicle S and the pedestrian H (object). Further, this virtual image is generated by using the images of the left side camera 22c located on the left side of the pedestrian H and the front camera 22a located on the front side of the own vehicle S, and the left side surface of the pedestrian H is generated. It is projected.

そして、その後時間の経過と共に、自車両Sと歩行者Hとの相対的な位置関係が変化するが、この場合では図14A及び図14Cに二点鎖線で示すように、自車両Sの左斜め前方位置51bへと歩行者Hが移動する。 Then, with the passage of time thereafter, the relative positional relationship between the own vehicle S and the pedestrian H changes. In this case, as shown by the two-dot chain line in FIGS. 14A and 14C, the own vehicle S is oblique to the left. The pedestrian H moves to the front position 51b.

ここで、視覚支援のための仮想画像は、位置50bから車両左方に向いた状態で設定された仮想視点Kからの画像となっており、自車両Sを車両前方右側から車両左方に向かって見たときの画像となっている。そのため、時間の経過と共に、歩行者Hが自車両Sの左斜め前方位置51bへと相対的に移動したときであっても、図14Cに示すように、歩行者Hを仮想画像中に含め続けることができる。 Here, the virtual image for visual assistance is an image from the virtual viewpoint K set in a state of facing the vehicle left from the position 50b, and the own vehicle S is directed from the front right side of the vehicle to the left side of the vehicle. It is an image when viewed. Therefore, as shown in FIG. 14C, the pedestrian H is continuously included in the virtual image even when the pedestrian H relatively moves to the diagonally left forward position 51b of the own vehicle S with the passage of time. be able to.

このように、対象物(歩行者H)が、車両左右方向のいずれのアングルでも表示可能な場合には、対象物(歩行者H)に移動方向に応じて仮想視点Kの位置を設定する。これにより、時間の経過と共に、自車両Sと対象物(歩行者H)との車幅方向の相対位置関係が変化しても、仮想視点Kの位置を変更することなく対象物(歩行者H)を仮想画像中に含め続けることができる。この結果、仮想画像のアングルを維持することができ、自車両Sと対象物(歩行者H)との相対位置関係を把握する仮想画像に大きな変化が生じず、この相対位置関係を容易に把握可能とすることができる。 In this way, when the object (pedestrian H) can be displayed at any angle in the left-right direction of the vehicle, the position of the virtual viewpoint K is set on the object (pedestrian H) according to the moving direction. As a result, even if the relative positional relationship between the own vehicle S and the object (pedestrian H) in the vehicle width direction changes with the passage of time, the object (pedestrian H) does not change the position of the virtual viewpoint K. ) Can be continued to be included in the virtual image. As a result, the angle of the virtual image can be maintained, and the virtual image for grasping the relative positional relationship between the own vehicle S and the object (pedestrian H) does not change significantly, and this relative positional relationship can be easily grasped. It can be possible.

次に、効果を説明する。
実施例2の表示装置の表示方法にあっては、下記に列挙する効果を得ることができる。
Next, the effect will be described.
In the display method of the display device of the second embodiment, the effects listed below can be obtained.

(8) 前記仮想視点設定ステップ(ステップS206,ステップS207)は、前記対象物(歩行者H)の位置(第8位置48)が前記対象物検出センサ(左サイドカメラ22c)の位置よりも前記自車両Sの左側方に存在する場合、前記仮想視点Kを、前記自車両Sよりも右側の位置48aから車両左方に向けて設定する構成とした。
これにより、(2)の効果に加え、対象物検出センサ(左サイドカメラ22c)に対して対象物(歩行者H)が左側方に位置しているときであっても、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握することができる。
(8) In the virtual viewpoint setting step (step S206, step S207), the position (eighth position 48) of the object (pedestrian H) is higher than the position of the object detection sensor (left side camera 22c). When it exists on the left side of the own vehicle S, the virtual viewpoint K is set from the position 48a on the right side of the own vehicle S toward the left side of the vehicle.
As a result, in addition to the effect of (2), even when the object (pedestrian H) is located on the left side of the object detection sensor (left side camera 22c), in the virtual image. , The relative positional relationship between the own vehicle S and the object (pedestrian H) can be easily grasped.

(9) 前記仮想視点設定ステップ(ステップS206,ステップS207)は、前記対象物(歩行者H)の位置(第9位置49)が前記対象物検出センサ(右サイドカメラ22d)の位置よりも前記自車両Sの右側方に存在する場合、前記仮想視点Kを、前記自車両Sよりも左側の位置49aから車両右方に向けて設定する構成とした。
これにより、(2)の効果に加え、対象物検出センサ(右サイドカメラ22d)に対して対象物(歩行者H)が右側方に位置しているときであっても、仮想画像の中で、自車両Sと対象物(歩行者H)との相対位置関係を容易に把握することができる。
(9) In the virtual viewpoint setting step (step S206, step S207), the position (9th position 49) of the object (pedestrian H) is higher than the position of the object detection sensor (right side camera 22d). When it exists on the right side of the own vehicle S, the virtual viewpoint K is set from the position 49a on the left side of the own vehicle S toward the right side of the vehicle.
As a result, in addition to the effect of (2), even when the object (pedestrian H) is located on the right side of the object detection sensor (right side camera 22d), in the virtual image. , The relative positional relationship between the own vehicle S and the object (pedestrian H) can be easily grasped.

以上、本発明の表示装置の表示方法及び表示装置を実施例1及び実施例2に基づいて説明してきたが、具体的な構成については、これらの実施例に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。 The display method and display device of the display device of the present invention have been described above based on the first and second embodiments, but the specific configuration is not limited to these examples, and claims for patent. Design changes and additions are permitted as long as the gist of the invention according to each claim of the scope is not deviated.

実施例2では、自車両Sの車両前端部に搭載したフロントカメラ22aと、左サイドミラーに搭載した左サイドカメラ22cと、右サイドミラーに搭載した右サイドカメラ22dと、を用いて、自車両Sの前方に存在する対象物を検出する例を示した。しかしながら、これに限らず、例えば、図15に示すように、自車両S3のフロントバンパーの左端部に搭載した左前端カメラ22mと、フロントバンパーの右端部に搭載した右前端カメラ22nとを用いて、自車両S3の前方に存在する対象物を検出してもよい。 In the second embodiment, the own vehicle uses the front camera 22a mounted on the vehicle front end of the own vehicle S, the left side camera 22c mounted on the left side mirror, and the right side camera 22d mounted on the right side mirror. An example of detecting an object existing in front of S is shown. However, the present invention is not limited to this, and for example, as shown in FIG. 15, the left front end camera 22m mounted on the left end portion of the front bumper of the own vehicle S3 and the right front end camera 22n mounted on the right end portion of the front bumper are used. An object existing in front of the vehicle S3 may be detected.

この図15に示す場合では、対象物が左前端カメラ22mの撮影範囲Mと、右前端カメラ22nの撮影範囲Nのどちらに存在するかに基づいて、仮想視点の位置を設定する。具体的には、左前端カメラ22mの撮影範囲M内に対象物が存在するときには、自車両S3の幅方向中央位置よりも車両前方右側の位置52aから車両後方左側(車両左方)に向けて仮想視点Kを設定する。また、右前端カメラ22nの撮影範囲N内に対象物が存在するときには、自車両S3の幅方向中央位置よりも車両前方左側の位置52bから車両方向右側(車両右方)に向けて仮想視点Kを設定する。 In the case shown in FIG. 15, the position of the virtual viewpoint is set based on whether the object is in the shooting range M of the left front end camera 22m or the shooting range N of the right front end camera 22n. Specifically, when the object is within the shooting range M of the left front end camera 22 m, the object is directed from the position 52a on the front right side of the vehicle S3 toward the rear left side (left side of the vehicle) of the vehicle S3. Set the virtual viewpoint K. Further, when an object exists within the shooting range N of the right front end camera 22n, the virtual viewpoint K is directed from the position 52b on the left side in front of the vehicle to the right side (right side of the vehicle) in the vehicle direction with respect to the center position in the width direction of the own vehicle S3. To set.

また、この図15に示す場合では、実施例2においてフロントカメラ22aにて撮影していた領域(撮影範囲A)を、二台のカメラ(左前端カメラ22m、右前端カメラ22n)にて撮影することになる。そのため、各カメラ(左前端カメラ22m、右前端カメラ22n)の視野角を、フロントカメラ22aよりも狭くすることが可能となり、撮像物の歪みを軽減することができる。 Further, in the case shown in FIG. 15, the area (shooting range A) shot by the front camera 22a in the second embodiment is shot by two cameras (left front end camera 22m, right front end camera 22n). It will be. Therefore, the viewing angle of each camera (left front end camera 22m, right front end camera 22n) can be made narrower than that of the front camera 22a, and distortion of the imaged object can be reduced.

また、実施例2及び図15では、自車両Sの前方領域を対象として、対象物が自車両Sの左右いずれかに存在するかを判断し、その位置に応じて仮想視点Kを設定する例を示したが、これに限らない。自車両Sの後方領域を対象とした場合であっても、対象物の位置を特定して、その特定された対象物の位置に応じて仮想視点を設定することで、対象物と自車両Sとの相対的な位置関係を把握する仮想画像を適切に生成することができる。 Further, in Example 2 and FIG. 15, an example in which it is determined whether or not the object exists on either the left or right side of the own vehicle S for the front region of the own vehicle S, and the virtual viewpoint K is set according to the position. However, it is not limited to this. Even when the rear region of the own vehicle S is targeted, the target and the own vehicle S can be specified by specifying the position of the object and setting a virtual viewpoint according to the position of the specified object. It is possible to appropriately generate a virtual image that grasps the relative positional relationship with.

また、実施例1では、左右サイドカメラ22c,22dの光軸中心位置αを基準とし、左右サイドカメラ22c,22dに対する対象物の位置を特定する例を示した。しかしながら、これに限らず、自車両Sに対する対象物の位置は、例えば、自車両Sの車両中心位置(車室の中央位置)や、運転席等を基準として特定してもよい。 Further, in Example 1, an example of specifying the position of the object with respect to the left and right side cameras 22c and 22d is shown with reference to the optical axis center position α of the left and right side cameras 22c and 22d. However, the position of the object with respect to the own vehicle S may be specified based on, for example, the vehicle center position (center position of the vehicle interior) of the own vehicle S, the driver's seat, or the like.

さらに、実施例1及び実施例2では、仮想画像を生成する際、車載カメラ22によって撮影された画像を画像処理して用いる例を示したが、これに限らない。例えば、物体認識センサ21によって検出された物体(対象物)と自車両とを含む仮想画像を、カメラ画像を用いることなくCG画像等で生成してもよい。
この場合であっても、自車両の位置に対する物体認識センサ21によって検出された物体(対象物)位置に基づいて仮想視点が設定される位置や方向を適宜変更することで、自車両と対象物(物体)との相対的な位置関係を把握する仮想画像を生成する。
Further, in Examples 1 and 2, when generating a virtual image, an example in which an image taken by the in-vehicle camera 22 is image-processed and used is shown, but the present invention is not limited to this. For example, a virtual image including an object (object) detected by the object recognition sensor 21 and the own vehicle may be generated as a CG image or the like without using a camera image.
Even in this case, the own vehicle and the object can be changed by appropriately changing the position and direction in which the virtual viewpoint is set based on the position of the object (object) detected by the object recognition sensor 21 with respect to the position of the own vehicle. Generate a virtual image that grasps the relative positional relationship with (object).

また、実施例1及び実施例2において生成された仮想画像は、自車両Sの車両下部領域を含む、いわゆる「サイドダウンビュー」となっており、仮想視点Kが自車両Sを見下ろす位置に設定される例を示したが、これに限らない。自車両と対象物との相対的な位置関係を把握する仮想画像が生成される位置であれば、自車両に対する対象物の位置に応じて、地面に対して視界が平行となる位置に仮想視点を設定してもよいし、自車両を見上げる位置に仮想視点を設定してもよい。 Further, the virtual images generated in the first and second embodiments are so-called "side-down views" including the vehicle lower region of the own vehicle S, and are set at a position where the virtual viewpoint K looks down on the own vehicle S. The example is shown, but it is not limited to this. If a virtual image is generated to grasp the relative positional relationship between the own vehicle and the object, the virtual viewpoint is located at a position where the field of view is parallel to the ground according to the position of the object with respect to the own vehicle. May be set, or a virtual viewpoint may be set at a position looking up at the own vehicle.

S 自車両
D 表示装置
21 物体認識センサ(対象物検出センサ)
22 車載カメラ(対象物検出センサ)
22a フロントカメラ(対象物検出センサ)
22b リヤカメラ(対象物検出センサ)
22c 左サイドカメラ(対象物検出センサ)
22d 右サイドガメラ(対象物検出センサ)
23 舵角センサ
24 車速センサ
25 レンジ位置センサ
26 表示用ディスプレイ
30 視覚支援CPU(表示コントローラ)
31 自車両状態把握部
32 対象物位置特定部
33 仮想視点設定部
34 画像生成部
35 画像補正部
11 前輪
12 後輪
13 側面
S Own vehicle D Display device 21 Object recognition sensor (object detection sensor)
22 In-vehicle camera (object detection sensor)
22a Front camera (object detection sensor)
22b Rear camera (object detection sensor)
22c Left side camera (object detection sensor)
22d Right side Gamera (object detection sensor)
23 Steering angle sensor 24 Vehicle speed sensor 25 Range position sensor 26 Display for display 30 Visual support CPU (display controller)
31 Own vehicle state grasping unit 32 Object position specifying unit 33 Virtual viewpoint setting unit 34 Image generation unit 35 Image correction unit 11 Front wheel 12 Rear wheel 13 Side surface

Claims (9)

自車両の周囲の対象物を検出し、前記自車両に備わる複数のカメラによって得られた撮影画像より、前記対象物が含まれる仮想視点からの画像を生成し、前記画像を乗員の視覚支援情報として表示する表示装置の表示方法において、
前記複数のカメラのうち、前記対象物を検出する所定カメラを特定するステップと、
前記所定カメラに対する前記自車両の前後方向若しくは前記自車両の左右方向の前記対象物の位置を特定する対象物位置特定ステップと、
前記所定カメラに対する前記対象物の位置と反対側の位置に前記仮想視点の位置を設定し、前記自車両と前記対象物とを視界に含むように前記仮想視点の向きを設定する仮想視点設定ステップと、
前記仮想視点から見たときの画像を生成する画像生成ステップと、
を有することを特徴とする表示装置の表示方法。
An object around the own vehicle is detected, an image from a virtual viewpoint including the object is generated from images taken by a plurality of cameras provided in the own vehicle, and the image is used as visual assistance information for the occupant. In the display method of the display device to be displayed as
A step of identifying a predetermined camera that detects the object among the plurality of cameras,
An object position specifying step for specifying the position of the object in the front-rear direction of the own vehicle or the left-right direction of the own vehicle with respect to the predetermined camera .
Virtual viewpoint setting step of the set position and the position of the virtual viewpoint in a position opposite to the predetermined camera the object with respect to setting the virtual viewpoint orientation to include said host vehicle and the object in view When,
An image generation step that generates an image when viewed from the virtual viewpoint, and
A display method of a display device, which comprises.
請求項に記載された表示装置の表示方法において、
前記仮想視点設定ステップは、前記対象物の位置が前記所定カメラの位置よりも車両前方にある場合、前記仮想視点を、前記対象物よりも車両後方の位置から車両前方に向けて設定する
ことを特徴とする表示装置の表示方法。
In the display method of the display device according to claim 1 ,
In the virtual viewpoint setting step, when the position of the object is in front of the vehicle from the position of the predetermined camera , the virtual viewpoint is set from a position behind the vehicle to the front of the vehicle from the position of the object. Display method of the characteristic display device.
請求項に記載された表示装置の表示方法において、
前記画像生成ステップは、車両前方に向けて設定された仮想視点からの画像を生成する際、前記対象物よりも車両後方に位置する前記所定カメラによって得られた撮影画像を用いて前記画像を生成する
ことを特徴とする表示装置の表示方法。
In the display method of the display device according to claim 2 ,
Wherein the image generation step, when generating an image from a virtual viewpoint that is set toward the vehicle front, the image using the captured image obtained al a by the predetermined camera positioned rearward than the object A display method for a display device, characterized in that it is generated.
請求項に記載された表示装置の表示方法において、
前記仮想視点設定ステップは、前記対象物の位置が前記所定カメラの位置よりも車両後方にある場合、前記仮想視点を、前記対象物よりも車両前方の位置から車両後方に向けて設定する
ことを特徴とする表示装置の表示方法。
In the display method of the display device according to claim 1 ,
In the virtual viewpoint setting step, when the position of the object is behind the vehicle from the position of the predetermined camera , the virtual viewpoint is set from the position in front of the vehicle to the rear of the vehicle from the position of the object. Display method of the characteristic display device.
請求項に記載された表示装置の表示方法において、
前記画像生成ステップは、車両後方に向けて設定された仮想視点からの画像を生成する際、前記対象物よりも車両前方に位置する前記所定カメラによって得られた撮影画像を用いて前記画像を生成する
ことを特徴とする表示装置の表示方法。
In the display method of the display device according to claim 4 ,
Wherein the image generation step, when generating an image from a virtual viewpoint that is set toward the rear of the vehicle, the image using the captured image obtained al a by the predetermined camera located on the vehicle forward of said object A display method for a display device, characterized in that it is generated.
請求項に記載された表示装置の表示方法において、
前記仮想視点設定ステップは、前記対象物の位置が前記所定カメラの位置よりも前記自車両の左側方に存在する場合、前記仮想視点を、前記自車両よりも右側の位置から車両左方に向けて設定する
ことを特徴とする表示装置の表示方法。
In the display method of the display device according to claim 1 ,
In the virtual viewpoint setting step, when the position of the object is on the left side of the own vehicle with respect to the position of the predetermined camera , the virtual viewpoint is directed to the left side of the vehicle from the position on the right side of the own vehicle. The display method of the display device, which is characterized by setting.
請求項に記載された表示装置の表示方法において、
前記仮想視点設定ステップは、前記対象物の位置が前記所定カメラの位置よりも前記自車両の右側方に存在する場合、前記仮想視点を、前記自車両よりも左側の位置から車両右方に向けて設定する
ことを特徴とする表示装置の表示方法。
In the display method of the display device according to claim 1 ,
In the virtual viewpoint setting step, when the position of the object is on the right side of the own vehicle with respect to the position of the predetermined camera , the virtual viewpoint is directed to the right of the vehicle from the position on the left side of the own vehicle. The display method of the display device, which is characterized by setting.
請求項1に記載された表示装置の表示方法において、
前記複数のカメラは、前記自車両の側部に前記自車両の前後方向に並んで搭載されて前記自車両の側方領域を撮影し、
前記対象物位置特定ステップは、前記所定カメラによって撮影された撮影画像に基づいて、前記所定カメラの位置に対する前記自車両の前後方向の前記対象物の位置を特定し、
前記仮想視点設定ステップは、前記対象物と前記自車両の前後輪を視界に含む位置に仮想視点を設定し、
前記画像生成ステップは、前記仮想視点からの画像を生成する際、前記所定カメラであって前記自車両の前後方向で前記対象物の直前位置に配置された第1カメラにより得られた第1撮影画像と、前記所定カメラであって前記自車両の前後方向で前記対象物の直後位置に配置された第2カメラにより得られた第2撮影画像とを用いて、前記自車両の側面及び車両下方領域を含む画像を生成する
ことを特徴とする表示装置の表示方法。
In the display method of the display device according to claim 1,
The plurality of cameras are mounted side by side in the front-rear direction of the own vehicle on the side portion of the own vehicle to photograph a lateral region of the own vehicle .
Said target position specifying step, based on the image captured by the predetermined camera, and specifies the position in the longitudinal direction of the object of the vehicle with respect to the position of the predetermined camera,
In the virtual viewpoint setting step, the virtual viewpoint is set at a position including the object and the front and rear wheels of the own vehicle in the field of view.
In the image generation step, when generating an image from the virtual viewpoint, a first imaging obtained by the first camera, which is the predetermined camera and is arranged at a position immediately before the object in the front-rear direction of the own vehicle. Using the image and the second captured image obtained by the second camera arranged at the position immediately after the object in the front-rear direction of the own vehicle with the predetermined camera, the side surface of the own vehicle and the lower side of the vehicle are used. A display method for a display device, which comprises generating an image including an area.
自車両の周囲の対象物を検出し、前記自車両に備わる複数のカメラによって得られた撮影画像より、前記対象物が含まれる仮想視点からの画像を生成し、乗員の視覚支援情報として表示する表示コントローラを備えた表示装置において、
前記表示コントローラは、
前記複数のカメラのうち、前記対象物を検出する所定カメラを特定し、前記所定カメラに対する前記自車両の前後方向若しくは前記自車両の左右方向の前記対象物の位置を特定する対象物位置特定部と、
前記所定カメラに対する前記対象物の位置と反対側の位置に前記仮想視点の位置を設定し、前記自車両と前記対象物とを視界に含むように前記仮想視点の向きを設定する仮想視点設定部と、
前記仮想視点からの画像を生成する画像生成部と、
を有することを特徴とする表示装置。
An object around the own vehicle is detected, and an image from a virtual viewpoint including the object is generated from the images taken by a plurality of cameras provided in the own vehicle and displayed as visual support information of the occupant. In a display device equipped with a display controller
The display controller is
Among the plurality of cameras, an object position specifying unit that identifies a predetermined camera that detects the object and specifies the position of the object in the front-rear direction of the own vehicle or the left-right direction of the own vehicle with respect to the predetermined camera . When,
A virtual viewpoint setting unit that sets the position of the virtual viewpoint at a position opposite to the position of the object with respect to the predetermined camera, and sets the direction of the virtual viewpoint so that the own vehicle and the object are included in the field of view. When,
An image generation unit that generates an image from the virtual viewpoint and
A display device characterized by having.
JP2016172916A 2016-09-05 2016-09-05 Display method of display device and display device Active JP6769187B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016172916A JP6769187B2 (en) 2016-09-05 2016-09-05 Display method of display device and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016172916A JP6769187B2 (en) 2016-09-05 2016-09-05 Display method of display device and display device

Publications (2)

Publication Number Publication Date
JP2018039295A JP2018039295A (en) 2018-03-15
JP6769187B2 true JP6769187B2 (en) 2020-10-14

Family

ID=61624837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016172916A Active JP6769187B2 (en) 2016-09-05 2016-09-05 Display method of display device and display device

Country Status (1)

Country Link
JP (1) JP6769187B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5104397B2 (en) * 2008-02-27 2012-12-19 富士通株式会社 Image processing apparatus and image processing method
JP5273068B2 (en) * 2010-02-26 2013-08-28 三菱自動車工業株式会社 Vehicle periphery monitoring device
JP5681569B2 (en) * 2011-05-31 2015-03-11 富士通テン株式会社 Information processing system, server device, and in-vehicle device
TWI478833B (en) * 2011-08-31 2015-04-01 Autoequips Tech Co Ltd Method of adjusting the vehicle image device and system thereof
JP6406175B2 (en) * 2015-08-27 2018-10-17 株式会社デンソー In-vehicle display control device, in-vehicle display control method

Also Published As

Publication number Publication date
JP2018039295A (en) 2018-03-15

Similar Documents

Publication Publication Date Title
US10093247B2 (en) Enhanced front curb viewing system
US9886636B2 (en) Enhanced top-down view generation in a front curb viewing system
US9834143B2 (en) Enhanced perspective view generation in a front curb viewing system
JP4914458B2 (en) Vehicle periphery display device
US8717196B2 (en) Display apparatus for vehicle
JP5035284B2 (en) Vehicle periphery display device
JP4412380B2 (en) Driving support device, driving support method, and computer program
US10477102B2 (en) Method and device for determining concealed regions in the vehicle environment of a vehicle
EP1961613B1 (en) Driving support method and driving support device
US20190135169A1 (en) Vehicle communication system using projected light
WO2012091476A2 (en) Apparatus and method for displaying a blind spot
JP2006253872A (en) Apparatus and method for displaying vehicle perimeter image
JP7011559B2 (en) Display devices, display control methods, and programs
CN109389060B (en) Vision-based vehicle surrounding collision early warning method
CN110378836B (en) Method, system and equipment for acquiring 3D information of object
JP6885022B2 (en) Driving support device
JP2013078151A (en) Display device for vehicle
JP2004310522A (en) Vehicular image processor
JP7069539B2 (en) Driving support device
JP4986070B2 (en) Ambient monitoring device for vehicles
JP2011155651A (en) Apparatus and method for displaying vehicle perimeter image
JP6148848B2 (en) In-vehicle image processing device
KR101704201B1 (en) Panorama view variable system and method for controlling the same
JP6769187B2 (en) Display method of display device and display device
KR102023863B1 (en) Display method around moving object and display device around moving object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200907

R151 Written notification of patent or utility model registration

Ref document number: 6769187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151