JP5083137B2 - Driving assistance device - Google Patents

Driving assistance device Download PDF

Info

Publication number
JP5083137B2
JP5083137B2 JP2008234028A JP2008234028A JP5083137B2 JP 5083137 B2 JP5083137 B2 JP 5083137B2 JP 2008234028 A JP2008234028 A JP 2008234028A JP 2008234028 A JP2008234028 A JP 2008234028A JP 5083137 B2 JP5083137 B2 JP 5083137B2
Authority
JP
Japan
Prior art keywords
target
vehicle
approaching
estimated
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008234028A
Other languages
Japanese (ja)
Other versions
JP2010067095A (en
Inventor
貴士 清水
洋幸 松本
高広 前村
恵資 上南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Motors Corp
Original Assignee
Mitsubishi Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Motors Corp filed Critical Mitsubishi Motors Corp
Priority to JP2008234028A priority Critical patent/JP5083137B2/en
Publication of JP2010067095A publication Critical patent/JP2010067095A/en
Application granted granted Critical
Publication of JP5083137B2 publication Critical patent/JP5083137B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両に設けられた複数の撮像装置により撮像した画像を合成し、車両を中心とした車両全周の俯瞰画像をディスプレイに表示するとともに、表示された目標物を指定することでその目標物を前記俯瞰画像から切り出して表示する運転支援装置に関する。   The present invention combines images captured by a plurality of imaging devices provided in a vehicle, displays a bird's-eye view image of the entire circumference of the vehicle centered on the vehicle, and designates the displayed target by specifying the displayed target. The present invention relates to a driving support device that cuts out and displays a target from the overhead image.

従来、自動車に複数の撮像装置を設け、各撮像装置により撮像した画像を合成することで、自動車の周囲全周の俯瞰画像を生成し運転席のモニタに表示することで、駐車場などにおける運転操作を容易かつ安全に行えるようにした運転支援装置がある。
図12は、従来の運転支援装置における自車両21に取り付けられている前方カメラ1、後方カメラ2、右カメラ3および左カメラ4と、それら各カメラの撮像エリアを示す説明図である。
符号31は前方カメラ1の撮像エリア、符号32は後方カメラ2の撮像エリア、符号33は右カメラ3の撮像エリア、符号34は左カメラ4の撮像エリアを示している。
また、図13は、従来の運転支援装置における前方カメラ1、後方カメラ2、右カメラ3および左カメラ4により撮像された映像の合成映像である俯瞰映像が表示される俯瞰映像表示画面101と、その俯瞰映像表示画面101の俯瞰映像の映像切出し枠102と、その映像切出し位置の映像が拡大されて表示された拡大表示画面121を示す画面図である。
この拡大表示画面121には、俯瞰映像の映像切出し枠102に表示されている目標物、図13に示す例では木立131と自車両21の車体後部が拡大されて表示されている。
Conventionally, a vehicle is provided with a plurality of imaging devices, and by combining images captured by the imaging devices, a bird's-eye view of the entire periphery of the vehicle is generated and displayed on a driver's seat monitor, thereby driving in a parking lot or the like. There is a driving assistance device that can be operated easily and safely.
FIG. 12 is an explanatory diagram showing the front camera 1, the rear camera 2, the right camera 3, the left camera 4, and the imaging areas of these cameras, which are attached to the host vehicle 21 in the conventional driving support device.
Reference numeral 31 denotes an imaging area of the front camera 1, reference numeral 32 denotes an imaging area of the rear camera 2, reference numeral 33 denotes an imaging area of the right camera 3, and reference numeral 34 denotes an imaging area of the left camera 4.
FIG. 13 shows an overhead video display screen 101 on which an overhead video that is a synthesized video of the images captured by the front camera 1, the rear camera 2, the right camera 3, and the left camera 4 in the conventional driving support device is displayed. It is a screen figure which shows the video cut-out frame 102 of the bird's-eye view video of the bird's-eye view video display screen 101 and the enlarged display screen 121 on which the video at the video cut-out position is enlarged and displayed.
On the enlarged display screen 121, the target displayed in the video cutout frame 102 of the bird's-eye view video, that is, the tree 131 and the rear part of the host vehicle 21 in the example shown in FIG.

このような運転支援装置として次のようなものが提案されている。
すなわち、車両に設置した複数のカメラ設置部に取り付けられた個々のカメラにより車両周囲を撮像する撮像部と、運転者に情報を提供する表示部とを有し、複数の運転シーンの中からエンジン始動時に通常走行シーンを選択する始動シーン選択部と、車速を検出する車速センサと、シフト位置を検出するシフト位置検出部と、ウインカーの方向を検出するウインカー検出部と、ハンドルの操舵角を検出する操舵角センサと、各センサおよび各検出部により検出された情報より表示画面構成を切り替える画面モード切替部とを備えた運転支援装置が提案されている(特許文献1参照)。
この運転支援装置では、ウインカーの情報やハンドル操舵角の情報により後側方の見せる領域を変更することが可能であり、特に、高速モード時にウインカー入力を検出した場合、ウインカー方向の合成画像を拡大表示する。
特開2002−109697号公報
The following is proposed as such a driving assistance device.
That is, it has an imaging unit that images the surroundings of the vehicle with individual cameras attached to a plurality of camera installation units installed in the vehicle, and a display unit that provides information to the driver. A start scene selection unit that selects a normal driving scene at the start, a vehicle speed sensor that detects a vehicle speed, a shift position detection unit that detects a shift position, a winker detection unit that detects the direction of a winker, and a steering angle of a steering wheel are detected. There has been proposed a driving support device that includes a steering angle sensor that performs the above operation and a screen mode switching unit that switches a display screen configuration based on information detected by each sensor and each detection unit (see Patent Document 1).
In this driving support device, it is possible to change the area to be shown in the rear side by the information of the blinker and the steering angle of the steering wheel. Especially when the blinker input is detected in the high speed mode, the composite image of the blinker direction is enlarged. indicate.
JP 2002-109697 A

したがって、従来の運転支援装置では、拡大表示画面121に表示される着目したい目標物などの映像は、自車両の移動に伴って拡大表示画面内で相対的に移動することになり、このため拡大表示画面121から外れてしまい、目標物を拡大画面内に表示し続けることができないという課題があった。
また、目標部が移動可能なものであり、実際に移動している場合、最初、目標物を拡大画面内に表示している状態であっても、目標物の移動に伴い拡大画面から外れてしまい、目標物を画面内に表示し続けることができないという課題があった。
本発明は、このような事情に鑑みてなされたものであり、目標物を俯瞰画像から切り出して表示する際に、自車両あるいは前記目標物が移動しても前記目標物を画面内に表示し続けることができる運転支援装置を提供することを目的とする。
Therefore, in the conventional driving support apparatus, the image of the target or the like to be noticed displayed on the enlarged display screen 121 moves relatively in the enlarged display screen with the movement of the host vehicle. There is a problem that the display screen 121 is removed and the target cannot be continuously displayed in the enlarged screen.
In addition, if the target part is movable and is actually moving, even if the target is initially displayed in the enlarged screen, the target part moves away from the enlarged screen as the target moves. Therefore, there is a problem that the target cannot be continuously displayed on the screen.
The present invention has been made in view of such circumstances, and when the target is cut out from the overhead image and displayed, the target is displayed on the screen even if the host vehicle or the target moves. An object of the present invention is to provide a driving support device that can be continued.

上述の目的を達成するため、本発明は、車両の周囲の映像をモニタに表示する運転支援装置であって、前記車両に搭載され、それぞれ異なる方向の車両周囲を撮像する複数の撮像装置と、前記各撮像装置で撮像した前記車両周囲の映像から前記車両を中心とする俯瞰映像を合成して前記モニタに表示する映像合成手段と、前記映像合成手段により合成した俯瞰映像上の選択された選択目標物の前記車両に対する位置を算出する目標物位置算出手段と、前記選択目標物の特徴点を抽出し、前記特徴点の動きベクトルを算出する特徴点検出手段と、前記特徴点検出手段により求められた前記選択目標物の各特徴点の動きベクトルから前記選択目標物が前記車両に接近してくる接近目標物であるか否かを検出する移動物体検出手段と、前記特徴点検出手段により前記選択目標物が前記車両に接近してくるとして検出された場合、前記接近目標物の特徴点をもとに前記車両を中心とする俯瞰画像上の前記接近目標物を追跡し前記接近目標物とその位置を捕捉する特徴点追跡手段と、前記車両の動きを推定し、前記推定した動きで前記車両が走行するときの前記車両の推定位置を算出し、前記車両の推定位置と、前記目標物位置算出手段で算出した前記目標物の位置または前記特徴点追跡手段により捕捉した前記接近目標物の位置とをもとに、前記推定した動きで前記車両が走行したときの前記車両の推定位置と前記目標物または前記接近目標物の位置との間の位置関係を算出する相対位置演算手段と、前記相対位置演算手段により算出した前記車両の推定位置と前記目標物または前記接近目標物との間の位置関係をもとに、前記選択された目標物または前記接近目標物を含む前記俯瞰映像の一部またはカメラで直接撮像した映像の一部を切り出す映像切出し位置を調整する映像切出し位置調整手段とを備えることを特徴とする。 In order to achieve the above-mentioned object, the present invention is a driving support device that displays a video around a vehicle on a monitor, and is mounted on the vehicle, and a plurality of imaging devices that respectively image the vehicle periphery in different directions; A video composition unit that synthesizes a bird's-eye view image centered on the vehicle from a video around the vehicle imaged by each of the imaging devices and displays it on the monitor; The target position calculating means for calculating the position of the target with respect to the vehicle, the feature point detecting means for extracting the feature point of the selected target object and calculating the motion vector of the feature point, and the feature point detecting means. Moving object detection means for detecting whether or not the selected target is an approaching target approaching the vehicle from the motion vector of each feature point of the selected selected target, and the feature inspection When the selected target is detected as approaching the vehicle by means, the approach target is tracked on the overhead image centered on the vehicle based on the feature point of the approach target and the approach is detected. A feature point tracking means for capturing a target and its position ; estimating the movement of the vehicle; calculating an estimated position of the vehicle when the vehicle travels with the estimated movement; and an estimated position of the vehicle; Based on the position of the target calculated by the target position calculating means or the position of the approaching target captured by the feature point tracking means, the vehicle travels when the vehicle travels with the estimated movement . positional relationship and the relative position calculation means for calculating a, the target and the estimated location of the vehicle calculated by the relative position calculating means or the approaching eye between the estimated position and the position of the target or the approaching target Based on the positional relationship between the object, the image for adjusting the image extraction position for cutting out a portion of the video imaged directly by the overhead image of a part or the camera including the selected target or the approaching target And a cutout position adjusting means.

本発明によれば、自車両あるいは目標物が移動しても、俯瞰画像から切り出されて表示される前記目標物は表示画面から外れてしまうことがなく、前記目標物を画面内に表示し続けることができる運転支援装置を提供できる効果がある。   According to the present invention, even if the host vehicle or the target moves, the target that is cut out and displayed from the overhead image is not deviated from the display screen, and the target is continuously displayed on the screen. There is an effect that it is possible to provide a driving support device that can be used.

(第1の実施の形態)
図1は、本発明の第1の実施の形態である自動車に適用したときの運転支援装置の構成を示すブロック図である。
この運転支援装置は、自車両の前方を撮像する前方カメラ1、後方を撮像する後方カメラ2、右側方を撮像する右カメラ3、左側方を撮像する左カメラ4と、マイクロコンピュータにより構成されたECU(電子制御ユニット)5、モニタ装置6、車速センサ7、ハンドル角(操舵角)センサ8、ゲートウェイ9およびタッチパネル16を備えている。
また、ECU5は、相対位置演算手段11、映像切出位置調整手段12および映像合成手段13を備えている。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a driving support apparatus when applied to an automobile according to a first embodiment of the present invention.
This driving support apparatus is composed of a front camera 1 that images the front of the host vehicle, a rear camera 2 that images the rear, a right camera 3 that images the right side, a left camera 4 that images the left side, and a microcomputer. An ECU (electronic control unit) 5, a monitor device 6, a vehicle speed sensor 7, a handle angle (steering angle) sensor 8, a gateway 9 and a touch panel 16 are provided.
The ECU 5 includes a relative position calculation unit 11, a video cutout position adjustment unit 12, and a video composition unit 13.

前方カメラ1は、例えば自車両前部のフロントグリル中央に取り付けられて自車両の前方を撮像するカメラである。
後方カメラ2は、例えばリアウィンドウが設けられた自車両後部に取り付けられて自車両の後方を撮像するカメラである。
右カメラ3は、例えば右側ドアミラーを支持するドアミラー支持部突端に取り付けられて自車両の右側方を撮像するカメラである。
左カメラ4は、例えば左側ドアミラーを支持するドアミラー支持部突端に取り付けられて自車両の左側方を撮像するカメラである。
The front camera 1 is a camera that is attached to, for example, the center of the front grill at the front of the host vehicle and images the front of the host vehicle.
The rear camera 2 is a camera that is attached to the rear portion of the host vehicle provided with a rear window, for example, and images the rear of the host vehicle.
The right camera 3 is a camera that is attached to a protruding end of a door mirror support part that supports a right door mirror, for example, and images the right side of the host vehicle.
The left camera 4 is a camera that is attached to a protruding end of a door mirror support portion that supports a left door mirror, for example, and images the left side of the host vehicle.

ECU5は各部を制御するマイクロコンピュータにより構成されている。
ECU5は、特に前方カメラ1、後方カメラ2、右カメラ3および左カメラ4により撮像した映像の合成処理を含む、この運転支援装置特有の機能を実現するための各種処理を行う。
ECU5の相対位置演算手段11は、自車両から目標物45(図2)までの距離と角度を演算して求める機能、操舵角と、タイヤ移動量や車速から自車両21の移動に伴う自車両21(仮想基準点)と目標物45との位置関係を推定し、自車両21が移動したときの仮想中心点から目標物45までの距離と角度を演算して求める機能を備えている。
映像切出位置調整手段12は、モニタ装置6の画面に表示出力された俯瞰映像から選択された目標物を含む前記俯瞰映像の拡大表示範囲を規定する映像切出位置を、前記相対位置演算手段11により演算した自車両と前記目標物との位置関係、つまり距離と角度とに応じて調整する機能を備えている。
The ECU 5 is constituted by a microcomputer that controls each part.
The ECU 5 performs various processes for realizing functions unique to the driving support device, including a synthesis process of images captured by the front camera 1, the rear camera 2, the right camera 3, and the left camera 4.
The relative position calculation means 11 of the ECU 5 calculates the distance and angle from the own vehicle to the target object 45 (FIG. 2), obtains the own vehicle accompanying the movement of the own vehicle 21 from the steering angle, the tire movement amount and the vehicle speed. 21 (virtual reference point) and a target 45 are estimated, and the distance and angle from the virtual center point to the target 45 when the host vehicle 21 moves are calculated and obtained.
The video cut-out position adjusting unit 12 determines a video cut-out position that defines an enlarged display range of the bird's-eye view image including the target selected from the bird's-eye view image displayed and output on the screen of the monitor device 6 as the relative position calculation unit. 11 is provided with a function of adjusting according to the positional relationship between the host vehicle calculated by 11 and the target, that is, the distance and the angle.

映像合成手段13は、前方カメラ1、後方カメラ2、右カメラ3および左カメラ4によりそれぞれ撮像された映像から自車両を中心とした俯瞰映像を合成する。
モニタ装置6は、各種計器が設けられた運転席のフロントパネルに設けられている。
モニタ装置6は、この運転支援装置による前方カメラ1、後方カメラ2、右カメラ3および左カメラ4により撮像した映像による俯瞰映像や、この俯瞰映像から切り出された領域についての拡大映像を表示したり、GPS装置による地図画像上での現在位置表示や、GPS装置を操作するための操作用アイコンの表示、さらにエアコンやカーオーディオ装置の操作用アイコンの表示を兼ねている。
車速センサ7は、自車両の速度を検出するセンサであり、出力された速度情報を積分することで自車両の移動量を検出できる。
ハンドル角(操舵角)センサ8は、操作されているステアリングの操作角度情報を検出するセンサであり、自車両の進行方向を検出する。
ゲートウェイ9は、車速センサ7やハンドル角センサ8をECU5に接続可能にして、車速センサ7やハンドル角センサ8の出力についてECU5で処理できるようにするための整合性を確保する装置である。
タッチパネル16はモニタ装置6の画面上に配置され、この画面上の触れられた位置を特定可能にする信号を出力する。
The image synthesizing unit 13 synthesizes a bird's-eye view image centered on the host vehicle from images captured by the front camera 1, the rear camera 2, the right camera 3, and the left camera 4.
The monitor device 6 is provided on the front panel of the driver's seat where various instruments are provided.
The monitor device 6 displays a bird's-eye view image by the images taken by the front camera 1, the rear camera 2, the right camera 3, and the left camera 4 by this driving support device, and an enlarged image of a region cut out from this bird's-eye view image. It also serves to display the current position on the map image by the GPS device, display the operation icons for operating the GPS device, and display the operation icons for the air conditioner and the car audio device.
The vehicle speed sensor 7 is a sensor that detects the speed of the host vehicle, and can detect the amount of movement of the host vehicle by integrating the output speed information.
The handle angle (steering angle) sensor 8 is a sensor that detects operation angle information of the steering being operated, and detects the traveling direction of the host vehicle.
The gateway 9 is a device for ensuring consistency so that the vehicle speed sensor 7 and the handle angle sensor 8 can be connected to the ECU 5 so that the ECU 5 can process the outputs of the vehicle speed sensor 7 and the handle angle sensor 8.
The touch panel 16 is disposed on the screen of the monitor device 6 and outputs a signal that makes it possible to specify the touched position on the screen.

図2は、この実施の形態の運転支援装置のモニタ装置6に表示出力された自車両21の俯瞰映像の一例を示す説明図である。
図2には、自車両21と、前方カメラ1の撮像エリア31、後方カメラ2の撮像エリア32、右カメラ3の撮像エリア33および左カメラ4の撮像エリア34と、着目したい目標物45と、目標物45後方に位置する背景物46,47と、仮想中心点Pが示されている。
また、符号41は、モニタ装置6の画面上でタッチパネル16に対するタッチ操作により選択された着目したい目標物45の拡大表示範囲である。
この拡大表示範囲45の映像が、図2に示す俯瞰映像とともにモニタ装置6の画面に表示出力される。
仮想中心点Pは、自車両21からの前記選択された目標物45までの距離と角度(方位)を特定するための基準点である。
図1に示すECU5の相対位置演算手段11は、図2に示す俯瞰映像をもとに自車両21から目標物45までの距離L1と角度θ1を演算して求める機能を備えている。
また、映像切出位置調整手段12は、モニタ装置6の画面に表示出力された図2に示す俯瞰映像から選択された目標物45に対応する俯瞰映像の拡大表示範囲41を規定する映像切出位置を、相対位置演算手段11により演算された自車両21と前記目標物45との距離Lと角度θとに応じて補正する機能を備えている。
FIG. 2 is an explanatory diagram showing an example of a bird's-eye view image of the host vehicle 21 displayed and output on the monitor device 6 of the driving support device of this embodiment.
In FIG. 2, the host vehicle 21, the imaging area 31 of the front camera 1, the imaging area 32 of the rear camera 2, the imaging area 33 of the right camera 3 and the imaging area 34 of the left camera 4, and a target 45 to be focused on, Background objects 46 and 47 located behind the target 45 and a virtual center point P are shown.
Reference numeral 41 denotes an enlarged display range of the target object 45 to be focused selected by a touch operation on the touch panel 16 on the screen of the monitor device 6.
The video in the enlarged display range 45 is displayed and output on the screen of the monitor device 6 together with the overhead view video shown in FIG.
The virtual center point P is a reference point for specifying the distance and angle (azimuth) from the host vehicle 21 to the selected target 45.
The relative position calculation means 11 of the ECU 5 shown in FIG. 1 has a function of calculating and obtaining the distance L1 and the angle θ1 from the host vehicle 21 to the target object 45 based on the bird's-eye view image shown in FIG.
Further, the video cut-out position adjusting means 12 is a video cut-out that defines an enlarged view range 41 of the overhead view video corresponding to the target 45 selected from the overhead view video shown in FIG. 2 displayed and output on the screen of the monitor device 6. A function of correcting the position according to the distance L and the angle θ between the host vehicle 21 calculated by the relative position calculation means 11 and the target 45 is provided.

図3は、この実施の形態の運転支援装置において映像切出位置の補正を行わないときの動作を示す説明図である。
図4は、図3に示す映像切出位置の補正を行わないときの自車両21の移動に伴う拡大表示範囲41とその映像を示す説明図である。
図5は、この実施の形態の運転支援装置において映像切出位置の補正が行われたときの動作を示す説明図である。
図6は、図5に示す映像切出位置の補正が行われたときの自車両21の移動に伴う拡大表示範囲41とその映像を示す説明図である。
図7は、この実施の形態の運転支援装置の動作を示すフローチャートである。
図8は、モニタ装置6における自車両21を中心とする俯瞰映像を表示している俯瞰映像表示画面61と、俯瞰映像表示画面61に表示された映像のうちで着目したい映像を拡大表示する拡大表示画面62を示す画面図である。
FIG. 3 is an explanatory diagram showing an operation when the image cut-out position is not corrected in the driving support device of this embodiment.
FIG. 4 is an explanatory diagram showing an enlarged display range 41 and its video accompanying the movement of the host vehicle 21 when the video cut-out position shown in FIG. 3 is not corrected.
FIG. 5 is an explanatory diagram showing an operation when the image cut-out position is corrected in the driving support device of this embodiment.
FIG. 6 is an explanatory diagram showing an enlarged display range 41 and its video accompanying the movement of the host vehicle 21 when the video cutout position shown in FIG. 5 is corrected.
FIG. 7 is a flowchart showing the operation of the driving support apparatus of this embodiment.
FIG. 8 is an overhead view video display screen 61 displaying a bird's-eye view video centered on the host vehicle 21 in the monitor device 6, and an enlargement that enlarges and displays a video to be focused on among the videos displayed on the overhead view video display screen 61. It is a screen figure which shows the display screen 62. FIG.

以下、図7に示すフローチャートに従い動作について説明する。
この運転支援装置では、自車両21に取り付けられている前方カメラ1、後方カメラ2、右カメラ3および左カメラ4によりそれぞれ撮像された映像は、映像合成手段13により合成されて自車両21を中心とした俯瞰映像として、図8に示すように、モニタ装置6の俯瞰映像表示画面61に表示される。
そして、この俯瞰映像には前方カメラ1と右カメラ3により撮像された着目したい目標物45とその後方に位置する背景物46,47が映し出されている。
ユーザ、この場合、自車両21の運転者は、モニタ装置6の図8に示す俯瞰映像表示画面61の着目したい目標物45に対し指先で触れるタッチ操作を行う。
この結果、タッチパネル16からは指先が触れた位置(タッチ操作された位置)を特定可能にする信号が出力される。
ECU5はこのとき表示出力している映像と、前記タッチ操作された位置を特定可能にする信号をもとにタッチ操作された対象が目標物45であることを判定する。
つまり俯瞰映像から選択された目標物45を判定する(ステップS1)。
The operation will be described below with reference to the flowchart shown in FIG.
In this driving support device, the images captured by the front camera 1, the rear camera 2, the right camera 3, and the left camera 4 attached to the host vehicle 21 are synthesized by the image synthesizing unit 13 and centered on the host vehicle 21. As shown in FIG. 8, the overhead view video is displayed on the overhead view video display screen 61 of the monitor device 6.
In this bird's-eye view image, a target object 45 to be noticed captured by the front camera 1 and the right camera 3 and background objects 46 and 47 located behind the target object 45 are displayed.
The user, in this case, the driver of the host vehicle 21 performs a touch operation of touching the target 45 to be focused on the overhead view video display screen 61 shown in FIG.
As a result, the touch panel 16 outputs a signal that makes it possible to specify the position touched by the fingertip (position where the touch operation is performed).
The ECU 5 determines that the target subject to the touch operation is the target object 45 based on the video that is displayed and output at this time and a signal that enables the touch-operated position to be specified.
That is, the target 45 selected from the overhead view video is determined (step S1).

次に、自車両21の仮想中心点Pから前記選択した目標物45までの距離Lと角度θ(方位)を俯瞰映像から演算して求める(ステップS2)。
この距離Lと角度θは次のようにして求められる。
図8に示す俯瞰画像において「A」と「B」の値は既知であり、また仮想中心点Pから目標物45までの「a」および「b」の値、図8に示す俯瞰映像表示画面61上での自車両21を基準とした目標物45の位置座標も求めることが出来る。
つまり、距離は(a+b)の平方根で求めることが出来る。
仮想中心点から目標部45を見たときの、目標物45を撮像可能な右カメラ3の光軸に対する角度はtan−1(b/a)で求めることが出来る。
このときの距離をL1、角度をθ1とすると、この角度θ1方向を中心とした拡大表示範囲を設定する。
図5では、この設定された拡大表示範囲を符号41’により破線で示している。
また、このとき図6(a)に示された映像が拡大表示範囲41’の映像として図8の拡大表示出力部162に表示出力される。
Next, a distance L and an angle θ (azimuth) from the virtual center point P of the host vehicle 21 to the selected target 45 are calculated from the overhead view video (step S2).
The distance L and the angle θ are obtained as follows.
In the overhead view image shown in FIG. 8, the values of “A” and “B” are known, the values of “a” and “b” from the virtual center point P to the target object 45, the overhead view video display screen shown in FIG. The position coordinates of the target object 45 with reference to the host vehicle 21 on 61 can also be obtained.
That is, the distance can be obtained by the square root of (a 2 + b 2 ).
When the target unit 45 is viewed from the virtual center point, the angle with respect to the optical axis of the right camera 3 that can image the target object 45 can be obtained by tan −1 (b / a).
When the distance at this time is L1 and the angle is θ1, an enlarged display range centering on the direction of the angle θ1 is set.
In FIG. 5, the set enlarged display range is indicated by a broken line by reference numeral 41 '.
At this time, the video shown in FIG. 6A is displayed and output to the enlarged display output unit 162 of FIG. 8 as an image of the enlarged display range 41 ′.

次に、操舵角と、タイヤ移動量や車速から自車両21の移動に伴う自車両21と目標物45との位置関係を推定する(ステップS3)。
この自車両21と目標物45との位置関係の推定は、次のようにして行う。
車速センサ7、ハンドル角センサ8を含む各種センサから自車両21の挙動を解析する。
すなわち、自車両21が移動したときのモデルを2輪モデルを用いて表し、ヨーレートγ、車速V、ホイールベース長l、操舵角δとすると、ヨーレートγはVδ/lで求めることが出来る。
つまり、ヨーレートγは速度とホイールベース長と操舵角により決定される。
この結果、Vδ/lを積分することで原点、すなわち仮想中心点Pからのt秒後の自車両21の向きと、仮想中心点Pの移動量も算出できる。
この結果、ヨーレートγから算出したt秒後の自車両21の向きと、仮想中心点Pの移動量をもとに図8に示す俯瞰映像表示画面61上にt秒後の自車両21の仮想中心点Pを反映させる。
図5はこのようにして算出されたt秒後の自車両21の向きと、仮想中心点の移動量をもとに俯瞰映像上に反映された新たな仮想中心点P2と、この仮想中心点P2に対応して設定された拡大表示範囲41”を示している。
図5では、仮想中心点P1における自車両21の向きが破線で示され、このとき操舵角θc、タイヤ移動量がLcであるとt秒後の自車両21の向きは実線で示される状態になり、仮想中心点は前記ヨーレートγ(速度はタイヤ移動量Lcから求められる)から算出された移動量をもとにP2の位置へ移動し、その位置が特定されることになる。
さらに、前記算出したt秒後の仮想中心点P2と目標物45との位置関係、すなわち仮想中心点P2から目標物45を見たときの角度θ2を求める。
この角度θ2は、目標物45を撮像可能な右カメラ3の光軸に対する角度である。目標物45の位置座標、仮想中心点P2の位置が特定される結果、自車両21の仮想中心点P2から目標物45までの距離L2と角度θ2が俯瞰映像から演算して求めることが出来る。
Next, the positional relationship between the host vehicle 21 and the target object 45 accompanying the movement of the host vehicle 21 is estimated from the steering angle, the tire movement amount, and the vehicle speed (step S3).
The positional relationship between the host vehicle 21 and the target object 45 is estimated as follows.
The behavior of the host vehicle 21 is analyzed from various sensors including the vehicle speed sensor 7 and the handle angle sensor 8.
That is, a model when the host vehicle 21 is moved is expressed by using a two-wheel model, where the yaw rate γ, the vehicle speed V, the wheel base length l, and the steering angle δ can be obtained as Vδ / l.
That is, the yaw rate γ is determined by the speed, the wheel base length, and the steering angle.
As a result, by integrating Vδ / l, the direction of the host vehicle 21 after t seconds from the origin, that is, the virtual center point P, and the amount of movement of the virtual center point P can also be calculated.
As a result, based on the direction of the host vehicle 21 after t seconds calculated from the yaw rate γ and the movement amount of the virtual center point P, the virtual of the host vehicle 21 after t seconds is displayed on the overhead view video display screen 61 shown in FIG. The center point P is reflected.
FIG. 5 shows a new virtual center point P2 reflected on the bird's-eye view image based on the direction of the host vehicle 21 after t seconds calculated in this way and the movement amount of the virtual center point, and this virtual center point. An enlarged display range 41 ″ set corresponding to P2 is shown.
In FIG. 5, the direction of the host vehicle 21 at the virtual center point P1 is indicated by a broken line. At this time, if the steering angle θc and the tire movement amount are Lc, the direction of the host vehicle 21 after t seconds is indicated by a solid line. Thus, the virtual center point moves to the position P2 based on the movement amount calculated from the yaw rate γ (the speed is obtained from the tire movement amount Lc), and the position is specified.
Further, the positional relationship between the calculated virtual center point P2 after t seconds and the target object 45, that is, the angle θ2 when the target object 45 is viewed from the virtual center point P2 is obtained.
This angle θ <b> 2 is an angle with respect to the optical axis of the right camera 3 that can image the target 45. As a result of specifying the position coordinates of the target object 45 and the position of the virtual center point P2, the distance L2 and the angle θ2 from the virtual center point P2 of the host vehicle 21 to the target object 45 can be calculated from the overhead image.

そして、角度θ2の方向を中心とした拡大表示範囲を設定する(ステップS4)。
図5では、この設定された拡大表示範囲を拡大表示範囲41”として実線で示している。
また、このとき図6(b)に示された映像が拡大表示範囲41”の映像として図8の拡大表示出力部162に表示出力される。
Then, an enlarged display range centering on the direction of the angle θ2 is set (step S4).
In FIG. 5, the set enlarged display range is indicated by a solid line as an enlarged display range 41 ″.
At this time, the image shown in FIG. 6B is displayed and output to the enlarged display output unit 162 of FIG. 8 as an image of the enlarged display range 41 ″.

以上説明したように、この実施の形態では、操舵角と、タイヤ移動量や車速から自車両21の移動に伴う自車両21(仮想基準点)と目標物45との位置関係を推定し、自車両21が移動したときの仮想中心点P2から目標物45までの距離L2と角度θ2を求め、角度θ2の方向を中心とした拡大表示範囲、映像切出し位置を設定する。
あるいは、操舵角と、タイヤ移動量や車速から自車両21の移動に伴う自車両21(仮想基準点)と目標物45との位置関係を推定し、自車両21が移動したときの仮想中心点P2から目標物45までの距離L2と角度θ2を求め、この角度θ2をもとに、前記推定前に設定されていた拡大表示範囲、映像切出し位置を調整する。
従って、自車両21と目標物45との位置関係の推定、拡大表示範囲、映像切出し位置の補正が行われない従来技術では、拡大表示範囲、映像切出し位置は自車両21を中心とした角度θ1の方向を中心とする一定範囲であったため、自車両21の移動に従い図3、図4に示すように右カメラ3により撮像される方向が目標物45に対し移動するため、目標物45は設定されている拡大表示範囲、映像切出し枠から短時間のうちに外れてしまうという不都合が発生していた。
これに対して、この実施の形態では、自車両21の移動に従い拡大表示範囲、映像切出し位置は図5に示すように角度θ2の方向を中心として設定されることから、目標物45は拡大表示範囲41”、映像切出し枠の略中央に表示されることになる。
すなわち、第1の実施の形態では、映像切出位置調整手段12が、相対位置演算手段11により算出した車両の推定位置と目標物との間の位置関係をもとに、選択された目標物を含む俯瞰映像の一部を切り出す映像切出し位置を調整することにより、切り出されて表示される目標物は表示画面から外れてしまうことがなく、目標物を画面内に表示し続けることができるという効果が奏される。なお、映像切出位置調整手段12が切り出す映像は、前記選択された目標物を含むカメラで直接撮像した映像の一部であってもよく、この場合も上記の効果が奏される。
As described above, in this embodiment, the positional relationship between the host vehicle 21 (virtual reference point) and the target object 45 associated with the movement of the host vehicle 21 is estimated from the steering angle, the tire movement amount, and the vehicle speed, A distance L2 and an angle θ2 from the virtual center point P2 to the target object 45 when the vehicle 21 moves are obtained, and an enlarged display range and an image cutout position centering on the direction of the angle θ2 are set.
Alternatively, the positional relationship between the host vehicle 21 (virtual reference point) and the target object 45 associated with the movement of the host vehicle 21 is estimated from the steering angle, the tire movement amount, and the vehicle speed, and the virtual center point when the host vehicle 21 moves. A distance L2 and an angle θ2 from P2 to the target object 45 are obtained, and based on the angle θ2, the enlarged display range and the image cutout position set before the estimation are adjusted.
Therefore, in the related art in which the estimation of the positional relationship between the host vehicle 21 and the target object 45, the enlarged display range, and the image cutout position are not corrected, the enlarged display range and the image cutout position are at an angle θ1 with the host vehicle 21 as the center. 3, the direction imaged by the right camera 3 moves with respect to the target 45 as shown in FIGS. 3 and 4, so that the target 45 is set. Inconveniently, the enlarged display range and the image cutout frame are not within a short time.
On the other hand, in this embodiment, as the host vehicle 21 moves, the enlarged display range and the image cutout position are set around the direction of the angle θ2 as shown in FIG. The range 41 ″ is displayed in the approximate center of the video cutout frame.
In other words, in the first embodiment, the image cut-out position adjusting unit 12 selects the target object based on the positional relationship between the estimated vehicle position calculated by the relative position calculating unit 11 and the target object. By adjusting the video cutout position to cut out a part of the bird's-eye view image including the target object that is cut out and displayed does not deviate from the display screen, the target object can be continuously displayed in the screen An effect is produced. Note that the video clipped by the video cropping position adjusting unit 12 may be a part of a video image directly captured by the camera including the selected target, and in this case also, the above-described effect is achieved.

(第2の実施の形態)
次に、本発明の第2の実施の形態の運転支援装置について説明する。
図9は、第2の実施の形態の運転支援装置の構成を示すブロック図である。図9において、図1と同一または相当の部分については同一の符号を付し説明を省略する。
第2の実施の形態では、目標物45が移動可能な物体であり、自車両21に対し実際に移動している場合について説明する。
この場合、オプティカルフロー手法(動きベクトルを検出する手法)を用いることで目標物45を補足し、目標物45までの距離を計算し、移動の際に出現する目標物45の特徴点のオプティカルフローから自車両21および目標物45が移動したときの自車両21と目標物45との位置関係を推定できるようにして、目標物45を拡大表示範囲41”、映像切出し枠の略中央に精度よく表示する。
(Second Embodiment)
Next, the driving assistance apparatus of the 2nd Embodiment of this invention is demonstrated.
FIG. 9 is a block diagram illustrating a configuration of the driving support apparatus according to the second embodiment. 9, parts that are the same as or equivalent to those in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.
In the second embodiment, a case where the target object 45 is a movable object and is actually moving with respect to the host vehicle 21 will be described.
In this case, an optical flow technique (a technique for detecting a motion vector) is used to supplement the target object 45, calculate the distance to the target object 45, and the optical flow of the feature points of the target object 45 that appear when moving. The target vehicle 45 and the target object 45 can be estimated when the host vehicle 21 and the target object 45 are moved, so that the target object 45 is accurately placed in the enlarged display range 41 ″ and substantially in the center of the image cutout frame. indicate.

図9において、ECU5は、第1の実施の形態と同様に構成された相対位置演算手段11、映像切出位置調整手段12、映像合成手段13に加えて、オプティカルフローの手法を利用可能にするための特徴点検出手段91、移動物体検出手段92、特徴点追跡手段93および動きベクトル相対位置演算手段111をさらに備えている。
特徴点検出手段91は、自車両を中心とする俯瞰画像から選択された目標物、すなわち選択目標物の複数の特徴点を検出し、これら各特徴点のオプティカルフローを計算することでその動きベクトルを求める機能を備えている。
移動物体検出手段92は、特徴点検出手段91により求められた選択目標物の各特徴点の動きベクトルから選択目標物が自車両21に接近してくる接近目標物であるか否かを検出する機能を備えている。言い換えると、移動物体検出手段92は、特徴点検出手段91により求められた各特徴点の動きベクトルから自車両21に接近してくる接近移動物体を検出する機能を備えている。
特徴点追跡手段93は、特徴点検出手段91により接近してくるとして検出された接近目標物の特徴点をもとに自車両21を中心とする俯瞰画像上の前記接近目標物を追跡し前記接近目標物とその位置を捕捉する機能を備えている。言い換えると、特徴点追跡手段93は、特徴点検出手段91により検出された接近移動物体の画像領域を特定し、その特定した画像領域の特徴点をもとに自車両21を中心とする俯瞰画像上で接近目標物とその位置を補足追跡する機能を備えている。
動きベクトル相対位置演算手段111は、自車両21の動きを推定し、前記推定した動きで自車両21が走行するときの自車両21の推定位置を算出し、自車両21の推定位置と、前記特徴点追跡手段93により捕捉した接近目標物の位置、または前記捕捉した接近目標物の速度、方向などの動きをもとに推定した接近目標物の推定位置をもとに、前記推定した動きで自車両21が走行したときの自車両21の推定位置と接近目標物の位置との間の位置関係を算出する機能を備えている。
In FIG. 9, the ECU 5 makes it possible to use an optical flow technique in addition to the relative position calculating means 11, the image cutout position adjusting means 12, and the image synthesizing means 13 configured in the same manner as in the first embodiment. Feature point detecting means 91, moving object detecting means 92, feature point tracking means 93, and motion vector relative position calculating means 111 are further provided.
The feature point detection means 91 detects a target selected from an overhead image centered on the host vehicle, that is, a plurality of feature points of the selected target, and calculates an optical flow of each of the feature points to thereby calculate the motion vector. It has the function to ask for.
The moving object detection unit 92 detects whether or not the selected target is an approaching target approaching the host vehicle 21 from the motion vector of each feature point of the selected target obtained by the feature point detecting unit 91. It has a function. In other words, the moving object detection unit 92 has a function of detecting an approaching moving object approaching the host vehicle 21 from the motion vector of each feature point obtained by the feature point detection unit 91.
The feature point tracking unit 93 tracks the approach target on the overhead image centered on the host vehicle 21 based on the feature point of the approach target detected as approaching by the feature point detection unit 91. It has a function to capture the approaching target and its position. In other words, the feature point tracking unit 93 specifies the image area of the approaching moving object detected by the feature point detection unit 91, and based on the feature point of the specified image area, the overhead image centering on the own vehicle 21. It has a function to supplemently track the approaching target and its position.
The motion vector relative position calculation means 111 estimates the motion of the host vehicle 21, calculates the estimated position of the host vehicle 21 when the host vehicle 21 travels with the estimated motion, and the estimated position of the host vehicle 21; Based on the estimated movement based on the position of the approaching target captured by the feature point tracking means 93 or the estimated position of the approaching target estimated based on the movement of the captured approaching target such as speed and direction. A function of calculating a positional relationship between the estimated position of the host vehicle 21 and the position of the approaching target when the host vehicle 21 travels is provided.

図10は、この実施の形態の運転支援装置の動作を示すフローチャートである。
以下、このフローチャートを参照して動作について説明する。
この運転支援装置でも、モニタ装置6の画面には図8に示す自車両21を中心とした俯瞰映像が俯瞰映像表示画面61に表示出力される。
そして、この俯瞰映像には前方カメラ1と右カメラ3により撮像された着目したい目標物45とその後方に位置する背景物46,47が映し出されている。
ユーザ、この場合、自車両21の運転者は、モニタ装置6の図8に示す俯瞰映像表示画面61の着目したい目標物45に対し指先で触れるタッチ操作を行う。
この結果、タッチパネル16からは指先が触れた位置、タッチ操作された位置を特定可能にする信号が出力される。
ECU5はこのとき表示出力している映像と、前記タッチ操作された位置を特定可能にする信号をもとにタッチ操作された対象が選択目標物であることを判定する。
つまり俯瞰映像から選択された選択目標物を判定する(ステップS11)。
次に、前記判定した選択目標物の複数の特徴点を抽出する(ステップS12)。
FIG. 10 is a flowchart showing the operation of the driving support apparatus according to this embodiment.
The operation will be described below with reference to this flowchart.
Also in this driving support device, the bird's-eye view image centered on the own vehicle 21 shown in FIG.
In this bird's-eye view image, a target object 45 to be noticed captured by the front camera 1 and the right camera 3 and background objects 46 and 47 located behind the target object 45 are displayed.
The user, in this case, the driver of the host vehicle 21 performs a touch operation of touching the target 45 to be focused on the overhead view video display screen 61 shown in FIG.
As a result, the touch panel 16 outputs a signal that makes it possible to specify the position touched by the fingertip and the touch-operated position.
The ECU 5 determines that the target subject to the touch operation is the selected target based on the video that is being displayed and output at this time and a signal that enables the touch-operated position to be specified.
That is, the selected target selected from the overhead view video is determined (step S11).
Next, a plurality of feature points of the determined selected target are extracted (step S12).

続いて、前記抽出した複数の特徴点のオプティカルフローを演算する(ステップS13)。
すなわち、特徴点検出手段91により、自車両21を中心とする俯瞰画像から選択された選択目標物の複数の特徴点を検出し、これら各特徴点のオプティカルフローを計算することでその動きベクトルを求める。
そして、移動物体検出手段92は、特徴点検出手段91により求められた各特徴点の動きベクトルから、選択目標物が自車両21に接近してくる接近目標物45であるか否かを検出する。言い換えると、移動物体検出手段92は、特徴点検出手段91により求められた各特徴点の動きベクトルから、前記選択目標物を自車両21に接近してくる方向のベクトルを有する接近移動物体45として検出する。
そして、特徴点追跡手段93は、特徴点検出手段91により接近してくるとして検出された接近目標物45の特徴点をもとに自車両21を中心とする俯瞰画像上の接近目標物45を追跡し接近目標物45とその位置を捕捉する(ステップS14)。言い換えると、特徴点追跡手段93は、特徴点検出手段91により特徴点が検出された接近移動物体の画像領域を特定し、その特定した画像領域の特徴点をもとに自車両を中心とする俯瞰画像上で接近目標物45とその位置を補足追跡し、自車両21に対する移動方向と速度を特定する。
そして、自車両21の仮想中心点PからステップS14で捕捉した接近目標物45までの距離Lと角度θ(方位)を前記第1の実施の形態と同様にして俯瞰映像から演算して求める(ステップS15)。
Subsequently, an optical flow of the extracted feature points is calculated (step S13).
That is, the feature point detecting means 91 detects a plurality of feature points of the selected target selected from the overhead image centered on the own vehicle 21, and calculates the motion vector by calculating the optical flow of each feature point. Ask.
Then, the moving object detection unit 92 detects whether or not the selected target is the approaching target 45 approaching the host vehicle 21 from the motion vector of each feature point obtained by the feature point detection unit 91. . In other words, the moving object detection unit 92 uses the motion vector of each feature point obtained by the feature point detection unit 91 as the approaching moving object 45 having a vector in the direction in which the selected target approaches the host vehicle 21. To detect.
Then, the feature point tracking unit 93 detects the approach target 45 on the overhead image centered on the host vehicle 21 based on the feature point of the approach target 45 detected as approaching by the feature point detection unit 91. The target object 45 and its position are tracked and captured (step S14). In other words, the feature point tracking unit 93 specifies the image area of the approaching moving object from which the feature point is detected by the feature point detection unit 91, and the vehicle is centered on the basis of the feature point of the specified image area. The approach target 45 and its position are supplementarily tracked on the bird's-eye view image, and the moving direction and speed with respect to the host vehicle 21 are specified.
Then, the distance L and the angle θ (azimuth) from the virtual center point P of the host vehicle 21 to the approaching target 45 captured in step S14 are calculated from the overhead view image in the same manner as in the first embodiment ( Step S15).

次に、接近目標物45の速度、移動方向と、自車両21の操舵角、タイヤ移動量や車速から自車両21の移動に伴う自車両21と接近目標物45との位置関係を推定する(ステップS16)。
この自車両21と接近目標物45との位置関係の推定は次のようにして行う。
図11は、この実施の形態の自車両21と接近目標物45との位置関係の推定動作を示す説明図である。
この実施の形態では、前記オプティカルフロー手法により接近目標物45の挙動を解析するとともに、車速センサ7、ハンドル角センサ8を含む各種センサから自車両21の挙動を解析する。
すなわち、自車両21が移動したときのモデルを2輪モデルを用いて表し、前記第1の実施の形態と同様にヨーレートγ、車速V、ホイールベース長l、操舵角δとする。
ヨーレートγはVδ/lで求めることが出来、Vδ/lを積分することで原点、すなわち仮想中心点Pからのt秒後の自車両21の向きと、仮想中心点Pの移動量も算出できる。
この結果、ヨーレートγから算出したt秒後の自車両21の向きと、仮想中心点Pの移動量をもとに図8に示す俯瞰映像表示画面61上でt秒後の自車両21の仮想中心点Pを反映させる。
また、接近目標物45についても、動きベクトル相対位置演算手段111により自車両21に対するt秒後の接近目標物45の位置をオプティカルフロー手法により求めた接近目標物45の特徴点の速度、移動方向から推定して算出し、t秒後の自車両21に対する接近目標物45の位置を図8に示す俯瞰映像表示画面61上に反映させる。
図11はこのようにして算出されたt秒後の接近目標物45の位置と、自車両21の向きと、仮想中心点の移動量をもとに俯瞰映像上に反映された新たな仮想中心点P2を示している。
Next, the positional relationship between the host vehicle 21 and the approach target 45 accompanying the movement of the host vehicle 21 is estimated from the speed and moving direction of the approach target 45, the steering angle of the host vehicle 21, the tire movement amount, and the vehicle speed ( Step S16).
The positional relationship between the host vehicle 21 and the approach target 45 is estimated as follows.
FIG. 11 is an explanatory diagram illustrating an operation of estimating the positional relationship between the host vehicle 21 and the approach target 45 according to this embodiment.
In this embodiment, the behavior of the approaching target 45 is analyzed by the optical flow method, and the behavior of the host vehicle 21 is analyzed from various sensors including the vehicle speed sensor 7 and the handle angle sensor 8.
That is, the model when the host vehicle 21 moves is represented by using a two-wheel model, and the yaw rate γ, the vehicle speed V, the wheel base length l, and the steering angle δ are set as in the first embodiment.
The yaw rate γ can be obtained from Vδ / l. By integrating Vδ / l, the direction of the host vehicle 21 after t seconds from the origin, that is, the virtual center point P, and the amount of movement of the virtual center point P can also be calculated. .
As a result, based on the direction of the host vehicle 21 after t seconds calculated from the yaw rate γ and the movement amount of the virtual center point P, the virtual of the host vehicle 21 after t seconds on the overhead view video display screen 61 shown in FIG. The center point P is reflected.
For the approaching target 45 as well, the speed and moving direction of the feature point of the approaching target 45 obtained by the optical flow technique by using the motion vector relative position calculating unit 111 to determine the position of the approaching target 45 after t seconds with respect to the host vehicle 21. The position of the approaching target 45 with respect to the host vehicle 21 after t seconds is reflected on the overhead view video display screen 61 shown in FIG.
FIG. 11 shows a new virtual center reflected on the bird's-eye view image based on the position of the approach target 45 after t seconds calculated in this way, the direction of the host vehicle 21, and the amount of movement of the virtual center point. Point P2 is shown.

さらに、前記算出したt秒後の仮想中心点P2から是算出した位置の接近目標物45を見たときの角度θ2を求める。この角度θ2は、接近目標物45を撮像可能な右カメラ3の光軸に対する角度である。
従って、自車両21が急転回をして後方カメラ2が接近目標物45を撮像可能な状態になったときにはそのときの仮想中心点Pから接近目標物45を見たときの、後方カメラ2の光軸に対する角度を求めることになる。
すなわち、自車両21の仮想中心点P2から接近目標物45までの距離L2と角度θ2を俯瞰映像から演算して求める。
この距離L2と角度θ2はステップS16で推定し算出た自車両21と接近目標物45との位置関係から求めることが出来る。そして、角度θ2の方向を中心とした拡大表示範囲41”を設定する(ステップS17)。
Further, an angle θ2 when the approach target 45 at the position calculated from the calculated virtual center point P2 after t seconds is viewed is obtained. This angle θ2 is an angle with respect to the optical axis of the right camera 3 that can image the approaching target 45.
Therefore, when the host vehicle 21 turns suddenly and the rear camera 2 is ready to image the approach target 45, the rear camera 2 when the approach target 45 is viewed from the virtual center point P at that time. The angle with respect to the optical axis is obtained.
That is, the distance L2 and the angle θ2 from the virtual center point P2 of the host vehicle 21 to the approaching target 45 are calculated from the overhead view image.
The distance L2 and the angle θ2 can be obtained from the positional relationship between the host vehicle 21 and the approaching target 45 estimated and calculated in step S16. Then, an enlarged display range 41 ″ centered on the direction of the angle θ2 is set (step S17).

以上説明したように、第2の実施の形態によれば、自車両21および接近目標物45が移動している場合であっても、一定時間後の自車両21と接近目標物45との位置関係を推定できることから、接近目標物45を拡大表示範囲41”、映像切出し枠の略中央に精度よく表示できる。
すなわち、第2の実施の形態では、映像切出し位置調整手段12が、動きベクトル相対位置演算手段111により算出した車両の推定位置と接近目標物との間の位置関係をもとに、接近目標物を含む俯瞰映像の一部を切り出す映像切出し位置を調整することにより、切り出されて表示される接近目標物は表示画面から外れてしまうことがなく、接近目標物を画面内に表示し続けることができるという効果が奏される。なお、映像切出位置調整手段12が切り出す映像は、前記接近目標物を含むカメラで直接撮像した映像の一部であってもよく、この場合も上記の効果が奏される。
As described above, according to the second embodiment, even if the host vehicle 21 and the approach target 45 are moving, the positions of the host vehicle 21 and the approach target 45 after a certain time have elapsed. Since the relationship can be estimated, the approaching target 45 can be accurately displayed in the enlarged display range 41 ″ and substantially at the center of the image cutout frame.
That is, in the second embodiment, the video cropping position adjusting unit 12 is based on the positional relationship between the estimated position of the vehicle calculated by the motion vector relative position calculating unit 111 and the approaching target. By adjusting the video cut-out position to cut out a part of the bird's-eye view image including, the approaching target that is cut out and displayed does not deviate from the display screen, and the approaching target can continue to be displayed in the screen The effect that it can be produced. Note that the video clipped by the video cropping position adjusting unit 12 may be a part of a video image directly captured by the camera including the approach target, and in this case, the above-described effect is also achieved.

本発明の第1の実施の形態である運転支援装置の構成を示すブロック図である。It is a block diagram which shows the structure of the driving assistance device which is the 1st Embodiment of this invention. 本発明の第1の実施の形態の運転支援装置のモニタ装置に表示出力された自車両の俯瞰映像の一例を示す説明図である。It is explanatory drawing which shows an example of the bird's-eye view image of the own vehicle displayed and output on the monitor apparatus of the driving assistance device of the 1st Embodiment of this invention. 本発明の第1の実施の形態における運転支援装置において映像切出位置の補正を行わないときの動作を示す説明図である。It is explanatory drawing which shows operation | movement when the correction | amendment of an image | video cutout position is not performed in the driving assistance device in the 1st Embodiment of this invention. 本発明の第1の実施の形態の運転支援装置において映像切出位置の補正を行わないときの自車両の移動に伴う拡大表示範囲とその映像を示す説明図である。It is explanatory drawing which shows the expansion display range accompanying the movement of the own vehicle when the correction | amendment of an image | video cutout position is not performed in the driving assistance device of the 1st Embodiment of this invention, and its image | video. 本発明の第1の実施の形態において映像切出位置の補正が行われたときの動作を示す説明図である。It is explanatory drawing which shows operation | movement when the correction | amendment of an image | video cutout position is performed in the 1st Embodiment of this invention. 本発明の第1の実施の形態における映像切出位置の補正が行われたときの自車両の移動に伴う拡大表示範囲とその映像を示す説明図である。It is explanatory drawing which shows the expansion display range accompanying the movement of the own vehicle when the correction | amendment of the image | video cutout position in the 1st Embodiment of this invention was performed, and its image | video. 本発明の第1の実施の形態の運転支援装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the driving assistance apparatus of the 1st Embodiment of this invention. 本発明の第1の実施の形態の運転支援装置における俯瞰映像表示画面と拡大表示画面を示す画面図である。It is a screen figure which shows the bird's-eye view video display screen and expansion display screen in the driving assistance device of the 1st Embodiment of this invention. 本発明の第2の実施の形態である運転支援装置の構成を示すブロック図である。It is a block diagram which shows the structure of the driving assistance device which is the 2nd Embodiment of this invention. 本発明の第2の実施の形態の運転支援装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the driving assistance apparatus of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の自車両と接近目標物との位置関係の推定動作を示す説明図である。It is explanatory drawing which shows the estimation operation | movement of the positional relationship of the own vehicle and approach target of the 2nd Embodiment of this invention. 従来の運転支援装置における自車両に取り付けられている各カメラの撮像エリアを示す説明図である。It is explanatory drawing which shows the imaging area of each camera attached to the own vehicle in the conventional driving assistance device. 従来の運転支援装置における各カメラにより撮像された映像の合成映像である俯瞰映像が表示される俯瞰映像表示画面と、俯瞰映像の映像切出し枠と、拡大表示画面を示す画面図である。It is a screen figure which shows the bird's-eye view video display screen on which the bird's-eye view image which is the synthetic | combination image | video of the image imaged with each camera in the conventional driving assistance apparatus is displayed, the video cutting frame of a bird's-eye view image, and an enlarged display screen.

符号の説明Explanation of symbols

1……前方カメラ、2……後方カメラ、3……右カメラ、4……左カメラ、5……ECU、6……モニタ装置、7……車速センサ、8……ハンドル角センサ、11……相対位置演算手段、12……映像切出位置調整手段、13……映像合成手段、91……特徴点検出手段、92……移動物体検出手段、93……特徴点追跡手段、111……動きベクトル相対位置演算手段。   DESCRIPTION OF SYMBOLS 1 ... Front camera, 2 ... Back camera, 3 ... Right camera, 4 ... Left camera, 5 ... ECU, 6 ... Monitor device, 7 ... Vehicle speed sensor, 8 ... Steering angle sensor, 11 ... ... Relative position calculation means, 12 ... Video cut-out position adjustment means, 13 ... Video composition means, 91 ... Feature point detection means, 92 ... Moving object detection means, 93 ... Feature point tracking means, 111 ... Motion vector relative position calculation means.

Claims (4)

車両の周囲の映像をモニタに表示する運転支援装置であって、
前記車両に搭載され、それぞれ異なる方向の車両周囲を撮像する複数の撮像装置と、
前記各撮像装置で撮像した前記車両周囲の映像から前記車両を中心とする俯瞰映像を合成して前記モニタに表示する映像合成手段と、
前記映像合成手段により合成した俯瞰映像上の選択された選択目標物の前記車両に対する位置を算出する目標物位置算出手段と、
前記選択目標物の特徴点を抽出し、前記特徴点の動きベクトルを算出する特徴点検出手段と、
前記特徴点検出手段により求められた前記選択目標物の各特徴点の動きベクトルから前記選択目標物が前記車両に接近してくる接近目標物であるか否かを検出する移動物体検出手段と、
前記特徴点検出手段により前記選択目標物が前記車両に接近してくるとして検出された場合、前記接近目標物の特徴点をもとに前記車両を中心とする俯瞰画像上の前記接近目標物を追跡し前記接近目標物とその位置を捕捉する特徴点追跡手段と、
前記車両の動きを推定し、前記推定した動きで前記車両が走行するときの前記車両の推定位置を算出し、前記車両の推定位置と、前記目標物位置算出手段で算出した前記目標物の位置または前記特徴点追跡手段により捕捉した前記接近目標物の位置とをもとに、前記推定した動きで前記車両が走行したときの前記車両の推定位置と前記目標物または前記接近目標物の位置との間の位置関係を算出する相対位置演算手段と、
前記相対位置演算手段により算出した前記車両の推定位置と前記目標物または前記接近目標物との間の位置関係をもとに、前記選択された目標物または前記接近目標物を含む前記俯瞰映像の一部またはカメラで直接撮像した映像の一部を切り出す映像切出し位置を調整する映像切出し位置調整手段とを備える、
ことを特徴とする運転支援装置。
A driving support device for displaying an image around a vehicle on a monitor,
A plurality of imaging devices mounted on the vehicle and imaging the surroundings of the vehicle in different directions;
Video synthesizing means for synthesizing a bird's-eye view image centered on the vehicle from a video around the vehicle imaged by each of the imaging devices and displaying it on the monitor;
Target position calculation means for calculating a position of the selected target selected on the overhead view image synthesized by the video composition means with respect to the vehicle;
Feature point detection means for extracting feature points of the selected target and calculating a motion vector of the feature points;
A moving object detecting means for detecting whether or not the selected target is an approaching target approaching the vehicle from a motion vector of each feature point of the selected target obtained by the feature point detecting means;
When the feature point detection means detects that the selected target is approaching the vehicle, the approach target on the overhead image centered on the vehicle is determined based on the feature point of the approach target. Feature point tracking means for tracking and capturing the approaching target and its position;
The movement of the vehicle is estimated, the estimated position of the vehicle when the vehicle travels with the estimated movement is calculated, and the estimated position of the vehicle and the position of the target calculated by the target position calculating means Alternatively, based on the position of the approaching target captured by the feature point tracking means, the estimated position of the vehicle when the vehicle travels with the estimated movement and the position of the target or the approaching target Relative position calculating means for calculating the positional relationship between
Based on the positional relationship between the relative positions the target object and the estimated position of the vehicle calculated by the arithmetic unit or the approaching target, the overhead image including the selected target or the approaching target A video cut-out position adjusting means for adjusting a video cut-out position for cutting out a part or a part of a video directly captured by a camera;
A driving support device characterized by that.
前記相対位置演算手段は、前記車両の速度、移動量、進行方向を推定し、前記推定した動きで前記車両が走行したときの前記車両の推定位置と前記目標物との間の角度、距離を算出することを特徴とする請求項1記載の運転支援装置。 The relative position calculating means estimates a speed, a moving amount, and a traveling direction of the vehicle, and an angle and a distance between the estimated position of the vehicle when the vehicle travels with the estimated movement and the target. The driving support apparatus according to claim 1, wherein: 記相対位置演算手段は、前記車両の速度、移動量、進行方向を推定し、前記推定した動きで前記車両が走行したときの前記車両の推定位置と、前記特徴点追跡手段により捕捉した前記移動目標物の位置とをもとに、前記車両の推定位置と前記接近目標物との間の角度、距離を算出することを特徴とする請求項1に記載の運転支援装置。 Before Symbol Relative position calculating means, the speed of the vehicle, the movement amount, and estimate the traveling direction, and the estimated position of the vehicle when the vehicle travels by the estimated motion, was captured by the feature point tracking means The driving support device according to claim 1, wherein an angle and a distance between the estimated position of the vehicle and the approaching target are calculated based on the position of the moving target. 前記映像切出し位置調整手段は、前記選択された目標物または前記接近目標物を含む前記俯瞰映像の一部を切り出し拡大表示するときの映像切出し位置を調整することを特徴とする請求項1〜3のいずれか一つに記載の運転支援装置。 The image cropping position adjustment means, according to claim 1, wherein the adjusting the image extraction position at which the enlarged display cutting out a portion of the overhead image including the selected target or the approaching target The driving support device according to any one of the above.
JP2008234028A 2008-09-11 2008-09-11 Driving assistance device Expired - Fee Related JP5083137B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008234028A JP5083137B2 (en) 2008-09-11 2008-09-11 Driving assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008234028A JP5083137B2 (en) 2008-09-11 2008-09-11 Driving assistance device

Publications (2)

Publication Number Publication Date
JP2010067095A JP2010067095A (en) 2010-03-25
JP5083137B2 true JP5083137B2 (en) 2012-11-28

Family

ID=42192617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008234028A Expired - Fee Related JP5083137B2 (en) 2008-09-11 2008-09-11 Driving assistance device

Country Status (1)

Country Link
JP (1) JP5083137B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5663352B2 (en) * 2011-03-03 2015-02-04 日本電産エレシス株式会社 Image processing apparatus, image processing method, and image processing program
JP5911775B2 (en) 2012-08-21 2016-04-27 富士通テン株式会社 Image generation apparatus, image display system, and image generation method
JP6281405B2 (en) * 2014-05-12 2018-02-21 株式会社デンソー Driving assistance device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06321011A (en) * 1993-05-17 1994-11-22 Mitsubishi Electric Corp Peripheral visual field display
JP4192680B2 (en) * 2003-05-28 2008-12-10 アイシン精機株式会社 Moving object periphery monitoring device
JP4907883B2 (en) * 2005-03-09 2012-04-04 株式会社東芝 Vehicle periphery image display device and vehicle periphery image display method
JP4657765B2 (en) * 2005-03-09 2011-03-23 三菱自動車工業株式会社 Nose view system

Also Published As

Publication number Publication date
JP2010067095A (en) 2010-03-25

Similar Documents

Publication Publication Date Title
JP5099451B2 (en) Vehicle periphery confirmation device
EP2974909B1 (en) Periphery surveillance apparatus and program
US9973734B2 (en) Vehicle circumference monitoring apparatus
JP5321267B2 (en) Vehicular image display device and overhead image display method
JP4969269B2 (en) Image processing device
EP2487906B1 (en) Control device and vehicle surrounding monitoring device
JP4907883B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP4687411B2 (en) Vehicle peripheral image processing apparatus and program
WO2015098156A1 (en) Visual field support device, visual field support method, and visual field support program
JP2013541915A (en) Blind Spot Zone Display Device and Method
WO2019008764A1 (en) Parking assistance method and parking assistance device
JP2009083764A (en) Driving assisting device, driving assisting method, and computer program
KR20140144905A (en) Parking assistance system
WO2001058164A1 (en) Vicinity display for car
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
JP2011039600A (en) Device and method for supporting parking
JP7006460B2 (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
WO2011013813A1 (en) In-vehicle device and image processing program
JP2010154304A (en) Mobile camera system and driving method
JP5083137B2 (en) Driving assistance device
JP2004201223A (en) Vehicle peripheral monitoring apparatus and steering angle detecting method
JP4674814B2 (en) Image display device for vehicle and image composition method
JP2011155651A (en) Apparatus and method for displaying vehicle perimeter image
JP4857159B2 (en) Vehicle driving support device
JP2007025739A (en) Image display device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120820

R151 Written notification of patent or utility model registration

Ref document number: 5083137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees