JP5083137B2 - Driving assistance device - Google Patents
Driving assistance device Download PDFInfo
- Publication number
- JP5083137B2 JP5083137B2 JP2008234028A JP2008234028A JP5083137B2 JP 5083137 B2 JP5083137 B2 JP 5083137B2 JP 2008234028 A JP2008234028 A JP 2008234028A JP 2008234028 A JP2008234028 A JP 2008234028A JP 5083137 B2 JP5083137 B2 JP 5083137B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- vehicle
- approaching
- estimated
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、車両に設けられた複数の撮像装置により撮像した画像を合成し、車両を中心とした車両全周の俯瞰画像をディスプレイに表示するとともに、表示された目標物を指定することでその目標物を前記俯瞰画像から切り出して表示する運転支援装置に関する。 The present invention combines images captured by a plurality of imaging devices provided in a vehicle, displays a bird's-eye view image of the entire circumference of the vehicle centered on the vehicle, and designates the displayed target by specifying the displayed target. The present invention relates to a driving support device that cuts out and displays a target from the overhead image.
従来、自動車に複数の撮像装置を設け、各撮像装置により撮像した画像を合成することで、自動車の周囲全周の俯瞰画像を生成し運転席のモニタに表示することで、駐車場などにおける運転操作を容易かつ安全に行えるようにした運転支援装置がある。
図12は、従来の運転支援装置における自車両21に取り付けられている前方カメラ1、後方カメラ2、右カメラ3および左カメラ4と、それら各カメラの撮像エリアを示す説明図である。
符号31は前方カメラ1の撮像エリア、符号32は後方カメラ2の撮像エリア、符号33は右カメラ3の撮像エリア、符号34は左カメラ4の撮像エリアを示している。
また、図13は、従来の運転支援装置における前方カメラ1、後方カメラ2、右カメラ3および左カメラ4により撮像された映像の合成映像である俯瞰映像が表示される俯瞰映像表示画面101と、その俯瞰映像表示画面101の俯瞰映像の映像切出し枠102と、その映像切出し位置の映像が拡大されて表示された拡大表示画面121を示す画面図である。
この拡大表示画面121には、俯瞰映像の映像切出し枠102に表示されている目標物、図13に示す例では木立131と自車両21の車体後部が拡大されて表示されている。
Conventionally, a vehicle is provided with a plurality of imaging devices, and by combining images captured by the imaging devices, a bird's-eye view of the entire periphery of the vehicle is generated and displayed on a driver's seat monitor, thereby driving in a parking lot or the like. There is a driving assistance device that can be operated easily and safely.
FIG. 12 is an explanatory diagram showing the
FIG. 13 shows an overhead
On the enlarged
このような運転支援装置として次のようなものが提案されている。
すなわち、車両に設置した複数のカメラ設置部に取り付けられた個々のカメラにより車両周囲を撮像する撮像部と、運転者に情報を提供する表示部とを有し、複数の運転シーンの中からエンジン始動時に通常走行シーンを選択する始動シーン選択部と、車速を検出する車速センサと、シフト位置を検出するシフト位置検出部と、ウインカーの方向を検出するウインカー検出部と、ハンドルの操舵角を検出する操舵角センサと、各センサおよび各検出部により検出された情報より表示画面構成を切り替える画面モード切替部とを備えた運転支援装置が提案されている(特許文献1参照)。
この運転支援装置では、ウインカーの情報やハンドル操舵角の情報により後側方の見せる領域を変更することが可能であり、特に、高速モード時にウインカー入力を検出した場合、ウインカー方向の合成画像を拡大表示する。
That is, it has an imaging unit that images the surroundings of the vehicle with individual cameras attached to a plurality of camera installation units installed in the vehicle, and a display unit that provides information to the driver. A start scene selection unit that selects a normal driving scene at the start, a vehicle speed sensor that detects a vehicle speed, a shift position detection unit that detects a shift position, a winker detection unit that detects the direction of a winker, and a steering angle of a steering wheel are detected. There has been proposed a driving support device that includes a steering angle sensor that performs the above operation and a screen mode switching unit that switches a display screen configuration based on information detected by each sensor and each detection unit (see Patent Document 1).
In this driving support device, it is possible to change the area to be shown in the rear side by the information of the blinker and the steering angle of the steering wheel. Especially when the blinker input is detected in the high speed mode, the composite image of the blinker direction is enlarged. indicate.
したがって、従来の運転支援装置では、拡大表示画面121に表示される着目したい目標物などの映像は、自車両の移動に伴って拡大表示画面内で相対的に移動することになり、このため拡大表示画面121から外れてしまい、目標物を拡大画面内に表示し続けることができないという課題があった。
また、目標部が移動可能なものであり、実際に移動している場合、最初、目標物を拡大画面内に表示している状態であっても、目標物の移動に伴い拡大画面から外れてしまい、目標物を画面内に表示し続けることができないという課題があった。
本発明は、このような事情に鑑みてなされたものであり、目標物を俯瞰画像から切り出して表示する際に、自車両あるいは前記目標物が移動しても前記目標物を画面内に表示し続けることができる運転支援装置を提供することを目的とする。
Therefore, in the conventional driving support apparatus, the image of the target or the like to be noticed displayed on the enlarged
In addition, if the target part is movable and is actually moving, even if the target is initially displayed in the enlarged screen, the target part moves away from the enlarged screen as the target moves. Therefore, there is a problem that the target cannot be continuously displayed on the screen.
The present invention has been made in view of such circumstances, and when the target is cut out from the overhead image and displayed, the target is displayed on the screen even if the host vehicle or the target moves. An object of the present invention is to provide a driving support device that can be continued.
上述の目的を達成するため、本発明は、車両の周囲の映像をモニタに表示する運転支援装置であって、前記車両に搭載され、それぞれ異なる方向の車両周囲を撮像する複数の撮像装置と、前記各撮像装置で撮像した前記車両周囲の映像から前記車両を中心とする俯瞰映像を合成して前記モニタに表示する映像合成手段と、前記映像合成手段により合成した俯瞰映像上の選択された選択目標物の前記車両に対する位置を算出する目標物位置算出手段と、前記選択目標物の特徴点を抽出し、前記特徴点の動きベクトルを算出する特徴点検出手段と、前記特徴点検出手段により求められた前記選択目標物の各特徴点の動きベクトルから前記選択目標物が前記車両に接近してくる接近目標物であるか否かを検出する移動物体検出手段と、前記特徴点検出手段により前記選択目標物が前記車両に接近してくるとして検出された場合、前記接近目標物の特徴点をもとに前記車両を中心とする俯瞰画像上の前記接近目標物を追跡し前記接近目標物とその位置を捕捉する特徴点追跡手段と、前記車両の動きを推定し、前記推定した動きで前記車両が走行するときの前記車両の推定位置を算出し、前記車両の推定位置と、前記目標物位置算出手段で算出した前記目標物の位置または前記特徴点追跡手段により捕捉した前記接近目標物の位置とをもとに、前記推定した動きで前記車両が走行したときの前記車両の推定位置と前記目標物または前記接近目標物の位置との間の位置関係を算出する相対位置演算手段と、前記相対位置演算手段により算出した前記車両の推定位置と前記目標物または前記接近目標物との間の位置関係をもとに、前記選択された目標物または前記接近目標物を含む前記俯瞰映像の一部またはカメラで直接撮像した映像の一部を切り出す映像切出し位置を調整する映像切出し位置調整手段とを備えることを特徴とする。 In order to achieve the above-mentioned object, the present invention is a driving support device that displays a video around a vehicle on a monitor, and is mounted on the vehicle, and a plurality of imaging devices that respectively image the vehicle periphery in different directions; A video composition unit that synthesizes a bird's-eye view image centered on the vehicle from a video around the vehicle imaged by each of the imaging devices and displays it on the monitor; The target position calculating means for calculating the position of the target with respect to the vehicle, the feature point detecting means for extracting the feature point of the selected target object and calculating the motion vector of the feature point, and the feature point detecting means. Moving object detection means for detecting whether or not the selected target is an approaching target approaching the vehicle from the motion vector of each feature point of the selected selected target, and the feature inspection When the selected target is detected as approaching the vehicle by means, the approach target is tracked on the overhead image centered on the vehicle based on the feature point of the approach target and the approach is detected. A feature point tracking means for capturing a target and its position ; estimating the movement of the vehicle; calculating an estimated position of the vehicle when the vehicle travels with the estimated movement; and an estimated position of the vehicle; Based on the position of the target calculated by the target position calculating means or the position of the approaching target captured by the feature point tracking means, the vehicle travels when the vehicle travels with the estimated movement . positional relationship and the relative position calculation means for calculating a, the target and the estimated location of the vehicle calculated by the relative position calculating means or the approaching eye between the estimated position and the position of the target or the approaching target Based on the positional relationship between the object, the image for adjusting the image extraction position for cutting out a portion of the video imaged directly by the overhead image of a part or the camera including the selected target or the approaching target And a cutout position adjusting means.
本発明によれば、自車両あるいは目標物が移動しても、俯瞰画像から切り出されて表示される前記目標物は表示画面から外れてしまうことがなく、前記目標物を画面内に表示し続けることができる運転支援装置を提供できる効果がある。 According to the present invention, even if the host vehicle or the target moves, the target that is cut out and displayed from the overhead image is not deviated from the display screen, and the target is continuously displayed on the screen. There is an effect that it is possible to provide a driving support device that can be used.
(第1の実施の形態)
図1は、本発明の第1の実施の形態である自動車に適用したときの運転支援装置の構成を示すブロック図である。
この運転支援装置は、自車両の前方を撮像する前方カメラ1、後方を撮像する後方カメラ2、右側方を撮像する右カメラ3、左側方を撮像する左カメラ4と、マイクロコンピュータにより構成されたECU(電子制御ユニット)5、モニタ装置6、車速センサ7、ハンドル角(操舵角)センサ8、ゲートウェイ9およびタッチパネル16を備えている。
また、ECU5は、相対位置演算手段11、映像切出位置調整手段12および映像合成手段13を備えている。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a driving support apparatus when applied to an automobile according to a first embodiment of the present invention.
This driving support apparatus is composed of a
The ECU 5 includes a relative
前方カメラ1は、例えば自車両前部のフロントグリル中央に取り付けられて自車両の前方を撮像するカメラである。
後方カメラ2は、例えばリアウィンドウが設けられた自車両後部に取り付けられて自車両の後方を撮像するカメラである。
右カメラ3は、例えば右側ドアミラーを支持するドアミラー支持部突端に取り付けられて自車両の右側方を撮像するカメラである。
左カメラ4は、例えば左側ドアミラーを支持するドアミラー支持部突端に取り付けられて自車両の左側方を撮像するカメラである。
The
The
The
The
ECU5は各部を制御するマイクロコンピュータにより構成されている。
ECU5は、特に前方カメラ1、後方カメラ2、右カメラ3および左カメラ4により撮像した映像の合成処理を含む、この運転支援装置特有の機能を実現するための各種処理を行う。
ECU5の相対位置演算手段11は、自車両から目標物45(図2)までの距離と角度を演算して求める機能、操舵角と、タイヤ移動量や車速から自車両21の移動に伴う自車両21(仮想基準点)と目標物45との位置関係を推定し、自車両21が移動したときの仮想中心点から目標物45までの距離と角度を演算して求める機能を備えている。
映像切出位置調整手段12は、モニタ装置6の画面に表示出力された俯瞰映像から選択された目標物を含む前記俯瞰映像の拡大表示範囲を規定する映像切出位置を、前記相対位置演算手段11により演算した自車両と前記目標物との位置関係、つまり距離と角度とに応じて調整する機能を備えている。
The ECU 5 is constituted by a microcomputer that controls each part.
The ECU 5 performs various processes for realizing functions unique to the driving support device, including a synthesis process of images captured by the
The relative position calculation means 11 of the ECU 5 calculates the distance and angle from the own vehicle to the target object 45 (FIG. 2), obtains the own vehicle accompanying the movement of the
The video cut-out
映像合成手段13は、前方カメラ1、後方カメラ2、右カメラ3および左カメラ4によりそれぞれ撮像された映像から自車両を中心とした俯瞰映像を合成する。
モニタ装置6は、各種計器が設けられた運転席のフロントパネルに設けられている。
モニタ装置6は、この運転支援装置による前方カメラ1、後方カメラ2、右カメラ3および左カメラ4により撮像した映像による俯瞰映像や、この俯瞰映像から切り出された領域についての拡大映像を表示したり、GPS装置による地図画像上での現在位置表示や、GPS装置を操作するための操作用アイコンの表示、さらにエアコンやカーオーディオ装置の操作用アイコンの表示を兼ねている。
車速センサ7は、自車両の速度を検出するセンサであり、出力された速度情報を積分することで自車両の移動量を検出できる。
ハンドル角(操舵角)センサ8は、操作されているステアリングの操作角度情報を検出するセンサであり、自車両の進行方向を検出する。
ゲートウェイ9は、車速センサ7やハンドル角センサ8をECU5に接続可能にして、車速センサ7やハンドル角センサ8の出力についてECU5で処理できるようにするための整合性を確保する装置である。
タッチパネル16はモニタ装置6の画面上に配置され、この画面上の触れられた位置を特定可能にする信号を出力する。
The
The
The
The
The handle angle (steering angle)
The gateway 9 is a device for ensuring consistency so that the
The
図2は、この実施の形態の運転支援装置のモニタ装置6に表示出力された自車両21の俯瞰映像の一例を示す説明図である。
図2には、自車両21と、前方カメラ1の撮像エリア31、後方カメラ2の撮像エリア32、右カメラ3の撮像エリア33および左カメラ4の撮像エリア34と、着目したい目標物45と、目標物45後方に位置する背景物46,47と、仮想中心点Pが示されている。
また、符号41は、モニタ装置6の画面上でタッチパネル16に対するタッチ操作により選択された着目したい目標物45の拡大表示範囲である。
この拡大表示範囲45の映像が、図2に示す俯瞰映像とともにモニタ装置6の画面に表示出力される。
仮想中心点Pは、自車両21からの前記選択された目標物45までの距離と角度(方位)を特定するための基準点である。
図1に示すECU5の相対位置演算手段11は、図2に示す俯瞰映像をもとに自車両21から目標物45までの距離L1と角度θ1を演算して求める機能を備えている。
また、映像切出位置調整手段12は、モニタ装置6の画面に表示出力された図2に示す俯瞰映像から選択された目標物45に対応する俯瞰映像の拡大表示範囲41を規定する映像切出位置を、相対位置演算手段11により演算された自車両21と前記目標物45との距離Lと角度θとに応じて補正する機能を備えている。
FIG. 2 is an explanatory diagram showing an example of a bird's-eye view image of the
In FIG. 2, the
The video in the enlarged
The virtual center point P is a reference point for specifying the distance and angle (azimuth) from the
The relative position calculation means 11 of the ECU 5 shown in FIG. 1 has a function of calculating and obtaining the distance L1 and the angle θ1 from the
Further, the video cut-out position adjusting means 12 is a video cut-out that defines an enlarged
図3は、この実施の形態の運転支援装置において映像切出位置の補正を行わないときの動作を示す説明図である。
図4は、図3に示す映像切出位置の補正を行わないときの自車両21の移動に伴う拡大表示範囲41とその映像を示す説明図である。
図5は、この実施の形態の運転支援装置において映像切出位置の補正が行われたときの動作を示す説明図である。
図6は、図5に示す映像切出位置の補正が行われたときの自車両21の移動に伴う拡大表示範囲41とその映像を示す説明図である。
図7は、この実施の形態の運転支援装置の動作を示すフローチャートである。
図8は、モニタ装置6における自車両21を中心とする俯瞰映像を表示している俯瞰映像表示画面61と、俯瞰映像表示画面61に表示された映像のうちで着目したい映像を拡大表示する拡大表示画面62を示す画面図である。
FIG. 3 is an explanatory diagram showing an operation when the image cut-out position is not corrected in the driving support device of this embodiment.
FIG. 4 is an explanatory diagram showing an enlarged
FIG. 5 is an explanatory diagram showing an operation when the image cut-out position is corrected in the driving support device of this embodiment.
FIG. 6 is an explanatory diagram showing an enlarged
FIG. 7 is a flowchart showing the operation of the driving support apparatus of this embodiment.
FIG. 8 is an overhead view
以下、図7に示すフローチャートに従い動作について説明する。
この運転支援装置では、自車両21に取り付けられている前方カメラ1、後方カメラ2、右カメラ3および左カメラ4によりそれぞれ撮像された映像は、映像合成手段13により合成されて自車両21を中心とした俯瞰映像として、図8に示すように、モニタ装置6の俯瞰映像表示画面61に表示される。
そして、この俯瞰映像には前方カメラ1と右カメラ3により撮像された着目したい目標物45とその後方に位置する背景物46,47が映し出されている。
ユーザ、この場合、自車両21の運転者は、モニタ装置6の図8に示す俯瞰映像表示画面61の着目したい目標物45に対し指先で触れるタッチ操作を行う。
この結果、タッチパネル16からは指先が触れた位置(タッチ操作された位置)を特定可能にする信号が出力される。
ECU5はこのとき表示出力している映像と、前記タッチ操作された位置を特定可能にする信号をもとにタッチ操作された対象が目標物45であることを判定する。
つまり俯瞰映像から選択された目標物45を判定する(ステップS1)。
The operation will be described below with reference to the flowchart shown in FIG.
In this driving support device, the images captured by the
In this bird's-eye view image, a
The user, in this case, the driver of the
As a result, the
The ECU 5 determines that the target subject to the touch operation is the
That is, the
次に、自車両21の仮想中心点Pから前記選択した目標物45までの距離Lと角度θ(方位)を俯瞰映像から演算して求める(ステップS2)。
この距離Lと角度θは次のようにして求められる。
図8に示す俯瞰画像において「A」と「B」の値は既知であり、また仮想中心点Pから目標物45までの「a」および「b」の値、図8に示す俯瞰映像表示画面61上での自車両21を基準とした目標物45の位置座標も求めることが出来る。
つまり、距離は(a2+b2)の平方根で求めることが出来る。
仮想中心点から目標部45を見たときの、目標物45を撮像可能な右カメラ3の光軸に対する角度はtan−1(b/a)で求めることが出来る。
このときの距離をL1、角度をθ1とすると、この角度θ1方向を中心とした拡大表示範囲を設定する。
図5では、この設定された拡大表示範囲を符号41’により破線で示している。
また、このとき図6(a)に示された映像が拡大表示範囲41’の映像として図8の拡大表示出力部162に表示出力される。
Next, a distance L and an angle θ (azimuth) from the virtual center point P of the
The distance L and the angle θ are obtained as follows.
In the overhead view image shown in FIG. 8, the values of “A” and “B” are known, the values of “a” and “b” from the virtual center point P to the
That is, the distance can be obtained by the square root of (a 2 + b 2 ).
When the
When the distance at this time is L1 and the angle is θ1, an enlarged display range centering on the direction of the angle θ1 is set.
In FIG. 5, the set enlarged display range is indicated by a broken line by reference numeral 41 '.
At this time, the video shown in FIG. 6A is displayed and output to the enlarged
次に、操舵角と、タイヤ移動量や車速から自車両21の移動に伴う自車両21と目標物45との位置関係を推定する(ステップS3)。
この自車両21と目標物45との位置関係の推定は、次のようにして行う。
車速センサ7、ハンドル角センサ8を含む各種センサから自車両21の挙動を解析する。
すなわち、自車両21が移動したときのモデルを2輪モデルを用いて表し、ヨーレートγ、車速V、ホイールベース長l、操舵角δとすると、ヨーレートγはVδ/lで求めることが出来る。
つまり、ヨーレートγは速度とホイールベース長と操舵角により決定される。
この結果、Vδ/lを積分することで原点、すなわち仮想中心点Pからのt秒後の自車両21の向きと、仮想中心点Pの移動量も算出できる。
この結果、ヨーレートγから算出したt秒後の自車両21の向きと、仮想中心点Pの移動量をもとに図8に示す俯瞰映像表示画面61上にt秒後の自車両21の仮想中心点Pを反映させる。
図5はこのようにして算出されたt秒後の自車両21の向きと、仮想中心点の移動量をもとに俯瞰映像上に反映された新たな仮想中心点P2と、この仮想中心点P2に対応して設定された拡大表示範囲41”を示している。
図5では、仮想中心点P1における自車両21の向きが破線で示され、このとき操舵角θc、タイヤ移動量がLcであるとt秒後の自車両21の向きは実線で示される状態になり、仮想中心点は前記ヨーレートγ(速度はタイヤ移動量Lcから求められる)から算出された移動量をもとにP2の位置へ移動し、その位置が特定されることになる。
さらに、前記算出したt秒後の仮想中心点P2と目標物45との位置関係、すなわち仮想中心点P2から目標物45を見たときの角度θ2を求める。
この角度θ2は、目標物45を撮像可能な右カメラ3の光軸に対する角度である。目標物45の位置座標、仮想中心点P2の位置が特定される結果、自車両21の仮想中心点P2から目標物45までの距離L2と角度θ2が俯瞰映像から演算して求めることが出来る。
Next, the positional relationship between the
The positional relationship between the
The behavior of the
That is, a model when the
That is, the yaw rate γ is determined by the speed, the wheel base length, and the steering angle.
As a result, by integrating Vδ / l, the direction of the
As a result, based on the direction of the
FIG. 5 shows a new virtual center point P2 reflected on the bird's-eye view image based on the direction of the
In FIG. 5, the direction of the
Further, the positional relationship between the calculated virtual center point P2 after t seconds and the
This angle θ <b> 2 is an angle with respect to the optical axis of the
そして、角度θ2の方向を中心とした拡大表示範囲を設定する(ステップS4)。
図5では、この設定された拡大表示範囲を拡大表示範囲41”として実線で示している。
また、このとき図6(b)に示された映像が拡大表示範囲41”の映像として図8の拡大表示出力部162に表示出力される。
Then, an enlarged display range centering on the direction of the angle θ2 is set (step S4).
In FIG. 5, the set enlarged display range is indicated by a solid line as an
At this time, the image shown in FIG. 6B is displayed and output to the enlarged
以上説明したように、この実施の形態では、操舵角と、タイヤ移動量や車速から自車両21の移動に伴う自車両21(仮想基準点)と目標物45との位置関係を推定し、自車両21が移動したときの仮想中心点P2から目標物45までの距離L2と角度θ2を求め、角度θ2の方向を中心とした拡大表示範囲、映像切出し位置を設定する。
あるいは、操舵角と、タイヤ移動量や車速から自車両21の移動に伴う自車両21(仮想基準点)と目標物45との位置関係を推定し、自車両21が移動したときの仮想中心点P2から目標物45までの距離L2と角度θ2を求め、この角度θ2をもとに、前記推定前に設定されていた拡大表示範囲、映像切出し位置を調整する。
従って、自車両21と目標物45との位置関係の推定、拡大表示範囲、映像切出し位置の補正が行われない従来技術では、拡大表示範囲、映像切出し位置は自車両21を中心とした角度θ1の方向を中心とする一定範囲であったため、自車両21の移動に従い図3、図4に示すように右カメラ3により撮像される方向が目標物45に対し移動するため、目標物45は設定されている拡大表示範囲、映像切出し枠から短時間のうちに外れてしまうという不都合が発生していた。
これに対して、この実施の形態では、自車両21の移動に従い拡大表示範囲、映像切出し位置は図5に示すように角度θ2の方向を中心として設定されることから、目標物45は拡大表示範囲41”、映像切出し枠の略中央に表示されることになる。
すなわち、第1の実施の形態では、映像切出位置調整手段12が、相対位置演算手段11により算出した車両の推定位置と目標物との間の位置関係をもとに、選択された目標物を含む俯瞰映像の一部を切り出す映像切出し位置を調整することにより、切り出されて表示される目標物は表示画面から外れてしまうことがなく、目標物を画面内に表示し続けることができるという効果が奏される。なお、映像切出位置調整手段12が切り出す映像は、前記選択された目標物を含むカメラで直接撮像した映像の一部であってもよく、この場合も上記の効果が奏される。
As described above, in this embodiment, the positional relationship between the host vehicle 21 (virtual reference point) and the
Alternatively, the positional relationship between the host vehicle 21 (virtual reference point) and the
Therefore, in the related art in which the estimation of the positional relationship between the
On the other hand, in this embodiment, as the
In other words, in the first embodiment, the image cut-out
(第2の実施の形態)
次に、本発明の第2の実施の形態の運転支援装置について説明する。
図9は、第2の実施の形態の運転支援装置の構成を示すブロック図である。図9において、図1と同一または相当の部分については同一の符号を付し説明を省略する。
第2の実施の形態では、目標物45が移動可能な物体であり、自車両21に対し実際に移動している場合について説明する。
この場合、オプティカルフロー手法(動きベクトルを検出する手法)を用いることで目標物45を補足し、目標物45までの距離を計算し、移動の際に出現する目標物45の特徴点のオプティカルフローから自車両21および目標物45が移動したときの自車両21と目標物45との位置関係を推定できるようにして、目標物45を拡大表示範囲41”、映像切出し枠の略中央に精度よく表示する。
(Second Embodiment)
Next, the driving assistance apparatus of the 2nd Embodiment of this invention is demonstrated.
FIG. 9 is a block diagram illustrating a configuration of the driving support apparatus according to the second embodiment. 9, parts that are the same as or equivalent to those in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.
In the second embodiment, a case where the
In this case, an optical flow technique (a technique for detecting a motion vector) is used to supplement the
図9において、ECU5は、第1の実施の形態と同様に構成された相対位置演算手段11、映像切出位置調整手段12、映像合成手段13に加えて、オプティカルフローの手法を利用可能にするための特徴点検出手段91、移動物体検出手段92、特徴点追跡手段93および動きベクトル相対位置演算手段111をさらに備えている。
特徴点検出手段91は、自車両を中心とする俯瞰画像から選択された目標物、すなわち選択目標物の複数の特徴点を検出し、これら各特徴点のオプティカルフローを計算することでその動きベクトルを求める機能を備えている。
移動物体検出手段92は、特徴点検出手段91により求められた選択目標物の各特徴点の動きベクトルから選択目標物が自車両21に接近してくる接近目標物であるか否かを検出する機能を備えている。言い換えると、移動物体検出手段92は、特徴点検出手段91により求められた各特徴点の動きベクトルから自車両21に接近してくる接近移動物体を検出する機能を備えている。
特徴点追跡手段93は、特徴点検出手段91により接近してくるとして検出された接近目標物の特徴点をもとに自車両21を中心とする俯瞰画像上の前記接近目標物を追跡し前記接近目標物とその位置を捕捉する機能を備えている。言い換えると、特徴点追跡手段93は、特徴点検出手段91により検出された接近移動物体の画像領域を特定し、その特定した画像領域の特徴点をもとに自車両21を中心とする俯瞰画像上で接近目標物とその位置を補足追跡する機能を備えている。
動きベクトル相対位置演算手段111は、自車両21の動きを推定し、前記推定した動きで自車両21が走行するときの自車両21の推定位置を算出し、自車両21の推定位置と、前記特徴点追跡手段93により捕捉した接近目標物の位置、または前記捕捉した接近目標物の速度、方向などの動きをもとに推定した接近目標物の推定位置をもとに、前記推定した動きで自車両21が走行したときの自車両21の推定位置と接近目標物の位置との間の位置関係を算出する機能を備えている。
In FIG. 9, the ECU 5 makes it possible to use an optical flow technique in addition to the relative position calculating means 11, the image cutout position adjusting means 12, and the image synthesizing means 13 configured in the same manner as in the first embodiment. Feature point detecting means 91, moving
The feature point detection means 91 detects a target selected from an overhead image centered on the host vehicle, that is, a plurality of feature points of the selected target, and calculates an optical flow of each of the feature points to thereby calculate the motion vector. It has the function to ask for.
The moving
The feature
The motion vector relative position calculation means 111 estimates the motion of the
図10は、この実施の形態の運転支援装置の動作を示すフローチャートである。
以下、このフローチャートを参照して動作について説明する。
この運転支援装置でも、モニタ装置6の画面には図8に示す自車両21を中心とした俯瞰映像が俯瞰映像表示画面61に表示出力される。
そして、この俯瞰映像には前方カメラ1と右カメラ3により撮像された着目したい目標物45とその後方に位置する背景物46,47が映し出されている。
ユーザ、この場合、自車両21の運転者は、モニタ装置6の図8に示す俯瞰映像表示画面61の着目したい目標物45に対し指先で触れるタッチ操作を行う。
この結果、タッチパネル16からは指先が触れた位置、タッチ操作された位置を特定可能にする信号が出力される。
ECU5はこのとき表示出力している映像と、前記タッチ操作された位置を特定可能にする信号をもとにタッチ操作された対象が選択目標物であることを判定する。
つまり俯瞰映像から選択された選択目標物を判定する(ステップS11)。
次に、前記判定した選択目標物の複数の特徴点を抽出する(ステップS12)。
FIG. 10 is a flowchart showing the operation of the driving support apparatus according to this embodiment.
The operation will be described below with reference to this flowchart.
Also in this driving support device, the bird's-eye view image centered on the
In this bird's-eye view image, a
The user, in this case, the driver of the
As a result, the
The ECU 5 determines that the target subject to the touch operation is the selected target based on the video that is being displayed and output at this time and a signal that enables the touch-operated position to be specified.
That is, the selected target selected from the overhead view video is determined (step S11).
Next, a plurality of feature points of the determined selected target are extracted (step S12).
続いて、前記抽出した複数の特徴点のオプティカルフローを演算する(ステップS13)。
すなわち、特徴点検出手段91により、自車両21を中心とする俯瞰画像から選択された選択目標物の複数の特徴点を検出し、これら各特徴点のオプティカルフローを計算することでその動きベクトルを求める。
そして、移動物体検出手段92は、特徴点検出手段91により求められた各特徴点の動きベクトルから、選択目標物が自車両21に接近してくる接近目標物45であるか否かを検出する。言い換えると、移動物体検出手段92は、特徴点検出手段91により求められた各特徴点の動きベクトルから、前記選択目標物を自車両21に接近してくる方向のベクトルを有する接近移動物体45として検出する。
そして、特徴点追跡手段93は、特徴点検出手段91により接近してくるとして検出された接近目標物45の特徴点をもとに自車両21を中心とする俯瞰画像上の接近目標物45を追跡し接近目標物45とその位置を捕捉する(ステップS14)。言い換えると、特徴点追跡手段93は、特徴点検出手段91により特徴点が検出された接近移動物体の画像領域を特定し、その特定した画像領域の特徴点をもとに自車両を中心とする俯瞰画像上で接近目標物45とその位置を補足追跡し、自車両21に対する移動方向と速度を特定する。
そして、自車両21の仮想中心点PからステップS14で捕捉した接近目標物45までの距離Lと角度θ(方位)を前記第1の実施の形態と同様にして俯瞰映像から演算して求める(ステップS15)。
Subsequently, an optical flow of the extracted feature points is calculated (step S13).
That is, the feature
Then, the moving
Then, the feature
Then, the distance L and the angle θ (azimuth) from the virtual center point P of the
次に、接近目標物45の速度、移動方向と、自車両21の操舵角、タイヤ移動量や車速から自車両21の移動に伴う自車両21と接近目標物45との位置関係を推定する(ステップS16)。
この自車両21と接近目標物45との位置関係の推定は次のようにして行う。
図11は、この実施の形態の自車両21と接近目標物45との位置関係の推定動作を示す説明図である。
この実施の形態では、前記オプティカルフロー手法により接近目標物45の挙動を解析するとともに、車速センサ7、ハンドル角センサ8を含む各種センサから自車両21の挙動を解析する。
すなわち、自車両21が移動したときのモデルを2輪モデルを用いて表し、前記第1の実施の形態と同様にヨーレートγ、車速V、ホイールベース長l、操舵角δとする。
ヨーレートγはVδ/lで求めることが出来、Vδ/lを積分することで原点、すなわち仮想中心点Pからのt秒後の自車両21の向きと、仮想中心点Pの移動量も算出できる。
この結果、ヨーレートγから算出したt秒後の自車両21の向きと、仮想中心点Pの移動量をもとに図8に示す俯瞰映像表示画面61上でt秒後の自車両21の仮想中心点Pを反映させる。
また、接近目標物45についても、動きベクトル相対位置演算手段111により自車両21に対するt秒後の接近目標物45の位置をオプティカルフロー手法により求めた接近目標物45の特徴点の速度、移動方向から推定して算出し、t秒後の自車両21に対する接近目標物45の位置を図8に示す俯瞰映像表示画面61上に反映させる。
図11はこのようにして算出されたt秒後の接近目標物45の位置と、自車両21の向きと、仮想中心点の移動量をもとに俯瞰映像上に反映された新たな仮想中心点P2を示している。
Next, the positional relationship between the
The positional relationship between the
FIG. 11 is an explanatory diagram illustrating an operation of estimating the positional relationship between the
In this embodiment, the behavior of the approaching
That is, the model when the
The yaw rate γ can be obtained from Vδ / l. By integrating Vδ / l, the direction of the
As a result, based on the direction of the
For the approaching
FIG. 11 shows a new virtual center reflected on the bird's-eye view image based on the position of the
さらに、前記算出したt秒後の仮想中心点P2から是算出した位置の接近目標物45を見たときの角度θ2を求める。この角度θ2は、接近目標物45を撮像可能な右カメラ3の光軸に対する角度である。
従って、自車両21が急転回をして後方カメラ2が接近目標物45を撮像可能な状態になったときにはそのときの仮想中心点Pから接近目標物45を見たときの、後方カメラ2の光軸に対する角度を求めることになる。
すなわち、自車両21の仮想中心点P2から接近目標物45までの距離L2と角度θ2を俯瞰映像から演算して求める。
この距離L2と角度θ2はステップS16で推定し算出た自車両21と接近目標物45との位置関係から求めることが出来る。そして、角度θ2の方向を中心とした拡大表示範囲41”を設定する(ステップS17)。
Further, an angle θ2 when the
Therefore, when the
That is, the distance L2 and the angle θ2 from the virtual center point P2 of the
The distance L2 and the angle θ2 can be obtained from the positional relationship between the
以上説明したように、第2の実施の形態によれば、自車両21および接近目標物45が移動している場合であっても、一定時間後の自車両21と接近目標物45との位置関係を推定できることから、接近目標物45を拡大表示範囲41”、映像切出し枠の略中央に精度よく表示できる。
すなわち、第2の実施の形態では、映像切出し位置調整手段12が、動きベクトル相対位置演算手段111により算出した車両の推定位置と接近目標物との間の位置関係をもとに、接近目標物を含む俯瞰映像の一部を切り出す映像切出し位置を調整することにより、切り出されて表示される接近目標物は表示画面から外れてしまうことがなく、接近目標物を画面内に表示し続けることができるという効果が奏される。なお、映像切出位置調整手段12が切り出す映像は、前記接近目標物を含むカメラで直接撮像した映像の一部であってもよく、この場合も上記の効果が奏される。
As described above, according to the second embodiment, even if the
That is, in the second embodiment, the video cropping
1……前方カメラ、2……後方カメラ、3……右カメラ、4……左カメラ、5……ECU、6……モニタ装置、7……車速センサ、8……ハンドル角センサ、11……相対位置演算手段、12……映像切出位置調整手段、13……映像合成手段、91……特徴点検出手段、92……移動物体検出手段、93……特徴点追跡手段、111……動きベクトル相対位置演算手段。
DESCRIPTION OF
Claims (4)
前記車両に搭載され、それぞれ異なる方向の車両周囲を撮像する複数の撮像装置と、
前記各撮像装置で撮像した前記車両周囲の映像から前記車両を中心とする俯瞰映像を合成して前記モニタに表示する映像合成手段と、
前記映像合成手段により合成した俯瞰映像上の選択された選択目標物の前記車両に対する位置を算出する目標物位置算出手段と、
前記選択目標物の特徴点を抽出し、前記特徴点の動きベクトルを算出する特徴点検出手段と、
前記特徴点検出手段により求められた前記選択目標物の各特徴点の動きベクトルから前記選択目標物が前記車両に接近してくる接近目標物であるか否かを検出する移動物体検出手段と、
前記特徴点検出手段により前記選択目標物が前記車両に接近してくるとして検出された場合、前記接近目標物の特徴点をもとに前記車両を中心とする俯瞰画像上の前記接近目標物を追跡し前記接近目標物とその位置を捕捉する特徴点追跡手段と、
前記車両の動きを推定し、前記推定した動きで前記車両が走行するときの前記車両の推定位置を算出し、前記車両の推定位置と、前記目標物位置算出手段で算出した前記目標物の位置または前記特徴点追跡手段により捕捉した前記接近目標物の位置とをもとに、前記推定した動きで前記車両が走行したときの前記車両の推定位置と前記目標物または前記接近目標物の位置との間の位置関係を算出する相対位置演算手段と、
前記相対位置演算手段により算出した前記車両の推定位置と前記目標物または前記接近目標物との間の位置関係をもとに、前記選択された目標物または前記接近目標物を含む前記俯瞰映像の一部またはカメラで直接撮像した映像の一部を切り出す映像切出し位置を調整する映像切出し位置調整手段とを備える、
ことを特徴とする運転支援装置。 A driving support device for displaying an image around a vehicle on a monitor,
A plurality of imaging devices mounted on the vehicle and imaging the surroundings of the vehicle in different directions;
Video synthesizing means for synthesizing a bird's-eye view image centered on the vehicle from a video around the vehicle imaged by each of the imaging devices and displaying it on the monitor;
Target position calculation means for calculating a position of the selected target selected on the overhead view image synthesized by the video composition means with respect to the vehicle;
Feature point detection means for extracting feature points of the selected target and calculating a motion vector of the feature points;
A moving object detecting means for detecting whether or not the selected target is an approaching target approaching the vehicle from a motion vector of each feature point of the selected target obtained by the feature point detecting means;
When the feature point detection means detects that the selected target is approaching the vehicle, the approach target on the overhead image centered on the vehicle is determined based on the feature point of the approach target. Feature point tracking means for tracking and capturing the approaching target and its position;
The movement of the vehicle is estimated, the estimated position of the vehicle when the vehicle travels with the estimated movement is calculated, and the estimated position of the vehicle and the position of the target calculated by the target position calculating means Alternatively, based on the position of the approaching target captured by the feature point tracking means, the estimated position of the vehicle when the vehicle travels with the estimated movement and the position of the target or the approaching target Relative position calculating means for calculating the positional relationship between
Based on the positional relationship between the relative positions the target object and the estimated position of the vehicle calculated by the arithmetic unit or the approaching target, the overhead image including the selected target or the approaching target A video cut-out position adjusting means for adjusting a video cut-out position for cutting out a part or a part of a video directly captured by a camera;
A driving support device characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008234028A JP5083137B2 (en) | 2008-09-11 | 2008-09-11 | Driving assistance device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008234028A JP5083137B2 (en) | 2008-09-11 | 2008-09-11 | Driving assistance device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010067095A JP2010067095A (en) | 2010-03-25 |
JP5083137B2 true JP5083137B2 (en) | 2012-11-28 |
Family
ID=42192617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008234028A Expired - Fee Related JP5083137B2 (en) | 2008-09-11 | 2008-09-11 | Driving assistance device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5083137B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5663352B2 (en) * | 2011-03-03 | 2015-02-04 | 日本電産エレシス株式会社 | Image processing apparatus, image processing method, and image processing program |
JP5911775B2 (en) | 2012-08-21 | 2016-04-27 | 富士通テン株式会社 | Image generation apparatus, image display system, and image generation method |
JP6281405B2 (en) * | 2014-05-12 | 2018-02-21 | 株式会社デンソー | Driving assistance device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06321011A (en) * | 1993-05-17 | 1994-11-22 | Mitsubishi Electric Corp | Peripheral visual field display |
JP4192680B2 (en) * | 2003-05-28 | 2008-12-10 | アイシン精機株式会社 | Moving object periphery monitoring device |
JP4907883B2 (en) * | 2005-03-09 | 2012-04-04 | 株式会社東芝 | Vehicle periphery image display device and vehicle periphery image display method |
JP4657765B2 (en) * | 2005-03-09 | 2011-03-23 | 三菱自動車工業株式会社 | Nose view system |
-
2008
- 2008-09-11 JP JP2008234028A patent/JP5083137B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010067095A (en) | 2010-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5099451B2 (en) | Vehicle periphery confirmation device | |
EP2974909B1 (en) | Periphery surveillance apparatus and program | |
US9973734B2 (en) | Vehicle circumference monitoring apparatus | |
JP5321267B2 (en) | Vehicular image display device and overhead image display method | |
JP4969269B2 (en) | Image processing device | |
EP2487906B1 (en) | Control device and vehicle surrounding monitoring device | |
JP4907883B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP4687411B2 (en) | Vehicle peripheral image processing apparatus and program | |
WO2015098156A1 (en) | Visual field support device, visual field support method, and visual field support program | |
JP2013541915A (en) | Blind Spot Zone Display Device and Method | |
WO2019008764A1 (en) | Parking assistance method and parking assistance device | |
JP2009083764A (en) | Driving assisting device, driving assisting method, and computer program | |
KR20140144905A (en) | Parking assistance system | |
WO2001058164A1 (en) | Vicinity display for car | |
JP7426174B2 (en) | Vehicle surrounding image display system and vehicle surrounding image display method | |
JP2011039600A (en) | Device and method for supporting parking | |
JP7006460B2 (en) | Vehicle display control device, vehicle display system, vehicle display control method, and program | |
WO2011013813A1 (en) | In-vehicle device and image processing program | |
JP2010154304A (en) | Mobile camera system and driving method | |
JP5083137B2 (en) | Driving assistance device | |
JP2004201223A (en) | Vehicle peripheral monitoring apparatus and steering angle detecting method | |
JP4674814B2 (en) | Image display device for vehicle and image composition method | |
JP2011155651A (en) | Apparatus and method for displaying vehicle perimeter image | |
JP4857159B2 (en) | Vehicle driving support device | |
JP2007025739A (en) | Image display device for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120522 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120807 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120820 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5083137 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150914 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |