JP5251814B2 - 運転支援装置 - Google Patents
運転支援装置 Download PDFInfo
- Publication number
- JP5251814B2 JP5251814B2 JP2009223250A JP2009223250A JP5251814B2 JP 5251814 B2 JP5251814 B2 JP 5251814B2 JP 2009223250 A JP2009223250 A JP 2009223250A JP 2009223250 A JP2009223250 A JP 2009223250A JP 5251814 B2 JP5251814 B2 JP 5251814B2
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- obstacle
- processing unit
- image
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
このような従来の運転支援装置では、車両に前方カメラ、後方カメラ、右カメラおよび左カメラが取り付けられている。
そして、それら前方カメラ、後方カメラ、右カメラおよび左カメラにより撮像された映像を視点変換し、さらに画像合成して俯瞰映像を生成する。
このようにして生成された俯瞰映像は俯瞰映像表示画面へ表示され、運転操作の支援に活用される。
そして、この運転支援装置は、ウインカーの情報やハンドル操舵角の情報により後側方の見せる領域を変更することが可能であり、特に、高速モード時にウインカー入力を検出した場合、ウインカー方向の合成画像を拡大表示する。
なお、前記撮像部は、車両に設置した複数のカメラ設置部に取り付けられた個々のカメラにより車両周囲を撮像し、前記表示部は運転者に情報を提供するものである。
また、前記始動シーン選択部は、複数の運転シーンの中からエンジン始動時に通常走行シーンを選択し、前記車速センサでは車速を検出し、前記シフト位置検出部ではシフト位置を検出するものである。
前記ウインカー検出部は、ウインカーの方向を検出し、前記操舵角センサはハンドルの操舵角を検出し、前記画面モード切替部では各センサおよび各検出部により検出された情報より表示画面構成を切り替える。(特許文献1参照)。
また、俯瞰映像表示画面へ表示される俯瞰映像は、前方カメラ、後方カメラ、右カメラおよび左カメラにより撮像された映像を視点変換し、さらに画像合成したものであることから、異なるカメラにより撮像された映像を画像合成した俯瞰映像の境界付近では、着目したい目標物、特に一部の立体的な目標物が表示されないという課題があった。
俯瞰映像1は、車両に取り付けられた前方カメラ、後方カメラ、右カメラおよび左カメラにより撮像された映像を視点変換し、さらに画像合成して生成する。
前方カメラ114は、例えば車両11前部のフロントグリル中央に取り付けられて自車両の前方を撮像するカメラである。
後方カメラ112は、例えばリアウィンドウが設けられた車両11後部に取り付けられて自車両の後方を撮像するカメラである。
右カメラ111は、例えば右側ドアミラーを支持するドアミラー支持部突端に取り付けられて車両11の右側方を撮像するカメラである。
左カメラ113は、例えば左側ドアミラーを支持するドアミラー支持部突端に取り付けられて車両11の左側方を撮像するカメラである。
符号12は前方カメラ114による撮像範囲、符号13は右カメラ111による撮像範囲、符号14は後方カメラ112による撮像範囲、符号15は左カメラ113による撮像範囲を示す。
また、符号22は前方カメラ114の撮像範囲12の映像から図示していない視点変換手段により視点変換され生成された前方部分俯瞰映像を示す。符号23は右カメラ111の撮像範囲13の映像から同様に視点変換され生成された右部分俯瞰映像を示す。符号24は後方カメラ112の撮像範囲14の映像から同様に視点変換され生成された後方部分俯瞰映像を示す。符号25は左カメラ113の撮像範囲15の映像から同様に視点変換され生成された左部分俯瞰映像を示す。
これら前方部分俯瞰映像22、右部分俯瞰映像23、後方部分俯瞰映像24および左部分俯瞰映像25は、自車両11を中心としてその上方から自車両周囲を俯瞰したときの俯瞰映像として図示していない画像合成手段により画像合成される。
特徴点抽出処理部3は、前記俯瞰映像の時系列映像1に対し、たとえば画像のコーナまたは画像のエッジ等の画像処理技術上において位置の変化の追跡が比較的容易な特徴を有する箇所を特徴点として抽出する。
特徴点追跡処理部4は、前記俯瞰映像上で時刻変化に伴う特徴点の移動位置の変化を追跡する。
三次元計測処理部5は、前記俯瞰映像上における前記特徴点の移動位置の変化からその特徴点の相対運動情報および三次元座標情報を算出する。
この相対運動情報および三次元座標情報は、次に示す俯瞰画像上の対象物体の動きをモデル化した式(1)を用いて算出する。
前記視点変換手段および前記画像合成手段と、時系列映像取り込み部2、特徴点抽出処理部3、特徴点追跡処理部4、三次元計測処理部5および障害物検知処理部6は各部を制御するマイクロコンピュータにより構成されたECUにより実現される。
このECUは、前方カメラ114、後方カメラ112、右カメラ111および左カメラ113により撮像した映像の視点変換処理および画像合成処理を含む、この運転支援装置特有の機能を実現するための各種処理を行う。
図3は、この実施の形態の運転支援装置の動作を説明するための対象物の三次元空間座標と俯瞰映像上の位置との関係を示す説明図である。図3において、符号201はカメラを示し、z軸上の高さHの位置に配置されている。符号300は対象物を示しその三次元空間座標は[Xp ,Yp ,Zp ]Tである。また、符号301は俯瞰映像上の対象物映像であり、その三次元空間座標は[xp ,yp ,0]Tである。また、符号302は撮像された対象物が含まれた平面的な俯瞰映像を示している。
図4は、この実施の形態の運転支援装置における時系列映像取り込み部2から取り込まれる時系列映像1である時刻tにおける俯瞰映像と時刻t+FΔtにおける俯瞰映像との一例を示す説明図である。
図5は、図4に示す俯瞰映像から抽出した特徴点の動きをベクトルで示した説明図である。
図6は、この運転支援装置の動作を示すフローチャートである。
対象物の三次元空間座標と俯瞰映像上の位置との関係は上述した式(1)で示す関係が成立する。
また、対象物と自車両とが相対速度[VX,VY]T、ヨーレートωで相対運動をしていたとき、Kp=H/(H−Zp)とすると、式(2)で示す関係が成立する。
この実施の形態では、式(1)および式(2)の関係を用いて、自車両に対する立体物を判定して障害物の検知を行う。
図2に示すように視点変換され画像合成された俯瞰映像は、一定の時間間隔Δtごとに時系列映像取り込み部2から取り込まれる(ステップS1)。
特徴点抽出処理部3における特徴点Pの抽出は、たとえば画像のコーナまたは画像のエッジ等の画像処理技術上において位置の変化の追跡が比較的容易な特徴を有する箇所を特徴点として抽出する。
この特徴点追跡処理部4の追跡処理は次のように行う。
つまり、図4(A)に示す時刻tにおける俯瞰映像上の特徴点Pと、図4(B)に示す時刻t+FΔtにおける俯瞰映像上の特徴点Pとの位置関係から、特徴点Pがどのような動きをしてどのような位置へ移動したかを追跡処理する(ステップS3)。
この特徴点Pの追跡処理では、特徴点Pのオプティカルフローを計算することで、その動きベクトルを求める。
特徴点Pのオプティカルフローの計算処理は次のように行う。
所定の周期、時間間隔で撮像された前記俯瞰映像上の、互いに共通する特徴点Pの座標変化を検出し、その特徴点Pが移動しているか否か、座標が変化している場合には、特徴点Pの移動、座標変化の向きとその大きさがどの程度かをそれぞれ計算する。
そして、障害物情報として距離による障害物エリアと衝突予想時間による障害物エリアとにおける障害物情報を出力する(ステップS6)。
ここでkp =H/(H−Zp )とおけば、式(1)は以下に示す式(4)のように書き換えることができる。
今、対象物pはカメラに対して、時刻tにおいて3次元実空間ではベクトルXp=[Xp ,Yp ,Zp ]T の位置にあり、ヨーレートω、相対速度VX 、VY の相対運動で移動していたとする。なお、バウンシング・ロール・ピッチング運動はなかったとする。
このとき、時刻t+Δtでの対象物pの3次元実空間上の位置ベクトルXp(t+Δt)=[Xp (t+Δt),Yp (t+Δt),Zp (t+Δt)]T は、以下のように式(6)で与えられる。
このとき、静止物に対する相対運動は共通であるため、時刻tとt+Δtでの特徴点の俯瞰映像上の位置ベクトルxp (t)=[xp (t),yp (t),0]T 、ベクトルxp (t+Δt)=[xp (t+Δt),yp (t+Δt),0]T 、1<p<Pは式(10)より以下のように式(11)で与えられる。
なお、式(17)は以下に示す式(18)のように行列の積として書き換えることができる。
式(18)に示すW=MSより、俯瞰映像上の特徴点の位置の変化を示す行列Wから、相対運動を示す行列Mと3次元形状を示す行列Sに分割するには以下の手順で行う。
式(19)より、行列Wは2F×Pの大きさの行列である。行列Mは、ベクトルm、nが2次元であるため2F×3の大きさの行列であり、行列Sはベクトルsが3次元であるため3×Pの大きさの行列である。つまり、行列Wは階数3の行列である。そこで、以下のように、一旦、行列Wに対して特異値分解を行う。
σ1 >σ2 >…σp と降順に並んでいるとする。
行列Wは階数3の行列となるため、σ4 以降はノイズ成分とみなせることより、式(21)に示すように行列Uの3列分を抽出する。
(a)回転成分の拘束条件
式(19)より行列Mは以下の式(24)で示すように構成される。
式(19)より行列Sは以下のように構成される。
kp が最小となるのは、対象物が路面にあるとき、つまりZp =0であり、そのときkp =1となる。俯瞰映像は常時路面を撮影しているため、俯瞰映像上には、kp =1を満たす特徴点が必ず存在する。すなわち、kp に対して以下の拘束条件が存在する。
図8は、俯瞰映像から得られた立体物の三次元情報と相対運動情報とから検知した自車両11に対する距離による障害物エリアAと、衝突予想時間による障害物エリアBとを示す説明図である。
図9は、この実施の形態の運転支援装置における三次元計測処理部5および障害物検知処理部6の動作を示すフローチャートである。
三次元計測処理部5の三次元計測処理では、俯瞰映像上の特徴点の三次元座標情報と、前記特徴点と自車両11との相対運動情報とを式(1)の関係式を利用して算出する(ステップS41)。
この特徴点の三次元座標情報は、三次元位置行列Ssとして求められ(ステップS42)、また前記特徴点と自車両11との相対運動情報とは、相対運動行列Mとして求められる(ステップS43)。
そして、三次元位置行列Sとして求めた特徴点の三次元座標情報に対してはz軸方向の高さによる閾値処理を行う(ステップS44)。
この閾値処理では、z軸方向の高さ情報が零でなくある値を有している特徴点を所定の高さ基準値をもとに障害物候補特徴点とし(ステップS45)、またz軸方向の高さ情報が零である特徴点を非障害物特徴点とする(ステップS46)。
そして、前記障害物候補特徴点については、その特徴点の三次元座標情報をもとに自車両11との間の距離が明らかになることから、自車両11と障害物候補特徴点との間の距離に対し所定の距離基準値をもとに閾値処理を行う(ステップS47)。そして、遠距離障害物特徴点と近距離障害物特徴点とに識別を行う(ステップS48、ステップS49)。
近距離障害物特徴点として識別した特徴点は、例えば図8に示す障害物エリアAに含まれる特徴点である。
また、遠距離障害物特徴点として識別した特徴点については、ステップS43において求めた相対運動行列Mをもとに、衝突予想時間に対し所定の衝突予想時間基準値をもとに閾値処理を行う(ステップS51)。
そして、低危険度障害物特徴点と早期到達障害物特徴点とに識別する(ステップS52、ステップS53)。
早期到達障害物特徴点は、例えば図8に示す障害物エリアBに含まれる特徴点である。
また、俯瞰映像上で歪んで距離感が把握しづらい立体物に対し、その距離情報をドライバへ報知できる運転支援装置を提供できる効果がある。
Claims (2)
- 車両に搭載され、それぞれ異なる方向の車両周囲を撮像する複数の撮像装置と、
前記各撮像装置で撮像した前記車両周囲の映像から前記車両を中心とする俯瞰映像を合成する映像合成手段と、
前記映像合成手段により合成した俯瞰映像上の画像のコーナまたは画像のエッジ等の画像処理技術上において位置の変化の追跡が比較的容易な特徴を有する箇所を特徴点として抽出する特徴点抽出処理部と、
前記俯瞰映像の時系列映像から前記特徴点抽出処理部で抽出した前記特徴点の前記俯瞰映像上での位置の変化を追跡する特徴点追跡処理部と、
前記特徴点追跡処理部で追跡した時刻tから時刻t+FΔtにおける前記特徴点の前記俯瞰映像上での位置の変化をもとに、前記時刻tにおける前記特徴点の三次元座標における高さを含む三次元座標情報と、前記時刻tから前記時刻t+FΔtにおける前記車両と前記特徴点との前記俯瞰映像上での相対運動情報とを含む特徴点情報を算出する三次元計測処理部と、
前記三次元計測処理部で算出した前記特徴点情報をもとに、前記特徴点を抽出した画像が障害物であるか否かを判定する障害物検知処理部と、を備え、
前記障害物検知処理部が行う障害物であるか否かの判定は、前記特徴点の三次元座標における高さについての情報から所定の高さ基準値をもとに障害物候補となる障害物候補特徴点を識別し、前記識別した障害物候補特徴点と前記車両との距離が前記車両に対し近距離の障害物範囲に含まれる距離であるか、あるいは遠距離の障害物範囲に含まれる距離であるかを所定の距離基準値をもとに判定し、前記判定結果から前記障害物候補特徴点を遠距離障害物特徴点と近距離障害物特徴点とに識別し、前記識別した遠距離障害物特徴点に対し、前記三次元計測処理部で算出した前記相対運動情報と所定の衝突予想時間基準値とをもとに衝突予想時間について判定し、前記判定結果から低危険度障害物特徴点と早期到達障害物特徴点とに識別し、前記早期到達障害物特徴点を抽出した画像が前記車両に早期に達する障害物であるか否かを、前記識別結果をもとに判定することを特徴とする運転支援装置。 - 前記三次元計測処理部は、前記撮像装置の高さに応じた俯瞰画像上の対象物体の動きを前記特徴点をもとにモデル化し、実映像に対しモデル推定することで、前記特徴点の三次元座標における高さを含む特徴点情報および前記相対運動情報を算出することを特徴とする請求項1記載の運転支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009223250A JP5251814B2 (ja) | 2009-09-28 | 2009-09-28 | 運転支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009223250A JP5251814B2 (ja) | 2009-09-28 | 2009-09-28 | 運転支援装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011070580A JP2011070580A (ja) | 2011-04-07 |
JP5251814B2 true JP5251814B2 (ja) | 2013-07-31 |
Family
ID=44015778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009223250A Active JP5251814B2 (ja) | 2009-09-28 | 2009-09-28 | 運転支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5251814B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9704062B2 (en) | 2014-08-19 | 2017-07-11 | Hyundai Motor Company | Method and apparatus for warning an obstacle of a vehicle |
EP3057061B1 (en) | 2015-02-16 | 2017-08-30 | Application Solutions (Electronics and Vision) Limited | Method and device for the estimation of car egomotion from surround view images |
CN109961502A (zh) * | 2017-12-25 | 2019-07-02 | 国民技术股份有限公司 | 路况显示方法、设备、驱动装置及计算机可读存储介质 |
CN114004926B (zh) * | 2021-09-28 | 2023-08-22 | 哈尔滨工业大学 | 基于障碍物几何信息的星球车运动模式选择方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3690150B2 (ja) * | 1998-12-16 | 2005-08-31 | 株式会社豊田自動織機 | 車両における後退支援装置及び車両 |
JP2003178290A (ja) * | 2001-12-12 | 2003-06-27 | Nissan Motor Co Ltd | 車両周囲監視装置 |
JP4604691B2 (ja) * | 2004-12-07 | 2011-01-05 | 日産自動車株式会社 | 車両用警報装置、車両周囲状況の警報方法 |
JP4816923B2 (ja) * | 2006-03-01 | 2011-11-16 | 日産自動車株式会社 | 車両周辺画像提供装置および方法 |
-
2009
- 2009-09-28 JP JP2009223250A patent/JP5251814B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011070580A (ja) | 2011-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5240149B2 (ja) | 車両周辺監視装置 | |
JP5187292B2 (ja) | 車両周辺監視装置 | |
JP4899424B2 (ja) | 物体検出装置 | |
JP4355341B2 (ja) | 深度データを用いたビジュアルトラッキング | |
JP5418661B2 (ja) | 車両周辺監視装置 | |
JP5251800B2 (ja) | 対象物追跡装置及びプログラム | |
JP4751429B2 (ja) | 物体追跡の方法 | |
JP5109691B2 (ja) | 解析装置 | |
JP3719095B2 (ja) | 挙動検出装置および勾配検出方法 | |
JP6062609B1 (ja) | 車両の外側寸法を監視するための方法ならびに装置 | |
US8406472B2 (en) | Method and system for processing image data | |
JP2013008328A (ja) | 車両周囲監視装置 | |
JP6708730B2 (ja) | 移動体 | |
JP4797877B2 (ja) | 車両用映像表示装置及び車両周囲映像の表示方法 | |
JP5561064B2 (ja) | 車両用対象物認識装置 | |
JP2001213254A (ja) | 車両用側方監視装置 | |
JP4901275B2 (ja) | 走行誘導障害物検出装置および車両用制御装置 | |
JP4609603B2 (ja) | 3次元情報表示装置および3次元情報表示方法 | |
JP2008158640A (ja) | 移動物体検出装置 | |
JP6315308B2 (ja) | 制御用対象物識別装置、移動体機器制御システム及び制御用対象物認識用プログラム | |
JP2010218226A (ja) | 計測マップ生成装置及び走行環境確認装置 | |
JP5251814B2 (ja) | 運転支援装置 | |
JP2007264717A (ja) | 車線逸脱判定装置、車線逸脱防止装置および車線追従支援装置 | |
JP4967758B2 (ja) | 物体移動の検出方法及び検出装置 | |
JP2012252501A (ja) | 走行路認識装置及び走行路認識用プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110907 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130401 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5251814 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160426 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |