JP2006018751A - 車両用画像処理装置 - Google Patents
車両用画像処理装置 Download PDFInfo
- Publication number
- JP2006018751A JP2006018751A JP2004198178A JP2004198178A JP2006018751A JP 2006018751 A JP2006018751 A JP 2006018751A JP 2004198178 A JP2004198178 A JP 2004198178A JP 2004198178 A JP2004198178 A JP 2004198178A JP 2006018751 A JP2006018751 A JP 2006018751A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image processing
- area
- image
- processing area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 227
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000009795 derivation Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 abstract description 55
- 238000000034 method Methods 0.000 description 41
- 238000004364 calculation method Methods 0.000 description 10
- 230000014509 gene expression Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【解決手段】 自車の前方を撮像した画像の一部に画像処理領域を設定し、設定した画像処理領域から画像の特徴を導出するとともに、導出した特徴に基づいて車両の存在を判定する車両用画像処理装置において、撮像画像の中の自車に近い位置から遠い位置へ順に画像処理領域を設定し、自車に近い位置から遠い位置へ行くにしたがって画像処理領域を狭くする。
【選択図】 図4
Description
図1は第1の実施の形態の構成を示す。スキャンニング式レーザーレーダー1は車両前方にレーザー光を照射して物体からの反射光を受光し、物体までの距離と方位を測定する。レーダー処理装置2はレーザーレーダー1による測定結果に基づいて車両前方の車両を抽出し、自車両を原点とする車両前後方向と車幅方向の二次元座標上における車両の位置と車両の大きさ(幅)とを算出する。プログレッシブスキャン式3CCDカメラ3は車両前方を高速に撮像する。画像処理装置4はカメラ3による撮像画像の内、レーダー処理装置2により算出した車両周辺を注目領域として画像処理を行い、自車のピッチング変動などによりレーダー検知物体をロストした場合にも、カメラ画像により車両を検知し続ける。
Row=(1+A・Vsp2・LWB)/Steer ・・・(1)
(1)式において、Aは車両固有の値であるスタビリティーファクター(車重、ホイールベース長、重心位置、タイヤの横力で決まる定数と見なせる値)を示す。また、Vspは自車速[m/s]を、LWBはホイールベース長[m]を、Steerは操舵角[rad](右切りが正)をそれぞれ示す。
MalfunScan=MalfunScan+1 ・・・(2),
if(MalfunScan>2)MalfunScan=0 ・・・(3)
(2)、(3)式において、if(expression)statementとは、expressionを満たす場合にstatementを実施する関数である。MalfunScanは車幅方向のスキャンニング位置を示すカウンターであり、初期値0(中央)、1(右側)、2(左側)の順に車幅方向にスキャンニングする。
Loop=Loop+1 ・・・(4),
if(Loop>5)Loop=0 ・・・(5)
(4)、(5)式において、Loopは自車前後方向のスキャンニング位置を示すカウンターであり、初期値0(自車に最も近い位置)から5(自車から最も遠い位置)までの6カ所において前後方向にスキャンニングする。
obj_Y=Ky・Loop+InitDist ・・・(6),
LateralSlide=Kx・(MalScanDir−1) ・・・(7),
if(Row>0)obj_X=Row−√(Row2−obj_Y2)+LateralSlide+CamInsOfs
・・・(8),
els obj_X=Row+√(Row2−obj_Y2)+LateralSlide+CamInsOfs
・・・(9)
ここで、obj_Yとobj_Xが画像処理領域の設定地点の前後、左右の位置[m]を表し、InitDistは前後方向にスキャンニングする際の最も近距離側の位置[m]であり、LateralSlideは車幅方向のスキャンニングにおける自車予測進路の正面からのスライド量[m]である。InitDistの値は、通常はVsp[m/s]の値をそのまま用いる。すなわち、時速100km/hではInitDist=約28m/sである。これは、車間時間THW=1sより遠方に限定することを意味している。電子地図情報などで自動車専用道路を走行中であると判断できる場合には、この値を通常より長めに設定してもよい。同様に、VICSなどの交通情報から混雑状況を把握し、現在の走行地点が混雑している場合にはInitDistを通常より短く設定してもよい。また、Ky、Kxとは自車の前後方向と車幅方向のスキャンニングにおける1ステップの間隔を意味する値[m]である。さらに、CamInsOfsは自車の中心からカメラ3の取り付け位置までのオフセット量[m]であって、if(expression)statement1 else statement2とは、expressionを満たす場合にstatement1を実行し、expressionを満たさない場合にstatement2を実行する関数である。
disp_obj_YA=yo+focusV・CAM_h2/obj_Y ・・・(10),
disp_obj_YB=yo+focusV・CAM_h/obj_Y ・・・(11),
disp_obj_XL=xo+focusH・obj_X/obj_Y−focusH・ProcessWide/obj_Y
・・・(12),
disp_obj_XR=xo+focusH・obj_X/obj_Y+focusH・ProcessWide/obj_Y
・・・(13)
ここで、disp_obj_YAは画像処理領域の上側、disp_obj_YBは画像処理領域の下側、disp_obj_XLは画像処理領域の左側、disp_obj_XRは画像処理領域の右側の座標である。また、yo、xoは消失点の縦方向座標[pix:画素数]と横方向座標[pix](カメラ3の取り付け位置と向きで決まるパラメーター)である。同様に、focusVとfocusHは鉛直方向と水平方向のカメラ3の焦点距離を画素換算した値[pix](カメラ3の画角と受光素子の解像度で決まるパラメーターで、受光面が正方格子である場合にはfocusV=focusHとなる)である。また、CAM_hはカメラ3の取り付け高さ[m]であり、CAM_h2はCAM_hから前方車両候補として考慮すべき物体の高さを減算した値である。ProcessWideは画像処理領域の幅を決めるパラメーターであり、自車幅以下の値[m]であって、この一実施の形態では1.4[m]とする。さらに、CAM_h−CAM_h2≪ProcessWideの関係がある。
obj_Wn=(focusH・pWn)/obj_Y ・・・(14),
obj_Wf=(focusH・pWf)/obj_Y ・・・(15)
ここで、pWnとpWfはそれぞれ、検知したい車両の横方向の大きさ(幅)[m]であり、例えばpWn=1.0[m]、pWf=2.5[m]とする。
BodySpace=CarCanEdge_Right[i]−CarCanEdge_Left[i] ・・・(16),
obj_Wn<BodySpace<obj_Wf ・・・(17)
ここで、iは(17)式を満足する鉛直エッジのインデックスであり、iの数だけ画像処理領域内に検出したい車両の候補が存在することを意味する。
if(CarCanEdge_Left[i]<HoriEdge_x[j]<CarCanEdge_Right[i]{
・・・(18),
CarEdge_L[k]=CarCanEdge_Left[i] ・・・(19),
CarEdge_R[k]=CarCanEdge_Right[i] ・・・(20),
CarEdge_B[k]=HoriEdge_x[j] ・・・(21),
k=k+1 ・・・(22),
}
これにより、CarEdge_LとCarEdge_RとCarEdge_Bの組み合わせから、H型のエッジパターンが検出される。このとき、最も画面の下側に存在するCarEdge_Bのインデックス番号をkbottomとすると、CarEdge_L[kbottom]とCarEdge_R[kbottom]とCarEdge_B[kbottom]の組み合わせからなる領域がU字型のエッジパターンになる。ここで、HoriEdge_xは水平エッジの水平座標であり、jは水平エッジのインデックスを意味し、kは水平エッジと鉛直エッジの組み合わせから車両として判断した画像特徴のインデックスを意味する。(18)式から(22)式はすべての水平エッジとすべての鉛直エッジペアに対して行われる処理である。
if(Loop<5)goto[step205] ・・・(23)
ここで、goto[step***]とは、***に記載のステップ番号へ進むことを意味する関数である。
DetectObj_tate=focusV・CAM_h/(CarEdge_B[kk]−yo) ・・・(24),
DetectObj_yoko=(((CarEdge_L[kk]+CarEdge_R[kk])/2)−xo)・obj_Y/focusH ・・・(25)
DetectObj_haba=(CarEdge_R[kk]−CarEdge_L[kk])・obj_Y/focusH
・・・(26)
ここで、kkはステップ209で求めたkの中で最も大きい領域を構成するエッジ組み合わせのインデックス番号である。最大領域を選ぶ理由は、設定領域内に複数の車両が存在する場合に、前方車両の部分的な検知をなくし、全体を検知するためである。
上述した第1の実施の形態では1枚の撮像画像に対しては自車の前後方向のみにスキャンニングし、撮像画像を更新しながら車幅方向にスキャンニングする例を示したが、演算負荷に余裕のある高速CPUを用いる場合には、1枚の撮像画像に対して自車の前後方向のスキャンニングと車幅方向のスキャンニングとを同時に行うことができる。なお、この第2の実施の形態の構成は図1に示す第1の実施の形態の構成と同様であり、説明を省略する。
vEdgeLength_S=(focusV・pHs)/obj_Y ・・・(27),
vEdgeLength_T=(focusV・pHt)/obj_Y ・・・(28),
vEdgeLength_S<VerEdge_Height<vEdgeLength_T ・・・(29)
ここで、pHsとpHtはそれぞれ特徴量として導出したいエッジの長さ[m]であり、例えばpHs=0.3m、pHt=1.0mとする。そして、VerEdge_HeightとはVerEdgeの集合におけるエッジの長さを意味する集合である。
hEdgeLength_n=(focusH・pW1)/obj_Y ・・・(30),
hEdgeLength_w=(focusH・pW2)/obj_Y ・・・(31),
hEdgeLength_n<HoriEdge_Length<hEdgeLength_w ・・・(32)
ここで、pW1とpW2はそれぞれ特徴量として導出したいエッジの長さ[m]であり、例えばpW1=0.4m、pW2=2.5mとする。そして、HoriEdge_LengthとはHoriEdgeの集合におけるエッジの長さを意味する集合である。
if(MalfunScan<2)goto[step305] ・・・(33)
ステップ312の処理は図2に示すステップ211の処理(縦方向スキャンニングの後処理)と同様であり、説明を省略する。また、ステップ313〜314の処理は図2に示すステップ212〜213の処理と同様であり、説明を省略する。
上述した第1および第2の実施の形態では自車の前後方向のスキャンニングは等間隔で行い、車幅方向のスキャンニングは一方向で行うものであるが、この第3の実施の形態では、前後方向のスキャンニング間隔を自車速に応じて変え、車幅方向のスキャンニングを左右両方から行う。なお、この第3の実施の形態の構成は図1に示す第1の実施の形態の構成と同様であり、説明を省略する。
if(MalfunScan>3)MalfunScan=0 ・・・(3’)
ステップ405の処理は図2に示すステップ205の処理と同様であり、説明を省略する。
obj_Y=func1(Vsp,Loop)+InitDist ・・・(34),
LateralSlide=func2(MalScanDir) ・・・(35)
ここで、func1、func2はそれぞれ図9、図10に示すような特性を有する関数である。図9において、自車速Vspが高くなるほどfunc1が大きくなり、かつまた、Loopが大きくなるほど、つまり自車から遠い前方になるほどfunc1が大きくなる。したがって、自車の前後方向のスキャンニング間隔は、自車速Vspが高くなるほど広くなり、また、自車から遠い前方になるほど広くなる。
また、車幅方向のスキャンニングを左右両方向から行うようにし、自車線中央におけるスキャンニング回数を多くした。一般に、白線が見えにくい悪天候時には車線の中央を走行する傾向が高く、前車が自車の正面に存在するケースが多い。そのため、車線中央における自車前後方向のスキャンニングの回数を多くすることによって、車両を検知するまでの時間を短縮できる。
上述した第1から第3の実施の形態では自車前後方向のスキャンニングにおける画像処理領域の設定地点の数を一定(6カ所)とする例を示したが、これを可変とする第4の実施の形態を説明する。なお、この第4の実施の形態の構成は図1に示す第1の実施の形態の構成と同様であり、説明を省略する。
if(Loop>5)Loop=max(0,(ConstSR−InitDist)/Ky ・・・(36)
ここで、max(A、B)とはAとBを比較して大きい方の値を選択する関数である。また、ConstSRとは最も至近距離に画像処理領域を設定する際の距離[m]である。例えばConstSR=10[m]とし、自車が停止中の場合ではVsp=0[m/s]のため、InitDist=0[m]となる。このため、自車前後方向のスキャンニング間隔をKy=5[m]とすると、(36)式はLoop=2となり、前後方向のスキャンニング1回あたり、Loop∈[2,5]のため、画像処理領域の設定地点数は6から4に減少する。
if(obj_Y>ConstLR){ ・・・(37)
if(ExcepWideCnt=0){ ・・・(38)
ExcepWideCnt=1 ・・・(39)
LateralSlide=Kx・(MalScanDir−1)−Kx/2 ・・・(40)
If(Row>0)obj_X=Row−√(Row2−obj_Y2)+LaterlSlide+CamInsOfs
・・・(8)
else obj_X=Row+√(Row2−obj_Y2)+LateralSlide+CamInsOfs
・・・(9)
goto[step507]
}
if(ExcepWideCnt=1){ ・・・(41)
ExcepWideCnt=2 ・・・(42)
LateralSlide=Kx・(MalScanDir−1)+Kx/2 ・・・(43)
if(Row>0)obj_X=Row−√(Row2−obj_Y2)+LateralSlide+CamInsOfs
・・・(8)
els obj_X=Row+√(Row2−obj_Y2)+LateralSlide+CamInsOfs
・・・(9)
goto[step507]
}
}
ここで、ConstLRとは画像処理領域の面積が所定値以下となる距離[m]を表している。画像処理の演算負荷が低いものと判断される場合には、通常の車幅(左右)方向のスキャンニング位置から半ステップほどの間隔を空けた地点に画像処理領域を設定することを意味している。
また、高速走行時などで自車前後方向における画像処理領域の面積が小さい場合は、車幅方向の画像処理領域の設定地点数を増加するようにしたので、演算負荷の増加にならない範囲で探索領域の個数増加による車両検知の応答性を向上させることができる。
上述した第1の実施の形態では画像処理領域の設定地点までの距離に基づいて車両検出のためのしきい値を決定する例を示したが、画像処理領域で検出した特徴量の座標に基づいて車両検出のためのしきい値を決定する第5の実施の形態を説明する。なお、この第5の実施の形態の構成は図1に示す第1の実施の形態の構成と同様であり、説明を省略する。
if(HoriEdge_Nunb>0){
obj_Y=focusV・CAM_h/(HoriEdge_Row[max_row]−yo) ・・・(44)
}
ここで、HoriEdge_Rowはステップ608で導出した水平方向エッジにおける鉛直方向の座標の集合であり、max_rowはこの中で最も画面下側に位置する鉛直座標のインデックス番号である。これにより、U字型のエッジとなる。また、HoriEdge_Nunbとは水平エッジの個数であり、もし水平エッジが存在しない場合にはobj_Yの値は(6)式で設定されたままの値である。
obj_Wn=(focusH・pWn)/obj_Y ・・・(14),
obj_Wf=(focusH・pWf)/obj_Y ・・・(15)
(j)鉛直エッジ群VertEdgeの中から上記(i)で定めた範囲に入る鉛直エッジの対(ペア)を求め、この画像上の座標の集合をCarCanEdge_Left(ペアの左側に相当する鉛直方向エッジの水平座標)とCarCanEdge_Right(ペアの右側に相当する鉛直方向エッジの水平座標)とする。これを数式化すると次式になる。
BodySpace=CarCanEdge_Right[i]−CarCanEdge_Left[i] ・・・(16),
obj_Wh<BodySpace<obj_Wf ・・・(17)
if(CarCanEdge_Left[i]<HoriEdge_x[j]<CarCanEdge_Right[i]{
・・・(18),
CarEdge_L[k]=CarCanEdge_Left[i] ・・・(19),
CarEdge_R[k]=CarCanEdge_Right[i] ・・・(20),
CarEdge_B[k]=HoriEdge_x[j] ・・・(21),
k=k+1 ・・・(22),
}
上述した第5の実施の形態では画像処理領域から導出した特徴量の座標に基づいて物体検出のためのしきい値を決定する例を示したが、特徴量の長さに基づいて物体検出のためのしきい値を決定する第6の実施の形態を説明する。なお、この第6の実施の形態の構成は図1に示す第1の実施の形態の構成と同様であり、説明を省略する。
if(HoriEdge_Numb>0){
obj_Y=1.7・focusV/HoriEdge_Length[max_length] ・・・(45)
}
ここで、HoriEdge_Lengthはステップ708で導出した水平方向エッジにおけるエッジ長さの集合であり、max_lengthはこの中で最も長いエッジのインデックス番号である。また、数値1.7は日本の一般的な車両の車幅を表す数値である。
obj_Wn=(focusH・pWn)/obj_Y ・・・(14),
obj_Wf=(focusH・pWf)/obj_Y ・・・(15)
(n)鉛直エッジ群VertEdgeの中から上記(m)で定めた範囲に入る鉛直方向エッジの対(ペア)を求め、この画像上の座標の集合をCarCanEdge_Left(ペアの左側に相当する鉛直方向エッジの水平座標)とCarCanEdge_Right(ペアの右側に相当する鉛直方向エッジの水平座標)とする。これを数式化すると次式になる。
BodySpace=CarCanEdge_Right[i]−CarCanEdge_Left[i] ・・・(16),
obj_Wh<BodySpace<obj_Wf ・・・(17)
if(CarCanEdge_Left[i]<HoriEdge_x[j]<CarCanEdge_Right[i]{
・・・(18),
CarEdge_L[k]=CarCanEdge_Left[i] ・・・(19),
CarEdge_R[k]=CarCanEdge_Right[i] ・・・(20),
CarEdge_B[k]=HoriEdge_x[j] ・・・(21),
k=k+1 ・・・(22),
}
撮像画像の中の自車に近い位置では先行車は大きく写し込まれ、自車から遠い位置になるにほど先行車は小さく写し込まれている。したがって、撮像画像の中の自車に近い位置から遠い位置へ順に画像処理領域を設定し、自車に近い位置から遠い位置へ行くにしたがって画像処理領域を狭くすることによって、先行車以外の物体を捕捉する確立が少なくなり、面積の小さい画像処理領域を設定して悪天候時における車両検知性能を向上させながら、撮像画像の中の広い範囲に多くの画像処理領域を設定して早く、確実に車両を検出できる。
通常、先行車追従走行制御装置や車間距離制御装置においては、自車線上の自車に最も近い先行車のみを検出すればよいから、それらのアプリケーションに適用することによってCPUの演算負荷を軽減しながら、先行車を早く、確実に検出することができる。
さらに、撮像画像上の自車の正面における画像処理領域の設定回数を、自車の左右の位置における画像処理領域の設定回数よりも多くすることによって、自車の正面に存在する確立が高い先行車をより早く検出することができる。
4 画像処理装置
5 外界認識装置
6 車速検出装置
7 操舵角検出装置
Claims (14)
- 自車の前方を撮像する撮像手段と、
前記撮像手段による撮像画像の一部に画像処理領域を設定する領域設定手段と、
前記領域設定手段により設定した画像処理領域から画像の特徴を導出する特徴導出手段と、
前記特徴導出手段により導出した特徴に基づいて車両の存在を判定する車両判定手段とを備えた車両用画像処理装置において、
前記領域設定手段は、前記撮像手段による撮像画像の中の自車に近い位置から遠い位置へ順に画像処理領域を設定し、自車に近い位置から遠い位置へ行くにしたがって画像処理領域を狭くすることを特徴とする車両用画像処理装置。 - 請求項1に記載の車両用画像処理装置において、
自車の進路を予測する進路予測手段を備え、
前記領域設定手段は、前記進路予測手段で予測された自車進路に沿って画像処理領域を設定することを特徴とする車両用画像処理装置。 - 請求項1または請求項2に記載の車両用画像処理装置において、
前記領域設定手段によって撮像画像の中の自車に近い位置から遠い位置へ順に画像処理領域が設定されるたびに、設定された画像処理領域において前記特徴導出手段により特徴を導出するとともに前記車両判定手段により車両の存在を判定し、車両の存在が判定されたら前記領域設定手段、前記特徴導出手段および前記車両判定手段による画像処理を終了することを特徴とする車両用画像処理装置。 - 請求項1〜3のいずれか1の請求項に記載の車両用画像処理装置において、
前記領域設定手段は、撮像画像上の自車の車幅方向の複数の位置において、撮像画像の中の自車に近い位置から遠い位置へ順に画像処理領域を設定し、自車に近い位置から遠い位置へ行くにしたがって画像処理領域を狭くすることを特徴とする車両用画像処理装置。 - 請求項4に記載の車両用画像処理装置において、
前記領域設定手段は、撮像画像上の自車の正面における画像処理領域の設定回数を、自車の左右の位置における画像処理領域の設定回数よりも多くすることを特徴とする車両用画像処理装置。 - 請求項1〜5のいずれか1の請求項に記載の車両用画像処理装置において、
前記領域設定手段は、小さな面積の画像処理領域を設定する場合には、自車の車幅方向に多くの画像処理領域を設定することを特徴とする車両用画像処理装置。 - 請求項1〜5のいずれか1の請求項に記載の車両用画像処理装置において、
前記領域設定手段は、大きな面積の画像処理領域を設定する場合には、自車の前後方向の画像処理領域の設定数を少なくすることを特徴とする車両用画像処理装置。 - 請求項1〜7のいずれか1の請求項に記載の車両用画像処理装置において、
前記領域設定手段は、自車から所定距離の地点に相当する撮像画像上の位置に画像処理領域を設定することを特徴とする車両用画像処理装置。 - 請求項1〜8のいずれか1の請求項に記載の車両用画像処理装置において、
前記領域設定手段は、自車からの距離が遠くなるほど撮像画像上の画像処理領域の設定位置間隔を広くすることを特徴とする車両用画像処理装置。 - 請求項8または請求項9に記載の車両用画像処理装置において、
前記車両判定手段は、撮像画像上の画像処理領域の設定地点を自車からの距離に換算し、自車からの換算距離に基づいて画像の特徴から車両の存在を判定するためのしきい値を設定することを特徴とする車両用画像処理装置。 - 請求項1〜10のいずれか1の請求項に記載の車両用画像処理装置において、
前記車両判定手段は、前記特徴導出手段で導出した特徴の位置座標に基づいて車両の存在を判定するためのしきい値を設定することを特徴とする車両用画像処理装置。 - 請求項1〜10のいずれか1の請求項に記載の車両用画像処理装置において、
前記車両判定手段は、前記特徴導出手段で導出した特徴の長さに基づいて車両の存在を判定するためのしきい値を設定することを特徴とする車両用画像処理装置。 - 請求項1〜12のいずれか1の請求項に記載の車両用画像処理装置において、
前記領域設定手段は、自車の車幅方向の大きさが車両2台分以下の画像処理領域を設定することを特徴とする車両用画像処理装置。 - 請求項1〜13のいずれか1の請求項に記載の車両用画像処理装置において、
前記領域設定手段は、自車の車幅方向の大きさが前後方向の大きさよりも大きい画像処理領域を設定することを特徴とする車両用画像処理装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004198178A JP3931891B2 (ja) | 2004-07-05 | 2004-07-05 | 車載用画像処理装置 |
EP05013854A EP1615191B1 (en) | 2004-07-05 | 2005-06-27 | Image processing system and method for front-view image sensor in a vehicle |
US11/171,396 US7623680B2 (en) | 2004-07-05 | 2005-07-01 | Image processing system and method for front-view image sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004198178A JP3931891B2 (ja) | 2004-07-05 | 2004-07-05 | 車載用画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006018751A true JP2006018751A (ja) | 2006-01-19 |
JP3931891B2 JP3931891B2 (ja) | 2007-06-20 |
Family
ID=35063134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004198178A Expired - Lifetime JP3931891B2 (ja) | 2004-07-05 | 2004-07-05 | 車載用画像処理装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7623680B2 (ja) |
EP (1) | EP1615191B1 (ja) |
JP (1) | JP3931891B2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009132259A (ja) * | 2007-11-30 | 2009-06-18 | Denso It Laboratory Inc | 車両周辺監視装置 |
US8115611B2 (en) | 2006-12-27 | 2012-02-14 | Toyota Jidosha Kabushiki Kaisha | Vehicle-installed obstacle detecting system and method using image capturing and scanning |
JP2012038318A (ja) * | 2010-08-10 | 2012-02-23 | Fujitsu Ltd | ターゲット検出方法及び装置 |
JP2012118871A (ja) * | 2010-12-02 | 2012-06-21 | Aisin Aw Co Ltd | 走行支援システム、走行支援プログラム、及び走行支援方法 |
JP2013141876A (ja) * | 2012-01-10 | 2013-07-22 | Denso Corp | 車両周辺監視装置 |
JP2015103894A (ja) * | 2013-11-22 | 2015-06-04 | ルネサスエレクトロニクス株式会社 | 車載用画像処理装置及び半導体装置 |
JP2015185045A (ja) * | 2014-03-25 | 2015-10-22 | 本田技研工業株式会社 | 物体検知処理装置 |
US9454704B2 (en) | 2012-08-31 | 2016-09-27 | Fujitsu Limited | Apparatus and method for determining monitoring object region in image |
US10825186B2 (en) | 2017-01-11 | 2020-11-03 | Kabushiki Kaisha Toshiba | Information processing device, information processing method, and computer program product |
JP7526858B2 (ja) | 2017-05-19 | 2024-08-01 | パイオニア株式会社 | 測定装置、測定方法およびプログラム |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7561720B2 (en) * | 2004-04-30 | 2009-07-14 | Visteon Global Technologies, Inc. | Single camera system and method for range and lateral position measurement of a preceding vehicle |
US7639841B2 (en) * | 2004-12-20 | 2009-12-29 | Siemens Corporation | System and method for on-road detection of a vehicle using knowledge fusion |
US7561721B2 (en) * | 2005-02-02 | 2009-07-14 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
JP4762610B2 (ja) * | 2005-06-14 | 2011-08-31 | 本田技研工業株式会社 | 車両の走行安全装置 |
US20070031008A1 (en) * | 2005-08-02 | 2007-02-08 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
US7623681B2 (en) * | 2005-12-07 | 2009-11-24 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
US8164628B2 (en) | 2006-01-04 | 2012-04-24 | Mobileye Technologies Ltd. | Estimating distance to an object using a sequence of images recorded by a monocular camera |
US8108119B2 (en) * | 2006-04-21 | 2012-01-31 | Sri International | Apparatus and method for object detection and tracking and roadway awareness using stereo cameras |
JP4793094B2 (ja) * | 2006-05-17 | 2011-10-12 | 株式会社デンソー | 走行環境認識装置 |
EP1892688B1 (fr) * | 2006-08-24 | 2010-09-01 | Valeo Vision | Procédé de détermination de passage d'un véhicule dans un goulet |
US20090005948A1 (en) * | 2007-06-28 | 2009-01-01 | Faroog Abdel-Kareem Ibrahim | Low speed follow operation and control strategy |
CN101458814B (zh) * | 2007-12-13 | 2012-02-01 | 东软集团股份有限公司 | 一种用于从图像中分割对象感兴趣区域的方法和装置 |
JP5183392B2 (ja) * | 2008-09-25 | 2013-04-17 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
US20100303301A1 (en) * | 2009-06-01 | 2010-12-02 | Gregory Micheal Lamoureux | Inter-Frame Motion Detection |
JP5747482B2 (ja) * | 2010-03-26 | 2015-07-15 | 日産自動車株式会社 | 車両用環境認識装置 |
DE102011077038A1 (de) * | 2011-06-07 | 2012-12-13 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs |
US10081308B2 (en) * | 2011-07-08 | 2018-09-25 | Bendix Commercial Vehicle Systems Llc | Image-based vehicle detection and distance measuring method and apparatus |
JP6394227B2 (ja) * | 2014-09-24 | 2018-09-26 | 株式会社デンソー | 物体検出装置 |
KR102534792B1 (ko) * | 2015-02-10 | 2023-05-19 | 모빌아이 비젼 테크놀로지스 엘티디. | 자율 주행을 위한 약도 |
US9828001B2 (en) * | 2016-04-10 | 2017-11-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Confidence icons for apprising a driver of confidence in an autonomous operation of a vehicle |
CN108363055B (zh) * | 2018-01-17 | 2020-01-31 | 电子科技大学 | 一种雷达前视成像区域分割方法 |
US10678255B2 (en) | 2018-02-14 | 2020-06-09 | GM Global Technology Operations LLC | Systems, methods and apparatuses are provided for enhanced surface condition detection based on image scene and ambient light analysis |
US10706563B2 (en) | 2018-05-15 | 2020-07-07 | Qualcomm Incorporated | State and position prediction of observed vehicles using optical tracking of wheel rotation |
DE102018207869A1 (de) * | 2018-05-18 | 2019-11-21 | Volkswagen Aktiengesellschaft | Verfahren und System zur Bereitstellung einer Automatisierungsfunktion für ein Fahrzeug |
CN109765554A (zh) * | 2018-11-14 | 2019-05-17 | 北京遥感设备研究所 | 一种雷达前视成像系统及方法 |
US11816902B2 (en) * | 2020-08-26 | 2023-11-14 | Subaru Corporation | Vehicle external environment recognition apparatus |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08329224A (ja) * | 1995-05-26 | 1996-12-13 | Nissan Motor Co Ltd | 道路白線検出装置 |
JP2000132677A (ja) * | 1998-10-21 | 2000-05-12 | Nec Corp | 画像処理方法 |
JP2001167282A (ja) * | 1999-12-10 | 2001-06-22 | Toshiba Corp | 移動物体抽出装置及びその方法 |
JP2003281552A (ja) * | 2002-03-25 | 2003-10-03 | Toshiba Corp | 画像処理装置及びその方法 |
JP2003281700A (ja) * | 2002-03-25 | 2003-10-03 | Toshiba Corp | 割り込み車両検出装置及びその方法 |
JP2003323627A (ja) * | 2002-04-30 | 2003-11-14 | Nissan Motor Co Ltd | 車両検出装置及び方法 |
JP2004032460A (ja) * | 2002-06-27 | 2004-01-29 | Toshiba Corp | 画像処理装置およびその方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05265547A (ja) * | 1992-03-23 | 1993-10-15 | Fuji Heavy Ind Ltd | 車輌用車外監視装置 |
JPH1097699A (ja) | 1996-09-19 | 1998-04-14 | Toyota Motor Corp | 車両用障害物検出装置 |
DE19833065B4 (de) * | 1997-07-22 | 2010-04-15 | DENSO CORPORATION, Kariya-shi | Winkelverschiebungsbestimmungsvorrichtung zum Bestimmen der Winkelverschiebung der Radarzentralachse zur Verwendung in einem Erfassungssystem für sich selbstbewegende Hindernisse |
WO2002075355A1 (fr) | 2001-03-15 | 2002-09-26 | Fujitsu Ten Limited | Procede de traitement de signaux pour radar a balayage |
JP3759429B2 (ja) * | 2001-05-23 | 2006-03-22 | 株式会社東芝 | 障害物検出装置及びその方法 |
US6452535B1 (en) * | 2002-01-29 | 2002-09-17 | Ford Global Technologies, Inc. | Method and apparatus for impact crash mitigation |
-
2004
- 2004-07-05 JP JP2004198178A patent/JP3931891B2/ja not_active Expired - Lifetime
-
2005
- 2005-06-27 EP EP05013854A patent/EP1615191B1/en not_active Not-in-force
- 2005-07-01 US US11/171,396 patent/US7623680B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08329224A (ja) * | 1995-05-26 | 1996-12-13 | Nissan Motor Co Ltd | 道路白線検出装置 |
JP2000132677A (ja) * | 1998-10-21 | 2000-05-12 | Nec Corp | 画像処理方法 |
JP2001167282A (ja) * | 1999-12-10 | 2001-06-22 | Toshiba Corp | 移動物体抽出装置及びその方法 |
JP2003281552A (ja) * | 2002-03-25 | 2003-10-03 | Toshiba Corp | 画像処理装置及びその方法 |
JP2003281700A (ja) * | 2002-03-25 | 2003-10-03 | Toshiba Corp | 割り込み車両検出装置及びその方法 |
JP2003323627A (ja) * | 2002-04-30 | 2003-11-14 | Nissan Motor Co Ltd | 車両検出装置及び方法 |
JP2004032460A (ja) * | 2002-06-27 | 2004-01-29 | Toshiba Corp | 画像処理装置およびその方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8115611B2 (en) | 2006-12-27 | 2012-02-14 | Toyota Jidosha Kabushiki Kaisha | Vehicle-installed obstacle detecting system and method using image capturing and scanning |
JP2009132259A (ja) * | 2007-11-30 | 2009-06-18 | Denso It Laboratory Inc | 車両周辺監視装置 |
JP2012038318A (ja) * | 2010-08-10 | 2012-02-23 | Fujitsu Ltd | ターゲット検出方法及び装置 |
JP2012118871A (ja) * | 2010-12-02 | 2012-06-21 | Aisin Aw Co Ltd | 走行支援システム、走行支援プログラム、及び走行支援方法 |
US8913786B2 (en) | 2010-12-02 | 2014-12-16 | Aisin Aw Co., Ltd. | Driving support system, driving support program, and driving support method |
JP2013141876A (ja) * | 2012-01-10 | 2013-07-22 | Denso Corp | 車両周辺監視装置 |
US9454704B2 (en) | 2012-08-31 | 2016-09-27 | Fujitsu Limited | Apparatus and method for determining monitoring object region in image |
JP2015103894A (ja) * | 2013-11-22 | 2015-06-04 | ルネサスエレクトロニクス株式会社 | 車載用画像処理装置及び半導体装置 |
JP2015185045A (ja) * | 2014-03-25 | 2015-10-22 | 本田技研工業株式会社 | 物体検知処理装置 |
US10825186B2 (en) | 2017-01-11 | 2020-11-03 | Kabushiki Kaisha Toshiba | Information processing device, information processing method, and computer program product |
JP7526858B2 (ja) | 2017-05-19 | 2024-08-01 | パイオニア株式会社 | 測定装置、測定方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US7623680B2 (en) | 2009-11-24 |
EP1615191A1 (en) | 2006-01-11 |
EP1615191B1 (en) | 2012-11-21 |
JP3931891B2 (ja) | 2007-06-20 |
US20060002587A1 (en) | 2006-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3931891B2 (ja) | 車載用画像処理装置 | |
JP3925488B2 (ja) | 車両用画像処理装置 | |
EP2767927B1 (en) | Road surface information detection apparatus, vehicle device control system employing road surface information detection apparatus, and carrier medium of road surface information detection program | |
JP5690688B2 (ja) | 外界認識方法,装置,および車両システム | |
US10580155B2 (en) | Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium | |
US9330320B2 (en) | Object detection apparatus, object detection method, object detection program and device control system for moveable apparatus | |
JP5276637B2 (ja) | 車線推定装置 | |
JP5127182B2 (ja) | 物体検出装置 | |
JP3630100B2 (ja) | 車線検出装置 | |
EP2546602B1 (en) | Stereo camera apparatus | |
US8363896B2 (en) | White road line recognition device for vehicle | |
WO2017130639A1 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
US20240343248A1 (en) | Dynamic distance estimation output generation based on monocular video | |
WO2016129646A1 (ja) | 走行軌跡選定装置、および走行軌跡選定方法 | |
EP2803944A2 (en) | Image Processing Apparatus, Distance Measurement Apparatus, Vehicle-Device Control System, Vehicle, and Image Processing Program | |
JP6150164B2 (ja) | 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム | |
US20100110193A1 (en) | Lane recognition device, vehicle, lane recognition method, and lane recognition program | |
JP4901275B2 (ja) | 走行誘導障害物検出装置および車両用制御装置 | |
WO2011048718A1 (ja) | 標識認識装置及び標識認識方法 | |
WO2017145605A1 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP2007179386A (ja) | 白線認識方法及び白線認識装置 | |
EP3545464A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
JP2015148887A (ja) | 画像処理装置、物体認識装置、移動体機器制御システム及び物体認識用プログラム | |
JP2022152922A (ja) | 電子機器、移動体、撮像装置、および電子機器の制御方法、プログラム、記憶媒体 | |
JP2008171141A (ja) | 画像処理装置および方法、並びに、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3931891 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100323 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110323 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110323 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120323 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130323 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130323 Year of fee payment: 6 |