JP2005148817A - 車両用画像処理装置 - Google Patents

車両用画像処理装置 Download PDF

Info

Publication number
JP2005148817A
JP2005148817A JP2003381181A JP2003381181A JP2005148817A JP 2005148817 A JP2005148817 A JP 2005148817A JP 2003381181 A JP2003381181 A JP 2003381181A JP 2003381181 A JP2003381181 A JP 2003381181A JP 2005148817 A JP2005148817 A JP 2005148817A
Authority
JP
Japan
Prior art keywords
vehicle
image processing
area
obj
front vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003381181A
Other languages
English (en)
Other versions
JP3925488B2 (ja
Inventor
Migaku Takahama
琢 高浜
Takeshi Kimura
健 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003381181A priority Critical patent/JP3925488B2/ja
Priority to US10/981,709 priority patent/US7542835B2/en
Publication of JP2005148817A publication Critical patent/JP2005148817A/ja
Application granted granted Critical
Publication of JP3925488B2 publication Critical patent/JP3925488B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 前車検知処理を効率的に行う。
【解決手段】 自車の前方を撮像するとともに自車の挙動を検出し、自車の挙動に基づいて前車の位置を推定し、推定した前車の位置に基づいて撮像画像上に前車を検出するための画像処理領域を設定する。そして、設定した画像処理領域における画像の特徴を導出し、導出した特徴に基づいて前車を検知する。
【選択図】 図8


Description

本発明は、カメラにより撮像した画像を処理して先方車両を含む車両周囲の状況を認識する車両用画像処理装置に関する。
カメラにより撮像した画像の中から自車の走行車線を認識し、走行車線内に限定してエッジ抽出処理を行い、自車前方の障害物を効率よく検出するようにした車両用障害物検出装置が知られている(例えば、特許文献1参照)。
この出願の発明に関連する先行技術文献としては次のものがある。
特開平10−097699号公報
しかしながら、上述した従来の車両用障害物検出装置では、降雨や降雪などの走行環境下において道路上の白線を認識できない場合には、エッジ抽出処理を行う領域を限定することができないため、画像処理効率が低下してしまうという問題がある。
自車の前方を撮像するとともに自車の挙動を検出し、自車の挙動に基づいて前車の位置を推定し、推定した前車の位置に基づいて撮像画像上に前車を検出するための画像処理領域を設定する。そして、設定した画像処理領域における画像の特徴を導出し、導出した特徴に基づいて前車を検知する。
本発明によれば、画像処理に際して白線検知を行う必要がなく、走行中の白線検知状況に依存することなく前車検知処理を効率的に行うことができる。
《発明の第1の実施の形態》
図1に第1の実施の形態の構成を示す。レーザーレーダー1はスキャンニング式のレーザーレーダーであり、車両前部に設置されて車両前方の所定範囲をレーザー光で走査する。レーダー処理装置2は、レーザーレーダー1で走査した結果から前方車両を含む物体を抽出する。このレーダー処理装置2では、各物体に対して自車両を原点とする二次元(車間距離方向と車幅方向)座標値の算出と物体の幅(大きさ)の算出とを行う。
カメラ3はプログレッシブスキャン式3CCDカメラであり、車室内のフロントウインドウ上部中央に設置されて自車前方の状況を高速に撮像する。画像処理装置4は、カメラ3により撮像した画像の中のレーダー処理装置2で捕捉した物体の座標付近を注目領域として画像処理し、自車両のピッチング変動などによりレーダー1で検知物体を見失った場合にもカメラ画像により物体を検知し続ける。
外界認識装置5は外界の状況を認識する。外界認識装置5にはレーダー処理装置2と画像処理装置4の他に、従動車輪の回転により車速を検出する車速検出装置6、操舵角を検出する操舵角検出装置7、ヨーレイトを検出するヨーレイト検出装置10などが接続され、レーダー処理装置2で検知した各物体位置と画像処理装置4で追跡している物体位置とを選択して自車両にとって障害物であるか否かを正確に判断し、判断結果を自動ブレーキ制御装置8へ出力する。自動ブレーキ制御装置8は負圧ブレーキブースター9に駆動信号を出力し、前後輪に制動力を発生させる。
レーダー処理装置2、画像処理装置4、外界認識装置5、自動ブレーキ制御装置8はそれぞれマイクロコンピューターと各種アクチュエーターの駆動回路を備え、互いに通信回路を介して情報の授受を行う。
図2は、外界認識装置5で実行されるカメラ画像処理による前車検知プログラムを示すフローチャートである。このフローチャートにより、第1の実施の形態の動作を説明する。外界認識装置5はこの前車検知プログラムを所定時間間隔、例えば50msecごとに実行する。
ステップ201においてCCDカメラ3から今回のサンプリング周期における撮像画像を読み込み、続くステップ202で車速検出装置6から自車速を、操舵角検出装置7から操舵角を、ヨーレイト検出装置10からヨーレイトなどの自車両の挙動データを読み込む。
ステップ203で、予め設定した2つの車間時間Thw1、Thw2に基づいて前車の縦方向(車間距離方向)における存在位置obj_Y1、obj_Y2を推定する。
obj_Y1=Vsp・Thw1 ・・・(1−1)、
obj_Y2=Vsp・Thw2 ・・・(1−2)
ここで、Vspはステップ202で読み込んだ自車両の車速[m/s]であり、また車間時間Thw1、Thw2は0<Thw1<Thw2の関係がある。
例えば、自車線上の先行車に追従走行を行うときは予め設定した車速以下で車間距離が目標車間距離となるように車間距離制御を行い、自車線上に先行車がいないときには自車速が予め設定した車速となるように車速制御を行う車間距離制御システムを装備している場合には、運転者が設定する車間時間ThwACCの長、中、短に合わせて、車間時間Thw1=(ThwACC−TermTmp)、Thw2=(ThwACC+TermTmp)のように設定してもよい。ここで、TermTmpは所定の正数である。このようにすると、先行車追従走行制御中に降雨や降雪などによりレーダーで先行車を見失いやすい走行環境下でも、一実施の形態のカメラ画像処理により正確に先行車を検知し続けられる。
また、例えばナビゲーション装置を装備している場合には、ナビゲーション装置で把握した自車走行路の道路種別に応じて予め設定された車間時間Thw1、Thw2を変更してもよい。例えば、一般道走行時の車間時間Thw1を高速道路走行時の車間時間Thw2より短くすることによって、背景の複雑な一般道において背景を前方車両として誤認する頻度を低減することができる。
次に、ステップ204において次式により将来の自車進路の曲率半径Row[m]を推定する。
Row=(1+A・Vsp・LWB)/Steer ・・・(2)
ここで、Aは車両固有のスタビリティーファクターであり、車重、ホイールベース長、重心位置、タイヤの横力で決まる定数とみなせる値である。また、LWBはホイールベース長であり、Steerは操舵角[rad](右回転を正とする)である。
ステップ205では次式により将来の前車の横方向位置(車幅方向位置)を推定する。
if(Row>0) {obj_X1=Row−√(Row−obj_Y1)、
obj_X2=Row−√(Row−obj_Y2)}
else {obj_X1=Row+√(Row−obj_Y1)、
obj_X2=Row+√(Row−obj_Y2)} ・・・(3)
(3)式において、if(expression){statement1}else{statement2}は、expressionを満たす場合にはstatement1を実行し、expressionを満たさない場合にはstatement2を実行する関数である。つまり、右カーブの場合にはstatement1を実行し、左カーブの場合はstatement2を実行する。
ステップ206では道路面座標系の前車の縦方向位置(車間距離方向位置)obj_Y1、obj_Y2をカメラ3の画面座標系の鉛直方向座標に変換し、2つの画像処理領域の鉛直方向座標を決定する。
disp_obj_YA1=y0+(focusV・CAM_h2/obj_Y1) ・・・(4−1)
disp_obj_YB1=y0+(focusV・CAM_h/obj_Y1) ・・・(4−2)
disp_obj_YA2=y0+(focusV・CAM_h2/obj_Y2) ・・・(4−3)
disp_obj_YB2=y0+(focusV・CAM_h/obj_Y2) ・・・(4−4)
ここで、disp_obj_YA1は画像処理を行う領域1の上側の座標値、disp_obj_YB1は画像処理を行う領域1の下側の座標値、disp_obj_YA2は画像処理を行う領域2の上側の座標値、disp_obj_YB2は画像処理を行う領域2の下側の座標値である。また、y0は消失点の縦方向座標[pix;画素数]であり、カメラ3の取り付け位置と向きで決まる。focusVは画素換算したカメラの鉛直方向の焦点距離[pix]であり、CAM_hはカメラ3の取り付け高さ[m]、CAM_h2はCAM_hから障害物候補として考慮すべき物体の高さを減算した値である。
ステップ207では、予め設定した2つの車間時間Thw1、Thw2(Thw1<Thw2)に基づいて、次式によりカメラ3の画面座標系における2つの画像処理領域の水平方向座標を決定する。
disp_obj_XL1=x0+(obj_X1・focusH/obj_Y1)−(Width・focusH/obj_Y1)
・・・(5−1)
disp_obj_XR1=x0+(obj_X1・focusH/obj_Y1)+(Width・focusH/obj_Y1)
・・・(5−2)
disp_obj_XL2=x0+(obj_X2・focusH/obj_Y2)−(Width・focusH/obj_Y2)
・・・(5−3)
disp_obj_XR2=x0+(obj_X2・focusH/obj_Y2)+(Width・focusH/obj_Y2)
・・・(5−4)
ここで、disp_obj_XL1は画像処理を行う領域1の左側の座標値、disp_obj_XR1は画像処理を行う領域1の右側の座標値、disp_obj_XL2は画像処理を行う領域2の左側の座標値、disp_obj_XR2は画像処理を行う領域2の右側の座標値である。また、x0は消失点の横方向座標[pix]であり、カメラ3の取り付け位置と向きで決まる。focusHは画像換算したカメラ3の水平方向の焦点距離[pix]であり、カメラ3の画角と受光素子の解像度で決まる。なお、カメラ3の受光面が正方格子の場合にはfocusV=focusHとなる。Widthは画像処理領域の幅を決めるパラメーターであって、自車幅の半分以上の値を有するものである。
図8、図9はカメラ3による撮像画面に設定した領域1と領域2を示す図である。領域1と領域2は、予め設定した2つの車間時間Thw1とThw2(0<Thw1<Thw2)に基づいて推定された前車の存在位置(obj_X1,obj_Y1)と(obj_X2,obj_Y2)に対応する画像処理領域である。画像処理領域1と2は、予め設定された2つの近接した車間時間Thw1とThw2とから設定されており、短い車間時間Thw1に対応する領域1は自車から近い方にあり、長い車間時間Thw2に対応する領域2は自車から遠い方にある。そして、自車から遠い領域2は自車に近い領域1よりも面積が狭い。つまり、予め設定した2つの車間時間Thw1とThw2(0<Thw1<Thw2)に基づいて設定されるカメラ画面上の画像処理領域1と2は、2つの時間的に近接した領域であり、一方が他方より面積が狭く、また一方が他方より時間的に先行している。
画像処理領域1と2は、上述したステップ203、206の処理から明らかなように、予め設定された2つの車間時間Thw1とThw2(0<Thw1<Thw2)と自車速Vspとの積に応じてカメラ3の撮像画面の上部(消失点y0付近)へ領域の中心が移動する。また、画像処理領域1と2は、予め設定された2つの車間時間Thw1とThw2(0<Thw1<Thw2)と自車速Vspとの積に応じて領域の面積が小さくなる。
ステップ213では、ステップ206とステップ207で設定した2つの画像処理領域を次の順序で1つの領域につなぎ合わせ、最終的な画像処理領域を作成する。まず、次の座標を囲む台形領域を領域3として新たに設定する。
左上座標(disp_obj_XL2,disp_obj_YA2) ・・・(6−1)
右上座標(disp_obj_XR2,disp_obj_YA2) ・・・(6−2)
左下座標(disp_obj_XL1,disp_obj_YA1) ・・・(6−3)
右下座標(disp_obj_XR1,disp_obj_YA1) ・・・(6−4)
次に、下記座標を囲む台形領域を領域4として新たに設定する。
左上座標(disp_obj_XL2,disp_obj_YB2) ・・・(7−1)
右上座標(disp_obj_XR2,disp_obj_YB2) ・・・(7−2)
左下座標(disp_obj_XL1,disp_obj_YB1) ・・・(7−3)
右下座標(disp_obj_XR1,disp_obj_YB1) ・・・(7−4)
そして、領域1〜4を足し合わせて各領域のすべてを含む最も大きい1つの領域を作成し、最終的な画像処理領域とする。
なお、理解を容易にするために領域1の座標を(8−1)〜(8−4)式に示し、領域2の座標を(9−1)〜(9−4)式に示す。また、カメラ3の撮像画面上における領域1と領域2の座標を図8に示す。
領域1;左上座標(disp_obj_XL1,disp_obj_YA1) ・・・(8−1)
右上座標(disp_obj_XR1,disp_obj_YA1) ・・・(8−2)
左下座標(disp_obj_XL1,disp_obj_YB1) ・・・(8−3)
右下座標(disp_obj_XR1,disp_obj_YB1) ・・・(8−4)
領域2;左上座標(disp_obj_XL2,disp_obj_YA2) ・・・(9−1)
右上座標(disp_obj_XR2,disp_obj_YA2) ・・・(9−2)
左下座標(disp_obj_XL2,disp_obj_YB2) ・・・(9−3)
右下座標(disp_obj_XR2,disp_obj_YB2) ・・・(9−4)
例えば直進中の場合における最終的な画像処理領域は6角形であり、次式で表される座標により構成される。カメラ3の撮像画面上における最終的な画像処理領域の座標を図9に示す。
左上座標(disp_obj_XL2,disp_obj_YA2) ・・・(10−1)
右上座標(disp_obj_XR2,disp_obj_YA2) ・・・(10−2)
左中座標(disp_obj_XL1,disp_obj_YA1) ・・・(10−3)
右中座標(disp_obj_XR1,disp_obj_YA1) ・・・(10−4)
左下座標(disp_obj_XL1,disp_obj_YB1) ・・・(10−5)
右下座標(disp_obj_XR1,disp_obj_YB1) ・・・(10−6)
なお、この実施の形態では2つの処理領域を設定する例を示すが、さらに多くの処理領域を設定することによってより複雑な道路形状に対応することができる。ただし、上述した設定領域を決める処理が複雑になる。
ステップ209では、ステップ208で設定した最終的な画像処理領域に対して特徴抽出のためのエッジ抽出処理を行う。以下にエッジ抽出処理の一例を示す。
まず、設定した画像処理領域についてSovelフィルター演算などによりエッジ画像を求める。なお、Sovelフィルター演算は、隣接する画素間の濃淡変化を微分演算により求める演算手法であって、画像上における道路と車両の境界のように濃淡変化が大きい部分だけを集めることが可能な画像処理手法である。次に、エッジ画像の濃淡値の平均値と分散値からしきい値を設定し、エッジ画像を2値化する。つまり、エッジ画像対してしきい値を超える領域としきい値以下の領域に分類することによって、明確なエッジ部分とエッジでない部分の2つに分類する。そして、設定した画像処理領域の大きさに対して、明確なエッジとして分類されたエッジ量、あるいは全エッジの合計長が所定値Thr_EdgeNumb以上の場合には、このようなエッジの密集した小領域を前車候補領域として認識する。
所定値Thr_EdgeNumbは処理領域が大きくなるほど大きな値となるしきい値であって、(10−1)〜(10−6)式で設定される最終的な画像処理領域の面積A_allに基づいて所定値Thr_EdgeNumbを決めてもよい。さらに、性能向上を図るには、エッジの密集した小領域における最も下に位置するエッジ座標Edge_lowestに基づいて次式から面積A_strictを算出する。そして、面積A_strictが大きくなるほどしきい値Thr_EdgeNumbも大きな値とする。
A_strict=A1・(disp_obj_YB1−Edge_lowest)/(disp_obj_YB1−disp_obj_YB2)+A2 ・・・(11)
ここで、座標の関係はdisp_obj_YB1>Edge_lowest>disp_obj_YB2であって、disp_obj_YB1とdisp_obj_YB2に対する最も下に位置するエッジ座標から領域1の面積A1と領域2の面積A2の内分を求めることを表す。これにより、領域1と領域2の中間に位置する前車をより正確に検知することが可能になる。
このように、ステップ206〜208で設定した領域に対して上記のSovelフィルター演算を行うと以下の効果が得られる。まず、エッジ画像を求めることによって、必要な領域にのみ限定して微分演算を行うため、画像処理負荷を低減することができる。また、2値化のためのしきい値を設定することによって、画面全体について微分演算を行った場合のエッジ画像から設定するしきい値と比較して、より適切なしきい値設定が可能となるため、画像上の前車が存在する領域内に明確なエッジ部分が集中し、「明確なエッジ部分=前車を把握するための特徴量」の関係を強くすることができる。つまり、明確なエッジ部分が背景である可能性を低くすることができる。さらに、明確なエッジ量のしきい値設定を行う、すなわち設定した画像処理領域の大きさに基づいてしきい値を設定することによって、前車との車間距離(遠近)に関わらず前車を正しく検知することができる。
ステップ210では、ステップ209におけるエッジ抽出処理の結果、前車候補領域が存在するかどうかを確認し、前車候補領域が存在する場合はステップ211へ進み、存在しなければステップ212へ進む。前車候補領域が存在する場合は、ステップ211において、設定した画像処理領域における小領域が前車候補領域として認識され続ける期間を表すTermRecoを次式でインクリメントし、ステップ213へ進む。
TermReco=TermReco+1 ・・・(12)
一方、前車候補領域が存在しない場合は、ステップ212で、設定した画像処理領域における小領域が前車候補領域として認識され続ける期間を表すTermRecoを次式でディクリメントし、ステップ213へ進む。
TermReco=TermReco−1 ・・・(13)
ステップ213では次の条件式から前車候補領域を前車として判断し、判断結果をフラグFlagJudgeに代入する。
if(TermReco>ThJudge){FlagJudge=1}else{FlagJudge=0} ・・・(14)
ここで、ThJudgeは前車を判断するまでに要する最小時間を表す正のしきい値である。このしきい値ThJudgeを大きくすれば、背景などを前車と誤認する頻度をさらに抑制できるが、実際の前車を画像処理により前車として判断するまでの時間が遅くなる。また、FlagJudgeは前車候補領域を新たに検出した場合には0にクリアされるものである。
ステップ214では後段へ前車の存在を知らせるためにフラグFlagJudgeを出力して終了する。
このように、自車の挙動(車速と舵角)に基づいて将来の前車の存在位置を推定し、推定した前車の存在位置に基づいて撮像画像上に前車を検出するための画像処理領域を設定するようにしたので、画像処理負荷の軽減が可能となり、さらに適切な2値化しきい値の設定、および明確なエッジ量に関する適切なしきい値設定ができるので、背景などを前車として誤検知する頻度を低減することができる。
《発明の第2の実施の形態》
上述した第1の実施の形態では予め設定した2つの車間時間Thw1、Thw2に基づいて前車の縦方向(車間距離方向)における存在位置obj_Y1、obj_Y2を推定する例を示したが、1つの車間時間Thw1のみに基づいて前車の縦方向における存在位置obj_Y1を求めるとともに、前車の横方向位置はヨーレイト検出装置10により検出したヨーレイトに基づいて算出するようにした第2の実施の形態を説明する。なお、この第2の実施の形態の構成は図1に示す構成と同様であり、説明を省略する。
図3は、外界認識装置5で実行されるカメラ画像処理による前車検知プログラムを示すフローチャートである。このフローチャートにより、第2の実施の形態の動作を説明する。外界認識装置5はこの前車検知プログラムを所定時間間隔、例えば50msecごとに実行する。ステップ301〜302の処理は図2に示すステップ201〜202の処理と同様であるから説明を省略する。
ステップ303において、上述した図2に示すステップ203と同様であるが、この第2の実施の形態では前車の縦方向の存在位置を1つの車間時間Thw1のみに基づいて算出するため、上記(1−1)式のみ演算して存在位置obj_Y1のみを得る。
続くステップ304では、ステップ302で検出した自車速とヨーレイトを用いて次式により自車進路の曲率半径Row[m]を算出する。
Row=Vsp/ω ・・・(15)
ここで、ωは自車のヨーレイトである。なお、第1の実施の形態では曲率半径Rowを自車の舵角Steerから求めたが、ヨーレイト検出装置10と操舵角検出装置7の精度を比較して、現在の走行状況に応じて精度の高い方の曲率半径Rowを動的に選択するようにしてもよい。例えば、低μ路ではスリップにより舵角の通りに車体が移動しないため、路面μセンサー(不図示)の検出結果に基づいて低μ路を走行中であると判断した場合には、ヨーレイト検出装置10の検出結果による曲率半径Rowを選択する。
ステップ305では、図2のステップ205と同様であるが、(3)式により前車の横方向位置obj_X1のみを算出する。続くステップ306では、図2に示すステップ206と同様であるが、(4−1)、(4−2)式によりカメラ3の画面座標系における画像処理領域1の鉛直方向座標disp_obj_YA1、disp_obj_YA2を決定する。また、ステップ307では、図2に示すステップ207と同様であるが、(5−1)、(5−2)式によりカメラ3の画面座標系における画像処理領域1の水平方向座標disp_obj_XL1、disp_obj_XL2を決定する。
ステップ308では、図2に示すステップ208と同様であるが、最終的な画像処理領域を(8−1)〜(8−4)式で設定される四角形とする。ステップ309〜314は図2に示すステップ209〜214と同様であり、説明を省略する。
このように、第2の実施の形態によれば、画像処理負荷の軽減と、2値化しきい値および明確なエッジ量のしきい値の適切な設定が上述した第1の実施の形態よりも簡略化できる。ただし、推定する前車の存在位置は第1の実施の形態のように広い範囲を考慮するものではないため、推定した位置以外の前車に対しては検知できない頻度が高くなることや、遠方まで検知できるように画像処理領域の縦方向座標disp_obj_YA1を画面の上の方に設定しても、遠方に関する絞り込みを行っていないので、遠方の背景から生じるエッジを前車と誤認する頻度が高くなる可能性がある。
《発明の第3の実施の形態》
前車の縦方向の存在位置obj_Y1を自車速に基づいて推定するようにした第3の実施の形態を説明する。なお、この第3の実施の形態の構成は図1に示す構成と同様であり、説明を省略する。
図4は、外界認識装置5で実行されるカメラ画像処理による前車検知プログラムを示すフローチャートである。このフローチャートにより、第3の実施の形態の動作を説明する。外界認識装置5はこの前車検知プログラムを所定時間間隔、例えば50msecごとに実行する。ステップ401〜402の処理は図2に示すステップ201〜202の処理と同様であるから説明を省略する。
ステップ403において次式により前車位置を推定する。
obj_Y1=func1(Vsp) ・・・(16)
ここで、func1は図6に示すような自車速Vspが大きくなるほど値が大きくなる特性を有する関数である。ステップ404〜414は、図3に示すステップ304〜314と同様であり、説明を省略する。
このように、第3の実施の形態によれば、上述した第2の実施の形態の効果に加え、前車の位置推定を非線形で設定できるためより細かく前車位置を推定でき、走行地点や走行時間などに応じたチューニング結果を反映し易くなり、前車をより高い確率で捕捉することが可能になる。また、第1の実施の形態と同様に、func1を2種類設定することによって、第1の実施の形態のように広い範囲の前車の存在位置を考慮することになり、さらに、遠方に関する絞り込みが行えるので、遠方の背景から生じるエッジを前車と誤認する頻度を低減することができる。
《発明の第4の実施の形態》
自車の加減速時に生じるピッチ角を考慮してカメラ3の画面座標系における画像処理領域の鉛直方向座標を決定するようにした第4の実施の形態を説明する。なお、この第4の実施の形態の構成は図1に示す構成と同様であり、説明を省略する。
図5は、外界認識装置5で実行されるカメラ画像処理による前車検知プログラムを示すフローチャートである。このフローチャートにより、第4の実施の形態の動作を説明する。外界認識装置5はこの前車検知プログラムを所定時間間隔、例えば50msecごとに実行する。ステップ501〜505の処理は図2に示すステップ201〜205の処理と同様であるから説明を省略する。
ステップ506では次式により自車のピッチ角度PitchAngle[rad]を推定し、画像処理領域の中心位置の移動量CompPitchを算出する。
PitchAngle=func2(α) ・・・(17)
CompPitch=PixVert・PitchAngle/VertAngle ・・・(18)
ここで、αは自車の加減速度であり、正のときに加速を表す。func2は図7に示すような自車の加減速度αに応じた特性を有する関数である。PixVertはステップ501で読み込む入力画像の鉛直方向の画素数[pix]であり、VertAngleは鉛直方向の視野角度[rad]を表す。
なお、加速度センサー(不図示)から得られる加減速度に基づいて自車のピッチ角度を推定する例を示したが、加速度センサーを装備していない場合には自車速の時間微分から加減速度を算出してもよく、また、ピッチ角センサーを装備している場合には直接読み込んでもよい。
ステップ507では、図2に示すステップ206と同様であるが、次式により2つの画像処理領域の鉛直方向座標を決定する。
disp_obj_YA1=y0+(focusV・CAM_h2/obj_Y1)+CompPitch ・・・(19−1)、
disp_obj_YB1=y0+(focusV・CAM_h/obj_Y1)+CompPitch ・・・(19−2)、
disp_obj_YA2=y0+(focusV・CAM_h2/obj_Y2)+CompPitch ・・・(19−3)、
disp_obj_YB2=y0+(focusV・CAM_h/obj_Y2)+CompPitch ・・・(19−4)
ステップ508〜514は、図2に示すステップ207〜213と同様であり、説明を省略する。
ステップ515においてレーダー1による前車検知結果フラグFlagJudgeを読み込む。続くステップ516では、レーダー1は何も捕捉していないが前車検知結果フラグFlagJudgeの値が前車の存在を表している場合には、画像処理の結果をレーダー1のバックアップとして用いるように後段の制御系や警報系に指示を出す。
ステップ517において、レーダー1は近距離の路側構造物を検知できるが、前車検知結果フラグFlagJudgeの値が前車の存在を表している場合には、レーダー1の検知性能低下を知らせる情報を後段の制御系や警報系に指示を出し、処理を終了する。
このように、第4の実施の形態によれば、第1の実施の形態の上述した効果に加え、自車の加減速中でも適切な2値化しきい値の設定、および明確なエッジ量に関する適切なしきい値の設定が可能となり、背景などを前車として誤検知する頻度を低減することができる。
以上説明したように一実施の形態によれば、自車の前方を撮像するとともに自車の挙動を検出し、自車の挙動に基づいて前車の位置を推定し、推定した前車の位置に基づいて撮像画像上に前車を検出するための画像処理領域を設定する。そして、設定した画像処理領域における画像の特徴を導出し、導出した特徴に基づいて前車を検知するようにしたので、画像処理に際して白線検知を行う必要がなく、走行中の白線検知状況に依存することなく前車検知処理を効率的に行うことができる。
上述した一実施の形態によれば、少なくとも2つの時間的に近接した画像処理領域を設定するようにしたので、背景などを前車と誤認する頻度を低減することができる。
上述した一実施の形態によれば、少なくとも2つの画像処理領域を設定し、一方の面積を他方の面積より狭くするようにしたので、背景などを前車と誤認する頻度を低減することができる。
上述した一実施の形態によれば、少なくとも2つの画像処理領域を設定し、一方が他方よりも時間的に先行しているようにしたので、背景などを前車と誤認する頻度を低減することができる。
上述した一実施の形態によれば、設定したすべての画像処理領域をつなぎ合わせて最終的な画像処理領域を設定するようにしたので、推定結果の前車の存在位置が広範囲になる場合でも前車を確実に検知することができる。
上述した一実施の形態によれば、自車速が高くなるほど撮像画像の上部へ画像処理領域の中心を移動するようにしたので、前車を捕捉する確率が高くなり、前車を確実に検知することができる。
上述した一実施の形態によれば、予め設定した車間時間と自車速との積が大きくなるほど撮像画像の上部へ画像処理領域の中心を移動するようにしたので、前車を捕捉する確率が高くなり、前車を確実に検知することができる。
上述した一実施の形態によれば、予め設定した車間時間と自車速との積が大きくなるほど画像処理領域の面積を小さくするようにしたので、背景などを前車と誤認する頻度を低減することができる。
上述した一実施の形態によれば、自車の操舵角に基づいて前車の横方向の位置を推定し、推定した前車の横方向の位置に基づいて画像処理領域を設定するようにしたので、前車を捕捉する確率が高くなり、前車を確実に検知することができる。
上述した一実施の形態によれば、自車のヨーレイトに基づいて前車の横方向の位置を推定し、推定した前車の横方向位置に基づいて画像処理領域を設定するようにしたので、前車を捕捉する確率が高くなり、前車を確実に検知することができる。
上述した一実施の形態によれば、自車のピッチ角度に応じて画像処理領域を画面の上下方向に移動するようにしたので、自車にピッチングが生じても前車を捕捉する確率が高くなり、前車を確実に検知することができる。
上述した一実施の形態によれば、画像処理領域の大きさに応じて画像の特徴量のしきい値を決定し、画像の特徴量をしきい値と比較して画像の特徴を導出するようにしたので、前車との車間距離(遠近)に関わらず前車を正しく検知することができる。
なお、上述した一実施の形態の画像処理結果、すなわち前車検知結果に基づいてレーダー1などの測距手段の検知性能低下を正しく判定することができ、また、一実施の形態によりレーダー1などの測距手段のバックアップを行うことによって、レーダー1とカメラ3による外界認識システムの機能および性能を向上させることができる。
特許請求の範囲の構成要素と一実施の形態の構成要素との対応関係は次の通りである。すなわち、カメラ3が撮像手段を、車速検出装置6、操舵角検出装置7およびヨーレイト検出装置10が挙動検出手段を、外界認識装置5が前車推定手段、領域設定手段および前車検知手段を、画像処理装置4が特徴導出手段を、操舵角検出装置7が操舵角検出手段をそれぞれ構成する。なお、本発明の特徴的な機能を損なわない限り、各構成要素は上記構成に限定されるものではない。
第1の実施の形態の構成を示す図である。 第1の実施の形態のカメラ画像処理による前車検知プログラムを示すフローチャートである。 第2の実施の形態のカメラ画像処理による前車検知プログラムを示すフローチャートである。 第3の実施の形態のカメラ画像処理による前車検知プログラムを示すフローチャートである。 第4の実施の形態のカメラ画像処理による前車検知プログラムを示すフローチャートである。 自車速が大きくなるほど値が大きくなる特性を有する関数を示す図である。 自車の加減速度に応じた特性を有する関数を示す図である。 カメラの撮像画面上における画像処理領域の設定例を示す図である。 カメラの撮像画面上における画像処理領域の設定例を示す図である。
符号の説明
1 レーザーレーダー
2 レーダー処理装置
3 カメラ
4 画像処理装置
5 外界認識装置
6 車速検出装置
7 操舵角検出装置
8 自動ブレーキ制御装置
9 負圧ブレーキブースター
10 ヨーレイト検出装置

Claims (12)

  1. 自車の前方を撮像する撮像手段と、
    自車の挙動を検出する挙動検出手段と、
    前記挙動検出手段により検出した自車の挙動に基づいて前車の位置を推定する前車推定手段と、
    前記前車推定手段により推定した前車の位置に基づいて、前記撮像手段により撮像した画像上に前車を検出するための画像処理領域を設定する領域設定手段と、
    前記領域設定手段により設定した画像処理領域における画像の特徴を導出する特徴導出手段と、
    前記特徴導出手段により導出した特徴に基づいて前車を検知する前車検知手段とを備えることを特徴とする車両用画像処理装置。
  2. 請求項1に記載の車両用画像処理装置において、
    前記領域設定手段は少なくとも2つの時間的に近接した画像処理領域を設定することを特徴とする車両用画像処理装置。
  3. 請求項1に記載の車両用画像処理装置において、
    前記領域設定手段は少なくとも2つの画像処理領域を設定し、一方の面積を他方の面積より狭くすることを特徴とする車両用画像処理装置。
  4. 請求項1に記載の車両用画像処理装置において、
    前記領域設定手段は少なくとも2つの画像処理領域を設定し、一方が他方よりも時間的に先行していることを特徴とする車両用画像処理装置。
  5. 請求項2〜4のいずれかの項に記載の車両用画像処理装置において、
    前記領域設定手段はすべての画像処理領域をつなぎ合わせて最終的な画像処理領域を設定することを特徴とする車両用画像処理装置。
  6. 請求項1に記載の車両用画像処理装置において、
    前記挙動検出手段は自車速を検出し、
    前記領域設定手段は自車速が高くなるほど撮像画像の上部へ画像処理領域の中心を移動することを特徴とする車両用画像処理装置。
  7. 請求項1〜4のいずれかの項に記載の車両用画像処理装置において、
    前記挙動検出手段は自車速を検出し、
    前記領域設定手段は、予め設定した車間時間と自車速との積が大きくなるほど撮像画像の上部へ画像処理領域の中心を移動することを特徴とする車両用画像処理装置。
  8. 請求項1〜4のいずれかの項に記載の車両用画像処理装置において、
    前記挙動検出手段は自車速を検出し、
    前記領域設定手段は、予め設定した車間時間と自車速との積が大きくなるほど画像処理領域の面積を小さくすることを特徴とする車両用画像処理装置。
  9. 請求項1に記載の車両用画像処理装置において、
    前記挙動検出手段は自車の操舵角を検出し、
    前記前車推定手段は、前記挙動検出手段により検出した自車の操舵角に基づいて前車の横方向の位置を推定し、
    前記領域設定手段は、前記前車推定手段により推定した前車の横方向の位置に基づいて画像処理領域を設定することを特徴とする車両用画像処理装置。
  10. 請求項1に記載の車両用画像処理装置において、
    前記挙動検出手段は自車のヨーレイトを検出し、
    前記前車推定手段は、前記挙動検出手段により検出した自車のヨーレイトに基づいて前車の横方向の位置を推定し、
    前記領域設定手段は、前記前車推定手段により推定した前車の横方向の位置に基づいて画像処理領域を設定することを特徴とする車両用画像処理装置。
  11. 請求項1に記載の車両用画像処理装置において、
    前記挙動検出手段は自車のピッチ角度を検出し、
    前記領域設定手段は、前記挙動検出手段により検出した自車のピッチ角度に応じて画像処理領域を画面の上下方向に移動することを特徴とする車両用画像処理装置。
  12. 請求項1に記載の車両用画像処理装置において、
    前記特徴導出手段は、画像処理領域の大きさに応じて画像の特徴量のしきい値を決定し、画像の特徴量をしきい値と比較して画像の特徴を導出することを特徴とする車両用画像処理装置。
JP2003381181A 2003-11-11 2003-11-11 車両用画像処理装置 Expired - Fee Related JP3925488B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003381181A JP3925488B2 (ja) 2003-11-11 2003-11-11 車両用画像処理装置
US10/981,709 US7542835B2 (en) 2003-11-11 2004-11-05 Vehicle image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003381181A JP3925488B2 (ja) 2003-11-11 2003-11-11 車両用画像処理装置

Publications (2)

Publication Number Publication Date
JP2005148817A true JP2005148817A (ja) 2005-06-09
JP3925488B2 JP3925488B2 (ja) 2007-06-06

Family

ID=34544623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003381181A Expired - Fee Related JP3925488B2 (ja) 2003-11-11 2003-11-11 車両用画像処理装置

Country Status (2)

Country Link
US (1) US7542835B2 (ja)
JP (1) JP3925488B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009209A (ja) * 2007-06-26 2009-01-15 Nippon Soken Inc 画像認識装置および画像認識処理方法
JP2012188029A (ja) * 2011-03-11 2012-10-04 Toyota Motor Corp 被害軽減制動装置及び方法
JP2019091169A (ja) * 2017-11-13 2019-06-13 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
WO2022049880A1 (ja) * 2020-09-02 2022-03-10 日立Astemo株式会社 画像処理装置

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3925488B2 (ja) * 2003-11-11 2007-06-06 日産自動車株式会社 車両用画像処理装置
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
DE102005030838A1 (de) * 2005-07-01 2007-01-04 Siemens Ag Nightvisionsystem
US7545956B2 (en) * 2005-08-12 2009-06-09 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
US8108119B2 (en) * 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
JP4783431B2 (ja) * 2006-09-28 2011-09-28 パイオニア株式会社 交通情報検出装置、交通情報検出方法、交通情報検出プログラムおよび記録媒体
EP3624086A1 (en) * 2007-01-25 2020-03-18 Magna Electronics Inc. Radar sensing system for vehicle
JP4969269B2 (ja) * 2007-02-21 2012-07-04 アルパイン株式会社 画像処理装置
US8155826B2 (en) * 2007-03-30 2012-04-10 Aisin Aw Co., Ltd. Vehicle behavior learning apparatuses, methods, and programs
US20090008955A1 (en) * 2007-07-03 2009-01-08 Sergio Desoto System and method for automatically designing an automobile wrap
TW200922659A (en) * 2007-11-22 2009-06-01 Univ Nat Central Carrier device of guide toy with automatic positioning functions
TW200922660A (en) * 2007-11-22 2009-06-01 Univ Nat Central Interactive guide toy vehicle apparatus
DE502008000539D1 (de) * 2008-06-24 2010-05-20 Smr Patents Sarl Optisches System und Verfahren zur Erkennung von optischer Verschleierung in einem Fahrzeug
JP4453775B2 (ja) * 2008-06-27 2010-04-21 トヨタ自動車株式会社 物体検出装置
DE102008039606A1 (de) * 2008-08-25 2010-03-04 GM Global Technology Operations, Inc., Detroit Kraftfahrzeug mit einem Abstandssensor und einem Bilderfassungssystem
DE102009012758A1 (de) * 2009-03-12 2010-09-16 Hella Kgaa Hueck & Co. Vorrichtung und Verfahren zur Detektion mindestens eines Objektes
JP5372680B2 (ja) * 2009-09-24 2013-12-18 日立オートモティブシステムズ株式会社 障害物検知装置
US9514647B2 (en) * 2010-10-20 2016-12-06 GM Global Technology Operations LLC Optimal acceleration profile for enhanced collision avoidance
JP5278419B2 (ja) * 2010-12-17 2013-09-04 株式会社デンソー 運転シーンの遷移予測装置及び車両用推奨運転操作提示装置
JP2012141691A (ja) * 2010-12-28 2012-07-26 Fujitsu Ten Ltd 映像処理装置
WO2013009697A1 (en) * 2011-07-08 2013-01-17 Bendix Commercial Vehicle Systems Llc Image-based vehicle detection and distance measuring method and apparatus
JP6051608B2 (ja) * 2012-06-19 2016-12-27 市光工業株式会社 車両周辺対象物検出装置
JP6022834B2 (ja) * 2012-07-13 2016-11-09 株式会社日本自動車部品総合研究所 位置検出装置、および位置検出プログラム
JP5811975B2 (ja) * 2012-09-14 2015-11-11 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム
US8855849B1 (en) * 2013-02-25 2014-10-07 Google Inc. Object detection based on known structures of an environment of an autonomous vehicle
US9091558B2 (en) * 2013-12-23 2015-07-28 Automotive Research & Testing Center Autonomous driver assistance system and autonomous driving method thereof
CN105528593B (zh) * 2016-01-22 2020-03-31 江苏大学 一种前向车辆驾驶人驾驶行为预测系统及预测方法
JP6660595B2 (ja) * 2016-06-07 2020-03-11 パナソニックIpマネジメント株式会社 駐車空間探索装置、プログラムおよび記録媒体
CN108415018A (zh) * 2018-03-27 2018-08-17 哈尔滨理工大学 一种基于毫米波雷达检测的目标存在性分析方法

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62155140A (ja) * 1985-12-27 1987-07-10 Aisin Warner Ltd 車両制御用道路画像入力方式
JP2535927B2 (ja) * 1987-07-09 1996-09-18 アイシン精機株式会社 車上距離検出装置
JP2800531B2 (ja) * 1992-02-28 1998-09-21 三菱電機株式会社 車両用障害物検出装置
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
DE69322306T2 (de) * 1992-04-24 1999-04-29 Hitachi, Ltd., Tokio/Tokyo Gegenstandserkennungssystem mittels Bildverarbeitung
JP3263699B2 (ja) * 1992-12-22 2002-03-04 三菱電機株式会社 走行環境監視装置
JPH06213660A (ja) * 1993-01-19 1994-08-05 Aisin Seiki Co Ltd 像の近似直線の検出方法
US5487116A (en) * 1993-05-25 1996-01-23 Matsushita Electric Industrial Co., Ltd. Vehicle recognition apparatus
JP3169483B2 (ja) * 1993-06-25 2001-05-28 富士通株式会社 道路環境認識装置
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
JP3287117B2 (ja) * 1994-07-05 2002-05-27 株式会社日立製作所 撮像装置を用いた車両用の環境認識装置
US5621645A (en) * 1995-01-24 1997-04-15 Minnesota Mining And Manufacturing Company Automated lane definition for machine vision traffic detector
JPH1097699A (ja) 1996-09-19 1998-04-14 Toyota Motor Corp 車両用障害物検出装置
JP3619628B2 (ja) * 1996-12-19 2005-02-09 株式会社日立製作所 走行環境認識装置
JPH11213137A (ja) * 1998-01-29 1999-08-06 Matsushita Electric Ind Co Ltd 画像処理装置
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US7366595B1 (en) * 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
JP3658519B2 (ja) * 1999-06-28 2005-06-08 株式会社日立製作所 自動車の制御システムおよび自動車の制御装置
JP3627582B2 (ja) * 1999-07-30 2005-03-09 日産自動車株式会社 車両用追従制御装置
EP1083076A3 (en) * 1999-09-07 2005-01-12 Mazda Motor Corporation Display apparatus for vehicle
JP3287465B2 (ja) * 1999-09-22 2002-06-04 富士重工業株式会社 ステレオ画像処理装置
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
US6278918B1 (en) * 2000-02-28 2001-08-21 Case Corporation Region of interest selection for a vision guidance system
JP4233723B2 (ja) * 2000-02-28 2009-03-04 本田技研工業株式会社 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
EP1150252B1 (en) * 2000-04-28 2018-08-15 Panasonic Intellectual Property Management Co., Ltd. Synthesis of image from a plurality of camera views
JP3671825B2 (ja) * 2000-09-22 2005-07-13 日産自動車株式会社 車間距離推定装置
DE10047746A1 (de) * 2000-09-27 2002-04-11 Bayerische Motoren Werke Ag Verfahren zur Längsregelung eines Fahrzeuges, bei dem Informationen eines Navigationssystems erfasst werden
US20020134151A1 (en) * 2001-02-05 2002-09-26 Matsushita Electric Industrial Co., Ltd. Apparatus and method for measuring distances
JP2003123196A (ja) * 2001-10-10 2003-04-25 Denso Corp 車両の周辺監視装置及びプログラム
JP3861781B2 (ja) * 2002-09-17 2006-12-20 日産自動車株式会社 前方車両追跡システムおよび前方車両追跡方法
JP4433887B2 (ja) * 2003-07-01 2010-03-17 日産自動車株式会社 車両用外界認識装置
JP3915746B2 (ja) * 2003-07-01 2007-05-16 日産自動車株式会社 車両用外界認識装置
JP2005025692A (ja) * 2003-07-04 2005-01-27 Suzuki Motor Corp 車両用情報提供装置
US7702133B2 (en) * 2003-07-11 2010-04-20 Hitachi, Ltd. Image-processing camera system and image-processing camera control method
JP4253271B2 (ja) * 2003-08-11 2009-04-08 株式会社日立製作所 画像処理システム及び車両制御システム
JP3925488B2 (ja) * 2003-11-11 2007-06-06 日産自動車株式会社 車両用画像処理装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009209A (ja) * 2007-06-26 2009-01-15 Nippon Soken Inc 画像認識装置および画像認識処理方法
JP2012188029A (ja) * 2011-03-11 2012-10-04 Toyota Motor Corp 被害軽減制動装置及び方法
JP2019091169A (ja) * 2017-11-13 2019-06-13 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
JP7089355B2 (ja) 2017-11-13 2022-06-22 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
WO2022049880A1 (ja) * 2020-09-02 2022-03-10 日立Astemo株式会社 画像処理装置
JP7436331B2 (ja) 2020-09-02 2024-02-21 日立Astemo株式会社 画像処理装置

Also Published As

Publication number Publication date
JP3925488B2 (ja) 2007-06-06
US20050102070A1 (en) 2005-05-12
US7542835B2 (en) 2009-06-02

Similar Documents

Publication Publication Date Title
JP3925488B2 (ja) 車両用画像処理装置
JP5690688B2 (ja) 外界認識方法,装置,および車両システム
JP3630100B2 (ja) 車線検出装置
JP3931891B2 (ja) 車載用画像処理装置
JP5276637B2 (ja) 車線推定装置
JP4714104B2 (ja) 物体傾き検出装置
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP3230642B2 (ja) 先行車検出装置
US8730325B2 (en) Traveling lane detector
US20090052742A1 (en) Image processing apparatus and method thereof
JP2007179386A (ja) 白線認識方法及び白線認識装置
US10628960B2 (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium
JP2008117073A (ja) 割り込み車両検出装置
JP4052291B2 (ja) 車両用画像処理装置
JPWO2014034187A1 (ja) レーンマーク認識装置
JP4913101B2 (ja) 車両用道路形状検出装置
JP5538098B2 (ja) 車両用白線認識装置
EP3287948B1 (en) Image processing apparatus, moving body apparatus control system, image processing method, and program
JP3925285B2 (ja) 走行路環境検出装置
US20230115845A1 (en) Vehicle control device, vehicle control method, and storage medium
CN115959111A (zh) 车辆控制装置、车辆控制方法及存储介质
CN115959112A (zh) 车辆控制装置、车辆控制方法及存储介质
JP3120648B2 (ja) 車両用環境認識装置
EP3540643A1 (en) Image processing apparatus and image processing method
JP5452518B2 (ja) 車両用白線認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070219

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120309

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees