JP4026641B2 - 物体検出装置、および物体検出方法 - Google Patents

物体検出装置、および物体検出方法 Download PDF

Info

Publication number
JP4026641B2
JP4026641B2 JP2004351086A JP2004351086A JP4026641B2 JP 4026641 B2 JP4026641 B2 JP 4026641B2 JP 2004351086 A JP2004351086 A JP 2004351086A JP 2004351086 A JP2004351086 A JP 2004351086A JP 4026641 B2 JP4026641 B2 JP 4026641B2
Authority
JP
Japan
Prior art keywords
image
captured
pitching
captured image
inflection point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004351086A
Other languages
English (en)
Other versions
JP2006163569A (ja
Inventor
秀和 西内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004351086A priority Critical patent/JP4026641B2/ja
Priority to US10/575,216 priority patent/US7840026B2/en
Priority to EP05856157A priority patent/EP1820020B1/en
Priority to PCT/IB2005/003652 priority patent/WO2006092658A2/en
Publication of JP2006163569A publication Critical patent/JP2006163569A/ja
Application granted granted Critical
Publication of JP4026641B2 publication Critical patent/JP4026641B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両前方に存在する物体を検出する物体検出装置、および物体検出方法に関する。
車載カメラによって得られる画像から複数の対象物を抽出し、該複数の対象物のy方向(高さ方向)の位置の時間変化量に基づいて、ピッチングなどの車両挙動を考慮した対象物のy座標値の補正を行うことにより、ピッチングなどの車両挙動の影響を排除して、対象物の位置を検出する位置検出装置が特許文献1によって知られている。
特開2001−84497号公報
しかしながら、対象物のy方向の位置の時間変化量に基づいてy座標値の検出を行うため、乗員や荷物搭載などによって定常的に発生するピッチングによる対象物の位置変化は検出できないという問題が生じていた。
本発明は、撮像手段で撮像した自車両前方の画像(以下、「撮像画像」と呼ぶ)を画像処理して、撮像画像が自車両がピッチングによる上下方向の周期運動の変極点(以下、「ピッチング変極点」と呼ぶ)にあるときに撮像されたものであるか否かを判定し、撮像画像が自車両がピッチング変極点にないときに撮像されたものであると判定されたときに、自車両がピッチング変極点にあるときに撮像された撮像画像に基づいて、撮像画像内に存在する物体の画像上における位置を算出し、撮像画像に基づいて算出されるオプティカルフロー上で検出される、撮像画像内に存在する物体の画像垂直方向の加速度(以下、「画像加速度」と呼ぶ)を算出し、画像加速度が0である撮像画像を自車両がピッチング変極点にあるときに撮像されたものであると判定することを特徴とする。
本発明によれば、撮像画像が自車両がピッチング変極点にあるときに撮像されたものであるか否かを判定して、撮像画像が自車両がピッチング変極点にないときに撮像されたものであると判定されたときに、自車両がピッチング変極点にあるときに撮像された撮像画像から算出された対象物情報に基づいて、撮像画像内に存在する物体の画像上における位置を算出することとした。これによって、乗員や荷物搭載などによって定常的にピッチングが発生した場合であっても、画像上の正確な物体の位置を算出することができる。
図1は、本実施の形態における物体検出装置の一実施の形態の構成例を示すブロック図である。物体検出装置100は、車両に搭載され、カメラ1と、画像メモリ2と、マイコン3と、ディスプレイ4とを備えている。カメラ1は、車両前部に設けられ、車両前方を一定時間Δt間隔で撮像する。画像メモリ2は、カメラ1で撮像された画像をデジタル値に変換し、デジタル画像を保存する。マイコン3は入力画像メモリ2に保存されたデジタル画像を読み込み、後述するように車両のピッチングを考慮して画像内に存在する物体の実空間における大きさ、および物体までの距離を検出する。ディスプレイ4は検出した物体を、例えば、自車両を中心とし、上方から見た地図上にマッピングした鳥瞰図上に表示して出力する。
なお、本実施の形態においては、カメラ1で撮像された画像内には、例えば1台の他車両など、一つの移動物体のみが存在しているものとし、画像内に存在する物体の実空間における大きさは、画像上で検出可能な物体の幅とする。
図2は、車両にピッチングが発生した場合に、撮像画像内に存在する前方車両に存在する物体の位置変化の具体例を示す図である。図2(a)に示すように、車両が平衡状態(後述のように定義する)にあるときの撮像画像内における物体のy座標値yoは、水平方向に対するカメラ視軸向きθから物体を見た時のずれ角を物体の見える角θoとすると、次式(1)により算出される。
yo=αθo・・・(1)
なお、αはカメラ1の撮像素子サイズや焦点距離など(以下、これらを「カメラパラメータ」と呼ぶ)によって一意に算出できる定数である。
このときに、車両にピッチングが発生し、このときのピッチング角がθpである場合には、物体の画像上のy座標値yo'は、次式(2)により算出される。
yo'=αθo'=α(θo+θp)=yo+αθp・・・(2)
すなわち、ピッチングが発生した時の物体の画像上のy座標値の変化は、ピッチング角θpの大きさに比例することがわかる。よって、ピッチング角θp、画像上の物体のy軸方向の速度、すなわち画像垂直方向の速度(画像速度)、画像上の物体のy軸方向の加速度、すなわち画像垂直方向の加速度(画像加速度)は図3に示すような関係になる。
図3において、特性3aは自車両にピッチングが発生したときのピッチングによるカメラ1の上下方向の周期運動(周期運動3a)、特性3bは時間変化に伴う画像速度の変化(画像速度3b)、特性3cは時間変化に伴う画像加速度の変化(画像加速度3c)を示している。この図3に示すように、画像加速度3cがゼロである時点では、画像速度3bが最大、または最小となり、周期運動3aは変極点にある。周期運動3aの変極点は、車両は平衡状態にある点を示していることから、画像加速度3cがゼロである画像は、自車両にピッチングが発生した場合において、自車両が平衡状態となったときに撮像された画像であると判定することができる。
なお、本実施の形態においては、撮像画像に対してエッジ抽出処理を行った結果、公知の勾配法やブロックマッチング法を用いてオプティカルフローを算出し、画像上に存在する物体の速度を検出することによって、上述した画像速度3b、および画像加速度3cを検出する。なお、エッジ抽出処理、およびオプティカルフロー算出処理については、公知の技術のため、説明を省略する。
この自車両が平衡状態となったときに撮像された画像(平衡時の画像)、すなわち、画像内から検出された物体の画像上のy軸方向の加速度3cがゼロである画像に基づいて、後述するように画像上の物体のy座標、実空間における物体の幅(物体の大きさ)、カメラ1から物体までの距離、すなわちカメラ1の焦点位置から物体までの距離Dが算出できる。図4は,平衡時の画像を用いて画像上の物体のy座標、実空間における物体の幅、およびカメラ1の焦点位置から物体までの距離を算出する場合の具体例を示す図である。なお、図4(a)は、物体を側方から見た図を示しており、図4(b)は、物体を上方から見た図を示している。
図4(a)に示すように、画像上の物体のy座標は、あらかじめ測定されているカメラ1の視軸向きθ、および画像内で検出可能な物体の見える角θoを用いて次式(3)により算出される。
y=α(θ+θo)・・・(3)
また、カメラ1の焦点位置から物体までの距離Dは、あらかじめ測定されているカメラ設置高H、カメラ1の視軸向きθ、および物体の見える角θoによって、次式(4)により算出される。
D=H/tan(θ+θo)・・・(4)
次に、物体の幅Wsを算出する。図4(b)に示す、画像幅xwと、物体の幅角θxとの関係より、次式(5)が成立する。
xw=βθx・・・(5)
なお、βはカメラパラメータによって一意に算出できる定数である。
よって、式(5)に基づいて、物体の幅Wsは次式(6)によって算出される。
Ws=θx・D=xw/β・D・・・(6)
これにより、平衡時の画像に基づいて、式(3)、(4)、および(6)によって、画像上の物体のy座標、実空間における物体の幅Ws、およびカメラ1の焦点位置から物体までの距離Dを算出することができる。
しかし、車両に定常的なピッチングが発生した場合には、カメラ1の視軸向きθがピッチング角の分だけ変化し、この大きさが不明となるため、この場合には上述した処理によっては画像上の物体のy座標、実空間における物体の幅Ws、およびカメラ1の焦点位置から物体までの距離Dを算出することができない。よって、画像加速度3cがゼロでない画像においては、これらを以下のように算出することができる。
まず、画像加速度3cがゼロでない画像内で検出された物体と同一物体と判断できる物体が存在する異なる時刻T1、T2において撮像された平衡時の画像を画像メモリ2から読み込む。画像加速度3cがゼロでない画像内で検出された物体と同一物体であるか否かは、それぞれの画像上における物体の速度や上述したエッジ抽出処理で検出される物体の形状が近似しているか否かによって判断する。なお、本実施の形態におけるカメラ1は、高速カメラであり、極めて微小な一定時間Δt間隔、例えば2ms間隔で連続的に車両前方を撮像するものとし、異なる時刻T1、T2において撮像された平衡時の画像には必ず画像加速度3cがゼロでない画像内で検出された物体と同一物体が存在していることを前提として以下説明する。
時刻T1,T2における平衡時の画像でのカメラ1の焦点位置から物体までの距離D1、およびD2については、それぞれの時点における物体の見える角θo1、およびθo2により、式(4)を用いて次式(7)、および(8)のように表すことができる。
D1=H/tan(θ+θo1)・・・(7)
D2=H/tan(θ+θo2)・・・(8)
また、時刻T1,T2のそれぞれにおける物体の幅Wsは、それぞれの時点における物体の幅角θx1、およびθx2により、式(6)を用いて次式(9)、および(10)のように表すことができる。
Ws=θx1・D1・・・(9)
Ws=θx2・D2・・・(10)
これにより、式(9)、および(10)に式(7)、および(8)をそれぞれ代入して、次式(11)、および(12)が算出される。
Ws=θx1・H/tan(θ+θo1)・・・(11)
Ws=θx2・H/tan(θ+θo2)・・・(12)
式(11)、および式(12)において、車両に搭載されたカメラ1から車両前方の遠方を撮像する場合は、θ≒0、θo1≒0、およびθo2≒0と近似できるため、式(11)においては、tan(θ+θo1)→θ+θo1となり、式(12)においては、tan(θ+θo2)→θ+θo2となる。これにより、式(11)、および(12)は、次式(13)、および(14)で表され、これに基づいて次式(15)、および(16)を得ることができる。
Ws=θx1・H/(θ+θo1)・・・(13)
Ws=θx2・H/(θ+θo2)・・・(14)
Ws・(θ+θo1)=θx1・H・・・(15)
Ws・(θ+θo2)=θx2・H・・・(16)
ここで、式(15)から式(16)を減算することにより、次式(17)が算出され、物体の幅Wsを算出することができる。
Ws=H・(θx1−θx2) /(θo1−θo2)・・・(17)
これによって、車両にピッチングが発生したことによって、その間に撮像した画像におけるカメラ1の視軸向きθがわからない場合であっても、同一物体が検出された異なる時刻における平衡状態の画像2枚において検出可能なカメラ設置高H、画像から計測可能なθo1、θo2、θx1、およびθx2を用いて、物体の幅Wsを算出することができる。
そして、このピッチングが発生したときの画像におけるカメラ1の焦点位置から物体までの距離Dは、算出された物体の幅Wsに基づいて、式(6)を用いて次式(18)で算出できる。
D=Ws/θx =Ws・β/xw・・・(18)
これにより、カメラ1の視軸向きθは、式(4)より、カメラ1の焦点位置から物体までの距離Dを用いて次式(19)で算出できる。
θ=atan(H/D)−θo・・・(19)
以上より、車両にピッチングが発生したことによって、カメラ1の視軸向きθが変化した場合でも、異なる時刻T1、T2における平衡時の画像に基づいて、物体の幅Wsを算出し、カメラ1の視軸向きθを算出することができる。そして、カメラ1の視軸向きθが算出されると、式(3)により画像上の物体のy座標を算出することができる。
上述した処理によって算出した画像上の物体のy座標に基づいて、例えば鳥瞰図表示した地図上に物体をマッピングして、ディスプレイ4に表示する。これによって、車両にピッチングが発生した場合であっても、ピッチングによって生じる物体の画像上におけるy軸方向のずれを的確に補正して鳥瞰図上に表示することができる。
図5は、本実施の形態における物体検出装置100の処理を示すフローチャートである。図5に示す処理は車両のイグニションスイッチがオンされて、物体検出装置の電源がオンされると起動するプログラムとしてマイコン3によって実行される。ステップS10において、カメラ1によって撮像され、画像メモリ2に記憶された撮像画像を読み込む。その後、ステップS20へ進む。
ステップS20では、上述したように読み込んだ任意の画像に対して、エッジ抽出処理を実行し、オプティカルフローを算出することによって、画像速度3b、および画像加速度3cを算出して、ステップS30へ進む。ステップS30では、算出した画像加速度3cがゼロであるか否かを判断する。算出した画像加速度3cがゼロであると判断した場合には、読み込んだ画像は車両が平衡時に撮像された画像であると判断してステップS40へ進む。ステップS40では、上述したように式(3)、(4)、および(6)によって、画像上の物体のy座標、実空間における物体の幅Ws、およびカメラ1の焦点位置から物体までの距離Dを算出する。
これに対して、算出した画像加速度3cがゼロでないと判断した場合には、読み込んだ画像は車両にピッチングが発生したときに撮像された画像であると判断してステップS50へ進む。ステップS50では、上述したように撮像画像内で検出された物体と同一物体を含む異なる時刻T1、T2において撮像された平衡時の画像を画像メモリ2から読み込む。その後、ステップS60へ進み、式(17)、(18)、(19)によって、実空間における物体の幅Ws、カメラ1の焦点位置から物体までの距離D、およびカメラ1の視軸向きθを算出する。その後、ステップS70へ進み、式(3)により画像上の物体のy座標を算出する。
その後、ステップS80へ進み、算出した画像上の物体のy座標、および実空間における物体の幅Wsに基づいて、検出した物体を地図上、例えば鳥瞰図上にマッピングして、ディスプレイ4に表示して、ステップS90へ進む。ステップS90では、車両のイグニションスイッチがオフされたか否かを判断する。オフされないと判断した場合には、ステップS10へ戻って処理を繰り返す。これに対して、オフされたと判断した場合には、処理を終了する。
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)物体の画像上の画像加速度3cを算出して、物体の画像上の画像加速度3cがゼロでない画像は、その撮像時に車両にピッチングが発生していたと判断することとした。これによって、車両姿勢を検出する装置など、ピッチングの発生を検出するための装置を車両に搭載することなく、ピッチングの発生を検出することができ、装置を安価に構成することができる。
(2)車両にピッチングが発生していない状態で撮像された画像、すなわち平衡時の画像においては、カメラ設置高H、カメラ1の視軸向きθ、および物体の見える角θoに基づいてカメラ1の焦点位置から物体までの距離Dを算出し、画像幅xw、物体の幅角θx、およびカメラ1の焦点位置から物体までの距離Dに基づいて物体の幅Wsを算出することとした。これによって、物体までの距離、および物体の大きさを検出するに当たって、特別なセンサを必要とせず、簡易な構成により装置を実現することができる。
(3)車両にピッチングが発生した場合には、ピッチング発生時の画像内で検出された物体と同一物体と判断できる物体が存在する異なる時刻T1、T2において撮像された平衡時の画像に基づいて、実空間における物体の幅Wsを算出し、当該算出結果に基づいて、カメラ1の焦点位置から物体までの距離D、およびカメラ1の視軸向きθを算出することとした。これによって、ピッチングが発生してカメラ1の視軸向きθが不明な場合でも、カメラ1の視軸向きθ、検出物体までの距離、および検出物体の大きさを、正確に算出することができる。
(4)また、車両にピッチングが発生した場合には、算出したカメラ1の視軸向きθに基づいて、画像上の物体のy座標を算出して鳥瞰図表示した地図上に物体をマッピングして、ディスプレイ4に表示することとした。これによって、車両にピッチングが発生した場合であっても、ピッチングによって生じる物体の画像上におけるy軸方向のずれを的確に補正して鳥瞰図上に表示することができる。
なお、以下のように変形することもできる。
(1)上述した実施の形態では、画像速度3b、および画像加速度3cを検出するために、撮像画像に対してエッジ抽出処理を行い、オプティカルフローを算出する例について説明した。しかし、その他の方法によって画像速度3b、および画像加速度3cを検出してもよい。
(2)上述した実施の形態では、画像加速度3cがゼロである画像は、自車両が平衡状態となったときに撮像された画像であると判定する例について説明した。しかし、画像速度3bがプラス、もしくはマイナスのいずれか一方で、かつ画像加速度3cがゼロである画像を自車両が平衡状態となったときに撮像された画像であると判定してもよい。これによって、自車両のサスペンションにおける伸び側と縮み側の特性が違う場合でも、車両の平衡状態を正確に検出することができる。
(3)上述した実施の形態では、カメラ1で撮像された画像内には、一つの移動物体のみが存在している例について説明したが、これに限定されず、複数の移動物体が存在していてもよい。この場合には、画像内で検出された全ての物体に対して上述した処理を実行して、画像上の物体のy座標、実空間における物体の幅Ws、およびカメラ1の焦点位置から物体までの距離Dを算出する
(4)上述した実施の形態では、車両にピッチングが発生した場合に、カメラ1の視軸向きθが不明となることから、そのときの実空間における物体の幅Wsを算出し、カメラ1の焦点位置から物体までの距離D、カメラ1の視軸向きθ、および画像上の物体のy座標を算出する例について説明した。しかし、これに限定されず、例えば、カメラ1の取り付け位置にずれが発生してカメラ1の視軸向きθが不明な場合についても、上述した方法で実空間における物体の幅Ws、カメラ1の焦点位置から物体までの距離D、カメラ1の視軸向きθ、および画像上の物体のy座標を算出してもよい。
(5)上述した実施の形態では、検出した物体を鳥瞰図上にマッピングしてディスプレイ4に表示する例について説明した。しかし、これに限定されず、例えば平面地図等のその他の形態の地図上に物体をマッピングして表示してもよい。
特許請求の範囲の構成要素と実施の形態との対応関係について説明する。カメラ1は撮像手段に、マイコン3は画像判定手段、物体位置算出手段、加速度算出手段、速度算出手段、および物体情報算出手段に相当する。なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。
物体検出装置の一実施の形態の構成例を示すブロック図である。 車両にピッチングが発生した場合に、撮像画像内に存在する前方車両に存在する物体の位置変化の具体例を示す図である。 ピッチング角θp、画像上の物体のy軸方向の速度、画像上の物体のy軸方向の加速度の関係を示すグラフ図である。 平衡時の画像を用いて実空間における物体の高さ、物体の幅、およびカメラ1の焦点位置から物体までの距離を算出する場合の具体例を示す図である。 物体検出装置100の処理を示すフローチャート図である。
符号の説明
100 物体検出装置
1 カメラ
2 画像メモリ
3 マイコン
4 ディスプレイ

Claims (5)

  1. 自車両前方の画像を撮像する撮像手段と、
    前記撮像手段で撮像した画像(以下、「撮像画像」と呼ぶ)を画像処理して、前記撮像画像が、自車両がピッチングによる上下方向の周期運動の変極点(以下、「ピッチング変極点」と呼ぶ)にあるときに撮像されたものであるか否かを判定する画像判定手段と、
    前記画像判定手段によって前記撮像画像が自車両が前記ピッチング変極点にないときに撮像されたものであると判定されたときに、自車両が前記ピッチング変極点にあるときに撮像された撮像画像に基づいて、前記撮像画像内に存在する物体の画像上における位置を算出する物体位置算出手段と
    前記撮像画像に基づいて算出されるオプティカルフロー上で検出される、前記撮像画像内に存在する物体の画像垂直方向の加速度(以下、「画像加速度」と呼ぶ)を算出する加速度算出手段とを備え、
    前記画像判定手段は、前記加速度算出手段によって算出された前記画像加速度が0である前記撮像画像を自車両が前記ピッチング変極点にあるときに撮像されたものであると判定することを特徴とする物体検出装置。
  2. 請求項1に記載の物体検出装置において、
    前記撮像画像に基づいて算出されるオプティカルフロー上で検出される、前記撮像画像内に存在する物体の画像垂直方向の速度(以下、「画像速度」と呼ぶ)を算出する速度算出手段をさらに備え、
    前記画像判定手段は、前記加速度算出手段によって算出された前記画像加速度が0であり、かつそのときの前記速度算出手段によって算出された前記画像速度が正、および負のいずれか一方である前記撮像画像を自車両が前記ピッチング変極点にあるときに撮像されたものであると判定することを特徴とする物体検出装置。
  3. 請求項1または2に記載の物体検出装置において、
    前記画像判定手段によって前記撮像画像が自車両が前記ピッチング変極点にないときに撮像されたものであると判定された場合には、当該撮像画像と、当該撮像画像内に存在する物体と同一物体が含まれる異なる時刻に撮像された自車両が前記ピッチング変極点にあるときに撮像された撮像画像との比較結果に基づいて、実空間上における前記物体の幅を算出し、この算出結果と、前記撮像画像内における前記物体の幅とに基づいて、前記撮像手段から当該撮像画像内に存在する物体までの距離を算出する物体情報算出手段をさらに備えることを特徴とする物体検出装置。
  4. 請求項3に記載の物体検出装置において、
    前記物体位置算出手段は、前記画像判定手段によって前記撮像画像が自車両が前記ピッチング変極点にないときに撮像されたものであると判定された場合には、前記物体情報算出手段によって算出された前記撮像手段から当該撮像画像内に存在する物体までの距離に基づいて、当該撮像画像を撮像した時点における前記撮像手段の視軸向きを算出し、算出した前記撮像手段の視軸向きに基づいて、画像上における物体の位置を算出することを特徴とする物体検出装置。
  5. 撮像手段で撮像した自車両前方の画像(以下、「撮像画像」と呼ぶ)を画像処理して、前記撮像画像が自車両がピッチングによる上下方向の周期運動の変極点(ピッチング変極点)にあるときに撮像されたものであるか否かを判定し、
    前記撮像画像が自車両が前記ピッチング変極点にないときに撮像されたものであると判定されたときに、自車両が前記ピッチング変極点にあるときに撮像された撮像画像に基づいて、前記撮像画像内に存在する物体の画像上における位置を算出し、
    前記撮像画像に基づいて算出されるオプティカルフロー上で検出される、前記撮像画像内に存在する物体の画像垂直方向の加速度(以下、「画像加速度」と呼ぶ)を算出し、
    前記画像加速度が0である前記撮像画像を自車両が前記ピッチング変極点にあるときに撮像されたものであると判定することを特徴とする物体検出方法。
JP2004351086A 2004-12-03 2004-12-03 物体検出装置、および物体検出方法 Active JP4026641B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004351086A JP4026641B2 (ja) 2004-12-03 2004-12-03 物体検出装置、および物体検出方法
US10/575,216 US7840026B2 (en) 2004-12-03 2005-12-02 Apparatus and method for detecting objects
EP05856157A EP1820020B1 (en) 2004-12-03 2005-12-02 Apparatus and method for detecting objects
PCT/IB2005/003652 WO2006092658A2 (en) 2004-12-03 2005-12-02 Apparatus and method for detecting objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004351086A JP4026641B2 (ja) 2004-12-03 2004-12-03 物体検出装置、および物体検出方法

Publications (2)

Publication Number Publication Date
JP2006163569A JP2006163569A (ja) 2006-06-22
JP4026641B2 true JP4026641B2 (ja) 2007-12-26

Family

ID=36665547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004351086A Active JP4026641B2 (ja) 2004-12-03 2004-12-03 物体検出装置、および物体検出方法

Country Status (4)

Country Link
US (1) US7840026B2 (ja)
EP (1) EP1820020B1 (ja)
JP (1) JP4026641B2 (ja)
WO (1) WO2006092658A2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8164628B2 (en) * 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
JP5108605B2 (ja) * 2008-04-23 2012-12-26 三洋電機株式会社 運転支援システム及び車両
KR101748180B1 (ko) * 2010-12-31 2017-06-16 주식회사 케이티 영상으로부터 피사체의 크기를 측정하기 위한 방법 및 장치
EP2551638B1 (en) * 2011-07-27 2013-09-11 Elektrobit Automotive GmbH Technique for calculating a location of a vehicle
JP2013097675A (ja) * 2011-11-02 2013-05-20 Honda Elesys Co Ltd 勾配推定装置、勾配推定方法、及び勾配推定プログラム
CN106030401B (zh) * 2014-02-28 2019-10-11 夏普株式会社 摄像模块和摄像装置
US20150286878A1 (en) * 2014-04-08 2015-10-08 Bendix Commercial Vehicle Systems Llc Generating an Image of the Surroundings of an Articulated Vehicle
US10363874B2 (en) * 2017-09-19 2019-07-30 Ford Global Technologies, Llc Hitch assist system with hitch coupler identification feature and hitch coupler height estimation

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7164117B2 (en) * 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
JPH01273746A (ja) 1988-04-25 1989-11-01 Mazda Motor Corp 移動車の画像処理装置
US7359782B2 (en) * 1994-05-23 2008-04-15 Automotive Technologies International, Inc. Vehicular impact reactive system and method
US6768944B2 (en) * 2002-04-09 2004-07-27 Intelligent Technologies International, Inc. Method and system for controlling a vehicle
JP3910345B2 (ja) 1999-07-13 2007-04-25 本田技研工業株式会社 位置検出装置
US6531959B1 (en) * 1999-07-13 2003-03-11 Honda Giken Kogyo Kabushiki Kaisha Position detecting device
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
GB0106175D0 (en) 2001-03-13 2001-05-02 Autoliv Dev Improvements in or relating to a safety arrangement
JP3747863B2 (ja) 2002-02-22 2006-02-22 日産自動車株式会社 車載用測距装置
JP4019736B2 (ja) * 2002-02-26 2007-12-12 トヨタ自動車株式会社 車両用障害物検出装置
DE10301401B4 (de) 2002-08-03 2007-08-16 Suspa Holding Gmbh Hubvorrichtung, deren Verwendung sowie Kraftfahrzeug mit einer Fußgängerschutz-Vorrichtung
DE20320551U1 (de) 2003-07-07 2004-10-14 Ise Innomotive Systems Europe Gmbh Vorrichtung zum Schutz von Personen bei einem fronthaubenseitigen Aufprall auf ein Kraftfahrzeug
US7197388B2 (en) * 2003-11-06 2007-03-27 Ford Global Technologies, Llc Roll stability control system for an automotive vehicle using an external environmental sensing system
US7164177B2 (en) * 2004-01-02 2007-01-16 Powerchip Semiconductor Corp. Multi-level memory cell
JP4052650B2 (ja) * 2004-01-23 2008-02-27 株式会社東芝 障害物検出装置、方法及びプログラム
JP4461091B2 (ja) * 2004-11-30 2010-05-12 本田技研工業株式会社 位置検出装置及びその補正方法
JP4650079B2 (ja) * 2004-11-30 2011-03-16 日産自動車株式会社 物体検出装置、および方法
JP4544028B2 (ja) * 2005-05-13 2010-09-15 日産自動車株式会社 車載画像処理装置、および画像処理方法

Also Published As

Publication number Publication date
EP1820020A2 (en) 2007-08-22
EP1820020B1 (en) 2012-04-18
JP2006163569A (ja) 2006-06-22
US20080247596A1 (en) 2008-10-09
WO2006092658A3 (en) 2009-04-16
EP1820020A4 (en) 2009-10-21
WO2006092658A2 (en) 2006-09-08
US7840026B2 (en) 2010-11-23

Similar Documents

Publication Publication Date Title
US10620000B2 (en) Calibration apparatus, calibration method, and calibration program
JP5375958B2 (ja) 画像処理装置および画像処理方法
JP2008182652A (ja) カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法
JP4670528B2 (ja) 撮像装置のずれ検出方法、撮像装置のずれ補正方法及び撮像装置
JP2011065338A (ja) 対象物追跡装置及びプログラム
JP2002197469A (ja) 車線検出装置
JP6032034B2 (ja) 物体検知装置
JP2017004176A (ja) 路面標示検出装置及び路面標示検出方法
JP2013002884A (ja) 測距装置
US7840026B2 (en) Apparatus and method for detecting objects
WO2019044625A1 (ja) 衝突予測装置、衝突予測方法及びプログラム
JP2011175572A (ja) 車線認識装置
JP2013092820A (ja) 距離推定装置
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP2009075124A (ja) 距離検出装置
JP2000353300A (ja) 物体認識装置
JP4762774B2 (ja) 測距装置および車両の周辺監視装置
JP2004126905A (ja) 画像処理装置
JP2009014645A (ja) 車両用距離測定装置
US11837121B2 (en) Display correction system, display system, and display correction method
JP7411108B2 (ja) 車両姿勢推定システムおよび車両姿勢推定方法
JP5272431B2 (ja) 対象物測距装置及びプログラム
EP3896387B1 (en) Image processing device
JP2006327495A (ja) 無限遠点決定装置
JP2018073049A (ja) 画像認識装置、画像認識システム、及び画像認識方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071001

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4026641

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111019

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121019

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121019

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131019

Year of fee payment: 6