JP4246690B2 - 画像情報処理システム、画像情報処理方法、画像情報処理プログラムおよび自動車 - Google Patents

画像情報処理システム、画像情報処理方法、画像情報処理プログラムおよび自動車 Download PDF

Info

Publication number
JP4246690B2
JP4246690B2 JP2004347736A JP2004347736A JP4246690B2 JP 4246690 B2 JP4246690 B2 JP 4246690B2 JP 2004347736 A JP2004347736 A JP 2004347736A JP 2004347736 A JP2004347736 A JP 2004347736A JP 4246690 B2 JP4246690 B2 JP 4246690B2
Authority
JP
Japan
Prior art keywords
image
variable
image area
image information
measured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004347736A
Other languages
English (en)
Other versions
JP2006157727A (ja
Inventor
一憲 金井
伸治 長岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004347736A priority Critical patent/JP4246690B2/ja
Priority to US11/289,119 priority patent/US7672481B2/en
Publication of JP2006157727A publication Critical patent/JP2006157727A/ja
Application granted granted Critical
Publication of JP4246690B2 publication Critical patent/JP4246690B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • B60K2360/21

Description

本発明は、移動体に搭載された赤外線カメラによ撮影された対象物の画像を処理して、この移動体に搭載された画像表示装置に該対象物の画像情報を表示させるシステム、方法、当該画像情報処理機能をコンピュ−タに付与するプログラムおよび当該システムが搭載された移動体としての自動車に関する。
従来、自動車に搭載された赤外線カメラにより撮影された対象物(人間)の画像に基づき、この対象物に応じた画像領域が当該自動車に搭載された画像表示装置に表示される技術が提案されている(たとえば、特許文献1参照)。
特開2003−134508号公報 請求項1
しかし、赤外線カメラの特性や、自動車および対象物の相対的な運動が比較的急なものであること、対象物が他の物体の陰に隠れたこと等の原因により、画像表示装置に表示される画像領域が、その位置や大きさ、さらにはその数が急激に変動する等、不安定なものとなる場合がある。
たとえば、図5(a)に示されているように画像表示装置に対象物である人間O1に応じた矩形状の画像領域A1が強調表示されている状態で、人間O1のそばにある自動O2のヘッドランプの光が強まった場合、図5(b)および図5(c)に示されているようにヘッドランプに応じた画像領域A1が強調表示されることがある。また、図5(a)に示されている状態で自動車が比較的速く左折しながら走行している等、自動車および人間O1の相対運動が急なものである場合、この相対運動に人間O1の認識が追従しきれずに人間O1に応じた画像情報A1が画像表示装置から消滅することがある。さらに、人間O1の身体の一部が自動車O2の陰に隠れたため、図5(d)に示されているように画像表示装置に強調表示される枠A1が人間の身体の一部を包含するだけの小さいものとなったり、図5(e)に示されているように画像表示装置から画像領域A1が消滅したりすることがある。このように画像表示装置に強調表示される画像領域A1が不安定だと、自動車の運転手等、画像表示装置を見ている者に不安を覚えさせてしまうおそれがある。
そこで、本発明は、赤外線カメラを通じて認識される対象物の画像領域が不安定なものであっても、当該対象物の画像情報を画像表示装置に安定に表示させ得るシステム、方法、当該機能をコンピュ−タに付与し得るプログラムおよび当該システムを搭載した自動車を提供することを解決課題とする。
第1発明の画像情報処理システムは、移動体に搭載された赤外線カメラによ撮影された対象物の画像を処理して、前記移動体に搭載された画像表示装置に前記対象物の画像情報を表示させるシステムであって、前記移動体の走行状態に応じた第1変数を測定する第1変数測定手段と、前記赤外線カメラを通じて対象物の位置に応じた第2変数を測定する第2変数測定手段と、前記第2変数測定手段により測定された前記第2変数に基づき、前記対象物に応じた画像領域を第1画像領域として認識する第1画像領域認識手段と、前記第1変数測定手段により測定された前記第1変数と、前記第2変数測定手段により測定された前記第2変数とに基づき、前記第1画像領域認識手段により認識される画像領域を推定した上で第2画像領域として認識する第2画像領域認識手段と、前記第1画像領域認識手段により認識された前記第1画像領域が安定である場合、その第1画像領域に応じた第1画像情報を前記画像表示装置に表示させる一方、前記第1画像領域認識手段により認識された前記第1画像領域が不安定である場合、前記第2画像領域認識手段により認識された前記第2画像領域に応じた第2画像情報を前記画像表示装置に表示させる画像情報制御手段とを備えていることを特徴とする。
第1発明の画像情報処理システムによれば、第1画像領域認識手段が、第2変数測定手段により赤外線カメラを通じて測定された対象物の位置に応じた第2変数に基づき、当該対象物に応じた画像領域を「第1画像領域」として認識する。また、第2画像領域認識手段が、第1変数測定手段により測定された移動体の走行状態に応じた第1変数と、第2変数測定手段により測定された第2変数とに基づき、第1画像領域認識手段により認識される画像領域を推定した上で、この推定画像領域を「第2画像領域」として認識する。そして、第1画像領域が安定である場合、この安定な第1画像領域に応じた第1画像情報が画像表示装置に表示される。一方、第1画像領域が不安定である場合、この不安定な第1画像領域に代えて安定な第1画像領域として推定された第2画像領域に応じた第2画像情報が画像表示装置に表示される。これにより、赤外線カメラを通じて認識された対象物に応じた第1画像領域が不安定なものであっても、当該対象物の画像情報を画像表示装置に安定に表示させることができる。
第2発明の画像情報処理システムは、第1発明の画像情報処理システムにおいて、前記第2画像領域認識手段が、前記第1変数測定手段により測定された第1変数と、前記第2変数測定手段により測定された前記第2変数とに基づき、前記第2変数測定手段により将来測定される前記第2変数を推定した上で、この推定した前記第2変数に基づいて前記第2画像領域を認識することを特徴とする。
第3発明の画像情報処理システムは、第2発明の画像情報処理システムにおいて、前記第2変数測定手段が前記第2変数の一部または全部を対象物の位置を表すクォ−タニオンとして測定し、前記第2画像領域認識手段が、前記第1変数測定手段により測定された前記第1変数と、前記第2変数測定手段により測定された前記第2変数とに基づいた空間変位を表現するクォ−タニオンを用いて前記第2変数を推定することを特徴とする。
第4発明の画像情報処理システムは、第3発明の画像情報処理システムにおいて、前記第1変数測定手段が、前記移動体の速度およびある軸回りの角速度を前記第1変数として測定し、前記第2画像領域認識手段が、前記第1変数測定手段により測定された前記速度および前記角速度により特定される旋回運動を表現するクォ−タニオンを用いて前記第2変数を推定することを特徴とする。
第5発明の画像処理システムは、第1発明の画像情報処理システムにおいて、前記第2変数測定手段により測定された前記第2変数が不安定である場合、前記第2画像領域認識手段が、それより前に前記第2変数測定手段により測定された前記第2変数に基づいて前記第2画像領域を認識することを特徴とする。
第5発明の画像情報処理システムによれば、不安定な第2変数に基づく第2画像領域の認識が回避され、これにより第2画像領域が安定なものとして認識され得る。
第6発明の画像処理システムは、第5発明の画像情報処理システムにおいて、前記第2画像領域認識手段が、前記第2変数測定手段による前記第2変数の測定が不能になったとき、または、前記第2変数測定手段により測定された前記第2変数の変動量が閾値を超えたとき、前記第2変数が不安定であると判定することを特徴とする。
第7発明の画像女王処理システムは、第発明の画像情報処理システムにおいて、前記画像情報制御手段が、前記第1画像領域認識手段により前記第1画像領域の一または複数の代表点と、前記第2画像領域認識手段により認識された前記第2画像領域の一または複数の代表点との偏差またはその平均が閾値を超えたとき前記第1画像領域が不安定であると判定することを特徴とする。
第7発明の画像情報処理システムによれば、第1画像領域の代表点と、第2画像領域の代表点との偏差が閾値以下である場合、第1画像領域は「安定」であると判定され、この第1画像領域に応じた第1画像情報が画像表示装置に表示される。一方、当該偏差が閾値を超える場合、第1画像領域は「不安定」であると判定され、この第1画像領域に代えて第2画像領域に応じた第2画像情報が画像表示装置に表示される
第8発明の画像情報処理方法は、移動体に搭載された赤外線カメラによ撮影された対象物の画像を処理して、前記移動体に搭載された画像表示装置に前記対象物の画像情報を表示させる方法であって、前記移動体の走行状態に応じた第1変数を測定する第1変数測定ステップと、前記赤外線カメラを通じて前記対象物の位置に応じた第2変数を測定する第2変数測定ステップと、前記第2変数測定ステップにおいて測定された前記第2変数に基づき、前記対象物に応じた画像領域を第1画像領域として認識する第1画像領域認識ステップと、前記第1変数測定ステップにおいて測定された前記第1変数と、前記第2変数測定ステップにおいて測定された前記第2変数とに基づき、前記第1画像領域認識ステップにおいて認識される画像領域を推定した上で第2画像領域として認識する第2画像領域認識ステップと、前記第1画像領域認識ステップにおいて認識された前記第1画像領域が安定である場合、その第1画像領域に応じた第1画像情報を前記画像表示装置に表示させる一方、前記第1画像領域認識ステップにおいて認識された前記第1画像領域が不安定である場合、前記第2画像領域認識手段により認識された前記第2画像領域に応じた第2画像情報を前記画像表示装置に表示させる画像情報制御ステップとを備えていることを特徴とする。
第8発明の画像情報処理方法によれば、赤外線カメラを通じて認識された対象物に応じた第1画像領域が不安定なものであっても、当該対象物の画像情報を画像表示装置に安定に表示させることができる。
第9発明の画像情報処理プログラムは、移動体に搭載された赤外線カメラによ撮影された対象物の画像を処理して、前記移動体に搭載された画像表示装置に前記対象物の画像情報を表示させる機能をコンピュ−タに付与するプログラムであって、前記移動体の走行状態に応じた第1変数を測定する第1変数測定機能と、前記赤外線カメラを通じて前記対象物の位置に応じた第2変数を測定する第2変数測定機能と、前記第2変数測定機能により測定された前記第2変数に基づき、前記対象物に応じた画像領域を第1画像領域として認識する第1画像領域認識機能と、前記第1変数測定機能により測定された前記第1変数と、前記第2変数測定機能により測定された前記第2変数とに基づき、前記第1画像領域認識機能により認識される画像領域を推定した上で第2画像領域として認識する第2画像領域認識機能と、前記第1画像領域認識機能により認識された前記第1画像領域が安定である場合、その第1画像領域に応じた第1画像情報を前記画像表示装置に表示させる一方、前記第1画像領域認識機能により認識された前記第1画像領域が不安定である場合、前記第2画像領域認識手段により認識された前記第2画像領域に応じた第2画像情報を前記画像表示装置に表示させる画像情報制御機能とを前記コンピュ−タに付与することを特徴とする。
第9発明の画像情報処理プログラムによれば、赤外線カメラを通じて認識された対象物に応じた第1画像領域が不安定なものであっても、当該対象物の画像情報を画像表示装置に安定に表示させる機能をコンピュ−タに付与することができる。
第10発明の自動車は、前記移動体として第1発明の画像情報処理システムが搭載されていることを特徴とする。
第10発明の自動車によれば、赤外線カメラを通じて認識された対象物に応じた第1画像領域が不安定なものであっても、当該対象物の画像情報を画像表示装置に安定に表示させ、移動体の運転手等に当該対象物の存在を確実に認識させることができる。
本発明の画像情報処理システム、方法、プログラムおよび自動車の実施形態について図面を用いて説明する。
図1に示されている情報提供システム100は、自動車(移動体)200の適当な位置に搭載されている。自動車200には車速vに応じた信号を出力する車速センサ201と、後輪軸を通る垂直軸回りの自動車200の角速度ωに応じた信号を出力するヨーレートセンサ202とを備えている。また、自動車200のフロント部分には、左右2つの赤外線カメラ210が搭載されている。さらに自動車200のフロントウィンドウには運転手の前方視界の妨げとならない位置にHUD(Head Up Display)(画像表示装置)220が搭載されている。
画像情報処理システム100は、第1変数測定ユニット111と、第2変数測定ユニット112と、第1画像領域認識ユニット121と、第2画像領域認識ユニット122と、合成画像領域認識ユニット130と、画像情報制御ユニット140とを備えている。各ユニットは、ハ−ドウェアとしてのCPU,ROM,RAM等と、後述の画像情報処理方法の実行機能を当該ハ−ドウェアに付与するソフトウェアとしての本発明の「画像情報処理プログラム」とにより構成されている。
第1変数測定ユニット111は、車速センサ201およびヨーレートセンサ202のそれぞれの出力に基づき、車速vおよび後輪軸を通る垂直軸回りの自動車200の角速度ωを自動車200の走行状態に応じた第1変数X1として測定する。第2変数測定ユニット112は、2つの赤外線カメラ210のうち一方または両方を通じて、赤外線カメラ210を基準とした対象物までの距離、対象物の縦横方向の位置およびサイズを、対象物の位置に応じた第2変数X2として測定する。第1画像領域認識ユニット121は、第2変数測定ユニット112により測定された第2変数X2に基づき、対象物に応じた画像領域を第1画像領域A1として認識する。第2画像領域認識ユニット122は、第1変数測定ユニット111により測定された第1変数X1と、第2変数測定ユニット112により測定された第2変数X2とに基づき、第1画像領域認識ユニット121が認識する画像領域を推定した上で、これを第2画像領域A2として認識する。合成画像領域認識ユニット130は、第1画像領域認識ユニット121により認識された第1画像領域A1と、第2画像領域認識ユニット122により認識された第2画像領域A2とを合成した上で、これを合成画像領域Aとして認識する。
画像情報制御ユニット140は、第1画像領域認識ユニット121により認識された第1画像領域A1を囲む第1の枠を「第1画像情報」としてHUD220に表示させる。また、画像情報制御ユニット140は、第2画像領域認識ユニット122により認識された第2画像領域A2を囲む第2の枠を「第2画像情報」としてHUD220に表示させる。さらに画像情報制御ユニット140は、合成画像領域認識ユニット130により認識された合成画像領域Aを囲む枠を「合成画像情報」としてHUD220に表示させる。
前記構成の画像情報処理システムにより実行される本発明の第1実施形態の画像情報処理方法について図2〜図7を用いて説明する。
まず所定のタイミングで制御サイクル回数nが「1」にリセットされ(S101)、第2変数X2が不安定であると判定された累積回数mが「0」にリセットされる(S102)。所定のタイミングとしては第1画像領域認識ユニット121により認識された第1画像領域A1が人間、自動車等の所定の対象物に対応するものであることを認識したとき等が採用される。
また第1変数測定ユニット111が車速v(n)および角速度ω(n)を第1変数X1(n)として測定する(S111)。さらに、これに並行して第2変数測定ユニット112が赤外線カメラ210を通じて対象物までの距離、縦横方向の位置およびサイズを第2変数X2(n)として測定する(S112)。第2変数X2(n)の測定方法については、特開2002−298298号公報等に開示されているもの等が採用されれば足りるので、本願明細書ではその詳細な説明を省略する。
さらに第1画像領域認識ユニット121が、第2変数測定ユニット112により測定された第2変数X2(n)に基づき、対象物に応じた画像領域を第1画像領域A1として認識する(S121)。これにより、たとえば図5(a)〜図5(e)に示されているように変動する矩形状の第1画像領域A1が認識される。第1画像領域A1の認識方法については、特開2002−2982982号公報等に開示されているもの等、3次元画像処理分野における一般的手法が採用されれば足りるので、本願明細書ではその詳細な説明を省略する。
また第2画像領域認識ユニット122が、後述する第2画像領域A2(n)の認識(S122)に先立ち第2変数X2(n)が「安定」であるかまたは「不安定」であるかを判定する(S113)。具体的には、第2変数X2(n)が測定可能であるときまたはその変動量(δ=|X2(n)−X2(n−1)|)が閾値ε(>0)以下であるとき、第2変数X2(n)は「安定」であると判定される(S113‥YES)。一方、第2変数X2(n)が測定不能であるとき(測定されなかったとき)またはその変動量δが閾値εを超えるとき、第2変数X2(n)は「不安定」であると判定される(S113‥NO)。
そして、第2画像領域認識ユニット122は、第2変数X2(n)が「安定」であると判定したとき(S113‥YES)、第2変数X2(n)(測定値)を今回の制御サイクルnにおける第2変数X2(n)とした上で(S114)、第2画像領域A2(n)を認識する(S122)。その一方、第2画像領域認識ユニット122は、第2変数X2(n)が「不安定」であると判定したとき(S113‥NO)、当該判定回数mを「1」だけ増加させ(S115)、前回の制御サイクルn−1において後述する手順にしたがって第2画像領域認識ユニット122により推定された時刻nにおける第2変数X2(n)(推定値)を今回の第2変数X2(n)とした上で(S116)、第2画像領域A2(n)を認識する(S122)。
第2画像領域認識ユニット122は、第2画像領域A2(n)の認識(S122)に際して、時刻(制御サイクル回数で表す。)n−1(過去)における車速v(n−1)、角速度ω(n−1)、およびカメラ位置pc(n−1)に対する対象物位置p2(n−1)と、時刻n(現在)における車速v(n)、角速度ω(n)、およびカメラ位置pc(n)に対する対象物位置p2(n)とに基づき、時刻n+1(未来)におけるカメラ位置pc(n+1)に対する対象物位置p2(n+1)を第2変数X2(n+1)の一部として推定する。第2変数X2(n+1)の推定に際して、図1に示されているようにX軸が自動車200の左右方向、上下方向および前後方向にそれぞれX軸、Y軸およびZ軸が定義された3次元空間における車両位置p1(i)、カメラ位置pc(i)および対象物位置p2(i)はそれぞれクォ−タニオン(四元数)により表現される。
カメラ位置pc(n+1)に対する対象物位置p2(n+1)の推定方法について図3を用いて詳細に説明する。
カメラ位置pc(n)から対象物位置p2(n−1)まで延びるベクトル(図3矢印c(n)−参照)が、(1)カメラ位置pc(n)から車両位置p1(n)まで延びるベクトル(図3破線b(n)参照)、(2)車両位置p1(n)から車両位置p1(n−1)まで延びるベクトル(図3破線A(n)参照)、(3)車両位置p1(n−1)からカメラ位置pc(n−1)まで延びるベクトル(図3線分b(n−1)参照)および(4)カメラ位置pc(n−1)から対象物位置p2(n−1)まで延びるベクトル(図3矢印c(n−1)参照)の合成ベクトルで表されることに基づき、カメラ位置pc(n)に対する対象物位置p2(n−1)が定められる。
(1)カメラ位置pc(n)から車両位置p1(n)まで延びるベクトル(図3破線b(n)参照)は、メモリにより記憶保持されている後輪軸中央部および赤外線カメラ210の位置関係に関するデ−タに基づいて定められる。
(2)車両位置p1(n)から車両位置p1(n−1)まで延びるベクトル(図3破線A(n)参照)は、時刻n−1から時刻nまでの微小時間δtにわたり、自動車200が旋回運動をしていたと仮定された上で定められる。具体的には、第1変数測定ユニット111により時刻n−1において測定された車速v(n−1)および角速度ω(n−1)に基づき、後輪軸の延長線上に位置する旋回軸O(n−1)および旋回半径(自動車200の後輪軸中央から旋回軸O(n−1)までの距離)R(n−1)(=v(n−1)/ω(n−1))が定められる。また、車両位置p1(n)に基づき、旋回軸O(n−1)回りの旋回を表すためのクォ−タニオンQn−およびその共役クォ−タニオンQn−*を含む次式(1)にしたがって車両位置p1(n−1)が定められる。これにより車両位置p1(n)から車両位置p1(n−1)まで延びるベクトルが定められる(図3破線A(n)参照)。
p1(n−1)=Qn−*p1(n)Qn−
Qn−=[0,−sin{ω(n−1)δt/2},0,cos{ω(n−1)δt/2}],
Qn−*=[0,sin{ω(n−1)δt/2},0,cos{ω(n−1)δt/2}] ・・(1)
(3)車両位置p1(n−1)からカメラ位置pc(n−1)まで延びるベクトル(図3線分b(n−1)参照)は、後輪軸の延長線が旋回軸O(n−1)にあるという条件により定まる時刻n−1における車両の姿勢と、メモリにより記憶保持されている後輪軸中央部および赤外線カメラ210の位置関係に関するデ−タとに基づいて定められる。
(4)カメラ位置pc(n−1)から対象物位置p2(n−1)まで延びるベクトル(図3矢印c(n−1)参照)は、時刻n−1において赤外線カメラ210により撮影された対象物の画像に基づき、第2変数測定ユニット122が測定した当該対象物の位置に応じた第2変数により定められる。
これにより、カメラ位置pc(n)から対象物位置p2(n−1)まで延びるベクトル(図3矢印c(n)−参照)、ひいてはカメラ位置pc(n)に対する対象物位置p2(n−1)が求められる。
また、カメラ位置pc(n)から対象物位置p2(n+1)まで延びるベクトル(図3矢印c(n)+参照)が、(5)カメラ位置pc(n)から対象物位置p2(n)まで延びるベクトル(図3矢印c(n)参照)および(6)対象物位置p2(n)から対象物位置p2(n+1)まで延びるベクトル(図3矢印d(n+1)参照)の合成ベクトルで表されることに基づき、カメラ位置pc(n)に対する対象物位置p2(n+1)が推定される。
(5)カメラ位置pc(n)から対象物位置p2(n)まで延びるベクトル(図3矢印c(n)参照)は、時刻nにおいて赤外線カメラ210により撮影された対象物の画像に基づき、第2変数測定ユニット122が時刻nにおいて測定した第2変数により定められる。
(6)対象物位置p2(n)から対象物位置p2(n+1)まで延びるベクトル(図3矢印d(n+1)参照)は、対象物が時刻nから時刻n+1までの微小時間δtにわたり、時刻n−1から時刻nまでの微小時間δtと同様の運動をすると仮定された上で、対象物位置p2(n)を始点とし、対象物位置p2(n−1)から対象物位置p2(n)まで延びるベクトル(図3矢印d(n))と同じ大きさおよび向きを有するベクトルとして定められる。
これにより、カメラ位置pc(n)から対象物位置p2(n+1)まで延びるベクトル(図3矢印c(n)+参照)、ひいてはカメラ位置pc(n)に対する対象物位置p2(n+1)が定められる。
さらにカメラ位置pc(n+1)から対象物位置p2(n+1)まで延びるベクトル(図3矢印c(n+1)参照)が、(7)カメラ位置pc(n+1)から車両位置p1(n+1)まで延びるベクトル(図3破線b(n+1)参照)、(8)車両位置p1(n+1)から車両位置p1(n)まで延びるベクトル(図3破線A(n+1)参照)、(9)車両位置p1(n)からカメラ位置pc(n)まで延びるベクトル(図3線分b(n)参照)および(10)カメラ位置pc(n)から対象物位置p2(n+1)まで延びるベクトル(図3矢印c(n+1)参照)の合成ベクトルで表されることに基づき、カメラ位置pc(n+1)に対する対象物位置p2(n+1)が定められる。
(7)カメラ位置pc(n)から車両位置p1(n)まで延びるベクトル(図3破線b(n+1)参照)は、後輪軸の延長線が旋回軸O(n)(後述)にあるという条件により定まる時刻n+1における車両の姿勢と、メモリにより記憶保持されている後輪軸中央部および赤外線カメラ210の位置関係に関するデ−タに基づいて定められる。このベクトル(7)は、次に述べるベクトル(8)が定められた後に定められる。
(8)車両位置p1(n+1)から車両位置p1(n)まで延びるベクトル(図3破線A(n+1)参照)は、時刻nから時刻n+1までの微小時間δtにわたり、自動車200が旋回運動すると仮定された上で定められる。具体的には、まず第1変数測定ユニット111により時刻nにおいて測定された車速v(n)および角速度ω(n)に基づき、後輪軸の延長線上に位置する旋回軸O(n)および旋回半径(自動車200の後輪軸中央から旋回軸O(n)までの距離)R(n)(=v(n)/ω(n))が定められる。また、車両位置p1(n)に基づき、旋回軸O(n)回りの旋回を表すためのクォ−タニオンQn+およびその共役クォ−タニオンQn+*を含む次式(2)にしたがって車両位置p1(n+1)が定められる。これにより車両位置p1(n+1)から車両位置p1(n)まで延びるベクトルが定められる(図3破線A(n+1)参照)。
p1(n+1)=Qn+*p1(n)Qn+
Qn+=[0,sin{ω(n)δt/2},0,cos{ω(n)δt/2}],
Qn+*=[0,−sin{ω(n)δt/2},0,cos{ω(n)δt/2}] ・・(2)
(9)車両位置p1(n)からカメラ位置pc(n)まで延びるベクトル(図3線分b(n)参照)は、メモリにより記憶保持されている後輪軸中央部および赤外線カメラ210の位置関係に関するデ−タとに基づいて定められる。
(10)カメラ位置pc(n)から対象物位置p2(n+1)まで延びるベクトル(図3矢印c(n+1)参照)は、先に定められているものが使われる。
これにより、カメラ位置pc(n+1)から対象物位置p2(n+1)まで延びるベクトル(図3矢印c(n+1)参照)、ひいてはカメラ位置pc(n+1)に対する対象物位置p2(n+1)が求められる。そして、第2画像領域認識ユニット122は、時刻n+1(将来)におけるカメラ位置pc(n+1)に対する対象物位置p2(n+1)に基づき、第1画像領域認識ユニット121と同様の前記方法にしたがって、時刻n+1(将来)において第1画像領域認識ユニット121が認識する第1画像領域A(n+1)を推定し、これを第2画像領域A2として認識する。これにより、たとえば図6(a)〜図6(e)に示されているように変化する矩形状の第2画像領域A2が認識される。
続いて画像情報制御ユニット140が、第1画像領域認識ユニット121により認識された第1画像領域A1(n)と、第2画像領域認識ユニット122により認識された第2画像領域A2(n)との重なり部分の有無を判定する(S123)。
そして、画像情報制御ユニット140が、当該重なり部分があると判定した場合(S123‥YES)、合成画像領域認識ユニット130は第1画像領域A1(n)および第2画像領域A2(n)を合成した上で、これを合成画像領域Aとして認識する(S130)。具体的には、第1画像領域A1および第2画像領域A2のそれぞれの代表点の座標の「平均」または「重み付き平均」を代表点の座標とする領域が両者の合成画像領域Aとして認識される。第1画像領域A1および第2画像領域A2がそれぞれベクトルで表現されるとすると、合成画像領域Aは次式(3)にしたがって認識される。
A=C1・A1+C2・A2 (C1>0,C2>0,C1+C2=0) ・・(3)
第1画像領域A1および第2画像領域A2がそれぞれ合成画像領域Aに反映される程度を示す第1重み係数C1および第2重み係数C2は、前回の制御サイクルn−1における第1画像領域A1(n−1)を基準とした、今回の制御サイクルnにおける第1画像領域A1(n)および第2画像領域A2(n)のそれぞれの偏差等の諸因子に基づき可変に設定されてもよい。
また、画像情報制御ユニット140が合成画像領域Aを囲む合成枠(合成画像情報)をHUD220に表示させる(S140)。たとえば図4(a)に示されているように第1画像領域認識ユニット121により認識された矩形状の第1画像領域A1と、第2画像領域認識ユニット122により認識された矩形状の第2画像領域A2とが重なっている場合、両画像領域の四隅(代表点)の座標の平均または重み付き平均を四隅の座標とする図4(b)に示されているような矩形状の合成画像領域Aを囲む合成枠がHUD220に表示される(S130, S140参照)。
一方、画像情報制御ユニット140は、当該重なり部分がないと判定した場合(S123‥NO)、第1画像領域A1を囲む第1の枠(第1画像情報)をHUD220に表示させるとともに(S141)、第2画像領域A2を囲む第2の枠(第2画像情報)とをHUD220に表示させる(S142)。たとえば図4(c)に示されているように第1画像領域認識ユニット121により認識された矩形状の第1画像領域A1と、第2画像領域認識ユニット122により認識された矩形状の第2画像領域A2とが重なっていない場合、図4(c)に示されているように第1画像領域A1を囲む第1の枠と、第2画像領域A2を囲む第2の枠とがHUD220に表示される(S141,S142参照)。なお、第1画像領域A1が認識されなかった場合、第1の枠はHUD220に表示されず、同様に第2画像領域A2が認識されなかった場合、第2の枠はHUD220に表示されない。
その後、第2変数X2(n)が不安定であるとの判定回数mが所定値M未満であるとき(S190‥NO)、制御サイクル回数nが「1」だけ増大された上で(S191)、第1パラメ−タX1(n)の測定(S111)、第2パラメ−タX2(n)の測定(S112)等の前記処理が繰り返される。一方、当該判定回数mが所定値M以上であるとき(S190‥YES)、当該対象物についての画像情報処理方法が終了する。
本発明の第1実施形態の画像情報処理方法によれば、第1画像領域認識ユニット121により図5(a)〜図5(e)に示されているように変化する第1画像領域A1が認識され、第2画像領域認識ユニット122により図6(a)〜図6(e)に示されているように変化する第2画像領域A2が認識された場合、HUD220に表示される枠(画像情報)は図7(a)〜図7(e)に示されているように変化する。
すなわち、図5(a)に示されている第1画像領域A1と、図6(a)に示されている第2画像領域とが同一である場合(全てが重なり部分である場合)、図7(a)に示されているように第1画像領域A1および第2画像領域A2と同一の合成画像領域Aを囲う合成枠がHUD220に表示される。
また、図5(b)に示されている第1画像領域A1と、図6(b)に示されている第2画像領域A2とは重なり部分がない場合、図7(b)に示されているように第1画像領域A1を囲う第1の枠および第2画像領域A2を囲う第2の枠が別個にHUD220に表示される。同様に、図5(c)に示されている第1画像領域A1と、図6(c)に示されている第2画像領域A2とは重なり部分がない場合、図7(c)に示されているように第1画像領域A1を囲う第1の枠および第2画像領域A2を囲う第2の枠が別個にHUD220に表示される。
さらに図5(d)に示されている第1画像領域A1と、図6(d)に示されている第2画像領域とが重なり部分を有する場合、図7(d)に示されているように第1画像領域A1および第2画像領域A2の合成画像領域Aを囲う合成枠がHUD220に表示される。
また、図5(e)に示されているように第1画像領域A1が認識されなかった一方、図6(e)に示されているように第2画像領域A2が認識された場合、図7(e)に示されているように第2画像領域A2を囲う第2の枠のみがHUD220に表示される。
本発明の画像情報処理システム100により実行される本発明の第1実施形態の画像情報処理方法によれば、赤外線カメラ210を通じて認識された対象物に応じた第1画像領域A1が不安定なものであっても(図5(a)〜図5(e)参照)、当該対象物に応じた画像領域の枠をHUD220に安定に表示させることができる(図7(a)〜図7(e)参照)。
続いて前記構成の画像情報処理システムにより実行される本発明の第2実施形態の画像情報処理方法について図5、図6、図8〜図9を用いて説明する。
本発明の第2実施形態の画像情報処理方法は、本発明の第1実施形態の画像情報処理方法における第1画像領域A1および第2画像領域A2の重なり部分の有無判定処理(S123参照)およびこの判定結果に応じた画像情報処理(S130, S140〜S142参照)において異なるほかは本発明の第1実施形態の画像情報処理方法と共通の処理が実行されるので、それら共通の処理については説明を省略する。
本発明の第2実施形態の画像情報処理方法によれば、第1画像領域認識ユニット121による第1画像領域A1(n)の認識処理(S121)と、第2画像領域認識ユニット122による第2画像領域A2(n)の認識処理(S122)との後、画像情報制御ユニット140が、第1画像領域A1(n)が「安定」であるかまたは「不安定」であるかを判定する(S124)。具体的には、第1画像領域A1(n)および第1画像領域A2(n)の偏差δA(n)、具体的には第1画像領域A1(n)および第2画像領域A2(n)のそれぞれの代表点の偏差(距離)、面積の偏差、または両偏差の平均若しくは重み付き平均等の絶対値が第1閾値ε1以下である場合、第1画像領域A1(n)が「安定」であると判定される。一方、当該偏差δA(n)が第1閾値ε1を超える場合、第1画像領域A1(n)が「不安定」であると判定される。
画像情報制御ユニット140は、第1画像領域A1(n)が「安定」であると判定した場合(S124‥YES)、第1画像領域A1(n)を囲う第1の枠(第1画像情報)をHUD220に表示させる(S141)。
また、画像情報制御ユニット140は、第1画像領域A1(n)が不安定であると判定した場合(S124‥NO)、その不安定度の大小を判別する(S125)。具体的には、前記偏差δA(n)が第1閾値ε1より大きい第2閾値ε2以下である場合、当該不安定度が「小」であると判定され、前記偏差δA(n)が第2閾値ε2を超える場合、当該不安定度が「大」であると判定される。
画像情報制御ユニット140が、第1画像領域A1(n)の不安定度が「小」であると判定した場合(S125‥YES)、合成画像領域認識ユニット130が合成画像領域A(n)を認識し(S130)、また、画像情報制御ユニット140が合成画像領域A(n)を囲う合成枠をHUD220に表示させる(S140)。一方、画像情報制御ユニット140が、第1画像領域A1(n)の不安定度が「大」であると判定した場合(S125‥NO)、画像情報制御ユニット140が第2画像領域A2(n)を囲う第2の枠をHUD220に表示させる(S142)。
本発明の第2実施形態の画像情報処理方法によれば、第1画像領域認識ユニット121により図5(a)〜図5(e)に示されているように変化する第1画像領域A1が認識され、第2画像領域認識ユニット122により図6(a)〜図6(e)に示されているように変化する第2画像領域A2が認識された場合、HUD220に表示される枠(画像情報)は図9(a)〜図9(e)に示されているように変化する。
すなわち、図5(a)に示されている第1画像領域A1と、図6(a)に示されている第2画像領域A2(n)とが同一であり、第1画像領域A1が「安定」であると判定された場合、図9(a)に示されているように第1画像領域A1を囲う第1の枠がHUD220に表示される。
また、図5(b)に示されている第1画像領域A1と、図6(b)に示されている第2画像領域A2(n)とが著しく異なるものであり、第1画像領域A1が「不安定」であり、その不安定度が「大」であると判定された場合、図9(b)に示されているように第2画像領域A2を囲う第2の枠がHUD220に表示される。同様に、図5(c)に示されている第1画像領域A1と、図6(c)に示されている第2画像領域A2とがかけ離れたものであり、第1画像領域A1が「不安定」であり、その不安定度が「大」であると判定された場合、図9(c)に示されているように第2画像領域A2を囲う第2の枠がHUD220に表示される。
さらに図5(d)に示されている第1画像領域A1と、図6(d)に示されている第2画像領域A2(n)とが異なるものであり、第1画像領域A1が「不安定」であり、その不安定度が「小」であると判定された場合、図9(d)に示されているように合成画像領域Aを囲う合成枠がHUD220に表示される。
また、図5(e)に示されているように第1画像領域A1が認識されなかった一方、図6(e)に示されているように第2画像領域A2が認識され、第1画像領域A1が「不安定」であり、その不安定度が「大」であると判定された場合、図9(e)に示されているように第2画像領域A2を囲う第2の枠がHUD220に表示される。
本発明の画像情報処理システム100により実行される本発明の第2実施形態の画像情報処理方法によれば、赤外線カメラ210を通じて認識された対象物に応じた第1画像領域A1が不安定なものであっても(図5(a)〜図5(e)参照)、当該対象物に応じた画像領域の枠をHUD220に安定に表示させることができる(図9(a)〜図9(e)参照)。
前記実施形態では自動車200のフロントウィンドウに搭載されたHUD220に画像情報が表示されたが、他の実施形態として自動車200に搭載されたメ−タ一体型のディスプレイや、ナビ装置のディスプレイ(図示略)に画像情報が表示されてもよい。
前記実施形態では対象物を含む画像領域の認識処理(S121,S122参照)に際して3次元空間における車体位置p1(i)等の位置や回転(旋回)がクォ−タニオンによって表されたが(式(1)(2)参照)、他の実施形態として当該推定処理に際して3次元空間における車体位置p1(i)等の位置が3次元ベクトルで表され、回転が3次元行列によって表されてもよい。
前記実施形態では第1画像領域A1、第2画像領域A2および合成画像領域Aのそれぞれを囲う第1、第2および合成枠が第1、第2および合成画像情報としてHUD220に表示されたが、他の実施形態として各画像領域がその色彩、模様や輝度等により他の画像領域から識別可能にHUD220に表示されてもよく、各画像領域に含まれるグレースケール化または二値化画像における輝度が一定以上の対象物そのものを囲う枠がHUD220に表示されてもよく、各画像領域に含まれる当該輝度が一定以上の対象物の一部または全部がその色彩、模様、輝度等により他の画像領域から識別可能にHUD220に表示される等、各画像領域またはそこに含まれる輝度が一定以上の対象物が他の画像領域から識別可能となるようなあらゆる形態で各画像領域を表す画像情報がHUD220に表示されてもよい。
第2実施形態では第1画像領域A1(n)の不安定度の大小が判別されたが(図8/S125参照)、他の実施形態として当該判別ステップが省略された上で、第1画像領域A1(n)が不安定である場合には一律に第2画像領域A2(n)に応じた第2画像情報または合成画像領域A(n)に応じた合成画像情報が画像情報制御ユニット140によってHUD220に表示されてもよい。
本発明の画像情報処理システムの構成説明図 本発明の第1実施形態の画像情報処理方法の説明図 第2画像領域の認識処理の説明補足図 第1および第2画像領域の重なり部分の有無に応じた処理の説明補足図 第1画像領域の例示図 第2画像領域の例示図 本発明の第1実施形態の画像情報処理方法による合成画像領域の例示図 本発明の第2実施形態の画像情報処理方法の説明図 本発明の第2実施形態の画像情報処理方法による合成画像領域の例示図
符号の説明
100‥画像情報処理システム、111‥第1変数測定ユニット、112‥第2変数測定ユニット、121‥第1画像領域認識ユニット、122‥第2画像領域認識ユニット、130‥合成画像領域認識ユニット、140‥画像情報制御ユニット、200‥自動車(移動体)、201‥車速センサ、202‥ヨーレートセンサ、210‥赤外線カメラ、220‥HUD(画像表示装置)

Claims (10)

  1. 移動体に搭載された赤外線カメラによ撮影された対象物の画像を処理して、前記移動体に搭載された画像表示装置に前記対象物の画像情報を表示させるシステムであって、
    前記移動体の走行状態に応じた第1変数を測定する第1変数測定手段と、
    前記赤外線カメラを通じて対象物の位置に応じた第2変数を測定する第2変数測定手段と、
    前記第2変数測定手段により測定された前記第2変数に基づき、前記対象物に応じた画像領域を第1画像領域として認識する第1画像領域認識手段と、
    前記第1変数測定手段により測定された前記第1変数と、前記第2変数測定手段により測定された前記第2変数とに基づき、前記第1画像領域認識手段により認識される画像領域を推定した上で第2画像領域として認識する第2画像領域認識手段と、
    前記第1画像領域認識手段により認識された前記第1画像領域が安定である場合、その第1画像領域に応じた第1画像情報を前記画像表示装置に表示させる一方、前記第1画像領域認識手段により認識された前記第1画像領域が不安定である場合、前記第2画像領域認識手段により認識された前記第2画像領域に応じた第2画像情報を前記画像表示装置に表示させる画像情報制御手段とを備えていることを特徴とする画像情報処理システム。
  2. 請求項1記載の画像情報処理システムにおいて、
    前記第2画像領域認識手段が、前記第1変数測定手段により測定された第1変数と、前記第2変数測定手段により測定された前記第2変数とに基づき、前記第2変数測定手段により将来測定される前記第2変数を推定した上で、この推定した前記第2変数に基づいて前記第2画像領域を認識することを特徴とする画像情報処理システム。
  3. 請求項記載の画像情報処理システムにおいて、
    前記第2変数測定手段が前記第2変数の一部または全部を対象物の位置を表すクォ−タニオンとして測定し、
    前記第2画像領域認識手段が、前記第1変数測定手段により測定された前記第1変数と、前記第2変数測定手段により測定された前記第2変数とに基づいた空間変位を表現するクォ−タニオンを用いて前記第2変数を推定することを特徴とする画像情報処理システム。
  4. 請求項記載の画像情報処理システムにおいて、
    前記第1変数測定手段が、前記移動体の速度およびある軸回りの角速度を前記第1変数として測定し、
    前記第2画像領域認識手段が、前記第1変数測定手段により測定された前記速度および前記角速度により特定される旋回運動を表現するクォ−タニオンを用いて前記第2変数を推定することを特徴とする画像情報処理システム。
  5. 請求項1記載の画像情報処理システムにおいて、
    前記第2変数測定手段により測定された前記第2変数が不安定である場合、前記第2画像領域認識手段が、それより前に前記第2変数測定手段により測定された前記第2変数に基づいて前記第2画像領域を認識することを特徴とする画像情報処理システム。
  6. 請求項記載の画像情報処理システムにおいて、
    前記第2画像領域認識手段が、前記第2変数測定手段による前記第2変数の測定が不能になったとき、または、前記第2変数測定手段により測定された前記第2変数の変動量が閾値を超えたとき、前記第2変数が不安定であると判定することを特徴とする画像情報処理システム。
  7. 請求項記載の画像情報処理システムにおいて、
    前記画像情報制御手段が、前記第1画像領域認識手段により前記第1画像領域の一または複数の代表点と、前記第2画像領域認識手段により認識された前記第2画像領域の一または複数の代表点との偏差またはその平均が閾値を超えたとき前記第1画像領域が不安定であると判定することを特徴とする画像情報処理システム。
  8. 移動体に搭載された赤外線カメラによ撮影された対象物の画像を処理して、前記移動体に搭載された画像表示装置に前記対象物の画像情報を表示させる方法であって、
    前記移動体の走行状態に応じた第1変数を測定する第1変数測定ステップと、
    前記赤外線カメラを通じて前記対象物の位置に応じた第2変数を測定する第2変数測定ステップと、
    前記第2変数測定ステップにおいて測定された前記第2変数に基づき、前記対象物に応じた画像領域を第1画像領域として認識する第1画像領域認識ステップと、
    前記第1変数測定ステップにおいて測定された前記第1変数と、前記第2変数測定ステップにおいて測定された前記第2変数とに基づき、前記第1画像領域認識ステップにおいて認識される画像領域を推定した上で第2画像領域として認識する第2画像領域認識ステップと、
    前記第1画像領域認識ステップにおいて認識された前記第1画像領域が安定である場合、その第1画像領域に応じた第1画像情報を前記画像表示装置に表示させる一方、前記第1画像領域認識ステップにおいて認識された前記第1画像領域が不安定である場合、前記第2画像領域認識手段により認識された前記第2画像領域に応じた第2画像情報を前記画像表示装置に表示させる画像情報制御ステップとを備えていることを特徴とする画像情報処理方法。
  9. 移動体に搭載された赤外線カメラによ撮影された対象物の画像を処理して、前記移動体に搭載された画像表示装置に前記対象物の画像情報を表示させる機能をコンピュ−タに付与するプログラムであって、
    前記移動体の走行状態に応じた第1変数を測定する第1変数測定機能と、
    前記赤外線カメラを通じて前記対象物の位置に応じた第2変数を測定する第2変数測定機能と、
    前記第2変数測定機能により測定された前記第2変数に基づき、前記対象物に応じた画像領域を第1画像領域として認識する第1画像領域認識機能と、
    前記第1変数測定機能により測定された前記第1変数と、前記第2変数測定機能により測定された前記第2変数とに基づき、前記第1画像領域認識機能により認識される画像領域を推定した上で第2画像領域として認識する第2画像領域認識機能と、
    前記第1画像領域認識機能により認識された前記第1画像領域が安定である場合、その第1画像領域に応じた第1画像情報を前記画像表示装置に表示させる一方、前記第1画像領域認識機能により認識された前記第1画像領域が不安定である場合、前記第2画像領域認識手段により認識された前記第2画像領域に応じた第2画像情報を前記画像表示装置に表示させる画像情報制御機能とを前記コンピュ−タに付与することを特徴とする画像情報処理プログラム。
  10. 請求項1記載の画像情報処理システムが搭載されていることを特徴とする前記移動体としての自動車。
JP2004347736A 2004-11-30 2004-11-30 画像情報処理システム、画像情報処理方法、画像情報処理プログラムおよび自動車 Expired - Fee Related JP4246690B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004347736A JP4246690B2 (ja) 2004-11-30 2004-11-30 画像情報処理システム、画像情報処理方法、画像情報処理プログラムおよび自動車
US11/289,119 US7672481B2 (en) 2004-11-30 2005-11-29 Image information processing system, image information processing method, image information processing program, and automobile

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004347736A JP4246690B2 (ja) 2004-11-30 2004-11-30 画像情報処理システム、画像情報処理方法、画像情報処理プログラムおよび自動車

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008297526A Division JP4876117B2 (ja) 2008-11-21 2008-11-21 画像情報処理システム

Publications (2)

Publication Number Publication Date
JP2006157727A JP2006157727A (ja) 2006-06-15
JP4246690B2 true JP4246690B2 (ja) 2009-04-02

Family

ID=36567429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004347736A Expired - Fee Related JP4246690B2 (ja) 2004-11-30 2004-11-30 画像情報処理システム、画像情報処理方法、画像情報処理プログラムおよび自動車

Country Status (2)

Country Link
US (1) US7672481B2 (ja)
JP (1) JP4246690B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4376653B2 (ja) * 2004-02-17 2009-12-02 富士重工業株式会社 車外監視装置
EP1912157A1 (en) * 2006-10-09 2008-04-16 MAGNETI MARELLI SISTEMI ELETTRONICI S.p.A. Digital image processing system for automatically representing surrounding scenes to the driver of a vehicle for driving assistance, and corresponding operating method
JP5281265B2 (ja) * 2007-10-02 2013-09-04 キヤノン株式会社 印刷処理方法およびそれを実現する情報処理装置
US9218363B2 (en) * 2011-11-24 2015-12-22 Telefonaktiebolaget L M Ericsson (Publ) System and method for maintaining location information in a database
CN104508595B (zh) * 2012-06-12 2017-07-18 金泰克斯公司 提供多级对准稳定性指示的车辆成像系统
JP6039401B2 (ja) * 2012-12-18 2016-12-07 キヤノン株式会社 印刷データ処理装置、印刷データ処理方法、およびプログラム
CN104751138B (zh) * 2015-03-27 2018-02-23 东华大学 一种车载红外图像彩色化辅助驾驶系统
JP6847885B2 (ja) * 2018-03-20 2021-03-24 株式会社東芝 情報処理装置、情報処理方法及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2800531B2 (ja) * 1992-02-28 1998-09-21 三菱電機株式会社 車両用障害物検出装置
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US6734896B2 (en) * 2000-04-28 2004-05-11 Matsushita Electric Industrial Co., Ltd. Image processor and monitoring system
WO2002007443A1 (fr) * 2000-07-19 2002-01-24 Matsushita Electric Industrial Co., Ltd. Systeme de controle
JP4615139B2 (ja) 2001-03-30 2011-01-19 本田技研工業株式会社 車両の周辺監視装置
JP3764086B2 (ja) 2001-10-29 2006-04-05 本田技研工業株式会社 車両用情報提供装置
US7277558B2 (en) * 2001-11-27 2007-10-02 Lockheed Martin Corporation Method and system for estimating the position of moving objects in images
JP2004206267A (ja) 2002-12-24 2004-07-22 Fujitsu Ten Ltd 物標検出装置、及び物標検出方法

Also Published As

Publication number Publication date
JP2006157727A (ja) 2006-06-15
US20060115123A1 (en) 2006-06-01
US7672481B2 (en) 2010-03-02

Similar Documents

Publication Publication Date Title
JP4985142B2 (ja) 画像認識装置および画像認識装置の画像認識処理方法
JP5503728B2 (ja) 車両の周辺監視装置
US9308917B2 (en) Driver assistance apparatus capable of performing distance detection and vehicle including the same
JP5310745B2 (ja) 走行支援装置
KR101579100B1 (ko) 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량
JP4420011B2 (ja) 物体検知装置
CN115393536A (zh) 利用相机进行车辆环境建模
JP4267657B2 (ja) 車両周辺監視装置
JP6775188B2 (ja) ヘッドアップディスプレイ装置および表示制御方法
WO2017069191A1 (ja) キャリブレーション装置、キャリブレーション方法、及び、キャリブレーションプログラム
JP4173896B2 (ja) 車両周辺監視装置
JP5834810B2 (ja) カメラキャリブレーション装置、乗員支援装置、カメラキャリブレーション用歪み係数生成方法
JP4797877B2 (ja) 車両用映像表示装置及び車両周囲映像の表示方法
JP4670528B2 (ja) 撮像装置のずれ検出方法、撮像装置のずれ補正方法及び撮像装置
JP6471522B2 (ja) カメラパラメータ調整装置
US7672481B2 (en) Image information processing system, image information processing method, image information processing program, and automobile
JP2004310522A (ja) 車両用画像処理装置
KR20210112672A (ko) 객체를 검출하기 위한 프로세서 및 객체 검출 방법
JP4020071B2 (ja) 周囲状況表示装置
JP2015067030A (ja) 運転支援装置
JP2020042355A (ja) 周辺監視装置
JP3319383B2 (ja) 走行路認識装置
JP4876117B2 (ja) 画像情報処理システム
JP7436331B2 (ja) 画像処理装置
JP4629638B2 (ja) 車両の周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090108

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140116

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees