JP2003042718A - 画像処理装置及び方法 - Google Patents

画像処理装置及び方法

Info

Publication number
JP2003042718A
JP2003042718A JP2002107013A JP2002107013A JP2003042718A JP 2003042718 A JP2003042718 A JP 2003042718A JP 2002107013 A JP2002107013 A JP 2002107013A JP 2002107013 A JP2002107013 A JP 2002107013A JP 2003042718 A JP2003042718 A JP 2003042718A
Authority
JP
Japan
Prior art keywords
image
image processing
action
moving body
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002107013A
Other languages
English (en)
Other versions
JP4159794B2 (ja
Inventor
Takamasa Echizen
孝方 越膳
Koji Tsujino
広司 辻野
Koji Akatsuka
浩二 赤塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2002107013A priority Critical patent/JP4159794B2/ja
Priority to US10/133,114 priority patent/US7221797B2/en
Priority to EP02009680A priority patent/EP1255177A2/en
Publication of JP2003042718A publication Critical patent/JP2003042718A/ja
Application granted granted Critical
Publication of JP4159794B2 publication Critical patent/JP4159794B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Abstract

(57)【要約】 【課題】 移動体の行動時に取得される外部環境の画像
情報から当該移動体の行動を高精度に認識する画像処理
装置を提供する。 【解決手段】行動コマンド出力部12は移動体32を行
動させる行動コマンドを出力する。局所特徴抽出部16
は、行動コマンド出力時に移動体32において取得され
た外部環境の画像情報から画像の局所的な特徴情報を抽
出する。全体特徴抽出部18は、局所的な特徴情報から
画像の全体領域の特徴情報を抽出する。学習部20は、
移動体32に与えられた行動コマンドを認識するための
確率統計モデルを全体領域の特徴情報に基づいて計算す
る。以後の移動時には、移動体32において取得される
外部環境の画像情報に対して確率統計モデルを適用する
ことによって、移動体32の行動を高速かつ高精度に認
識する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像処理装置及び
画像処理方法に関し、より詳細には、移動体の移動時に
取得した外部環境の画像情報を用いて移動体の行動を高
精度に認識するための画像処理装置及び方法に関する。
【0002】
【従来の技術】従来、移動体が取得する外部環境の画像
情報を用いて移動体の行動を認識する方法として、入力
される連続画像から画像濃度の勾配変化などを計算して
オプティカルフローを検出する方法が良く知られてい
る。
【0003】例えば、特開2000−171250号公
報では、オプティカルフローを用いて移動体の現在位置
を検出する方法が開示されている。この方法によれば、
予め移動体を所定の走行領域に沿って走行させた時に、
その走行領域について所定距離間隔毎に走行領域近傍の
情景のオプティカルフローが検出され、オプティカルフ
ローと検出位置との関係が記憶される。そして、後の走
行時にも走行領域のオプティカルフローが検出され、こ
れと記憶している全てのオプティカルフローとのマッチ
ングが行われる。このマッチングにおいて最大マッチン
グ結果を示すオプティカルフローが選択され、選択され
たオプティカルフローに対応付けられている位置が移動
体の現在走行位置であると認識される。
【0004】また、特開平11−134504号公報に
は、動画像からオプティカルフローを算出し、これをニ
ューラルネット層で処理することで行動を認識し、必要
な処理を判断する技術が開示されている。この技術によ
れば、簡単な構成のニューラルネットによって動画像か
ら障害物への接近を判断することが可能となる。
【0005】
【発明が解決しようとする課題】しかし、前者の方法で
位置認識するには、予め所定領域を移動してオプティカ
ルフローと位置との関係を記憶しておく必要がある。ま
た、一般に動画像のみに基づいてオプティカルフロー等
の特徴抽出を行い、位置や行動を認識するには以下のよ
うな問題がある。すなわち、移動体の移動に伴い太陽光
や蛍光灯などの光源と移動体に搭載されたカメラとの位
置関係が時々刻々と変わるため、明度などの画像強度が
変化して特徴抽出を精度良く行うのが困難となる。ま
た、移動体の移動時の振動がカメラに伝わるため、取得
する連続画像が振動の影響を受けて特徴抽出の精度を低
下させてしまう。さらに、上記画像強度の変化や振動の
悪影響を取り除くために、画像情報に対し複数フレーム
に渡ってスムージング処理を行うように構成すると、計
算負荷が増大し、かつ時間変動の大きな高速動作をする
対象物を捉えるための特徴抽出が困難になってしまうと
いう問題もある。
【0006】本発明は、上記の点に鑑みてなされたもの
であり、実環境においても移動体が取得する外部環境の
画像情報を用いて移動体の行動を高速かつ高精度に認識
することができる画像処理装置及び画像処理方法を提供
することを目的とする。
【0007】
【課題を解決するための手段】本発明の原理は、移動体
に対する行動コマンドと当該行動コマンドに従って移動
した際に移動体が取得した外部環境の画像情報との関係
を学習によって確率統計モデルとして生成しておき、以
後の移動時には移動体が取得する外部環境の画像情報及
び確率統計モデルに基づき現在の行動を高速かつ高精度
に認識する点にある。
【0008】本発明は、従来の方法においてノイズの影
響を除去するために必要とされた特徴抽出を行う前のス
ムージング処理等をすることなしに、実環境におけるオ
ンライン的な学習を事前学習段階で行い、そのようなノ
イズをも特徴抽出のデータして利用することによって、
環境の変化に対するロバスト性を向上して不良設定問題
を回避しようとするものである。
【0009】本発明は、移動体を行動させる行動コマン
ドを出力する行動コマンド出力部と、該行動コマンド出
力時に前記移動体において取得された外部環境の画像情
報から画像の局所領域の特徴情報を抽出する局所特徴抽
出部と、抽出された局所領域の特徴情報を使用して画像
の全体領域の特徴情報を抽出する全体特徴抽出部と、抽
出された全体領域の特徴情報に基づいて行動コマンドを
認識するための確率統計モデルを計算する学習部を含む
画像処理装置を提供する。
【0010】局所特徴抽出部はガボールフィルタを用い
て画像の局所領域の特徴情報を抽出する。局所領域の特
徴情報の抽出には、正成分及び負成分のガボールフィル
タを適用して得られる画像強度を使用する。ガボールフ
ィルタは8方向について適用するのが好ましい。
【0011】全体特徴抽出部は、ガウス関数を用いて局
所領域の特徴情報を融合する。
【0012】確率統計モデルの計算は期待値最大化アル
ゴリズムとニューラルネットワークによる教師付き学習
により行われるのが好ましいが、他の学習アルゴリズム
を使用することも可能である。
【0013】確率モデルが形成されると、新たに取得さ
れた画像にこの確率モデルを適用することで移動体の行
動を高精度に認識できるようになる。従って本発明の画
像処理装置は、画像情報に対して確率統計モデルを使用
したベイズ則を適用し、各行動コマンドについての確信
度を算出することにより移動体の行動を認識する行動認
識部をさらに含む。
【0014】上記のようにして移動体の行動を認識する
ことが可能となるが、常に一定レベル以上の確信度を有
する行動の認識が行われることが好ましい。従って本発
明の画像処理装置は、行動認識部の算出した確信度に基
づく値と所定の値を比較することによって行動認識を評
価する行動評価部と、行動評価部における評価に応じ
て、確率統計モデルを更新させる注意要求を生成する注
意生成部と、注意要求に応じて全体特徴抽出部の所定の
パラメータを変更する注意転調部をさらに含むことがで
きる。この場合、学習部は、パラメータの変更後に確率
統計モデルを再度計算する。そして行動認識部は、この
確率統計モデルを用いて移動体の行動の認識をやり直
す。
【0015】
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。
【0016】図1は、本発明の一実施形態である画像処
理装置10のブロック構成図である。画像処理装置10
は、行動コマンド出力部12、局所特徴抽出部16、全
体特徴抽出部18、学習部20、記憶部22、行動認識
部24、行動評価部26、注意生成部28、及び注意転
調部30等から構成される。
【0017】画像処理装置10の動作は、予めカメラ等
を搭載した移動体32を実環境下で行動させながら取得
した画像とそのときの行動の対応関係について学習を行
う事前学習段階と、事前学習段階で学習した知識を利用
して新たに取得した画像情報から移動体32の行動を認
識する行動認識段階の二段階からなる。
【0018】事前学習段階では、図1中の行動コマンド
出力部12、局所特徴抽出部16、全体特徴抽出部1
8、学習部20及び記憶部22が使用される。行動認識
段階では、これらに加えて行動認識部24、行動評価部
26、注意生成部28及び注意転調部30も使用され
る。
【0019】まず、事前学習段階において使用される各
部を説明する。
【0020】行動コマンド出力部12は、移動体32に
対し行動コマンドを出力する。行動コマンドとは、移動
体32に直進、右折、左折などの行動をさせるコマンド
である。行動コマンド出力部12は、外部から受信する
指示信号に応じて行動コマンドを出力するが、予め時系
列で設定されたコマンド列を図示しないメモリから読み
出してきて出力するようにしても良い。また、移動体3
2が取得画像に基づいて自己の行動を認識して随時次に
とるべき行動を決定し、行動コマンド出力部12はその
決定に応じた行動コマンドを出力する構成としても良
い。出力された行動コマンドは、無線または有線により
移動体32に送られると共に、全体特徴抽出部18に供
給されて、後述する全体特徴情報の生成に使用される。
【0021】移動体32にはCCDカメラ等の画像取得
部14が付設されている。画像取得部14は、時刻tに
おける移動体32の外部環境の画像I(t)を所定の時間間
隔で取得し、局所特徴抽出部16に供給する。
【0022】局所特徴抽出部16は、画像I(t)の局所領
域の特徴情報を抽出する。本明細書において「局所領
域」とは、画像取得部14が取得する画像I(t)の全体領
域をそれぞれが同一の大きさを有するように分割したと
きの各小領域のことを指しており、各局所領域は複数の
画素を含む。本実施形態では、時間的に連続する2枚の
画像I(t)、I(t+1)からオプティカルフローを算出して、
これを各局所領域の特徴情報(以下、「局所特徴情報」
という)の生成に使用する。局所特徴抽出部16によっ
て抽出された局所特徴情報は、全体特徴抽出部18に供
給される。
【0023】全体特徴抽出部18は、画像I(t)について
得られた全ての局所特徴情報を融合して画像全体につい
ての特徴情報(以下、「全体特徴情報」という)を抽出
する。抽出された全体特徴情報は学習部20に供給され
る。
【0024】学習部20は、全体特徴抽出部18から供
給される全体特徴情報に基づいて学習を行い、後述する
確率モデルを作成する。本実施形態では、この学習に公
知の期待値最大化アルゴリズムとニューラルネットワー
クを用いた教師付き学習を使用するが、他の学習アルゴ
リズムを用いることもできる。学習結果である確率統計
モデルは記憶部22に格納され、行動認識段階における
移動体32の行動の認識に使用される。
【0025】事前学習段階が終了すると、その学習結果
(確率モデル)を新たに取得した画像に適用して移動体
32の行動を高精度に認識可能な状態になる。以下、行
動認識段階において使用される各部を説明する。
【0026】事前学習段階と同様、画像取得部14は時
刻tにおける移動体32の外部環境の画像I(t)を所定の
時間間隔で取得し、行動認識部24に供給する。
【0027】行動認識部24は、供給された画像I(t)に
対して記憶部22に格納されている確率モデルを適用し
て、各行動コマンドについて確信度を算出し、最大のも
のを移動体32の行動と認識する。算出された確信度は
行動評価部26に供給される。
【0028】行動評価部26は、行動コマンドの確信度
について対数尤度を計算する。注意生成部28は、確信
度の対数尤度が所定値以上であれば何も行わない。確信
度の対数尤度が所定値未満の場合、認識した行動は十分
な確信度を得ていないとして、注意要求信号を生成して
注意転調部30に供給する。
【0029】注意転調部30は、注意生成部28から注
意要求信号を受信すると、学習のアルゴリズムにおける
所定のパラメータ値を変更(転調)して、学習部20に
確率モデルの更新を行わせる。学習部20は更新した確
率モデルを記憶部22に格納する。行動認識部24は、
更新後の確率モデルを適用して再度移動体32の行動を
認識する。これによって、常に一定レベル以上の確信度
を有する行動の認識が行われることになる。
【0030】なお、画像取得部14は移動体32に付設
されている必要があるが、画像処理装置10は、画像取
得部14と一体でまたは別個に移動体32に付設されて
いても、あるいは移動体32とは別の場所に設置されて
いてもよい。画像取得部14と画像処理装置10の間の
通信は、有線でも無線でもよい。
【0031】続いて、図1及び図2を用いて事前学習段
階について詳細に説明する。図2は事前学習段階の処理
の流れを示すフローチャートである。
【0032】行動コマンド出力部12からの行動コマン
ドに応じて移動体32が行動する際に、移動体32に付
設された画像取得部14は、時間的に連続する2枚の画
像を取得する(ステップS42)。そして、局所特徴抽
出部16は、画像取得部14が取得した画像から局所特
徴情報を抽出する(ステップS44〜S48)。具体的
には、取得した画像中の各局所領域画像に対して複数方
向のガボールフィルタを適用して、各局所領域について
ガボールフィルタの各方向における画像強度E i(xt,yt)
を計算する(ステップS44)。画像強度Ei(xt,yt)
は、以下の式(1)により計算される。
【0033】 Ei(xt,yt)=Img(t)×Gbri(+)+Img(t+1)×Gbri(-) (1) ここで、Gbri(+)、Gbri(-)はそれぞれ正成分及び負成分
のガボールフィルタであることを示す。また、添え字
「i」はガボールフィルタの方向を示し、本実施形態で
はi=1,…,8である。Img(t)は時刻tにおいて取得さ
れた画像の局所領域画像を示し、Img(t+1)は次の時刻t
+1において取得された画像の局所領域画像を示す。さ
らに、(xt,yt)は、時刻tにおける局所領域内での画素
の座標を表している。従って、Ei(xt,yt)は当該局所領
域における方向iの画像強度を表す。
【0034】ガボールフィルタの方向及び適用する数は
任意であるが、本実施形態では人間の視覚機能の受容野
を模倣して、全体画像の中心から等角に放射状に伸びる
8方向のガボールフィルタを使用している。
【0035】次に、局所特徴抽出部16は、ステップ4
4で計算した各局所領域における8方向の画像強度E
i(xt,yt)(i=1,…,8)から、次式(2)により各局所
領域において最も画像強度の大きい方向jを選択する
(ステップS46)。
【0036】 j=argmaxii(xt,yt) (2) ここで、方向j(j=1,…,8)は、局所領域毎に異な
ることに注意する。
【0037】続いて、局所特徴抽出部16は、次式(3)
のように最大の画像強度Ej(xt,yt)に対してガウス関数
を使用して、各局所領域について局所特徴情報Ψj(xt,y
t)を算出する(ステップS48)。
【0038】
【数1】
【0039】ここで、式(3)中、「μj」は、当該局所
領域における画像強度Ej(xt,yt)の平均値である。ま
た、「σj」はこれらの画像強度Ej(xt,yt)の分散を示
す。従って、局所特徴情報Ψj(xt,yt)は、各局所領域に
おいて画像強度が最大値を有する方向に関する画像強度
j(xt,yt)を確率密度分布で表現したものになる。局所
特徴情報Ψj(xt,yt)は、局所領域の数と等しいだけ求め
られるが、それぞれの局所領域について局所特徴情報Ψ
j(xt,yt)を求めた方向jは異なっていることに注意す
る。
【0040】全体特徴抽出部18は、行動コマンド出力
部12から行動コマンドを、局所特徴抽出部16から局
所特徴情報Ψj(xt,yt)を受け取ると、次式(4)に従っ
て、画像強度の最大方向jの各方向について、その方向
に関して求められた全ての局所特徴情報Ψj(xt,yt)を融
合して全体特徴情報ρjt|l)を算出する(ステップS
50)。
【0041】
【数2】 ここで、「χt」は(xt,yt)による二次元直交座標を意味
する。
【0042】算出した全体特徴情報ρjt|l)は、それ
ぞれ元の画像I(t)を取得したときに行動コマンド出力部
12が出力した行動コマンドの別にクラス分けして格納
される(ステップS52)。ここで、「l」は行動コマ
ンドを表す。本実施形態では3つの行動コマンド(直
進、左折及び右折)が使用されているので、l=1を直
進、l=2を左折、l=3を右折の行動コマンドとして
いる。従って、移動体の直進(l=1)時に取得された
複数の全体特徴情報ρjt|1)と、左折(l=2)時
に取得された複数の全体特徴情報ρjt|2)と、右折
(l=3)時に取得された複数の全体特徴情報ρjt|
3)は、それぞれ別々のクラスに格納される。
【0043】このクラスは「注意のクラス」Ωlであ
る。注意のクラスとは、新たな特徴情報が提示されたと
きにその全てを学習結果に反映させるのではなく、特定
の特徴情報に注目することで効率良く学習を更新するた
めのものである。
【0044】なお、注意のクラスは3つに限られず、行
動コマンドの数と対応づけて任意の数設定することがで
きる。
【0045】全体特徴情報ρjt|l)は所定間隔毎に取
得される画像I(t)について行動コマンドに関連付けて計
算されるので、式(4)の計算によって、8方向の全体特
徴情報のセットがそれぞれ複数、行動コマンドの別に格
納されることになる。
【0046】図3〜図5は、元の画像I(t)と、局所特徴
情報Ψj(xt,yt)と、全体特徴情報ρ jt|l)の対応を示
す図である。図3は移動体32の直進時に、図4は左折
時に、図5は右折時に取得された画像にそれぞれ対応す
る。
【0047】各図の(a)は、画像取得部14により取得
された画像I(t)の一例である。各図の(b)は、ガボール
フィルタのある1方向の局所特徴情報を画像全体につい
てグラフ化したものであり、Z軸は局所特徴情報Ψ
j(xt,yt)の絶対値を表す。この例では、画像全体が77
×57個の局所領域に分割されている。各図の(c)は、
(b)の局所特徴情報から式(4)の計算によって算出され
た全体特徴情報ρjt|l)を、ガボールフィルタの適用
方向毎に示した極形マップである。図(c)中、の1から
8の数字はガボールフィルタの適用方向(上方向、右上
方向、…)に対応している。
【0048】図3〜5の(c)の極形マップに現れた形状
を比較すると、各画像について8方向の全体特徴情報を
求めることで移動体32の行動(行動コマンドl)につ
いての特徴が捉えられていることがわかる。
【0049】図2に戻り、ステップS52で全体特徴情
報ρjt|l)を格納した後、学習部20は全体特徴情報
ρjt|l)に基づいて学習を行う(ステップS54〜S
58)。具体的には、期待値最大化アルゴリズム(EM
アルゴリズム)とニューラルネットワークを用いた教師
付き学習を行って、移動体32の行動を認識するための
確率モデルを生成する。以下、本実施形態におけるEM
アルゴリズムとニューラルネットワークを用いた教師付
き学習の適用について順に説明する。
【0050】EMアルゴリズムは、観測データが不完全
データであるときに最大尤度になるパラメータθを推測
する繰り返しアルゴリズムである。観測データの平均を
μl、共分散をΣlとすると、パラメータθはθ(μl,
Σl)と表わすことができる。EMアルゴリズムでは、パ
ラメータθ(μll)の適当な初期値から開始して、E
ステップ(Expectation step)とMステップ(Maximiza
tion step)の2つのステップを反復することでパラメ
ータθ(μll)の値を逐次更新していく。
【0051】まず、Eステップでは、次式(5)により条
件付き期待値ψ(θ|θ(k))を算出する。
【0052】
【数3】
【0053】次に、Mステップでは、次式(6)によりψ
(θ|θ(k))を最大にするパラメータμl、Σlを計算し、
これを新たな推測値θ(k+1)とする。
【0054】
【数4】
【0055】このEステップとMステップを反復してい
き、得られた条件付き期待値ψ(θ|θ(k))をθ(k)に関
して偏微分する。そして、偏微分の結果を「0」と置く
ことによって、最終的なμl、Σlが算出される。EMア
ルゴリズムは当技術分野において周知なので、これ以上
詳細な説明は省略する。
【0056】EMアルゴリズムにより、各注意のクラス
Ωlの全体特徴情報を正規分布で表すことができる(ス
テップS54)。
【0057】全体特徴抽出部18は、行動コマンドlに
ついて算出したμl、Σlを次式(7)に用いて、全体特徴
情報ρjt|l)が行動コマンドlのクラスΩに属する
確率である事前確率p-(ρ|Ωl)を算出する(ステップS
56)。
【0058】
【数5】 上式において、Nは全体特徴情報ρjt|l)の次元数で
ある。
【0059】次に、ニューラルネットワークを用いた教
師付き学習について説明する。この学習では、注意のク
ラスΩlを教師信号として、画像取得部14により取得
された画像I(t)について、条件付き確率密度関数p(I(t)
l)を算出する(ステップS58)。
【0060】図6は、このニューラルネットワークを用
いた教師付き学習に使用される階層型ニューラルネット
ワークの構成例を示す図である。この階層型ニューラル
ネットワークは3層のノードを有し、入力層72は元の
画像I(t)、中間層74は全体特徴情報ρjt|l)、出力
層76は行動コマンドlの注意のクラスΩlにそれぞれ
対応する。なお、入力層72には簡単のために3つのノ
ードのみ描かれているが、実際にはノードは画像I(t)の
数だけ存在する。同様に、中間層74には入力層72と
同数の全体特徴情報ρjt|l)のノードがあり、両者は
それぞれ1対1に接続されている。また出力層76のノ
ードは注意クラスΩlの数(本実施形態では3つ)だけ
生成される。
【0061】図6において、「λ」は階層型ニューラル
ネットワークのシナプス荷重である。EMアルゴリズム
によって全体特徴情報ρjt|l)がそれぞれの注意のク
ラスΩlに属する確率が求められており、また全体特徴
情報ρjt|l)は1組の画像I(t)、I(t+1)に1:1に対
応して算出されるので、注意のクラスΩlを教師信号と
する教師付き学習を繰り返していくことで画像I(t)と注
意のクラスΩlの確率的な関係(つまり図6中のλ)が
決定されていく。この確率的な関係は条件付き確率密度
関数p(I(t)|Ωl)である。階層型ニューラルネットワー
クは当技術分野において周知なので、これ以上詳細な説
明は省略する。
【0062】このようなニューラルネットワークを用い
た教師付き学習によって、画像I(t)と注意のクラスΩl
との確率的な対応関係である条件付き確率密度関数p(I
(t)|Ωl)を得ることができる。
【0063】なお、ステップS54〜S58の処理は、
行動コマンドl毎に実行される。従って本実施形態で
は、行動コマンドl=1、2、3のそれぞれについて事
前確率p-(ρ|Ωl)と条件付き確率密度関数p(I(t)|Ωl)
(これらをまとめて「確率モデル」という)が算出され
る。
【0064】学習部20によって算出された確率モデル
は、記憶部22に格納される(ステップS60)。事前
学習を継続する場合はステップS62で「yes」とな
り再度ステップ42からの一連の処理が繰り返され、確
率モデルが更新される。事前学習は、移動体32が行動
をしている間、所定の間隔で取得される画像I(t)の全て
について実行される。そして、所定数の画像I(t)につい
て処理を完了する等、行動認識に十分精度の高い確率モ
デルが生成されたと判断される時点で終了する(ステッ
プS64)。
【0065】続いて、図1及び図7を用いて行動認識段
階について詳細に説明する。図7は行動認識段階の処理
の流れを示すフローチャートである。
【0066】画像取得部14は、所定の時間間隔ごとに
2枚の画像を取得する(ステップ82)。
【0067】次に、事前学習時に算出された確率モデ
ル、すなわち事前確率p-(ρll)と条件付き確率密度
関数p(I(t)|Ωl)が以下のベイズ則において使用され、
各注意のクラスΩlの確信度p(Ωl(t))(confidence)が
計算される(ステップS84)。この確信度p(Ωl(t))
は、画像取得部14の取得した画像I(t)が各注意のクラ
スΩlに属している確率を表している。
【0068】
【数6】 そして、算出された3つの確信度p(Ω1(t))、p(Ω
2(t))、p(Ω3(t))のうち、最大のものが選択される(ス
テップS86)。
【0069】行動評価部26は、行動認識部24におい
て選択された確信度p(Ωl(t))について、対数尤度log p
l(t))が所定値Kより大きいか否かを判別する(ステ
ップS88)。log p(Ωl(t))>Kの場合、確信度が最
大である注意のクラスΩlに対応する行動コマンドl
が、画像I(t)が取得されたときに現実になされている移
動体32の行動であると認識される(ステップS9
2)。
【0070】一方、log p(Ωl(t))≦Kの場合、注意生
成部28は注意要求を行う。注意転調部30は、式(7)
におけるガウシアンミクスチャ「m」を所定値だけ増加
(すなわち、注意転調)する(ステップS90)。そし
て、学習部20において図2のステップS56〜S60
の一連の処理が再度実行され、確率モデル(事前確率p-
(ρ|Ωl)及び条件付き確率密度関数p(I(t)|Ωl))が更
新される。
【0071】そしてプロセスは図7のステップS84に
戻り、ステップS84〜S88の処理が繰り返され、対
数尤度log p(Ωl(t))が所定の値K以上になるまでガウ
シアンミクスチャmが増加される。
【0072】なお、このような更新の過程がなく予め作
成された確率モデルが常に使用されるとしてもよい。
【0073】以上説明したように、本発明では画像情報
のみから移動体の行動を認識するのではなく、画像情報
から抽出した全体特徴情報と行動コマンドとの関係につ
いての学習を予め行っておき、その学習結果を利用して
行動認識を行うので、実環境においても移動体の行動を
高速かつ高精度に認識することができる。
【0074】また、移動体32のタイヤの取り付け不良
等によって、移動体32が与えられた行動コマンドに応
じた正しい移動をしなくなった場合でも、画像から真の
移動状況が把握できる。
【0075】続いて、本発明の実施例について説明す
る。図8は、本発明の画像処理装置10を搭載したラジ
オコントロールカー(以下、「RCカー」という)10
0のブロック図である。画像処理装置10の各部は図1
に関連して説明したものと同様の機能を有する。RCカ
ー100には、画像処理装置10の他、画像を取得する
画像入力カメラ114、行動コマンドに従ってRCカー
100の行動を制御する操舵制御部132及び駆動制御
部134、外部と通信を行うための受信機136及び送
信機138が設けられている。受信機136は外部から
行動コマンド指令信号を受信し、行動コマンド出力部1
2に供給する。RCカー100は行動コマンドに応じて
直進、左折、右折の3つの行動の何れかをとる。また、
行動認識部24の認識したRCカー100の行動は、送
信機138を介して外部に送信される。
【0076】このRCカー100に対して右折、直進、
及び左折の各行動コマンドを与えながら画像を取得させ
て事前学習段階を完了させた後、24フレームの画像に
ついて行動認識をさせたときの結果を以下に述べる。
【0077】図9は、注意のクラスの確信度の対数尤度
log p(Ωl(t))の値の変化を示すグラフである。横軸は
式(7)のガウシアンミクスチャmの値を表し、縦軸は確
信度の対数尤度log p(Ωl(t))を表す。図9より、ガウ
シアンミクスチャの数が50前後になると、対数尤度が
飽和することが分かる。各画像に対する注意のクラスの
確信度の対数尤度が大きいということは、各画像を取得
したときのRCカー100が当該注意のクラスに対応す
る行動をしている可能性が十分に高いと画像処理装置1
0が認識していることに相当する。
【0078】図10はガウシアンミクスチャ(ガウス関
数の個数)mがm=20のときの式(8)で求めた確信度
の対数尤度log p(Ωl)の結果を示し、図11はm=50
のときの同様の結果を示す。図10及び図11における
縦軸は、(a)では行動コマンドl=1(直進)の注意の
クラスΩ1についての確信度の対数尤度log p(Ω1)、(b)
では行動コマンドl=2(左折)の注意のクラスΩ2
ついての確信度の対数尤度log p(Ω2)、(c)では行動コ
マンドl=3(右折)の注意のクラスΩ3についての確
信度の対数尤度log p(Ω3)をそれぞれ示している。各図
の横軸は行動認識をさせた24個の画像に対応してい
る。24個の画像のうち最初の8つ(画像1〜8)はR
Cカー100に左折の行動コマンドl=2を与えたとき
に、中央の8つ(画像9〜16)は直進の行動コマンド
l=1を与えたときに、最後の8つ(画像17〜24)
は右折の行動コマンドl=3を与えたときに、それぞれ
対応している。
【0079】そこで図10を参照すると、(a)では中央
の8つの画像(すなわち直進時)について最大の確信度の
対数尤度を示し、(b)では最初の8つの画像(すなわち左
折時)について、(c)では最後の8つの画像(すなわち右
折時)について、それぞれ同様である。しかし画像間の
対数尤度のばらつきが大きく、行動の認識は十分とは言
えない。
【0080】次に図11を参照すると、(a)、(b)、(c)
ともに図10と同様、行動コマンドlに対応する画像が
最大の確信度の対数尤度を示している。しかし図11に
おいては、図10に比べて画像間の対数尤度のばらつき
が少なく、滑らかになっている。これは注意転調により
ガウシアンミクスチャを増加することによって達成され
たものである。
【0081】このように、本発明の画像処理装置を用い
ることによって、事前学習段階においてボトムアップ的
に形成された注意のクラスが学習を重ねることにより信
頼性が向上し、行動認識段階では、確信度の対数尤度が
所定値を超えるまで確率モデルが更新されるので、行動
の認識精度が向上する。
【0082】
【発明の効果】本発明によると、画像情報のみから移動
体の行動を認識するのではなく、画像情報と行動コマン
ドとの関係についての学習を予め行っておき、その学習
結果を利用して判断するので、実環境においても移動体
の行動を高速かつ高精度に認識することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態である画像処理装置の機能
ブロック図である。
【図2】本発明による画像処理方法の事前学習段階を示
すフローチャートである。
【図3】移動体の直進時(Ω1)の画像認識結果を示す
図である。
【図4】移動体の左折時(Ω2)の画像認識結果を示す
図である。
【図5】移動体の右折時(Ω3)の画像認識結果を示す
図である。
【図6】ニューラルネットワークを用いた教師付き学習
に使用される階層型ニューラルネットワークの構成例を
示す図である。
【図7】本発明による画像処理方法の行動認識段階を示
すフローチャートである。
【図8】本発明による画像処理装置を使用したRCカー
の全体的な構成を示すブロック図である。
【図9】確信度の対数尤度の変化を示す図である。
【図10】ガウシアンミクスチャm=20のときのRC
カーの行動の認識結果を示す図である。
【図11】ガウシアンミクスチャm=50のときのRC
カーの行動の認識結果を示す図である。
【符号の説明】
10 画像処理装置 12 行動コマンド出力部 14 画像取得部 16 局所特徴抽出部 18 全体特徴抽出部 20 学習部 22 記憶部 24 行動認識部 26 行動評価部 28 注意生成部 30 注意転調部 32 移動体
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/20 100 G06T 7/20 100 // G05D 1/02 G05D 1/02 K (72)発明者 赤塚 浩二 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 Fターム(参考) 2F065 AA01 BB15 DD06 FF04 JJ03 JJ26 PP01 QQ00 QQ14 QQ17 QQ24 QQ26 QQ27 QQ33 QQ41 5B057 AA05 AA06 BA02 CE06 DA07 DB02 DB09 DC08 DC22 DC34 DC40 5H301 AA01 DD02 GG09 5L096 AA06 BA04 BA05 CA04 FA34 FA67 FA69 GA30 GA55 HA04 HA11 JA18 KA04 KA15

Claims (16)

    【特許請求の範囲】
  1. 【請求項1】移動体を行動させる行動コマンドを出力す
    る行動コマンド出力部と、 該行動コマンド出力時に前記移動体において取得された
    外部環境の画像情報から画像の局所領域の特徴情報を抽
    出する局所特徴抽出部と、 抽出された局所領域の特徴情報を使用して画像の全体領
    域の特徴情報を抽出する全体特徴抽出部と、 抽出された全体領域の特徴情報に基づいて行動コマンド
    を認識するための確率統計モデルを計算する学習部と、 を含む画像処理装置。
  2. 【請求項2】前記局所特徴抽出部はガボールフィルタを
    用いて画像の局所領域の特徴情報を抽出する請求項1に
    記載の画像処理装置。
  3. 【請求項3】前記画像の局所領域の特徴情報の抽出に
    は、正成分及び負成分のガボールフィルタを適用して得
    られる画像強度を使用する請求項2に記載の画像処理装
    置。
  4. 【請求項4】前記ガボールフィルタは8方向のガボール
    フィルタである請求項2または3に記載の画像処理装
    置。
  5. 【請求項5】前記全体特徴抽出部はガウス関数を用いて
    局所領域の特徴情報を融合する請求項1乃至4の何れか
    1項に記載の画像処理装置。
  6. 【請求項6】前記確率統計モデルの生成は期待値最大化
    アルゴリズムとニューラルネットワークによる教師付き
    学習により行われる請求項1乃至5の何れか1項に記載
    の画像処理装置。
  7. 【請求項7】前記画像情報に対して前記確率統計モデル
    を使用したベイズ則を適用し、各行動コマンドについて
    の確信度を算出することにより前記移動体の行動を認識
    する行動認識部をさらに含む、請求項1乃至6の何れか
    1項に記載の画像処理装置。
  8. 【請求項8】前記行動認識部の算出した確信度に基づく
    値と所定の値を比較することによって前記行動認識を評
    価する行動評価部と、 前記行動評価部における評価に応じて、前記確率統計モ
    デルを更新させる注意要求を生成する注意生成部と、 前記注意要求に応じて前記全体特徴抽出部の所定のパラ
    メータを変更する注意転調部をさらに備え、 前記学習部は前記パラメータの変更後に再度前記確率統
    計モデルを計算する、請求項7に記載の画像処理装置。
  9. 【請求項9】移動体を行動させる行動コマンドを出力
    し、 該行動コマンド出力時に前記移動体において取得された
    外部環境の画像情報から画像の局所領域の特徴情報を抽
    出し、 抽出された局所領域の特徴情報を使用して画像の全体領
    域の特徴情報を抽出し、 抽出された全体領域の特徴情報に基づいて行動コマンド
    を認識するための確率統計モデルを計算することを含む
    画像処理方法。
  10. 【請求項10】前記局所領域の特徴情報の抽出はガボー
    ルフィルタを用いて行われる請求項9に記載の画像処理
    方法。
  11. 【請求項11】前記局所領域の特徴情報の抽出には、正
    成分及び負成分のガボールフィルタを適用して得られる
    画像強度を使用する請求項10に記載の画像処理方法。
  12. 【請求項12】前記ガボールフィルタは8方向のガボー
    ルフィルタである請求項10または11に記載の画像処
    理方法。
  13. 【請求項13】前記全体領域の特徴情報の抽出はガウス
    関数を用いて局所領域の特徴情報を融合することによっ
    て行われる請求項9乃至12の何れか1項に記載の画像
    処理方法。
  14. 【請求項14】前記確率統計モデルの生成は期待値最大
    化アルゴリズムとニューラルネットワークによる教師付
    き学習により行われる請求項9乃至13の何れか1項に
    記載の画像処理方法。
  15. 【請求項15】前記画像情報に対して前記確率統計モデ
    ルを使用したベイズ則を適用し、各行動コマンドについ
    ての確信度を算出することにより前記移動体の行動を認
    識することをさらに含む、請求項9乃至14の何れか1
    項に記載の画像処理方法。
  16. 【請求項16】前記算出された確信度に基づく値と所定
    の値を比較して前記行動認識を評価し、 該評価に応じて、前記確率統計モデルを更新させる注意
    要求を生成し、 前記注意要求に応じて前記全体特徴抽出部の所定のパラ
    メータを変更することをさらに含み、 前記パラメータの変更後に前記確率統計モデルが再度計
    算される、請求項15に記載の画像処理方法。
JP2002107013A 2001-05-02 2002-04-09 画像処理装置及び方法 Expired - Fee Related JP4159794B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002107013A JP4159794B2 (ja) 2001-05-02 2002-04-09 画像処理装置及び方法
US10/133,114 US7221797B2 (en) 2001-05-02 2002-04-26 Image recognizing apparatus and method
EP02009680A EP1255177A2 (en) 2001-05-02 2002-04-29 Image recognizing apparatus and method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001134848 2001-05-02
JP2001-134848 2001-05-02
JP2002107013A JP4159794B2 (ja) 2001-05-02 2002-04-09 画像処理装置及び方法

Publications (2)

Publication Number Publication Date
JP2003042718A true JP2003042718A (ja) 2003-02-13
JP4159794B2 JP4159794B2 (ja) 2008-10-01

Family

ID=26614620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002107013A Expired - Fee Related JP4159794B2 (ja) 2001-05-02 2002-04-09 画像処理装置及び方法

Country Status (3)

Country Link
US (1) US7221797B2 (ja)
EP (1) EP1255177A2 (ja)
JP (1) JP4159794B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285422A (ja) * 2005-03-31 2006-10-19 Denso It Laboratory Inc シーン推定装置及びシーン画像抽出方法並びに音声再生装置
JP2007008327A (ja) * 2005-06-30 2007-01-18 Toyota Motor Corp 運転傾向推定装置及び運転支援装置
JP2008262288A (ja) * 2007-04-10 2008-10-30 Denso Corp 推定装置
JP2016530640A (ja) * 2013-09-06 2016-09-29 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 画像情報の中の物体を認識する方法および制御装置

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7266220B2 (en) * 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
JP3979894B2 (ja) * 2002-07-22 2007-09-19 本田技研工業株式会社 物体検出装置及び方法
WO2004016400A2 (en) * 2002-08-16 2004-02-26 Evolution Robotics, Inc. Systems and methods for the automated sensing of motion in a mobile robot using visual data
US7171028B2 (en) * 2002-11-22 2007-01-30 The Boeing Company Method and apparatus for covertly determining the rate of relative motion between two objects
AU2003300959A1 (en) * 2002-12-17 2004-07-22 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
GB0305304D0 (en) * 2003-03-07 2003-04-09 Qinetiq Ltd Scanning apparatus and method
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
AU2004202179B2 (en) * 2004-05-20 2011-04-21 The Boeing Company Method and apparatus for covertly determining the rate of relative motion between two objects
US20090041297A1 (en) * 2005-05-31 2009-02-12 Objectvideo, Inc. Human detection and tracking for security applications
US20070040065A1 (en) * 2005-08-19 2007-02-22 Von Thal German Flexible refueling boom extendable tube
WO2007143756A2 (en) * 2006-06-09 2007-12-13 Carnegie Mellon University System and method for autonomously convoying vehicles
US20080033645A1 (en) * 2006-08-03 2008-02-07 Jesse Sol Levinson Pobabilistic methods for mapping and localization in arbitrary outdoor environments
US8132759B2 (en) * 2007-03-21 2012-03-13 The Boeing Company System and method for facilitating aerial refueling
KR100877071B1 (ko) * 2007-07-18 2009-01-07 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
US8509538B2 (en) * 2007-12-20 2013-08-13 Intel Corporation Method and apparatus for obtaining and processing Gabor image features
US8340818B2 (en) * 2009-04-24 2012-12-25 Robert Bosch Gmbh Method of accurate mapping with mobile robots
US9286810B2 (en) 2010-09-24 2016-03-15 Irobot Corporation Systems and methods for VSLAM optimization
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
EP2704783A4 (en) 2011-05-04 2014-12-03 Univ Michigan INTUBATION DEVICE
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
CN102521592B (zh) * 2011-11-30 2013-06-12 苏州大学 基于非清晰区域抑制的多特征融合显著区域提取方法
US9020637B2 (en) 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US9037396B2 (en) 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
WO2015015554A1 (ja) * 2013-07-29 2015-02-05 Necソリューションイノベータ株式会社 3dプリンタ装置、3dプリント方法及び立体造形物の製造方法
US9058517B1 (en) * 2014-04-16 2015-06-16 I.R.I.S. Pattern recognition system and method using Gabor functions
US11348269B1 (en) * 2017-07-27 2022-05-31 AI Incorporated Method and apparatus for combining data to construct a floor plan
US10482619B2 (en) * 2017-07-27 2019-11-19 AI Incorporated Method and apparatus for combining data to construct a floor plan
DE112019000070T5 (de) 2018-01-07 2020-03-12 Nvidia Corporation Führen von fahrzeugen durch fahrzeugmanöver unter verwendung von modellen für maschinelles lernen
WO2019152888A1 (en) 2018-02-02 2019-08-08 Nvidia Corporation Safety procedure analysis for obstacle avoidance in autonomous vehicle
US11966838B2 (en) 2018-06-19 2024-04-23 Nvidia Corporation Behavior-guided path planning in autonomous machine applications
US10937150B2 (en) 2018-06-28 2021-03-02 General Electric Company Systems and methods of feature correspondence analysis
US11520345B2 (en) 2019-02-05 2022-12-06 Nvidia Corporation Path perception diversity and redundancy in autonomous machine applications
CN111753590B (zh) * 2019-03-28 2023-10-17 杭州海康威视数字技术股份有限公司 一种行为识别方法、装置及电子设备
CN115457447B (zh) * 2022-11-07 2023-03-28 浙江莲荷科技有限公司 运动物体识别的方法、装置、系统及电子设备、存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3379611D1 (en) * 1982-04-15 1989-05-18 Toshiba Kk Pattern features extracting apparatus and method and pattern recognition system
US5109425A (en) * 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
US5307419A (en) * 1990-11-30 1994-04-26 Honda Giken Kogyo Kabushiki Kaisha Control device of an autonomously moving body and evaluation method for data thereof
US5500904A (en) * 1992-04-22 1996-03-19 Texas Instruments Incorporated System and method for indicating a change between images
JP3369368B2 (ja) * 1995-10-11 2003-01-20 富士通株式会社 画像処理装置
US5751838A (en) 1996-01-26 1998-05-12 Nec Research Institute, Inc. Correction of camera motion between two image frames
JP3886618B2 (ja) 1997-10-28 2007-02-28 本田技研工業株式会社 動画像処理方法
US6532305B1 (en) * 1998-08-04 2003-03-11 Lincom Corporation Machine learning method
US6353679B1 (en) * 1998-11-03 2002-03-05 Compaq Computer Corporation Sample refinement method of multiple mode probability density estimation
JP2000171250A (ja) 1998-12-02 2000-06-23 Japan Aviation Electronics Industry Ltd 移動体現在位置検出方法
JP4226730B2 (ja) * 1999-01-28 2009-02-18 株式会社東芝 物体領域情報生成方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
US6307959B1 (en) 1999-07-14 2001-10-23 Sarnoff Corporation Method and apparatus for estimating scene structure and ego-motion from multiple images of a scene using correlation
US6323807B1 (en) * 2000-02-17 2001-11-27 Mitsubishi Electric Research Laboratories, Inc. Indoor navigation with wearable passive sensors
JP4624594B2 (ja) * 2000-06-28 2011-02-02 パナソニック株式会社 物体認識方法および物体認識装置
JP4581210B2 (ja) * 2000-09-29 2010-11-17 日本電気株式会社 テレビ会議システム
KR100415313B1 (ko) * 2001-12-24 2004-01-16 한국전자통신연구원 동영상에서 상관 정합과 시스템 모델을 이용한 광류와카메라 움직임 산출 장치
CN1459761B (zh) * 2002-05-24 2010-04-21 清华大学 基于Gabor滤波器组的字符识别技术

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285422A (ja) * 2005-03-31 2006-10-19 Denso It Laboratory Inc シーン推定装置及びシーン画像抽出方法並びに音声再生装置
JP4634842B2 (ja) * 2005-03-31 2011-02-16 株式会社デンソーアイティーラボラトリ 風景推定装置
JP2007008327A (ja) * 2005-06-30 2007-01-18 Toyota Motor Corp 運転傾向推定装置及び運転支援装置
JP2008262288A (ja) * 2007-04-10 2008-10-30 Denso Corp 推定装置
JP2016530640A (ja) * 2013-09-06 2016-09-29 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 画像情報の中の物体を認識する方法および制御装置
US9842262B2 (en) 2013-09-06 2017-12-12 Robert Bosch Gmbh Method and control device for identifying an object in a piece of image information

Also Published As

Publication number Publication date
EP1255177A2 (en) 2002-11-06
US7221797B2 (en) 2007-05-22
JP4159794B2 (ja) 2008-10-01
US20030007682A1 (en) 2003-01-09

Similar Documents

Publication Publication Date Title
JP2003042718A (ja) 画像処理装置及び方法
US10691952B2 (en) Adapting to appearance variations when tracking a target object in video sequence
Chang et al. Online boosting for vehicle detection
CN107209873B (zh) 用于深度卷积网络的超参数选择
US10846593B2 (en) System and method for siamese instance search tracker with a recurrent neural network
Lange et al. Online vehicle detection using deep neural networks and lidar based preselected image patches
CN109614907B (zh) 基于特征强化引导卷积神经网络的行人再识别方法及装置
US10964033B2 (en) Decoupled motion models for object tracking
JP7263216B2 (ja) ワッサースタイン距離を使用する物体形状回帰
CN109993101B (zh) 基于多分支循环自注意力网络与循环边框回归的车辆检测方法
Li et al. Pushing the “Speed Limit”: high-accuracy US traffic sign recognition with convolutional neural networks
EP3752955A1 (en) Image segmentation
Jain et al. AI-enabled object detection in UAVs: challenges, design choices, and research directions
Palazzo et al. Domain adaptation for outdoor robot traversability estimation from RGB data with safety-preserving loss
CN109002830B (zh) 车辆用的用于分类对象的方法和设备
CN111192294A (zh) 一种基于目标检测的目标跟踪方法及系统
KR101050687B1 (ko) 사후확률을 이용한 보행자 인식 장치 및 방법과 그를이용한 보행자 보호 장치
US20210224646A1 (en) Method for generating labeled data, in particular for training a neural network, by improving initial labels
CN113793371B (zh) 目标分割追踪方法、装置、电子设备和存储介质
Jeong et al. Facial landmark detection based on an ensemble of local weighted regressors during real driving situation
KR20190134380A (ko) 합성곱 신경망에 대한 도메인 불변 사람 분류기를 위한 연관성 학습 시스템 및 방법
KR102462733B1 (ko) 샴 네트워크를 활용하는 강인한 다중 객체 검출 장치 및 방법
Lin et al. Boosted vehicle detection using local and global features
Zernetsch et al. Cyclist intention detection: A probabilistic approach
Hartmann et al. Night time road curvature estimation based on Convolutional Neural Networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080716

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130725

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140725

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees