JP5772572B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP5772572B2
JP5772572B2 JP2011284566A JP2011284566A JP5772572B2 JP 5772572 B2 JP5772572 B2 JP 5772572B2 JP 2011284566 A JP2011284566 A JP 2011284566A JP 2011284566 A JP2011284566 A JP 2011284566A JP 5772572 B2 JP5772572 B2 JP 5772572B2
Authority
JP
Japan
Prior art keywords
target area
image processing
region
target
separation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011284566A
Other languages
English (en)
Other versions
JP2013134628A (ja
Inventor
学 中尾
学 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011284566A priority Critical patent/JP5772572B2/ja
Priority to US13/671,279 priority patent/US8811671B2/en
Publication of JP2013134628A publication Critical patent/JP2013134628A/ja
Application granted granted Critical
Publication of JP5772572B2 publication Critical patent/JP5772572B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関する。
例えば、建物内の安全の確認や、製造物の不良の発見のための監視等の用途で、画像で撮影した対象を、テンプレートマッチングを用いて追尾するシステムが使用されている。このようなシステムにおいて、撮影するカメラまたは撮影する対象物が移動する場合には、画像上での対象物の見え方が変化する。このため、変化する対象物を追尾することになり、使用するテンプレートを自動更新する必要がある。
例えば、入力された動画像の1つのフレームにおいて、所望のパターンが指示されると、別のフレームにおいて、指示されたパターンに最も近いパターンを検出する例がある。このとき、検出されたパターンを指示されたパターンと置き換えることによりテンプレートを更新し、パターンの検出を繰り返すことにより、所望の対象物を追跡する方法が知られている。
特開平1−315884号公報
しかしながら、上記のようにテンプレートを自動更新することにより対象物を追尾する方法では、対象物の大きさや向きの変化が大きい場合などには対応できないことがある。また、対象物に対する照明条件などが変わると、画面全体の輝度が変わってしまい、更新したテンプレートでは対象物が抽出できない場合もある。さらに、テンプレートの設定によっては、対象物を見失ってしまう場合もある。
上記課題に鑑み、対象物の画像の位置、大きさ、輝度等が変化しても対象物を検出できるようにテンプレートを更新することが可能な画像処理装置、画像処理方法、およびプログラムを提供する。
ひとつの態様である画像処理装置は、対象領域指定部、計算部、分離度検出部、対象領域決定部を有する。対象領域指定部は、対象領域を指定する。計算部は、画像を対象領域より小さい複数の小領域に分割した際に、対象領域内と対象領域外の小領域毎の特徴値のヒストグラムに基づく、複数の小領域毎の尤度を各複数の小領域の中心座標に重み付けた重心および重心に応じた共分散行列を計算する。分離度検出部は、ヒストグラム、尤度、重心、および共分散行列に基づき分離度を検出する。対象領域決定部は、分離度に基づき更新後対象領域を決定することを特徴としている。
別な態様である画像処理方法では、対象領域が指定される。画像を対象領域より小さい複数の小領域に分割した際に、対象領域内と対象領域外の小領域毎の特徴値のヒストグラムに基づく、複数の小領域毎の尤度を各複数の小領域の中心座標に重み付けた重心および重心に応じた共分散行列が計算される。ヒストグラム、尤度、重心、および共分散行列に基づき分離度が検出され、その分離度に基づき更新後対象領域が決定されることを特徴としている。
なお、上述した本発明に係る方法をコンピュータに行わせるためのプログラムであっても、このプログラムを当該コンピュータによって実行させることにより、上述した本発明に係る方法と同様の作用効果を奏するので、前述した課題が解決される。
上述した態様の画像処理装置、画像処理方法、およびプログラムによれば、対象物の画像の位置、大きさ、輝度が変化しても追尾が可能なテンプレートを提供することができる。
第1の実施の形態による画像処理システムの構成を示す図である。 第1の実施の形態による画像を示す図であり、(a)は、対象領域の指定の例を示し、(b)は、小領域に分割した例を示す。 第1の実施の形態による輝度分散のヒストグラムの一例を示す図であり、(a)は、対象領域内のヒストグラム、(b)は、対象領域外のヒストグラムを示す。 第1の実施の形態による各輝度分散の尤度を示す図である。 第1の実施の形態による複数のマハラノビス距離を図示した例である。 第1の実施の形態による分離度最大距離の一例を示す図である。 第1の実施の形態による画像処理システムの動作を示すフローチャートである。 第2の実施の形態による画像を示す図であり、(a)は、対象領域の指定の例を示し、(b)は、小領域に分割した例を示す。 第2の実施の形態によるHS値のヒストグラムの一例を示す図であり、(a)は、対象領域内のヒストグラム、(b)は、対象領域外のヒストグラムを示す。 第2の実施の形態による各HS値の尤度を示す図である。 標準的なコンピュータの構成を示す図である。
(第1の実施の形態)
以下、図面を参照しながら、第1の実施の形態による画像処理システム1について説明する。図1は、第1の実施の形態による画像処理システム1の構成を示す図である。図1に示すように、画像処理システム1は、カメラ3、および画像処理装置5を有している。カメラ3は、例えば固体撮像素子などを備えた、動画を撮影可能な撮影装置である。
画像処理装置5は、入力画像記憶部7、テンプレート記憶部9、相関演算部11、更新判定部13、位置出力部15、対象領域指定部17、テンプレート更新部20を有している。入力画像記憶部7は、カメラ3で撮影された画像を記憶する記憶装置である。テンプレート記憶部9は、対象物を追尾するために用いる参照画像となるテンプレートを記憶する記憶装置である。
相関演算部11は、テンプレートと、撮影された画像との相関を演算する。更新判定部13は、相関演算部11で算出された相関度に基づき、画像に変化があったか否かを判断する。更新判定部13は、相関度の低下により画像に変化があったことを検出すると、テンプレートを更新すると判定する。位置出力部15は、相関演算部11により、所定以上の相関があると算出された場合に、対象物の位置を特定して出力する。対象領域指定部17は、例えば、キーボードやマウス装置から入力された領域を対象領域として指定する。
テンプレート更新部20は、特徴値計算部22、ヒストグラム計算部24、尤度計算部26、重心・共分散計算部28、分離度検出部30、領域決定部32を有している。特徴値計算部22は、入力画像記憶部7に記憶された画像を、後述するように複数の領域に分割し、それぞれの領域における特徴量を算出する。ヒストグラム計算部24は、特徴値計算部22で算出された特徴量の、対象領域指定部17で指定された対象領域内外でのヒストグラムを計算する。
尤度計算部26は、ヒストグラム計算部24で計算された特徴量のヒストグラムに基づき、尤度を計算する。重心・共分散計算部28は、複数の領域に尤度計算部26で計算された尤度の重み付けをした結果に基づき、重心および共分散行列を計算する。分離度検出部30は、重心・共分散計算部28で算出された重心から所定距離の領域の内外で、分離度の差が最も大きくなるマハラノビス距離を検出する。領域決定部32は、分離度検出部30で検出されたマハラノビス距離に基づき、次のテンプレートとすべき領域を決定するとともに、決定したテンプレートをテンプレート記憶部9に記憶させる。
以上のように構成される画像処理システム1において行われる処理を、図2から図6を参照しながら説明する。なお、本実施の形態においては、テンプレートの更新に用いる特徴量として、輝度分散を用いる。輝度分散は、海面上の船を追尾する場合等、画像において、対象物と、その他の部分との輝度の変化に差がある場合に、採用することが好ましい。船の追尾の例においては、船はエッジやコーナーが多く輝度の変化が大きいのに対し、海面は一様なパターンが多く輝度の変化は少ないため、特徴量として輝度分散を用いている。
図2は、第1の実施の形態による画像を示す図であり、(a)は、対象領域の指定の例を示し、(b)は、小領域に分割した例を示す。図2(a)に示すように、まず、ユーザは、不図示の表示装置に表示された画像40において、不図示のマウス装置等により、追尾したい対象物42を取り囲む矩形領域を設定する。画像処理システム1において、対象領域指定部17は、ユーザにより指定された矩形領域を、対象領域44として指定する。
図2(b)に示すように、特徴値計算部22は、画像40を、座標(x、y)を中心とする、対象領域44よりも小さい複数の小領域45に分割し、各小領域45において、下記の式1により輝度分散Var(x、y)を計算する。
ここで、Nは、小領域45におけるピクセル数、v(k)は、小領域45内の画素に1からNまでの番号を便宜的に割り当てた場合の、k(kは1からNまでの整数)番目の画素の輝度値である。輝度値とは、例えば、各画素の輝度信号の階調値である。
次に、ヒストグラム計算部24は、対象領域44の内外における、小領域45の輝度分散ヒストグラムを求める。図3は、輝度分散のヒストグラムの一例を示す図であり、(a)は、対象領域44内のヒストグラム、(b)は、対象領域44外のヒストグラムを示す。
図3において、横軸は、輝度分散i、縦軸は、頻度である。ここで、輝度分散iは、式1により算出された輝度分散Var(x、y)を所定の値の範囲ごとに分け、それぞれの範囲に振分けた番号0〜n(nは任意の整数)で表している。例えば、輝度分散Var(x、y)=0〜Var1の範囲に輝度分散i=1を割り当て、輝度分散Var(x、y)=Var1〜Var2の範囲に輝度分散i=1を割り当てる等である。頻度は、それぞれの輝度分散iに該当する小領域45の数を、算出対象の領域における小領域45の総和が「1」になるように正規化して表すものとする。ここで、頻度W1(i)は、対象領域44内を算出対象とした場合の頻度を示し、頻度W2(i)は、対象領域44外を算出対象とした場合の頻度を示す。
図4は、各輝度分散の尤度ρ(i)を示す図である。尤度計算部26は、下記の式2により尤度ρ(i)を算出する。
ρ(i)=ln(W1(i)/W2(i))・・・(式2)
図4において、横軸は、輝度分散iである。縦軸は、輝度分散iに応じて上記式2により算出された尤度ρ(i)を示している。
続いて、重心・共分散計算部28は、式2により算出した尤度ρ(i)を用いて、対象領域44内の小領域45の中心座標の尤度ρ(i)で重み付けした重心と共分散行列を求める。すなわち、重心・共分散計算部28は、各小領域45の中心座標(x、y)に、各小領域45の輝度分散に基づき式2により計算した尤度ρ(i)を割り当てる。例えば、重心・共分散計算部28は、便宜的に番号p(pは、1以上の整数)を割り当てた小領域45の中心座標(xp、yp)の輝度分散Var(xp、yp)が、例えばi=1に属している場合には、i=1に対応する尤度ρ(1)を中心座標(xp、yp)に割り当てる。以下、中心座標(xp、yp)に対応する尤度ρ(i)を尤度ρ(p)という。なお、対象領域44内の小領域45の数をM(Mは正の整数)とすると、pは、1≦p≦Mの整数である。以上より、重心の座標(xg、yg)は、下記の式3により算出される。
このとき、共分散行列Aは、下記の式4により算出される。
分離度検出部30は、各小領域45の中心座標(xp、yp)に対し、重心(座標(xg、yg))からのマハラノビス距離dを、下記式5、式6により計算する。
図5は、以上のように算出されたマハラノビス距離dに基づき、マハラノビス距離d=1、2、・・・、D(Dは、以下の例では4を使用する。よってここでは、マハラノビス距離d=1、2、3、4)の領域を図示した例である。図5に示すように、重心50に対するマハラノビス距離d=1の領域は、領域52で表される。以下同様に、マハラノビス距離d=2、3、4の領域は、それぞれ領域54、56、58で表される。
選択したマハラノビス距離d=1、2、3、4に対して、分離度検出部30は、以下の処理を行う。すなわち、分離度検出部30は、小領域45の中心座標(xp、yp)について算出されたマハラノビス距離dが上記マハラノビス距離d=1〜4から選択された距離以下である領域を対象領域内とし、選択された距離を超える領域を対象領域外とする。そして、分離度検出部30は、上記図2および図3を参照しながら説明した処理と同様の処理を行う。すなわち、分離度検出部30は、対象領域内の小領域45の輝度分散のヒストグラムにおける頻度Wd1(i)(頻度の総和を1で正規化)、および対象領域外の小領域45の輝度分散のヒストグラムにおける頻度Wd2(頻度の総和を1で正規化)を求める。
続いて、得られた結果を用いて、分離度検出部30は、頻度Wd1(i)、および頻度Wd2(i)に基づき輝度ヒストグラムの分離度α(d)を求める。分離度α(d)は下記の式7により求められる。
分離度検出部30は、以上の処理を複数のマハラノビス距離d(ここでは、d=1、2、3、4)に基づいて行い、上記式7により算出される分離度α(d)を算出し、算出された中で最大の分離度α(d)となるマハラノビス距離である分離度最大距離dmaxを求める。
図6は、分離度最大距離dmaxの一例を示す図である。図6に示すように、この例では、分離度最大距離dmax=2であり、対応する領域は、領域54である。画像処理装置5では、この領域54を、新たな対象領域とする。
さらに、ここで、対象領域指定部17は、上記の処理により抽出された新たな対象領域である領域54を新たな対象領域44と指定して、上記処理をはじめから再度実行する。ここで、対象領域44は、領域54を内包する矩形領域としてもよい。上記処理を再度実行することにより、領域決定部32は、分離度最大距離dmaxに対応する領域をテンプレートとして、テンプレート記憶部9に記憶させる。
例えば、再度上記処理を実行した結果導き出された新たな対象領域が、例えば、図6に示す領域54であるとする。このとき、テンプレートとしては、図6に示すように、重心50からのマハラノビス距離dが、分離度最大距離dmax以内の小領域45の集合である領域60が登録される。なお、ここでは説明の都合上、再処理実行後に導き出された新たな対象領域は、1回目に導き出された対象領域と同一としているが、同一とは限らない。
以下、主に図7を参照しながら、第1の実施の形態による画像処理システム1の動作についてさらに説明する。図7は、第1の実施の形態による画像処理システム1の動作を示すフローチャートである。
図1を参照して説明したように、まず、ユーザが、不図示の表示装置に表示された画像40において、不図示のマウス装置等により、追尾したい対象物42を指定するため、対象物42を取り囲む例えば矩形領域を設定する。画像処理システム1において、対象領域指定部17は、ユーザにより指定された矩形領域を、対象領域44として指定する(S101)。
図2を参照して説明したように、特徴値計算部22は、画像40を、座標(x、y)を中心とする、対象領域44よりも小さい複数の小領域45に分割する(S102)。特徴値計算部22は、各小領域45において、上記式1により輝度分散Var(x、y)を計算する(S103)。
図3を参照して説明したように、ヒストグラム計算部24は、対象領域44の内外における、各小領域45の輝度分散ヒストグラムを求める(S104)。図4を参照して説明したように、算出されたヒストグラムに基づき、尤度計算部26は、式2により尤度ρ(i)を算出する(S105)。重心・共分散計算部28は、式2により算出した尤度ρ(i)を用いて、式3により対象領域44内の小領域45の中心座標の尤度ρ(i)で重み付けした重心と共分散行列を求める(S106)。
図5を参照して説明したように、分離度検出部30は、各小領域45の中心座標(xp、yp)について、重心(座標(xg、yg))からのマハラノビス距離dを、上記式5、式6により計算する。図2および図3を参照しながら説明した処理と同様に、分離度検出部30は、選択されたマハラノビス距離dに基づく対象領域内外について、輝度分散ヒストグラムの頻度Wd1(i)、Wd2(i)を算出し、式7により分離度α(d)を求める。また、分離度検出部30は、分離度α(d)が最大となる分離度最大距離dmaxを求める(S107)。
図6を参照して説明したように、領域決定部32は、重心からのマハラノビス距離dが、分離度最大距離dmax以内の領域を、新たな対象領域として切り出す(S108)。領域決定部32は、新たな対象領域を切り出す上記S104からS108の処理が、再実行済みであるか否か判別し(S109)、再実行をしていない場合には(S109:NO)、S104に処理を戻し、S108までの処理を再度繰り返す。再実行済みであると判別された場合には(S109:YES)、領域決定部32は、テンプレート記憶部9に、分離度最大距離dmaxに対応する領域(図6の例では領域54)をテンプレートとして、テンプレート記憶部9に登録する(S110)。
以下、対象物42の追尾を行う処理として、画像処理装置5は、入力画像記憶部7に、カメラ3から次のフレームの画像が入力されるのを待つ(S111)。相関演算部11は、入力された新たな画像について、S110までの処理で登録されたテンプレートとの相関を算出する。これにより相関演算部11は、入力された新たな画像における対象物42の位置を追尾位置70として算出し、位置出力部15は、例えば図示せぬ表示部などに出力する(S112)。
更新判定部13は、相関演算部11が算出した相関値が、あらかじめ定められた閾値より大きいか否か判別する(S113)。算出した相関値が、あらかじめ定められた閾値より大きい場合には、更新判定部13は、テンプレート記憶部9に登録されているテンプレートが適切であると判断し、S111に戻って対象物42の追尾を継続する(S113:YES)。算出した相関値が、あらかじめ定められた閾値以下の場合には、更新判定部13は、画像に変化があったと判断し、テンプレート記憶部9に登録されているテンプレートを更新する必要があると判断する(S113:NO)。このとき、更新判定部13は、現在テンプレートに指定されている領域を内包する矩形領域を新たな対象領域44として指定し(114)、S102からの処理を繰り返す。
以上説明したように、第1の実施の形態による画像処理システム1は、追尾する対象物42の移動などにより、取得した画像とテンプレートとの相関値が一定以下に低下した場合に、テンプレートを更新する。テンプレートは、小領域45の中心座標に基づく重心からのマハラノビス距離dが、小領域45毎の輝度分散に基づいて算出された分離度α(d)が最大になる分離度最大距離dmax以内となる小領域45の集合とする。なお、輝度分散に基づき新たなテンプレートを切り出すS104からS108の処理は、2回行うことが好ましい。
以上のように、第1の実施の形態による画像処理システム1によれば、例えば、移動する航空機から船舶を対象物42として撮影する場合に、航空機と船舶の位置により対象物42の大きさや向き等が変化する場合にも、適切な対応が可能である。すなわち、対象物42以外の影響をなるべく除去した情報に基づき、随時テンプレートを更新することができる。よって、対象物42を見失うことも防止できる。
第1の実施の形態による画像処理システム1は、輝度分散のヒストグラムの分離度に基づきテンプレートを更新する。このように、輝度分散が異なる領域を分離できるように、対象領域の大きさを決定していることで、輝度の変化と形状の変化の両方に自動対応したテンプレート更新を可能とし、その結果、輝度の変化と形状の変化の両方に対応した対象追尾が可能となる。これにより、照明条件による輝度の変化も自動的に考慮される。
また、対象領域44が指定され、新たな対象領域を求める処理を一度目に行う場合には、重心から中心点までの距離が分離度最大距離dmaxより大きい小領域45も含む対象領域44に基づき新たな対象領域が抽出される。そこで、一度抽出した対象領域について、再度同様の処理を行って対象領域を抽出することにより、分離度最大距離dmax外の小領域45の影響を除去することが可能になり、より適切なテンプレートの更新が可能になる。なお、輝度値として、カラー画像の各色の輝度を組み合わせた輝度値を用いるようにしてもよい。
(第2の実施の形態)
以下、図8から図10を主に参照しながら、第2の実施の形態による画像処理システムについて説明する。第2の実施の形態において、第1の実施の形態と同様の構成および動作については重複説明を省略する。
第2の実施の形態による画像処理システムの構成は、第1の実施の形態による画像処理システム1と同様である。第2の実施の形態においては、特徴量として、各画素のHue Saturation Value(HSV)色空間でのH成分(色相)、S成分(彩度)の平均値を計算する。これは、例えば、人の顔における肌色など、対象物に多く存在し、周囲にはあまり存在しない色があるような、特徴が色の成分に顕著に現れる場合などに用いることが好ましい。
図8は、第2の実施の形態による画像を示す図であり、(a)は、対象領域の指定の例を示し、(b)は、小領域に分割した例を示す。図8(a)に示すように、まず、ユーザは、不図示の表示装置に表示された画像150において、不図示のマウス装置等により、追尾したい対象物152を取り囲む矩形領域を設定する。画像処理システム1において、対象領域指定部17は、ユーザにより指定された矩形領域を、対象領域154として指定する。本実施の形態における対象物152は人の顔であるため、対象領域154は、画像150のほかの領域と比較すると、肌色が多い領域となっている。
図8(b)に示すように、特徴値計算部22は、画像150を、座標(x、y)を中心とする、対象領域44よりも小さい複数の小領域156に分割する。特徴値計算部22は、各小領域156において、下記の式1によりH成分の平均Have(x、y)、S成分の平均Save(x、y)を計算する。
ここで、Nは、小領域156おけるピクセル数、h(k)、s(k)はそれぞれ、小領域156内の画素に1からNまでの番号を便宜的に割り当てた場合の、k(kは1からNまでの整数)番目の画素のH成分、S成分の値である。
次に、ヒストグラム計算部24は、対象領域154の内外における、小領域156のH成分、S成分のヒストグラムを求める。図9は、H成分、S成分のヒストグラムの一例を示す図であり、(a)は、対象領域154内のヒストグラム、(b)は、対象領域154外のヒストグラムを示す。
図9において、横軸は、H成分、S成分の組み合わせを用いたHS値であり、縦軸は、頻度である。ここでHS値とは、以下の例では、H成分を3段階、S成分を3段階で区分分けし、組み合わせて3×3=9段階のインデックスをHS値hs=1〜9として生成する。例えば、hs=1は、H成分の平均、S成分の平均ともに第1段階の小領域156に対応し、hs=2は、H成分の平均が第1段階、S成分の平均が第2段階の小領域156に対応するなどとする。頻度は、それぞれのHS値を有する小領域156の数を、頻度の総和が「1」になるように正規化した数値である。ここで、頻度W1(hs)は、対象領域154内の頻度を示し、頻度W2(hs)は、対象領域154外の頻度を示す。なお、HS値のインデックスは9に限定されない。また、H成分、S成分のどの組み合わせを、各HS値hsに対応付けるかについては、任意の組み合わせを用いることができる。
図10は、HS値の尤度ρ(hs)を示す図である。尤度計算部26は、下記の式9により尤度ρ(hs)を算出する。
ρ(hs)=ln(W1(hs)/W2(hs))・・・(式9)
図10において、横軸は、HS値hsである。縦軸は、HS値に応じて上記式9により算出された尤度ρ(hs)を示している。ここで、尤度160のように、尤度ρ(hs)が大きいところが、対象領域154の色の特徴を表しており、本実施の形態においては、肌色らしさが大きいことを示している。
続いて、重心・共分散計算部28は、式9により算出した尤度ρ(hs)を用いて、対象領域154内の小領域156の中心座標の尤度ρ(hs)で重み付けした重心と共分散行列を求める。すなわち、重心・共分散計算部28は、各小領域156の中心座標(x、y)に、各小領域156のHS値に基づき式9により計算した尤度ρ(hs)を割り当てる。例えば、重心・共分散計算部28は、便宜的に番号p(pは、1以上の整数)を割り当てた小領域156の中心座標(xp、yp)のHS値が、例えばhs=1に属している場合には、hs=1に対応する尤度ρ(hs)を中心座標(xp、yq)に割り当てる。以下、このときの尤度ρ(hs)を尤度ρ(p)という。なお、対象領域154内の小領域156の数をM(Mは正の整数)とすると、pは、1≦p≦Mの整数である。以上より、重心の座標(xg、yg)は、第1の実施の形態と同様、上記の式3により算出される。
以下、第1の実施の形態と同様に、式4により、共分散行列Aが算出され、式5、式6によりマハラノビス距離dが計算される。分離度検出部30は、算出された重心からマハラノビス距離dが所定値以下である領域を対象領域内とし、重心からのマハラノビス距離dが、所定値を超える領域を対象領域外とする。そして、分離度検出部30は、図9を参照しながら説明した処理と同様の処理を行う。すなわち、分離度検出部30は、対象領域内の小領域156のHS値のヒストグラムの頻度Wd1(hs)(頻度の総和を1で正規化)、および対象領域外の小領域156のHS値のヒストグラムの頻度Wd2(hs)(頻度の総和を1で正規化)を求める。
続いて、得られた結果を用いて、分離度検出部30は、頻度Wd1(hs)、および頻度Wd2(hs)の分離度を求める。分離度α(d)は下記の式10により求められる。
分離度検出部30は、以上の処理を複数のマハラノビス距離d(ここでは、d=1、2、3、4)に基づいて行い、上記式7により算出された分離度α(d)の中で最大の分離度α(d)となるマハラノビス距離である分離度最大距離dmaxを求める。領域決定部32は、マハラノビス距離dが分離度最大距離dmax以内の領域を、新たな対象領域とする。
以下、第1の実施の形態における処理と同様、対象領域指定部17は、上記の処理により抽出された新たな対象領域を新たな対象領域154と指定して、上記対象領域を決定する処理を再度実行する。上記処理を再度実行することにより、領域決定部32は、分離度最大距離dmaxに対応する領域に応じた小領域156の集合をテンプレートとして、テンプレート記憶部9に記憶させる。
以上説明したように、第2の実施の形態による画像処理システム1によれば、追尾する対象物152の移動などにより、取得した画像とテンプレートとの相関値が一定以下に低下した場合に、テンプレートを更新する。テンプレートは、小領域156毎のHS値に基づいて算出された重心からのマハラノビス距離dが、分離度α(d)が最大になる分離度最大距離dmax以内となる小領域156とする。なお、HS値に基づき新たなテンプレートを切り出す処理は、2回行うことが好ましい。
以上のように、第2の実施の形態による画像処理システム1によれば、例えば、移動する対象物152を撮影する際に、対象物152の大きさや向き等が変化する場合にも、適切な対応が可能である。すなわち、対象物152以外の影響をなるべく除去した情報に基づき、随時テンプレートを更新することができる。よって、対象物152を見失うことも防止できる。
第2の実施の形態による画像処理システム1は、画像の色成分のヒストグラムの分離度に基づきテンプレートを更新する。このように、色成分が異なる領域に基づき対象領域の大きさを決定していることで、対象物152の移動による形状の変化に自動対応したテンプレート更新を可能とし、その結果、対象物152の移動による形状の変化に対応した対象追尾が可能となる。これにより、照明条件による画面全体の色成分の変化も自動的に考慮される。
また、対象領域154が指定され、新たな対象領域を求める処理を一度目に行う場合には、重心から中心点までの距離が分離度最大距離dmaxより大きい小領域156も含む対象領域44に基づき新たな対象領域が抽出される。そこで、一度抽出した対象領域について、再度同様の処理を行って対象領域を抽出することにより、分離度最大距離dmax外の小領域156の影響を除去することが可能になり、より適切なテンプレートの更新が可能になる。
なお、本発明は、以上に述べた実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の構成または実施形態を採ることができる。例えば、特徴値として、輝度分散およびHS値を例にして説明したが、画像の特徴を表す値であれば、他の特徴値、または計算値を用いた値でもよい。また、新たな対象領域を抽出する処理は、二度行う場合について説明したが、上記に限定されない。3度以上繰り返すことにより、さらに領域抽出の精度が向上する。また、1回のみでも、対象物42の大きさ、向き、照明条件を考慮したテンプレートの抽出は可能である。
ここで、上記第1および第2の実施の形態による画像処理方法の動作をコンピュータに行わせるために共通に適用されるコンピュータの例について説明する。図11は、標準的なコンピュータのハードウエア構成の一例を示すブロック図である。図11に示すように、コンピュータ300は、Central Processing Unit(CPU)302、メモリ304、入力装置306、出力装置308、外部記憶装置312、媒体駆動装置314、ネットワーク接続装置等がバス310を介して接続されている。
CPU302は、コンピュータ300全体の動作を制御する演算処理装置である。メモリ304は、コンピュータ300の動作を制御するプログラムを予め記憶したり、プログラムを実行する際に必要に応じて作業領域として使用したりするための記憶部である。メモリ304は、例えばRandom Access Memory(RAM)、Read Only Memory(ROM)等である。入力装置306は、コンピュータの使用者により操作されると、その操作内容に対応付けられている使用者からの各種情報の入力を取得し、取得した入力情報をCPU302に送付する装置であり、例えばキーボード装置、マウス装置などである。出力装置308は、コンピュータ300による処理結果を出力する装置であり、表示装置などが含まれる。例えば表示装置は、CPU302により送付される表示データに応じてテキストや画像を表示する。
外部記憶装置312は、例えば、ハードディスクなどの記憶装置であり、CPU302により実行される各種制御プログラムや、取得したデータ等を記憶しておく装置である。媒体駆動装置314は、可搬記録媒体316に書き込みおよび読み出しを行うための装置である。CPU302は、可搬型記録媒体316に記録されている所定の制御プログラムを、記録媒体駆動装置314を介して読み出して実行することによって、各種の制御処理を行うようにすることもできる。可搬記録媒体316は、例えばConpact Disc(CD)−ROM、Digital Versatile Disc(DVD)、Universal Serial Bus(USB)メモリ等である。ネットワーク接続装置318は、有線または無線により外部との間で行われる各種データの授受の管理を行うインタフェース装置である。バス310は、上記各装置等を互いに接続し、データのやり取りを行う通信経路である。
上記第1および第2の実施の形態による画像処理方法をコンピュータに実行させるプログラムは、例えば外部記憶装置312に記憶させる。CPU302は、外部記憶装置312からプログラムを読み出し、コンピュータ300に画像処理の動作を行なわせる。このとき、まず、画像処理の処理をCPU302に行わせるための制御プログラムを作成して外部記憶装置312に記憶させておく。そして、入力装置306から所定の指示をCPU302に与えて、この制御プログラムを外部記憶装置312から読み出させて実行させるようにする。また、このプログラムは、可搬記録媒体316に記憶するようにしてもよい。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
対象物を追尾するためのテンプレートを更新する画像処理装置であって、
前記対象物を含む画像において前記対象物を含む対象領域を指定する対象領域指定部と、
前記画像を前記対象領域より小さい複数の小領域に分割した際に、前記対象領域内と前記対象領域外の前記小領域毎の特徴値のヒストグラムに基づく、前記複数の小領域毎の尤度を前記各複数の小領域の中心座標に重み付けた重心および前記重心に応じた共分散行列を計算する計算部と、
前記ヒストグラム、前記尤度、前記重心、および前記共分散行列に基づき前記画像内の領域が他から分離される度合いを示す分離度を検出する分離度検出部と、
前記分離度に基づき更新後の前記テンプレートとして指定する更新後対象領域を決定する対象領域決定部と、
を有することを特徴とする画像処理装置。
(付記2)
前記特徴値は、輝度分散であることを特徴とする付記1に記載の画像処理装置。
(付記3)
前記特徴値は、カラー輝度平均であることを特徴とする付記1に記載の画像処理装置。
(付記4)
前記尤度は、前記対象領域内と前記対象領域外における所定範囲毎の前記特徴値の出現頻度の比に基づくことを特徴とする付記1から付記3のいずれかに記載の画像処理装置。
(付記5)
対象物を追尾するためのテンプレートを更新する画像処理方法であって、
前記画像において前記対象物を含む対象領域を指定しと、
前記画像を前記対象領域より小さい複数の小領域に分割した際に、前記対象領域内と前記対象領域外の前記小領域毎の特徴値のヒストグラムに基づく、前記複数の小領域毎の尤度を前記各複数の小領域の中心座標に重み付けた重心および前記重心に応じた共分散行列を計算し、
前記ヒストグラム、前記尤度、前記重心、および前記共分散行列に基づきある領域を他から分離するための分離度を検出し、
前記分離度に基づき更新後の前記テンプレートとして指定する更新後対象領域を決定する、
ことを特徴とする画像処理方法。
(付記6)
前記更新後対象領域を前記対象領域として、前記重心および前記共分散行列を計算する処理と、分離度を検出する処理と、新しい更新後対象領域を決定する処理とをさらに繰り返すことを特徴とする付記5に記載の画像処理方法。
(付記7)
前記特徴値は、輝度分散であることを特徴とする付記5または付記6に記載の画像処理方法。
(付記8)
前記特徴値は、カラー輝度平均であることを特徴とする付記5または付記6に記載の画像処理方法。
(付記9)
前記尤度は、前記対象領域内と前記対象領域外における所定範囲毎の前記特徴値の出現頻度の比に基づくことを特徴とする付記5から付記8のいずれかに記載の画像処理方法。
(付記10)
対象物を追尾するためのテンプレートを更新する際に、
前記対象物を含む画像において前記対象物を含む対象領域を指定し、
前記画像を前記対象領域より小さい複数の小領域に分割した際に、前記対象領域内と前記対象領域外の前記小領域毎の特徴値のヒストグラムに基づく、前記複数の小領域毎の尤度を前記各複数の小領域の中心座標に重み付けた重心および前記重心に応じた共分散行列を計算し、
前記ヒストグラム、前記尤度、前記重心、および前記共分散行列に基づきある領域を他から分離するための分離度を検出し、
前記分離度に基づき更新後の前記テンプレートとして指定する更新後対象領域を決定する、
処理をコンピュータに実行させるプログラム。
(付記11)
前記更新後対象領域を前記対象領域として、前記重心および前記共分散行列を計算する処理と、分離度を検出する処理と、新しい更新後対象領域を決定する処理とをさらに繰り返すことを特徴とする付記10に記載のプログラム。
(付記12)
前記特徴値は、輝度分散であることを特徴とする付記10または付記11に記載のプログラム。
(付記13)
前記特徴値は、カラー輝度平均であることを特徴とする付記10または付記11に記載のプログラム。
(付記14)
前記尤度は、前記対象領域内と前記対象領域外における所定範囲毎の前記特徴値の出現頻度の比に基づくことを特徴とする付記9から付記11のいずれかに記載のプログラム。
1 画像処理システム
3 カメラ
5 画像処理装置
7 入力画像記憶部
9 テンプレート記憶部
11 相関演算部
13 更新判定部
15 位置出力部
17 対象領域指定部
20 テンプレート更新部
22 特徴値計算部
24 ヒストグラム計算部
26 尤度計算部
28 重心・共分散計算部
30 分離度検出部
32 領域決定部
40 画像
42 対象物
44 対象領域
45 小領域
46 波等
50 重心
52 領域
60 対象領域
62 テンプレート領域

Claims (10)

  1. 対象物を追尾するためのテンプレートを更新する画像処理装置であって、
    前記対象物を含む画像において前記対象物を含む対象領域を指定する対象領域指定部と、
    前記画像を前記対象領域より小さい複数の小領域に分割した際に、前記対象領域内と前記対象領域外の前記小領域毎の特徴値のヒストグラムに基づく、前記複数の小領域毎の尤度を前記各複数の小領域の中心座標に重み付けた重心および前記重心に応じた共分散行列を計算する計算部と、
    前記ヒストグラム、前記尤度、前記重心、および前記共分散に基づきある領域を他から分離するための分離度を検出する分離度検出部と、
    前記分離度に基づき更新後の前記テンプレートとして指定する更新後対象領域を決定する対象領域決定部と、
    を有することを特徴とする画像処理装置。
  2. 前記特徴値は、輝度分散であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記特徴値は、カラー輝度平均であることを特徴とする請求項1に記載の画像処理装置。
  4. 前記尤度は、前記対象領域内と前記対象領域外における所定範囲毎の前記特徴値の出現頻度の比に基づくことを特徴とする請求項1から請求項3のいずれかに記載の画像処理装置。
  5. 対象物を追尾するためのテンプレートを更新する画像処理方法であって、
    前記画像において前記対象物を含む対象領域を指定しと、
    前記画像を前記対象領域より小さい複数の小領域に分割した際に、前記対象領域内と前記対象領域外の前記小領域毎の特徴値のヒストグラムに基づく、前記複数の小領域毎の尤度を前記各複数の小領域の中心座標に重み付けた重心および前記重心に応じた共分散行列を計算し、
    前記ヒストグラム、前記尤度、前記重心、および前記共分散に基づきある領域を他から分離するための分離度を検出し、
    前記分離度に基づき更新後の前記テンプレートとして指定する更新後対象領域を決定する、
    ことを特徴とする画像処理方法。
  6. 前記更新後対象領域を前記対象領域として、前記重心および前記共分散行列を計算する処理と、分離度を検出する処理と、新しい更新後対象領域を決定する処理とをさらに繰り返すことを特徴とする請求項5に記載の画像処理方法。
  7. 前記特徴値は、輝度分散であることを特徴とする請求項5または請求項6に記載の画像処理方法。
  8. 前記特徴値は、カラー輝度平均であることを特徴とする請求項5または付記6に記載の画像処理方法。
  9. 前記尤度は、前記対象領域内と前記対象領域外における所定範囲毎の前記特徴値の出現頻度の比に基づくことを特徴とする請求項5から請求項8のいずれかに記載の画像処理方法。
  10. 対象物を追尾するためのテンプレートを更新する際に、
    前記対象物を含む画像において前記対象物を含む対象領域を指定し、
    前記画像を前記対象領域より小さい複数の小領域に分割した際に、前記対象領域内と前記対象領域外の前記小領域毎の特徴値のヒストグラムに基づく、前記複数の小領域毎の尤度を前記各複数の小領域の中心座標に重み付けた重心および前記重心に応じた共分散行列を計算し、
    前記ヒストグラム、前記尤度、前記重心、および前記共分散に基づきある領域を他から分離するための分離度を検出し、
    前記分離度に基づき更新後の前記テンプレートとして指定する更新後対象領域を決定する、
    処理をコンピュータに実行させるプログラム。
JP2011284566A 2011-12-26 2011-12-26 画像処理装置、画像処理方法、およびプログラム Expired - Fee Related JP5772572B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011284566A JP5772572B2 (ja) 2011-12-26 2011-12-26 画像処理装置、画像処理方法、およびプログラム
US13/671,279 US8811671B2 (en) 2011-12-26 2012-11-07 Image processing apparatus, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011284566A JP5772572B2 (ja) 2011-12-26 2011-12-26 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2013134628A JP2013134628A (ja) 2013-07-08
JP5772572B2 true JP5772572B2 (ja) 2015-09-02

Family

ID=48654615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011284566A Expired - Fee Related JP5772572B2 (ja) 2011-12-26 2011-12-26 画像処理装置、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US8811671B2 (ja)
JP (1) JP5772572B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103617628A (zh) * 2013-12-16 2014-03-05 北京航空航天大学 基于极化方位角正割函数特征的舰船检测方法
US10262328B2 (en) * 2014-04-25 2019-04-16 Conduent Business Services, Llc System and method for video-based detection of drive-offs and walk-offs in vehicular and pedestrian queues
US9355463B1 (en) * 2014-11-24 2016-05-31 Raytheon Company Method and system for processing a sequence of images to identify, track, and/or target an object on a body of water
CN104730993A (zh) * 2015-03-24 2015-06-24 深圳市金正方科技股份有限公司 智能仪表分区升级方法及智能仪表
CN104851111B (zh) * 2015-04-23 2017-07-07 北京环境特性研究所 一种使用连续变焦探测器的目标跟踪方法
CN106408592B (zh) * 2016-09-09 2019-04-05 南京航空航天大学 一种基于目标模板更新的目标跟踪方法
JP6789877B2 (ja) * 2017-04-28 2020-11-25 キヤノン株式会社 情報処理装置、画像処理システム、制御システム及び情報処理方法
CN108009272B (zh) * 2017-12-19 2021-06-11 西北工业大学 一种基于有向带权图的低空运动目标搜索方法
CN108171168B (zh) * 2017-12-28 2020-09-22 浙江大学 弱小目标变动智能图像检测方法及装置
CN114119609B (zh) * 2022-01-25 2022-04-26 深圳佑驾创新科技有限公司 图像污点浓度的检测方法、装置、设备及存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01315884A (ja) 1988-06-16 1989-12-20 Sony Corp パターン追跡方法
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US20090231436A1 (en) * 2001-04-19 2009-09-17 Faltesek Anthony E Method and apparatus for tracking with identification
US7200266B2 (en) * 2002-08-27 2007-04-03 Princeton University Method and apparatus for automated video activity analysis
US7127127B2 (en) * 2003-03-04 2006-10-24 Microsoft Corporation System and method for adaptive video fast forward using scene generative models
JP4625949B2 (ja) * 2005-02-18 2011-02-02 国立大学法人九州工業大学 物体追跡方法および物体追跡装置ならびにプログラム
US7751622B2 (en) * 2005-08-22 2010-07-06 Carestream Health, Inc. Method and system for detection of undesirable images
WO2007093780A2 (en) * 2006-02-13 2007-08-23 Snell & Wilcox Limited Method and apparatus for modifying a moving image sequence
EP1970005B1 (en) * 2007-03-15 2012-10-03 Xsens Holding B.V. A system and a method for motion tracking using a calibration unit
WO2009085233A2 (en) * 2007-12-21 2009-07-09 21Ct, Inc. System and method for visually tracking with occlusions
US9086499B2 (en) * 2008-09-23 2015-07-21 Purdue Research Foundation Clustering protocol for directional sensor networks
US8335348B2 (en) * 2009-12-14 2012-12-18 Indian Institute Of Technology Bombay Visual object tracking with scale and orientation adaptation
US8660365B2 (en) * 2010-07-29 2014-02-25 Honeywell International Inc. Systems and methods for processing extracted plane features

Also Published As

Publication number Publication date
US20130163863A1 (en) 2013-06-27
US8811671B2 (en) 2014-08-19
JP2013134628A (ja) 2013-07-08

Similar Documents

Publication Publication Date Title
JP5772572B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN107358149B (zh) 一种人体姿态检测方法和装置
US8705868B2 (en) Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US10075652B2 (en) Image processing device for tracking a target object and image processing method, computer program product, and image processing system for same
US8699749B2 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8625898B2 (en) Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8571266B2 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US11776213B2 (en) Pose generation apparatus, generation method, and storage medium
US20170076428A1 (en) Information processing apparatus
US8718325B2 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US20230334235A1 (en) Detecting occlusion of digital ink
JP4946878B2 (ja) 画像識別装置及びプログラム
US20190066311A1 (en) Object tracking
JP2016206995A (ja) 画像処理装置、画像処理方法、及びプログラム
CN102739911A (zh) 图像处理装置及图像处理方法
US10121260B2 (en) Orientation estimation method and orientation estimation device
US9842260B2 (en) Image processing apparatus and image processing method of performing image segmentation
US11423622B2 (en) Apparatus for generating feature positions in a virtual world, information processing method, and storage medium
CN112989958A (zh) 基于YOLOv4与显著性检测的安全帽佩戴识别方法
JP2019120577A (ja) 位置推定装置、位置推定方法及び位置推定用コンピュータプログラム
JP2017033556A (ja) 画像処理方法及び電子機器
EP3291179B1 (en) Image processing device, image processing method, and image processing program
US8705869B2 (en) Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
JPWO2020075468A1 (ja) 環境類似度表示装置、環境類似度表示方法および環境類似度表示アルゴリズム
US20230112148A1 (en) Frame Selection for Image Matching in Rapid Target Acquisition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150615

R150 Certificate of patent or registration of utility model

Ref document number: 5772572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees