JP2016212653A - オブジェクト抽出分類装置およびそのプログラム - Google Patents

オブジェクト抽出分類装置およびそのプログラム Download PDF

Info

Publication number
JP2016212653A
JP2016212653A JP2015096168A JP2015096168A JP2016212653A JP 2016212653 A JP2016212653 A JP 2016212653A JP 2015096168 A JP2015096168 A JP 2015096168A JP 2015096168 A JP2015096168 A JP 2015096168A JP 2016212653 A JP2016212653 A JP 2016212653A
Authority
JP
Japan
Prior art keywords
convex hull
classification
information
color feature
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015096168A
Other languages
English (en)
Inventor
吉田 拓也
Takuya Yoshida
拓也 吉田
浜田 正稔
Masatoshi Hamada
正稔 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2015096168A priority Critical patent/JP2016212653A/ja
Publication of JP2016212653A publication Critical patent/JP2016212653A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】映像中のオブジェクトを抽出および分類するオブジェクト抽出分類装置を提供する。
【解決手段】オブジェクト抽出分類装置1は、映像のフレームごとの差分から、オブジェクトの存在を示す色特徴情報を含んだ画像を生成する色特徴情報生成手段(輝度差分生成手段10,色相差分生成手段11)と、色特徴情報を含んだ画像を部分空間に分割し、グロモフ・ハウスドルフ距離に基づく連続性のある部分空間の凸包から、当該凸包の特徴を示す凸包情報を生成する空間分割手段13と、凸包情報から位相幾何の特有情報を生成し、当該特有情報の確率モデル・確率分布を生成し、予め定められた分類基準とにより、オブジェクトを抽出および分類する分類手段17と、を備える。
【選択図】図1

Description

本発明は、映像中のオブジェクトを抽出および分類するオブジェクト抽出分類装置およびそのプログラムに関する。
従来、映像から、位相幾何の特徴に基づいて、人物等のオブジェクトを分類する手法が存在している(例えば、非特許文献1参照)。
この非特許文献1に記載の手法(以下、従来手法という)は、確率モデル・確率分布に基づいてオブジェクトの分類を行っている。すなわち、従来手法は、オブジェクトを特定するパラメータ(統計パラメータ)を推定するために、確率モデル・確率分布を推論し、その推定・推論に繰り返し演算を行う数理手法によりオブジェクトの分類を行っている。例えば、この従来手法では、M回(Mは整数)の演算を行った平均値を用いてオブジェクトのパラメータを推定し、オブジェクトの分類を行っている。なお、非特許文献1には、この繰り返し数Mの収束性については言及されていない。
また、従来手法では、事後確率が最大となる境界でオブジェクトを分類するため、グロモフ・ハウスドルフ距離の差、デプス(深さや解像度)の差等を用いている。
また、従来手法では、推定するパラメータ数を減らし、演算量を抑えるため、例えば、パーティクルフィルタやカーネル関数(ガウスカーネル)を用いて推定を行っている(パーティクルフィルタについては、非特許文献2参照、カーネル法については、非特許文献3参照)。
Gurjeet Singh, Facundo Memoli, Gunnar Carlsson "Topological Methods for the Analysis of High Dimensional Data Sets and 3D Object Recognition" EurographicsSymposium on Point-Based Graphics 2007 Xinyue ZHAO, Yutaka SATOH, HidenoriTAKAUJI, Shunichi KANEKO,"Robust Tracking Using Particle Filter with a Hybrid Feature", IEICE Trans. Inf.&Syst., Vol.E95-D, No.2, Feb.2012) Charles Elkan,"Deriving TF-IDF as a Fisher Kernel", String Processing and Information Retrieval Lecture Notes in Computer Science Vol.3772, 2005, pp295-300)
グロモフ・ハウスドルフ距離(例えば、参考文献1:大津幸男,塩谷隆,加須栄篤,山口孝男,酒井隆,深谷賢治,「数学メモアール」,2004年第3巻、P185)を用いて境界を判別する従来手法は、判別精度に問題がある。
また、従来手法は、確率モデル・確率分布の推論、統計パラメータの推定のために、繰り返し演算を行う数理手法であるため、計算コストが大きく、リアルタイム性を損なうという問題がある。
以下、これらの問題について図面を用いて具体的に説明する。
まず、図13を参照して、グロモフ・ハウスドルフ距離を用いた従来手法の判別精度の問題について説明する。なお、ここでは、説明を容易にするため、ユークリッド空間で説明する。この場合、グロモフ・ハウスドルフ距離は、二つの部分空間で構成される距離空間の間の距離であって、一方の部分空間における他方の部分空間から最も離れた点と、他方の部分空間における一方の部分空間に最も近い点との距離と、他方の部分空間における一方の部分空間から最も離れた点と、一方の部分空間における他方の部分空間に最も近い点との距離との差となる。
すなわち、図13(a)に示すように、二つの部分空間K,Kにおいて、お互いの最も離れた点と最も近い点とを結んだ長さをd,dとしたとき、グロモフ・ハウスドルフ距離dis fは、以下の式(1)の写像f間の距離で定義される。
ここで、グロモフ・ハウスドルフ距離によって、部分空間の連続性を判定すると、図13(b)に示すように、二つの部分空間k,kにおいて、お互いの最も離れた点と最も近い点とを結んだ長さdとdとの差が、“0”(閾値ζ未満)であれば、部分空間k,kは連続していると判定される。
一方、図13(c)に示すように、二つの部分空間K,Kにおいて、お互いの最も離れた点と最も近い点とを結んだ長さdとdとの差が、閾値ζ以上であれば、部分空間K,Kは連続していないと判定される。
この判定手法で、例えば、図13(d)に示す正解が二つ存在するような関係のオブジェクトA,Bの連続性を判定する。ここで、オブジェクトAの部分空間kに着目すると、部分空間kとオブジェクトA内の他の部分空間の距離と、部分空間kとオブジェクトBの部分空間kとの距離がすべて同じになる。すなわち、図13(d)の場合、グロモフ・ハウスドルフ距離を用いた連続性の判別は不正解となり、判別精度が劣化(ロバストが劣化)するという問題がある。
次に、図14を参照して、従来手法における数理手法の問題について説明する。
ここでは、説明を容易にするため、図14(a)に示すように、観測Yから、オブジェクトを特定するためのパラメータk(=(k,k))と平均a、分散σのガウス分布と仮定したノイズ N 〜(a,σ)の推定と、隠れ変数Xの推論の例で説明する。
ここで、kは、例えば、映像内のパラメータであるオブジェクト数、配置、歪、拡大縮小、回転等、kは、例えば、個々のオブジェクトのパラメータである頂点数、体積(面積)等である。
この場合、パラメータkを、例えば、最尤推定(EMアルゴリズム等)で推定し、隠れ変数Xを事後周辺確率最大化で推論する必要があり、パラメータ数をαとしたとき、2αの計算コストになってしまう。
(例えば、参考文献2:Masatoshi HAMADA, Shiro IKEDA,“Channel Estimation and Code Word Inference for Mobile Digital Satellite Broadcasting Reception”,IEICE Trans. COMMUN., Vol.E91-B, No.12, Dec.2008, pp3886-3898)
従来手法では、パーティクルフィルタ(非特許文献2参照)やカーネル法(非特許文献3参照)を用いてパラメータ数を減少させて観測Yから隠れ変数Xを推論する。すなわち、図14(b)に示すように、観測Yに対して、パラメータkとして、区間(パーティクルの始点と終点)、パーティクル(カーネル)数として、隠れ変数X,X等を推論する。
このとき、例えば、状態(b−1)ノーマル、(b−2)重なり、(b−3)欠損等は、隠れ変数のサイズや数が不明なため観測から判別するのは困難である。このため、従来手法は、例えば、確率モデルを与え、隠れ変数のサイズや数をパラメータとして推定し、隠れ変数Xを推論している。
このように、カーネル法によって、パラメータ数を減少させることは可能であるが、パラメータ数をαとしたときの2αの計算コストがかかることに変わりはなく、さらなる計算コストの削減が望まれる。
また、従来手法のように、カーネル法を用いた場合、図14(b)の(b−3)に示したように、観測で欠損が生じた場合、推論の精度が劣化するというロバストの問題がある。
本発明は、このような問題に鑑みてなされたものであり、従来手法のように、確率モデル・確率分布を推論し、その推定・推論に繰り返し演算を行う数理手法を用いずに、映像から位相幾何のユニークネス(特有情報)を生成する課題、ならびに、位相幾何のユニークネスから直接、確率モデル・確率分布を生成して、オブジェクトを抽出分離することが可能なオブジェクト抽出分類装置およびそのプログラムを提供することを課題とする。
前記課題を解決するため、本発明に係るオブジェクト抽出分類装置は、映像中のオブジェクトを抽出および分類するオブジェクト抽出分類装置であって、映像から位相幾何のユニークネス(特有情報)を生成するための情報を生成する手段、ならびに、その情報から位相幾何のユニークネスを生成し、ユニークネスから直接、確率モデル・確率分布を生成して、オブジェクトを抽出分離する手段を備える構成とした。
映像から位相幾何のユニークネス(特有情報)を生成するための情報を生成する手段として、具体例では、色特徴情報生成手段と凸包情報生成手段とを備える。
位相幾何のユニークネスを生成し、ユニークネスから直接、確率モデル・確率分布を生成して、オブジェクトを抽出分離する手段として、具体例では、分類手段を備える構成とした。
かかる構成において、本発明に係るオブジェクト抽出分類装置は、従来の凸包生成手順と逆の手順でオブジェクトを抽出する。本発明に係るオブジェクト抽出分類装置は、最初にオブジェクトの存在を示す色特徴情報を含んだ部分空間と、当該情報を含んでいない部分空間に分割する。次に、本発明で改良するグロモフ・ハウスドルフ距離を用いて連続する部分空間と非連続な部分空間に区別し、連続する部分空間の集合が全次元で非連続な部分空間の集合に接する条件で、連続する部分空間の集合を凸包と定義する。
具体例では、オブジェクト抽出分類装置は、色特徴情報生成手段によって、映像のフレームごとの差分から、オブジェクトの存在を示す色特徴情報(例えば、輝度、色相)を含んだ画像を生成する。
そして、オブジェクト抽出分類装置は、凸包情報生成手段によって、例えば、色特徴情報生成手段で生成された色特徴情報を含んだ画像を部分空間に分割する。これによって、部分空間には、オブジェクトの存在を示す色特徴情報を含んだ部分空間や、当該情報を含んでいない部分空間に分割されることになる。
さらに、オブジェクト抽出分類装置は、凸包情報生成手段によって、部分空間ごとのグロモフ・ハウスドルフ距離に基づく連続性のある部分空間を生成し、当該部分空間の特徴を示す位相幾何情報を生成し、グロモフ・ハウスドルフ距離を改良する。この位相幾何情報を用いて改良したグロモフ・ハウスドルフ距離によって、少なくともオブジェクトの形状特徴を分類することが可能になる。
すなわち、凸包情報生成手段は、従来のグロモフ・ハウスドルフ距離を基準に部分空間が連続すると誤って判定した場合でも、確実に連続性を判定することができる。
本発明に係る凸包情報生成手段は、本発明で改良するグロモフ・ハウスドルフ距離を用いて連続する部分空間と非連続な部分空間に区別し、連続する部分空間の集合が全次元で非連続な部分空間の集合に接する条件で、連続する部分空間の集合を以て凸包を生成する。
そして、オブジェクト抽出分類装置は、分類手段によって、凸包情報生成手段で生成された凸包情報から位相幾何のユニークネスを生成し、確率モデル・確率分布に写像(変換)し、凸包情報で特定される特徴に対して確率モデル・確率分布に写像したオブジェクトの種別を予め定めた分類基準により、凸包情報で示されるオブジェクトを抽出し、分類する。
なお、オブジェクト抽出分類装置は、コンピュータを、前記各手段として機能させるためのオブジェクト抽出分類プログラムで動作させることができる。
本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、映像内のオブジェクトを色特徴によって、オブジェクトが存在する部分空間を特定し、その特徴によってオブジェクトを分類することができる。
このとき、本発明によれば、オブジェクトが存在する部分空間の連続性を、グロモフ・ハウスドルフ距離に基づいて判定するが、凸包情報生成手段によって、位相幾何のユニークネスを用いてグロモフ・ハウスドルフ距離を改良することで、従来のグロモフ・ハウスドルフ距離に基づいて誤判定を行った連続性を正しく判定することができる。これによって、本発明は従来に比べロバスト性を高めてオブジェクトを抽出することができる。
また、本発明によれば、従来のような確率モデル・確率分布の推論、統計パラメータの推定等に用いられるようなループ演算を用いずに、映像上の特徴から直接オブジェクトを抽出するため、従来に比べ計算コストを減少させることができる。
本発明の実施形態に係るオブジェクト抽出分類装置のブロック構成を示す構成図である。 輝度差分生成手段と色相差分生成手段の処理を説明するための説明図である。 空間分割手段の部分空間階層化手段における画像空間の階層化処理を説明するための説明図であって、(a)はフレーム画像をオブジェクトの存在/不存在でブロック化した状態を示し、(b),(c)はオブジェクトが存在するブロックを階層化して分割した状態を示す図である。 空間分割手段のオブジェクト領域判別手段における凸包を生成する手法を説明するための説明図であって、(a)は図3(b)に対応し、(b)は図3(c)に対応する図である。 空間分割手段の連続部分空間検出手段における部分空間の連続性を判定する手法を説明するための説明図であって、(a)は隣接するブロックを示し、(b)はグロモフ・ハウスドルフ距離によって部分空間の連続性を判定する例、(c)は連続した部分空間の凸包情報を示す図である。 輝度差分代表値生成手段における輝度差分代表値の生成手法を説明するための説明図である。 色相差分代表値生成手段における色相差分代表値の生成手法を説明するための説明図である。 分類手段における分類基準の例を示す図であって、(a)は凸包の面積と頂点数でオブジェクトを分類する例、(b)は色相代表値と輝度代表値でオブジェクトを分類する例、(c)は「凸包の面積と頂点数」と「色相代表値と輝度代表値」の両方でオブジェクトを分類する例を示す図である。 本発明の実施形態に係るオブジェクト抽出分類装置の動作を示すフローチャートである。 本発明の数理手法と従来の数理手法との相違を説明するための概念図である。 本発明の数理手法を模式的に示す模式図である。 本発明の分類精度の概念を説明するための説明図であって、(a)は従来の凸包での分類を示す図、(b)は本発明により改良したグロモフ・ハウスドルフ距離を用いオブジェクト間の分離度を改良した状態を示す図である。 従来手法のグロモフ・ハウスドルフ距離を用いて境界を判別する問題点を説明するための図であって、(a)はグロモフ・ハウスドルフ距離を説明するための図、(b)は部分空間が連続する例を示す図、(c)は部分空間が連続しない例を示す図、(d)はグロモフ・ハウスドルフ距離による連続判定の不具合を説明する図である。 従来手法の確率モデル・確率分布の推論、統計パラメータの推定における問題点を説明するための図であって、(a)は観測から、オブジェクトを特定するためのパラメータとノイズの推定と隠れ変数の推論を行う例を示す図、(b)はパーティクル(カーネル)による推論の例を示す図である。
以下、本発明の実施形態について図面を参照して説明する。
〔オブジェクト抽出分類装置の構成〕
まず、図1を参照して、本発明の実施形態に係るオブジェクト抽出分類装置1の構成について説明する。
オブジェクト抽出分類装置1は、映像から、当該映像中のオブジェクトを抽出し、分類するものである。
このオブジェクト抽出分類装置1は、図1に示すように、輝度差分生成手段10と、色相差分生成手段11と、加算手段12と、空間分割手段13と、輝度差分代表値生成手段14と、色相差分代表値生成手段15と、分類基準記憶手段16と、分類手段17と、を備える。
輝度差分生成手段(色特徴情報生成手段)10は、入力される映像から、フレーム単位で画素ごとに輝度の差分(色特徴情報)を演算し、輝度差分(輝度差分画像)を生成するものである。この輝度差分は、例えば、画素ごとに、輝度レベルとして、“0”〜“255”の値を有する。
この輝度差分生成手段10は、生成した輝度差分を、フレーム単位で、加算手段12および輝度差分代表値生成手段14に出力する。
色相差分生成手段(色特徴情報生成手段)11は、入力される映像から、フレーム単位で画素ごとに色相の差分(色特徴情報)を演算し、色相差分(色相差分画像)を生成するものである。この色相差分は、例えば、画素ごとに、色相レベルとして、“0”〜“255”の値を有する。
この色相差分生成手段11は、生成した色相差分を、フレーム単位で、加算手段12および色相差分代表値生成手段15に出力する。
これによって、輝度差分生成手段10および色相差分生成手段11は、それぞれ、図2に示すように、入力された映像Gから、動きを伴うオブジェクトOの領域を示す輝度差分Dおよび色相差分Dを生成する。
加算手段12は、輝度差分生成手段10で生成された輝度差分と、色相差分生成手段11で生成された色相差分とを画素ごとに加算するものである。この加算手段12で加算された加算値は、例えば、画素ごとに、“0”〜“510”の値を有する。このように、輝度差分と色相差分とを加算することで、輝度および色相を考慮して、オブジェクトの認識精度を高めることができる。
この加算手段12は、加算値を、空間分割手段13に出力する。
空間分割手段(凸包情報生成手段)13は、加算手段12で加算された加算値で構成された画像(画像空間)を、部分画像(部分空間)に階層的に分割し、部分画像間の連続性を判定することで、オブジェクトの領域を検出するものである。
ここでは、空間分割手段13は、部分空間階層化手段130と、オブジェクト領域判別手段131と、連続部分空間検出手段132と、を備える。
部分空間階層化手段130は、加算手段12で加算された加算値で構成された画像(画像空間)を、オブジェクトが存在する部分空間ごとに予め定めた収束条件を満たすまで階層的に分割するものである。
ここでは、収束条件として、オブジェクトが存在する部分空間の距離(グロモフ・ハウスドルフ距離)が予め定めた閾値以下となることとする。
ここで、図3を参照して、部分空間階層化手段130における画像空間の階層化について説明する。
まず、部分空間階層化手段130は、図3(a)に示すように、画像空間を、予め定めた大きさのブロックBごとに分割する。なお、図3(a)では、白色のブロックBにオブジェクトが存在し、黒色のブロックBにオブジェクトが存在しないこととする。
ここで、ブロックBにオブジェクトが存在するとは、ブロックB内に、予め定めた閾値以上の値が含まれている場合をいう。逆に、ブロックBにオブジェクトが存在しないとは、ブロックB内に、予め定めた閾値未満の値しか含まれていない場合をいう。
すなわち、部分空間階層化手段130は、輝度差分や色相差分によって求められる差分が閾値以上の値を有するブロックを、オブジェクトが存在するブロックとし、それ以外をオブジェクトが存在しないブロックとする。
また、部分空間階層化手段130は、図3(b)に示すように、オブジェクトが存在するブロックBをさらに予め定めた大きさのブロックに分割する。この図3(b)においても、白色のブロックBにオブジェクトが存在し、黒色のブロックBにオブジェクトが存在しないこととする。そして、部分空間階層化手段130は、オブジェクトが存在する隣接するブロックBで構成される領域間同士のグロモフ・ハウスドルフ距離が、すべて予め定めた閾値ζ以下となるまで、図3(c)に示すように、オブジェクトが存在する隣接するブロックBを細分化して階層化していく。
この部分空間階層化手段130は、オブジェクトが存在する階層化したブロック情報をオブジェクト領域判別手段131に出力する。
オブジェクト領域判別手段131は、部分空間階層化手段130で階層化された個々の部分空間において、オブジェクトの存在する領域を判別するものである。
ここでは、オブジェクト領域判別手段131は、オブジェクトが存在しない部分空間で、オブジェクトが存在する部分空間に最接近する画素位置を連結し、当該連結した線分の内外により、オブジェクト領域を判別する。なお、このオブジェクト領域は、凸包により生成することができる。
例えば、オブジェクト領域判別手段131が、図3(b)において、オブジェクトの存在する領域を判別することとする。その場合、まず、オブジェクト領域判別手段131は、図4(a)に示すように、オブジェクトが存在しない領域を判別する(図4(a)中、実線Lで示した部分)。
そして、オブジェクト領域判別手段131は、オブジェクトが存在する領域に最接近するオブジェクトが存在しない領域に線分(図4(a)中、破線L)を挿入することで、オブジェクトが存在する領域を示す凸包を生成する。
同様に、例えば、オブジェクト領域判別手段131が、図3(c)において、オブジェクトの存在する領域を判別することとした場合、オブジェクト領域判別手段131は、図4(b)に示すように、破線Lで示すオブジェクトが存在する領域を示す凸包を生成する。
このように、凸包を用いることで、例えば、図13(d)で説明したように、グロモフ・ハウスドルフ距離では、同一のオブジェクトと判定される領域であっても、別のオブジェクトとして判定することが可能になる。
このオブジェクト領域判別手段131は、オブジェクト領域として判定した凸包情報(線分の端点〔頂点〕位置)を、連続部分空間検出手段132に出力する。
連続部分空間検出手段132は、オブジェクト領域判別手段131で判別されたオブジェクト領域の連続性を検出するものである。
この連続部分空間検出手段132は、オブジェクト領域間のグロモフ・ハウスドルフ距離が予め定めた閾値以下となるオブジェクト領域を同一のオブジェクトの領域として検出する。そして、連続部分空間検出手段132は、同一のオブジェクトの領域として検出した部分空間の凸包情報(頂点位置)を、輝度差分代表値生成手段14と、色相差分代表値生成手段15と、分類手段17とに出力する。
ここで、図5を参照して、連続部分空間検出手段132が行う処理について具体的に説明する。図5(a)に示すように、2つ隣接するブロックB,Bにおいて、それぞれにオブジェクトの部分空間(図中、白色の領域)が存在していることとする。
その場合、連続部分空間検出手段132は、図5(b)に示すように、それぞれの部分空間のグロモフ・ハウスドルフ距離(|d−d|)が、予め定めた閾値ζよりも小さい場合に、それぞれの部分空間が連続しており、同一のオブジェクトが存在していると判定する。
そして、連続部分空間検出手段132は、図5(c)に示すように、同一のオブジェクトが存在している部分空間の凸包情報を生成する。
図1に戻って、オブジェクト抽出分類装置1の構成について説明を続ける。
輝度差分代表値生成手段14は、輝度差分生成手段10で生成された輝度差分(輝度差分画像)と、空間分割手段13で生成されたオブジェクトが存在する部分空間を示す凸包情報(頂点位置)とから、オブジェクトを代表する輝度(輝度代表値)を生成するものである。
すなわち、輝度差分代表値生成手段14は、図6に示すように、輝度差分生成手段10で生成された輝度差分Dにおいて、空間分割手段13で生成された凸包で区分される領域内で、輝度代表値を生成する。
この輝度代表値は、オブジェクトを代表する輝度であれば特に限定するものではないが、例えば、凸包内の輝度の平均値、最大値等である。
色相差分代表値生成手段15は、色相差分生成手段11で生成された色相差分(色相差分画像)と、空間分割手段13で生成されたオブジェクトが存在する部分空間を示す凸包情報(頂点位置)とから、オブジェクトを代表する色相(色相代表値)を生成するものである。
すなわち、色相差分代表値生成手段15は、図7に示すように、色相差分生成手段11で生成された色相差分Dにおいて、空間分割手段13で生成された凸包で区分される領域内で、色相代表値を生成する。
この色相代表値は、オブジェクトを代表する色相であれば特に限定するものではないが、例えば、凸包内の色相の平均値、最大値等である。
分類基準記憶手段16は、部分空間の特徴からオブジェクトを分類するための基準を記憶しておくものである。この分類基準記憶手段16は、ハードディスク等の記憶媒体で構成することができる。
この分類基準記憶手段16には、部分空間の特徴(特徴ベクトル)から、部分空間内のオブジェクトを分類するための基準として、例えば、図8(a)に示すような凸包の面積と頂点数との関係、図8(b)に示すような輝度代表値と色相代表値との関係等から、オブジェクトを予め定めた分類に区分するための基準を予め記憶しておく。
なお、この基準は、固定した基準であっても構わないし、学習によって順次更新する形態であっても構わない。
分類手段17は、オブジェクトが存在する部分空間の特徴(特徴ベクトル)から、オブジェクトを分類するものである。
ここでは、分類手段17は、分類基準記憶手段16に記憶されている分類基準に基づいて、空間分割手段13で生成されたオブジェクトが存在する部分空間を示す凸包情報(頂点位置)と、輝度差分代表値生成手段14で生成された輝度代表値と、色相差分代表値生成手段15で生成された色相代表値とから、オブジェクトを分類する。
ここでは、分類手段17は、位相幾何ユニークネス生成手段170と、確率モデル・確率分布生成手段171と、オブジェクト分類手段172と、を備える。
位相幾何ユニークネス生成手段170は、空間分割手段13で分離された各オブジェクトに対し、各オブジェクトの位相幾何のユニークネス(特有情報)とオブジェクト間の位相幾何のユニークネスとを生成するものである。
ここで、各オブジェクトの位相幾何のユニークネスは、例えば、凸包情報から得られる頂点数、面積(体積)等である。例えば、図5(c)の例では、位相幾何のユニークネスは、頂点数が“24”、面積が“21”(なお、面積は、詳細には凸包内の画素数)である。
また、オブジェクト間の位相幾何のユニークネスは、例えば、本発明で改良したグロモフ・ハウスドルフ距離(詳細は、後記する式(3))、本発明で改良した類似度(詳細は、後記する式(2))等である。さらに、各オブジェクトならびにオブジェクト間の位相幾何のユニークネスとして、例えば、本発明で改良した深さ・解像度(詳細は、後記する式(4))を用いる。
この位相幾何ユニークネス生成手段170は、生成した位相幾何のユニークネスを、確率モデル・確率分布生成手段171に出力する。なお、位相幾何ユニークネス生成手段170は、輝度差分代表値生成手段14で生成された輝度代表値や色相差分代表値生成手段15で生成された輝度色相値については、そのまま、位相幾何のユニークネスとして、確率モデル・確率分布生成手段171に出力する。
確率モデル・確率分布生成手段171は、位相幾何ユニークネス生成手段170で生成された位相幾何のユニークネス(特有情報)から、確率モデル・確率分布を生成するものである。
ここでは、確率モデル・確率分布生成手段171は、例えば、位相幾何ユニークネス生成手段170で生成された位相幾何のユニークネスである凸包の頂点数および面積、色特徴情報(輝度代表値、色相代表値)および深さ・解像度(後記する式(4))から、確率モデル・確率分布を生成する。また、確率モデル・確率分布生成手段171は、例えば、位相幾何ユニークネス生成手段170で生成された類似度(後記する式(2))、深さ・解像度(後記する式(4))からオブジェクト間の確率モデル・確率分布を生成する。
この確率モデル・確率分布生成手段171は、例えば、確率モデル・確率分布を指数関数の写像として生成する。この指数関数は、例えば、後記する式(5)〜式(9)に相当する。
オブジェクト分類手段172は、確率モデル・確率分布として生成された位相幾何のユニークネス(特有情報)から、予め定めた分類基準により、オブジェクトを抽出し、分類するものである。予め定めた分類基準は、例えば、SVM(サポートベクターマシーン)学習機能として、例えば、オブジェクト抽出分類装置1において、基準となる映像を入力し、オブジェクトの抽出と分類結果が正解であることを人手で確認し、正解であることを確認したオブジェクトと位相幾何のユニークネスとを対応付けて、分類基準記憶手段16に記憶しておく。
このオブジェクト分類手段172は、分類基準記憶手段16に、例えば、図8(a)で例示した分類基準が記憶されている場合、特徴ベクトルのうちで、凸包の面積と頂点数とにより、オブジェクトが「選手」であるのか、「選手以外」であるのかを分類する。
また、オブジェクト分類手段172は、分類基準記憶手段16に、例えば、図8(b)で例示した分類基準が記憶されている場合、特徴ベクトルのうちで、輝度代表値と色相代表値とにより、オブジェクトが「選手」であるのか、「選手以外」であるのかを分類する。
また、オブジェクト分類手段172は、分類基準記憶手段16に、例えば、図8(a)と図8(b)とを組み合わせた図8(c)で例示した分類基準が記憶されている場合、特徴ベクトルのうちで、凸包の面積、頂点数、輝度代表値、色相代表値により、オブジェクトが「選手」であるのか、「選手以外」であるのかを分類する。このとき、分類手段17は、図8(a)での分類と図8(b)での分類とで分類結果が異なる場合、オブジェクトとして認識できなかったと判定してもよいし、境界線からの距離等によって確度の高い分類を分類結果としてもよい。
なお、ここでは、説明を容易にするため、2つの分類(「選手」、「選手以外」)の例で説明したが、特徴ベクトルによって、3以上の多次元の分類を行うこととしてもよい。
以上説明したようにオブジェクト抽出分類装置1を構成することで、映像から、オブジェクトを抽出し、分類することができる。
なお、オブジェクト抽出分類装置1は、図示を省略したコンピュータを前記した各手段として機能させるためのオブジェクト抽出分類プログラムで動作させることができる。
このように、オブジェクト抽出分類装置1は、複数の部分空間の連続性を検出してオブジェクト領域を判定する際に、グロモフ・ハウスドルフ距離の判定に加え、凸包による判定を行うため、従来のようなグロモフ・ハウスドルフ距離による連続性の誤判定を防止することができ、ロバスト性を高めることができる。
また、オブジェクト抽出分類装置1は、従来のように、確率モデル・確率分布を推論してオブジェクトの分類を行っていないため、その推論に要する繰り返し演算を行うことがなく、計算コストを抑えることができる。
〔オブジェクト抽出分類装置の動作〕
次に、図9を参照(構成については適宜図1参照)して、本発明の実施形態に係るオブジェクト抽出分類装置1の動作について説明する。
まず、オブジェクト抽出分類装置1は、輝度差分生成手段10によって、入力される映像から、フレーム単位で輝度の差分を演算し、輝度差分を生成する(ステップS1)。
また、オブジェクト抽出分類装置1は、色相差分生成手段11によって、入力される映像から、フレーム単位で色相の差分を演算し、色相差分を生成する(ステップS2)。
なお、オブジェクト抽出分類装置1は、ステップS1,S2において、同一のフレームに対して、同期して、輝度差分および色相差分を生成する。
そして、オブジェクト抽出分類装置1は、加算手段12によって、ステップS1,S2で生成された輝度差分と色相差分とを画素ごとに加算する(ステップS3)。
これによって、オブジェクトの認識精度を高めることができる。
そして、オブジェクト抽出分類装置1は、空間分割手段13の部分空間階層化手段130によって、ステップS3で加算された加算値で構成された画像(画像空間)を、オブジェクトが存在する部分空間ごとに予め定めた収束条件を満たすまで階層的に分割する(ステップS4)。
そして、オブジェクト抽出分類装置1は、空間分割手段13のオブジェクト領域判別手段131によって、ステップS4で階層化された部分空間において、オブジェクトの存在する領域を判別し、連続部分空間検出手段132によって、オブジェクトが存在する部分空間の連続性を検出し、同一のオブジェクトが存在している部分空間の凸包情報(頂点位置)を生成する(ステップS5)。
また、オブジェクト抽出分類装置1は、輝度差分代表値生成手段14によって、ステップS1で生成された輝度差分において、ステップS5で生成された凸包情報のうちの頂点座標で特定される凸包内部のオブジェクトを代表する輝度(輝度代表値)を生成する(ステップS6)。
また、オブジェクト抽出分類装置1は、色相差分代表値生成手段15によって、ステップS2で生成された色相差分において、ステップS5で生成された凸包情報のうちの頂点座標で特定される凸包内部のオブジェクトを代表する色相(色相代表値)を生成する(ステップS7)。
なお、オブジェクト抽出分類装置1は、ステップS6,S7において、同一のフレームに対応する輝度差分および色相差分から、それぞれ、輝度差分および色相差分を生成する。
そして、オブジェクト抽出分類装置1は、分類手段17の位相幾何ユニークネス生成手段170によって、ステップS5で生成された凸包情報、ステップS6,S7で生成される輝度代表値および色相代表値から位相幾何のユニークネスを生成する(ステップS8)。
そして、オブジェクト抽出分類装置1は、分類手段17の確率モデル・確率分布生成手段171によって、ステップS8で生成された位相幾何のユニークネスから、確率モデル・確率分布を生成する(ステップS9)。
そして、オブジェクト抽出分類装置1は、分類手段17のオブジェクト分類手段172によって、分類基準記憶手段16に記憶されている分類基準(基準の確率モデル・確率分布)と比較することで、オブジェクトを分類する(ステップS10)。
以上の動作を映像のフレーム単位で行うことで、オブジェクト抽出分類装置1は、映像から、オブジェクトを検出し、分類することができる。
以上、本発明の実施形態について説明したが、本発明はこの実施形態に限定されるものではない。
ここでは、映像内部におけるオブジェクトの色の特徴量として、輝度および色相を用いたが、これらは、必ずしも両方用いる必要はなく、いずれか一方のみでもよい。
例えば、特徴量として色相のみを用いる場合、図1に示したオブジェクト抽出分類装置1の構成から、輝度差分生成手段10、加算手段12および輝度差分代表値生成手段14を除けばよい。その場合、空間分割手段13は、色相差分生成手段11で生成された色相差分から、凸包情報を生成し、分類手段17は、凸包の頂点数および面積と、色相代表値との3次元の特徴ベクトルからオブジェクトを分類する。
また、例えば、特徴量として輝度のみを用いる場合、図1に示したオブジェクト抽出分類装置1の構成から、色相差分生成手段11、加算手段12および色相差分代表値生成手段15を除けばよい。その場合、空間分割手段13は、輝度差分生成手段10で生成された輝度差分から、凸包情報を生成し、分類手段17は、凸包の頂点数および面積と、輝度代表値との3次元の特徴ベクトルからオブジェクトを分類する。
また、オブジェクト抽出分類装置1の分類手段17では、オブジェクトの特徴として、凸包の頂点数および面積や、輝度代表値、色相代表値を用いて、オブジェクトの分類を行ったが、これらの特徴は、これらに限定されるものではない。
例えば、色の特徴として、彩度(彩度代表値)を用いてもよい。また、凸包の頂点数および面積以外にジェニングスを用いてもよい。このジェニングスとは、位相幾何のユニークネスの一つであって、最少の交点数を示す。例えば、オブジェクトが存在する部分空間の外縁を一筆書きしたときの一筆書きで交わる最少数である。このように、分類手段17で使用する特徴ベクトルの数を増やすことで、部分空間階層化手段130における収束条件を緩め、階層数を減らすことが可能になる。
また、ここでは、分類手段17が、凸包の頂点数および面積や、輝度代表値、色相代表値を用いて、オブジェクトの分類を行ったが、輝度代表値や色相代表値を除いて簡易に分類してもよい。その場合、オブジェクト抽出分類装置1は、輝度差分代表値生成手段14および色相差分代表値生成手段15を構成から除けばよい。
〔本発明の数理手法について〕
ここで、本発明の数理手法について説明しておく。
図10には、本発明の数理手法を、従来の数理手法との関係で示している。この図10において、各記号の意味は下記の通りである。
ここで、従来の数理手法は、例えば、確率分布、カーネル関数等の確率モデル上で定義される。これに対し、本発明では、確率モデルや確率分布が位相多様体上、すなわち、図10のd(X),d(Y),d(X,Y)で定義される。
本発明は、位相多様体上の写像を評価するため、図10に対応する以下の式(2)〜式(4)で示した写像の類似度dil f、写像間の距離dis f、写像間のデプス(解像度)e (x,y)を導入したことに相当する。
前記式(2)は、オブジェクトを分類する際の類似度(拡大縮小)に相当とし、前記式(3)は、オブジェクト間のグロモフ・ハウスドルフ距離に相当する。また、前記式(4)は、オブジェクトのデプス、すなわち、部分空間を階層化することに相当する。なお、この式(2)〜式(4)について、一例として、式(3)のみ後で証明しておく。
このように、本発明は、凸包により境界の生成、ならびに、事後確率最大化によるオブジェクトの分類、これらの二つの演算を同時にトポロジカル収束やトポロジカル埋め込みなどの位相多様体上で演算する。これによって、従来、グロモフ・ハウスドルフ距離で判別が困難な境界の生成においても、事後確率が最大になる境界を生成することができる。
すなわち、本発明は、パラメータ推定と隠れ変数の推論を行う従来の数理手法において、図11に示すように、位相幾何のユニークネスが確率モデルや確率分布と互換性を有する写像により実現している。
これによって、本発明は、従来の数理手法と互換性を有しつつ、位相多様体上での演算により、繰り返し演算を除き、凸包により、グロモフ・ハウスドルフ距離におけるオブジェクトの判別精度を高めることができる。
このような効果は、図12により模式的に表すことができる。
図12(a)に示すように、映像内の初期状態における凸包を用いた分類では、オブジェクト(例えば、選手O)以外の部分空間をグロモフ・ハウスドルフ距離により同一の空間と分類した状態を示している。
この場合、凸包の面積と頂点数との関係、あるいは、色相代表値と輝度代表値との関係により、オブジェクト(選手O)以外であると認識されることになる。
しかし、本発明による数理手法(数理エンジン)を用いることで、図12(b)に示すように、部分空間を階層化し、グロモフ・ハウスドルフ距離により同一の空間とみなされる部分空間を凸包により別の領域として判別することで、正確にオブジェクト(選手O)を抽出し、分類することができる。
また、図12に示した本発明は、以下の式(5)に示すように、位相幾何のユニークネスである頂点数sおよび面積(体積)v、ジェニングスz、ならびに、前記式(2)〜式(4)で示した写像の類似度(dil)、写像間の距離(dis)、写像間のデプス(depth)を評価関数とする写像g(k,k)が、事後周辺確率分布Σp(Y|X)p(X)と互換となる写像f(k)の元となる発明といえる。
(評価関数については、例えば、参考文献3:末廣大貴、畑埜晃平、坂内英夫、瀧本英二、竹田正幸「SVMによる2部ランキング学習を用いたコンピュータ将棋における評価関数の学習」, 信学論 D Vol., J97-D, No.3, pp.593-600, 2014)
また、本発明において、上記の一例(事後周辺確率)では、写像fとして、指数関数を用いる。これは、例えば、統計物理における確率が集合を分割した任意の有限集合A内の相互作用と、AとA′≠Aとなる異なる有限集合間の相互作用が、指数関数で定義される理由による(例えば、参考文献4:荒木不二洋「統計物理」,岩波書店,2004年2月,p26,p59)。
以下の式(6)に本発明の写像fの具体例を示す。
この式(6)の対数表記は、以下の式(7)となる。
ここで、kとkのカーネル関数による写像をそれぞれqとqA′とする。
このとき、q(k11,k12)とqA′(k21,k22,k23)とが独立事象の場合、前記式(7)は以下の式(8)となる。
また、q(k11),q(k12),qA′(k21),qA′(k22),qA′(k23)が独立事象の場合、前記式(7)および式(8)は以下の式(9)となる。
なお、位相多様体上の演算(例えば、参考文献5:Afra Zomorodian,“Topological Data Analysis”,Proceedings of Symposia in Applied Mathematics, 2011)を用いた従来のオブジェクトの検出手法は、測度距離空間(例えば、前記参考文献1)上で等長写像等の位相幾何特徴量を利用し、類似検索やデータからオブジェクトを検出している(例えば、以下の参考文献6〜10)。
(参考文献6:Yuriy Mleyko, Sayan Mukherjee, John Hare,“Probability measures on the space of persistence diagrams”,Inverse Problems, 27, 2011)
(参考文献7:Katharine Turner, Yuriy Mileyko, Sayan Mukherjee, Johan Harer,“Frechet Means for Distributions of Persistence Diagrams”, Preprint, 2012)
(参考文献8:Jasse Johnson,“Topological graph clustering with thin position”, Manuscript, arXiv:1206.0771, 2012)
(参考文献9:Facundo Memoli,“Gromov-Wasserstein distances and the metric approach to objectmatching”, Foundations of Computational Mathematics, pp 1-71, 2011, 10.1007/s10208-011-9093-5)
(参考文献10:Facundo Memoli,“Some properties of Gromov-Hausdorff distances”, Discrete & Computational Geometry, pp1-25, 2012, 10.1007/s00454-012-9406-8)
また、測度距離空間の位相幾何は、通信ネットワークの解析(例えば、以下の参考文献11〜13)や測度距離空間上の位相幾何を特徴点として分類(例えば、以下の参考文献14,15)する手法がある。
(参考文献11:Hwa-Chun LIN, Shou-Chuan LAI, Ping-Wen CHEN, Hsin-Liang LAI,“Automatic Topology Discovery of IP Networks”, IEICE Trans. Inf.&Syst., Vol., E83-D, No.1, Jan. 2000)
(参考文献12:Hyunggi CHO, Myungseok KANG, JonghoonKIM, Hagbae KIM,“ZigBee Based Location Estimation in Home Networking Environments”, IEICE Trans. Inf.&Syst., Vol., E90-D, No.10, Jan. 2007)
(参考文献13:谷口博人,井上美智子,増澤利光,藤原秀雄,「アドホックネットワークにおけるクラスタ構成法」,信学論 D-I,Vol.J81-D-1, No.2, pp.127-135, 2001年2月)
(参考文献14:Nasir AHMED, Abdul JALIL,“Multimode Image Clustering Using Optimal Image Descipor”, IEICE Trans. Inf.&Syst., Vol., E97-D, No.4, Jan. 2014)
(参考文献15:Jose GARCIA RODRIGUEZ, Anastassia ANGELOPOULOU, Alexandra PSARROU,“Growing Neural Gas (GNG):A Soft Competitive Learning Method for 2D Hand Modeling”, IEICE Trans. Inf.&Syst., Vol., E89-D, No.7, July 2006)
また、測度距離空間上の位相幾何特徴量の高次モーメントを確率分布として扱う手法(例えば、参考文献16:ftp.stat.duke.edu/WorkingPapers/11-06.pdf)がある。例えば、参考文献16によれば、確率分布を求める手法は、前記参考文献2に記載の最尤推定法である。
これに対し、本発明は、確率モデルや確率分布を位相多様体上の写像で直接求める手法であって、確率モデルや確率分布を求める既存の数理手法を必要としないという特徴を有する。
このように、非特許文献1に記載の手法(従来手法)は、前記式(2)〜式(4)で示した位相幾何の特徴を評価する写像を用いてオブジェクトを分類する手法である。この従来手法は、本発明と同様にグロモフ・ハウスドルフ距離を用い、グロモフ・ハウスドルフ距離の差、デプス(非特許文献1ではDensityの記載)の差等を用いてオブジェクトを分類する手法である。なお、従来手法は、本発明と同様にカーネル関数(非特許文献1ではガウスカーネル)を用いて推定するパラメータ数を減少させている。
再度、本発明が従来手法(非特許文献1)と異なっている点について説明する。
従来手法では、確率モデル・確率分布の推論、統計パラメータの推定に繰り返し演算が必要となり、M回(Mは整数)の演算を行った平均値を用いてオブジェクトの分類を行っている。そのため、従来手法を用いて確率モデル・確率分布を推論する場合、MCMCなどの繰り返し演算が必要となる。なお、非特許文献1では、繰り返し数Mの収束性については、言及されていない。非特許文献1に記載されている例示では、前記式(2)〜式(4)で示した位相幾何の特徴を評価する写像を、情報幾何で定義している統計パラメータとして扱っている。すなわち、非特許文献1の例示は、標本空間で幾何を取り入れるカーネル法、そして統計パラメータ空間で幾何を取り入れる情報幾何の手法である。
これに対し、本発明は、上記のように確率モデル・確率分布を位相多様体上の写像で直接求める手法である。言い換えれば、非特許文献1で例示されている手法は、位相多様体上の写像を評価関数で用いるのに対し、本発明は、位相多様体上のユニークネスを用いて写像を生成し、写像を確率モデル・確率分布として扱う点が大きく異なる。また、非特許文献1には、グロモフ・ハウスドルフ距離の問題点と本発明で示した解決手法については、言及されていない。
〔式(3)の証明〕
最後に、前記式(3)について証明しておく。
ここでは、ゲルファント=ナイマルクの定理(Gelfand NaimarkTheorem:例えば、以下の参考文献17,18)に従い、本発明による異なる写像間の演算手法が存在する事を証明する。
(参考文献17:Robert Doran,“Characterizations of C*-Algebras: the GelfandNaimark Theorems”, CRC Press, 1986)
(参考文献18:Yaakov Friendman, Bernard Russo,“The Gelfand-NaimarkTheorem for JB*-Triples”, Duke Mathematical Journal Vol.53, No.1, Mar.1986)
≪仮定≫
証明を簡易に説明するため、直径D、面積(体積)vのリーマン多様体m(D,v)を仮定する。
この場合、曲率Kは、1≧K≧−1である。
ここでは一例として、式(3)に示す異なる写像間のグロモフ・ハウスドルフ距離が存在することを証明する。
≪式3:異なる写像間のグロモフ・ハウスドルフ距離の定義≫
次に、ゲルファント=ナイマルクの定理に従い証明する。当定理は、写像が全単射となることで、写像が存在することを証明する定理である。証明の手順は、最初に部分集合と写像(式(3)ではアルファベットのカーネル関数)を定義する。次に最大イデアル最適化を解く。最後に最大イデアル最適化で全単射が存在すれば、写像(ここでは式(3)の異なる写像間のグロモフ・ハウスドルフ距離)が存在する。
以下、証明の手順に従い記述する。
≪ゲルファント=ナイマルクの定理に従い証明≫
[部分集合の定義]
[アルファベットのカーネル関数を定義]
[最大イデアル関数を最適化]
[最大イデアル(全単写)]
1 オブジェクト抽出分類装置
10 輝度差分生成手段(色特徴情報生成手段)
11 色相差分生成手段(色特徴情報生成手段)
12 加算手段(色特徴情報生成手段)
13 空間分割手段(凸包情報生成手段)
130 部分空間階層化手段
131 オブジェクト領域判別手段
132 連続部分空間検出手段
14 輝度差分代表値生成手段(色特徴代表値生成手段)
15 色相差分代表値生成手段(色特徴代表値生成手段)
16 分類基準記憶手段
17 分類手段
170 位相幾何ユニークネス生成手段
171 確率モデル・確率分布生成手段
172 オブジェクト分類手段

Claims (5)

  1. 映像中のオブジェクトを抽出および分類するオブジェクト抽出分類装置であって、
    映像のフレームごとの差分から、前記オブジェクトの存在を示す色特徴情報を含んだ画像を生成する色特徴情報生成手段と、
    この色特徴情報生成手段で生成された色特徴情報を含んだ画像を部分空間に分割し、前記部分空間ごとのグロモフ・ハウスドルフ距離に基づく連続性のある部分空間の凸包から、当該凸包の頂点位置を示す凸包情報を生成する凸包情報生成手段と、
    前記凸包情報から位相幾何の特有情報を生成し、当該特有情報の確率モデル・確率分布を生成し、予め定められた分類基準により、前記オブジェクトを抽出し、分類する分類手段と、
    を備えることを特徴とするオブジェクト抽出分類装置。
  2. 前記色特徴情報生成手段は、
    前記色特徴情報として輝度差分を生成する輝度差分生成手段と、
    前記色特徴情報として色相差分を生成する色相差分生成手段と、
    前記輝度差分と前記色相差分とを加算することで、前記オブジェクトの存在を示す色特徴情報を含んだ画像を生成する加算手段と、
    を備えることを特徴とする請求項1に記載のオブジェクト抽出分類装置。
  3. 前記色特徴情報生成手段で生成された色特徴情報を含んだ画像から、前記凸包情報生成手段で生成された凸包情報で特定される凸包内で色特徴代表値を生成する色特徴代表値生成手段をさらに備え、
    前記分類手段は、前記凸包情報と前記色特徴代表値とから、前記特有情報を生成し、当該特有情報の確率モデル・確率分布を生成し、予め定められた分類基準により、前記オブジェクトを抽出し、分類することを特徴とする請求項1または請求項2に記載のオブジェクト抽出分類装置。
  4. 前記凸包情報生成手段は、
    前記色特徴情報を含んだ画像を、前記色特徴情報で示されるオブジェクトが存在する部分空間ごとに予め定めた収束条件を満たすまで階層的に分割する部分空間階層化手段と、
    この部分空間階層化手段で階層化された個々の部分空間において、凸包により、オブジェクト領域を判別するオブジェクト領域判別手段と、
    このオブジェクト領域判別手段で前記オブジェクト領域と判別された部分空間をグロモフ・ハウスドルフ距離が予め定めた閾値以下となる同一のオブジェクト領域として検出して前記凸包情報を生成する連続部分空間検出手段と、
    を備えることを特徴とする請求項1から請求項3のいずれか一項に記載のオブジェクト抽出分類装置。
  5. コンピュータを、請求項1から請求項4のいずれか一項に記載のオブジェクト抽出分類装置として機能させるためのオブジェクト抽出分類プログラム。
JP2015096168A 2015-05-11 2015-05-11 オブジェクト抽出分類装置およびそのプログラム Pending JP2016212653A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015096168A JP2016212653A (ja) 2015-05-11 2015-05-11 オブジェクト抽出分類装置およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015096168A JP2016212653A (ja) 2015-05-11 2015-05-11 オブジェクト抽出分類装置およびそのプログラム

Publications (1)

Publication Number Publication Date
JP2016212653A true JP2016212653A (ja) 2016-12-15

Family

ID=57551133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015096168A Pending JP2016212653A (ja) 2015-05-11 2015-05-11 オブジェクト抽出分類装置およびそのプログラム

Country Status (1)

Country Link
JP (1) JP2016212653A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101907883B1 (ko) * 2017-05-10 2018-10-16 국방과학연구소 객체 검출 및 분류 방법
WO2020080626A1 (ko) * 2018-10-16 2020-04-23 고려대학교 산학협력단 동물 종 식별 방법 및 장치
CN115599984A (zh) * 2022-09-09 2023-01-13 北京理工大学(Cn) 一种检索方法
KR102669679B1 (ko) * 2023-10-23 2024-05-27 주식회사 액션파워 원본 이미지로부터 스케치 이미지를 생성하는 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101907883B1 (ko) * 2017-05-10 2018-10-16 국방과학연구소 객체 검출 및 분류 방법
WO2020080626A1 (ko) * 2018-10-16 2020-04-23 고려대학교 산학협력단 동물 종 식별 방법 및 장치
US11830272B2 (en) 2018-10-16 2023-11-28 Korea University Research And Business Foundation Method and apparatus for identifying animal species
CN115599984A (zh) * 2022-09-09 2023-01-13 北京理工大学(Cn) 一种检索方法
KR102669679B1 (ko) * 2023-10-23 2024-05-27 주식회사 액션파워 원본 이미지로부터 스케치 이미지를 생성하는 방법

Similar Documents

Publication Publication Date Title
Rukhovich et al. Iterdet: iterative scheme for object detection in crowded environments
CN105844669B (zh) 一种基于局部哈希特征的视频目标实时跟踪方法
EP4091100A1 (en) Systems and methods for identifying an object of interest from a video sequence
US20240161284A1 (en) Techniques for determining tissue characteristics using multiplexed immunofluorescence imaging
CN112085072B (zh) 基于时空特征信息的草图检索三维模型的跨模态检索方法
JP2016212653A (ja) オブジェクト抽出分類装置およびそのプログラム
Cohen et al. Gifsplanation via latent shift: a simple autoencoder approach to counterfactual generation for chest x-rays
Korus et al. Improved tampering localization in digital image forensics based on maximal entropy random walk
CN114693607A (zh) 基于多域块特征标志点配准的篡改视频检测方法及系统
Zhao et al. Deep Multimodal Data Fusion
CN112529025A (zh) 一种数据处理方法及装置
Meng et al. Globally measuring the similarity of superpixels by binary edge maps for superpixel clustering
CN113362307A (zh) 一种rgb-d图像显著性检测方法
CN116597231A (zh) 一种基于孪生图注意力编码的高光谱异常检测方法
CN107085725A (zh) 一种通过基于自适应码本的llc聚类图像区域的方法
JP5347793B2 (ja) 文字認識装置、文字認識プログラムおよび文字認識方法
CN116109649A (zh) 一种基于语义错误修正的3d点云实例分割方法
CN114494999B (zh) 一种双分支联合型目标密集预测方法及系统
Lan et al. Robust visual object tracking with spatiotemporal regularisation and discriminative occlusion deformation
Yang et al. SPiForest: an anomaly detecting algorithm using space partition constructed by probability density-based inverse sampling
Luo et al. Hybrid cascade point search network for high precision bar chart component detection
CN113487506A (zh) 基于注意力去噪的对抗样本防御方法、装置和系统
Zhu et al. [Retracted] Basketball Object Extraction Method Based on Image Segmentation Algorithm
Elmaci et al. A comparative study on the detection of image forgery of tampered background or foreground
Wang et al. Multi‐DS Strategy for Source Camera Identification in Few‐Shot Sample Data Sets

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191203