JP6535605B2 - 物体領域選択方法、装置、及びプログラム - Google Patents

物体領域選択方法、装置、及びプログラム Download PDF

Info

Publication number
JP6535605B2
JP6535605B2 JP2016004494A JP2016004494A JP6535605B2 JP 6535605 B2 JP6535605 B2 JP 6535605B2 JP 2016004494 A JP2016004494 A JP 2016004494A JP 2016004494 A JP2016004494 A JP 2016004494A JP 6535605 B2 JP6535605 B2 JP 6535605B2
Authority
JP
Japan
Prior art keywords
object candidate
area
region
ranking
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016004494A
Other languages
English (en)
Other versions
JP2017126162A (ja
Inventor
周平 田良島
周平 田良島
豪 入江
豪 入江
隆行 黒住
隆行 黒住
杵渕 哲也
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016004494A priority Critical patent/JP6535605B2/ja
Publication of JP2017126162A publication Critical patent/JP2017126162A/ja
Application granted granted Critical
Publication of JP6535605B2 publication Critical patent/JP6535605B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、物体領域選択方法、装置、及びプログラムに関する。
ユーザが撮影した画像に写る物体を認識し、その結果に基づき付加関連情報を提供するサービスは、スマートフォン/タブレットの普及や無線ネットワークの高速化を背景として今後更なる利用拡大が見込まれている。画像に写る物体の自動認識を精度よく実現するには、認識対象の物体に関する様々な見え(方向や照明条件、物体そのものの見た目のバリエーション)の辞書画像を予め用意・登録しておく必要がある。物体認識のための辞書構築に最低限必要な作業は、(i)対象物体の写った画像の用意と、(ii)画像中の物体領域の特定であるが、これを全て手動で実施するのは非常にコストが高い。
物体認識のための辞書自動構築を行うにあたり、対象物体の見えのモデルの存在を仮定するのは現実的ではない。対象物体の見えのモデルを用いることなくその物体領域を自動で特定する代表的なアプローチは、対象物体の写り込んだ複数の画像を入力とし、入力中の各画像に共通して対象物体が写り込んでいるという情報を陽に活用するというものである。
より具体的には、まず入力中の各画像から公知の技術(例えば、非特許文献1など)を用いて物体候補領域を複数抽出し、その中から、所定の指標に基づいて最も対象物体を正しく捉えていると考えられる物体候補領域を選択する。例えば非特許文献2に記載の技術では、入力中の他の画像に見た目の類似した領域を含むようなより対象物体らしい領域こそが抽出対象物体を捉えているという仮説のもと、非特許文献2の技術を用いて抽出した複数の物体候補領域の対象物体らしさのスコアと物体候補領域間の画像特徴量の類似度に基づく目的関数を最適化することで、最も対象物体領域をよく捉えていると推定された物体候補領域を各画像から一つずつ選択する技術が開示されている。
B. Alexe et al., "Measuring the Objectness of Image Window", in TPAMI, 2012.[平成27年12月24日検索]、インターネット(URL: http://groups.inf.ed.ac.uk/calvin/Publications/alexe12pami.pdf) T. Deselaers et al., "Weakly Supervised Localization and Learning with Generic Knowledge", in IJCV, 2012.[平成27年12月24日検索]、インターネット(URL: http://calvin.inf.ed.ac.uk/wp-content/uploads/Publications/deselaers12ijcv.pdf)
上記非特許文献1に記載の技術では、基本的に上記非特許文献2に記載の技術で算出される対象物体らしさが高い物体候補領域ほど物体領域として選択されやすいという性質を持つ。しかし、上記非特許文献2の技術で算出される対象物体らしさは顕著性・色コントラスト・エッジといったプリミティブな画像特徴から評価されているため、上記非特許文献1の技術で最終的に選択される物体候補領域は、抽出対象物体の全貌を必ずしも必ずしも正確に捉えてはいないという問題がある。
図7に具体例を示す。図7の左部の入力(ここでは、共通して「車」が写り込んだ画像群)中の各画像から物体候補領域を抽出すると、対象物体(=「車」)を正しく捉えた矩形領域よりも、車のパーツ(例えば、「タイヤ」「窓」等。図7では「タイヤ」)を捉えた物体候補領域の対象物体らしさの方がより高く算出される。これは、画像中で顕著であり、周辺との色コントラストが高く、領域縁部にエッジ強度が多いという意味で上記非特許文献2の技術が評価する対象物体らしさを満たしているものの、明らかに入力画像中の対象物体(=「車」)全貌を正しく捉えてはいない。図7の例のように、入力画像の多くで、上記非特許文献2で定義される対象物体らしさは高いものの、対象物体の全貌を正しく捉えていない物体候補領域が抽出された場合、上記非特許文献1の技術によって特定された物体領域もまた、対象物体の全貌を正しく捉えることはできない。
上記の問題は、上記非特許文献2の技術をはじめとするいずれの物体候補領域抽出に関する方法を用いても回避することはできない。比較的単純な見えの対象物体であれば、一般的な物体らしさに基づいて領域を限定することは有効な手段であるものの、複雑な対象物体(例えば上記例にあげた「車」のような、部分領域にも対象物体らしい領域が含まれるような物体)については、物体候補領域抽出の結果のみからどの候補領域が対象物体の全貌を正確に捉えているかを判定することが難しいためである。以上から、既存の公知の技術には、入力画像群中の対象物体の見えが複雑な場合、その全貌を正しく特定することができないという問題があった。
本発明は、上記の事情に鑑みてなされたもので、画像に含まれる対象物体を精度よく特定することができる物体領域選択方法、装置、及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の物体領域選択方法は、物体候補領域抽出部、重複度算出部、特徴類似度算出部、物体候補領域ランキング部、及び物体領域選択部を含み、複数の画像の各々について、前記画像に含まれる対象物体を表す物体領域を選択する物体領域選択装置における物体領域選択方法であって、前記物体候補領域抽出部が、前記複数の画像の各々から前記対象物体の物体候補領域を抽出するステップと、前記重複度算出部が、前記物体候補領域抽出部によって同じ前記画像から抽出された前記物体候補領域のペアの各々に対し、前記物体候補領域間の重複度を算出するステップと、前記特徴類似度算出部が、前記物体候補領域抽出部によって前記複数の画像の各々の前記物体候補領域の各々から抽出された画像特徴量に基づいて、前記物体候補領域のペアの各々に対し、前記物体候補領域間の類似度を算出するステップと、前記物体候補領域ランキング部が、前記重複度算出部によって算出された前記物体候補領域間の重複度と、前記特徴類似度算出部によって算出された前記物体候補領域間の類似度とに基づいて、前記物体候補領域の各々をランキングする際に、前記物体候補領域の各々について、ランキング上位の前記物体候補領域との間の前記重複度が大きい前記物体候補領域ほど上位にランキングされ、かつランキング上位の前記物体候補領域との間の前記類似度が大きい前記物体候補領域ほど上位にランキングされるように、前記物体候補領域をランキングするステップと、前記物体領域選択部が、前記物体候補領域ランキング部によって得られた前記物体候補領域の各々のランキング結果に基づいて、前記物体候補領域の各々から、前記物体領域を選択するステップと、を含む。
本発明の物体領域選択装置は、複数の画像の各々について、前記画像に含まれる対象物体を表す物体領域を選択する物体領域選択装置であって、前記複数の画像の各々から前記対象物体の物体候補領域を抽出する物体候補領域抽出部と、前記物体候補領域抽出部によって同じ前記画像から抽出された前記物体候補領域のペアの各々に対し、前記物体候補領域間の重複度を算出する重複度算出部と、前記物体候補領域抽出部によって前記複数の画像の各々の前記物体候補領域の各々から抽出された画像特徴量に基づいて、前記物体候補領域のペアの各々に対し、前記物体候補領域間の類似度を算出する特徴類似度算出部と、
前記重複度算出部によって算出された前記物体候補領域間の重複度と、前記特徴類似度算出部によって算出された前記物体候補領域間の類似度とに基づいて、前記物体候補領域の各々をランキングする際に、前記物体候補領域の各々について、ランキング上位の前記物体候補領域との間の前記重複度が大きい前記物体候補領域ほど上位にランキングされ、かつランキング上位の前記物体候補領域との間の前記類似度が大きい前記物体候補領域ほど上位にランキングされるように、前記物体候補領域をランキングする物体候補領域ランキング部と、前記物体候補領域ランキング部によって得られた前記物体候補領域の各々のランキング結果に基づいて、前記物体候補領域の各々から、前記物体領域を選択する物体領域選択部と、を含んで構成されている。
また、前記物体領域選択部は、前記物体候補領域ランキング部によって得られた前記ランキング結果に基づいて、前記画像毎に、前記物体候補領域の各々から少なくとも1つの前記物体領域を選択するようにしてもよい。
また、前記物体領域選択部は、前記物体候補領域ランキング部によって得られた前記ランキング結果に基づいて、前記物体候補領域の各々から、予め定められた個数の前記物体領域を選択するようにしてもよい。
また、前記物体領域選択部は、前記物体候補領域ランキング部によって得られた前記ランキング結果に基づいて、前記画像の前記物体候補領域の各々から複数の前記物体領域を選択する際に、ランキングスコアの高い順に、ランキングスコアが予め定められた第1の閾値よりも大きい前記画像の前記物体候補領域であって、かつ、既に選択された前記物体領域との前記重複度が予め定められた第2の閾値よりも小さい前記物体候補領域を前記物体領域として選択するようにしてもよい。
本発明のプログラムは、上記物体領域選択方法の各ステップをコンピュータに実行させるためのプログラムである。
以上説明したように、本発明の物体領域選択方法、装置、及びプログラムによれば、物体候補領域間の重複度と、物体候補領域間の類似度とに基づいて、物体候補領域の各々をランキングする際に、物体候補領域の各々について、ランキング上位の物体候補領域との間の重複度が大きい物体候補領域ほど上位にランキングされ、かつランキング上位の物体候補領域との間の類似度が大きい物体候補領域ほど上位にランキングされるように、物体候補領域をランキングし、物体候補領域の各々のランキング結果に基づいて、物体候補領域の各々から、物体領域を選択することにより、画像に含まれる対象物体を精度よく特定することができる、という効果が得られる。
本実施の形態に係る物体領域選択装置の機能的な構成例を示すブロック図である。 重複度の算出方法の一例を説明するための説明図である。 類似度の算出方法の一例を説明するための説明図である。 第1の実施の形態における物体領域の選択方法の一例を説明するための説明図である。 本実施の形態における物体領域選択処理ルーチンを示すフローチャートである。 第2の実施の形態における物体領域の選択方法の一例を説明するための説明図である。 従来技術を用いて画像から物体領域を抽出した場合の一例を示す図である。
以下、図面を参照して、本発明の実施の形態を詳細に説明する。
<本発明の実施の形態の概要>
まず、本発明の実施の形態の概要について説明する。本発明の実施の形態は、入力画像群中に含まれる主要な対象物体の領域を特定する方法に関する。また、本発明の実施の形態は、物体認識のための辞書構築コストの削減を目的として、辞書構築に最低限必要な作業のうち、画像中の対象物体の領域の特定を自動化する技術に関する。
上記非特許文献1で開示されている公知の技術では、上記非特許文献2で得られる物体候補領域をそのまま用いていたために、各物体候補領域が対象物体の全貌をどの程度捉えられているか評価する手段がなく、最終的に選択される各画像中の物体領域が対象物体全貌を必ずしも捉えることができなかった。
そこで、本発明の実施の形態では、各画像から抽出される物体候補領域間の画像内での空間的な重複度と、入力画像群中の物体候補領域間の見た目の類似度とを同時に考慮して物体候補領域をランキングすることでこの問題を解決する。
具体的には、ランキング上位の物体候補領域とより空間的に重複した物体候補領域ほど上位にランキングされるように、かつ、ランキング上位の物体候補領域と見た目の類似した物体候補領域ほど上位にランキングされるように、入力画像群から抽出される全物体候補領域をランキングし、ランキング上位の物体候補領域を主要物体領域として選択することで、対象物体の全貌を正確に捉えつつ対象物体の領域を特定する。
物体候補領域間の空間的な重複度を考慮する理由は、仮に物体候補領域が、主要な対象物体を正しく捉えている度合で理想的にランキングされていると仮定すると、主要な対象物体を正しく捉えた物体候補領域は、対象物体を正しく捉えている度合の高い他の物体候補領域と多くの領域を共有しているであろうという考察に基づいている。
また、物体候補領域の見た目の類似度を評価する理由も同様であり、主要な対象物体を正しく捉えている度合で物体候補領域がランキングされているならば、対象物体の物体領域を正確に捉えた物体候補領域は、ランキング上位の物体候補領域と見た目が類似しているはずであるという考察に基づいている。
上記の条件を同時に満たすよう物体候補領域をランキングすることで、主要な対象物体の全貌を正しく捉えた物体候補領域を上位にランキングすることが可能となり、それらを選択することで、入力画像中の対象物体の物体領域を精度よく特定することが可能となる。
<本発明の第1の実施の形態に係る物体領域選択装置の構成>
本発明の第1の実施の形態に係る物体領域選択装置100は、CPU(Central Processing Unit)と、CPUが後述する各処理ルーチンを実行するためのプログラム等を記憶したROM(Read Only Memory)と、RAM(Random Access Memory)と、を備えたコンピュータで構成することができる。この物体領域選択装置100は、機能的には図1に示すように入力部10と、演算部20と、出力部40とを備えている。物体領域選択装置100は、複数の画像の各々について、当該画像に含まれる対象物体を表す物体領域を選択する。
入力部10は、対象物体を表す画像を含む複数の画像を受け付ける。
演算部20は、画像集合データベース22と、物体候補領域抽出部24と、重複度算出部26と、特徴類似度算出部28と、物体候補領域ランキング部30と、物体領域選択部32とを備える。
画像集合データベース22には、入力部10によって受け付けられた複数の画像が格納される。
物体候補領域抽出部24は、画像集合データベース22に格納された複数の画像の各々から、対象物体の物体候補領域を抽出する。
具体的には、画像集合データベース22に格納された画像集合をIとすると、物体候補領域抽出部24は、各画像I∈Iから、一つ以上の物体候補領域を抽出する。なお、mは画像のインデックスを表す。
物体候補領域を抽出する方法は任意の方法を用いることが可能であり、例えば上記非特許文献2に開示されている技術や、以下の参考文献1で開示されている技術を用いることができる。上記非特許文献2及び以下の参考文献1で出力される物体候補領域の数は画像サイズやその内容によって変わり得るが、それらは全てを以降の処理で用いても構わないし、あるいは各技術所定の評価関数によるスコアリングの結果を利用し、物体らしさの特に高い上位N領域のみを選択して以降の処理で用いてもよい。なお、Nは画像Iから抽出される物体候補領域の数を表す。また、Nは各画像Iで独立に設定可能なパラメータであり、例えば手動で100などと設定することができる。
[参考文献1]M. M. Cheng et al., “Binarized Normed Gradients for Objectness Estimation at 300fps”, in Proc. CVPR, 2014.
重複度算出部26は、物体候補領域抽出部24によって同じ画像から抽出された物体候補領域のペアの各々に対し、物体候補領域間の重複度を算出する。
図2に、物体候補領域間の重複度の算出方法の一例を示す。例えば、重複度算出部26は、図2に示すように、画像集合データベース22に格納された各画像I∈Iから抽出された物体候補領域の集合Rに含まれる全ての物体候補領域のペアについて、空間的な重複度を算出する。物体候補領域間の空間的な重複度の算出には、例えばJaccard係数を用いればよい。重複度としてJaccard係数を用いる場合、物体候補領域r∈Rと物体候補領域r∈Rとの重複度Jijは、以下の式(1)で算出することができる。なお、i,jは物体候補領域のインデックスを表す。
上記式(1)におけるbは物体候補領域rに対応するバイナリマスクである。Jaccard係数以外にも、空間的に重複する物体候補領域のペアほど当該値が高くなるような指標であれば、任意の手法を用いることができる。以下では、重複度算出部26で算出される各画像内の全ての物体候補領域のペアの重複度を行列
と表す。
特徴類似度算出部28は、物体候補領域抽出部24によって抽出された複数の画像の各々の物体候補領域の各々から画像特徴量を抽出し、抽出した画像特徴量に基づいて、物体候補領域のペアの各々に対し、物体候補領域間の類似度を算出する。
図3に、物体候補領域間の類似度の算出方法の一例を示す。例えば、特徴類似度算出部28は、図3に示すように、各画像から抽出される各物体候補領域から画像特徴量を算出し、得られた画像特徴量の比較に基づいて全ての物体候補領域のペアの見た目の類似度を算出する。各物体候補領域から抽出する画像特徴量は任意であり、例えば、以下の参考文献2で開示されているSpatial Pyramid Codingや、以下の参考文献3で開示されているGIST、以下の参考文献4で開示されているRCNNを用いればよい。
そして、特徴類似度算出部28は、抽出された画像特徴量を用いて、各物体候補領域間の類似度を算出する。ここで、物体候補領域r∈Iと物体候補領域r∈Iとから抽出される画像特徴量をf,fとすると、物体候補領域rと物体候補領域rとの類似度Vij mnは、例えば以下の式(2)で算出することができる。
上記式(2)におけるσはパラメータであり、σ=10などとあらかじめ決めてもよいし、全ての物体候補領域のペアの画像特徴間の距離の値を参照して決定してもよい。
[参考文献2]S. Lazebnik et al., “Beyond Bags of Features: Spatial Pyramid Matching for Recognizing Natural Scene Categories”, in Proc. CVPR, 2006.
[参考文献3]A. Oliva et al., “Modeling the Shape of the Scene: A Holistic Representation of the Spatial Envelope”, in IJCV, 2001.
[参考文献4]R. Girshick et al., “Rich feature hierarchies for accurate object detection and semantic segmentation”, in Proc. CVPR, 2014.
以下では、画像I∈Iから得られる物体候補領域の集合Rと、I∈Iから抽出される物体候補領域の集合Rの各物体候補領域のペアについて、上記式(2)に基づいて算出される類似度から得られる行列を
とする。
物体候補領域ランキング部30は、重複度算出部26によって算出された物体候補領域間の重複度と、特徴類似度算出部28によって算出された物体候補領域間の類似度とに基づいて、物体候補領域の各々をランキングする際に、物体候補領域の各々について、ランキング上位の物体候補領域との間の重複度が大きい物体候補領域ほど上位にランキングされ、かつランキング上位の物体候補領域との間の類似度が大きい物体候補領域ほど上位にランキングされるように、物体候補領域をランキングする。
上記を満たすようなランキングは、N=Σを物体候補領域の総数とすれば、例えば以下の式(3)を満たすランキングスコアのベクトルp∈Rを求めることで得ることができる。
上記式(3)右辺のAは、重複度算出部26で得られた物体候補領域間の重複度と、特徴類似度算出部28で得られた物体候補領域間の類似度とを用いて、以下の式(4)のように算出される。
上記式(4)のJ、Vは以下の式(5)、式(6)で表される。なお、上記式(4)におけるαはパラメータであり、例えばα=2などとあらかじめ決めておくものとする。
また、上記式(3)のD−1は対角行列であり、行列Aの要素をAijとすると、D−1の対角成分Diiは、Dii=(Σij−1である。
上記式(3)は類似度行列Aに関するPageRankと呼ばれるものであり、例えば以下の参考文献5に示されている公知のアルゴリズムを用いて、ランキングスコアのベクトルp∈Rを求めることができる。ランキングスコアのベクトルp∈Rの各要素は対応する物体候補領域のランキングスコアに対応しており、当該値を用いて後述する物体領域選択部32によって、物体候補領域の選択が行われる。
[参考文献5]P. Berkhin et al., “A Survey on PageRank Computing”, in Internet Mathmatics, 2005.
物体領域選択部32は、物体候補領域ランキング部30によって得られた物体候補領域の各々のランキング結果に基づいて、物体候補領域の各々から、物体領域を選択する。物体領域選択部32によって、対象物体を捉えていると考えられる物体候補領域が物体領域として選択、特定される。
図4に、物体領域の選択方法の一例を示す。例えば、物体領域選択部32は、図4に示すように、物体候補領域ランキング部30によって得られたランキング結果に基づいて、画像毎に、物体候補領域の各々から1つの物体領域を選択する。第1の実施の形態において、物体候補領域から物体領域を特定する方法は、画像毎に物体領域の選択を行うというものであり、画像I毎に順番に、当該画像Iに含まれるランキングスコアが高い物体候補領域を選択していくことで実現される。
なお、物体領域は各画像につき複数選択することも可能である。例えば、物体領域選択部32は、物体候補領域ランキング部30によって得られたランキング結果に基づいて、画像毎に、当該画像に含まれる物体候補領域の各々から2つ目以降の物体領域を選択する際に、ランキングスコアの高い順に、ランキングスコアが予め定められた第1の閾値よりも大きい画像の物体候補領域であって、かつ、既に選択された物体領域との重複度が予め定められた第2の閾値よりも小さい物体候補領域を物体領域として選択する。
例えば、物体領域選択部32は、当該画像に含まれる物体候補領域の各々から2つ目以降の物体領域を選択する際に、予め定められた第1の閾値としてランキングスコアの閾値pthresholdを予め決めておき、p>pthresholdを満たす当該画像内の物体候補領域について、ランキングスコアの高い順に、物体領域として既に選択された物体候補領域と重複度が予め定められた第2の閾値Jthresholdよりも小さいものを順に選択すればよい。Jthresholdは閾値に関するパラメータであり、手動でJthreshold=0.5などと設定すればよい。この方法は、入力中の各画像中に対象物体が少なくも一つ必ず含まれている場合に有効である。
出力部40は、物体領域選択部32によって得られた物体領域の集合を結果として出力する。
<本発明の第1の実施の形態に係る物体領域選択装置の作用>
次に、本発明の第1の実施の形態に係る物体領域選択装置100の作用について説明する。入力部10より対象物体を表す画像を含む複数の画像が入力されると、物体領域選択装置100は、図5に示す物体領域選択処理ルーチンを実行する。
ステップS100において、入力部10は、対象物体を表す画像を含む複数の画像を受け付け、画像集合データベース22に格納する。
ステップS102において、物体候補領域抽出部24は、上記ステップS100で画像集合データベース22に格納された複数の画像の各々から、対象物体の物体候補領域を抽出する。
ステップS104において、重複度算出部26は、上記ステップS102で同じ画像から抽出された物体候補領域のペアの各々に対し、物体候補領域間の重複度を算出する。
ステップS106において、特徴類似度算出部28は、上記ステップS102で抽出された複数の画像の各々の物体候補領域の各々から、画像特徴量を抽出する。
ステップS108において、特徴類似度算出部28は、上記ステップS102で抽出された画像特徴量に基づいて、物体候補領域のペアの各々に対し、物体候補領域間の類似度を算出する。
ステップS110において、物体候補領域ランキング部30は、上記ステップS104で算出された物体候補領域間の重複度と、上記ステップS108で算出された物体候補領域間の類似度とに基づいて、物体候補領域の各々をランキングする際に、物体候補領域の各々について、ランキング上位の物体候補領域との間の重複度が大きい物体候補領域ほど上位にランキングされ、かつランキング上位の物体候補領域との間の類似度が大きい物体候補領域ほど上位にランキングされるように、物体候補領域をランキングする。
ステップS112において、物体領域選択部32は、上記ステップS110で得られた物体候補領域の各々のランキング結果に基づいて、物体候補領域の各々から、物体領域を選択する。
ステップS114において、出力部40は、物体領域選択部32によって得られた物体領域の集合を結果として出力して、物体領域選択処理ルーチンを終了する。
以上説明したように、本発明の第1の実施の形態に係る物体領域選択装置によれば、物体候補領域間の重複度と、物体候補領域間の類似度とに基づいて、物体候補領域の各々をランキングする際に、物体候補領域の各々について、ランキング上位の物体候補領域との間の重複度が大きい物体候補領域ほど上位にランキングされ、かつランキング上位の物体候補領域との間の類似度が大きい物体候補領域ほど上位にランキングされるように、物体候補領域をランキングし、物体候補領域の各々のランキング結果に基づいて、物体候補領域の各々から、物体領域を選択することにより、画像に含まれる対象物体を精度よく特定することができる。
また、画像群中に含まれる主要な対象物体の全貌を精度よく特定することができる。
[第2の実施の形態]
<本発明の第2の実施の形態に係る物体領域選択装置の構成>
次に、本発明の第2の実施の形態について説明する。なお、第2の実施の形態に係る物体領域選択装置の構成は、第1の実施の形態と同様の構成となるため、同一符号を付して説明を省略する。
第2の実施の形態では、物体候補領域のランキング結果に基づいて、物体候補領域の各々から、予め定められた個数の物体領域を選択する点が、第1の実施の形態と異なっている。
第2の実施の形態に係る物体領域選択装置の物体領域選択部32は、物体候補領域ランキング部30によって得られたランキング結果に基づいて、物体候補領域の各々から、予め定められた個数の物体領域を選択する。
図6に、物体領域の選択方法の一例を示す。例えば、物体領域選択部32は、図6に示すように、物体候補領域の集合全体でランキング上位の物体候補領域を物体領域として選択してしまい、物体領域として特定する。第2の実施の形態では、画像あたりで選択される物体候補領域の数が予め指定されない。そのため、1つの画像から複数の物体領域が選択されることや、1つの画像から物体領域の選択がされないといったことが可能となる。
なお、選択されるランキング上位の物体候補領域の予め定められた個数Nthreshold<Nはパラメータである。
また、画像内で2つ目以降の物体候補領域が選択される場合には、上記第1の実施の形態における物体領域の選択方法と同様の方法で、ランキングスコアの高い順に、ランキングスコアが予め定められた第1の閾値よりも大きい画像の物体候補領域であって、かつ、既に選択された物体領域との重複度が予め定められた第2の閾値よりも小さい物体候補領域を物体領域として選択すればよい。この方法を用いると、必ずしも全ての画像から物体領域が特定されるとは限らないため、画像に対象物体を全く含まない画像が混在している場合に好適である。
以上説明したように、本発明の第2の実施の形態に係る物体領域選択装置によれば、物体候補領域のランキング結果に基づいて、物体候補領域の各々から、予め定められた個数の物体領域を選択することにより、対象物体を全く含まない画像が混在している場合であっても、画像に含まれる対象物体を精度よく特定することができる。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述の物体領域選択装置100は、画像集合データベース22を備えている場合について説明したが、例えば画像集合データベース22が物体領域選択装置100の外部装置に設けられ、物体領域選択装置100は、外部装置と通信手段を用いて通信することにより、画像集合データベース22を参照するようにしてもよい。
また、上述の物体領域選択装置100は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体、例えばCD−ROMやメモリーカード等に格納して提供することも可能である。
10 入力部
20 演算部
22 画像集合データベース
24 物体候補領域抽出部
26 重複度算出部
28 特徴類似度算出部
30 物体候補領域ランキング部
32 物体領域選択部
40 出力部
100 物体領域選択装置

Claims (6)

  1. 物体候補領域抽出部、重複度算出部、特徴類似度算出部、物体候補領域ランキング部、及び物体領域選択部を含み、複数の画像の各々について、前記画像に含まれる対象物体を表す物体領域を選択する物体領域選択装置における物体領域選択方法であって、
    前記物体候補領域抽出部が、前記複数の画像の各々から前記対象物体の物体候補領域を抽出するステップと、
    前記重複度算出部が、前記物体候補領域抽出部によって同じ前記画像から抽出された前記物体候補領域のペアの各々に対し、前記物体候補領域間の重複度を算出するステップと、
    前記特徴類似度算出部が、前記物体候補領域抽出部によって抽出された前記複数の画像の各々の前記物体候補領域の各々から画像特徴量を抽出し、抽出した画像特徴量に基づいて、前記物体候補領域のペアの各々に対し、前記物体候補領域間の類似度を算出するステップと、
    前記物体候補領域ランキング部が、前記重複度算出部によって算出された前記物体候補領域間の重複度と、前記特徴類似度算出部によって算出された前記物体候補領域間の類似度とに基づいて、前記物体候補領域の各々をランキングする際に、前記物体候補領域の各々について、ランキング上位の前記物体候補領域との間の前記重複度が大きい前記物体候補領域ほど上位にランキングされ、かつランキング上位の前記物体候補領域との間の前記類似度が大きい前記物体候補領域ほど上位にランキングされるように、前記物体候補領域をランキングするステップと、
    前記物体領域選択部が、前記物体候補領域ランキング部によって得られた前記物体候補領域の各々のランキング結果に基づいて、前記物体候補領域の各々から、前記物体領域を選択するステップと、
    を含む物体領域選択方法。
  2. 前記物体領域選択部が前記物体領域を選択するステップは、前記物体候補領域ランキング部によって得られた前記ランキング結果に基づいて、前記画像毎に、前記物体候補領域の各々から少なくとも1つの前記物体領域を選択する
    請求項1に記載の物体領域選択方法。
  3. 前記物体領域選択部が前記物体領域を選択するステップは、前記物体候補領域ランキング部によって得られた前記ランキング結果に基づいて、前記物体候補領域の各々から、予め定められた個数の前記物体領域を選択する
    請求項1に記載の物体領域選択方法。
  4. 前記物体領域選択部が前記物体領域を選択するステップは、前記物体候補領域ランキング部によって得られた前記ランキング結果に基づいて、前記画像の前記物体候補領域の各々から複数の前記物体領域を選択する際に、ランキングスコアの高い順に、ランキングスコアが予め定められた第1の閾値よりも大きい前記画像の前記物体候補領域であって、かつ、既に選択された前記物体領域との前記重複度が予め定められた第2の閾値よりも小さい前記物体候補領域を前記物体領域として選択する
    請求項2又は3に記載の物体領域選択方法。
  5. 複数の画像の各々について、前記画像に含まれる対象物体を表す物体領域を選択する物体領域選択装置であって、
    前記複数の画像の各々から前記対象物体の物体候補領域を抽出する物体候補領域抽出部と、
    前記物体候補領域抽出部によって同じ前記画像から抽出された前記物体候補領域のペアの各々に対し、前記物体候補領域間の重複度を算出する重複度算出部と、
    前記物体候補領域抽出部によって抽出された前記複数の画像の各々の前記物体候補領域の各々から画像特徴量を抽出し、抽出した画像特徴量に基づいて、前記物体候補領域のペアの各々に対し、前記物体候補領域間の類似度を算出する特徴類似度算出部と、
    前記重複度算出部によって算出された前記物体候補領域間の重複度と、前記特徴類似度算出部によって算出された前記物体候補領域間の類似度とに基づいて、前記物体候補領域の各々をランキングする際に、前記物体候補領域の各々について、ランキング上位の前記物体候補領域との間の前記重複度が大きい前記物体候補領域ほど上位にランキングされ、かつランキング上位の前記物体候補領域との間の前記類似度が大きい前記物体候補領域ほど上位にランキングされるように、前記物体候補領域をランキングする物体候補領域ランキング部と、
    前記物体候補領域ランキング部によって得られた前記物体候補領域の各々のランキング結果に基づいて、前記物体候補領域の各々から、前記物体領域を選択する物体領域選択部と、
    を含む物体領域選択装置。
  6. 請求項1〜請求項4の何れか1項記載の物体領域選択方法の各ステップをコンピュータに実行させるためのプログラム。
JP2016004494A 2016-01-13 2016-01-13 物体領域選択方法、装置、及びプログラム Active JP6535605B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016004494A JP6535605B2 (ja) 2016-01-13 2016-01-13 物体領域選択方法、装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016004494A JP6535605B2 (ja) 2016-01-13 2016-01-13 物体領域選択方法、装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017126162A JP2017126162A (ja) 2017-07-20
JP6535605B2 true JP6535605B2 (ja) 2019-06-26

Family

ID=59364326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016004494A Active JP6535605B2 (ja) 2016-01-13 2016-01-13 物体領域選択方法、装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP6535605B2 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5823270B2 (ja) * 2011-11-30 2015-11-25 Kddi株式会社 画像認識装置及び方法
JP6034970B2 (ja) * 2013-08-02 2016-11-30 株式会社日立製作所 辞書生成システム、辞書生成方法、および辞書生成プログラム

Also Published As

Publication number Publication date
JP2017126162A (ja) 2017-07-20

Similar Documents

Publication Publication Date Title
CN112101165B (zh) 兴趣点识别方法、装置、计算机设备和存储介质
US10762376B2 (en) Method and apparatus for detecting text
US11416710B2 (en) Feature representation device, feature representation method, and program
JP6832504B2 (ja) 物体追跡方法、物体追跡装置およびプログラム
CN107833213B (zh) 一种基于伪真值自适应法的弱监督物体检测方法
US10650237B2 (en) Recognition process of an object in a query image
CN106682696B (zh) 基于在线示例分类器精化的多示例检测网络及其训练方法
CN108549870A (zh) 一种对物品陈列进行鉴别的方法及装置
Tsai et al. Learning and recognition of on-premise signs from weakly labeled street view images
CN111274926B (zh) 图像数据筛选方法、装置、计算机设备和存储介质
JP7183753B2 (ja) リスト生成装置、被写体識別装置、リスト生成方法、及びプログラム
Rejeb Sfar et al. Vantage feature frames for fine-grained categorization
CN112633297A (zh) 目标对象的识别方法、装置、存储介质以及电子装置
CN111738355A (zh) 注意力融合互信息的图像分类方法、装置及存储介质
Lee et al. Automatic recognition of flower species in the natural environment
US20140270366A1 (en) Dimension-Wise Spatial Layout Importance Selection: An Alternative Way to Handle Object Deformation
CN110298402A (zh) 一种小目标检测性能优化方法
CN107480627B (zh) 行为识别方法、装置、存储介质和处理器
CN112232368A (zh) 目标识别模型训练方法、目标识别方法及其相关装置
JP6517652B2 (ja) 物体顕著性マップ算出装置、方法、及びプログラム
CN115050044B (zh) 一种基于MLP-Mixer的跨模态行人重识别方法
JP6448036B2 (ja) 物体領域特定方法、装置、及びプログラム
JP6535605B2 (ja) 物体領域選択方法、装置、及びプログラム
Gurkan et al. Evaluation of human and machine face detection using a novel distinctive human appearance dataset
CN113362380B (zh) 一种图像特征点检测模型训练方法、装置及其电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R150 Certificate of patent or registration of utility model

Ref document number: 6535605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150