JP4995770B2 - 画像辞書生成装置,画像辞書生成方法,および画像辞書生成プログラム - Google Patents

画像辞書生成装置,画像辞書生成方法,および画像辞書生成プログラム Download PDF

Info

Publication number
JP4995770B2
JP4995770B2 JP2008132711A JP2008132711A JP4995770B2 JP 4995770 B2 JP4995770 B2 JP 4995770B2 JP 2008132711 A JP2008132711 A JP 2008132711A JP 2008132711 A JP2008132711 A JP 2008132711A JP 4995770 B2 JP4995770 B2 JP 4995770B2
Authority
JP
Japan
Prior art keywords
image
dictionary
positive case
area
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008132711A
Other languages
English (en)
Other versions
JP2009282660A (ja
Inventor
泳青 孫
聡 嶌田
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008132711A priority Critical patent/JP4995770B2/ja
Publication of JP2009282660A publication Critical patent/JP2009282660A/ja
Application granted granted Critical
Publication of JP4995770B2 publication Critical patent/JP4995770B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は,画像や映像中のオブジェクトやシーンがどのような概念であるかを認識するときに必要となる画像辞書を生成する画像辞書生成装置,画像辞書生成方法,および画像辞書生成プログラムに関する。
予め定義しておいた意味ラベルと画像内容との関係に基づいて画像辞書を生成する従来技術として,大量の正事例データと負事例データを手動で収集し,収集したデータを学習することで求めた識別関数により,画像辞書を生成する方法がある。
例えば,非特許文献1に記載されている技術では,まず,ある意味に関する画像群を学習データとして収集し,次に学習データから色,テクスチャ,形状などの特徴量(L個)を別々に抽出し,その後,学習手法を用いて,個々の特徴空間においてL個の特徴識別モデルを構築する。このようにして学習データから求めた特徴識別モデルと各モデルの重み付け係数とをもとに画像辞書を生成する。
また,正事例と負事例を自動で収集する方法として,ウェブ画像を自動収集してから,その中から選択した正事例とランダムに生成した負事例とを学習データとして用いて,その学習データを学習することで求めた識別関数により画像辞書を生成する方法がある(非特許文献2参照)。
なお,後述する本発明の実施例で用いることができる領域分割方法の一例としては,非特許文献3に示されている技術がある。
A.Yanagawa, S.-F.Chang, L.Kennedy, and W.Hsu: "Columbia University's Baseline detectors for 374 LSCOM Semantic Visual Concepts", Columbia University ADVENT Technical Report #222-2006-8, March 20, 2007. Keiji Yanai, Kobus Barnard: Probabilistic Web Image Gatheringp, Proc. of ACM Multimedia Workshop on Multimedia Information Retrieval, pp.57-64, Nov. 2005. Yongqing Sun, Shinji Ozawa: "HIRBIA: A Hierarchical Approach for Region-based Image Retrival", ACM Multimedia System Journal, 10(6): 559-569(2005).
従来の大量の正事例と負事例の学習データを手動で収集しておくことを前提とした技術は,学習データの収集に多大のコストと時間がかかることと,意味ラベルと画像内容との関係が変動する場合に適用できないことが問題である。
例えば,ウェブ上にある画像の検索を行う場合,利用者の検索要求が生じるたびに,その定義ラベルを表す画像を大量に収集する必要がある。意味ラベルと画像内容の関係が変動するケースとして,(1)話題の変化によって意味ラベルの指し示す内容が変化するケース(例えば,Tigerという意味ラベルに対して,TigerWoodsが優勝した日のTigerWoods),(2)アナウンサーシーンという意味ラベルに対して,ニュース映像におけるアナウンサーのシーンを対応づける場合に,ニューススタジオが変わると,意味ラベルと画像内容の関係が変化するというようなケースがある。このような場合にその都度,改めて大量の学習データを収集して学習しなおす必要がある。このように,手動で学習データを収集する方法は,学習にコストと時間がかかるために適用領域が限定されるという問題があった。
また,正事例と負事例を自動で収集する従来技術においては,負事例がランダムに収集されているので,負事例には正事例も混じる可能性が高く,画像辞書の精度が低くなることが問題であった。
本発明は,上記課題の解決を図り,学習データの収集に負荷をかけることなく,かつ高精度に画像辞書を生成することができる技術を提供することを目的とする。
画像辞書を高精度に生成するためには,負事例データをランダムに収集するのではなく,正事例データのできるだけ近くに分布するが,正事例ではないデータを負事例とすればよい結果が得られる。
そこで,本発明は,辞書用画像群から意味ラベルを表現している正事例データを選定する手段と,選定した正事例データを利用して,本発明に特有の方法により意味ラベルを表していない負事例データを辞書用画像群から選定する手段とを備えることを主要な特徴とする。すなわち,選定した正事例データを利用して,同じ辞書用画像群から意味ラベルを表していない負事例データを選定する手段を備えることにより,識別精度の高い画像辞書の生成が可能になる点が従来技術と大きく異なる。
また,一般的に,画像は複数の対象物で構成されていることが多いので,画像を領域分割して得られる部分領域から意味ラベルを表す辞書を生成する方法が有効である。意味ラベルを表す画像情報が多く含まれた辞書用画像群が与えられたときに,これらの辞書用画像の中で,画像の特徴が類似した部分領域が頻出していれば,その中に意味ラベルをよく表現した領域があるとすることは妥当である。
したがって,さらに本発明では,頻出する類似の部分領域を求め,その中から正事例を選定する。負事例については,前述したように正事例を利用して適切に選定できるとよい。例えば,辞書用画像群が主要な被写体と背景で構成されていて,主要な被写体が正事例として選定されたときに,背景が似たシーンの中には正事例と類似しているが正事例ではない被写体が出現することが多い。このような部分領域の共起関係に着目し,正事例として選定された部分領域を利用して負事例を選定する方法が有効である。
以上の点に鑑み,本発明では,さらに辞書用画像群の各画像に対して領域分割を行う画像領域分割処理手段と前記得られた領域群が類似している領域クラスタを検出するクラスタリング処理手段を用いて,領域クラスタの中から正事例を選定し,また,負事例の選定では,正事例領域クラスタに属する画像領域を含む画像から,正事例データでない領域のクラスタを抽出し,辞書用画像群の中から,正事例領域クラスタに属する画像領域を含まない画像であり,抽出したクラスタの領域を含む画像を抽出し,抽出した画像における分割された領域群から正事例データの近傍にある領域を負事例データとして選定する。この発明では,画像領域分割手段により画像領域分割した領域群にクラスタリング処理を行うことで自動的に領域クラスタを求め,その中のどれを正事例にするかを利用者が選択する簡単な指示を行うだけで,適切な正事例データと負事例データとを選定できるので,負荷をかけることなく高精度な画像辞書が生成できる。
また,辞書用画像群が映像として与えられたときには,時間的に連続していて,被写体の動きやカメラの動きなどで見かけの変動があるが,同一の被写体が写っている場合や背景が同じ場合など,画像内容が類似している区間をショット区間として検出し,ショット単位で一括して正事例および負事例を選定すれば,効率よく画像辞書が生成できる。例えば,10秒間のショットから0.1秒間隔で画像を選択すれば,一つのショットを選定するだけで100枚の学習用の画像データを選定でき,学習データ収集の負荷を軽減することができる。
そこで,本発明は,与えられた辞書用映像の中から,画像内容が類似している,時間的に連続した区間をショットとして検出するショット検出手段を備え,ショット単位で,正事例データおよび負事例データを選定する。
上記のように本発明によれば,辞書生成に用いる辞書用画像群が与えられたときに,その辞書用画像群から意味ラベルを表現している正事例データを選定し,その選定した正事例データを利用して負事例データを選定するので,学習データを簡単に効率よく取得することができる。
また,正事例選定手段では,利用者の要求に応じた正事例を選択することにより,意味ラベルと画像内容との関係が変動する場合の辞書生成に適用できる。
また,正事例を含まない辞書用画像群の中で意味ラベルを表してない負事例データを選定する手段を設けることで,高精度な辞書を生成することができる。
以下,図面を参照しながら,本発明の実施の形態を説明する。
〔第1の例〕
第1の例の画像辞書生成装置は,与えられた辞書用画像群の各画像を領域分割し,クラスタリングをしてユーザに提示する。ユーザは,提示されたクラスタリング結果から正事例をポインティングデバイスなどにより指示する。その指示を入力して正事例データを選定し,次に,正事例でない他の領域をクラスタリングし,そのクラスタ領域を含む他の画像を得る。正事例のクラスタと距離が近い他のクラスタの領域を負事例とする。
第1の例の画像辞書生成装置の構成図を,図1に示す。本例の画像辞書生成装置は,辞書用画像群蓄積部11と,画像領域分割処理部12と,クラスタリング処理部13と,正事例領域クラスタ選定部14と,負事例選択部15と,画像辞書生成部16と,辞書記憶部17とから構成される。これらは,CPU,メモリ,外部記憶装置等からなるコンピュータとソフトウェアプログラム等によって実現される。各部の処理内容について以下に説明する。
辞書用画像群蓄積部11は,事前に取得しておいた辞書用の画像を蓄積・管理しておき,画像領域分割処理部12からの要求に応じて辞書用画像を画像領域分割処理部12に出力する。辞書用画像群蓄積部11には,例えば意味ラベルを検索ワードとしてウェブ画像検索エンジンから収集した画像群を収集して,辞書用画像群として格納すればよい。
画像領域分割処理部12は,辞書用画像群蓄積部11に読み取り要求を出して辞書用画像群蓄積部11から受け取ったある意味ラベルに関する辞書用画像群の個々の画像について,領域分割を行う。領域分割については,非特許文献3に示されているような従来の技術を用いることをができる。領域分割により得られた領域群をクラスタリング処理部13へ出力する。
クラスタリング処理部13は,画像領域分割処理部12から辞書用画像群の領域群を受け取って,クラスタリングを行う。求められた領域クラスタを正事例領域クラスタ選定部14へ出力する。
正事例領域クラスタ選定部14は,クラスタリング処理部13から受け取った領域クラスタをディスプレイに表示し,利用者に提示する。ポインティングデバイス等により入力した利用者の指示に応じた一つの領域クラスタを正事例領域クラスタとして選択する。その正事例領域クラスタを負事例選択部15へ出力する。
負事例選択部15は,正事例領域クラスタ選定部14から正事例領域クラスタを受け取ると,正事例領域クラスタにおける各正事例領域を含む画像を除いた辞書用画像群の中で,負事例を選択する。
画像辞書生成部16は,負事例選択部15から受け取った正事例と負事例を学習データとして用いて,従来技術と同様な学習手法によりモデルを求めて,辞書記憶部17へ出力する。辞書記憶部17は,画像辞書生成部16から受け取ったモデルと意味ラベルを組にして画像辞書として記憶する。
次に,上記の構成における処理手順を説明する。図2は,図1に示す画像辞書生成装置の基本動作のフローチャートである。
・ステップS21:辞書用画像群蓄積部11で管理されている辞書用画像群を読み込む。
・ステップS22:ステップS21において収集した辞書用画像群の個々の画像に対して領域分割を行う。領域分割の手法については,例えば非特許文献3に記載されているような従来技術を用いればよい。このような領域分割の手法は,よく知られている技術であるので,ここでの詳細な説明は省略する。
・ステップS23:ステップS22で得られた領域群をクラスタリング手法に基づいて領域クラスタに分類する。この領域の分類は,Fuzzy K−meansなどのクラスタリングにより実現できる。この領域の分類手法についても,画像処理技術の分野ではよく知られている手法であるので,その詳細な手順の説明は省略する。
・ステップS24:ステップS23で求められた領域クラスタを利用者に提示し,利用者からの指示により正事例領域クラスタを選定する。
図3に,利用者からの指示を入力し,正事例領域クラスタを選定するためのGUI(Graphical User Interface)の例を示す。例えば,図3(A)に示すような辞書用画像群の各画像31〜34を,ステップS22において領域分割することにより,画像31については分割領域31a〜31dが,画像32については分割領域32a〜32dが,画像33については分割領域33a〜33dが,画像34については分割領域34a〜34dが,それぞれ得られたとする。
ステップS23では,これらの各分割領域31a〜34dについて,類似する特徴を有するものをグループ化し,クラスタリングする。ここで,分割領域31a,33d,34cが領域クラスタCluster1に,分割領域32d,33aが領域クラスタCluster2に,分割領域31c,33c,34aが領域クラスタCluster3にクラスタリングされたとすると,そのクラスタリング結果の三つの領域クラスタを,図3(B)に示す表示画面35のようにディスプレイに一覧表示し,この中から利用者が正事例領域クラスタとみなすクラスタをポインティングデバイスでクリックすることにより指示できるようにする。ステップS24では,この指示を入力し,正事例領域クラスタを選定する。この例では,領域クラスタCluster1が正事例領域クラスタとして選定されている。これらの領域の画像を正事例とする。
・ステップS25:次に,正事例領域クラスタの選定結果を利用して,正事例の分布の近傍にある負事例を選択する処理を行う。この処理内容の詳細については,図4に従って後述する。
・ステップS26:ステップS24,S25で求められた正事例と負事例とを用いて,モデルを学習する。学習手法の実施例として,サポートベクターマシン(SVM:Suport Vector Machine )を用いればよい。もちろん,他の学習器を用いることも可能である。
・ステップS27:ステップS26で得られたモデルとそれに関する意味ラベルを画像辞書として辞書記憶部17に格納する。以上の処理により,画像辞書が生成される。
次に,上記ステップS25における負事例選択処理の詳細について,図4に示すフローチャートに従って説明する。ここで,図5に示す辞書用画像群を説明の例として用いる。図5において,Aは画像辞書生成の対象となる被写体で,C,DはAと似ている被写体で,B1〜B6は画像の中の背景である。例えば,A,C,Dはゴルフ選手であり,B1,B2,B3はゴルフ場の芝生,空などの背景であるが,この場合のように似ている背景の被写体は類似していることが多い。
・ステップS31:図2のステップS24にて得られた正事例領域クラスタ(Aの領域で構成されるクラスタ)を読み込む。
・ステップS32:辞書用画像群の中で正事例領域を含む画像(Aの領域を含む画像1,画像2)を収集する。
・ステップS33:ステップS32で得られた画像群(画像1,画像2)における,正事例でない領域群のクラスタを抽出する。なお,ここで正事例でない領域群に対してクラスタリングを行って,クラスタ内の領域数や領域の面積により(ステップS35の説明参照),主要なクラスタ(B1,B2,B3の領域で構成されるクラスタ)を求めてもよい。
・ステップS34:辞書用画像群の中から,ステップS33で求められたクラスタにおける領域(B1,B2,B3の領域)を含み,かつ正事例(Aの領域)を含まない画像(画像3,画像4,画像5,画像6)を取得する。
・ステップS35:ステップS34で得られた画像の領域群(ステップS22の領域分割で得られた領域群のうち画像3〜6の領域群)を再度クラスタリングし,クラスタリング結果から主要なクラスタ(例えばC,Dの領域で構成されるクラスタ)を抽出する。ここでは,例えばクラスタ内の領域数が多いクラスタ,もしくはその領域数がある閾値以上のクラスタ,または,クラスタ内の領域の面積が大きいクラスタというような,負事例の候補として適切であると考えられるクラスタを,主要なクラスタとして抽出する。また,ここで抽出するクラスタとして,そのクラスタの中心と正事例領域クラスタの中心との特徴空間における距離が最も小さいクラスタを選んでもよい。
・ステップS36:ステップS35で得られたクラスタ(この例では,C,Dの領域で構成されるクラスタ)にある各領域と正事例領域クラスタの中心との距離を算出する。距離の小さい順に正事例と同数の領域を選択して負事例とする。選択する負事例は,必ずしも正事例と同数でなくてもよいが,同数に近いほうが学習結果の精度がよくなる。
以上のステップS31からステップS36に至る処理により,正事例の分布の近傍にある負事例を選択することができる。それらの負事例を学習に用いることで,誤認識を抑えることができる。なお,上記ステップS36において,図3(B)と同じようなGUIによる一覧表示により,利用者に負事例を選択させることも可能である。
〔第2の例〕
第2の例の画像辞書生成装置は,辞書生成に用いる辞書用画像群が映像として与えられたときに,映像をショットに分割し,ショット単位で正事例を利用者に指定させ,他を負事例として学習することにより,画像辞書を生成する。
第2の例の画像辞書生成装置の構成図を,図6に示す。本例の画像辞書生成装置は,辞書用画像群蓄積部40,ショット分割部41,正事例選定部42,負事例選択部43,画像辞書生成部44,辞書記憶部45で構成される。これらは,CPU,メモリ,外部記憶装置等からなるコンピュータとソフトウェアプログラム等によって実現される。各部の処理内容について以下に説明する。
辞書用画像群蓄積部40は,事前に取得しておいた辞書用の映像を蓄積・管理しておき,ショット分割部41からの要求に応じて辞書用映像をショット分割部41に出力する。
ショット分割部41は,辞書用画像群蓄積部40に読み取り要求を出して,辞書用画像群蓄積部40から受け取った辞書用映像において,画像内容が類似している,時間的に連続した区間をショットとして検出する。検出したショット区間情報を正事例選定部42へ出力する。
正事例選定部42は,ショット分割部41から受け取ったショット区間情報を利用者に提示する。利用者から指示により正事例を選定する。
図7に,利用者からの指示を入力し,学習データを選定するためのGUI(Graphical User Interface)の例を示す。図7に示すように,ディスプレイに各ショットの先頭画像を一覧表示し,その中から利用者にマウス等のポインティングデバイスで正事例を指示させることにより,正事例を選定する。
ここで,二つの選定方法が有効である。一つは,各ショットの先頭画像の下にある“正解”をクリックさせることにより,クリックされたショットを正事例データとして選定する方法である。この選定方法を用いれば,映像の中の「人物顔」などのオブジェクトに関する正事例を選定することができる。二つ目の方法は,各ショットの先頭画像の下にある“In”または“Out”を利用者にクリックさせることにより,“In”から“Out”までの間のショットを正事例として選定する方法である。例えば,図7において,画像3の下にある“In”のボタンと,画像5の下にある“Out”のボタンがクリックされると,画像3から画像5の前までの間の全ショットを正事例として選定する。この選定方法により,映像の中の「サッカーのシュートシーン」などの動的なイベントシーンに関する正事例を,効率よく選定することが可能になる。
負事例選択部43は,正事例選定部42で選定した正事例以外の区間を負事例として選定する。
画像辞書生成部44は,正事例選定部42と負事例選択部43によって求められた正事例と負事例を用いて,モデルを学習する。学習手法の実施例としてSVMを用いればよい。もちろん,他の学習器を用いることも可能である。
画像辞書生成部44によって得られたモデルとそれに関する意味ラベルは,画像辞書として辞書記憶部45に格納される。
次に,上記の構成における処理手順について説明する。図8は,図6に示す画像辞書生成装置の基本動作のフローチャートである。
・ステップS51:辞書用画像群蓄積部40で管理されている映像を辞書用画像群として読み込む。
・ステップS52:ステップS51で読み込んだ辞書用映像において,画像内容が類似している,時間的に連続した区間をショットとして検出する。
・ステップS53:ステップS52から受け取ったショット区間情報を利用者に提示する。図7に示すようなGUIにより利用者から指示された正事例を選択する。
・ステップS54:ステップS53で選定した正事例以外の区間を負事例として選択する。
・ステップS55:求められた正事例と負事例を用いて,モデルを学習する。学習手法の一例としては,SVMを用いる方法があるが,他の学習器を用いることもできる。
・ステップS56:学習によって得られたモデルとそれに関する意味ラベルの組を画像辞書として辞書記憶部45に格納する。以上の処理により,画像辞書が生成できる。
以上の画像辞書生成の処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。
画像辞書生成装置の構成図である。 画像辞書生成装置の基本動作のフローチャートである。 正事例領域クラスタを選定するためのGUIの例を示す図である。 負事例選択処理を示すフローチャートである。 辞書用画像群の例を示す図である。 画像辞書生成装置の構成図である。 正事例を選定するためのGUIの例を示す図である。 画像辞書生成装置の基本動作のフローチャートである。
符号の説明
11,40 辞書用画像群蓄積部
12 画像領域分割処理部
13 クラスタリング処理部
14 正事例領域クラスタ選定部
15,43 負事例選択部
16,44 画像辞書生成部
17,45 辞書記憶部
41 ショット分割部
42 正事例選定部

Claims (5)

  1. 概念を表す言葉である意味ラベルと,当該意味ラベルの概念を表す画像情報とを組とする画像辞書を生成する画像辞書生成装置であって,
    与えられた辞書生成に用いる辞書用画像群から,画像辞書生成の対象となっている特定の意味ラベルを表現している正事例データを選定する正事例選定手段と,
    前記正事例選定手段により選定した正事例データを利用して,前記辞書用画像群の中の正事例データを含まない画像群から,意味ラベルを表していない負事例データを選定する負事例選定手段と,
    前記正事例選定手段と前記負事例選定手段により選定した正事例データと負事例データとから画像辞書を生成する画像辞書生成手段と,
    前記画像辞書生成手段が生成した画像辞書を記憶する辞書記憶手段とを備え
    前記正事例選定手段は,
    前記辞書用画像群の各画像に対して領域分割を行う画像領域分割処理手段と,
    前記得られた領域群をクラスタリングし,類似している領域群からなるクラスタを検出するクラスタリング処理手段と,
    前記クラスタの中から,正事例となる正事例領域クラスタを,利用者からの指示により特定することで正事例データを選定する正事例領域クラスタ選定手段とを備え,
    前記負事例選定手段は,
    前記正事例領域クラスタに属する画像領域を含む画像から,正事例データでない領域のクラスタを抽出する手段と,
    前記辞書用画像群の中から,前記正事例領域クラスタに属する画像領域を含まない画像であり,前記抽出したクラスタの領域を含む画像を抽出する手段と,
    前記抽出した画像における前記分割された領域群から正事例データの近傍にある領域を負事例データとして選定する手段とを備える
    ことを特徴とする画像辞書生成装置。
  2. 辞書生成に用いる辞書用画像群が映像として与えられたときに,与えられた辞書用映像の中から,画像内容が類似している,時間的に連続した区間をショットとして検出するショット検出手段を備え,
    前記正事例選定手段および前記負事例選定手段は,前記ショット検出手段が検出したショット単位で正事例データおよび負事例データを選定する
    ことを特徴とする請求項1に記載の画像辞書生成装置。
  3. コンピュータによって構成される画像辞書生成装置が,概念を表す言葉である意味ラベルと,当該意味ラベルの概念を表す画像情報とを組とする画像辞書を生成する画像辞書生成方法であって,
    前記画像辞書生成装置が,与えられた辞書生成に用いる辞書用画像群から,画像辞書生成の対象となっている特定の意味ラベルを表現している正事例データを選定する正事例選定過程と,
    前記画像辞書生成装置が,前記正事例選定過程により選定した正事例データを利用して,前記辞書用画像群の中の正事例データを含まない画像群から,意味ラベルを表していない負事例データを選定する負事例選定過程と,
    前記画像辞書生成装置が,前記正事例選定過程と前記負事例選定過程において選定した正事例データと負事例データとから画像辞書を生成する画像辞書生成過程と,
    前記画像辞書生成装置が,前記画像辞書生成過程により生成した画像辞書を辞書記憶装置に記憶する辞書記憶過程とを有し,
    前記画像辞書生成装置が実行する前記正事例選定過程は,
    前記辞書用画像群の各画像に対して領域分割を行う画像領域分割処理過程と,
    前記得られた領域群をクラスタリングし,類似している領域群からなるクラスタを検出するクラスタリング処理過程と,
    前記領域クラスタの中から,正事例となる正事例領域クラスタを,利用者からの指示により特定することで正事例データを選定する正事例領域クラスタ選定過程とを有し,
    前記画像辞書生成装置が実行する前記負事例選定過程は,
    前記正事例領域クラスタに属する画像領域を含む画像から,正事例データでない領域のクラスタを抽出する過程と,
    前記辞書用画像群の中から,前記正事例領域クラスタに属する画像領域を含まない画像であり,前記抽出したクラスタの領域を含む画像を抽出する過程と,
    前記抽出した画像における前記分割された領域群から正事例データの近傍にある領域を負事例データとして選定する過程とを有する
    ことを特徴とする画像辞書生成方法。
  4. 前記画像辞書生成装置が,辞書生成に用いる辞書用画像群が映像として与えられたときに,与えられた辞書用映像の中から,画像内容が類似している,時間的に連続した区間をショットとして検出するショット検出過程を有し,
    前記画像辞書生成装置が実行する前記正事例選定過程および前記負事例選定過程では,前記ショット検出過程において検出したショット単位で正事例データおよび負事例データを選定する
    ことを特徴とする請求項に記載の画像辞書生成方法。
  5. 請求項3または請求項4に記載の画像辞書生成方法を,コンピュータに実行させるための画像辞書生成プログラム。
JP2008132711A 2008-05-21 2008-05-21 画像辞書生成装置,画像辞書生成方法,および画像辞書生成プログラム Expired - Fee Related JP4995770B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008132711A JP4995770B2 (ja) 2008-05-21 2008-05-21 画像辞書生成装置,画像辞書生成方法,および画像辞書生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008132711A JP4995770B2 (ja) 2008-05-21 2008-05-21 画像辞書生成装置,画像辞書生成方法,および画像辞書生成プログラム

Publications (2)

Publication Number Publication Date
JP2009282660A JP2009282660A (ja) 2009-12-03
JP4995770B2 true JP4995770B2 (ja) 2012-08-08

Family

ID=41453075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008132711A Expired - Fee Related JP4995770B2 (ja) 2008-05-21 2008-05-21 画像辞書生成装置,画像辞書生成方法,および画像辞書生成プログラム

Country Status (1)

Country Link
JP (1) JP4995770B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5889019B2 (ja) * 2012-02-06 2016-03-22 キヤノン株式会社 ラベル付加装置、ラベル付加方法及びプログラム
JP6255296B2 (ja) * 2014-03-31 2017-12-27 セコム株式会社 対象識別装置
JP6059686B2 (ja) * 2014-06-11 2017-01-11 日本電信電話株式会社 画像分類前処理装置、画像分類装置、画像分類前処理方法、画像分類方法及びプログラム
JP6857537B2 (ja) * 2017-04-11 2021-04-14 株式会社Nttドコモ 情報処理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4546762B2 (ja) * 2004-05-20 2010-09-15 日本放送協会 映像イベント判別用学習データ生成装置及びそのプログラム、並びに、映像イベント判別装置及びそのプログラム
JP4703487B2 (ja) * 2006-05-29 2011-06-15 日本電信電話株式会社 画像分類方法及び装置及びプログラム

Also Published As

Publication number Publication date
JP2009282660A (ja) 2009-12-03

Similar Documents

Publication Publication Date Title
US10394878B2 (en) Associating still images and videos
Vasudevan et al. Query-adaptive video summarization via quality-aware relevance estimation
US10867183B2 (en) Selecting and presenting representative frames for video previews
US9176987B1 (en) Automatic face annotation method and system
US10282616B2 (en) Visual data mining
US10140575B2 (en) Sports formation retrieval
US8750681B2 (en) Electronic apparatus, content recommendation method, and program therefor
US8804999B2 (en) Video recommendation system and method thereof
Cong et al. Towards scalable summarization of consumer videos via sparse dictionary selection
US8364698B2 (en) Apparatus and software system for and method of performing a visual-relevance-rank subsequent search
Asghar et al. Video indexing: a survey
CN113766330A (zh) 基于视频生成推荐信息的方法和装置
Fei et al. Creating memorable video summaries that satisfy the user’s intention for taking the videos
JP4995770B2 (ja) 画像辞書生成装置,画像辞書生成方法,および画像辞書生成プログラム
JP5226651B2 (ja) 類似画像検索装置,類似画像検索方法および類似画像検索プログラム
JP2006217046A (ja) 映像インデックス画像生成装置及び映像のインデックス画像を生成するプログラム
Ren et al. Activity-driven content adaptation for effective video summarization
US10242080B1 (en) Clustering applications using visual metadata
Godi et al. Indirect match highlights detection with deep convolutional neural networks
Tapu et al. TV news retrieval based on story segmentation and concept association
Chu et al. Enabling portable animation browsing by transforming animations into comics
JP2006157688A (ja) 映像シーンに対する意味ラベル付与方法及び装置及びプログラム
US20140189769A1 (en) Information management device, server, and control method
Salehin et al. Adaptive fusion of human visual sensitive features for surveillance video summarization
Karthick et al. Automatic genre classification from videos

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees