JP5576384B2 - データ処理装置 - Google Patents
データ処理装置 Download PDFInfo
- Publication number
- JP5576384B2 JP5576384B2 JP2011536678A JP2011536678A JP5576384B2 JP 5576384 B2 JP5576384 B2 JP 5576384B2 JP 2011536678 A JP2011536678 A JP 2011536678A JP 2011536678 A JP2011536678 A JP 2011536678A JP 5576384 B2 JP5576384 B2 JP 5576384B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- feature
- model
- unidentified
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Description
ここで、画像を自動的にタグ付けするための画像インデキシング技術として様々な手法が存在している。例えば、時間や場所情報を用いてイベントを推定する技術や顔検出技術等の特定物体の検出、または色やテクスチャ情報の類似度により類似画像を検出してタグ付けし検索時に利用する。しかし、様々な場所で撮影される画像には色々な物体や風景が存在する。そのため、一般物体を認識または分類する画像インデキシング技術が提案されている。
そこで、本発明は、上記の問題に鑑みて、ユーザデータに特化したオブジェクトが存在する場合においてもユーザが分類結果に満足することのできるデータ処理装置、画像処理方法、プログラム及び集積回路を提供することを目的とする。
ここで、前記特定手段は、前記複数の未識別データを所定規則に従った区間毎にグループ化して複数のデータ群を生成し、前記データ群毎に、検出頻度の取得、分布度合の生成、及び特徴量の特定を行い、前記モデル作成手段は、前記データ群毎に新たなモデルデータを作成するとしてもよい。
ここで、前記未識別データそれぞれには、当該未識別データが作成された日時を示す時間情報が対応付けられており、前記所定規則に従った区間とは、一定の時間帯毎に区切られた期間であり、前記特定手段は、前記複数の未識別データを一定の時間帯に区切られた期間毎にグループ化して前記複数のデータ群を生成するとしてもよい。
ここで、前記モデル作成手段は、複数の新たなモデルデータが作成された場合、一のデータ群において生成された一のモデルデータが、他のデータ群において生成された他のモデルデータと時間的推移による相関関係があるか否かを判定し、相関関係があると判定する場合には、当該一のモデルデータと当該他のモデルデータとを時間変化性をもつモデルデータとして対応付けるとしてもよい。
ここで、前記モデル作成手段は、前記一のモデルデータを特徴付ける第1の特徴量の類似性の変化度と、前記他のモデルデータを特徴付ける第2の特徴量の類似性の変化度との間に比例関係がある場合に、相関関係があると判定するとしてもよい。
ここで、前記モデル作成手段は、一のデータ群において生成された一のモデルデータが、他のデータ群において生成された他のモデルデータと同一である場合又は残りのデータ群において当該一のモデルデータと同一のものが周期的に出現する場合には、当該一のモデルデータのみを前記記憶手段へ記憶するとしてもよい。
ここで、前記特定手段は、前記未識別データ全てを用いて、特徴量毎に対する算出頻度を取得し、取得した算出頻度が所定頻度以上である1つ以上の特徴量を特定し、前記オブジェクトの識別がされなかったデータ毎に、取得した1つ以上の特徴量それぞれに対する検出頻度を取得し、当該データ毎に取得された1つ以上の検出頻度から、前記分布度合を生成するとしてもよい。
ここで、前記データ処理装置は、さらに、前記複数の未識別データを表示する表示手段と、表示された未識別データから2つ以上のデータの指定をユーザから受け付ける指示受付手段を備え、前記特定手段は、前記指示受付手段で受け付けた前記2つ以上の未識別データそれぞれから取得される前記複数の特徴量毎の検出頻度から、または前記2つ以上のデータを除く残りのデータそれぞれから取得される前記複数の特徴量毎の検出頻度から、前記複数の特徴量毎の前記分布度合を作成するとしてもよい。
ここで、前記指示受付手段は、新たなモデルデータが未だ作成されていないときに、前記指示を受け付けるとしてもよい。
ここで、前記特定手段は、前記指示受付手段で受け付けた前記2つ以上の未識別データそれぞれについて、当該未識別データの作成日時に基づいて、当該作成日時が複数の期間のうち何れかの期間に属するよう、前記2つ以上の未識別データそれぞれをグループ分けし、グループ毎に前記分布度合を作成するとしてもよい。
ここで、前記データ処理装置は、さらに、前記モデルデータ作成手段で作成された前記新たなモデルデータにより識別されるオブジェクトを有するとみされる複数のデータを表示する表示手段と、表示された複数のデータから2つ以上のデータの指定をユーザから受け付ける指示受付手段を備え、前記特定手段は、前記指示受付手段で受け付けた前記2つ以上のデータそれぞれから取得される前記複数の特徴量毎の検出頻度から、または前記2つ以上のデータを除く残りのデータそれぞれから取得される前記複数の特徴量毎の検出頻度から、前記複数の特徴量毎に前記分布度合とは異なる分布度合を作成し、前記モデルデータ作成手段は、前記異なる分布度合から前記新たなモデルデータとは異なるモデルデータを作成する としてもよい。
この構成によると、データ処理装置は、オブジェクトの識別がされなかった画像に対する新たなモデルデータを作成するので、当該新たなモデルデータが作成された以後においては、当該新たなモデルデータに特化された画像を分類することができる。
1.第1の実施の形態
1.1 データ処理装置100の構成
以下、図面を参照して本発明に係る第1の実施の形態について説明する。本実施の形態は、家庭内等のローカルなAV(AudioVideo)データ群を自動整理するデータ処理装置100おいて、ローカルな分類モデルを生成し、AVデータ群に精度良く自動タグ付けする仕組みに関するものである。ここでは、AVデータとは、写真画像データや動画像データや音楽データ等を総称するものである。
図1において、データ処理装置100は、ローカルDB(DataBase:データベース)1、前処理部2、特徴量抽出部3、分類部4、基本辞書DB(データベース)5、検索インデクスDB(データベース)6、未分類特徴DB(データベース)7、同一特徴抽出部8、ローカルモデル作成部9、ローカル辞書DB(データベース)10及び基準パラメータDB(データベース)11とから構成されている。
(1)ローカルDB1
ローカルDB1は、家庭内等のファイルデータとして、例えば写真画像データや動画像データや音楽データ等のAV(AudioVideo)データを記憶している。
前処理部2は、AVデータの特徴量を抽出する前に行う処理である。具体的には、前処理部2は、特徴量を抽出し易くするために、AVデータの正規化処理、画像の領域分割処理による背景や物体領域を検出する処理、音声のパワー変化算出によるシーン区間を検出する処理を行う。
特徴量抽出部3は、AVデータの特徴量を抽出する処理である。具体的には、AVデータが画像データである場合には、特徴量抽出部3は、エッジや色やテクスチャ等の低次特徴量から特徴的な点を中心に領域特徴量を現す特徴量記述子であるSURF(Speeded Up Robust Features)やSIFT(Scale−Invariant Feature Transform)等の特徴量、さらには物体の形状特徴を現すHOG(Histogram of oriented Gradient)等の高次特徴が存在する。なお、藤吉弘亘著の「Gradientベースの特徴抽出− SIFTとHOG −」(情報処理学会研究報告 CVIM 160, pp. 211−224, 2007)に詳細が記載されている。
特徴量抽出部3は、特徴量を抽出するための基準特徴量であるVisualWordが複数記憶されている辞書を予め有している。
特徴量抽出部3は、画像内の特徴点を1つ以上抽出し、抽出した特徴点からSIFT特徴量を算出する。特徴量抽出部3は、算出した全SIFT特徴量と、辞書内に記憶されている複数のVisualWordとを用いて、1つ以上のBoF(Bag Of Features)を生成する。特徴量抽出部3は、生成した1つ以上のBoFを分類部4へ出力する。
(4)分類部4
分類部4は、AVデータから抽出された特徴量を用いて既存のモデルデータとのマッチング処理を行い、入力データがどのモデルと適合しているかの判定処理を行うものである。
判別器に予め分類すべきカテゴリ毎に準備している分類基準データ、例えば後述する基本辞書DB5及びローカル辞書DB10が蓄積しているモデル情報をセットし、サンプル入力情報(ここでは、AVデータの1つ以上の各BoF)を用いて分類項目の判別及びその判別信頼度としての尤度の算出を行う。ここで、尤度は一般的に値が大きいほど信頼度が高いことを意味する。
分類部4は、判別器において、入力したAVデータに対して何れのモデルとも適合しない場合に、当該AVデータに関連する未分類情報と関連付けて(タグ付け)、検索インデクスDB6へ蓄積する。ここで、未分類情報とは、AVデータを識別する識別子であり、例えばAVデータが画像である場合には画像に対応付けられた画像番号である。
基本辞書DB5は、予め分類部4で分類するためのカテゴリが定義されており、そのカテゴリを分類するために必要な各カテゴリのモデル情報が利用する特徴量に応じて蓄積されている。
(6)検索インデクスDB6
検索インデクスDB6は、入力したAVデータに対して分類部4で一のモデルと適合した際に、その適合したモデルの分類情報が入力データと関連付けられて蓄積される。
未分類特徴DB7は、分類できなかったAVデータの未分類情報が蓄積される。
(8)同一特徴抽出部8
同一特徴抽出部8は、未分類特徴DB7に蓄積されている未分類情報に基づいて、分類されなかった複数のAVデータから特徴量の類似性及び特徴量の出現頻度等を算出し、一定の偏りが存在する際に同一物体から得られると推定される同一特徴を抽出するものである。
また、同一特徴抽出部8は、一のAVデータに対して基準特徴量それぞれに対する特徴量の類似度を算出する。例えば、基準特徴量がVisualWordである場合には各VisualWordのモデルに対する距離を類似度として算出する。具体的には、図2と図3を用いて説明する。図2は、ある人と家と傘の写っている写真において抽出されたSIFT特徴量を示すものである。SIFT特徴量は1枚の画像内における特徴的な点(図中に示す特徴点)が検出されその領域情報(図中のスケール)がSIFT記述子として算出される。また、回転は、特徴点の特徴領域(スケール)の回転方向を捕らえる向きを示すものである。なお、特徴点、スケール及び回転は、従来技術の定義と同様のものであるので、詳細な説明は省略する。また、類似度の算出には、例えば同一特徴群のもつ多変量データを基にユークリッド距離やマハラノビス距離やミンコフスキー距離等を算出してその距離の近さを類似度とする。基本的な距離としてユークリッド平方距離が存在し、n個体m変量の特徴の観測値が得られているときに個体iと個体jとの非類似性を表す量として非類似度dijは下記の数式2によって算出できる。
そして、同一特徴抽出部8は、頻度の大きい基準特徴量として抽出された1つ以上の基準特徴量それぞれに対して、分類されなかった全てのAVデータそれぞれにおける当該基準特徴量に検出頻度から図4に示す類似度分布を作成し、その分布内のピーク値を算出する。ここで、ピーク値とは、例えば類似度分布における極大値から最近傍の極小値を引いた差分として算出することができる。
同一特徴抽出部8は、全画像データ毎に図3に示すような検出頻度を算出し、各検出頻度値の検出数を算出することで、縦軸に検出頻度で横軸に検出数の類似度分布を作成する。ピーク値は、類似度分布における検出数の増減から極大値と極小値を算出し、各極大値から検出頻度が最も近い極小値の持つ検出数を用いて差分を取ることで算出する。
(9)ローカルモデル作成部9
ローカルモデル作成部9は、同一特徴抽出部8で抽出された同一特徴を用いて、あるローカルAVデータ群に特有な物体のカテゴリを定義し、そのモデル情報を算出処理するものである。
ローカル辞書DB10は、ローカルモデル作成部9で算出されたカテゴリ定義及びそのカテゴリを分類するために必要なモデル情報が、利用する特徴量に応じて蓄積される。蓄積DBは、例えばHDDやDVD等の大容量メディアディスクや半導体メモリ等のストレージデバイスである。
基準パラメータDB11は、第1基準パラメータテーブルT100と、第2基準パラメータテーブルT110とを記憶している。
第1基準パラメータテーブルT100は、同一特徴抽出部8にける処理開始の基準を示すものである。また、第2基準パラメータテーブルT110は、頻度の大きい基準特徴量、及びピーク値に基づく基準特徴量を抽出するための基準を示すものである。
第1基準パラメータテーブルT100は、図5に示すように、データ種類と分類開始量基準パラメータからなる1つ以上の組からなる。
データ種類は、分類対象となるデータの種別を示すものである。具体的には、データ種類は、静止画像、動画像、音声などである。分類開始量基準パラメータは、さらに、基準1、基準2、基準3、・・・から構成されている。基準1、基準2、基準3、・・・は対応するデータ種類の分類開始となるデータの数(量)を示すものである。
(11−2)第2基準パラメータテーブルT110
第2基準パラメータテーブルT110は、図6に示すように、データ種類と各種基準パラメータからなる1つ以上の組からなる。
ここでは、ユーザが保有するAVデータを整理するためにAVデータの自動タグ付けをする際のローカルモデルを作成する動作について詳細に説明する。
データ処理装置100は、ローカルモデルを生成するために、ユーザが保有するAVデータに含まれるローカルデータに頻出する被写体情報を検出可能な特徴量を抽出する必要がある。図7は、データ処理装置100がローカルデータから同一特徴を抽出する際の同一特徴抽出処理を示すフローチャートである。
分類処理が開始されると、同一特徴抽出部8は、未分類特徴DB7に蓄積されている未分類情報数が処理開始するのに必要な一定以上の数になっているかどうかを判定する(ステップS1)。例えば、分類対象が静止画像である場合には、同一特徴抽出部8は、図5に示す第1基準パラメータテーブルT100における基準1、基準2、基準3、・・・何れかの基準を満たすかどうかを判定する。
処理開始するのに必要な一定以上の数になっていると判断する場合(ステップS1における「Yes」)、同一特徴抽出部8は、数式1のF(x)の値に基づいて、AVデータから抽出された全特徴量のうちその算出頻度が一定以上である基準特徴量を抽出する(ステップS2)。
同一特徴抽出部8は、そのピーク値を用いて同一物体性を判定可能だと考えられるピーク値を持つ基準特徴量を判定して抽出し(ステップS5)、同一特徴としてローカルモデル作成部9に出力する。なお、ピーク値の判定は、上述したように、ピーク値基準1、ピーク値基準2、・・・の何れかの基準が満たされる否かである。
上述したように、データ処理装置100は、分類できなかったAVデータ(画像)を用いて、これら画像に含まれる特徴量を基に、同一物体性を判定可能だと考えられるピーク値を持つ基準特徴量からモデルデータを生成している。
これにより、ローカル辞書DBにユーザに特化したモデルデータを蓄積することで、基本辞書DBでは分類できなかった画像を分類することができる。
上記実施の形態では、分類されなかった全AVデータから同一特徴を抽出したが、これに限定されない。分類されなかった全AVデータから同一特徴を抽出するのではなく、一定量や一定時間区間毎のAVデータから同一特徴を抽出してもよい。この場合の同一特徴抽出処理の手順について図8に示すフローチャートを用いて説明する。
上記第1の実施の形態と同様に、図示していないが、分類処理が開始されると、同一特徴抽出部8aは、未分類特徴DB7に蓄積されている未分類情報数が処理開始するのに必要な一定以上の数になっているかどうかを判定する。処理開始するのに必要な一定以上の数になっていないと判断する場合、同一特徴抽出部8aは同一特徴抽出処理を終了する。
同一特徴抽出部8aは、一定時間帯毎の入力単位で局所特徴量であるBoFを算出する(ステップS12)。次に、同一特徴抽出部8aは、VisualWordの検出頻度を、ステップS12で算出した局所特徴量を用いて計算する(ステップS13)。
同一特徴抽出部8aは、各VisualWordにおける検出数のヒストグラムにピーク値が存在するかどうかを判定し、ピーク値基準以上のピーク値を持つ基準特徴量を判定し、その一定時間区間における同一特徴として抽出する(ステップS15)。
これにより、例えば、当該変形例に係るデータ処理装置は、図9に示すように、全特徴量空間ではモデル化が難しかった、例えば、ある家族が飼っているペット犬や特殊な所有物の様なモデルを、同一特徴のみによる限定特徴量空間にすることで抽出することが可能となる。このようにして作成されたローカルモデルは、ローカルAVデータに特化されたモデルとなるため、精度良くそのモデルを分類することができる。
また、画像における同一特徴量の抽出方法として、特徴点における対応点マッチングにより同一物体が含まれているかどうかを判定して利用する手法や色ヒストグラムやエッジ量の分布の全体類似性を利用する方法を用いればよく、データベース内に存在する同一物体を抽出可能な特徴量を用いる方法であればその種別は問わない。
以下、図面を参照して、本発明に係る第2の実施の形態について説明する。
第2の実施の形態は、情報量の多さや類似度だけではなく、ローカルモデル作成時にローカルAVデータが持つ特有の情報として時間的継続性を考慮することで、全データで最適なモデルではなく、時系列で最適なモデルを作成する方法に関するものである。
また、特に記載のある場合を除いて、データ処理装置の原理的な構成を含めて、第1の実施の形態のそれと同じである。
本実施の形態では、よりユーザ独自のローカルDBに適したローカルモデルを生成する方法として、全AVデータを一律に扱ってローカルDBに特有なモデルを生成する方法ではなく、蓄積するAVデータの時系列的な遷移も考慮してローカルDBに特有なモデルを生成する方法を用いている。本実施の形態で利用されるデータとして主に画像を想定し、画像情報の解析結果を基にローカルモデルを生成する方法について具体的に説明する。
ここでは、第2の実施の形態に係るデータ処理装置の構成について、第1の実施の形態と異なる点を中心に説明する。
第1の実施の形態とは、ローカルモデル作成部の機能構成が異なる。他の構成要素は、第1の実施の形態と同様であるので、ここでは、ローカルモデル作成部について説明する。
以下、本実施の形態に係るローカルモデル作成部20の機能構成の一例について、図10を参照しつつ説明する。図10は、ローカルモデル作成部20の機能ブロック図である。ローカルモデル作成部20は、区間情報抽出部21と、区間モデル作成部22と、モデル継続性判定部23とから構成されている。
区間情報抽出部21は、ローカルAVデータのまとまり情報として一定のデータ単位や時間単位や場所単位やイベント単位の区間情報を抽出する。例えば、画像情報としてEXIF(Exchangeable Image File Format)情報に含まれている撮影時間やGPS(Global Positioning System)情報を用いることで、自動的に一定の連続撮影区間情報を算出することが可能である。また、ユーザが作成したフォルダ単位情報等でデータを分割しその区間情報を抽出すること等も考えられる。
(1−2)区間モデル作成部22
区間モデル作成部22は、区間情報抽出部21で抽出された区間毎に、同一特徴抽出部8で算出された特徴量群を用いてローカルモデルを作成する。具体的なモデル生成方法については、第1の実施の形態と同様の方法で作成することができる。
(1−3)モデル継続性判定部23
モデル継続性判定部23は、区間毎に作成されたローカルモデルがどのぐらいの長さの区間で継続して作成されているかを算出し、ローカルDB1内での時間的継続性があるかどうかを判定する。モデル継続性判定部23は、時間的継続性の高いローカルモデル、つまり、出現頻度の高いローカルモデルから順次タグ付けを行う。
2.2 動作
以下では、AVデータが画像であった場合の具体的なローカルモデルの作成手法について詳しく説明する。図11は、画像において区間毎に存在する画像群の一例を示す図である。なお、ここでは、ローカルDB1には、横軸を時間軸、1時間毎の画像量を縦軸にした図11に示すような特定ユーザが時系列的に撮影した画像群が存在しているとする。
まず、区間情報抽出部21は、未分類特徴DB7に格納されている未分類情報の内容からローカルDB1に格納されている処理対象となる全画像の時間情報をEXIF情報から抽出する(ステップS21)。
区間情報抽出部21は、時間毎に算出された画像枚数を基に処理中の始めの1時間の画像枚数を加算して累計画像枚数を算出する(ステップS23)。
累計画像枚数が500枚以上で且つ加算する画像枚数が0の区間が3時間以上連続した場合には、区間情報抽出部21は、その区間を抽出し、累計画像枚数を0にする(ステップS24)。
上記の動作を行うことで、区間情報抽出部21は、例えば、図11に示すような区間1から6を抽出することができる。
そして、区間モデル作成部22は、区間情報抽出部21で抽出された全区間(区間1から6)に対して、ローカルモデルを生成する。図11に示す例では、区間1〜区間6までの6区間が抽出されているので、例えば、図13に示すように6区間に存在する全てのローカルモデルA、B、C、D、E、F、Gを生成する。
以上により、本実施の形態によると、データ処理装置は、各種作成されたローカルモデルのローカルDB1内での継続性を判定することで、短期間や単発的に有効なローカルモデルを作成したり、長期的にまたは周期的に有効なモデルを作成したり経年変化に合わせて適応的に変化するローカルモデルを作成することができる。
本実施の形態において、区間情報抽出部21は、処理対象となる全画像の時間情報をEXIF情報から抽出したが、データ生成時間情報から抽出してもよい。
なお、本実施例の構成では、同一特徴抽出部8を設けているが、特徴量抽出部3で算出される一般的な特徴量を利用する構成や全AVデータに対して特徴量を抽出して利用する構成としてもよい。
3.第3の実施の形態
以下、図面を参照して、本発明に係る第3の実施の形態について説明する。
また、特に記載のある場合を除いて、データ処理装置の原理的な構成を含めて、第1の実施の形態のそれと同じである。
本実施の形態では、ユーザのローカルDB1に適した同一特徴の抽出及びローカルモデル生成を精度良く行う方法として、全ての処理を予め定めているプログラムにより自動的に行う方法ではなく、各種処理の入出力においてユーザインタラクションによるユーザの入力情報を考慮してローカルDB1に特有な特徴及びモデルを精度良く生成する方法を用いている。
3.1 構成
ここでは、第3の実施の形態に係るデータ処理装置の構成について、第1の実施の形態と異なる点を中心に説明する。
以下、ユーザインタラクション入力部30の機能及び、同一特徴抽出部8やローカルモデル作成部9における更なる機能について説明する。
(1)ユーザインタラクション入力部30
ユーザインタラクション入力部30は、同一特徴抽出部8やローカルモデル作成部9で処理される内容の精度を改善するために、ユーザの持つAVデータまたはデータ処理装置により算出される出力結果に対して付加的な情報が入力される機能である。
(画像G100)
図16で示す画像G100は、同一物体であることやタグ情報を画像に入力する際の一例を示すものである。
ライブラリG101では、表示中の各画像の格納先がユーザに分かるように、表示対象のライブラリが太枠で囲まれる。ここでは、アルバム1配下のA01ライブラリが太枠で囲まれているので、ユーザは表示中の各画像の格納先がA01であることが一目で分かる。
ボタンB101は、処理指定した1つ以上の画像に対して、タグ情報を関連付けることを指示するものである。ユーザ操作によりこのボタンB101が押下されると、表示画面は画像G100から画像G200へ遷移する。
ボタンB103は、ユーザインタラクションによる処理の終了を指示するためのものである。
(画像G200)
図17で示す画像G200は、画像G100においてボタンB101が押下された場合に、表示されるものである。ここでは、図16の画像I103が指定され、ボタンB101が押下された場合の表示態様を示す。
具体的には、タッチパネル上で、タグ情報を関連付ける物体を取り囲むようにユーザが指で領域を指定する。例えば、物体O200に対してタグ情報を関連付けたい場合には、物体O200を取り囲むように領域O201を指定する。
ユーザは、ボックスT200にタグ情報(ここでは、タグ名として「イス」)を入力する。
ユーザインタラクション入力部30は、タグ情報が関連付けられた画像の未分類情報を取得し、ローカルモデル作成部9へタグ情報とともに通知する。
(画像G300)
図18で示す画像G300は、データ処理装置によって分類された結果に基づく指示を入力する際の一例を示すものである。
ライブラリG301では、同一特徴抽出部8、ローカルモデル作成部9により、検出された物体毎のライブラリ名を表示する。ここで、表示中のフォルダがユーザに分かるように、表示対象のライブラリ名が太枠で囲まれる。ここでは、ライブラリ名「X001」が太枠で囲まれている。
ボタンB303は、2つ以上のライブラリを統合することを指示するものである。このボタンB303が押下されると、同一特徴抽出部8及びローカルモデル作成部9により2つ以上のライブラリを用いてローカルモデルが作成される。
ユーザインタラクション入力部30は、ボタンB300及びボタンB301が押下され、再度分類がされると、その結果を表示する。
また、ユーザインタラクション入力部30は、ボタンB302が押下され、表示中の画像群の分割がなされると、その結果を表示する。
このユーザインタラクション入力部30により、例えば、図18に示すように、ユーザがデータ処理装置によって分類された結果に関して、色々な物体が混在している際に主となる分類内容以外を指定して、ボタンB301を押下することで、その内容が修正される。具体的には、図18内のライブラリ「X001」には、主に犬が写っている画像を格納されているが、中には猫やシーンだけの画像もあるため、それらをチェックボックスで指定して間違っていることをデータ処理装置にフィードバックすることでその内容が修正され犬だけが検出されている画像群にすることができる。他にも、正しい内容だけを指定することや、犬の中でもさらに種類によって分けたい時には再分割をしたり、分割され過ぎている場合には統合する等の修正方法が可能となる。
ユーザインタラクションによる指示の受付を用いることによって、同一特徴抽出処理及びローカルモデル作成処理の改善方法について具体的に説明する。図19は、その具体的なフィードバック処理の手順を示したフローチャートである。
ユーザ入力が開始されるとフィードバック処理を開始する。まず、ユーザがAVデータに関連した情報を入力した場合に、ユーザインタラクション入力部30は、その情報を取得する(ステップS31)。具体的には、図16で示す画像G100や図18で示す画像G300において、処理対象の画像が指定され、何れかのボタンが押下される際に指定されている画像の枚数と、押下されたボタンに対応する処理内容とを、入力情報として取得する。
具体的には、ユーザインタラクション入力部30は、ボタンB100及びボタンB300が押下された場合には指定された画像が2つ以上あるか否か、ボタンB101が押下された場合には指定された画像が1つ以上あるか否か、ボタンB301が押下された場合には、指定された画像を除く残りの画像が2つ以上存在するか否かを判断する。また、ボタンB302が押下された場合には分割された2つの画像群それぞれに、2つ以上の画像が含まれているか否か、ボタンB303が押下された場合には2つ以上のライブラリが指定されているか否かを判断する。
3.3 まとめ
第1の実施の形態では、同一特徴抽出部8では、自動的に同一特徴を抽出していた際には同一物体かどうかは関係なく特徴の類似性のみを判断根拠として類似性によるクラスタリング手法を用いて同一特徴を抽出していた。そのため、不要な特徴量も混在することとなり、同一特徴の抽出の精度はあまり高くないものとなる。しかしながら、本実施の形態では、ユーザが同一物体を予め指定するので、データ処理装置は、同一物体だと情報が予め分かっている場合には、限定された同一物体の画像情報のみから類似性を算出して同一特徴を抽出できるため、精度の高い抽出を行うことができる。
なお、ユーザインタラクションは1つ1つのユーザ入力単位でもよいし、一定の機能に関してまとめられた入力単位等であってもよい。
以下、図面を参照して、本発明に係る第4の実施の形態について説明する。
本実施の形態は、基本辞書DB5において予め分類部4で分類するためのカテゴリが定義されていない場合であっても、AVデータに含まれる一般的なカテゴリを分類するための類似特徴と、ローカルに特有な物体を分類するための同一特徴との両方を考慮することで、基本辞書DBとローカル辞書DBの両方を自動的に作成する方法に関するものである。
本実施の形態では、ローカルDBに適した一般的なモデル及びローカルモデルを全て自動生成する方法として、予め定義したカテゴリのモデル情報を蓄積しておいて生成する方法ではなく、各モデルを生成するための特徴を別々に算出して利用することを考慮して、同一特徴に加えて一般的なモデルを分類するための類似特徴を生成して一般的なモデルも自動生成する方法を用いている。本発明の実施の形態で利用されるデータとして主に画像を想定し、画像解析において上記2種類の特徴(同一特徴及び類似特徴)を基に一般的なモデルとローカルモデルを生成する方法について具体的に説明する。
図20は本発明のデータ処理装置100aの原理的な構成を示すブロック図である。図20において、データ処理装置100aは、ローカルDB1と、前処理部2と、特徴量抽出部3と、分類部40と、基本辞書DB5と、検索インデクスDB6と、同一特徴抽出部8と、ローカルモデル作成部9と、ローカル辞書DB10と、基準パラメータDB11と、全画像特徴DB(データベース)41と、類似特徴抽出部42と、グローバルモデル作成部43とから構成されている。ローカルDB1と、前処理部2と、特徴量抽出部3と、基本辞書DB5と、検索インデクスDB6と、同一特徴抽出部8と、ローカルモデル作成部9と、ローカル辞書DB10と、基準パラメータDB11とについては、第1の実施の形態に記載の内容と同じであるので、ここでの説明は省略する。
全画像特徴DB41は、特徴量抽出部3で算出された全ての未分類情報が蓄積される。
(2)類似特徴抽出部42
類似特徴抽出部42は、全画像の特徴量から特定のモデル(例えば、犬)を分類するのではなく、色々な種類のモデル(例えば、犬)に共通な特徴量を抽出する。
判定が肯定的な場合に、類似特徴抽出部42は、類似特徴の抽出処理を行う。判定は否定的な場合には、類似特徴抽出部42は、類似特徴の抽出処理は行わない。
(3)グローバルモデル作成部43
グローバルモデル作成部43は、類似特徴抽出部42で抽出された類似特徴を用いて、あるローカルAVデータ群における一般的な物体のカテゴリを定義しそのモデル情報を算出処理する。
(4)分類部40
分類部40は、第1の実施の形態と同様に、AVデータから抽出された特徴量を用いて既存のモデルデータとのマッチング処理を行い、入力データがどのモデルと適合しているかの判定処理を行う。
その後、ローカルモデル作成部9及でローカルモデルが、グローバルモデル作成部43でグローバルモデルがそれぞれ作成されると、分類部4は判定処理を行い、AVデータに対するタグ情報等のメタデータを付与する。
以上のように、予め分類モデルを定義して保持しておくのではなく、ローカルAVデータから得られる特徴量によって、同一被写体性の高い特徴量のみではなく類似被写体性の高い特徴量も抽出して全ての分類モデルを、データ処理装置100aは自動的に作成している。これにより、データ処理装置100aは、同一被写体性の高いローカルモデルだけではなく、類似被写体性の高いグローバルモデルも分類できるため、あるローカルAVデータ群に含まれる物体のカテゴリを全て自動的に定義しそのモデル情報を抽出することが可能となる。
以下、図面を参照して、本発明に係る第5の実施の形態について説明する。
本実施の形態は、同一特徴を抽出する際やローカルモデルを作成する際に、ユーザから複数の画像の指定を受け付け、受け付けた複数の画像から同一特徴やローカルモデルを生成したりする方法に関するものである。
また、特に記載のある場合を除いて、データ処理装置の原理的な構成を含めて、第1の実施の形態又は第3の実施の形態のそれと同じである。
本実施の形態では、第3の実施の形態と同様に、各種処理の入出力においてユーザインタラクションによるユーザの入力情報を考慮してローカルDB1に特有な特徴及びモデルを精度良く生成する方法を用いている。
5.1 構成
ここでは、第5の実施の形態に係るデータ処理装置100bの構成について、第1の実施の形態及び第3の実施の形態と異なる点を中心に説明する。
以下、第1の実施の形態とは異なる登録部51の機能及び、同一特徴抽出部58やローカルモデル作成部59における更なる機能について説明する。
登録部51は、同一特徴抽出部58やローカルモデル作成部59で処理される内容の精度を高めるため、ユーザが分類したい複数の画像からなる画像群を選択してローカルモデルを生成するための指示を受け付ける機能である。
具体的には、登録部51は、例えば図16で示す画像G100、図17で示す画像G200、及び図18に示す画像G300と同様の画像を表示し、ユーザからの指示を受け付ける。なお、本実施の形態では、第3の実施の形態と同様にタッチパネル機能を備えているものとする。
本実施の形態で表示される画像G100の画面構成は、第3の実施の形態で示すものと同一であり、表示対象となる画像が異なる。本実施の形態では、ローカルモデルは未だ作成されていない状態であって、表示対象となる画像は分類に用いられていないものであるとする。
例えば、画像G100が表示されている間には、ユーザは、スクロールバーSB100を用いてスクロール操作を行いながら登録対象となる画像群を容易に選択することができる。
(2)同一特徴抽出部58
同一特徴抽出部58は、登録部51で指定された画像群から同一の特徴を抽出するものである。
同一特徴抽出部58は、分類された複数の画像単位で、同一特徴を抽出する。抽出方法は、第1の実施の形態で示す同一特徴抽出部8と同様であるので、ここでの説明は省略する。
ローカルモデル作成部59は、同一特徴抽出部58で分類された複数の画像単位で抽出された同一特徴毎に、ローカルモデルを作成する。
ローカルモデルの作成方法については、第1の実施の形態で示すローカルモデル作成部59と同様であるので、ここでの説明は省略する。
ここでは、データ処理装置100がユーザ指定により指定された画像群から同一特徴抽出する際の処理について、図22に示すフローチャートを用いて説明する。
登録部51は、ユーザにより登録指示及び対象となる複数の画像の指定を受け付ける(ステップS100)。具体的には、登録部51は、画像G100において、複数の画像がチェックされた後、ボタンB100が押下されることで、登録指示及び画像の指定を受け付ける。
複数枚指定されていないと判断する場合(ステップS105における「No」)、処理は終了する。
複数枚指定されていると判断する場合(ステップS105における「Yes」)、同一特徴抽出部58は、イベント単位毎に分類する(ステップS110)。
同一特徴抽出部58は、選択したイベントに含まれる画像数が一定数以上であるか否かを判断する(ステップS120)。
一定数以上であると判断する場合(ステップS120における「Yes」)、同一特徴抽出部58は、選択したイベントに含まれる複数画像から一定頻度以上算出される基準特徴量を抽出する(ステップS125)。特徴量の種別は、特徴量抽出部3で抽出される特徴量であれば何でもよく、色情報と高次特徴量のSIFTを組み合わせて利用する事なども考えられる。ここでは、SIFT特徴量を利用していると想定する。基準特徴量は、ある一定閾値以上の類似度を持つSIFT特徴量などが指定された全画像において過半数以上存在する等の条件によって識別して抽出することが可能である。
存在すると判断する場合(ステップS145における「Yes」)、同一特徴抽出部58は、次のイベントを選択し(ステップS150)、ステップS120へ戻る。
存在しないと判断する場合には(ステップS145における「No」)、処理は終了する。
5.3 第5の実施の形態における変形例
以上、本発明の一例として、第5の実施の形態に基づいて説明したが、これに限定されない。例えば、以下のような変形例が考えられる。
同一特徴抽出部は、指定された画像群をイベント単位に分割することなく、指定された画像群から複数の同一特徴を抽出してもよい。
このとき、ローカルモデル作成部は、抽出された複数の同一特徴をイベント単位に分類してもよいし、またはイベント単位に分類することなく、抽出された全ての同一特徴からローカルモデルを作成してもよい。
ローカルモデル作成部は、イベント単位に抽出された同一特徴全てを用いてローカルモデルを作成するとしてもよい。この場合、イベント毎に作成されたローカルモデルそれぞれに共通な特徴だけを抽出し、抽出した特徴からローカルモデルのコア部分を生成する。さらには、コア部分のローカルモデルと各ローカルモデルとの差分を算出することでこれらローカルモデルの傾向変化を抽出することやその変化傾向及び区間全体の画像傾向に適する新たなローカルモデルを生成してもよい。
例えば、ローカルモデルを作成する対象としてペットや人を選択したい場合、ユーザは、ペットや人の顔を正面から撮影した画像、右側面から撮影した画像、左側面から撮影した画像等に撮影角度に応じて選択を行う。
(4)上記第5の実施の形態において、同一特徴抽出部58が画像群をイベント毎に分割するとしたが、これに限定されない。
ユーザが画像を指定する際に、イベント毎に分類して画像を指定してもよい。
(5)上記第5の実施の形態において、データ処理装置は、ローカルモデルが未だ作成されていない状態において、分類されていない画像のみを表示対象としたが、これに限定されない。
(6)上記第5の実施の形態及びこれら変形例を組み合わせてもよい。
5.4 まとめ
上述したように、ローカルモデル作成部59は、イベント単位毎(例えば、図11に示す区間単位毎)にローカルモデルを生成すると共にそのモデルの時間継続性をユーザにより指定された画像群で判定することができる。例えば、ユーザが指定した画像群が図11に示す区間1と2と6に含まれていた場合、区間1と2と6でユーザが指定した対象を含む画像群を基にそれぞれの区間についてローカルモデルを生成する事で、それぞれの区間全体の画像傾向(例えば画像の平均的な色ヒストグラムや特徴物体の含有度や背景種類等)に対して最適な登録対象となるローカルモデルを生成することができる。
6.変形例
以上、実施の形態に基づいて説明したが、本発明は上記の各実施の形態に限られない。例えば、以下のような変形例が考えられる。
(2)本発明において利用される基準特徴量は、特徴量抽出部3で抽出される特徴量においてAVデータ内の特徴を捉えられるものであればよい。
(3)上記各実施の形態において、同一特徴の抽出処理の開始には、一例として第1基準パラメータテーブルT100を用いるものとしたが、このテーブルの内容に限定されない。
(4)上記各実施の形態において、同一特徴抽出部8及び同一特徴抽出部58は、全画像データ毎に図3に示すような検出頻度を算出し、一定区間毎の検出頻度値の検出数を算出するとしてもよい。
(6)上記各実施の形態において、同一特徴抽出部8及び同一特徴抽出部58は、第2基準パラメータテーブルT110における複数のピーク値基準の何れかを満たす場合に、対応する基準特徴量は同一物体性を判定可能と判定したが、これに限定されない。
(7)上記第3の実施の形態において、図16の例では、画像をチェックボックスを用いて選択するとしたが、これに限定されない。
画像を直接触る(タッチする)ことにより選択してもよい。
図17の例では、1つの物体(イス)を選択して、タグ入力したが、1枚の画像に複数の物体を選択して、各物体に対するタグをそれぞれ入力してもよい。
(8)上記第1の実施の形態において、未分類特徴DB7には、未分類情報としてAVデータを識別する識別子が格納されるとしたが、これに限定されない。
未分類特徴DB7には、未分類情報として特徴量抽出部3で算出されたAVデータに対する特徴量が格納されてもよい。
音声を基にローカルモデルを作成してもよい。
何かしらの特徴を基にローカルモデルを作成することのできるデータであればよい。
また、本発明の装置は、ローカルモデルを作成することのできるデータを蓄積することのできる装置、例えば、DVDレコーダー、TV、パソコンやデータサーバー等に組み込まれてもよい。
特徴量抽出部は、エッジや色やテクスチャ等において類似する局所特徴群を含む特徴群を生成してもよい。このとき、同一特徴抽出部は、生成された特徴群に含まれる各局所特徴群から特徴量の類似性及び特徴量の出現頻度等を算出する。
また、当該手法の手順を記述したプログラムを記録媒体に格納して、頒布するようにしてもよい。
(13)上記実施の形態及び変形例を組み合わせるとしてもよい。
また、本発明にかかるデータ処理装置は、主に全特徴量を用いた距離空間によってローカルモデルを作成するたけではなく、利用する特徴量を同一被写体性の高い特徴量のみに限定したり、一定区間毎に分割して時系列的継続性を考慮したモデル生成をすることにより、一般的な分類モデルではなくローカルAVデータに対して識別性が高いローカルな分類モデルとすることができる。そのため、ローカルAVデータ群に特有な物体情報を精度よく抽出してデータのインデクスとすることでユーザに手間のかからないAVデータ分類や検索が可能となる。例えば、写真の検索をする際に、一般的な分類モデルでは分類が不十分な場合でも、ユーザのローカル画像群に特有な分類モデルを作成し分類する画像処理機能を有し、様々な画像視聴端末機等として有用である。また、DVDレコーダーやTV(Television)やパソコンソフトやデータサーバー等の用途にも応用できる。
2 前処理部
3 特徴量抽出部
4 分類部
5 基本辞書DB
6 検索インデクスDB
7 未分類特徴DB
8 同一特徴抽出部
9 ローカルモデル作成部
10 ローカル辞書DB
11 基準パラメータDB
20 ローカルモデル作成部
21 区間情報抽出部
22 区間モデル作成部
23 モデル継続性判定部
30 ユーザインタラクション入力部
40 分類部
41 全画像特徴DB
42 類似特徴抽出部
43 グローバルモデル作成部
100 データ処理装置
Claims (16)
- 複数の特徴量それぞれの検出頻度の組み合わせからなり、オブジェクトの分類に用いられる複数のモデルデータを保持する記憶手段と、
前記複数のモデルデータと、分類対象のデータにおいて検出される2つ以上の特徴量それぞれの検出頻度とから、当該データに含まれるオブジェクトの分類の可否を特定する分類手段と、
複数の分類対象のデータについて前記分類手段による処理を行った後、オブジェクトの分類が否と特定された未識別データが複数存在する場合、検出される頻度が同一である未識別データが一定数以上である特徴量を2つ以上特定する特定手段と、
新たなモデルデータを、クラス作成手法により、特定された2つ以上の特徴量に基づいて作成し、前記記憶手段へ格納するモデル作成手段とを備える
ことを特徴とするデータ処理装置。 - 前記特定手段は、
前記未識別データ毎に、前記複数の特徴量それぞれに対して当該特徴量に類似する特徴量が検出される検出頻度を取得し、
前記未識別データそれぞれから取得された検出頻度から、前記複数の特徴量毎に検出頻度の分布度合を生成し、
前記分布度合それぞれから、検出される頻度が同一である未識別データが一定数以上となる特徴量を2つ以上特定する
ことを特徴とする請求項1に記載のデータ処理装置。 - 前記特定手段は、
前記複数の未識別データを所定規則に従った区間毎にグループ化して複数のデータ群を生成し、前記データ群毎に、検出頻度の取得、分布度合の生成、及び特徴量の特定を行い、
前記モデル作成手段は、
前記データ群毎に新たなモデルデータを作成する
ことを特徴とする請求項2に記載のデータ処理装置。 - 前記未識別データそれぞれには、当該未識別データが作成された日時を示す時間情報が対応付けられており、
前記所定規則に従った区間とは、一定の時間帯毎に区切られた期間であり、
前記特定手段は、
前記複数の未識別データを一定の時間帯に区切られた期間毎にグループ化して前記複数のデータ群を生成する
ことを特徴とする請求項3に記載のデータ処理装置。 - 前記モデル作成手段は、
複数の新たなモデルデータが作成された場合、一のデータ群において生成された一のモデルデータが、他のデータ群において生成された他のモデルデータと時間的推移による相関関係があるか否かを判定し、相関関係があると判定する場合には、当該一のモデルデータと当該他のモデルデータとを時間変化性をもつモデルデータとして対応付ける
ことを特徴とする請求項4に記載のデータ処理装置。 - 前記モデル作成手段は、
前記一のモデルデータを特徴付ける第1の特徴量の類似性の変化度と、前記他のモデルデータを特徴付ける第2の特徴量の類似性の変化度との間に比例関係がある場合に、相関関係があると判定する
ことを特徴とする請求項5に記載のデータ処理装置。 - 前記モデル作成手段は、
一のデータ群において生成された一のモデルデータが、他のデータ群において生成された他のモデルデータと同一である場合又は残りのデータ群において当該一のモデルデータと同一のものが周期的に出現する場合には、当該一のモデルデータのみを前記記憶手段へ記憶する
ことを特徴とする請求項5に記載のデータ処理装置。 - 前記特定手段は、
前記未識別データ全てを用いて、特徴量毎に対する算出頻度を取得し、取得した算出頻度が所定頻度以上である1つ以上の特徴量を特定し、前記オブジェクトの識別がされなかったデータ毎に、取得した1つ以上の特徴量それぞれに対する検出頻度を取得し、
当該データ毎に取得された1つ以上の検出頻度から、前記分布度合を生成する
ことを特徴とする請求項2に記載のデータ処理装置。 - 前記データ処理装置は、さらに、
前記複数の未識別データを表示する表示手段と、
表示された未識別データから2つ以上のデータの指定をユーザから受け付ける指示受付手段を備え、
前記特定手段は、
前記指示受付手段で受け付けた前記2つ以上の未識別データそれぞれから取得される前記複数の特徴量毎の検出頻度から、または前記2つ以上のデータを除く残りのデータそれぞれから取得される前記複数の特徴量毎の検出頻度から、前記複数の特徴量毎の前記分布度合を作成する
ことを特徴とする請求項2に記載のデータ処理装置。 - 前記指示受付手段は、新たなモデルデータが未だ作成されていないときに、前記指示を受け付ける
ことを特徴とする請求項9に記載のデータ処理装置。 - 前記特定手段は、
前記指示受付手段で受け付けた前記2つ以上の未識別データそれぞれについて、当該未識別データの作成日時に基づいて、当該作成日時が複数の期間のうち何れかの期間に属するよう、前記2つ以上の未識別データそれぞれをグループ分けし、グループ毎に前記分布度合を作成する
ことを特徴とする請求項10に記載のデータ処理装置。 - 前記データ処理装置は、さらに、
前記モデルデータ作成手段で作成された前記新たなモデルデータにより識別されるオブジェクトを有するとみされる複数のデータを表示する表示手段と、
表示された複数のデータから2つ以上のデータの指定をユーザから受け付ける指示受付手段を備え、
前記特定手段は、
前記指示受付手段で受け付けた前記2つ以上のデータそれぞれから取得される前記複数の特徴量毎の検出頻度から、または前記2つ以上のデータを除く残りのデータそれぞれから取得される前記複数の特徴量毎の検出頻度から、前記複数の特徴量毎に前記分布度合とは異なる分布度合を作成し、
前記モデルデータ作成手段は、
前記異なる分布度合から前記新たなモデルデータとは異なるモデルデータを作成する
ことを特徴とする請求項2に記載のデータ処理装置。 - 前記データは画像であり、
前記特定手段は、
前記オブジェクトの識別がされなかった画像毎に、当該画像で検出される1つ以上の特徴量の類似度を用いて少なくとも局所特徴群を含む高次特徴群を生成し、各局所特徴群から前記検出頻度を取得する
ことを特徴とする請求項2に記載のデータ処理装置。 - 複数の特徴量それぞれの検出頻度の組み合わせからなり、オブジェクトの分類に用いられる複数のモデルデータを保持する記憶手段を備えるデータ処理装置で用いられるデータ処理方法であって、
前記複数のモデルデータと、分類対象のデータにおいて検出される2つ以上の特徴量それぞれの検出頻度とから、当該データに含まれるオブジェクトの分類の可否を特定する分類ステップと、
複数の分類対象のデータについて前記分類ステップによる処理を行った後、オブジェクトの分類が否と特定された未識別データが複数存在する場合、検出される頻度が同一である未識別データが一定数以上である特徴量を2つ以上特定する特定ステップと、
新たなモデルデータを、クラス作成手法により、特定された2つ以上の特徴量に基づいて作成し、前記記憶手段へ格納するモデル作成ステップとを含む
ことを特徴とするデータ処理方法。 - 複数の特徴量それぞれの検出頻度の組み合わせからなり、オブジェクトの分類に用いられる複数のモデルデータを保持する記憶手段を備えるデータ処理装置で用いられるプログラムであって、
前記データ処理装置に、
前記複数のモデルデータと、分類対象のデータにおいて検出される2つ以上の特徴量それぞれの検出頻度とから、当該データに含まれるオブジェクトの分類の可否を特定する分類ステップと、
複数の分類対象のデータについて前記分類ステップによる処理を行った後、オブジェクトの分類が否と特定された未識別データが複数存在する場合、検出される頻度が同一である未識別データが一定数以上である特徴量を2つ以上特定する特定ステップと、
新たなモデルデータを、クラス作成手法により、特定された2つ以上の特徴量に基づいて作成し、前記記憶手段へ格納するモデル作成ステップとを実行させる
ことを特徴とするプログラム。 - データ処理装置で用いられる集積回路であって、
複数の特徴量それぞれの検出頻度の組み合わせからなり、オブジェクトの分類に用いられる複数のモデルデータを保持する記憶手段と、
前記複数のモデルデータと、分類対象のデータにおいて検出される2つ以上の特徴量それぞれの検出頻度とから、当該データに含まれるオブジェクトの分類の可否を特定する分類手段と、
複数の分類対象のデータについて前記分類手段による処理を行った後、オブジェクトの分類が否と特定された未識別データが複数存在する場合、検出される頻度が同一である未識別データが一定数以上である特徴量を2つ以上特定する特定手段と、
新たなモデルデータを、クラス作成手法により、特定された2つ以上の特徴量に基づいて作成し、前記記憶手段へ格納するモデル作成手段とを備える
ことを特徴とする集積回路。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011536678A JP5576384B2 (ja) | 2010-01-29 | 2010-12-24 | データ処理装置 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010018035 | 2010-01-29 | ||
JP2010018035 | 2010-01-29 | ||
PCT/JP2010/007518 WO2011092793A1 (ja) | 2010-01-29 | 2010-12-24 | データ処理装置 |
JP2011536678A JP5576384B2 (ja) | 2010-01-29 | 2010-12-24 | データ処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2011092793A1 JPWO2011092793A1 (ja) | 2013-05-30 |
JP5576384B2 true JP5576384B2 (ja) | 2014-08-20 |
Family
ID=44318806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011536678A Active JP5576384B2 (ja) | 2010-01-29 | 2010-12-24 | データ処理装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8583647B2 (ja) |
EP (1) | EP2530605A4 (ja) |
JP (1) | JP5576384B2 (ja) |
CN (1) | CN102356393B (ja) |
WO (1) | WO2011092793A1 (ja) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5755046B2 (ja) * | 2011-06-22 | 2015-07-29 | キヤノン株式会社 | 画像認識装置、画像認識方法及びプログラム |
US8874557B2 (en) | 2011-09-02 | 2014-10-28 | Adobe Systems Incorporated | Object retrieval and localization using a spatially-constrained similarity model |
US8781255B2 (en) | 2011-09-17 | 2014-07-15 | Adobe Systems Incorporated | Methods and apparatus for visual search |
JP5833880B2 (ja) * | 2011-10-07 | 2015-12-16 | キヤノンイメージングシステムズ株式会社 | 情報処理装置、デバイス制御装置、デバイス制御システム、およびその制御方法 |
JP5849819B2 (ja) * | 2012-03-28 | 2016-02-03 | 富士通株式会社 | 音声データ検索装置、音声データ検索方法および音声データ検索プログラム |
US9105073B2 (en) * | 2012-04-24 | 2015-08-11 | Amadeus S.A.S. | Method and system of producing an interactive version of a plan or the like |
US8880563B2 (en) | 2012-09-21 | 2014-11-04 | Adobe Systems Incorporated | Image search by query object segmentation |
CN104239315B (zh) * | 2013-06-09 | 2018-03-30 | 北京三星通信技术研究有限公司 | 一种图片关联的方法 |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9336280B2 (en) | 2013-12-02 | 2016-05-10 | Qbase, LLC | Method for entity-driven alerts based on disambiguated features |
US9177262B2 (en) | 2013-12-02 | 2015-11-03 | Qbase, LLC | Method of automated discovery of new topics |
US9542477B2 (en) | 2013-12-02 | 2017-01-10 | Qbase, LLC | Method of automated discovery of topics relatedness |
US9922032B2 (en) | 2013-12-02 | 2018-03-20 | Qbase, LLC | Featured co-occurrence knowledge base from a corpus of documents |
WO2015084726A1 (en) | 2013-12-02 | 2015-06-11 | Qbase, LLC | Event detection through text analysis template models |
US9223833B2 (en) | 2013-12-02 | 2015-12-29 | Qbase, LLC | Method for in-loop human validation of disambiguated features |
WO2015084756A1 (en) * | 2013-12-02 | 2015-06-11 | Qbase, LLC | Event detection through text analysis using trained event template models |
US9223875B2 (en) | 2013-12-02 | 2015-12-29 | Qbase, LLC | Real-time distributed in memory search architecture |
US9230041B2 (en) | 2013-12-02 | 2016-01-05 | Qbase, LLC | Search suggestions of related entities based on co-occurrence and/or fuzzy-score matching |
US9424294B2 (en) | 2013-12-02 | 2016-08-23 | Qbase, LLC | Method for facet searching and search suggestions |
KR20160124742A (ko) | 2013-12-02 | 2016-10-28 | 큐베이스 엘엘씨 | 비정형 텍스트내의 특징들의 중의성을 해소하는 방법 |
US9355152B2 (en) | 2013-12-02 | 2016-05-31 | Qbase, LLC | Non-exclusionary search within in-memory databases |
US9619571B2 (en) | 2013-12-02 | 2017-04-11 | Qbase, LLC | Method for searching related entities through entity co-occurrence |
US9201744B2 (en) | 2013-12-02 | 2015-12-01 | Qbase, LLC | Fault tolerant architecture for distributed computing systems |
US9544361B2 (en) | 2013-12-02 | 2017-01-10 | Qbase, LLC | Event detection through text analysis using dynamic self evolving/learning module |
US9317565B2 (en) | 2013-12-02 | 2016-04-19 | Qbase, LLC | Alerting system based on newly disambiguated features |
US9424524B2 (en) | 2013-12-02 | 2016-08-23 | Qbase, LLC | Extracting facts from unstructured text |
US9208204B2 (en) | 2013-12-02 | 2015-12-08 | Qbase, LLC | Search suggestions using fuzzy-score matching and entity co-occurrence |
US9659108B2 (en) | 2013-12-02 | 2017-05-23 | Qbase, LLC | Pluggable architecture for embedding analytics in clustered in-memory databases |
US9984427B2 (en) | 2013-12-02 | 2018-05-29 | Qbase, LLC | Data ingestion module for event detection and increased situational awareness |
US9348573B2 (en) | 2013-12-02 | 2016-05-24 | Qbase, LLC | Installation and fault handling in a distributed system utilizing supervisor and dependency manager nodes |
US9025892B1 (en) | 2013-12-02 | 2015-05-05 | Qbase, LLC | Data record compression with progressive and/or selective decomposition |
US9430547B2 (en) | 2013-12-02 | 2016-08-30 | Qbase, LLC | Implementation of clustered in-memory database |
US9547701B2 (en) | 2013-12-02 | 2017-01-17 | Qbase, LLC | Method of discovering and exploring feature knowledge |
US9361317B2 (en) | 2014-03-04 | 2016-06-07 | Qbase, LLC | Method for entity enrichment of digital content to enable advanced search functionality in content management systems |
US10147015B2 (en) * | 2014-05-07 | 2018-12-04 | Nec Corporation | Image processing device, image processing method, and computer-readable recording medium |
KR102024867B1 (ko) * | 2014-09-16 | 2019-09-24 | 삼성전자주식회사 | 예제 피라미드에 기초하여 입력 영상의 특징을 추출하는 방법 및 얼굴 인식 장치 |
JP6814981B2 (ja) * | 2016-07-21 | 2021-01-20 | パナソニックIpマネジメント株式会社 | 学習装置、識別装置、学習識別システム、及び、プログラム |
WO2019012654A1 (ja) * | 2017-07-13 | 2019-01-17 | 日本電気株式会社 | 分析システム、分析方法及び記憶媒体 |
WO2019065582A1 (ja) * | 2017-09-29 | 2019-04-04 | 富士フイルム株式会社 | 画像データ判別システム、画像データ判別プログラム、画像データ判別方法、及び撮像システム |
JP7047498B2 (ja) | 2018-03-13 | 2022-04-05 | 富士通株式会社 | 学習プログラム、学習方法および学習装置 |
US10887656B2 (en) * | 2018-07-14 | 2021-01-05 | International Business Machines Corporation | Automatic content presentation adaptation based on audience |
CN109670267B (zh) * | 2018-12-29 | 2023-06-13 | 北京航天数据股份有限公司 | 一种数据处理方法和装置 |
CN114781194B (zh) * | 2022-06-20 | 2022-09-09 | 航天晨光股份有限公司 | 基于金属软管的数据库的构建方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004185259A (ja) * | 2002-12-03 | 2004-07-02 | Renesas Technology Corp | 蓄積画像管理装置及びプログラム |
JP2008090698A (ja) * | 2006-10-04 | 2008-04-17 | Fujifilm Corp | 画像分類装置および方法ならびにプログラム |
JP2010003177A (ja) * | 2008-06-20 | 2010-01-07 | Secom Co Ltd | 画像処理装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6741986B2 (en) * | 2000-12-08 | 2004-05-25 | Ingenuity Systems, Inc. | Method and system for performing information extraction and quality control for a knowledgebase |
US6826576B2 (en) * | 2001-05-07 | 2004-11-30 | Microsoft Corporation | Very-large-scale automatic categorizer for web content |
US6993535B2 (en) * | 2001-06-18 | 2006-01-31 | International Business Machines Corporation | Business method and apparatus for employing induced multimedia classifiers based on unified representation of features reflecting disparate modalities |
ATE528724T1 (de) | 2002-08-30 | 2011-10-15 | Mvtec Software Gmbh | Auf hierarchischen gliedern basierte erkennung von gegenständen |
US7814089B1 (en) * | 2003-12-17 | 2010-10-12 | Topix Llc | System and method for presenting categorized content on a site using programmatic and manual selection of content items |
US8271495B1 (en) * | 2003-12-17 | 2012-09-18 | Topix Llc | System and method for automating categorization and aggregation of content from network sites |
US8037036B2 (en) * | 2004-11-17 | 2011-10-11 | Steven Blumenau | Systems and methods for defining digital asset tag attributes |
JP4472631B2 (ja) * | 2005-12-28 | 2010-06-02 | オリンパスメディカルシステムズ株式会社 | 画像処理装置および当該画像処理装置における画像処理方法 |
EP1969992B1 (en) | 2005-12-28 | 2012-05-02 | Olympus Medical Systems Corp. | Image processing device and image processing method in the image processing device |
EP1840764A1 (en) * | 2006-03-30 | 2007-10-03 | Sony France S.A. | Hybrid audio-visual categorization system and method |
TWI384413B (zh) * | 2006-04-24 | 2013-02-01 | Sony Corp | An image processing apparatus, an image processing method, an image processing program, and a program storage medium |
US7783085B2 (en) * | 2006-05-10 | 2010-08-24 | Aol Inc. | Using relevance feedback in face recognition |
US20080089591A1 (en) | 2006-10-11 | 2008-04-17 | Hui Zhou | Method And Apparatus For Automatic Image Categorization |
JP2008282085A (ja) * | 2007-05-08 | 2008-11-20 | Seiko Epson Corp | シーン識別装置、及び、シーン識別方法 |
US8558952B2 (en) * | 2007-05-25 | 2013-10-15 | Nec Corporation | Image-sound segment corresponding apparatus, method and program |
JP2009004999A (ja) * | 2007-06-20 | 2009-01-08 | Panasonic Corp | 映像データ管理装置 |
JP5166409B2 (ja) * | 2007-11-29 | 2013-03-21 | 株式会社東芝 | 映像処理方法および映像処理装置 |
US8170280B2 (en) * | 2007-12-03 | 2012-05-01 | Digital Smiths, Inc. | Integrated systems and methods for video-based object modeling, recognition, and tracking |
US20120272171A1 (en) * | 2011-04-21 | 2012-10-25 | Panasonic Corporation | Apparatus, Method and Computer-Implemented Program for Editable Categorization |
-
2010
- 2010-12-24 CN CN201080012541.6A patent/CN102356393B/zh active Active
- 2010-12-24 EP EP20100841825 patent/EP2530605A4/en not_active Ceased
- 2010-12-24 WO PCT/JP2010/007518 patent/WO2011092793A1/ja active Application Filing
- 2010-12-24 JP JP2011536678A patent/JP5576384B2/ja active Active
- 2010-12-24 US US13/146,253 patent/US8583647B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004185259A (ja) * | 2002-12-03 | 2004-07-02 | Renesas Technology Corp | 蓄積画像管理装置及びプログラム |
JP2008090698A (ja) * | 2006-10-04 | 2008-04-17 | Fujifilm Corp | 画像分類装置および方法ならびにプログラム |
JP2010003177A (ja) * | 2008-06-20 | 2010-01-07 | Secom Co Ltd | 画像処理装置 |
Non-Patent Citations (2)
Title |
---|
CSNG200700763025; 上東 太一 外1名: 'Bag-of-Keypoints表現を用いたWeb画像分類' 情報処理学会研究報告 第2007巻第42号, 20070515, p.201-208, 社団法人情報処理学会 * |
JPN6014023444; 上東 太一 外1名: 'Bag-of-Keypoints表現を用いたWeb画像分類' 情報処理学会研究報告 第2007巻第42号, 20070515, p.201-208, 社団法人情報処理学会 * |
Also Published As
Publication number | Publication date |
---|---|
US20120117069A1 (en) | 2012-05-10 |
CN102356393B (zh) | 2014-04-09 |
US8583647B2 (en) | 2013-11-12 |
EP2530605A1 (en) | 2012-12-05 |
WO2011092793A1 (ja) | 2011-08-04 |
JPWO2011092793A1 (ja) | 2013-05-30 |
EP2530605A4 (en) | 2013-12-25 |
CN102356393A (zh) | 2012-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5576384B2 (ja) | データ処理装置 | |
JP5934653B2 (ja) | 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置 | |
TWI246664B (en) | Camera meta-data for content categorization | |
US8520909B2 (en) | Automatic and semi-automatic image classification, annotation and tagging through the use of image acquisition parameters and metadata | |
KR101346730B1 (ko) | 화상 처리 시스템, 화상 처리 장치 및 방법, 프로그램, 및기록 매체 | |
CN108476259B (zh) | 基于用户行为的内容推荐的系统和方法 | |
JP5385759B2 (ja) | 画像処理装置及び画像処理方法 | |
TWI223171B (en) | System for classifying files of non-textual subject data, method for categorizing files of non-textual data and method for identifying a class for data file at a classification node | |
US20140093174A1 (en) | Systems and methods for image management | |
EP2005364A2 (en) | Image classification based on a mixture of elliptical color models | |
JP5346756B2 (ja) | 画像分類装置 | |
JP2014093058A (ja) | 画像管理装置、画像管理方法、プログラム及び集積回路 | |
JP2014092955A (ja) | 類似コンテンツ検索処理装置、類似コンテンツ検索処理方法、およびプログラム | |
WO2008152556A1 (en) | Method and apparatus for automatically generating summaries of a multimedia file | |
JP4692784B2 (ja) | 画像記述システムにおける特徴量選択プログラム、特徴量選択方法および装置 | |
Ardizzone et al. | A novel approach to personal photo album representation and management | |
Zhang et al. | Automatic preview frame selection for online videos | |
Cerosaletti et al. | Approaches to consumer image organization based on semantic categories | |
WO2004008344A1 (en) | Annotation of digital images using text | |
Pulc et al. | Application of Meta-learning Principles in Multimedia Indexing | |
Liu et al. | On the automatic online collection of training data for visual event modeling | |
CN117786137A (zh) | 一种多媒体数据查询方法、装置、设备及可读存储介质 | |
Zawbaa et al. | Semi-automatic annotation system for home videos | |
Broilo et al. | Personal photo album summarization for global and local photo annotation | |
Malini et al. | Average mean based feature extraction for image retrieval |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130513 |
|
TRDD | Decision of grant or rejection written | ||
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20140606 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140610 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140703 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5576384 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |