WO2012073421A1 - 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置 - Google Patents

画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置 Download PDF

Info

Publication number
WO2012073421A1
WO2012073421A1 PCT/JP2011/005639 JP2011005639W WO2012073421A1 WO 2012073421 A1 WO2012073421 A1 WO 2012073421A1 JP 2011005639 W JP2011005639 W JP 2011005639W WO 2012073421 A1 WO2012073421 A1 WO 2012073421A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
feature
feature amount
images
model data
Prior art date
Application number
PCT/JP2011/005639
Other languages
English (en)
French (fr)
Inventor
亮一 川西
小沼 知浩
上野山 努
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN201180007696.5A priority Critical patent/CN102741882B/zh
Priority to US13/574,878 priority patent/US8953895B2/en
Priority to JP2012546673A priority patent/JP5934653B2/ja
Publication of WO2012073421A1 publication Critical patent/WO2012073421A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content

Definitions

  • the image is tagged with a combination of a predetermined ambiguous keyword and a specific keyword determined by the user.
  • An image classification device is an image classification device that classifies images using model data, and includes a receiving unit that receives a selection of an image from a plurality of stored images, and a received image First extracting means for extracting the first feature amount, specifying means for specifying a related image among the plurality of images for each received image, and a second feature amount for each of the specified related images Second extraction means for extracting the image data, and calculation means for calculating a third feature quantity indicating a characteristic specific to the object of the received image based on the extracted locality of the first feature quantity and the second feature quantity.
  • Model creating means for creating model data based on the calculated third feature amount; It is characterized by having.
  • a flowchart showing details of processing for calculating a characteristic amount specific to the selected image Image center and surrounding image The figure which shows the example of matching with the registration object and related image group in the center of the selection image The figure which shows the example of matching with the background object in the periphery of a selection image, and a related image group
  • Example of model data Functional block diagram of image classification apparatus 2 in Embodiment 2
  • Flow chart showing standard feature calculation processing Flow chart showing standardity determination processing Table showing standardity information
  • Example of UI screen Flow chart showing the modification process of registered model data Schematic diagram of color histogram in image Functional block diagram of the image classification device 4
  • Functional block diagram of the model creation device 5 Image diagram that uses region division to calculate features specific to the selected image Figure showing an example of the main area
  • a flowchart showing details of processing for calculating a characteristic amount specific to the selected image A diagram showing a cloud-based server, etc.
  • an image having a shooting date close to that of the selected image is specified as a related image.
  • the model learning unit 30 creates model data using the unique feature amount calculated by the unique feature amount calculation unit 16 and stores the created model data in the model storage unit 32.
  • step S22 Since the extraction method and contents are the same as in step S22, description thereof is omitted.
  • the target is a user's favorite target, so there is a high possibility that the target image is shot near the center in the image.
  • the standard feature calculation unit 60 calculates standard features for all or a specific image group from among the images stored in the local data storage unit 10 and stores the calculation results in the standard feature storage unit 62.
  • M M matching or random sampling is performed to obtain N groups, and then N: N matching is performed or a clustering technique such as kmeans is used to group them into P groups.
  • feature quantities are represented in multiple dimensions such as “feature quantity 1”, “feature quantity 2”, “feature quantity 3”, etc., and “standardity” is represented for each “feature quantity”. "Is associated.
  • the model data is updated by accepting a correction operation from the user, and the registration target
  • the present invention relates to a mechanism for accurately classifying an image group including the.
  • the user intends to instruct the creation of model data for a pet as a registration target, but in the frame 175a, images showing objects other than pets are also classified.
  • the image information that can be extracted from the correction image group and the non-selected image group is used.
  • the user can easily modify and register the target that the user wants to classify at any time, and the user can easily search for a group of images including the registration target by subject registration with a higher degree of freedom. Can do.
  • a region to be a positive sample / negative sample may be determined using image metadata.
  • zoom in may be determined by comparing both the digital zoom ratio included in the metadata and the digital zoom ratio included in the metadata of the image X (the image is taken immediately before the image C).
  • An image classification method for classifying images using model data A reception step for receiving image selection from the user from among the plurality of stored images, a first extraction step for extracting a first feature amount of each received image, and the plurality of images for each received image
  • An image classification including: a calculation step for calculating a third feature amount indicating a characteristic peculiar to the object of the received image, and a model creation step for generating model data based on the calculated third feature amount
  • the image classification device extracts information related to the image group from the user's local data and is standard in the local data even when the image group including the registration target selected by the user is small.
  • the image classification device extracts information related to the image group from the user's local data and is standard in the local data even when the image group including the registration target selected by the user is small.

Landscapes

  • Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 画像分類装置は、受け付けた画像それぞれの第1特徴量と(S22)、この画像に関連する関連画像それぞれの第2特徴量とを抽出する(S25)。そして、抽出した第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出し(S26)、算出した第3特徴量を基にモデルデータを作成する(S27)。

Description

画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置
 画像を分類するためのモデルデータを作成する技術に関する。
 近年、例えば被写体像を撮像するDSC(Digital Still Camera)や一眼レフカメラ、さらに携帯電話カメラやデジタルムービーカメラが広く普及しており、気軽な写真撮影が可能になっている。また、画像データ保存用の記録媒体は大容量化が進んでいる。
 そのため、個人ユーザでも膨大な量の画像コンテンツを保有できる様になっており、効率良く所望の画像を探せるように、画像にタグ付けなどの分類を支援する技術が注目されている。
 例えば、顔照合技術を用いて、画像に人物の名前タグを追加する技術(例えば、非特許文献1参照)や、顔画像の登録を支援する技術(例えば、特許文献1参照)がある。
 また、分類の結果の適否や分類対象についてのユーザから支援を受けることで画像分類を行う技術がある。
 例えば、特許文献2では、画像検索時に、ユーザから適合・不適合に関するフィードバックを受け、このフィードバックを基に学習モデルを更新することで、ユーザの意図に合う検索を図るとしている。
 また、特許文献3では、予め定めた曖昧なキーワードとユーザが定めた具体的なキーワードとを組み合わせて画像にタグ付けを行うとしている。
特開2009-31991号公報 特開2008-276775号公報 特開2010-67014号公報
Google、「Picasa ウェブ アルバムで名前タグを追加する」、[online]、[2010/10/30閲覧]、インターネット<URL:http://picasa.google.com/support/bin/answer.py?hl=jp&answer=93973> Itti L, Koch C, Niebur E著、「A model of saliency-based visual attention for rapid scene analysis」、IEEE、1998年(Vol.20, No.11, pp.1254-1259)
 上述した従来の技術では、顔など典型的な対象物の分類に関してはある程度有用であるものの、顔以外の雑多な対象物の分類には向いていない。
 また、画像には様々な対象物が写りこんでいることがあるため、ユーザから支援を受けて画像の分類を行うに際しては、ユーザが真にどの対象物を画像分類の主体と考えているのか推し量るのは困難である。
 本発明はこのような背景の元になされたものであって、画像の分類に用いるモデルデータの作成において、ユーザが分類したい興味対象を推し量ることでより適切なモデルデータの作成に貢献できる画像分類装置を提供することを目的とする。
 本発明に係る画像分類装置は、モデルデータを用いて画像を分類する画像分類装置であって、蓄積された複数の画像の中から、画像の選択をユーザから受け付ける受付手段と、受け付けた画像それぞれの第1特徴量を抽出する第1抽出手段と、前記受け付けた画像毎に、前記複数の画像の中から関連する関連画像を特定する特定手段と、特定された関連画像それぞれの第2特徴量を抽出する第2抽出手段と、抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出する算出手段と、算出された第3特徴量に基づいてモデルデータを作成するモデル作成手段と、
を備えることを特徴としている。
 本発明に係る画像分類装置によれば、特に第3特徴量は、ユーザが分類したい興味対象を反映したものとなることが期待でき、もって適切なモデルデータの作成に貢献することができる。
実施の形態1における画像分類装置1の機能ブロック図 画像分類装置1が行う処理の流れを示すフローチャート UI画面の例 画像メタデータを示すテーブル 画像の特徴量情報を示すテーブル 時系列的なイベント判定により関連画像を特定する様子を示す図 選択画像に特有な特徴量を算出する処理の詳細を示すフローチャート 画像の中央と周辺のイメージ図 選択画像の中央にある登録対象と関連画像群とのマッチングの例を示す図 選択画像の周辺にある背景物と関連画像群とのマッチングの例を示す図 モデルデータの一例 実施の形態2における画像分類装置2の機能ブロック図 標準特徴の計算処理を示すフローチャート 標準性判定処理を示すフローチャート 標準性情報を示すテーブル 実施の形態3における画像分類装置3の機能ブロック図 UI画面の例 登録済みモデルデータの修正処理を示すフローチャート 画像内のカラーヒストグラムの模式図 画像分類装置4の機能ブロック図 モデル作成装置5の機能ブロック図 領域分割を利用して、選択画像に特有な特徴を算出するイメージ図 主エリアの例を示す図 選択画像に特有な特徴量を算出する処理の詳細を示すフローチャート クラウドベースなサーバなどを示す図
 以下、実施の形態について、図面を参照しながら説明する。
 (実施の形態1)
 実施の形態1は、画像や動画データ群を整理する画像分類装置において、ユーザにより選択された画像を基にモデルデータを作成する。そして、この作成に際しては、ユーザにより選択された画像に特有な特徴量を算出し、算出した特有な特徴量をモデルデータの作成に用いる。これにより、ユーザの意向に沿ったモデルデータを作成し、このモデルデータを用いた分類の際にはユーザの満足度の高い分類結果が得られるようにする。
 図1に示すように、画像分類装置1は、ローカルデータ蓄積部10、選択受付部12、特徴量情報抽出部14、特有特徴量算出部16、関連画像特定部22、特徴量情報抽出部24、モデル学習部30、モデル蓄積部32、分類部34、画像表示部36を備える。
 ローカルデータ蓄積部10は、家庭内等でユーザが取り扱うローカルなデータを蓄積する。ローカルなデータの例としては、家族、ペット、各種物体または風景などをユーザが撮影した写真画像やユーザが撮影した動画像データなどがあり得る。以下では写真画像を例に取り説明する。
 なお、ローカルデータ蓄積部10のハードウェアとしては、例えば、HDD(Hard Disk Drive)、DVD(Digital Versatile Disc)等の大容量メディアディスク、または半導体メモリ等のストレージデバイス等の各種記録媒体から構成される。
 選択受付部12は、ローカルデータ蓄積部10が蓄積する画像の中から画像の選択をユーザから受け付ける。
 例えば「モデルとして登録したい物体が写った画像を選択して下さい」などのメッセージとともに各種物体を含む画像の一覧をディスプレイ上に表示する。そして、表示した画像の中からユーザがモデルとして登録したい物体を含む画像の選択をユーザから受け付ける。
 なお、この選択を受け付けるための入力デバイスの例としては、タッチスクリーンやマウスなどがある。
 特徴量情報抽出部14は、選択受付部12が選択を受け付けた画像を対象に特徴量情報を抽出する。
 特徴量情報の種類としては、(1)メタデータ系、(2)キーポイント記述子系、(3)特定物体認識系、の3種ある。なお、本実施の形態ではこの3種類すべてを説明するが必ずしもすべてが必須というわけではなく一部だけを用いても構わない。
 (1)のメタデータ系の例としては、画像のメタデータであるExif(Exchangeable image file format)に含まれる各種情報である。具体的には、撮影日時、経度・緯度を示すGPS(Global Positioning System)情報、各種撮影時のカメラパラメータ、撮影モード情報などである。
 また、上記カメラパラメータは、例えば、撮影時の明るさの調整を行うISO(International Organization for Standardization)感度、露出(露光)時間、シャッタースピード、撮影時の色バランスを調整するためのホワイトバランス(WB)などである。
 なお、上記撮影モード情報は、一般的なデジタルカメラで用いられているカメラパラメータの各種設定を組み合わせたモード(例えば、夜景、料理、スポーツのモード)がある。
 (2)のキーポイント記述子系の例としては、SIFT(Scale-Invariant Feature Transform),SURF(Speeded Up Robust Features),HOG(Histogram of oriented Gradient)などのキーポイント記述子を用いるタイプの局所特徴量が挙げられる。
 SIFTとは、エッジや色やテクスチャ等の低次特徴量から特徴的な点を中心に領域特徴量を現す特徴量記述子である。HOGは、物体の形状特徴を表す特徴量記述子である。
 これらの具体的な手法については、例えば特許文献(特開2008-250444号公報)に記載されている様な実用化されている顔検出装置や、人体検出や一般物体検出については、藤吉弘亘著の「Gradientベースの特徴抽出-SIFTとHOG-」(情報処理学会 研究報告 CVIM 160, pp.211-224, 2007)に詳細が記載されている。
 (3)の特定物体認識系の例としては、画像内の特定物体(顔、人、その他各種物体)を識別するための情報(特定物体認識を示す情報)が挙げられる。
 関連画像特定部22は、選択受付部12が選択を受け付けた画像(以下、「選択画像」ということがある。)毎に、ローカルデータ蓄積部10内の画像の中から関連する画像(以下、「関連画像」ということがある。)を特定する。
 特定手法としては(1)時間的な関連(2)地理的(場所的)な関連(3)撮影パターンの関連、これらの要素のいずれかまたは組み合わせを用いて行う。
 まず(1)については、選択画像と撮影日時が近い画像を関連画像として特定する。
 次に(2)については、地理的に関連する画像を特定する。例えば選択画像と緯度・経度が近い画像を関連画像として特定する。
 最後に(3)については、撮影パターンが関連する画像を特定する。撮影パターンの例としては、ISO感度、露出(露光)時間、シャッタースピード、ホワイトバランス(WB)の有無などの撮影条件に関する情報、また、撮影の構図に関する情報などがある。
 なお、上記(1)(2)については、イベントの同一性を基に判断することができる。例えば、撮影時間や撮影場所の類似性に基づいて複数の画像を同じイベントとして扱い、選択画像と同じイベントの画像を関連画像として特定することができる。
 このイベントを決定する手法は、一般的な手法を用いることができ、例えばJohn C.Plattら著の「photo TOC: Auto Clustering for Browsing Personal Photographs」(Fourth IEEE Pacific Rim Conference on Multimedia 2003)に記載された方法を用いることができる。
 特徴量情報抽出部24は、関連画像特定部22が特定した関連画像を対象に特徴量情報を抽出する。抽出する情報の内容は、特徴量情報抽出部14と同様なので説明を省略する。
 特有特徴量算出部16は、選択受付部12が選択を受け付けた画像毎に、各画像の特徴量情報とその関連画像の特徴量情報とを用いて特徴量どうしの照合を行い、例えば特徴量の一致および不一致の幾何学的な出現パターン(局所性)から、選択画像に特有な特徴量を算出する。詳しくは後述するが、この特有な特徴量は、選択画像に写っている対象物の中でユーザが登録したいと類推される対象物の特徴量を示すものとなる。
 例えば、ユーザが登録したい対象がユーザが飼っているネコの「タマ」であるとする。そして、このユーザにより「タマ」が写っている画像が複数選択された場合には、特有特徴量算出部16は、このネコの「タマ」に特有的に表れる特徴量を算出することとなる。
 モデル学習部30は、特有特徴量算出部16により算出された特有な特徴量を用いてモデルデータを作成し、作成したモデルデータをモデル蓄積部32に格納する。
 モデルデータの作成手法は、例えば、次の2つの手法が考えられる。
 第1の手法としては、画像の特徴量と各特徴量の重要性などの重み付けを行った結果をそのままモデルデータとする。この第1の手法は、選択画像の枚数が少ない場合に好適である。
 第2の手法としては、機械学習手法である分類器を用いて作成する。例えば、分類器として知られる、GMM(Gaussian mixture model)やSVM(Support Vector Machine)などを用いて作成するものである。この第2の手法は統計学的なアプローチであるので、選択画像の枚数がある程度多い場合に好適である。
 このため、選択画像の枚数が所定値より少ない場合には、第1の手法を用い、所定値以上ならば第2の手法に切り替えるようにしても構わない。
 分類部34は、予め例えば顔などの分類すべきモデル毎に準備している分類基準データとして、モデル蓄積部32が蓄積しているモデルデータを分類器にセットし、ローカルデータ蓄積部10の画像群から抽出された特徴量を入力して適合判定処理を行い、入力データとしての画像がどのモデルデータと適合しているかの判定処理を行うものである。
 この判定処理では、分類項目を判別するとともに、判別信頼度としての尤度を出力してもよい。ここで、尤度は一般的に値が大きいほど信頼度が高いことを意味する。
 画像表示部36は、登録モデルの識別子(例えば、名前、アイコンまたは画像)と一致する画像群をディスプレイに表示する。
 表示の一例としては、「『タマ』の登録モデルと一致する画像は以下の通りです。」というメッセージとともに、「タマ」と一致する画像群を表示することが考えられる。
 なお、各画像に尤度が関連付けられている場合には、一定閾値以上の尤度を持つ画像に限定して表示しても良い。
 次に、ユーザから画像の選択を受け付け、受け付けた画像に特有な特徴量を算出、算出した特徴量に基づいてモデルデータを作成、という画像分類装置が行う処理の流れについて説明する。
 図2のフローチャートに示すように、選択受付部12は、ローカルデータ蓄積部10が蓄積する画像の一覧を表示し、表示した画像の中からユーザがモデルとして登録したい物体を含む画像の選択をユーザから受け付ける(S21)。
 このステップS21のUI(ユーザインターフェイス)画面の例を図3に示す。
図3(a)(b)は、ユーザがペット(ネコの「タマ」)を含む画像を選択しているUI画面を示すものである。
 図3(a)では、タッチスクリーンディスプレイの表示画面37において、下部の枠37a内にローカルデータ蓄積部10に蓄積された画像の一覧が表示されている。下部の枠37a内の画像を上部の枠33内へとユーザは指でドラッグ&ドロップすることにより画像を選択することができるようになっている。
 図3(b)では、ディスプレイの表示画面38において、ローカルデータ蓄積部10に蓄積された画像の一覧が枠38a内に表示されている。表示された各画像には、チェックボックス38bが対応付けされている。ユーザは、マウスカーソル38cをチェックボックス38bの座標上に重ねてクリックすることでオン/オフを選択可能となっている。
 図3(a)(b)ともに、「登録」37c,38dボタンの選択を受け付けると、その時点で選択状態にある画像を選択画像として確定することとなる。
 このような画像の選択の受け付けが終わると、特徴量情報抽出部14は、受け付けた画像それぞれについて、特徴量情報を抽出する(S22)。
 ここで抽出する特徴量情報は、上に述べたように、(1)メタデータ系、(2)キーポイント記述子系、(3)特定物体認識系の3種類がある。
 メタデータ系については、図4を用いて説明する。図4のテーブル40は、「画像データ番号」41に対応する「画像メタデータ」42の内容を示す。ローカルデータ蓄積部10ではこのように画像毎にExif形式のメタデータを付与して管理している。
 特徴量情報抽出部14は、このようなメタデータを解析することにより、テーブル40の中から選択画像(例えば「ID3」)の「撮影日時」42a、「緯度・経度」42b、「ISO」42c、「露出時間」42d、「WB」42eを抽出する。
 キーポイント記述子系と特定物体認識系については、図5を用いて説明する。
 図5のテーブル50は、「画像データ番号」51に対応する「特徴量情報」52の内容を示す。
 「カラー1~カラー3」52aは、代表的な3色(例えば、YUVやRGB)のカラーヒストグラムを示すものである。RGBやYUVのフォーマットや、RGBとYUVと間の変換は一般的な手法を用いることができる。
 「局所1~局所3」52bは、テクスチャ等の低次元特徴量や特徴的な点を中心に局所領域の特徴を表したり物体の形状を表す高次元特徴量として値を示すものである。
 具体的には、キーポイント記述子系のSIFTやSURFやHOG等の特徴量をベクトル形式で表すものである。図5では、局所の数は局所1~局所3の3次元と簡略化しているが、現実には、より多次元(例えば、SIFTの128次元など。)に表され得る。
 「顔・顔数」52cは、特定物体認識系の特徴量である。対応する画像内に写った「顔」の有無と顔が有りのときの「顔数」を示す。
 なお、図5では単純に「顔」の有無だけを示しているが、一般的な顔認識技術を用いて「顔」が誰であるかまでを識別するようにしても構わない。また、人の服装の色や形状、人検出情報から人を特定する情報を利用することも考えられる。
 また、人間に限らず、車検出及び犬や猫などのペット検出に代表されるような物体認識技術による結果を利用してもよい。さらには、生物に限らず建造物や家具などの物体を認識するようにしてもよいし、画像内に写った文字列を光学文字認識(OCR:Optical Character Recognition)の結果を特徴量情報として利用してもよい。
 特徴量の抽出を終えると、受け付けた画像から関連画像を特定して特徴量を抽出するループ処理(S23~S25)に入る。
 なお、ステップS23の「i:1,1,n」は、変数名i、初期値1、増分1、終値n(選択画像の枚数)を示す。
 関連画像特定部22は、画像iの関連画像を特定する(S24)。
 ここではイベントの同一性を基に特定する例について説明する。このイベントは、撮影間隔が5分以内の連続した画像群を、同一のイベントとして取り扱うというルールであるとする。
 そうすると、図6に示すように、2010/5/5に撮影された「ID1」~「ID7」までの7枚の画像群において、選択画像「ID3」の撮影日時14:15に前後し、撮影間隔が5分以内の連続した画像群「ID2」~「ID6」の5枚が同じイベントとなる。
 この例の場合、関連画像特定部22は、「ID2」「ID4」「ID5」「ID6」の4枚の画像を「ID3」の関連画像として特定する。
 ステップS24を終えると、特徴量情報抽出部24は、関連画像それぞれについて、特徴量を抽出する(S25)。
 この抽出の手法や内容については、ステップS22と同様であるので説明を省略する。
 なお、図6に例示した関連画像の場合には、特徴量情報抽出部24は、「ID2」「ID4」「ID5」「ID6」の4枚の画像それぞれについて特徴量を抽出することとなる。
 このようなステップS24,S25の処理を、画像分類装置1は選択画像毎に繰り返す。
 続いて、特有特徴量算出部16は、ステップS22で抽出された選択画像毎の特徴量、ステップS25で抽出された関連画像毎の特徴量を基に、選択画像に特有な特徴量を抽出する(S26)。
 このステップS26の詳細について図7~図10を用いて説明する。
 まず、特有特徴量算出部16は、選択画像毎に、その選択画像とその関連画像とを対象にマッチング処理を行う(S71)。
 続くステップS72,73では、特徴量の局所性に基づいて、取り扱いを分ける。つまり、画像の中央にある一致点の特徴量は正標本として学習し(受け付けた画像における一致点の特徴量の重み付けを高くする)、画像の周辺にある一致点の特徴量は負標本として学習(受け付けた画像における一致点の特徴量の重み付けを低くする)する。この画像の中央と周辺の例を図8に示す。
 ステップS72の具体例を図9に示す。
 図9(a)は、選択画像「ID3」を示し、図9(b)は、選択画像「ID3」の関連画像「ID2」「ID4」「ID5」「ID6」を示す。関連画像「ID2」「ID4」「ID5」「ID6」は、さまざまな縮尺、さまざまな角度で撮影された登録対象が含まれている。
 図9中、画像内には一定の画素間隔(例えば、20pixel)で格子状に丸点が配置されている。この丸点は、SIFT等の局所特徴量を抽出の対象とした場所を示すものである。特に、関連画像における黒の丸点は、選択画像の登録対象の特徴量と一致した一致点を示す。これに対して、関連画像における白の丸点は特徴量が一致しなかった不一致点を示す。図9では、特に、選択画像「ID3」と関連画像のひとつである「ID2」との間に、一致点どうしを線分で結んで示す。
 この図9の例で示すように、一致した特徴量の画像内での平均的な存在位置を算出すると中央付近に一致点が表れ易い。具体的には次の3つの傾向がある。
 第一に、同一ユーザが持つ撮影データ内の同一イベント内では同一対象が写る可能性が高いため、一致度合いの高い関連画像群は選択画像と同一の被写体を含んでいる可能性が高い。
 第二に、ユーザの選択画像が含む特徴と関連画像群との特徴量の一致が幾何学的な形状として一定の類似性を持つ場合には、その類似形状で一致する特徴量を登録対象に特有な特徴として判定する事ができる。判別された幾何学的な類似形状も特有な特徴として利用することが可能である。
 第三に、関連画像群において登録対象を含んでいる場合、その対象はユーザの好みの対象であるため画像内の中央付近で撮影される可能性が高い。
 このため、一致特徴点の平均的な出現位置と分散を求めることによって、その位置が中央付近であると判定可能な場合には、その特徴を登録対象に特有な特徴として重み付けることが妥当である。
 <重み(weight)の算出例>
 ここで、具体的な重み付けの計算手法について一例を説明する。
 特有な特徴量の重み(weight)の算出方法としては、例えば選択画像がN枚である場合、ある特徴量AがM枚の画像内で一定閾値以上の一致度合いであった場合、特徴量Aの重みは、M/Nで算出される。一致度合いは特徴量成分の差分の自乗和等で産出することができる。選択画像内で多く存在する特有な特徴量ほど重みを高くする様に設定することで分類精度を向上させる事が可能となる。また、特徴量Aの画像xとyの間の一致度合いをSx,y、全画像間の一致度合いの総和をSSとして、
Figure JPOXMLDOC01-appb-M000001
 と重みを算出し、0~1で正規化して利用すること等も考えられる。
 さらに、画像全体ではなく、SaliencyMap等を用いて画像内の顕著性のある領域だけに限定して一致度合いを算出することや、予めエッジ情報などから画像を一定の領域に分割されたサブ領域単位に分割しておき、そのサブ領域全体が類似する領域間のみで一致度合いを算出して特徴量に重み付けすること等が考えられる。なお、SaliencyMapの詳細は非特許文献2に記載されている。
 ステップS73の具体例を図10に示す。
 図10(a)は、選択画像「ID3」を示し、図10(b)は、選択画像「ID3」の関連画像「ID2」「ID4」「ID5」「ID6」を示す。関連画像「ID2」「ID4」「ID5」「ID6」における黒の丸点は、選択画像の背景物の特徴量と一致した一致点を示す。これに対して、関連画像「ID2」「ID4」「ID5」「ID6」における白の丸点は、選択画像の背景物と特徴量が一致しなかった不一致点を示す。
 ここで、登録対象と関係が無い背景物の場合でも同一イベント内であれば画像の背景と一致する可能性は高いが、ユーザが撮影しようとする対象では無いため画像内の中央付近以外に写る可能性が高い。
 そこで、図10の例で示すように、一致した特徴量の画像内での平均的な存在位置を算出すると周囲枠付近に一致点が表れ易い。
 一致特徴点の平均的な出現位置と分散を求めることによって、その位置が周囲枠付近であると判定可能な場合には、その特徴を登録対象に非特有な特徴として判定する事ができる。
 なお、ユーザが選択した選択画像が複数枚存在する場合には、選択画像間で一致する特徴量を算出し特定した後で、関連画像群との一致特徴量を算出することでその最終的な一致特徴量を登録対象に特有な特徴としたり、選択画像と関連画像群で一致する特徴量を算出し特定した後で選択画像間でさらに一致する特徴量を算出し登録対象に特有な特徴とすることも可能である。
 このようにして、選択画像に特有な特徴量を算出されると、モデル学習部30は、算出された特有な特徴量を用いて、登録対象を判別するためのモデルデータを生成する(S27)。
 この生成のやり方としては、単純に、算出された特有な特徴量をそのままモデルデータの生成材料として利用してもよい。
 また、特有な特徴量それぞれの一致度合いなどに応じて重み付けをしておく、又は事前に分割された登録対象毎に特徴量を保持することも可能である。
 図11にモデル学習部30が作成したモデルデータの一例を示す。
 登録モデル1(Model1)の作り方としては、例えば、特有な特徴を全て算出した後で、登録対象を含む画像群から類似度を画像メタデータから算出する。そして、その類似度が一定値以上かどうかにより3つの画像群に分割する。さらに、分割した3つの画像群にそれぞれ対応する3つのモデル(Model1-1,1-2,1-3)を求めることにより作成できる。
 登録モデル2(Model2)は、画像群すべてが一定値以上の高い類似度であったため、分割されることなく1つのモデルとして算出されている。
 それぞれ特徴量の特有性に応じて重み付けされた結果がweightとして算出されており、入力画像とのマッチング処理時には、例えば特徴量(feature)×重み(weight)の総和に形状相関(geometry relation)の一致度を乗算することで類似度を算出し、事前定義している閾値Thr2以上であれば一致していると判定することができる。
 また、特有特徴量算出部16で算出された特徴量を全て用いて、GMMやSVM等の既存の機械学習法で統計学的なモデルを生成する事もできる。この際に、図9で示すような一致特徴量が画像の中央寄りに存在する画像群は登録する物体に適合する正標本とし、図10に示すような一致特徴量が画像の周辺枠寄りに存在する画像群は登録する物体に適合しない負標本として学習データを増加させて学習させることもできる。
 なお、図11で示す重みや形状相関の特徴量を利用して統計学的なモデルを生成することも可能である。
 さらに、利用する算出可能な特徴量を全てまとめて1つの分類特徴量空間で使うのではなく、予め分類軸として人工物体系によく表れる特徴軸や生物体系によく表れる特徴軸や文字等のテキスト情報系によく表れる特徴軸に分けておき、それぞれの特徴量空間でモデル生成を行うことでより登録対象に合うモデルにすることができる。なお、各特徴軸での特徴量の出現頻度自体も特徴量としてモデル化することが可能である。
 そして、モデル学習部30からモデル蓄積部32にモデルデータが出力され蓄積された後、分類部34は、蓄積されたモデルデータを用いて画像の分類を行う。
 分類部34は、ローカルデータ蓄積部10の画像群を対象として、モデル蓄積部32のモデルデータを利用して、このモデルデータと一致する特徴が各画像に存在するかを判定する。
 このような判定は、例えば、画像から抽出された特徴量と、図11に示すモデルデータの各特徴量を比較し、その一致度をみることにより行うことができる。この一致度は特徴量に対応する重みに応じて補正するとしてもよい。
 求められた一致度が一定値以上である場合には、分類部34は画像に一致したモデルの属性情報(タグ)を付与することとなる。
 判定を終えると、画像表示部36により、ユーザが登録した対象を含む画像群をその登録モデル毎に分けて表示する。
 以上のように、ユーザに選択された画像群だけから登録対象をそのまま用いてモデル化するのではなく、ローカルデータ蓄積部10内から選択画像群に関連する関連画像群を抽出し、それらを利用してローカルデータ内で分類精度が上がる様にモデル化することで、ユーザが分類したい対象を簡単に登録でき、その対象を含む画像群を精度よくローカルデータ内で分類することが可能となる。
 したがって、ユーザは自由に好みの対象を登録し、その対象を含む画像群を簡単に探すことができる。
 
 (実施の形態2)
 本実施の形態2は、画像分類装置において、ユーザが分類したい対象を含む画像群を選択し登録する際に、ローカルデータ群に標準的に存在する特徴を利用することで登録された対象を含む画像群を精度良く分類する仕組みに関するものである。
 なお、本実施の形態において、実施の形態1と同じ機能を有する構成には同じ符号を付し、その説明が適用できるため説明を省略する。
 本実施の形態2では、ユーザにより選択された画像を基にモデルデータを作成する際に、ローカルデータ内の画像群に標準的に存在する特徴を標準特徴として規定する。そして、選択画像毎の特徴量の標準性を判定し、標準性が高いほどモデル寄与度を低くするようにする。こうすることで、より分類性能が高くユーザにとって妥当なモデルデータの作成を図る。
 図12は、実施の形態2に係る画像分類装置2の機能ブロック図である。
 標準特徴計算部60は、ローカルデータ蓄積部10に蓄積された画像の中から全部または特定の画像群を対象として標準特徴を計算し、計算結果を標準特徴蓄積部62に格納する。
 ここで、標準特徴とは、標準特徴の計算の材料とした画像群(以下、「目的画像群」ということがある。)に標準的(全体的)に表れる特徴量を示す量である。
 標準特徴の計算の流れを図13を用いて説明する。
 まず、標準特徴計算部60は、ローカルデータ蓄積部10に蓄積された画像の中から標準特徴を計算する対象となる目的画像群を抽出する(ステップS131)。
 この目的画像群は、ローカルデータ蓄積部10に蓄積されたすべての画像でもよいし、特定の画像群に限定してもよい。
 限定の条件としては、(1)撮影時間間隔のイベント単位(画像の撮影時刻に関する時系列パターン)、(2)撮影位置のイベント単位、(3)室内や室外といった撮影シーン単位などがあげられる。
 (1)撮影時間間隔のイベント単位としては、年/月/週/日/時/分といった時間単位での撮影間隔自体、撮影された人物の種類や数、その他被写体の種類や数、および撮影カメラパラメータの単位を用いたものである。
 (2)撮影位置のイベント単位としては、撮影画像が撮影された場所に関する地理情報や撮影方向や画像内での特徴量の出現位置単位で算出されうる。
 例えば、日本の東京で撮影された画像群をまとめて目的画像とすることが考えられる。
 次に、標準特徴計算部60は、その目的画像群から全局所特徴量を算出する(ステップS132)。
 局所特徴量としては、SIFTやSURFなどに代表される様な画像内の局所部分を表す特徴量を用いることができる。なお、画像から算出される特徴量であればその種別は問わない。
 ここで目的画像群の枚数をXとして、この画像X枚から特徴量平均数Y個が算出できた場合、全特徴量数はX×Y=M個となる。標準特徴計算部60は、このM個の特徴量に対して類似性の高い特徴量同士にグルーピングする(ステップS133)。
 グルーピング手法としては、M:Mマッチング又はランダムサンプリングしてN個にした後にN:Nマッチングを行ったりkmeans等のクラスタリング手法を用いることによりP個のグループにまとめる。
 最後に、標準特徴計算部60は、各グループの要素数が一定数以上で存在している場合、そのグループに属する特徴量は目的画像内で標準的に存在する標準特徴として抽出する(ステップS134)。
 P個のグループG~Gのそれぞれの要素数をNG1~NGpとして各要素数が予め定義されたThr以上の場合に標準特徴と判断することができる。また、グループの要素数が大きいほど標準性が高いと定義して、標準性を算出することも可能であり、標準性として要素数だけではなく一定時間周期内に表れる頻度として算出することもできる。
 なお、事前に全体標準特徴量を算出しておかない場合には、随時全体標準特徴を算出する、または関連する全体標準特徴量のみを判別し算出する構成とすることも可能である。
 標準性判定部64は、画像選択受付部12により選択された選択画像毎に、選択画像の特徴量と標準特徴蓄積部62に格納された特徴量とを比較することにより、標準性を判定する。そして、判定した標準性を示す標準性情報を標準性情報格納部66に格納する。
 この標準性は、標準性は0~1の範囲であり、標準特徴と完全に一致しない場合には標準性を0とし、完全に一致する場合には標準性が1というように一致度合いの高低に応じて規定することができる。標準性が1に近くほど、ローカルデータ内ではありがちな画像であり、ローカルデータ内での分類性能は低いと考えられる。
 標準性の計算の流れを図14を用いて説明する。
 まず、特徴抽出部14が選択画像を対象に特徴量情報を抽出する(S141)。
 続いて、標準性判定部64は、標準特徴蓄積部62の標準特徴を読み込む(S142)。
 最後に、標準性判定部64は、ステップS141で抽出された特徴量情報と、ステップS142で読み込まれた標準特徴の一致度を基に、標準性(0~1)を判定する。
 このようにして判定された標準性の一例を図15に示す。
 図15のテーブル67は、選択画像が「ID1」「ID2」「ID3」「ID4」の場合に、この選択画像毎に標準性判定部64が判定した標準性を示す。
 各画像においては、「特徴量1」「特徴量2」「特徴量3」・・・というように、特徴量が多次元に分けて表されており、各「特徴量」毎に「標準性」が対応付けられている。
 この「特徴量」は、例えばSIFTやSURF等の局所特徴量により算出されており、図15では3次元と簡略化しているが、現実には、より多次元(例えば、SIFTでは128次元。)に表され得る。また、特徴量の種類としては、画像の色情報やテクスチャ情報やエッジ情報やHOG等の画像解析情報として抽出できる特徴量であればその種別は問わない。
 図15の例では、局所特徴をベクトル特徴としたものを「特徴量1」、「特徴量2」、「特徴量3」として管理し、それぞれに対して算出された標準性を「標準性1」、「標準性2」、「標準性3」として管理している。
 なお、例えば標準性は、不一致の場合には0、一致する場合には1として、一致度合いが最も大きい標準特徴の標準性と一致度合いを乗算することで算出することも可能である。
 特有特徴量算出部16は、選択受付部12における選択画像毎に、標準性判定部64により判定された個々の画像の標準性に応じて選択画像に特有な特徴量を算出する。
 具体的には、標準性が低い第1特徴量については重み付けを高くし、かつ、標準性が高い第1特徴量については重み付けを低くすることにより特有な特徴量を算出する。
 重み付けの計算手法は、次の(1)~(5)のように色々な手法を採りうる。
 (1)モデルデータを生成する前の特徴量のマッチング処理をする前に標準性が一定閾値以上の特徴量を排除するとしてもよい。
 (2)実施の形態1を組み合わせて、図11に示すような特徴量に重み付けした場合には、その重みに{1-(図15に示す標準性)}を乗算することで標準性の高い特徴量の重みを減少させることが可能である。
 例えば、ある特徴量の標準性が0.9と高いならば、1-0.9=0.1を特徴量の重みに乗算させることにより、元々の重みと比べて大幅に減少させることができる。
 (3)画像が属するイベントに応じて標準的に存在する特徴量の割合や量が一定範囲内の値に収束していると判定することでできる場合には、標準的に存在する特徴量の割合や量自体をモデルデータとして利用する事も可能である。
 (4)既存の機械学習法で統計学的なモデルを生成する場合には、標準性自体も特徴量のパラメータとして入力することでモデル化したり、特有特徴量算出部16で算出される特有な特徴量を持つ画像から標準性の高い特徴量を一定数以上持つ画像群を判定し、その画像群はローカルデータ群内では分類性能が低いと考えられるため排除またはモデル寄与度(重み付け)を低く設定して学習標本として利用することも可能である。
 以上説明したように、ユーザに選択された画像群だけから登録対象をそのまま用いてモデル化するのではなく、ローカルデータ内に標準的に存在する特徴は分類性能を低くする要因となる点に着目し、このような特徴を標準特徴として予め算出しておくことによって標準性の高い特徴を排除する、又はその標準性の出現傾向自体を特徴量化してその標準特徴を用いてモデル化することによって、ユーザが分類したい対象を含む画像群をより精度よくローカルデータ内で分類することが可能となる。
 (実施の形態3)
 本実施の形態3は、画像分類装置において、ユーザが分類したい画像を選択して、選択画像などからモデルデータを作成した際に、ユーザから修正操作を受け付けることによりモデルデータを更新し、登録対象を含む画像群を精度良く分類する仕組みに関するものである。
 つまり、ユーザが登録した対象を含む画像群を自動分類した結果を表示しユーザが表示結果の間違いを修正する際に、ユーザの修正操作を受け付けるUI(User Interface)部で修正操作の入力を受け付ける。
 そして、受け付けた内容に応じて、モデルデータを修正更新して分類性能を高めることを図る。
 なお、本実施の形態3において、実施の形態1と同じ機能を有する構成には同じ符号を付し、その説明が適用できるため説明を省略する。
 図16は実施の形態3に係る画像分類装置3の機能ブロック図である。
 修正受付部13は、画像表示部36が表示した分類結果の表示出力に関して、入力デバイスを介して修正を受け付ける。入力デバイスの例としては、タッチスクリーンやマウスなどがある。
 例えば、ユーザが飼っているネコの「タマ」のモデルデータを基に、画像表示部36が「タマ」に分類した画像を表示し、「『タマ』の登録モデルと一致しない画像を選んで下さい。」などのメッセージをこの表示に添えてユーザに修正を促す。
 修正受付部13は、画像表示部36の分類結果の表示出力に対してユーザが誤分類されている結果を修正する際の修正操作が入力される。例えば、タッチパネルディスプレイやマウスにより修正画像群の選択及び登録モデルの更新や登録モデルの細分化を行う入力がなされる。
 以下では、ユーザが登録した対象を含む画像群で整理する又は検索する際に、画像表示部36で表示される登録対象を含む画像群において、修正すべき画像群が存在する又は登録モデルの細分化等のモデル変更時におけるモデルデータの修正更新方法について詳細に説明する。
 ユーザが修正したい画像群を選択する方法について説明する。
 図17は、画像表示部36の分類結果と修正受付部13の修正受付とに係るUI画面の一例を示す図である。
 図17(a)では、タッチスクリーンディスプレイの表示画面171において、グループ「e001」として分類された画像の誤分類の結果を修正する例を示している。
 枠171a内には、グループ「e001」として分類された画像の一覧が表示されている。
 例えば、グループ「e001」として分類された画像がペットという色々なペット(登録対象がペット)を含む大雑把なものである場合に、ユーザがペットB(例えば、ネコの「タマ」)だけを登録対象としてモデルを作成したいとする。
 このとき、枠171a内にグループ「e001」の画像一覧を横スクロールしながら、ペットBを含む画像を上部の枠171b内にドラッグして集めた後で、登録ボタン171cを押す事で修正更新処理が開始されることとなる。
 なお、モデル変更としては、このようなモデルの細分化に加えて、複数のモデルをマージすることで集約化することも可能である。例えば、ユーザが飼っている2匹のネコのモデル、「タマ」のモデルと「ミケ」のモデルを作成していたとすると、両者を集約化することが考えられる。
 また、枠171aなどに画像の一覧を表示する際には、単純に撮影された時間で時系列で並べて表示するだけではなく、登録されたモデルデータとの一致度や類似性に基づいて並べ変えておくことで、ユーザの修正処理を簡易化することができるので有効である。
 図17(b)では、グループ「e001」として分類された画像の誤分類の結果を修正する例を示している。
 ユーザはペットを登録対象としてモデルデータを作成を指示したつもりであったが、枠175a内には、ペット以外の対象物が写った画像も分類されてしまっている。
 この場合に、ユーザは、枠175a内の分類結果の画像一覧を縦スクロールしつつ修正対象であるペット以外の画像をマウスを用いて随時選択し、その後、削除ボタン175cを押す事で修正更新処理が開始される。
 図17(b)の例では、画像毎のチェックボックス175bがチェックが付された画像がユーザにより選択された画像に該当する。
 
 修正画像群の選択又は登録画像群の再選択後に修正更新処理が開始されると、その選択画像から実施の形態1または2に記載の手法と同様の手法でモデルデータを再生成する。
 具体的には、図11に示したようなモデルデータ情報の各情報が修正されることになる。修正画像群の選択時には、強化すべき特徴と排除すべき特徴等の特徴情報を修正画像群及び選択されなかった分類結果が正しい画像群から抽出し、モデルデータを修正更新する。
 図18は、選択された修正画像群から登録対象のモデルデータを修正する処理の手順を示したフローチャートである。
 以下では、修正画像群として誤分類された画像が選択されたと仮定して処理内容を説明する。なお、その逆に正しく分類された画像が選択された場合も考えられ、その際には説明内容と逆の処理でモデルデータの処理が行われる。
 修正画像群が選択され修正処理が開始された場合、登録結果の表示画面において選択されなかった画像群は正しく分類されている可能性が高い。
 そのため、図18に示すように、特徴量情報抽出部14は、修正画像群の情報に加えて非選択画像群からも特徴量情報を抽出する(S181)。全ての画像群にはユーザにより直接付与された直接分類タグと画像分類装置により自動分類され付与された自動分類タグの情報があるとする。
 非選択画像群において、直接部類タグの情報が無い場合にはその画像群は自動分類タグとして正しい可能性が高くモデルデータの修正に有用であるため、正しい分類画像として利用する。
 次に、抽出された画像情報の画像解析情報から修正画像群とモデルデータの特徴量の一致度合いの高い部分を判定する(S182)。
 特徴量の類似性の判定は既出の内容と同じとする。さらに、修正画像群に対して実施の形態1におけるステップS26(図7)の処理と同様にして修正画像と関連画像群との一致特徴量を判定することで修正画像に特有な特徴量を判定して利用する事も可能である。
 そして、ステップS181で抽出された正しい分類画像を用いて、実施の形態1における実施の形態1におけるステップS26(図7)の処理とと同様にして、各正しい分類画像と関連画像群との一致特徴量を判定する(ステップS183)。
 最後に、モデル学習部30で、ステップS182とステップS183で判定された結果を用いて登録対象のモデルデータの修正更新の処理を行う(S184)。
 ステップS182の結果は、修正画像群は削除したい場合であるから、その画像群との一致度又は特有な特徴量の特有性が高いほどモデルデータから削除すべき特徴量である。
 特徴量マッチング処理の場合には、モデルデータと一致する特徴量を削除する又は重みを一定比率で減少させる事が考えられ、機械学習法で統計モデルを生成する際には、単純に負標本として加える他、特徴量の重み付けを減らすことでモデルの再生成を行う事が可能である。また、ステップS183の結果は、登録対象に有効な特徴量である可能性が高いため、一致特徴量を用いて強化学習を行う。
 特徴量マッチング処理の場合には、モデルデータと一致する特徴量の重みを一定比率で増加させたり、モデルデータに存在しない特有な特徴量を新規に加えることで、ローカルデータ内でのモデルの分類性能を向上させる。
 機械学習法で統計モデルを生成する際には、実施の形態1におけるS27(図2)の処理と同様の処理を学習標本を増加させた状態で行うことができる。また、各画像が持つ重み付けられた特徴量や分類モデルとの類似度などを用いて標本自体の信頼性で重み付けをした上で学習を行う事等も可能である。
 以上のように、ユーザが登録した対象を含む画像群を自動分類した結果に対して、ユーザが修正更新処理を行う際に、修正画像群及び非選択画像群から抽出可能な画像情報を用いて、モデルデータを修正又は再登録してモデル生成することにより、ユーザが分類したい対象を簡単に随時修正登録でき、ユーザはより自由度の高い対象登録によって登録対象を含む画像群を簡単に探す事ができる。
 <補足1>
 以上、本実施の形態について説明したが、本発明は上記の内容に限定されず、本発明の目的とそれに関連又は付随する目的を達成するための各種形態においても実施可能であり、例えば、以下であっても構わない。
 (1)実施の形態1では詳しく述べなかったが、特有特徴量算出部16においては、選択画像と関連画像それぞれの色分布を比較し、比較の結果、色分布が不一致である領域については、特有な特徴量を算出する対象から除外するとしても構わない。
 例えば、図19に示すように、黄色いボトルが写った選択画像「ID3」と関連画像「ID4」があるとする。両方の画像内には、カラーヒストグラムを示す簡易な色を記載している。関連画像「ID4」では、領域183,184だけが黒の領域となっている。このように、関連画像「ID4」に、選択画像「ID3」には全く存在しない色範囲の領域があれば、関連画像「ID4」の黒の領域の局所特徴量を、特有な特徴量を算出する対象から除外するとしても構わない。
 (2)各実施の形態では、特有特徴量算出部16とモデル学習部30とを別ブロックであるとして説明したが、両方をまとめてモデル学習部30に特有特徴量算出部16の機能を内包させる形でも構わない(図20の画像分類装置4参照)。
 (3)各実施の形態では、ひとつの画像分類装置において、モデルデータの作成から画像の分類まで行うとしたが、作成と分類とを別装置において行うようにしても構わない。例えば、図21に示すようになモデル作成装置5においてモデルデータを作成し、画像の分類は別装置で行うとしてもよい。
 (4)実施の形態1では、モデルデータの作成に関しては、基本的には画像単位でその中の登録対象全体をモデル化するとして説明したが、画像内の登録対象の一部分だけをモデル化して登録するとしても構わない。
 例えば、移っている犬の全体が写されている場合において、その全体特徴でモデル化するのではなく、耳と目だけ又は足と尻尾だけの組み合わせが選択画像内とよく表れる場合には、耳と目だけ又は足と尻尾だけの特徴量セット単位でサブセットとしてモデル化することが考えられる。
 図11を例に挙げると、feature1-feature10のセットではなく、その一部のfeature1,3,5のサブセットでモデル化することが分類には有効となり得る。
 (5)上述の実施の形態で示した動作などを各種情報処理装置のプロセッサ、及びそのプロセッサに接続された各種回路に実行させるためのプログラムコードからなる制御プログラムを、記録媒体に記録すること、又は各種通信路を介して流通させ頒布することもできる。
 このような記録媒体には、ICカード、ハードディスク、光ディスク、フレキシブルディスク、ROM等の非一時的な(not-transitory)記録媒体がある。
 流通、頒布された制御プログラムは、プロセッサに読み出され得るメモリ等に格納されることにより利用に供され、そのプロセッサがその制御プログラムを実行することにより実施の形態で示したような各種機能が実現されるようになる。
 (6)上記の各実施の形態の画像分類装置は、典型的には集積回路であるLSI(Large Scale Integration)として実現されてよい。各回路を個別に1チップとしてもよいし、全ての回路又は一部の回路を含むように1チップ化されてもよい。例えば、チューナ3は他の回路部と同一の集積回路に集積されることもあれば、別の集積回路になる場合もある。
 ここでは、LSIとして記載したが、集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラム化することが可能なFPGA(FieldProgrammable Gate Array)、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
 (7)図9の例では、SIFTなどを用いた点ベースの特徴量を例示して説明したが、例えば画像を構成する領域単位の特徴量(面ベースな特徴量)を用いることでロバストな検出を図るようにしても構わない。
 すなわち、特徴量情報抽出部14(図1参照)は、1枚の選択画像を複数の領域に分割し、領域毎に特徴量(例えば、カラーヒストグラム)を算出する。
 そして、特徴量情報抽出部24も同様に、関連画像のそれぞれについて、画像を複数の領域に分割し、領域毎に特徴量を算出する。
 これらの領域分割(セグメント化)の手法については、例えば、
 ・"Superpixel: Empirical Studies and Applications", (http://www.cs.washington.edu/homes/xren/research/superpixel,http://www.stat.ucla.edu/~yuille/courses/canton/day5/day5examples/Superpixels.pdf)
 ・Pedro F. Felzenszwalb and Daniel P. Huttenlocher:"Efficient Graph-Based Image Segmentation", International Journal of Computer Vision, Volume 59, Number 2, September 2004(http://people.cs.uchicago.edu/~pff/segment/ , http://people.cs.uchicago.edu/~pff/papers/seg-ijcv.pdf)
などに詳しい。
 特有特徴量算出部16は、1枚の選択画像の各領域の特徴量と、1枚の関連画像の各領域との特徴量を照合を繰り返すことにより、選択画像に特有な特徴量を算出する。
 このような面ベースな特徴量を用いる処理のイメージを図22に示す。図22では、特徴量情報抽出部14が、選択画像(ID3)を5つの領域に分割し、特徴量情報抽出部24が、2枚の関連画像(ID2,ID4)をそれぞれ6つの領域に分割したものである。
 特有特徴量算出部16は、選択画像(ID3)の5つの領域のそれぞれと、1枚の関連画像(ID2)の6つの領域のそれぞれの特徴量を比較して、比較結果を示す値(a1,1,a1,2,a1,3, a1,4,a1,5,a1,6, a2 1,1,a2 1,2,a2 1,3,a2 1,4,a2 1,5,a2 1,6,...)を算出する。また、同様に、選択画像(ID3)の5つの領域のそれぞれと、1枚の関連画像(ID4)の6つの領域のそれぞれの特徴量を比較して、比較結果を示す値(b1,1,b1,2,b1,3, b1,4,b1,5,b1,6, b2 1,1,b2 1,2,b2 1,3,b2 1,4,b2 1,5,b2 1,6,...)を算出する。そして、特有特徴量算出部16は、これらの値を、実施の形態で説明したような手法に用いることで選択画像に特有な特徴量を算出することとなる。
 なお、図22の例では、1つの画像(選択画像または関連画像)を一通りのやり方で領域分割しているが、領域分割に用いるパラメータ(例えば、スケール)を多段階に設定することにより、特徴量の比較を多段階にするとしても構わない。また、点ベースな特徴量と面ベースな特徴量との双方を組み合わせる手法も考えられる。
 (8)実施の形態の、特有特徴量算出部16は、画像の中央にある一致点の特徴量は正標本として学習し、画像の周辺にある一致点の特徴量は負標本として学習する例を説明した(図7のS72,S73、図8参照)がこれに限られない。画像のメタデータを利用して、正標本/負標本とする領域を決定しても構わない。
 図23(a)の例では、画像Aのメタデータに含まれるフォーカスエリアの情報を利用して、画像Aのフォーカスエリア231を正標本とする領域とし、それ以外を負標本とする領域としている。
 図23(b)の例では、画像Bのメタデータに含まれる被写界深度に関する情報を利用して、画像Bでピントが合っている領域232を正標本とする領域とし、それ以外を負標本とする領域としている。なお、被写界深度に関する情報の例としては、絞り値、焦点距離および撮影距離(被写体とカメラの間の距離)などが挙げられる。また、撮影機器が3Dカメラの場合には、左画像と右画像との視差から画素単位で被写界深度を求めることも考えられる。
 図23(c)の例では、画像Xに対してズームインされた画像Cにおいて、ズームインの中心点を中心にした領域233を正標本とする領域とし、それ以外を負標本とする領域としている。これは撮影者がズームインの中心点を注目したと推定されるからである。
 なお、ズームインの有無や中心点の判定手法としては、例えば、画像Cのメタデータとしてズームインの有無やズームの中心点を示す情報があればそれを利用してもよいし、また、画像Cのメタデータに含まれるデジタルズーム比率と、画像X(撮影時刻が画像Cの直前の画像である。)のメタデータに含まれるデジタルズーム比率との両者を比較してズームインを判定してもよい。
 図23(d)の例では、画像Yに対してズームアウトされた画像Dにおいて、ズームアウトの中心点を中心にした領域234を負標本とする領域とし、それ以外の領域235を正標本とする領域としている。これは、撮影者がそれまで写っていた領域の周囲を注目したと推定されるからである。なお、ズームアウトの有無や中心点の判定手法はズームインと同様の手法を用いることができる。
 これら正標本とする領域(主エリア)を用いた場合の、特有特徴量算出部16における処理の流れについて、図24を用いて説明する。
 図7と同様のマッチング処理(S71)後、特有特徴量算出部16は、選択画像のメタデータと、必要に応じて関連画像のメタデータとから、選択画像の主エリアを決定する(S241)。
 そして、特有特徴量算出部16は、画像の主エリアにある一致点の特徴量は正標本として学習し(S242)、これに対して、画像の主エリア以外の領域にある一致点の特徴量は負標本として学習する(S243)。
 以上のように、画像のメタデータを手がかりに正標本/負標本とする領域を決定することで、撮影者の意図に沿う結果を得ることを図ることができる。
 (9)実施の形態で説明したモデルデータを用いた画像分類の手法は、複数の装置が連携してなる、クラウドベースのサービスとして提供することも可能である。
 図25の例では、クラウドベースなサーバ250は、AV機器260、パーソナルコンピュータ261、携帯デバイス262、デジタルカメラ263などのユーザ装置とネットワークを介してデータの送受信が可能であり、これらユーザ装置からデータを取得してモデルデータの作成や画像の分類を行う機能を有する。
 クラウドベースなサーバ250は、画像分類装置1(図1参照)と基本的には同様な機能ブロックを備えている。異なる部分を説明すると、ユーザ装置から画像などのデータを取得する取得部251、画像などのデータを蓄積するデータ蓄積部252、選択受付部12および関連画像特定部22を含み選択画像および関連画像を特定する特定部253、特徴量情報抽出部14および特徴量情報抽出部16を含み選択画像および関連画像から特徴量を抽出する抽出部254を備える。
 サーバ250において、実施の形態で説明した主要な処理をすべて行うとしてもよいが、処理の分担については以下のような観点からいくつかのバリエーションが考えられる。ユーザ装置としてデジタルカメラ263を取り上げて説明する。
 演算処理負荷の観点から・・・デジタルカメラ263はサーバ250と比べると高速演算処理に不向きであるものの、比較的軽い処理ならば負わせても構わないこともある。例えば、特徴量情報の抽出に関する負荷の軽い処理をデジタルカメラ263に担当させ、負荷の重い処理をサーバ250に負わせてもよい。
 ストレージ容量・利用場面の観点から・・・デジタルカメラ263のストレージ容量はサーバ250と比べる少ない場合が考えられる(この反対の場合もあり得る)。このため、比較的サイズが大きくなりがちなデータ(例えば、画像のオリジナルのデータ)はサーバ250上に蓄積させ、サイズが小さいデータ(例えば、画像のサムネイルやモデルデータ)はデジタルカメラ263に蓄積されることが考えられる。また、デジタルカメラ263において頻繁に利用するであろうデータは、ローカルに蓄積させておく態様も考えられる。
 回線容量の観点から・・・デジタルカメラ263とサーバ250との間を結ぶ回線速度が十分でない場合もある。このため、デジタルカメラ263からサーバ250へと画像データを送る際には、予めデジタルカメラ263において、解像度を落としたり、使用可能性の低いメタデータを削除したりして画像のサイズを削減した後で送ることが考えられる。
 <補足2>
 本実施の形態は、以下の態様を含むものである。
(1)モデルデータを用いて画像を分類する画像分類装置であって、蓄積された複数の画像の中から、画像の選択をユーザから受け付ける受付手段と、受け付けた画像それぞれの第1特徴量を抽出する第1抽出手段と、前記受け付けた画像毎に、前記複数の画像の中から関連する関連画像を特定する特定手段と、特定された関連画像それぞれの第2特徴量を抽出する第2抽出手段と、抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出する算出手段と、算出された第3特徴量に基づいてモデルデータを作成するモデル作成手段と、を備えることを特徴とする画像分類装置。
(2)前記算出手段は、受け付けた画像毎に、当該画像の前記第1特徴量と当該画像の関連画像の第2特徴量とを照合することにより、前記第3特徴量を算出するとしても構わない。
(3)前記第1抽出手段が抽出する前記第1特徴量および前記第2抽出手段が抽出する前記第2特徴量は、抽出対象とする画像内の複数の領域各々についての特徴量であるとしても構わない。
(4)前記算出手段は、前記照合に際して、
 画像内の中央の領域に対応する第1特徴量と第2特徴量とが一致していれば、受け付けた画像の一致点における第1特徴量の重み付けを高くし、画像内の前記中央の領域でない領域に対応する第1特徴量と第2特徴量とが一致していれば、受け付けた画像の不一致点における第1特徴量の重み付けを低くして前記第3特徴量を算出するとしても構わない。
(5)前記局所特徴量は、キーポイント記述子、エッジ特徴量および特定物体認識を示す情報の少なくともひとつを表す量であるとしても構わない。
(6)前記算出手段は、前記受け付けた画像および前記関連画像それぞれに付加されたメタデータに基づいて、受け付けた画像における主エリアを決定し、前記照合に際して、決定された主エリアに対応する第1特徴量と第2特徴量とが一致していれば、受け付けた画像の一致点における第1特徴量の重み付けを高くし、画像内の前記主エリアではない領域に対応する第1特徴量と第2特徴量とが一致していれば、受け付けた画像の不一致点における第1特徴量の重み付けを低くして前記第3特徴量を算出するとしても構わない。
(7)前記局所特徴量は、カラーヒストグラムであり、前記算出手段は、前記照合に先立って、前記受け付けた画像毎に、画像の色分布と当該画像の関連画像の色分布とを比較し、比較の結果、色分布が不一致である関連画像の領域に対応する第2特徴量については、前記照合の対象から除外するとしても構わない。
(8)前記第1抽出手段および前記第2抽出手段は、抽出に先立って、それぞれ前記受け付けた画像および前記関連画像を複数の領域に分割し、分割した領域各々から前記第1特徴量または第2特徴量を抽出し、前記算出手段による前記照合は、分割した領域単位で行うとしても構わない。
(9)前記特定手段は、前記受け付けた画像毎に、同じイベントに属する画像群を前記関連画像として特定するとしても構わない。
(10)前記特定手段は、前記受け付けた画像毎に、同じ撮影パターンに属する画像群を前記関連画像として特定するとしても構わない。
(11)前記複数の画像を構成する画像毎の特徴量を基に、標準的な特徴量を計算する計算手段と、計算された標準的な特徴量を用いて、第1抽出手段により抽出された第1特徴量それぞれの標準性の高低を判定する判定手段とを備え、前記算出手段は、標準性が低い第1特徴量については重み付けを高くし、かつ、標準性が高い第1特徴量については重み付けを低くすることにより前記第3特徴量を算出するとしても構わない。
(12)前記計算手段は、前記全画像毎の特徴量を、分類器を用いて一定の類似性を持つ特徴群に分類し、その特徴群内の特徴量数が一定数または一定頻度以上で存在している特徴量を前記標準的な特徴量とみなすとしても構わない。
(13)前記計算手段は、前記全画像毎の特徴量を、各画像のイベント単位で特徴群に分類し、その特徴群内の特徴量数が一定数または一定頻度以上で存在している特徴量を用いて、前記標準的な特徴量を計算するとしても構わない。
(14)前記イベントとは、非撮影時の時間間隔、一定時間内の撮影頻度、一定時間内の登場人物数、一定時間内の物体数、一定時間内の登場人物、一定時間内の物体の頻度、のうちの少なくとも1つに基づいて規定されたものであるか、撮影時のカメラパラメータ、撮影場所の地理情報、遷移情報、画像の構図情報、画像内における特徴量の出現位置に関する情報、のうちの少なくとも1つに基づいて規定されたものであるとしても構わない。
(15)作成されたモデルデータへの適合性を判定することにより、前記複数の画像を分類する分類手段と、モデルデータの識別子と、当該モデルデータに適合する画像群を表示する表示手段と、表示された画像群について、モデルデータの修正に関する内容を受け付ける修正受付手段とを備え、前記モデル作成手段は、前記受付手段が受け付けた内容に基づき、前記作成したモデルデータを更新するとしても構わない。
(16)モデルデータを用いて画像を分類する画像分類方法であって、
 蓄積された複数の画像の中から、画像の選択をユーザから受け付ける受付ステップと、受け付けた画像それぞれの第1特徴量を抽出する第1抽出ステップと、前記受け付けた画像毎に、前記複数の画像の中から関連する関連画像を特定する特定ステップと、特定された関連画像それぞれの第2特徴量を抽出する第2抽出ステップと、抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出する算出ステップと、算出された第3特徴量に基づいてモデルデータを作成するモデル作成ステップと、を含む画像分類方法
(17)画像分類処理を画像分類装置に実行させるプログラムであって、前記画像分類処理は、蓄積された複数の画像の中から、画像の選択をユーザから受け付ける受付ステップと、受け付けた画像それぞれの第1特徴量を抽出する第1抽出ステップと、前記受け付けた画像毎に、前記複数の画像の中から関連する関連画像を特定する特定ステップと、特定された関連画像それぞれの第2特徴量を抽出する第2抽出ステップと、抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出する算出ステップと、算出された第3特徴量に基づいてモデルデータを作成するモデル作成ステップの各ステップを含むことを特徴とするプログラム。
(18)画像分類装置に画像分類処理を実行させるプログラムを記録した記録媒体であって、前記画像分類処理は、蓄積された複数の画像の中から、画像の選択をユーザから受け付ける受付ステップと、受け付けた画像それぞれの第1特徴量を抽出する第1抽出ステップと、前記受け付けた画像毎に、前記複数の画像の中から関連する関連画像を特定する特定ステップと、特定された関連画像それぞれの第2特徴量を抽出する第2抽出ステップと、抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出する算出ステップと、算出された第3特徴量に基づいてモデルデータを作成するモデル作成ステップの各ステップを含むことを特徴とする記録媒体
(19)モデルデータを用いて画像を分類する集積回路であって、蓄積された複数の画像の中から、画像の選択をユーザから受け付ける受付手段と、受け付けた画像それぞれの第1特徴量を抽出する第1抽出手段と、前記受け付けた画像毎に、前記複数の画像の中から関連する関連画像を特定する特定手段と、特定された関連画像それぞれの第2特徴量を抽出する第2抽出手段と、抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出する算出手段と、算出された第3特徴量に基づいてモデルデータを作成するモデル作成手段と、を備えることを特徴とする集積回路
(20)蓄積された複数の画像の中から、画像の選択をユーザから受け付ける受付手段と、受け付けた画像それぞれの第1特徴量を抽出する第1抽出手段と、前記受け付けた画像毎に、前記複数の画像の中から関連する関連画像を特定する特定手段と、特定された関連画像それぞれの第2特徴量を抽出する第2抽出手段と、抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像に特有な特徴を示す第3特徴量を算出する算出手段と、算出された第3特徴量に基づいてモデルデータを作成するモデル作成手段と、を備えることを特徴とするモデル作成装置。
(21)クラウドベースなサーバにおいて、モデルデータを用いた画像の分類をする画像分類方法であって、サーバにおいて、ユーザ装置から画像を取得する取得ステップと、サーバにおいて、取得した画像を蓄積する蓄積ステップと、サーバにおいて、蓄積された画像の中から、一の画像と前記一の画像に関連する関連画像を特定する特定ステップと、サーバにおいて、前記一の画像の第1特徴量を抽出し、前記関連画像それぞれの第2特徴量を抽出する抽出ステップと、サーバにおいて、抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出する算出ステップと、サーバにおいて、算出された第3特徴量に基づいてモデルデータを作成するモデルステップと、サーバにおいて、蓄積された画像を、作成されたモデルデータを用いて分類する分類ステップとを含むことを特徴とする画像分類方法。
 本実施の形態に係る画像分類装置は、ユーザが選択した登録対象を含む画像群が少ない場合であっても、その画像群に関連する情報をユーザのローカルデータから抽出しローカルデータ内で標準的に存在する特徴を判別することによって、ローカルデータ内で登録対象に対して分類性能の高いモデルデータとすることができるため、ユーザの好みの対象を簡単に登録し効率的に登録対象を含む画像群を抽出することが可能となる。つまり、ユーザの少ない操作でもローカルデータ内において特に分類性能が高いモデルデータを生成することが可能となり、各ユーザにとって好みの対象を含む画像群を精度良く抽出することができるため、各ユーザが効率的に好みの画像を扱う事ができる。
 例えば、画像の整理や検索をする際に、ユーザが好きな対象を簡単に登録することができ、その登録対象を含む画像群を自動的に妥当な精度で抽出することができることによって、効率的に好きな対象を含む画像群を抽出できるため、様々な画像処理端末機に有用である。また、DVDレコーダーやTVやデータサーバー等の用途にも応用できる。さらには、画像分類用途のソフトウェアとして提供することもできる。
1,2,3,4 画像分類装置
5 モデル作成装置
10 ローカルデータ蓄積部
12 選択受付部
13 修正受付部
14 特徴量情報抽出部(第1抽出部)
16 特有特徴量算出部
22 関連画像特定部
24 特徴量情報抽出部(第2抽出部)
30 モデル学習部
32 モデル蓄積部
34 分類部
36 画像表示部
250 サーバ

Claims (21)

  1.  モデルデータを用いて画像を分類する画像分類装置であって、
     蓄積された複数の画像の中から、画像の選択をユーザから受け付ける受付手段と、
     受け付けた画像それぞれの第1特徴量を抽出する第1抽出手段と、
     前記受け付けた画像毎に、前記複数の画像の中から関連する関連画像を特定する特定手段と、
     特定された関連画像それぞれの第2特徴量を抽出する第2抽出手段と、
     抽出された第1特徴量およ  び第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出する算出手段と、
     算出された第3特徴量に基づいてモデルデータを作成するモデル作成手段と、
    を備えることを特徴とする画像分類装置。
  2.  前記算出手段は、受け付けた画像毎に、当該画像の前記第1特徴量と当該画像の関連画像の第2特徴量とを照合することにより、前記第3特徴量を算出する
    ことを特徴とする請求項1に記載の画像分類装置。
  3.  前記第1抽出手段が抽出する前記第1特徴量および前記第2抽出手段が抽出する前記第2特徴量は、抽出対象とする画像内の複数の領域各々についての特徴量である
    ことを特徴とする請求項2に記載の画像分類装置。
  4.  前記算出手段は、前記照合に際して、
     画像内の中央の領域に対応する第1特徴量と第2特徴量とが一致していれば、受け付けた画像の一致点における第1特徴量の重み付けを高くし、
     画像内の前記中央の領域でない領域に対応する第1特徴量と第2特徴量とが一致していれば、受け付けた画像の不一致点における第1特徴量の重み付けを低くして前記第3特徴量を算出する
    ことを特徴とする請求項3に記載の画像分類装置。
  5.  前記局所特徴量は、キーポイント記述子、エッジ特徴量および特定物体認識を示す情報の少なくともひとつを表す量である
    ことを特徴とする請求項3に記載の画像分類装置。
  6.  前記算出手段は、前記受け付けた画像および前記関連画像それぞれに付加されたメタデータに基づいて、受け付けた画像における主エリアを決定し、
     前記照合に際して、決定された主エリアに対応する第1特徴量と第2特徴量とが一致していれば、受け付けた画像の一致点における第1特徴量の重み付けを高くし、
     画像内の前記主エリアではない領域に対応する第1特徴量と第2特徴量とが一致していれば、受け付けた画像の不一致点における第1特徴量の重み付けを低くして前記第3特徴量を算出する
    ことを特徴とする請求項3に記載の画像分類装置。
  7.  前記局所特徴量は、カラーヒストグラムであり、
     前記算出手段は、前記照合に先立って、前記受け付けた画像毎に、画像の色分布と当該画像の関連画像の色分布とを比較し、比較の結果、色分布が不一致である関連画像の領域に対応する第2特徴量については、前記照合の対象から除外する
    ことを特徴とする請求項3に記載の画像分類装置。
  8.  前記第1抽出手段および前記第2抽出手段は、抽出に先立って、それぞれ前記受け付けた画像および前記関連画像を複数の領域に分割し、分割した領域各々から前記第1特徴量または第2特徴量を抽出し、
     前記算出手段による前記照合は、分割した領域単位で行う
    ことを特徴とする請求項2に記載の画像分類装置。
  9.  前記特定手段は、前記受け付けた画像毎に、同じイベントに属する画像群を前記関連画像として特定する
    ことを特徴とする請求項1に記載の画像分類装置。
  10.  前記特定手段は、前記受け付けた画像毎に、同じ撮影パターンに属する画像群を前記関連画像として特定する
    ことを特徴とする請求項1に記載の画像分類装置。
  11.  前記複数の画像を構成する画像毎の特徴量を基に、標準的な特徴量を計算する計算手段と、
     計算された標準的な特徴量を用いて、第1抽出手段により抽出された第1特徴量それぞれの標準性の高低を判定する判定手段とを備え、
     前記算出手段は、
      標準性が低い第1特徴量については重み付けを高くし、かつ、
      標準性が高い第1特徴量については重み付けを低くすることにより前記第3特徴量を算出する
    ことを特徴とする請求項1に記載の画像分類装置。
  12.  前記計算手段は、前記全画像毎の特徴量を、分類器を用いて一定の類似性を持つ特徴群に分類し、その特徴群内の特徴量数が一定数または一定頻度以上で存在している特徴量を前記標準的な特徴量とみなす
     ことを特徴とする請求項11に記載の画像分類装置。
  13.  前記計算手段は、前記全画像毎の特徴量を、各画像のイベント単位で特徴群に分類し、その特徴群内の特徴量数が一定数または一定頻度以上で存在している特徴量を用いて、前記標準的な特徴量を計算する
     ことを特徴とする請求項11に記載の画像分類装置。
  14.  前記イベントとは、
     非撮影時の時間間隔、一定時間内の撮影頻度、一定時間内の登場人物数、一定時間内の物体数、一定時間内の登場人物、一定時間内の物体の頻度、のうちの少なくとも1つに基づいて規定されたものであるか、
     撮影時のカメラパラメータ、撮影場所の地理情報、遷移情報、画像の構図情報、画像内における特徴量の出現位置に関する情報、のうちの少なくとも1つに基づいて規定されたものである
    ことを特徴とする請求項13に記載の画像分類装置。
  15.  作成されたモデルデータへの適合性を判定することにより、前記複数の画像を分類する分類手段と、
     モデルデータの識別子と、当該モデルデータに適合する画像群を表示する表示手段と、
     表示された画像群について、モデルデータの修正に関する内容を受け付ける修正受付手段とを備え、
     前記モデル作成手段は、前記受付手段が受け付けた内容に基づき、前記作成したモデルデータを更新する
    ことを特徴とする請求項1に記載の画像分類装置。
  16.  モデルデータを用いて画像を分類する画像分類方法であって、
     蓄積された複数の画像の中から、画像の選択をユーザから受け付ける受付ステップと、
     受け付けた画像それぞれの第1特徴量を抽出する第1抽出ステップと、
     前記受け付けた画像毎に、前記複数の画像の中から関連する関連画像を特定する特定ステップと、
     特定された関連画像それぞれの第2特徴量を抽出する第2抽出ステップと、
     抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出する算出ステップと、
     算出された第3特徴量に基づいてモデルデータを作成するモデル作成ステップと、
    を含む画像分類方法。
  17.  画像分類処理を画像分類装置に実行させるプログラムであって、
     前記画像分類処理は、
      蓄積された複数の画像の中から、画像の選択をユーザから受け付ける受付ステップと、
      受け付けた画像それぞれの第1特徴量を抽出する第1抽出ステップと、
      前記受け付けた画像毎に、前記複数の画像の中から関連する関連画像を特定する特定ステップと、
      特定された関連画像それぞれの第2特徴量を抽出する第2抽出ステップと、
      抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出する算出ステップと、
      算出された第3特徴量に基づいてモデルデータを作成するモデル作成ステップの各ステップを含むことを特徴とするプログラム。
  18.  画像分類装置に画像分類処理を実行させるプログラムを記録した記録媒体であって、
     前記画像分類処理は、
      蓄積された複数の画像の中から、画像の選択をユーザから受け付ける受付ステップと、
      受け付けた画像それぞれの第1特徴量を抽出する第1抽出ステップと、
      前記受け付けた画像毎に、前記複数の画像の中から関連する関連画像を特定する特定ステップと、
      特定された関連画像それぞれの第2特徴量を抽出する第2抽出ステップと、
      抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出する算出ステップと、
      算出された第3特徴量に基づいてモデルデータを作成するモデル作成ステップの各ステップを含むことを特徴とする記録媒体。
  19.  モデルデータを用いて画像を分類する集積回路であって、
     蓄積された複数の画像の中から、画像の選択をユーザから受け付ける受付手段と、
     受け付けた画像それぞれの第1特徴量を抽出する第1抽出手段と、
     前記受け付けた画像毎に、前記複数の画像の中から関連する関連画像を特定する特定手段と、
     特定された関連画像それぞれの第2特徴量を抽出する第2抽出手段と、
     抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出する算出手段と、
     算出された第3特徴量に基づいてモデルデータを作成するモデル作成手段と、
    を備えることを特徴とする集積回路。
  20.  蓄積された複数の画像の中から、画像の選択をユーザから受け付ける受付手段と、
     受け付けた画像それぞれの第1特徴量を抽出する第1抽出手段と、
     前記受け付けた画像毎に、前記複数の画像の中から関連する関連画像を特定する特定手段と、
     特定された関連画像それぞれの第2特徴量を抽出する第2抽出手段と、
     抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像に特有な特徴を示す第3特徴量を算出する算出手段と、
     算出された第3特徴量に基づいてモデルデータを作成するモデル作成手段と、
    を備えることを特徴とするモデル作成装置。
  21.  クラウドベースなサーバにおいて、モデルデータを用いた画像の分類をする画像分類方法であって、
     サーバにおいて、ユーザ装置から画像を取得する取得ステップと、
     サーバにおいて、取得した画像を蓄積する蓄積ステップと、
     サーバにおいて、蓄積された画像の中から、一の画像と前記一の画像に関連する関連画像を特定する特定ステップと、
     サーバにおいて、前記一の画像の第1特徴量を抽出し、前記関連画像それぞれの第2特徴量を抽出する抽出ステップと、
     サーバにおいて、抽出された第1特徴量および第2特徴量の局所性に基づいて、受け付けた画像の対象物に特有な特徴を示す第3特徴量を算出する算出ステップと、
     サーバにおいて、算出された第3特徴量に基づいてモデルデータを作成するモデルステップと、
     サーバにおいて、蓄積された画像を、作成されたモデルデータを用いて分類する分類ステップ
    とを含むことを特徴とする画像分類方法。
PCT/JP2011/005639 2010-11-29 2011-10-06 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置 WO2012073421A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201180007696.5A CN102741882B (zh) 2010-11-29 2011-10-06 图像分类装置、图像分类方法、集成电路、模型制作装置
US13/574,878 US8953895B2 (en) 2010-11-29 2011-10-06 Image classification apparatus, image classification method, program, recording medium, integrated circuit, and model creation apparatus
JP2012546673A JP5934653B2 (ja) 2010-11-29 2011-10-06 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010265625 2010-11-29
JP2010-265625 2010-11-29

Publications (1)

Publication Number Publication Date
WO2012073421A1 true WO2012073421A1 (ja) 2012-06-07

Family

ID=46171398

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/005639 WO2012073421A1 (ja) 2010-11-29 2011-10-06 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置

Country Status (4)

Country Link
US (1) US8953895B2 (ja)
JP (1) JP5934653B2 (ja)
CN (1) CN102741882B (ja)
WO (1) WO2012073421A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014022837A (ja) * 2012-07-13 2014-02-03 Nippon Hoso Kyokai <Nhk> 学習装置、及びプログラム
WO2016075978A1 (ja) * 2014-11-12 2016-05-19 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
WO2017060894A1 (en) * 2015-10-06 2017-04-13 Agent Video Intelligence Ltd. Method and system for classifying objects from a stream of images
JP2018005500A (ja) * 2016-06-30 2018-01-11 オムロン株式会社 画像処理システム、画像処理方法、および画像処理プログラム
JP2019067076A (ja) * 2017-09-29 2019-04-25 劉謹銘 多重画像源の処理方法
WO2019218459A1 (zh) * 2018-05-14 2019-11-21 平安科技(深圳)有限公司 一种照片存储方法、存储介质、服务器和装置
WO2020045598A1 (ja) * 2018-08-31 2020-03-05 ソニーセミコンダクタソリューションズ株式会社 電子機器及び固体撮像装置
JPWO2020194961A1 (ja) * 2019-03-28 2020-10-01
JP2021528715A (ja) * 2019-05-15 2021-10-21 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co.,Ltd 画像処理方法及び装置、電子機器並びに記憶媒体
WO2023058155A1 (ja) * 2021-10-06 2023-04-13 日本電気株式会社 運転手監視装置、運転手監視方法及びプログラム

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5771442B2 (ja) * 2011-05-09 2015-08-26 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
TWI534721B (zh) * 2011-10-19 2016-05-21 致伸科技股份有限公司 具有人臉辨識功能之相片分享系統
US9305084B1 (en) 2012-08-30 2016-04-05 deviantArt, Inc. Tag selection, clustering, and recommendation for content hosting services
US8849050B2 (en) * 2012-11-08 2014-09-30 Seiko Epson Corporation Computer vision methods and systems to recognize and locate an object or objects in one or more images
US8867865B2 (en) * 2012-11-14 2014-10-21 Seiko Epson Corporation Point set matching with outlier detection
CN103034868B (zh) * 2012-11-29 2015-07-08 中国地质大学(武汉) 一种针对小样本以及高维图像的分类方法
CN103870798B (zh) * 2012-12-18 2017-05-24 佳能株式会社 对象检测方法、对象检测设备以及图像拾取设备
US20140193077A1 (en) * 2013-01-08 2014-07-10 Canon Kabushiki Kaisha Image retrieval apparatus, image retrieval method, query image providing apparatus, query image providing method, and program
CN104253825B (zh) * 2013-06-25 2018-04-13 腾讯科技(深圳)有限公司 网络数据浏览方法和装置
CN104349045B (zh) * 2013-08-09 2019-01-15 联想(北京)有限公司 一种图像采集方法及电子设备
KR102203810B1 (ko) 2013-10-01 2021-01-15 삼성전자주식회사 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법
US10371561B2 (en) * 2013-11-01 2019-08-06 Iowa State University Research Foundation, Inc. Yield measurement and base cutter height control systems for a harvester
US9544655B2 (en) * 2013-12-13 2017-01-10 Nant Holdings Ip, Llc Visual hash tags via trending recognition activities, systems and methods
CN104915344B (zh) * 2014-03-10 2019-04-26 联想(北京)有限公司 一种信息处理方法及电子设备
EP3118813B1 (en) * 2014-03-14 2021-06-02 Omron Corporation Image recognition device, image sensor, and image recognition method
JP6532190B2 (ja) * 2014-03-26 2019-06-19 キヤノン株式会社 画像検索装置、画像検索方法
US10268886B2 (en) 2015-03-11 2019-04-23 Microsoft Technology Licensing, Llc Context-awareness through biased on-device image classifiers
US10055672B2 (en) 2015-03-11 2018-08-21 Microsoft Technology Licensing, Llc Methods and systems for low-energy image classification
CA2930190C (en) * 2015-05-16 2019-09-24 Tata Consultancy Services Limited Method and system for planogram compliance check based on visual analysis
CN105117399B (zh) * 2015-07-03 2020-01-03 深圳码隆科技有限公司 一种图像搜索方法和装置
JP6631712B2 (ja) * 2015-08-28 2020-01-15 日本電気株式会社 解析装置、解析方法、及びプログラム
CN105205181A (zh) * 2015-10-28 2015-12-30 上海斐讯数据通信技术有限公司 一种照片管理方法及管理系统
JP2017130794A (ja) * 2016-01-20 2017-07-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、評価用チャート、評価システム、および性能評価方法
JP6798183B2 (ja) * 2016-08-04 2020-12-09 株式会社リコー 画像解析装置、画像解析方法およびプログラム
CN106503741A (zh) * 2016-10-31 2017-03-15 深圳前海弘稼科技有限公司 植物种类的识别方法、识别装置和服务器
US10311288B1 (en) 2017-03-24 2019-06-04 Stripe, Inc. Determining identity of a person in a digital image
JP6726641B2 (ja) * 2017-05-26 2020-07-22 日東電工株式会社 画像分類プログラム、分類データ作成プログラム、及び、分類データ作成方法
EP3647236B1 (en) * 2017-06-30 2023-07-05 Panasonic Intellectual Property Management Co., Ltd. Projection instruction device, parcel sorting system, and projection instruction method
CN107609463B (zh) * 2017-07-20 2021-11-23 百度在线网络技术(北京)有限公司 活体检测方法、装置、设备及存储介质
US10289932B2 (en) 2017-07-31 2019-05-14 Google Llc Object recognition state indicators
JP7032623B2 (ja) * 2017-10-31 2022-03-09 株式会社デンソー 推論装置、推論方法及びプログラム
KR102499203B1 (ko) 2017-11-06 2023-02-13 삼성전자 주식회사 신뢰도에 기반하여 객체를 인식하는 전자 장치 및 방법
US11182424B2 (en) 2018-05-08 2021-11-23 Spotify Ab Image based content search and recommendations
EP3753241A1 (en) 2018-10-09 2020-12-23 Google LLC System and method for performing a rewind operation with a mobile image capture device
WO2020095909A1 (ja) * 2018-11-07 2020-05-14 株式会社 東芝 画像処理装置、画像処理方法及びプログラム
CN109992568B (zh) * 2019-03-31 2021-07-16 联想(北京)有限公司 一种信息处理方法及装置
US11263493B2 (en) 2019-06-25 2022-03-01 Spotify Ab Automatic metadata detector based on images
WO2021033021A1 (en) * 2019-08-19 2021-02-25 Atul Kailash Shrivastava System and method for associating identifiers to real-world objects
CN110874584B (zh) * 2019-11-21 2021-08-31 河北工业大学 一种基于改进原型聚类的叶片故障诊断方法
US11100319B2 (en) * 2020-01-27 2021-08-24 Salesforce.Com, Inc. Object detection and image classification based optical character recognition
US11868393B2 (en) 2020-12-18 2024-01-09 Capital One Services, Llc Methods and systems for determining color labeling for a vehicle search service
US11631252B1 (en) * 2022-01-03 2023-04-18 Brian Lawrence Repper Visual media management for mobile devices
WO2024196058A1 (ko) * 2023-03-23 2024-09-26 에스케이 주식회사 이미지 태깅 기반의 반려동물 사진 분류 방법 및 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078939A (ja) * 2002-07-30 2004-03-11 Fuji Photo Film Co Ltd オブジェクト識別方法および装置ならびにプログラム
JP2009217828A (ja) * 2009-04-10 2009-09-24 Konica Minolta Holdings Inc 画像検索装置
WO2010087451A1 (ja) * 2009-01-29 2010-08-05 株式会社東芝 画像表示装置、画像表示方法、および画像表示プログラム
JP2010262531A (ja) * 2009-05-08 2010-11-18 Canon Inc 画像情報処理装置、画像情報処理方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7620246B2 (en) 2002-07-30 2009-11-17 Fujifilm Corporation Method and apparatus for image processing
US20050234896A1 (en) * 2004-04-16 2005-10-20 Nobuyuki Shima Image retrieving apparatus, image retrieving method and image retrieving program
CN100416596C (zh) * 2006-10-12 2008-09-03 上海交通大学 用贝叶斯网络分类器图像判别特征点位置的方法
JP4798042B2 (ja) 2007-03-29 2011-10-19 オムロン株式会社 顔検出装置、顔検出方法及び顔検出プログラム
CN101295305B (zh) 2007-04-25 2012-10-31 富士通株式会社 图像检索装置
JP2009031991A (ja) 2007-07-26 2009-02-12 Omron Corp 顔照合装置
US7991715B2 (en) * 2007-12-27 2011-08-02 Arbor Labs, Inc. System and method for image classification
JP2010067014A (ja) 2008-09-11 2010-03-25 Ricoh Co Ltd 画像分類装置及び画像分類方法
GB0818089D0 (en) * 2008-10-03 2008-11-05 Eastman Kodak Co Interactive image selection method
WO2010070804A1 (ja) * 2008-12-19 2010-06-24 パナソニック株式会社 画像検索装置及び画像検索方法
CN101625722B (zh) * 2009-08-11 2012-01-11 中国农业大学 载物识别图像的分类方法
US8732180B2 (en) * 2009-11-12 2014-05-20 Apple Inc. Recommending media items

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078939A (ja) * 2002-07-30 2004-03-11 Fuji Photo Film Co Ltd オブジェクト識別方法および装置ならびにプログラム
WO2010087451A1 (ja) * 2009-01-29 2010-08-05 株式会社東芝 画像表示装置、画像表示方法、および画像表示プログラム
JP2009217828A (ja) * 2009-04-10 2009-09-24 Konica Minolta Holdings Inc 画像検索装置
JP2010262531A (ja) * 2009-05-08 2010-11-18 Canon Inc 画像情報処理装置、画像情報処理方法及びプログラム

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014022837A (ja) * 2012-07-13 2014-02-03 Nippon Hoso Kyokai <Nhk> 学習装置、及びプログラム
WO2016075978A1 (ja) * 2014-11-12 2016-05-19 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US11189024B2 (en) 2014-11-12 2021-11-30 Sony Corporation Information processing apparatus and information processing method
WO2017060894A1 (en) * 2015-10-06 2017-04-13 Agent Video Intelligence Ltd. Method and system for classifying objects from a stream of images
JP2018005500A (ja) * 2016-06-30 2018-01-11 オムロン株式会社 画像処理システム、画像処理方法、および画像処理プログラム
JP2019067076A (ja) * 2017-09-29 2019-04-25 劉謹銘 多重画像源の処理方法
WO2019218459A1 (zh) * 2018-05-14 2019-11-21 平安科技(深圳)有限公司 一种照片存储方法、存储介质、服务器和装置
JPWO2020045598A1 (ja) * 2018-08-31 2021-09-24 ソニーセミコンダクタソリューションズ株式会社 電子機器及び固体撮像装置
WO2020045598A1 (ja) * 2018-08-31 2020-03-05 ソニーセミコンダクタソリューションズ株式会社 電子機器及び固体撮像装置
TWI820194B (zh) * 2018-08-31 2023-11-01 日商索尼半導體解決方案公司 電子機器及固體攝像裝置
JP7386792B2 (ja) 2018-08-31 2023-11-27 ソニーセミコンダクタソリューションズ株式会社 電子機器及び固体撮像装置
US11889177B2 (en) 2018-08-31 2024-01-30 Sony Semiconductor Solutions Corporation Electronic device and solid-state imaging device
JPWO2020194961A1 (ja) * 2019-03-28 2020-10-01
JP7390628B2 (ja) 2019-03-28 2023-12-04 パナソニックIpマネジメント株式会社 識別情報付与装置、識別情報付与方法、及びプログラム
JP2021528715A (ja) * 2019-05-15 2021-10-21 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co.,Ltd 画像処理方法及び装置、電子機器並びに記憶媒体
JP7128906B2 (ja) 2019-05-15 2022-08-31 シェンチェン センスタイム テクノロジー カンパニー リミテッド 画像処理方法及び装置、電子機器並びに記憶媒体
WO2023058155A1 (ja) * 2021-10-06 2023-04-13 日本電気株式会社 運転手監視装置、運転手監視方法及びプログラム

Also Published As

Publication number Publication date
US20120301032A1 (en) 2012-11-29
US8953895B2 (en) 2015-02-10
CN102741882A (zh) 2012-10-17
CN102741882B (zh) 2015-11-25
JPWO2012073421A1 (ja) 2014-05-19
JP5934653B2 (ja) 2016-06-15

Similar Documents

Publication Publication Date Title
JP5934653B2 (ja) 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置
US10025950B1 (en) Systems and methods for image recognition
CN100517328C (zh) 显示控制装置和方法
JP6023058B2 (ja) 画像処理装置、画像処理方法、プログラム、集積回路
US8571358B2 (en) Methods and apparatuses for facilitating content-based image retrieval
US9116924B2 (en) System and method for image selection using multivariate time series analysis
CN100456305C (zh) 图像处理系统、装置和方法
JP5848336B2 (ja) 画像処理装置
US20020140843A1 (en) Camera meta-data for content categorization
US8731308B2 (en) Interactive image selection method
US20140093174A1 (en) Systems and methods for image management
US20180089228A1 (en) Interactive image selection method
CN101013434A (zh) 图像处理系统、装置、方法、程序及其记录介质
CN112000024B (zh) 用于控制家电设备的方法及装置、设备
JP2014092955A (ja) 類似コンテンツ検索処理装置、類似コンテンツ検索処理方法、およびプログラム
Mao et al. Visual arts search on mobile devices
Yang et al. Segmentation and recognition of multi-model photo event
Farhat et al. CAPTAIN: Comprehensive composition assistance for photo taking
US20180189602A1 (en) Method of and system for determining and selecting media representing event diversity
JP4692784B2 (ja) 画像記述システムにおける特徴量選択プログラム、特徴量選択方法および装置
Cavalcanti et al. A survey on automatic techniques for enhancement and analysis of digital photography
JP4336813B2 (ja) 画像記述システムおよび方法
CN109992568B (zh) 一种信息处理方法及装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180007696.5

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 13574878

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11845157

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012546673

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11845157

Country of ref document: EP

Kind code of ref document: A1