JP6437902B2 - 画像抽出システム,画像抽出方法,画像抽出プログラムおよびそのプログラムを格納した記録媒体 - Google Patents

画像抽出システム,画像抽出方法,画像抽出プログラムおよびそのプログラムを格納した記録媒体 Download PDF

Info

Publication number
JP6437902B2
JP6437902B2 JP2015185106A JP2015185106A JP6437902B2 JP 6437902 B2 JP6437902 B2 JP 6437902B2 JP 2015185106 A JP2015185106 A JP 2015185106A JP 2015185106 A JP2015185106 A JP 2015185106A JP 6437902 B2 JP6437902 B2 JP 6437902B2
Authority
JP
Japan
Prior art keywords
image
annotation
images
unit
occurrence probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015185106A
Other languages
English (en)
Other versions
JP2017059124A (ja
Inventor
拓也 蔦岡
拓也 蔦岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2015185106A priority Critical patent/JP6437902B2/ja
Priority to US15/246,825 priority patent/US10296539B2/en
Publication of JP2017059124A publication Critical patent/JP2017059124A/ja
Application granted granted Critical
Publication of JP6437902B2 publication Critical patent/JP6437902B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Library & Information Science (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

この発明は,画像抽出システム,画像抽出方法,画像抽出プログラムおよびそのプログラムを格納した記録媒体に関する。
気軽に画像を撮影できるようになったことから,ユーザは多数の画像を所有していることが多い。アルバムを作成する場合には,顔の位置,被写体像の明るさ,被写体像のブレ量などの画像特徴量から,アルバムに貼付する画像が選択されることがある(特許文献1)。画像内に複数の被写体の種類と位置とを認識できるものがあるから(非特許文献1),そのようなものを利用して所望の被写体が含まれている画像を見つけ出すこともできる。また,多数の画像を整理するために,画像を分けるクラスタの数を自動的に決定するものもある(非特許文献2)。さらに,画像の特徴量を用いた画像検索(特許文献2),被写体の枚数からアルバムの自動配置を行うもの(特許文献3),カテゴリに含まれる画像枚数,カテゴリの深さから代表画像を選出するもの(特許文献4),撮影された人物の頻度が高いほど重要な画像と判断するもの(特許文献5),画像データをグループ化し,グループ化された画像の中から印刷推奨画像を選択するもの(特許文献6)などもある。
特開2015-118522号公報 特開2014-14858号公報 特開2009-223764号公報 特開2007-25876号公報 特許第5727476号 特開2006-259788号公報 Pierre Sermanet, David Eigen, Xiang Zhang, Michael Mathieu, Rob Fergus, Yann LeCun. "OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks," ICLR, 2014. Dan Pelleg, Andrew Moore, "X-means: Extending K-means with Efficient Estimation of the Number of Clusters, "Proceedings of the Seventeenth International Conference on Machine Learning, 2000.
しかしながら,多数の画像を整理することはユーザにとって面倒であり,ユーザにとって価値のある画像を,多くの画像の中から見つけ出すことは難しい。特許文献1においては見栄えのよい画像が選択されるものであり,特許文献2においては他の画像と区別するために画像特徴量を得るものであり,特許文献3においてはユーザ操作からアルバムの自動配置が行われるものであり,特許文献4においては重要度の高いカテゴリにある画像の中から画質の高いものを選択するものであり,特許文献5においては人物の頻度が高いほど重要な画像と判断しているが,いずれの場合もユーザにとって価値のある画像が見つけられるとは限らない。いずれにしても,特許文献1から特許文献5,非特許文献1および2のいずれにおいても,ユーザにとって価値のある画像が見つけ出されないことがある。
この発明は,ユーザにとって価値のある画像を見つけ出すことを目的とする。
この発明による画像抽出システムは,複数の画像から,各画像に存在する被写体および各画像のシーンの少なくとも一方を特定する情報であるアノテーションを取得するアノテーション取得部,アノテーション取得部によって取得した画像のアノテーションから,複数の画像における各画像の被写体およびシーンの少なくとも一方の出現頻度を示す画像共起確率を算出する画像共起確率算出部,ならびに画像共起確率がしきい値以下の画像を,複数の画像から抽出する第1の画像抽出部を備えていることを特徴とする。
この発明は,画像抽出システムに適した画像抽出方法も提供している。すなわち,この方法は,アノテーション取得部が,複数の画像から,各画像に存在する被写体および各画像のシーンの少なくとも一方を特定する情報であるアノテーションを取得し,画像共起確率算出部が,アノテーション取得部によって取得した画像のアノテーションから,複数の画像における各画像の被写体およびシーンの少なくとも一方の出現頻度を示す画像共起確率を算出し,画像抽出部が,画像共起確率がしきい値以下の画像を,複数の画像から抽出するものである。
この発明は,画像抽出システムのコンピュータを制御するコンピュータが読取可能なプログラムおよびそのプログラムを格納した記録媒体も提供している。
アノテーション取得部によって取得した画像のアノテーションから,複数の画像における各アノテーションの出現確率を算出する第1のアノテーション出現確率算出部をさらに備えてもよい。この場合,画像共起確率算出部は,たとえば,各画像に付されたアノテーションに対応するアノテーション出現確率を,各画像の画像共起確率とする。
アノテーション取得部によって取得した画像のアノテーションから,複数の画像の各画像におけるアノテーションの出現確率を算出する第2のアノテーション出現確率算出部,第2のアノテーション出現確率算出部によって算出された出現確率を,アノテーションごとに,複数の画像について平均化して平均出現確率を算出する平均出現確率算出部,および平均出現確率算出部によって算出された平均出現確率と第2のアノテーション出現確率算出部によって算出された出現確率とから各画像と複数の画像の平均画像との差異を画像共起確率として出力する共起確率出力部をさらに備えてもよい。
画像共起確率算出部は,たとえば,各画像の各アノテーション出現確率の積を画像共起確率とする。
アノテーション取得部が取得したアノテーションによって特定される被写体の面積が一定の大きさ以下の場合に,一定の大きさ以下の被写体を特定するアノテーションを無効とするアノテーション無効部をさらに備えてもよい。
画像共起確率算出部によって算出された画像共起確率が低いほど高い画像評価値とする画像評価部をさらに備えてもよい。
複数の画像の各画像について,画質評価値を取得する画質評価値取得部,および画質評価値取得部により取得された画質評価値が低いほど,画像評価部によって評価された画像評価値を低く補正する画像評価値補正部をさらに備えてもよい。
画像評価値補正部によって補正された画像評価値がしきい値以上の画像を,複数の画像から抽出する第2の画像抽出部をさらに備えてもよい。
複数の画像を含み,かつ複数の画像よりも多い3つ以上の画像について,アノテーション取得部による画像のアノテーションの取得,および画像共起確率算出部による画像共起確率の算出を行わせる制御部,ならびに3つ以上の画像について算出された画像共起確率と複数の画像について算出された画像共起確率とを,同じ画像について加算または積算して得られた値がしきい値以下の画像を,複数の画像の中から抽出する第3の画像抽出部をさらに備えてもよい。
この発明によると,複数の画像から,各画像に存在する被写体および各画像のシーンの少なくとも一方を特定するアノテーションが取得される。取得されたアノテーションから,複数の画像における各画像の被写体およびシーンの少なくとも一方の出現頻度を表す画像共起確率が算出される。算出された画像共起確率がしきい値以下の画像が,複数の画像から抽出される。複数の画像における各画像の被写体およびシーンの少なくとも一方の出現頻度が少ないほど,画像共起確率が低くなる。画像共起確率が低い画像ほど,複数の画像の中では珍しい画像となる。ユーザは複数の画像を撮影している時に,珍しい被写体,シーンに出会えたからこそ,珍しい被写体,シーンの画像を,あえて撮影したと考えられる。そのような画像はユーザにとって価値のあるものと考えられ,見つけ出すことができるようになる。
画像抽出システムの電気的構成を示すブロック図である。 画像抽出システムの処理手順を示すフローチャートである。 画像セットが複数のクラスタに分類された様子を示している。 複数の画像の一例である。 第1のクラスタに含まれている画像のアノテーションテーブルである。 第1のクラスタに含まれている画像のアノテーションテーブルである。 画像抽出システムの処理手順を示すフローチャートである。 第1のクラスタに含まれている画像アノテーションテーブルである。 画像抽出システムの処理手順を示すフローチャートである。 第2のクラスタに含まれている画像のアノテーションテーブルである。 第2のクラスタに含まれている画像とコサイン値およびアノテーション出現確率の平均のコサイン距離との関係を示すテーブルである。 画像抽出システムの処理手順を示すフローチャートである。 画像抽出システムの処理手順を示すフローチャートである。 第2のクラスタに含まれている画像の画像評価値テーブルである。 画像抽出システムの処理手順を示すフローチャートである。 画像抽出システムの処理手順を示すフローチャートである。 画像セットに含まれている画像のアノテーションテーブルである。 第2のクラスタに含まれている画像のアノテーションテーブルである。 第3のクラスタに含まれている画像のアノテーションテーブルである。
(第1実施例)
図1は,この発明の実施例を示すもので,画像抽出システム1の電気的構成を示すブロック図である。
画像抽出システム1の全体の動作は,CPU(セントラルプロセッシングユニット)2によって統括される。
画像抽出システム1には,抽出された画像等を表示画面に表示する表示装置3,データ等を記憶するメモリ4,およびコンパクトディスク5に記録されているデータ等にアクセスするCD(コンパクトディスク)ドライブ6が含まれている。また,画像抽出システム1には,多数の画像を表す画像ファイルが格納されているメモリカード8から画像ファイルを読み取り,かつメモリカード8に画像ファイルを記録するメモリカードリーダライタ7,および画像抽出システム1に各種コマンドを与える入力装置9も含まれている。さらに,画像抽出システム1には,ハードディスク11,ハードディスク11にアクセスするHD(ハードディスク)ドライブ10,および他のコンピュータ等と通信するための通信装置12も含まれている。
多数の画像ファイル(複数の画像ファイル)が格納されているメモリカード8が画像抽出システム1に装填され,多数の画像(画像ファイル)がメモリカードリーダライタ7によって読み取られると,その読み取られた多数の画像の中から,ユーザにとって価値があると考えられる画像が抽出される。メモリカード8に限らず,コンパクトディスク5やその他の媒体に多数の画像が格納されている場合には,その媒体に格納されている多数の画像の中から,ユーザにとって価値のある画像が抽出される。画像抽出システム1には,媒体に格納されている画像を読み取るのに適した読み取り装置が設けられることとなろう。また,インターネットなどのようなネットワークを介して多数の画像が画像抽出システム1に与えられる場合には,多数の画像が通信装置12によって受信され,受信された画像がメモリ4に与えられ,記憶される。そのようにして記憶された多数の画像の中から,ユーザにとって価値のある画像が抽出される。
コンパクトディスク5には,後述する処理を制御するための画像抽出システム1のCPU2が読取可能なプログラムが格納されている。コンパクトディスク5が画像抽出システム1に装填されることにより,コンパクトディスク5に格納されているプログラムが画像抽出システム1にインストールされる。プログラムは,インターネットのようなネットワークを介して送信されてもよい。通信装置12によってプログラムが受信され,受信されたプログラムが画像抽出システム1にインストールされる。
図2は,画像抽出システム1の処理手順を示すフローチャートである。
多数の画像が格納されているメモリカード8がユーザによって画像抽出システム1に装填されると,多数の画像がメモリカードリーダライタ7によって読み取られる。読み取られた多数の画像は,メモリ4に一時的に記憶される。この多数の画像が画像セットであり,その画像セットがCPU2によって撮影日時を用いて複数のクラスタに分類される(ステップ21)。画像ファイルのヘッダには撮影日時データが格納されており,その撮影日時データから画像の撮影日時が得られる。画像ファイルに撮影日時データが格納されていない場合には,画像解析により画像に含まれる被写体が認識され,その認識された被写体の内容にもとづいておおよその撮影時期を推定できる。必ずしも撮影日時にもとづいて分類せずとも,その他の分類手法により複数のクラスタに分類してもよい。
図3は,画像セットが複数のクラスタに分類された様子を示している。
この実施例では,画像セットから第1のクラスタC1,第2のクラスタC2および第3のクラスタC3に分類されたものとする。もちろん,画像セットから2つのクラスタまたは4つ以上のクラスタに分類してもよい。また,メモリカード8に格納されている総ての画像を画像セットとせずに,メモリカード8に格納されている多数の画像のうちの一部の画像を選択等することにより得られる画像を画像セットとしてもよい。
この実施例では,第1のクラスタC1に含まれている複数の画像の中からユーザにとって価値があるであろう画像を抽出するものとする。
図4は,第1のクラスタC1に含まれている10個の画像No.1から画像No.10を示している。
画像No.1の被写体は,人物と料理とであり,そのシーンは室内である。画像No.2から画像No.7ならびに画像No.9および画像No.10の被写体は犬である。画像No.8の被写体は人物である。シーンとは,室内,夜景,夕景などのように,その画像の背景を示す言葉,パーティ,料理,運動会などのように,その画像で起きているイベントを示す言葉などのように撮影状況などを表現する言葉をいう。
画像の被写体およびシーンについてはアノテーションとして画像ファイルのヘッダに記録されており,第1のクラスタC1に含まれる複数の画像から,各画像に存在する被写体および各画像のシーンの少なくとも一方を特定する情報であるアノテーションがCPU2(アノテーション取得部)によって取得される(図2ステップ22)。アノテーションは,必ずしも画像ファイルに格納されていなくともよく,画像に関連付けられてテーブル等に格納されていてもよい。そのような場合には,テーブルからアノテーションが読み取られる。画像から被写体認識,シーン認識などがCPU2によって行われることによりアノテーションが取得されるようにしてもよい。
図5は,第1のクラスタC1のアノテーションテーブルの一例である。
画像No.1の被写体は,人物と料理とであり,シーンは室内であるから,そのアノテーションとして,人物,料理,室内がアノテーションテーブルに格納されている。画像No.2から画像No.7ならびに画像No.9および画像No.10の被写体は犬であるから,そのアノテーションとして,犬がアノテーションテーブルに格納されている。画像No.8の被写体は人物であるから,そのアノテーションとして,人物がアノテーションテーブルに格納されている。アノテーションテーブルは,CPU2によって生成され,メモリ4に記憶される。
CPU2によってアノテーションが取得されると,取得された画像のアノテーションから,第1のクラスタC1に含まれている10個の画像(複数の画像)における各画像の被写体およびシーンの少なくとも一方の出現頻度を示す画像共起確率がCPU2(画像共起確率算出部)によって算出される(図2ステップ23)。算出された画像共起確率がCPU2によって図5に示すアノテーションテーブルに格納される。
図5を参照して,画像No.1のアノテーションは,人物,料理,室内であり,その組み合わせのアノテーションをもつ画像は,10個の画像のうち,画像No.1のみであるから,画像共起確率は1/10=0.1となる。画像No.2から画像No.7ならびに画像No.9および画像No.10のアノテーションは犬であり,そのアノテーションをもつ画像は10個の画像のうち8個の画像であるから8/10=0.8となる。画像No.8のアノテーションは人物であり,そのアノテーションをもつ画像は10個の画像のうち1個の画像であるから1/10=0.1となる。
画像共起確率が算出されると,算出された画像共起確率がしきい値以下(たとえば,0.3以下)の画像,画像No.1および画像No.8が,CPU2(第1の画像抽出部)によって,10個の画像(複数の画像)の中から抽出される(ステップ24)。抽出された画像No.1および画像No.8が表示装置3の表示画面に表示させられる。
抽出された画像No.1および画像No.8は,第1のクラスタC1の中において珍しい画像であり,被写体として犬を撮影していた場合に,被写体として特別に着目した,人物,料理といった被写体をあえて撮影したと考えられ,ユーザにとって価値のある画像が抽出されたものと考えられる。
(第2実施例)
図6は,他の実施例を示すもので,アノテーションテーブルの他の一例である。
この実施例では,画像共起確率は,画像のアノテーションから,10個の複数の画像における各アノテーションの出現確率が,CPU2(第1のアノテーション出現確率算出部)によって算出されている。画像に付されたアノテーションに対応するアノテーションの出現確率が,各画像の画像共起確率とされている。アノテーションの出現確率が第1のクラスタC1に含まれる10個の画像に付与されているアノテーションのうち,犬のアノテーションは,画像No.2から画像No.7ならびに画像No.9および画像No.10に付与されており,10個の画像のうち,8個の画像に付与されているから,犬のアノテーションの出現確率は0.8となり,その出現確率が画像No.2から画像No.7ならびに画像No.9および画像No.10の画像共起確率とされている。人物のアノテーションは,画像No.1および画像No.8に付与されているから,アノテーションの出現確率は0.2であり,画像No.8の画像共起確率は0.2とされている。画像No.1については,人物,料理,室内のアノテーションが付与されており,人物の出現確率は0.2であり,料理および室内のそれぞれのアノテーションは,10個の画像のうち,画像No.1のみに付与されているから,料理および室内のそれぞれのアノテーションは0.1となる。画像No.1のように,複数のアノテーション(人物,料理,室内)が付与されている場合には,複数のアノテーションのそれぞれのアノテーションの出現確率のうち最小のものが,そのアノテーションの出現確率となり,その画像の画像共起確率となる。画像No.1の場合であれば,料理または室内のアノテーションが,画像No.1の画像共起確率とされる。
図5に示すアノテーションテーブルにおいては,画像No.1の画像共起確率と画像No.8の画像共起確率とは同じ0.1であるが,図6に示すアノテーションテーブルにおいては,画像No.1の画像共起確率は0.1であるが,画像No.8の画像共起確率は0.2となり,画像No.2よりも画像No.1の方が,ユーザにとって価値のある画像であると判断することができる。
また,各画像における各アノテーション出現確率の積を画像共起確率とするようにしてもよい。
画像No.1の人物のアノテーションの出現は0.2であり,画像No.1の料理のアノテーションの出現確率は0.1であり,画像No.1の室内のアノテーションの出現確率は0.1であるから,それらのアノテーションの出現確率の積は0.2×0.1×0.1=0.002となる。単に人物,料理,室内のアノテーションの出現確率のうち最小の出現確率よりも差異が表れるようになる。この結果,より珍しい画像を見つけることができ,ユーザに価値のある画像として抽出することができる。
(第3実施例)
図7は,他の実施例を示すもので,画像抽出システム1の処理手順を示すフローチャートである。図7に示す処理は,図2に示す処理に対応するもので,図2に示す処理と同一処理については同一符号が付されている。図8は,第1のクラスタC1のアノテーションテーブルの一例である。
画像セットが撮影日時によって複数のクラスタC1,C2およびC3に分類され(ステップ21),クラスタに含まれる複数の画像から各画像のアノテーションがCPU2によって取得される(ステップ22)。第1のクラスタC1に含まれる画像についてのアノテーションが取得されたものとする。他のクラスタC2またはC3に含まれる画像についてのアノテーションが取得されてもよい。取得されたアノテーションからCPU2によって,複数の画像における各画像の画像共起確率が算出される(ステップ23)。
図8を参照して,画像No.1から画像No.10のアノテーションおよび画像共起確率が得られる。これらのアノテーションおよび画像共起確率は,図5に示すアノテーションテーブルに含まれる画像No.1から画像No.10のアノテーションおよび画像共起確率と同じである。もっとも図6に示したように,アノテーションの出現確率(またはアノテーションの出現確率の積)を画像共起確率としてもよい。
この実施例においては,各画像について(1−画像共起確率)がCPU2によって算出され(ステップ31),算出された(1−画像共起確率)の値がアノテーションテーブルに格納される。画像共起確率は値が低いほど,ユーザにとって価値が高いと考えられるが,(1−画像共起確率)は値が高いほど,ユーザにとって価値が高いと考えられる。(1−画像共起確率)の値が画像評価値とされる(ステップ31)。したがって,画像共起確率が低いほどCPU2(画像評価部)によって高い画像評価値とされることとなる。
つづいて,第1のクラスタC1に含まれる複数の画像No.1から画像No.10のそれぞれの画像について,CPU2によって画質評価値が算出される(ステップ32)。画質評価値は,0から1の間の値で(必ずしも0から1の間でなくともよい)あり,画質が高いほど高い値となる。画質評価は,たとえば,主要被写体を認識し,主要被写体のボケの程度が少ないほど(高周波数成分が高いほど)高くする,主要被写体が中央にあるほど高くするなど,公知の手法を利用できる。算出された画質評価値もCPU2によってアノテーションテーブルに格納される。
CPU2によって各画像の画質評価値がCPU2(画質評価値取得部)によって取得されると,各画像の(1−画像共起確率)の値に,画質評価値の値が,CPU2によって乗じられる。これにより,画質評価値が低いほど,(1−画像共起確率)によって表される画像評価値が低くなるように,CPU2(画像評価値補正部)によって補正されることとなる(ステップ33)。このようにして補正された画像評価値が得られる。補正された画像評価値がしきい値以上の値の画像がCPU2(第2の画像抽出部)によって抽出される(ステップ34)。
たとえば,しきい値が0.2の場合には,そのしきい値0.2以上の値は画像No.8のみであるから,その画像No.8がCPU2によって抽出される。画像No.1と画像No.8との画像共起確率は0.1で同じであるが,画像No.1の画質評価値は0.2であり,画像No.8の画質評価値は0.3であるから,画像No.8の画像評価値の方が画像No.1の画像評価値よりも高くなり,画像共起確率が同じである画像No.1と画像No.8とのうち,画質の高い画像No.8が抽出されることとなる。
図7および図8に示す実施例においては,(1−画像共起確率)を画質評価値で補正しているが,(1−画像共起確率)を画質評価値で補正せずに,画像評価値である(1−画像共起確率)の値がしきい値以上の画像が抽出されるようにしてもよい。図8に示す場合で,しきい値が0.7であれば,画像No.1と画像No.8とが抽出されることとなる。
(第4実施例)
図9および図10は,さらに他の実施例を示している。図9は,画像抽出システム1の処理手順を示すフローチャートであり,図2に対応する。図9の処理において,図2に示す処理と同じ処理については同じ符号を付している。図10は,第2のクラスタC2のアノテーションテーブルの一例を示している。図11は,画像クラスタC2のコサイン値等を格納するコサイン値テーブルの一例である。
この実施例は第2のクラスタC2に含まれる複数の画像から画像が抽出されるものとする。画像セットが撮影日時によって複数のクラスタC1,C2およびC3に分類され(ステップ21),第2のクラスタC2に含まれる複数の画像から各画像のアノテーションがCPU2によって取得される(ステップ22)。
第2のクラスタC2には,画像No.11から画像No.15の5個の画像が含まれているものとする。画像No.11からは,人物および室内のアノテーションが取得され,画像No.12からは,人物のアノテーションが取得され,画像No.13,画像No.14および画像No.15からは,それぞれ,犬のアノテーションが取得されたものとする。図10に示すように,アノテーションテーブルに,それぞれの画像に対応したアノテーションが格納される。
この実施例においては,各画像についてのアノテーションの出現確率(TF値:Term Frequency値)がCPU2(第2のアノテーション出現確率算出部)によって算出される(ステップ41)。画像No.11については,人物および室内のアノテーションが取得されており,犬のアノテーションは取得されていないから,画像No.11における人物のアノテーション出現確率は0.5となり,室内のアノテーション出現確率は0.5となり,犬のアノテーション出現確率は0となる。画像No.12における人物,室内および犬のそれぞれのアノテーション出現確率は1.0,0および0となる。画像No.13から画像No.15における人物,室内および犬のそれぞれのアノテーション出現確率は0,0および1.0となる。
つづいて,CPU2(平均出現確率算出部)によって,各画像のアノテーション出現確率が,アノテーションごとに複数の画像No.11から15について平均化され,平均出現確率が算出される(ステップ42)。人物のアノテーションについての平均出現確率は,(0.5+1.0+0+0+0)/5=0.3となり,室内のアノテーションについての平均出現確率は,(0.5+0+0+0+0)/5=0.1となり,犬のアノテーションについての平均出現確率は,(0+0+1.0+1.0+1.0)/5=0.6となる。
さらに,平均出現確率と各画像におけるアノテーションの出現確率(TF値)とからコサイン値(コサイン類似度)がCPU2によって算出される。そのコサイン値が画像共起確率とされる(ステップ43)。コサイン値は,ベクトル空間モデルにおいて,文書同士を比較する際に用いられる類似度計算手法であり,この場合,平均出現確率のアノテーションが平均画像に付与されていると仮定した場合における平均画像との類似度を算出することとなる。たとえば,画像No.11における各アノテーション出現確率をベクトル空間モデルで表現すると,ステップ41(図9)で求めた出現確率(図10)を用いて,(人物,室内,犬)=(0.5,0.5,0)となる。画像No.12から15についても同様に求めることができる。また,平均画像における各アノテーション出現確率をベクトル空間モデルで表現すると,ステップ42(図9)で求めた平均出現確率(図10)を用いて,(人物,室内,犬)=(0.3,0.1,0.6)となる。コサイン値は,各画像のアノテーション出現確率ベクトルと,平均画像のアノテーション出現確率ベクトルとのなす角をθとしたときのcosθを求めればよい。画像No.11,画像No.12,画像No.13,画像No.14および画像No.15のそれぞれのコサイン値は,0.4170,0.4423,0.8847,0.8847および0.8847となる。コサイン値が低い(θが大きい)ほど,画像が属するクラスタ(この場合,第2のクラスタC2)の中での平均的な画像から非類似であると考えられる。
CPU2によってコサイン値が画像共起確率とされ(ステップ43),画像共起確率がしきい値以下の画像がCPU2によって抽出される(ステップ24)。たとえば,しきい値が0.5であれば,画像No.11および画像No.12が第2のクラスタC2の複数の画像No.11から画像No.15の中から抽出される。コサイン値は,平均出現率と各画像におけるアノテーションの出現確率との差異を示すものであり,CPU2(共起確率出力部)から出力される。コサイン値が小さい画像は,複数の画像の平均的な画像から非類似の画像であるから,複数の画像の中で珍しい画像であり,ユーザにとって価値のある画像と考えることができる。
図11においては,アノテーション出現確率の平均とのコサイン距離も格納されている。コサイン距離は,コサイン値が1から減じられた値である。コサイン距離が大きい画像ほど,複数の画像の平均的な画像から非類似の画像となる。
(第5実施例)
図12から図14は,図9から図11に示した実施例の変形例である。図12および図13は,図9の処理手順に対応するフローチャートであり,図9に示す処理と同一の処理については同一符号が付されている。図14は,図11に対応するコサイン値テーブルの一例である。
この実施例も第2のクラスタC2に含まれる画像No.11から画像No.15の中から画像を抽出するものである。
図12を参照して,画像セットが撮影日時によって複数のクラスタに分類され(ステップ21),第2のクラスタC2に含まれている画像No.11から画像No.15から各画像のアノテーションが取得され(ステップ22),各画像におけるアノテーションの出現確率が算出される(ステップ41)。さらに,アノテーションの出現確率が,複数の画像について平均化され平均出現確率が算出される(ステップ42)。ここまでは,第4実施例と同一の処理を行うため,図10と同じ値のアノテーションテーブルが得られる。
CPU2によって,各画像のコサイン値が1から減じられ,各画像についてのコサイン距離が算出される(ステップ51)。このコサイン距離は画像評価値となる。つづいて,各画像についての画質評価値が算出され(ステップ32),コサイン距離に画質評価値が乗じられることにより,画質評価値が低いほど画像評価値が低くなる補正が行なわれることとなる(ステップ33)。補正された画像評価値がしきい値以上の画像がユーザにとって価値のある画像として第2のクラスタC2から抽出される(ステップ34)。
上述の実施例においては,コサイン距離に画質評価値を乗じているが,コサイン距離は画像評価値でもあるので,このコサイン距離(画像評価値)がしきい値以上の画像が第2のクラスタC2から抽出されるようにしてもよい。
(第6実施例)
図15は,さらに他の実施例を示すもので,画像抽出システム1の処理手順を示すフローチャートである。図15は,図2に示すフローチャートに対応するもので,図2に示す処理と同一の処理については同一符号が付されている。
画像セットが撮影日時によって複数のクラスタC1,C2およびC3に分類され(ステップ21),クラスタに含まれる複数の画像から各画像のアノテーションが取得される(ステップ22)。この実施例では,アノテーションによって特定される被写体の大きさが一定の大きさ以下かどうか(画像に対する被写体の大きさが一定の割合以上かどうか)が,CPU2によって判定される(ステップ61)。画像に含まれている被写体の大きさが小さい場合でも,その被写体のアノテーションが画像に付与されてしまうことがある。そのような被写体にユーザが着目して撮影していることは少ないと考えられる。しかしながら,小さな被写体であってもアノテーションの出現確率が低くなってしまうことがあるので,ユーザが着目していない被写体が含まれている画像が抽出されてしまうことがある。そのために,この実施例では,一定の大きさ以下の被写体がある場合(ステップ61でYES),その被写体を表すアノテーションはCPU2(アノテーション無効部)によって無効とされる(ステップ62)。一定の大きさ以下の被写体についてはステップ62の処理はスキップされる。
その後は,アノテーションから複数の画像における画像共起確率が算出され(ステップ23),画像共起確率がしきい値以下の画像が抽出される(ステップ24)。
(第7実施例)
図16から図19は,さらに他の実施例を示すもので,画像セットに含まれる3つ以上の画像についてのアノテーションを取得し,画像共起確率を算出するものである。
図16は,画像抽出システム1の処理手順を示すフローチャートであり,図2のフローチャートに対応する。図16において,図2の処理と同一の処理については同一符号が付されている。図17から図19は,アノテーションテーブルの一例であり,図17は,画像セットに含まれている3つ以上の画像についてのアノテーションテーブルであり,図18は,第2のクラスタC2に含まれている複数の画像についてのアノテーションテーブルであり,図19は,第3のクラスタC3に含まれている複数の画像についてのアノテーションテーブルである。
画像セットに含まれる3つ以上の画像(画像セットに含まれるすべての画像)から各画像のアノテーションがCPU2(制御部)によって取得される(ステップ71)。画像セットには,画像No.1から画像No.20の画像が含まれているものとする。
図17は,画像セットのアノテーションテーブルの一例である。
画像セットに含まれる画像に対応してアノテーションが得られている。画像セットに含まれる画像のうち,画像No.1から画像No.10は,第1のクラスタC1に含まれる画像であり,画像No.11から画像No.15は,第2のクラスタC2に含まれる画像であり,画像No.16から画像No.20は,第3のクラスタC3に含まれる画像である。
つづいて,取得したアノテーションから画像セットに含まれている3つ以上の画像(画像セットに含まれるすべての画像)の画像共起確率がCPU2(制御部)によって算出される(ステップ72)。図17を参照して,画像No.1のアノテーションは,人物,料理,室内の組のアノテーションであり,そのような組のアノテーションは,画像セットに含まれる画像No.1から画像No.20までの20個の画像のうち,画像No.1の1個のみであるから,画像共起確率は,1/20=0.05となる。第1のクラスタC1を用いて算出された画像No.1の画像共起確率は0.1であるから,画像共起確率がさらに低くなっている。画像No.2から画像No.7,画像No.9,画像No.10,画像No.13から画像No.15および画像No.19のアノテーションは,犬であり,その犬のアノテーションをもつ画像の数は12個であるから,画像共起確率は12/20=0.6となる。その他の画像についても同様にして画像共起確率が算出される。
図16に戻って,画像セットに含まれる画像の画像共起確率が算出されると,画像セットに含まれる画像が複数のクラスタに分類され(ステップ21),第1のクラスタC1,第2のクラスタC2および第3のクラスタC3に分類される。分類された第1のクラスタC1,第2のクラスタC2および第3のクラスタC3のそれぞれのクラスタに含まれる各画像についてアノテーションが取得され(ステップ22),各クラスタにおける画像共起確率が算出される(ステップ23)。これにより,図5に示すように,第1のクラスタC1に含まれる画像No.1から画像No.20の画像についてアノテーションテーブルが得られ,図18に示すように画像No.11から画像No.15の画像についてアノテーションテーブルが得られ,図19に示すように画像No.16から画像No.20の画像についてアノテーションテーブルが得られる。
図18を参照して,画像No.11の画像のアノテーションは,人物,室内であり,第2のクラスタC2にそのようなアノテーションが付与されているのは画像No.11のみである。第2のクラスタC2における画像No.11の画像共起確率は,0.2となる。同様に,画像No.12の画像共起確率は,0.2,画像No.13から画像No.15の画像共起確率は0.6となる。
図19を参照して,画像No.16から画像No.18および画像No.20のアノテーションは,人物であり,第3のクラスタC3における画像No.16から画像No.18および画像No.20のアノテーションは0.8となる。同様にして画像No.19の第3のクラスタC3における画像No.19の共起確率は0.2となる。
画像セットでの各画像の画像共起確率ならびに各画像クラスタC1,C2およびC3での各画像の画像共起確率が得られると,CPU2によって同一画像について,画像セットでの各画像の画像共起確率と各画像クラスタC1,C2またはC3での各画像の画像共起確率とが加算され,加算値が得られる(ステップ73)。加算する代わりに画像共起確率を積算して積算値が得られるようにしてもよい。
加算値または積算値がしきい値以下の画像がCPU2(第3の画像抽出部)によって画像セットから抽出される(ステップ74)。各クラスタ内で珍しい画像だけでなく,画像セット内でも珍しい画像を,ユーザにとって価値のある画像として抽出することができる。
上述したいずれの実施例においても,図10に示すように,各画像のアノテーション出現確率を算出し,平均出現確率を算出し,コサイン値またはコサイン距離を算出して,平均出現率と各画像のアノテーションの出現確率との差異を出力することもできるし,各画像の出現確率の積を画像共起確率してもよい。また,画質評価値を取得し,画質評価値が低いほど画像評価値を低く補正してもよいし,画像評価値がしきい値以上の画像を複数の画像から抽出してもよい。さらに,各画像のアノテーション出現確率を画像共起確率としてもよいし,一つの画像に複数のアノテーションが付与されている場合には,複数のアノテーションの出現確率の積をその画像のアノテーション出現確率としてもよいし,複数のアノテーションの出現確率のうち最小の出現確率をその画像のアノテーション出現確率としてもよい。さらに,いずれの実施例においても一定の大きさ以下の被写体に付与されたアノテーションを無効としてもよい。
アノテーションの出現確率を画質評価値で補正するだけでなく,アノテーションによって特定される被写体の位置,アノテーションによって特定される被写体が他の被写体よりも前方に存在するかどうか,アノテーションによって特定される被写体がぼけているかどうかなどにより補正するようにしてもよい。たとえば,アノテーションによって特定される被写体が画像の中央に存在するほど,アノテーションの出現確率を高く補正したり,アノテーションによって特定される被写体が他の被写体よりも前方に存在するほどアノテーションの出現確率を高く補正したり,アノテーションによって特定される被写体がぼけているほどアノテーションの出現確率を低く補正したりしてもよい。
1 画像抽出システム
2 CPU(アノテーション取得部,画像共起確率算出部,第1の画像抽出部,第1のアノテーション出現確率算出部,第2のアノテーション出現確率算出部,平均出現確率算出部,共起確率出力部,アノテーション無効部,画像評価部,画質評価値取得部,画像評価値補正部,第2の画像抽出部,制御部,第3の画像抽出部)
5 コンパクトディスク

Claims (11)

  1. 複数の画像から,各画像に存在する被写体および各画像のシーンの少なくとも一方を特定する情報であるアノテーションを取得するアノテーション取得部,
    上記アノテーション取得部によって取得した画像のアノテーションから,上記複数の画像における各アノテーションの出現確率を算出する第1のアノテーション出現確率算出部,
    上記第1のアノテーション出現確率算出部において算出されたアノテーションの出現確率の上記各画像における組み合わせを上記各画像の画像共起確率として算出する画像共起確率算出部,ならびに
    上記画像共起確率がしきい値以下の画像を,上記複数の画像から抽出する第1の画像抽出部,
    を備えた画像抽出システム。
  2. 上記アノテーション取得部によって取得した画像のアノテーションから,上記複数の画像の各画像におけるアノテーションの出現確率を算出する第2のアノテーション出現確率算出部,
    上記第2のアノテーション出現確率算出部によって算出された出現確率を,アノテーションごとに,上記複数の画像について平均化して平均出現確率を算出する平均出現確率算出部,および
    上記平均出現確率算出部によって算出された平均出現確率と上記第2のアノテーション出現確率算出部によって算出された出現確率との差異を上記画像共起確率として出力する共起確率出力部,
    をさらに備えた請求項1に記載の画像抽出システム。
  3. 上記画像共起確率算出部は,
    各画像の各アノテーション出現確率の積を上記画像共起確率とする,
    請求項1に記載の画像抽出システム。
  4. 上記アノテーション取得部が取得したアノテーションによって特定される被写体の面積が一定の大きさ以下の場合に,上記一定の大きさ以下の被写体を特定するアノテーションを無効とするアノテーション無効部,
    をさらに備えた請求項1から3のうち,いずれか一項に記載の画像抽出システム。
  5. 上記画像共起確率算出部によって算出された画像共起確率が低いほど高い画像評価値とする画像評価部,
    をさらに備えた請求項1から4のうち,いずれか一項に記載の画像抽出システム。
  6. 複数の画像の各画像について,画質評価値を取得する画質評価値取得部,および
    上記画質評価値取得部により取得された画質評価値が低いほど,上記画像評価部によって評価された画像評価値を低く補正する画像評価値補正部,
    をさらに備えた請求項5に記載の画像抽出システム。
  7. 上記画像評価値補正部によって補正された画像評価値がしきい値以上の画像を,複数の画像から抽出する第2の画像抽出部,
    をさらに備えた請求項6に記載の画像抽出システム。
  8. 上記複数の画像を含み,かつ上記複数の画像よりも多い3つ以上の画像について,上記アノテーション取得部による画像のアノテーションの取得,および上記画像共起確率算出部による画像共起確率の算出を行わせる制御部,ならびに
    3つ以上の画像について算出された画像共起確率と複数の画像について算出された画像共起確率とを,同じ画像について加算または積算して得られた値がしきい値以下の画像を,複数の画像の中から抽出する第3の画像抽出部,
    をさらに備えた請求項1から7のうち,いずれか一項に記載の画像抽出システム。
  9. アノテーション取得部が,複数の画像から,各画像に存在する被写体および各画像のシーンの少なくとも一方を特定する情報であるアノテーションを取得し,
    アノテーション出現確率算出部が,上記アノテーション取得部によって取得した画像のアノテーションから,上記複数の画像における各アノテーションの出現確率を算出し,
    画像共起確率算出部が,上記第1のアノテーション出現確率算出部において算出されたアノテーションの出現確率の上記各画像における組み合わせを上記各画像の画像共起確率として算出し,
    画像抽出部が,上記画像共起確率がしきい値以下の画像を,上記複数の画像から抽出する,
    画像抽出方法。
  10. 画像抽出システムのコンピュータを制御するコンピュータが読取可能なプログラムであって,
    複数の画像から,各画像に存在する被写体および各画像のシーンの少なくとも一方を特定する情報であるアノテーションを取得させ,
    上記アノテーション取得部によって取得した画像のアノテーションから,上記複数の画像における各アノテーションの出現確率を算出させ,
    算出されたアノテーションの出現確率の上記各画像における組み合わせを上記各画像の画像共起確率として算出させ,
    上記画像共起確率がしきい値以下の画像を,上記複数の画像から抽出させるように画像抽出システムのコンピュータを制御するコンピュータが読取可能なプログラム。
  11. 請求項10に記載のプログラムを格納した記録媒体。
JP2015185106A 2015-09-18 2015-09-18 画像抽出システム,画像抽出方法,画像抽出プログラムおよびそのプログラムを格納した記録媒体 Active JP6437902B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015185106A JP6437902B2 (ja) 2015-09-18 2015-09-18 画像抽出システム,画像抽出方法,画像抽出プログラムおよびそのプログラムを格納した記録媒体
US15/246,825 US10296539B2 (en) 2015-09-18 2016-08-25 Image extraction system, image extraction method, image extraction program, and recording medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015185106A JP6437902B2 (ja) 2015-09-18 2015-09-18 画像抽出システム,画像抽出方法,画像抽出プログラムおよびそのプログラムを格納した記録媒体

Publications (2)

Publication Number Publication Date
JP2017059124A JP2017059124A (ja) 2017-03-23
JP6437902B2 true JP6437902B2 (ja) 2018-12-12

Family

ID=58282478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015185106A Active JP6437902B2 (ja) 2015-09-18 2015-09-18 画像抽出システム,画像抽出方法,画像抽出プログラムおよびそのプログラムを格納した記録媒体

Country Status (2)

Country Link
US (1) US10296539B2 (ja)
JP (1) JP6437902B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5859771B2 (ja) * 2011-08-22 2016-02-16 ソニー株式会社 情報処理装置、情報処理システム情報処理方法及びプログラム
CN110489594A (zh) * 2018-05-14 2019-11-22 北京松果电子有限公司 图像视觉标注方法、装置、存储介质及设备
JP7007249B2 (ja) 2018-09-28 2022-01-24 富士フイルム株式会社 画像処理装置,画像処理方法および画像処理プログラム
US11438466B2 (en) * 2019-12-19 2022-09-06 HCL Technologies Italy S.p.A. Generating an automatic virtual photo album
WO2021199474A1 (ja) * 2020-03-30 2021-10-07 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259788A (ja) 2005-03-15 2006-09-28 Seiko Epson Corp 画像出力装置
JP4749783B2 (ja) 2005-07-13 2011-08-17 富士フイルム株式会社 代表画像を用いた画像表示方法及び装置
US7668405B2 (en) * 2006-04-07 2010-02-23 Eastman Kodak Company Forming connections between image collections
US8024343B2 (en) * 2006-04-07 2011-09-20 Eastman Kodak Company Identifying unique objects in multiple image collections
JP4769624B2 (ja) * 2006-04-25 2011-09-07 富士フイルム株式会社 画像再生装置ならびにその制御方法およびその制御プログラム
JP4755575B2 (ja) * 2006-12-12 2011-08-24 ヤフー株式会社 動画代表画像抽出方法、装置、及びコンピュータ・プログラム
WO2009110550A1 (ja) * 2008-03-06 2009-09-11 日本電気株式会社 属性抽出方法、システム及びプログラム
JP4945486B2 (ja) 2008-03-18 2012-06-06 富士フイルム株式会社 画像重要度判定装置、アルバム自動レイアウト装置、プログラム、画像重要度判定方法およびアルバム自動レイアウト方法
JP5727476B2 (ja) 2010-06-23 2015-06-03 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像評価装置、画像評価方法、プログラム、集積回路
JP5565190B2 (ja) * 2010-08-11 2014-08-06 富士ゼロックス株式会社 学習モデル作成プログラム、画像識別情報付与プログラム、学習モデル作成装置及び画像識別情報付与装置
US8634662B2 (en) * 2010-08-25 2014-01-21 Apple Inc. Detecting recurring events in consumer image collections
US8705866B2 (en) * 2010-12-07 2014-04-22 Sony Corporation Region description and modeling for image subscene recognition
US8458174B1 (en) * 2011-09-02 2013-06-04 Google Inc. Semantic image label synthesis
JP5930653B2 (ja) * 2011-10-14 2016-06-08 キヤノン株式会社 情報処理装置、画像選択方法およびプログラム
US9367814B1 (en) * 2011-12-27 2016-06-14 Google Inc. Methods and systems for classifying data using a hierarchical taxonomy
US8855430B1 (en) * 2012-05-30 2014-10-07 Google Inc. Refining image annotations
JP5972081B2 (ja) 2012-07-11 2016-08-17 日鐵住金溶接工業株式会社 曲り板の片面溶接装置
JP2015118522A (ja) 2013-12-18 2015-06-25 富士フイルム株式会社 アルバム生成装置,アルバム生成方法,アルバム生成プログラムおよびそのプログラムを格納した記録媒体

Also Published As

Publication number Publication date
US10296539B2 (en) 2019-05-21
US20170083545A1 (en) 2017-03-23
JP2017059124A (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6437902B2 (ja) 画像抽出システム,画像抽出方法,画像抽出プログラムおよびそのプログラムを格納した記録媒体
CN108140032B (zh) 用于自动视频概括的设备和方法
CN110175549B (zh) 人脸图像处理方法、装置、设备及存储介质
US10403014B2 (en) Image processing apparatus and image processing method
US9298976B2 (en) Method, apparatus and computer readable recording medium for managing a reference face database to improve face recognition performance under a restricted memory environment
JP4139615B2 (ja) 前景/背景セグメント化を用いた画像のイベント・クラスタリング
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
JP5968098B2 (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP4545641B2 (ja) 類似画像検索方法,類似画像検索システム,類似画像検索プログラム及び記録媒体
US10402654B2 (en) Image processing method for selecting image to be output
US11037265B2 (en) Information processing method, information processing apparatus, and storage medium
TWI701609B (zh) 影像物件追蹤方法及其系統與電腦可讀取儲存媒體
EP3189469A1 (en) A method for selecting frames from video sequences based on incremental improvement
WO2013104432A1 (en) Detecting video copies
KR20170092476A (ko) 이미지에 포함된 텍스트를 검출하는 방법, 장치 및 컴퓨터 판독 가능한 기록매체
US20160133028A1 (en) Apparatus and method for avoiding region of interest re-detection
JP5192437B2 (ja) 物体領域検出装置、物体領域検出方法および物体領域検出プログラム
CN110502961B (zh) 一种面部图像检测方法及装置
KR101521136B1 (ko) 얼굴 인식 방법 및 얼굴 인식 장치
CN107506735A (zh) 照片归类方法以及归类系统
Kuzovkin et al. Context-aware clustering and assessment of photo collections
Ejaz et al. Video summarization by employing visual saliency in a sufficient content change method
EP3131035A1 (en) Image processing apparatus, image processing method, and program
JP2014191479A (ja) 顔認識装置、撮像装置、制御方法、及びプログラム
JP2018137639A (ja) 動画像処理システム、並びに、符号化装置及びプログラム、並びに、復号装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181115

R150 Certificate of patent or registration of utility model

Ref document number: 6437902

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250