JPWO2013031096A1 - 画像処理装置、画像処理方法、プログラム、集積回路 - Google Patents

画像処理装置、画像処理方法、プログラム、集積回路 Download PDF

Info

Publication number
JPWO2013031096A1
JPWO2013031096A1 JP2013531022A JP2013531022A JPWO2013031096A1 JP WO2013031096 A1 JPWO2013031096 A1 JP WO2013031096A1 JP 2013531022 A JP2013531022 A JP 2013531022A JP 2013531022 A JP2013531022 A JP 2013531022A JP WO2013031096 A1 JPWO2013031096 A1 JP WO2013031096A1
Authority
JP
Japan
Prior art keywords
image
segment
importance
foreground
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013531022A
Other languages
English (en)
Other versions
JP6023058B2 (ja
Inventor
博史 薮
博史 薮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2013031096A1 publication Critical patent/JPWO2013031096A1/ja
Application granted granted Critical
Publication of JP6023058B2 publication Critical patent/JP6023058B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3876Recombination of partial images to recreate the original image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

画像Iについて、オブジェクト(人物)セグメントOS1,OS2、前景セグメントFS1,FS2のセグメントに分類する。そして、画像I内の構図と、画像I内の前景セグメントFS1,FS2と画像I以外の画像における前景セグメントとの関係性に基づき、前景セグメントFS1,FS2の重要度を算出する。

Description

本発明は、画像内からユーザにとって重要と推定される領域を特定する画像処理装置に関する。
近年は、デジタルカメラの普及や記録メディアの容量増加により、ユーザが気軽に画像を撮影できる環境となっている。
もっとも、ユーザが撮影した画像を撮影後に確認すると、ユーザが不要と思うものが写ってしまっていることはよくあることであり、画像内から必要な部分だけを切り抜きたいというニーズがある。また、アルバム作成に際して、アルバム内のあるフレームに挿入するために、そのフレームの形や大きさに合わせた大きさで画像を切抜くことが必要な場合もある。
切り抜きに関する技術としては、証明写真用の顔写真を作成するために、人物の顔や顔から胴体の首近辺の部分を画像から切り抜く技術がある(特許文献1参照)。
特開2001-307122号公報 特許第4315344号公報
Gabor特徴の情報量による重みづけマッチングを用いた顔認識、堀田 一弘(埼玉大学(日本学術振興会特別研究員))、電子情報通信学会技術研究報告. HIP, ヒューマン情報処理 100(34) pp.31-38 20000504 John C. Platt, Mary Czerwinski, Brent A. Field, Photo TOC: Automatic Clustering for Browsing Personal Photographs, Fourth IEEE Pacific Rim Conference on Multimedia (2003) Itti, L., Koch, C., Niebur, E.: A model of saliency-based visual attention for rapid scene analysis. PAMI 20 (1998) 1254 - 1259 Y.Cheng. Mean Shift, mode seeking, and clustering. IEEE Trans. Pattern Anal. And Machine Intell., 17(8):790-799, 1995 Swain,M.J. and Ballard,D.H.:"Color Indexing",IJCV,7,pp.11-32(1991)
しかしながら、ユーザが重要と考える対象は、人物だけでなく、画像内の物体も含むことが多い。現状では、顔認識技術に関しては一定の精度が期待できるが、顔以外の一般物体を認識する物体認識技術に関しては精度やロバスト性の面で物足りない面がある。
このため、例えば家族とタワーとが一緒に写る画像を切り抜く場合、人物が写る部分は認識できるのに対して、物体であるタワーは認識できない状況が考えられ、物体認識技術だけを頼りに画像内の人物とタワーとの両者を含む領域を切り抜くのは困難である。
本発明は、上述の課題を鑑みてなされたものであり、物体認識技術だけに全面的に依拠せずとも、ユーザにとって重要であると推定される領域を画像の中から特定することができる画像処理装置を提供することを目的とする。
上記課題を解決するために、本発明に係る画像処理装置は、複数の画像のそれぞれについて、画像内を複数のセグメントに分割する分割部と、一の画像内における異なるセグメント間の関係性、あるいは前記一の画像のセグメントと所定の他の画像とのセグメント同士の関係性に基づいて、前記一の画像内のセグメントそれぞれの重要度を算出する算出部と、を備えることを特徴とする。
本発明に係る画像処理装置によれば、ユーザにとって重要であると推定される領域を画像の中から特定することに貢献でき、例えば領域のトリミングにおいて適切に用いることができる。
画像処理システムのブロック図 全体フローチャート 画像取得、オブジェクト・イベント・セグメント抽出動作を示すフローチャート オブジェクトの抽出動作のフロー図 人物クラスタリングの動作の具体例を示すイメージ図 オブジェクトクラスタ情報のデータ構造を示す図 イベントの抽出動作のフロー図 イベントクラスタリングの動作の具体例を示すイメージ図 イベントクラスタ情報のデータ構造を示す図 セグメントの抽出動作のフロー図 セグメントクラスタリングの動作のフロー図 セグメントクラスタリングの動作の具体例を示すイメージ図 セグメントクラスタ情報のデータ構造を示す図 セグメント特徴量抽出の動作の具体例を示すイメージ図 セグメント特徴量のデータ構造を示す図 画像評価のフロー図 オブジェクト重要度算出の動作を示すフロー図 オブジェクト重要度のデータ構造を示す図 セグメント重要度算出の動作を示すフロー図 オブジェクトセグメントの重要度算出の動作を示すフロー図 オブジェクトセグメントの重要度算出の具体例を示すイメージ図 セグメント注目度算出の動作を示すフロー図 セグメント注目度算出の具体例を示すフロー図 前景セグメントの重要度算出の動作を示すフロー図 前景セグメントの重要度算出の具体例を示すイメージ図 背景セグメントの重要度算出の動作を示すフロー図 背景セグメントの重要度算出の具体例を示すイメージ図 セグメント重要度のデータ構造を示す図 画像トリミングの動作のフロー図 トリミング判定の動作のフロー図 トリミング判定の具体例を示すイメージ図 トリミング領域算出の動作を示すフロー図 トリミング領域算出(寄りトリミング)の具体例を示すイメージ図 トリミング領域算出(引きトリミング)の具体例を示すイメージ図 トリミング情報のデータ構造の図 トリミング中心算出の具体例を示すイメージ図 前景(背景)セグメントの重要度算出に用いる画像の選び方の具体例を示すイメージ図 画像処理システムの例を示す図 実施の形態2の概要を示す図 画像処理システムのブロック図 全体フローチャート、画像取得、オブジェクト・イベント・セグメント抽出動作を示すフローチャートを示す図 イベント統合の動作を示す図 同一人物の出現判定の具体例を示すイメージ図 撮影期間の重複判定の具体例を示すイメージ図 同一イベント判定の具体例を示すイメージ図 実施の形態3の概要を示す図 画像処理システムのブロック図 トリミング領域算出の動作を示すフロー図 トリミング中心算出の例を示す図 トリミング中心算出の例を示す図 実施の形態4の概要を示す図 実施の形態4に係る画像処理システムのブロック図 トリミング領域算出の動作を示すフロー図 トリミング中心算出の例を示す図 実施の形態5に係る画像処理システムのブロック図 (a)ズームイン・アウトの例を示す図、(b)サムネイル作成の例を示す図
以下、本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
<構成>
本実施の形態1は、旅行などのイベントでユーザが撮影した画像群について、各画像をいくつかのセグメントに分割し、個々の画像の特徴や個々の画像の周辺の画像の特徴から、分割したセグメント毎の評価を示す重要度を算出し、算出した重要度に基づいて、画像を切抜く手法に関するものである。
図1は、実施の形態1の画像処理システム1の原理的な構成を示すブロック図である。
画像処理システム1は、記憶媒体2、画像処理装置3およびディスプレイ4を含んで構成される。
画像処理装置3は、画像取得部10、オブジェクト抽出部20(オブジェクト特徴量抽出部21、オブジェクトクラスタリング部22を含む)、イベント抽出部30(撮影日時情報抽出部31、イベントクラスタリング部32を含む)、セグメント抽出部40(セグメント分割部41、セグメント分類部42、セグメント特徴量抽出部43を含む)、画像評価部50(オブジェクト重要度算出部51、セグメント重要度算出部52を含む)、画像加工部60(判定部61、領域算出部62、加工実行部63を含む)、記憶部70(オブジェクトクラスタ情報記憶部71、イベントクラスタ情報記憶部72、セグメントクラスタ情報記憶部73、セグメント特徴量記憶部74、オブジェクト重要度記憶部75、セグメント重要度記憶部76、加工情報記憶部77を含む)、表示制御部80を備える。
以下、各ブロックについて説明するが、詳細な内容は図2以降を用いて後述するので、ここでは概略に留める。
画像取得部10は、例えばSDカードリーダーから構成され、SDカードスロット内に挿入されたSDメモリカードなどの記憶媒体2から画像データを取得する。
オブジェクト特徴量抽出部21は、画像取得部10が取得した画像データを対象として、画像に写るオブジェクトの特徴量であるオブジェクト特徴量を抽出する。画像からオブジェクト特徴量を抽出する方法としては、Gaborフィルタによる抽出手法(非特許文献1参照)を用いることができる。なお、以下では、オブジェクトとして人の顔を例に挙げて説明する。
オブジェクトクラスタリング部22は、抽出したオブジェクト特徴量に基づくクラスタリングを行うことでオブジェクトクラスタ情報を抽出し、抽出した情報をオブジェクトクラスタ情報記憶部71に記憶させる。オブジェクト特徴量のクラスタリング手法については、非階層的な手法(固定されたクラスタのそれぞれに代表を与えてクラスタリングする手法)のひとつである、k-means法(非特許文献1参照)を用いることができる。
撮影日時情報抽出部31は、画像取得部10が取得した画像データを対象として、画像に付加する撮影日時情報を抽出する。
また、イベントクラスタリング部32は、抽出した情報に基づくクラスタリングを行ってイベントクラスタ情報を抽出し、抽出した情報をイベントクラスタ情報記憶部72に記憶させる。イベントのクラスタリング手法については、任意の時間を閾値として設定し、画像同士の撮影日時の差分が閾値を超えていたものを、イベントの区切りとする手法を用いることができる(非特許文献2参照)。
セグメント分割部41は、画像取得部10が取得した画像データを対象として、画像の特徴量抽出し、抽出した特徴量を基に画像を複数のセグメント(領域)に分割する(区分けする)。この分割手法については、平均値アルゴリズムによる画像分割手法を用いることができる(非特許文献4参照)。
セグメント特徴量抽出部43は、画像の前景特徴量を抽出する。前景特徴量の抽出は、画像に写る色、輝度、エッジ方向、奥行き情報などの情報の少なくとも1つを用いて行うことができる。このような前景特徴量の抽出手法の一例として、Saliency Map(サリエンシーマップ)による前景抽出手法を用いることができる(非特許文献3参照)。
そして、セグメント分類部42は、抽出された前景特徴量とオブジェクト抽出部20で抽出されたオブジェクトクラスタ情報を用いて、分割された複数のセグメントそれぞれを、
・画像に写る人物の部分・・・オブジェクトセグメント
・画像に写る人物以外で物体が被写体となっている部分・・・前景セグメント
・画像に写る人物や物体以外の残りの部分・・・背景セグメント
の3種類のいずれかに分類し、分類結果を示す情報をセグメントクラスタ情報記憶部73に記憶させる。
セグメント特徴量抽出部43は、分類されたそれぞれのセグメントの特徴を示すセグメント特徴量を抽出し、抽出したセグメント特徴量を示す情報をセグメント特徴量記憶部74に記憶させる。このセグメント特徴量を抽出する手法については、例えば、セグメント内を区分し、区分した領域における頻度の高い色特徴量を代表色として抽出し、セグメント内の代表色ヒストグラムを特徴量とする手法を用いる。色ヒストグラムは、非特許文献5に詳しい。
オブジェクト重要度算出部51は、オブジェクトクラスタ情報記憶部71に記憶されたオブジェクトクラスタ情報に基づいて、画像に写る人物などのオブジェクトの重要度を示すオブジェクト重要度を算出し、算出した情報をオブジェクト重要度記憶部75に記憶させる。
セグメント重要度算出部52は、記憶部71〜74に記憶された情報に基づいて、複数のセグメント毎に、分類されたセグメントの種類に応じた手法により重要度を算出し、算出したセグメント重要度をセグメント重要度記憶部76に記憶させる。
画像加工部60は、画像の特定の領域が注目されるような加工を行う。本実施の形態では、この加工はトリミングであるとして説明する。
判定部61は、2種類用意されたトリミングの手法(「寄りトリミング」と「引きトリミング」)のいずれを採用するかを判定する。
領域算出部62は、判定されたトリミングの種類に応じた手法にしたがって、各セグメントの種類や各セグメントの重要度を基に、画像内の切り抜きする領域を算出し、算出した領域を示す情報を加工情報記憶部77に記憶させる。
加工実行部63は、算出された領域に従って、画像のトリミングを行う。
記憶部70は、各記憶部71〜77を含んでおり、例えばRAMから構成される。
表示制御部80は、ディスプレイ4の表示制御を行う。
<動作>
次に、画像をトリミングする全体的な流れについて説明する。
図2に示すように、画像処理装置3は、画像取得、オブジェクト・イベント・セグメント抽出(S21)、画像評価(S22)を行い、画像トリミング(S23)で処理を終える。
図2の画像取得、オブジェクト・イベント・セグメント抽出(S21)について、図3を用いて説明する。
図3に示すように、画像取得、オブジェクト・イベント・セグメント抽出の処理では、画像取得部10は、記憶媒体2から、記憶媒体2内に記憶された画像データを取得する(S31)。
続いて、オブジェクト抽出部20は、取得された画像データを対象として、画像から人物のオブジェクトを抽出する(S32)。
次に、イベント抽出部30は、取得された画像データを対象として、画像が属するイベントを抽出する(S33)。
そして、セグメント抽出部40は、取得された画像データを対象として、画像を分割したセグメントを抽出する(S34)。
オブジェクト抽出(S32)の処理について、図4を用いて説明する。オブジェクト特徴量抽出部21は、画像に写る顔の領域を切り出し、顔の位置や大きさなどの顔特徴量を抽出する(S41)。次に、オブジェクトクラスタリング部22は、抽出された顔特徴量を用いてクラスタリングを行い、クラスタリングした結果であるオブジェクトクラスタ情報をオブジェクトクラスタ情報記憶部71に記憶させる(S42)。
図5を用いて、S41、S42の動作を具体的に説明する。
オブジェクト特徴量抽出部21は、3枚の画像A〜画像C(図5(a))から4つの顔F1〜F4を切り出し(S51)、顔F1〜F4それぞれの特徴量を抽出する(図5(b))。
そして、オブジェクトクラスタリング部22は、4つの顔F1〜F4のうち、類似している顔同士の顔F2、F3を人物aとして、また顔F1、F4を人物bとクラスタリングする(S52)(図5(c))。
図6は、オブジェクトクラスタリング(S42)の結果を示すオブジェクトクラスタ情報のデータ構造を示す図である。オブジェクトクラスタ情報は、画像に出現する顔のそれぞれがどの人物クラスタに属しているかを示す情報であり、「クラスタID」、「顔ID」、「画像ID」、「顔の位置(X,Y)」「顔の大きさ(W,H)」の項目を含む。
イベント抽出(S33)の処理について、図7を用いて説明する。撮影日時情報抽出部31は、画像の撮影時に付与された撮影日時情報を抽出する(S71)。次にイベントクラスタリング部32は、抽出された撮影日時情報を用いて、クラスタリングを行い、クラスタリングした結果であるイベントクラスタ情報をイベントクラスタ情報記憶部72に記憶させる(S72)。
図8を用いて、S71、S72の動作を具体的に説明すると、撮影日時抽出部31は、4枚の画像A〜画像D(図8(a))からそれぞれ撮影日時を抽出する(S81)(図8(b))。撮影日時の抽出方法としては、例えばデジタルカメラ等で撮影された画像に付与されるExif(Exchangeable image file format)情報から撮影日時を抽出することができる。そして、イベントクラスタリング部32は、4つの撮影日時の内、日時が近い画像同士の画像A,Bをイベントfとして、また画像C,Dをイベントgとクラスタリングする(S82)(図8(c))。
図9は、イベントクラスタリング(S72)の結果を示すイベントクラスタ情報のデータ構造を示す図である。イベントクラスタ情報は、画像がどのイベントクラスタに属しているかを示す情報であり、「クラスタID」、「画像ID」、「撮影日時」の項目を含む。
次にセグメント抽出(S34)の詳細について、図10を用いて説明する。セグメント分割部41は、画像のエッジ特徴量を抽出し(S101)、抽出したエッジ特徴量から画像を複数のセグメント(領域)に分割する(S102)。次に、セグメント分類部42は、分割されたセグメントをオブジェクト・前景・背景の3種類に分類する(S103)。そして、分類されたセグメントの画像特徴量を抽出し、抽出した特徴量をセグメント特徴量記憶部74に記憶させる(S104)。
セグメントクラスタリング(S103)の処理について、図11を用いて説明する。セグメント分類部42は、オブジェクトクラスタ情報記憶部71からオブジェクト情報を取得し(S111)、オブジェクト情報に含まれる顔の位置や大きさから、胴体の位置や大きさを推定して、顔と胴体からなる人物の範囲を推定する。そして、推定された範囲に含まれる領域を、オブジェクトセグメントとして分類する(S112)。
続いて、画像の前景特徴量を抽出し(S113)、オブジェクトセグメントに分類されなかった領域で前景特徴量が抽出された領域を前景セグメントとして分類する(S114)。
そして、分類されなかった残りの領域を背景として背景セグメントとして分類する。このように、画像内の複数のセグメントそれぞれをオブジェクト・前景・背景のいずれかのセグメントに分類し、分類結果を示すセグメントクラスタ情報をセグメントクラスタ情報記憶部73に記憶させる(S115)。
図12の画像Eの例を用いて、S112〜S115の動作を具体的に説明すると、セグメント分類部42は、画像Eからエッジ特徴量を抽出し、画像をセグメントで区分する(S121)。次に、画像Eに写る顔を検出する(S122)。検出された顔の位置と大きさで、セグメントで区分した画像の中で、顔と胴体を含む領域を含むセグメントを推定し、推定されたセグメントをオブジェクトセグメントとして分類する(S123)。ここでは一例として、画像Eに写る母と息子の顔と胴体の領域にあたるセグメントをオブジェクトセグメントOS1,OS2として分類している。次に、画像Eから前景特徴量を抽出する(S124)。図12(a)の右上の図は、Saliency Mapを示し、人物と灯台とが前景部分として薄白く抽出されている様子を示している。
続いて、セグメント分類部42は抽出した前景特徴量に基づいて、セグメントで区分した画像の中で、前景を含むセグメントを推定し、推定されたセグメントを前景セグメントとして分類する(S125)。
画像Eの例では、前景部分は2人の人物と灯台とを含んでいるが、2人の人物はオブジェクトセグメントOS1,OS2として分類済みなので、灯台が写る部分を前景セグメントFS1として分類している。
そして、オブジェクトセグメントOS1,OS2および前景セグメントFS1に分類されなかった残りのセグメントを、背景セグメントBSとして分類する(S126)。図12(a)の右下部分には、背景セグメントをまとめてBSとして示したが、図12(b)に示すように、実際には8個の背景セグメントBS1〜BS8に細分化されている。
図13は、セグメントクラスタリング(S103)の結果を示すセグメントクラスタ情報のデータ構造を示す図である。セグメントクラスタ情報は、画像に含まれる領域のそれぞれがどの種類のセグメントに属しているかを示す情報であり、「画像ID」、セグメントの種類を示す「セグメント分類」、セグメントを一意に特定するための「セグメントID」、セグメントの位置や大きさを示す「セグメント情報」の項目を含む。
図14を用いて、S104の動作を具体的に説明すると、セグメント特徴量部抽出部43は、ひとつのセグメントを抽出の対象に特定し(S141)、特定したセグメントの領域を格子状に区分けし、各区分において最も頻出する色をその区分の代表色として抽出し、抽出した代表色のヒストグラムをセグメント特徴量として算出する(S142)。ここでは一例として、画像E(図14(a))から、ひとつのオブジェクトセグメントOS1を抽出の対象に特定し、OS1の領域を32個に区分して、各区分の代表色(黒・白・赤・緑・青)のヒストグラムを算出している(図14(c))。このようにして、セグメント特徴量部抽出部43は、画像Eの11個の各セグメントOS1,OS2,FS1,BS1〜BS8それぞれの特徴量を抽出する。
図15は、セグメント特徴量抽出(S104)の結果を示すセグメント特徴量のデータ構造を示す図である。セグメント特徴量は、画像のセグメントの色合いを示す情報であり、「セグメントID」、「黒・白・赤・緑・青」などの項目を含む。
図2に戻って説明を続ける。次に、画像評価(S22)の処理について、図16を用いて説明する。オブジェクト重要度算出部51は、画像に写るオブジェクトの重要度を算出するオブジェクト重要度を算出し(S161)、次にセグメント重要度算出部52は、画像内のセグメントの重要度を算出する(S12)。
図17を用いて、オブジェクト重要度を算出する処理(S161)について、説明する。オブジェクト重要度算出部51は、オブジェクトクラスタ情報記憶部71からオブジェクトクラスタ情報を取得する(S171)。
オブジェクト重要度算出部51は、取得されたオブジェクトクラスタ情報に基づいて、オブジェクトクラスタ毎に、
(A)そのオブジェクトクラスタに属するオブジェクトが写る画像の枚数
を求め、これを
(B)全画像枚数
で除することにより(A/B)、オブジェクトの出現頻度を求めこれをオブジェクトの重要度として算出する。そして、算出したオブジェクト重要度をオブジェクト重要度記憶部75に記憶させる(S172)。
例えば、2枚の画像に同一のオブジェクトクラスタに属する人物Xが写っていた場合、
人物Xの出現頻度は2であり、人物Xのオブジェクト重要度も2となる。これは、ユーザが重要なオブジェクトを頻繁に撮影する傾向から考慮されたものであり、全ての画像において出現頻度が高いオブジェクトを重要と考える。
図18は、オブジェクト重要度算出の結果を示すオブジェクト重要度のデータ構造を示す図である。オブジェクト重要度は、画像に写るオブジェクトの重要度を示す情報であり、「人物」「オブジェクト重要度」「順位」の項目を含む。ここでは一例として、画像に写る人物aと人物bそれぞれのオブジェクト重要度1.0と0.67、そしてその重要度による順位を記憶している。
図16のセグメント重要度算出(S162)の詳細について説明する。
図19に示すように、セグメント重要度算出部52は、画像に含まれるオブジェクトセグメントの重要度を算出し(S191)、続いて画像に含まれる前景・背景セグメントの注目度を算出する(S192)。次に、算出した前景セグメントの注目度に基づいて、前景セグメントの重要度を算出し(S193)、続いて背景セグメントの重要度を算出する(S194)。
注目度とは、重要な人物と重要な被写体とが点対称となる位置関係で撮影しがちなユーザの傾向を前提とした画像の重要度を算出する為の1つの要素である。注目度は、画像における人物と前景(物体)との位置関係から算出されるものであり、その算出処理は図22を用いて後述する。
オブジェクトセグメントの重要度算出(S191)の処理について、図20を用いて説明する。セグメント重要度算出部52は、オブジェクトクラスタ情報記憶部71からオブジェクトクラスタ情報とオブジェクト重要度情報記憶部71からオブジェクト重要度とセグメントクラスタ情報記憶部73からオブジェクトセグメントに関するセグメントクラスタ情報を取得し(S201)、オブジェクトセグメントに含まれる人物の重要度をオブジェクトセグメントの重要度として算出する(S202)。
図21を用いて、S202の動作を具体的に説明する。セグメント重要度算出部52は、画像からS32で抽出された顔(オブジェクト)の全画像において出現した頻度を算出し、算出した頻度を正規化することで、画像内の各オブジェクトセグメントの重要度を算出する(S211)。ここでは一例として、画像E、A、C(図21(a))から、画像E内に写る人物A、人物Bをそれぞれオブジェクトセグメント1(OS1)、オブジェクトセグメント2(OS2)と分類する。次に、オブジェクトセグメントOS1,OS2の重要度をそれぞれ人物A、Bの出現頻度を正規化した値で算出する(図21(b))。
次に図19のセグメント注目度算出(S192)について、説明する。
図22に示すように、セグメント重要度算出部52は、セグメントクラスタ情報記憶部73からセグメント情報とセグメント重要度記憶部76からセグメント重要度を取得し(S221)、取得したセグメント情報とセグメント重要度に基づいて、注目位置を算出し(S222)、算出した注目位置に基づいて、画像内の前景・背景セグメントのセグメント注目度を算出する(S223)。
図23を用いて、S222、S223の動作を具体的に説明すると、セグメント重要度算出部52は、画像からオブジェクトセグメントの中心位置と重要度から重心を算出し(S231)、算出された重心と画像の中心位置から、重心と点対称の注目位置を算出する(S232)。そして、算出した注目位置とオブジェクトセグメント以外のセグメントの距離とオブジェクトセグメントの重要度の平均から、セグメント注目度を算出する(S233)。ここでは一例として、画像E(図23(a))に基づいて、
・人物AのオブジェクトセグメントOS1の中心位置C1
・人物BのオブジェクトセグメントOS2の中心位置C2
を求める。
そして、(C1の座標×OS1の重要度+C2の座標×OS2の重要度)/(OS1の重要度+OS2の重要度)を求めることにより、重心Gの座標を算出する(図23(b))。
次に、画像Eの中心点を中心としたときの、重心Gの点対称となる位置を注目位置Pとする(図23(c))。
また、灯台の前景セグメントFS1の中心位置C3を求め、注目位置Pと中心位置C3との距離を基にFS1のセグメント注目度を算出する(図23(d))。上述のように重要な人物に対して点対称となる位置にある被写体は撮影したユーザが重要と考えるものと推定されるので、この注目位置Pにより近い前景(背景)セグメントほど、セグメント注目度を高く評価する。
次に、図19の前景セグメントの重要度算出(S193)について説明する。
図24に示すように、セグメント重要度算出部52は、各記憶部72〜73,76からイベントクラスタ情報、セグメントクラスタ情報、セグメント特徴量、セグメント注目度、撮影日時情報を取得する(S241)。
そして、セグメント重要度算出部52はイベントクラスタ情報を参照して、前景セグメントの重要度を算出する対象画像と同じイベントに属する他の画像を特定し、対象画像と他の画像の特徴量の類似度を算出する(S242)。そして、撮影日時情報から対象画像と他の画像との撮影間隔の算出を行う(S243)。
続いてセグメント重要度算出部52は、S242で算出された類似度とS243で算出された撮影間隔から前景共起度を算出する(S244)。このS242〜S244の処理を、あるひとつのイベントに含まれる対象画像と対象以外の全ての画像とを用いて行い、算出された全ての前景共起度から、対象画像の前景セグメントの重要度を算出し、セグメント重要度記憶部に記憶させる(S245)。
「前景共起度」とは、重要な被写体をユーザは短期間で何度も撮影する傾向を前提とした、画像の重要度を算出するための1つの要素であり、対象画像と同じイベントに属する他の画像(周辺画像)に写る画像の前景との関係から算出される。
図25を用いて、S242〜S245の動作を具体的に説明すると、セグメント重要度算出部52は、対象画像から抽出した前景セグメントと対象画像の前後の画像から抽出した前景セグメントとでセグメント特徴量の類似度を算出する。算出した類似度で最も高かった前景セグメントの類似度と注目度と前後の画像と対象画像との撮影間隔から、対象画像の前景セグメントの共起度を算出する。
ここでは一例として、画像F、E、G(図25(a))から、前景セグメントFS1、FS2、FS3を抽出し、画像Eの前景セグメントFS2と前後の画像F、Gの前景セグメントFS1、FS3との類似度を算出する。
次に、前後の画像で最も類似度が高い前景セグメントを選別する。ここでは、前景セグメントFS1、FS3である。そして、選別された前景セグメントの類似度と注目度と対象画像との撮影間隔の三者をそれぞれ1を加算した上で掛け合わせ、対象画像の前景セグメントFS2の共起度を算出する(S251)。ここでは、画像Eの前景セグメントFS2の共起度は、5.43である。なお、撮影間隔は、0〜1の範囲であり、1に近いほど撮影間隔が近いことを示す。また、類似度は、0〜1の範囲であり、1に近いほどよく似ていることを示す。
最後に、セグメント重要度算出部52は、共起度5.43と、注目度0.7に1を加算した値とを掛け合わせ、得られた値9.23を、前景セグメントFS2の重要度として出力する(S252)。
このような計算により、撮影間隔がより短い画像であったり、セグメント特徴量がより類似した前景を含んでいたりするほど、より重要な前景セグメントとして評価されることとなる。
図25(d)の計算式の例は一例であり、上述のように重要な被写体をユーザは短期間で何度も撮影する傾向を反映できるような計算式であれば、これに限られない。つまり、重要度を算出する対象の前景セグメントが、前後の画像における前景セグメントと類似しているほど、かつ(または)、前後の画像との撮影間隔が近いほど、その前景セグメントの重要度を高く算出できるような計算式であれば足りる。また、撮影間隔の要素については必須ではなく、用いない場合も考えられる。
図19の背景セグメントの重要度算出(S194)について、図26を用いて説明する。
セグメント重要度算出部52は、各記憶部などからイベントクラスタ情報、セグメントクラスタ情報、セグメント特徴量、前景セグメントの重要度、撮影日時情報を取得する(S261)。
そして、セグメント重要度算出部52はイベントクラスタ情報を参照して、前景セグメントの重要度を算出する対象画像と同じイベントに属する他の画像を特定し、対象画像と他の画像の特徴量の類似度を算出する(S262)。
そして、撮影日時情報から対象画像と他の画像との撮影間隔の算出を行う(S263)。
続いてセグメント重要度算出部52は、S262で算出された類似度とS263で算出された撮影間隔から背景共起度を算出する(S264)。
このS262〜S264の処理を、あるひとつのイベントに含まれる対象画像と対象以外の全ての画像とを用いて行い、算出された全ての前景共起度から、対象画像の前景セグメントの重要度を算出し、セグメント重要度記憶部に記憶させる(S265)。
図27を用いて、S262〜S265の動作を具体的に説明すると、セグメント重要度算出部52は、対象画像から抽出した背景セグメントと対象画像の前後の画像から抽出した背景セグメントとでセグメント特徴量の類似度を算出する。
そしてセグメント重要度算出部52は、算出した類似度で最も高かった背景セグメントの類似度と注目度と前後の画像と対象画像との撮影間隔から、対象画像の背景セグメントの共起度を算出する。
ここでは一例として、画像F,E,G(図25(a))から、画像Fは6個、画像Eは7個、画像Gは6個の背景セグメントを抽出する(S271,図25(b))。そして、画像Eの6個の背景セグメントの中から、背景セグメントが未算出な背景セグメントBS2を算出対象として決定する。そして、画像F,Gのそれぞれの背景セグメントの中から、この背景セグメントBS2と最も類似度の高い背景セグメントBS1,BS3を選別する(S272)。そして、BS2とBS1の類似度、BS2とBS3の類似度を求める。
求められた類似度と注目度と対象画像との撮影間隔を掛け合わせ、対象画像の背景セグメントBS2の共起度を算出する。ここでは、画像Eの背景セグメントBS2の共起度は、0.52である。
最後に、セグメント重要度算出部52は、共起度5.43と、注目度0.7に1を加算した値とを掛け合わせ、得られた値9.23を、背景セグメントBS2の重要度として出力する(S273)。
なお、画像Eには6個の背景セグメントがあるので、セグメント重要度算出部52は、残りの5個の背景セグメントについても同様に背景セグメントの重要度を算出することとなる。
また、図27の計算方法は一例であり、上で述べた前景セグメントの重要度と同様な変形例が考えられる。
図28は、セグメント重要度算出(S162)の結果を示すセグメント特徴量のデータ構造を示す図である。セグメント重要度は、画像のオブジェクト・前景・前景セグメントの重要度を示す情報であり、「画像ID」、「セグメント分類」、「注目度」、「共起度」、「セグメント重要度」などの項目を含む。
次に、図2の画像トリミング(S23)について、図29を用いて説明する。判定部61は、トリミング判定を行い(S291)、判定されたトリミングの種類に応じて、トリミング領域を算出する(S292)。
図30を用いて、トリミング判定する処理(S291)について、説明する。判定部61は、セグメントクラスタ情報記憶部73からセグメント情報を取得する(S301)。
そして、セグメント情報に示されるセグメントの種類や各セグメントの領域の大きさに基づいて、トリミングをする対象画像と前後に撮影された画像とのオブジェクト・前景セグメントの領域の大きさの変化度を算出し(S302)、算出された変化度から、「寄りトリミング」か「引きトリミング」のいずれかを判定し、加工情報記憶部77に記憶させる(S303)。
ここで、寄りトリミングとは、重要度の高いオブジェクトと前景の領域を切り出すものである。引きトリミングとは、重要度の高いオブジェクト、前景および背景の領域を切り出すものである。
図31を用いて、S302〜S303の動作を具体的に説明すると、判定部61は、対象画像から抽出したオブジェクト・前景の画像を占める割合(以降、占有度とする)と対象画像の前後の画像から抽出したオブジェクト・前景の占有度の差分から変化度を算出し、算出した変化度の値に応じてトリミングの種類を判定する。ここでは一例として、画像H、E(図31(a))から、オブジェクトとして人物ABと前景Aを抽出する(S311)。次に、各画像で抽出したオブジェクト・前景の占有度を算出する。この場合、画像HとEのオブジェクトの占有度は0.13、0.23となる。また、画像HとEの前景の占有度は0.13、0.15となる。次に、対象画像Eのオブジェクトと前景の占有度から前の画像Hのオブジェクトの占有度を差し引いて変化度を算出する。この場合、オブジェクトの変化度は0.1となり、前景の変化度は0.02となる。そして、オブジェクトと前景の変化度を合わせた全体の変化度0.12を算出する(S312)。
この結果、前の画像から対象画像にかけて、オブジェクトと前景が大きくなること(変化度が正数であること)から、寄りトリミングと判定する。
なお、前の画像から対象画像にかけてオブジェクトが小さくなる場合は、引きトリミングと判定する。
なお、図31の例では、計算を簡単にするために顔の領域を人物の領域の大きさとして用いているが、胴体をも含めた領域を用いても構わない。
次に図29のトリミング領域算出(S292)について、図32を用いて説明する。領域算出部62は、セグメントクラスタ情報記憶部73からセグメントクラスタ情報とセグメント重要度記憶部76からセグメント重要度と加工情報記憶部77からトリミング情報を取得する(S321)。次に、取得したセグメントクラスタ情報とセグメント重要度から、画像内のオブジェクト・前景・背景セグメントのそれぞれで重心を算出する(S323)。
トリミング判定(S291)が寄りトリミングの場合、
・オブジェクトセグメントの中心
・前景セグメントの中心
からトリミング中心を算出する。
トリミング中心は、各セグメントの中心位置の座標値と、それぞれの重要度を重みとして考慮することで求められる。図36に例を示す。
図36の例では、
トリミング中心TのX座標=[(OS1の重要度 × x1)+(OS2の重要度 × x2)+(OS3の重要度 × x3)]/[(OS1の重要度)+(OS2の重要度)+(OS3の重要度)]
であり、
トリミング中心TのY座標=[(OS1の重要度 × y1)+(OS2の重要度 × y2)+(OS3の重要度 × y3)]/[(OS1の重要度)+(OS2の重要度)+(OS3の重要度)]
となる。
トリミング判定(S291)が引きトリミングの場合、
・オブジェクトセグメントの中心
・前景セグメントの中心
・背景セグメントの中心
からトリミング中心を算出する(S323)。トリミング中心を算出のやり方は、寄りトリミングと同様である。
そして、寄りトリミングの場合、領域算出部62は、オブジェクト・前景セグメントのそれぞれで最も重要度が高いセグメントが含まれるトリミング領域を算出する。
これに対して、引きトリミングの場合、領域算出部62は、オブジェクト・前景・背景セグメントのそれぞれで最も重要度が高いセグメントが含まれるトリミング領域を算出する。
そして、領域算出部62はトリミングの種類、トリミング領域の位置を加工情報記憶部77に記憶させる(S324)。
S322〜S324の動作を具体的に説明する。
図33を用いて寄りトリミングの例を説明する。
領域算出部62は、まず対象画像から抽出したすべてのオブジェクトと前景セグメントの中心位置と重要度からトリミング中心を算出する。次に、算出したトリミング中心を中心に、オブジェクトと前景セグメントの中でそれぞれで最も重要度が高いセグメントが含まれる領域をトリミング領域として算出する。
ここでは一例として、画像I(図33(a))から、オブジェクトセグメントOS1、OS2と前景セグメントFS1、FS2を抽出する(図33(b))。
次に、抽出したOS1、OS2、FS1、FS2の中心位置と重要度からトリミング中心を算出する(図33(c))。そして、算出したトリミング中心を中心として、オブジェクトセグメントで最も重要度が高いOS1と前景セグメントで最も重要度が高いFS1が含まれる領域を算出する(図33(d))。
図34を用いて引きトリミングの例を説明する。
領域算出部62は、まず対象画像から抽出したすべてのオブジェクトセグメントと前景セグメントと背景セグメントの中心位置と重要度からトリミング中心を算出する。次に、算出したトリミング中心を中心に、オブジェクトセグメントの中で最も重要度が高いものと前景セグメントの中で最も重要度が高いものと背景セグメントの中で最も重要度が高いものが含まれる長方形の領域を、トリミング領域として算出する。
ここでは一例として、画像J(図34(a))から、オブジェクトセグメントOS1、OS2と背景セグメントBS1〜BS7を抽出する(図34(b))。次に、抽出したOS1、OS2、BS1〜BS7の中心位置と重要度から重心を算出する(図34(c))。そして、算出した重心を中心として、オブジェクトセグメントで最も重要度が高いOS1と背景セグメントで最も重要度が高いBS2が含まれる領域を算出している(図34(d))。
図35は、トリミング領域算出(S292)の結果を示すトリミング情報のデータ構造を示す図である。トリミング情報は、「画像ID」、「トリミング種類」、「トリミング中心(X,Y)」、「トリミングサイズ(W,H)」などの項目を含む。
加工実行部63は、このトリミング情報に基づいて、画像のトリミングを実行することとなる。
本実施の形態で説明した画像処理装置によれば、一の画像内における領域同士の関係性、および前記一の画像と他の画像それぞれの領域同士の関係性に基づいて、オブジェクトセグメントおよび前景セグメントの重要度を算出する。これにより、物体認識技術に依拠せずとも、ユーザにとって重要であると推定される物体の領域を切り抜くことに貢献できる。
(実施の形態2)
本実施の形態は、SNS(ソーシャルネットワークサービス)や画像共有サービスなどのサービスによりネットワーク上で共有された画像群から画像を取得することで、評価対象の画像の増加を図り、評価結果の信頼性を高めようとするものである。
つまり、あるユーザAが旅行先で撮影した画像の数が非常に少ない場合、実施の形態1で説明した手法を用いたとしても、画像数が少ないため、ユーザAにとって印象的だった背景(風景)・前景が写る画像が評価されないことがある(図39(a)参照)。
そこでユーザAの友人であるユーザBが撮影しソーシャルネットワーク上にアップロードしている画像も評価対象として用いる(図39(b)参照)。これにより、ユーザにとって印象的な背景(風景)・前景が写る画像をより適切に評価できるようにする。
図40は、実施の形態2の画像処理システム1aを示すブロック図である。
画像処理装置3aの画像取得部10aは、記憶媒体2から画像を取得する。また、予めユーザからSNSのユーザネームを受け付けており、そのユーザネームを用いSNSのAPI(Application Program Interface)にしたがってSNSサーバ2aからも画像を取得する。なお、SNSのAPIによっては、上記取得は、サインインなどの認証(Authentication)を伴うこともある。
イベント統合部90は、同一イベント判定部91において、SNSサーバ2aから取得した画像のイベントと、イベントクラスタ情報記憶部72でクラスタリング済みのイベントとの同一性を判定する。そして、イベント統合部90は、判定結果に基づいて両イベントを統合する。これらの詳細は図42を用いて後述する。
図42中、図1と同じ符号を付したブロックは、図1を用いて説明したものと同様なので説明を省略する。
<動作>
図41の左側は全体フローチャートであり、右側は画像取得、オブジェクト・イベント・セグメント抽出動作を示すフローチャートである。
全体フローチャートは、図2と比べると、画像取得、オブジェクト・イベント・セグメント抽出(S411)の処理内容と、イベント統合(S412)の処理が追加された点が異なる。
画像取得、オブジェクト・イベント・セグメント抽出の処理では、画像取得部10は、記憶媒体2から、記憶媒体2内に記憶された画像データを取得する。また、画像取得部10は、SNSサーバ2aからもAPIを利用して画像を取得する(S4111)。
例えば、画像取得部10は、SNSのユーザネームであるユーザAを用いて、SNSサーバ2aからユーザB(ユーザAの友人)の画像を取得する。
以降の処理(S32,S33,S34)は、実施の形態1で説明した処理と基本的には同様であるが、イベントの抽出処理(S33)では、記憶媒体2から取得した画像と、SNSサーバ2aから取得した画像とを分けて処理を行う。
イベント統合処理(S412)では、図42に示すように、イベント統合部90は、セグメント特徴量記憶部74からセグメント毎のセグメント特徴量を取得し、また、イベントクラスタ情報記憶部72からイベントクラスタ情報を取得する(S421)。
続いて、イベント統合部90は、イベントクラスタ情報を参照して、記録媒体2から取得した画像のイベントと、SNSサーバ2aから取得した画像のイベント(ソーシャルのイベント)の2つのイベントを設定し(S422)、設定したイベントの同一性を判定し(S423)、これらの処理を、取得経由の異なる2種類のイベントについての全ての組合せが完了するまで繰り返す(S424)。
例えば、記憶媒体2から取得した画像は、2種類のイベント(イベントa,イベントb)に分けられ、SNSサーバ2aから取得した画像は、1種類のイベントAに分けられていることを、ステップS421で取得したイベントクラスタ情報が示すとする。このとき、イベント統合部90は、まず、イベントaとイベントAとを設定し(S422)、両イベントの同一性を判定する(S423)。続いて、イベントbとイベントAとを設定し(S422)、両イベントの同一性を判定し(S423)、処理を終える(S424:Yes)。
続いて、同一イベント判定処理について説明する。同一イベント判定部91は、設定された2つイベントのうち、一方のイベントに属する画像のセグメント特徴量と、他方のイベントに属する画像のセグメント特徴量とを比較して、両イベントに同一人物が出現しているか(写っているか)どうかを判定する(S4231)。
図43に、この判定の具体例を示す。同一イベント判定部91は、記録媒体2から取得した画像についてのイベントaと、SNSサーバ2aから取得した画像についてのイベントAとのそれぞれの画像から人物を抽出し、両イベントに同一の人物が出現しているか否かを判定する。図43の例では、イベントa(Aさんの旅行写真)とイベントA(SNS上のBさんの旅行写真)に写る人物を抽出し、両イベントに人物Aが写っていることが分かる。
また、同一イベント判定部91は、一方のイベントの撮影期間と、他方のイベントの撮影期間との重複度合いを判定する(S4232)。
図44に、この判定の具体例を示す。同一イベント判定部91は、イベントaとイベントAとから最古の撮影日時と最新の撮影日時(撮影期間)を抽出し、両イベントが重複するか否かを判定する。図44の例では、イベントaとイベントAとで2000/09/01 8:30から2000/09/01 15:30までの期間が重複していることがわかる。
これらの判定結果(同一人物の出現の有無、撮影期間の重複度合いの大小)に基づいて、同一イベント判定部91は、一方のイベントと他方のイベントとが同一であるかを判定する。なお、図43、図44に示した手法の例では、両イベントに同一人物が出現しない場合や、撮影期間の重複がない場合には同一とは判定されないこととなる。
図45の例では、イベントaとイベントAとに同一人物Aが出現し、かつ撮影期間の重複が一定期間(割合)あったので、同一イベント判定部91はイベントaとイベントAとが同一と判定している。
同一であるならば、同一イベント判定部91は、イベントクラスタ情報記憶部77に両イベントが同一である旨を示す情報を書き込む。図42の右下の表では、イベントaとイベントAとが同一である旨を示している。このようなイベント統合処理(図41:S412)の後に行われる、画像評価処理(S22)、画像トリミング処理(S23)では、イベントaとイベントAとが同一と見なされるため、イベントaの画像に加えてソーシャルのイベントAの画像をも処理対象とすることができ、画像のサンプル数を増やすことで、より信頼性が高い結果を得ることができる。
以上説明したように、本実施の形態によれば、SNS(ソーシャルネットワークサービス)からも取得した画像を評価対象に加えることで、評価対象の画像数を増やすことができ、評価結果の信頼性を高めることに貢献できる。
(実施の形態3)
実施の形態1では、ユーザ操作無しの自動的なトリミングを可能としているが、本実施形態では、ユーザ操作を用いるトリミングの手法について説明する。
つまり、図46に示すように、ユーザにより指定されたオブジェクトには、セグメント重要度をより大きく重み付けすることで、その指定されたオブジェクトがトリミング領域に含まれるようにする。
図47は、実施の形態3の画像処理システム1bを示すブロック図である。
画像処理装置3bのユーザ操作取得部93は、入力インターフェイスなどを介してユーザの操作を取得する。
<動作>
図48は、トリミング領域算出の動作を示すフロー図である。図48中、図32と同様な処理には同じステップ番号を付している。
ステップS321の取得を終えると、ユーザ操作取得部93は、ユーザ操作を取得する(S481)。
この取得は、「トリミング領域に含めたいセグメントを指定してください」などのメッセージを含むメニューを表示して、ユーザに指定させる手法が考えられる。
これとは反対にユーザに特に意識させずに取得する手法でもよい。つまり、例えば画像処理装置3bがタッチセンサ付きのタブレットPCであるならば、画像の閲覧の際に、ユーザがタッチ操作したセグメントの回数を取得してもよいし、指を広げて拡大操作した(ピンチアウトした)位置にあるセグメントの回数を取得してもよい。
続いて、領域算出部62は、ユーザ操作に基づくトリミング中心算出を行う(S482)。 具体的には図49に示すように、基本的には図36で説明したトリミング中心の算出手法と同様であるが、ユーザが操作した(指定した)セグメントの回数を重み係数として用いる点が異なっている。なお、図49では、重み係数を操作(指定)回数に応じて設定するとしてが、上述のようにトリミング領域用のメニューを表示してユーザにより明確に指定されたセグメントに対しては、最大の重み係数を割り当てるとしても構わない。
図50は、図49の式を画像Pについて記したものである。
このようにユーザの操作(指定)を利用してトリミング中心を算出することにより、そのトリミング中心の位置をユーザが重要と考えるセグメントに近づけることができる。このため、ユーザが重要と考えるセグメントをトリミング領域内に漏らさず収められることを期待できる。
(実施の形態4)
本実施形態は、図51に示すように、テンプレートに含まれるトリミング条件を考慮して、トリミングをする領域を調整するものである。このトリミング条件には、人物・前景・背景のセグメントのうちの、少なくとも1つのセグメントの重要度に対する重み付けに関する条件が含まれている。この重み付けに基づいてセグメントの重要度を調整した後で、トリミング領域を算出する。
図52は、実施の形態4の画像処理システム1cを示すブロック図である。
画像処理装置3cのテンプレート取得部94は、トリミングに関するテンプレートを取得する。このテンプレートは、トリミング条件を含んでおり、このトリミング条件にはセグメントの種類(オブジェクト、前景、背景)毎の重み係数の置換式が記載されている。
この置換式は、例えば、セグメントの種類がオブジェクトならば重み係数を2倍、前景ならば重み係数を1.5倍、背景ならば重み係数を0.5倍とするといったものである。
トリミング条件読み込み部95は、テンプレート取得部94が取得したテンプレートに含まれるトリミング条件を読み込む。
領域算出部62は、読み込まれたトリミング条件を用いてトリミング中心を算出する。
<動作>
図53は、トリミング領域算出の動作を示すフロー図である。図53中、図32と同様な処理には同じステップ番号を付している。
ステップS321の後、テンプレート取得部94はテンプレートを取得する(S531)。その後、トリミング条件読み込み部95は、取得されたテンプレートに含まれるトリミング条件を読み込む(S532)。
続いて、領域算出部62は、読み込まれたトリミング条件に基づいてトリミング中心を算出する(S533)。具体的には図54に示すように領域算出部62は、トリミング条件に記載されているセグメント毎の重み係数を、各セグメントに乗算することによって、トリミング中心を算出する。これにより、トリミング中心の位置を、重み係数が高く設定された種類のセグメントに近づけることができる。このため、テンプレートのトリミング条件にて重要と指定されたセグメントをトリミング領域内に漏らさず収められることを期待できる。
(実施の形態5)
実施の形態1〜実施の形態4においては、画像を加工する処理の例としてトリミングを挙げて説明したが、この加工はトリミングに限られない。実施の形態1から実施の形態4で説明した手法は、画像の特定の領域が注目されるような(目立つような)様々な加工に適用できる。
図55は、実施の形態4の画像処理システム1dを示すブロック図である。
画像処理装置3dの画像加工部60aは、加工実行部64を有する。
加工実行部64は、トリミング部64a、ズームイン・アウト部64b、サムネイル作成部64cを有する。
ズームイン・アウト部64bは、画像のスライドムービーの再生の際に、重要度の高いセグメントが中央になるようにズームイン・ズームアウトを行う(図56(a))。このようなズーム動作によれば、ユーザにとって重要であると推定される人物や物体を大写しすることができる。
サムネイル作成部64cは、画像のサムネイルの作成の際に、重要度の高いセグメントを中心にしたサムネイルを作成する(図56(b))。
このようなサムネイルは、画像のサイズを単純に縮小した通常のサムネイルとは異なり、ユーザにとって重要であると推定される物体を目立たせることができる。
<補足1>
以上、本実施の形態について説明したが、本発明は上記の内容に限定されず、本発明の目的とそれに関連又は付随する目的を達成するための各種形態においても実施可能であり、例えば、以下であっても構わない。
(1)実施の形態1で説明した手法は、画像内のセグメント評価において、認識が比較的容易なセグメント(A)を手がかりとして、認識が比較的困難なセグメント(B)を評価する手法に広く適用できる。実施の形態1では、Aはオブジェクトセグメントにあたり、Bは前景(背景)セグメントにあたる。
また、実施の形態1では、オブジェクトとして人物を例に挙げて説明しているがオブジェクトは人物に限られるわけではない。現時点では、顔認識技術は他の一般物体と比べて研究が進んでおり認識精度が高いので、人物を例として取り上げたに過ぎない。
例えば現在または将来において、猫に関するモデルデータが蓄積されていて、猫に関しては精度良く認識できる環境があるとするならば、この猫のオブジェクトセグメントを手がかりとして、他のセグメントを評価するなどが考えられる。猫のほかにも、自動車、草花、虫、ペット(犬など)などが考えられる。
(2)実施の形態1では、オブジェクトセグメント重要度はオブジェクト重要度をそのまま用いているが、これに限られない。
例えば、人物の写り方の度合い(占有度、ピント、顔の向き、笑顔など)により評価するとしてもよい。占有度が高い、ピントが合っている、顔が正面を向いているもしくは笑顔の度合いが高いなどの要素があれば、オブジェクト重要度をより高く評価することが考えられる。
(3)実施の形態1では、寄りトリミング(引きトリミング)において、各種類のセグメントで最も重要度が高いものをトリミング領域に含めるとして説明したが、これに限られない。重要度が相対的に高いセグメント、低いセグメントと比べて優先するやり方であれば構わない。
例えば、トリミング領域に含めるセグメントの条件として、重要度が一定値以上という条件としたり、重要度が一定順位以内という条件とすることが考えられる。
また、トリミング判定(図29:S291,図30)の処理は必須ではなく、「引きトリミング」「寄りトリミング」を一方または両方行うようにしてもよいし、どちらを行うかの設定をユーザから受け付けるようにしてもよい。
(4)実施の形態1では、画像を、オブジェクト・前景・背景の3種類のセグメントに分類するとして説明したが、例えば、寄りトリミングのように背景セグメントを用いないトリミングしか行わないような場合には、オブジェクトと前景の2種類のセグメントに分類するとしても構わない。
(5)前景セグメント重要度算出(図24,図25参照)や背景セグメント重要度算出(図26,図27参照)において、セグメント重要度算出部52が用いる画像の選び方の具体例について図37を用いて説明する。
イベントaとして、7枚の画像a〜画像gが分類されているものとし、そのうちの画像dが重要度の算出対象であるとする(図37(a))。
手法1は、対象画像と対象画像以外の全ての画像を用いるものである(図37(b))。図の例では、対象画像dと、対象画像d以外の6枚の画像a〜画像c,画像e〜画像gを用いている。実施の形態1で説明した手法はこの手法1にあたる。
手法2は、対象画像と、対象画像から撮影間隔が一定以内の画像を用いるものである(図37(c))。図の例では、対象画像dと、対象画像dと撮影間隔が一定(例えば、数秒から数分程度)以内の画像b,c,eを用いている。この手法2は、手法1と比べて前景(背景)セグメントの重要度算出に用いる画像の枚数を、撮影日時を手がかりに減らすことができるので、処理負荷の軽減に役立てることができる。また、手法2は、撮影間隔による選別を行っているので、前景(背景)セグメントの重要度算出(図25,図27参照)に際して、撮影間隔を用いないやり方でも構わない。
手法3は、対象画像と、対象画像と類似度が一定以上の前景(背景)セグメントを含む画像を用いるものである(図37(d))。図の例では、対象画像dと、対象画像dと類似度が一定以上の前景(背景)セグメントを含む画像a,c,fを用いている。この手法3は、対象画像dとある程度類似している画像だけを用いることで、より信頼性の高い前景(背景)セグメントの重要度を算出することに寄与する。
なお、画像の選び方は、以上の例に限らない。例えば、対象画像の直前または直後の画像を選択することとしてもよい。また、選択する画像の枚数は、1枚であってもよく、予め定められた枚数であってもよく、例えば処理対象となる画像の枚数に応じて算出された枚数であってもよい。
(6)図33,図34の例では、トリミング領域の形状は長方形状であるが、これに限られない。角を丸くした長方形であってもよいし、楕円や円形もあり得る。例えば、アルバム作成に際して、あるフレームに収まるためにトリミングをする場合には、トリミング領域の形状はそのフレームの形状に合わせたものとなるだろう。つまりトリミング領域の形状は、そのトリミングの用途に合わせた形状となり得る。
(7)上記の実施の形態で説明した画像処理装置は、例えば、当該画像処理装置の機能を備える、BDレコーダ等のAV機器、パーソナルコンピュータ、およびサーバ端末などの据置き型端末、または、デジタルカメラや携帯電話などのモバイル型端末などとして実現することが可能である。
さらに、上記の実施の形態で説明した手法をネットワークサービスとして提供するサーバ装置とすることも可能である。
この場合、図38に示すように、コンテンツが蓄積されたAV機器110、パーソナルコンピュータ111、携帯デバイス112、デジタルカメラ113などからサーバ装置101がネットワークを介してコンテンツを受信すると、サーバ装置101は受信したコンテンツに対して上記の実施の形態で説明した手法による画像処理を行い、その処理結果を、ネットワークを介してAV機器110、パーソナルコンピュータ111、携帯デバイス112、デジタルカメラ113などに送信するようにすればよい。
また、上記の実施の形態で説明した手法の手順を記述したプログラムをメモリに記憶しておき、CPU(Central Processing Unit)などがメモリからプログラムを読み出して、読み出したプログラムを実行することによって、上記の手法が実現されるようにしてもよい。
また、当該手法の手順を記述したプログラムをDVD等の記録媒体に格納して、頒布するようにしてもよい。また、当該手法の手順を記述したプログラムをインターネット等の伝送媒体を介して広く流通させてもよい。
上記の各実施の形態にかかる各構成は、集積回路であるLSI(Large Scale Integration)として実現されてもよい。これらの構成は、1チップ化されても良いし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIと表現したが、回路の集積度の違いによっては、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと称呼されることもある。また、集積回路化の手法は、LSIに限られるものではなく、専用回路または汎用プロセッサで集積回路化を行ってもよい。また、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサー(ReConfigurable Processor)を用いてもよい。あるいは、これらの機能ブロックの演算は、例えば、DSP(Digital Signal Processor)やCPU(Central Processing Unit)などを用いて演算することもできる。さらに、これらの処理ステップはプログラムとして記録媒体に記録して実行することで処理することもできる。
(8)実施の形態2では、ユーザAのSNS上の友人であるユーザBから画像を取得する例について説明したがこれに限られない。
画像の取得範囲を広げるため(あるいは狭めるため)に、例えば、次のようなユーザから画像を取得することが考えられる。
・ユーザAの友人の友人のユーザ
・ユーザAとSNS上で結び付き(コネクション)の強さが一定以上のユーザ
なお、「友人の友人」や「結び付きの強さ」は、SNSが提供するソーシャルグラフについてのAPIを用いて判断することができる。
<補足2>
本実施の形態は、以下の態様を含むものである。
(1)本実施の形態に係る画像処理装置は、複数の画像のそれぞれについて、画像内を複数のセグメントに分割する分割部と、一の画像内における異なるセグメント間の関係性、あるいは前記一の画像のセグメントと所定の他の画像とのセグメント同士の関係性に基づいて、前記一の画像内のセグメントそれぞれの重要度を算出する算出部と、を備えることを特徴とする。
(2)(1)において、前記分割されたセグメントを、オブジェクト、前景および背景のうちのいずれか1つの種類に分類する分類部を備えるとしても構わない。
(3)(2)において、前記分類部は、顔検出された領域および胴体と推定される領域に相当するセグメントをオブジェクトセグメントに分類するとしても構わない。
(4)(2)において、画像に写る色・輝度・エッジ方向・奥行き情報の内、少なくとも1つの情報を用いて、周辺とは異なる領域に相当するセグメントを前景セグメントに分類するとしても構わない。
(5)(2)において、前記算出部は、セグメントの注目度、セグメントの共起度、およびオブジェクト重要度のうち、の少なくとも1つを用いて算出を行うとしても構わない。
(6)(5)において、前記算出部は、前記オブジェクト重要度を、そのオブジェクトが属するクラスタが前記複数の画像において出現する頻度が高いほど高く算出し、算出したオブジェクト重要度に基づいてオブジェクトセグメントの重要度を算出するとしても構わない。
(7)(5)において、前記算出部は、前記セグメントの注目度を、前記一の画像内において撮影者が注目したと推定される注目位置に近いセグメントほど高く算出し、算出したセグメントの注目度に基づいて前景セグメントと背景セグメントの重要度を算出するとしても構わない。
(8)(7)において、前記算出部は、前記一の画像内のオブジェクトセグメントの重心を求め、当該画像の中心点を中心として前記重心の点対称となる位置を前記注目位置として求めるとしても構わない。
(9)(5)において、前記セグメントの共起度を、(i)前記一の画像内の重要度の算出対象となる前景または背景のセグメントと、他の画像内における前景または背景セグメントとの類似度、(ii)前記一の画像と他の画像との撮影間隔の長さ、(iii)前記一の画像内において撮影者が注目したと推定される注目位置への近さ、の少なくとも1つに基づいて算出するとしても構わない。
(10)(2)において、前記所定の他の画像は、前記一の画像との類似度が所定の値以上の前景セグメントを含む画像である、としても構わない。
(11)(1)において、前記画像内のセグメントの重要度に基づいて、加工対象とする領域の中心と大きさを算出し、算出した領域を加工する加工部を備えるとしても構わない。
(12)(11)において、前記一の画像におけるオブジェクトセグメントまたは前景セグメントの大きさと、前記一の画像の撮影日時の直前の画像におけるオブジェクトセグメントまたは前景セグメントの大きさとの変化度を算出し、算出された変化度に基づいて、オブジェクトセグメント、前景セグメントおよび背景セグメントを含む領域のうち加工の対象となる領域を算出するとしても構わない。
(13)(11)において、さらに、加工対象とするセグメントを指定するためのユーザ操作を取得するユーザ操作取得部を備え、前記加工部は、取得したユーザ操作に基づいて前記領域を算出するとしても構わない。
(14)(11)において、前記加工部は、領域の設定条件を示すテンプレートに基づいて前記領域を算出するとしても構わない。
(15)(1)において、前記複数の画像に関する画像を、ネットワーク上で共有された画像群から取得する画像取得部を備え、前記分割部および前記算出部は、前記複数の画像に加えて取得された画像もそれぞれ処理の対象とするとしても構わない。
(16)(1)において、前記所定の他の画像は、前記一の画像と撮影日時が前または後の所定枚数の画像であるとしても構わない。
(17)(1)において、前記所定の他の画像は、前記一の画像と撮影間隔が所定の範囲内の画像であるとしても構わない。
(18)実施の形態に係る画像処理方法は、複数の画像のそれぞれについて、画像内を複数のセグメントに分割する分割ステップと、一の画像内における異なるセグメント間の関係性、あるいは前記一の画像のセグメントと所定の他の画像とのセグメント同士の関係性に基づいて、前記一の画像内のセグメントそれぞれの重要度を算出する算出ステップと、を含む。
(19)実施の形態に係るプログラムは、画像処理ステップを含む処理を画像処理装置に実行させるプログラムであって、前記画像処理ステップは、複数の画像のそれぞれについて、画像内を複数のセグメントに分割する分割ステップと、一の画像内における異なるセグメント間の関係性、あるいは前記一の画像のセグメントと所定の他の画像とのセグメント同士の関係性に基づいて、前記一の画像内のセグメントそれぞれの重要度を算出する算出ステップとを含む。
(20)実施の形態に係る集積回路は、複数の画像のそれぞれについて、画像内を複数のセグメントに分割する分割部と、一の画像内における異なるセグメント間の関係性、あるいは前記一の画像のセグメントと所定の他の画像とのセグメント同士の関係性に基づいて、前記一の画像内のセグメントそれぞれの重要度を算出する算出部と、を備える。
本発明に係る画像処理装置および画像処理方法では、今までは画像に写る物体を認識した上で画像切抜きをしていたのに対して、画像の物体を認識することなく、家族が撮影したコンテンツの傾向から、画像内の家族にとって重要な領域を推定することができる。このような推定により、例えば旅行先のオブジェクトあるいは風景などが写る画像から重要な領域の切抜きをすることができる。
これを用いることで、家族コンテンツによって作成される画像アルバム作成においても、アルバムの画像挿入用のフレームの形や大きさに合わせて、挿入する画像の重要領域を含んだ切抜きを行うことができることから、アルバムを通してユーザはより効率的にイベントを振り返ることができ、パーソナルコンピュータやサーバ端末などの据置き型端末などで有用である。また、デジタルカメラや携帯電話などのモバイル型端末などとしても有用である。
1,1a,1b,1c,1d 画像処理システム
2 記憶媒体
2a SNSサーバ
3,3a,3b,3c,3d 画像処理装置
4 ディスプレイ
10,10a 画像取得部
20 オブジェクト抽出部
21 オブジェクト特徴量抽出部
22 オブジェクトクラスタリング部
30 イベント抽出部
31 撮影日時抽出部
32 イベントクラスタリング部
40 セグメント抽出部
41 セグメント分割部
42 セグメント分類部
43 セグメント特徴量抽出部
50 画像評価部
51 オブジェクト重要度算出部
52 セグメント重要度算出部
60 画像加工部
61 判定部
62 領域算出部
63 加工実行部
70 記憶部
71 オブジェクトクラスタ情報記憶
72 イベントクラスタ情報記憶部
73 セグメントクラスタ情報記憶部
74 セグメント特徴量記憶部
75 オブジェクト重要度記憶部
76 セグメント重要度記憶部
77 加工情報記憶部
80 表示制御部
90 イベント統合部
91 同一イベント判定部
93 ユーザ操作取得部
94 テンプレート取得部
95 トリミング条件読み込み部

Claims (20)

  1. 複数の画像のそれぞれについて、画像内を複数のセグメントに分割する分割部と、
    一の画像内における異なるセグメント間の関係性、あるいは前記一の画像のセグメントと所定の他の画像とのセグメント同士の関係性に基づいて、前記一の画像内のセグメントそれぞれの重要度を算出する算出部と、
    を備えることを特徴とする画像処理装置。
  2. 前記分割されたセグメントを、オブジェクト、前景および背景のうちのいずれか1つの種類に分類する分類部を備えることを特徴とする請求項1に記載の画像処理装置。
  3. 前記分類部は、顔検出された領域および胴体と推定される領域に相当するセグメントをオブジェクトセグメントに分類することを特徴とする請求項2に記載の画像処理装置。
  4. 前記分類部は、画像に写る色・輝度・エッジ方向・奥行き情報の内、少なくとも1つの情報を用いて、周辺とは異なる領域に相当するセグメントを前景セグメントに分類することを特徴とする請求項2に記載の画像処理装置。
  5. 前記算出部は、セグメントの注目度、セグメントの共起度、およびオブジェクト重要度のうち、の少なくとも1つを用いて算出を行うことを特徴とする請求項2に記載の画像処理装置。
  6. 前記算出部は、前記オブジェクト重要度を、そのオブジェクトが属するクラスタが前記複数の画像において出現する頻度が高いほど高く算出し、算出したオブジェクト重要度に基づいてオブジェクトセグメントの重要度を算出することを特徴とする請求項5に記載の画像処理装置。
  7. 前記算出部は、前記セグメントの注目度を、前記一の画像内において撮影者が注目したと推定される注目位置に近いセグメントほど高く算出し、算出したセグメントの注目度に基づいて前景セグメントと背景セグメントの重要度を算出することを特徴とする請求項5に記載の画像処理装置。
  8. 前記算出部は、前記一の画像内のオブジェクトセグメントの重心を求め、当該画像の中心点を中心として前記重心の点対称となる位置を前記注目位置として求めることを特徴とする請求項7に記載の画像処理装置。
  9. 前記算出部は、前記セグメントの共起度を、(1)前記一の画像内の重要度の算出対象となる前景または背景のセグメントと、他の画像内における前景または背景セグメントとの類似度、(2)前記一の画像と他の画像との撮影間隔の長さ、(3)前記一の画像内において撮影者が注目したと推定される注目位置への近さ、の少なくとも1つに基づいて算出することを特徴とする請求項5に記載の画像処理装置。
  10. 前記所定の他の画像は、前記一の画像との類似度が所定の値以上の前景セグメントを含む画像である、請求項2記載の画像処理装置。
  11. 前記画像内のセグメントの重要度に基づいて、加工対象とする領域の中心と大きさを算出し、算出した領域を加工する加工部を備えることを特徴とする請求項1に記載の画像処理装置。
  12. 前記加工部は、前記一の画像におけるオブジェクトセグメントまたは前景セグメントの大きさと、前記一の画像の撮影日時の直前の画像におけるオブジェクトセグメントまたは前景セグメントの大きさとの変化度を算出し、
    算出された変化度に基づいて、オブジェクトセグメント、前景セグメントおよび背景セグメントを含む領域のうち加工の対象となる領域を算出することを特徴とする請求項11に記載の画像処理装置。
  13. さらに、加工対象とするセグメントを指定するためのユーザ操作を取得するユーザ操作取得部を備え、前記加工部は、取得したユーザ操作に基づいて前記領域を算出することを特徴とする請求項11に記載の画像処理装置。
  14. 前記加工部は、領域の設定条件を示すテンプレートに基づいて前記領域を算出することを特徴とする請求項11に記載の画像処理装置。
  15. さらに、前記複数の画像に関する画像を、ネットワーク上で共有された画像群から取得する画像取得部を備え、前記分割部および前記算出部は、前記複数の画像に加えて取得された画像もそれぞれ処理の対象とすること特徴とする請求項1に記載の画像処理装置。
  16. 前記所定の他の画像は、前記一の画像と撮影日時が前または後の所定枚数の画像である請求項1記載の画像処理装置。
  17. 前記所定の他の画像は、前記一の画像と撮影間隔が所定の範囲内の画像である請求項1記載の画像処理装置。
  18. 複数の画像のそれぞれについて、画像内を複数のセグメントに分割する分割ステップと、
    一の画像内における異なるセグメント間の関係性、あるいは前記一の画像のセグメントと所定の他の画像とのセグメント同士の関係性に基づいて、前記一の画像内のセグメントそれぞれの重要度を算出する算出ステップと、
    を含むことを特徴とする画像処理方法。
  19. 画像処理ステップを含む処理を画像処理装置に実行させるプログラムであって、
    前記画像処理ステップは、複数の画像のそれぞれについて、画像内を複数のセグメントに分割する分割ステップと、一の画像内における異なるセグメント間の関係性、あるいは前記一の画像のセグメントと所定の他の画像とのセグメント同士の関係性に基づいて、前記一の画像内のセグメントそれぞれの重要度を算出する算出ステップとを含む
    ことを特徴とするプログラム。
  20. 複数の画像のそれぞれについて、画像内を複数のセグメントに分割する分割部と、
    一の画像内における異なるセグメント間の関係性、あるいは前記一の画像のセグメントと所定の他の画像とのセグメント同士の関係性に基づいて、前記一の画像内のセグメントそれぞれの重要度を算出する算出部と、
    を備えることを特徴とする集積回路。
JP2013531022A 2011-08-29 2012-08-06 画像処理装置、画像処理方法、プログラム、集積回路 Active JP6023058B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011186324 2011-08-29
JP2011186324 2011-08-29
PCT/JP2012/004992 WO2013031096A1 (ja) 2011-08-29 2012-08-06 画像処理装置、画像処理方法、プログラム、集積回路

Publications (2)

Publication Number Publication Date
JPWO2013031096A1 true JPWO2013031096A1 (ja) 2015-03-23
JP6023058B2 JP6023058B2 (ja) 2016-11-09

Family

ID=47755628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013531022A Active JP6023058B2 (ja) 2011-08-29 2012-08-06 画像処理装置、画像処理方法、プログラム、集積回路

Country Status (4)

Country Link
US (1) US9025872B2 (ja)
JP (1) JP6023058B2 (ja)
CN (1) CN103201769B (ja)
WO (1) WO2013031096A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11741665B2 (en) 2019-09-19 2023-08-29 Fujifilm Business Innovation Corp. Image processing apparatus and non-transitory computer readable medium storing image processing program

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013164643A (ja) * 2012-02-09 2013-08-22 Honda Elesys Co Ltd 画像認識装置、画像認識方法および画像認識プログラム
JP5967577B2 (ja) * 2012-10-18 2016-08-10 パナソニックIpマネジメント株式会社 共クラスタリング装置、共クラスタリング方法、プログラム及び集積回路
US9894269B2 (en) 2012-10-31 2018-02-13 Atheer, Inc. Method and apparatus for background subtraction using focus differences
US9607235B2 (en) 2013-03-14 2017-03-28 Facebook, Inc. Image cropping according to points of interest
CN104346801B (zh) * 2013-08-02 2018-07-20 佳能株式会社 图像构图评估装置、信息处理装置及其方法
JP6341650B2 (ja) * 2013-11-20 2018-06-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9804392B2 (en) 2014-11-20 2017-10-31 Atheer, Inc. Method and apparatus for delivering and controlling multi-feed data
CN105989174B (zh) * 2015-03-05 2019-11-01 欧姆龙株式会社 关注区域提取装置以及关注区域提取方法
JP6554413B2 (ja) * 2015-12-21 2019-07-31 オリンパス株式会社 色調整装置
US10229324B2 (en) 2015-12-24 2019-03-12 Intel Corporation Video summarization using semantic information
US10567312B2 (en) 2016-04-11 2020-02-18 Facebook, Inc. Techniques for messaging bot controls based on machine-learning user intent detection
US10581771B2 (en) * 2016-04-11 2020-03-03 Facebook, Inc. Techniques for a messaging agent platform
US10303984B2 (en) 2016-05-17 2019-05-28 Intel Corporation Visual search and retrieval using semantic information
WO2018025845A1 (ja) * 2016-08-03 2018-02-08 日本電気株式会社 検出装置、検出方法及びプログラムを記憶する記憶媒体
US11233760B2 (en) 2016-09-21 2022-01-25 Facebook, Inc. Module ranking for a modular inbox
US10356029B2 (en) 2016-09-21 2019-07-16 Facebook, Inc. Methods and systems for presenting modules in an inbox interface
WO2018128015A1 (ja) * 2017-01-05 2018-07-12 日本電気株式会社 不審度推定モデル生成装置
JP6859765B2 (ja) 2017-03-13 2021-04-14 株式会社リコー 画像処理装置、画像処理方法およびプログラム
JP6885896B2 (ja) * 2017-04-10 2021-06-16 富士フイルム株式会社 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム
JP6580625B2 (ja) * 2017-05-19 2019-09-25 ヤフー株式会社 画像処理装置、画像編集装置、およびプログラム
JP6977345B2 (ja) * 2017-07-10 2021-12-08 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
CN107679560B (zh) * 2017-09-15 2021-07-09 Oppo广东移动通信有限公司 数据传输方法、装置、移动终端及计算机可读存储介质
CN110580428A (zh) * 2018-06-08 2019-12-17 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
JP2020091662A (ja) * 2018-12-05 2020-06-11 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2021149295A (ja) 2020-03-17 2021-09-27 富士フイルムビジネスイノベーション株式会社 画像処理装置及びプログラム
CN111950348A (zh) * 2020-06-29 2020-11-17 北京百度网讯科技有限公司 安全带的佩戴状态识别方法、装置、电子设备和存储介质
US11361152B2 (en) * 2020-07-20 2022-06-14 Labelbox, Inc. System and method for automated content labeling
CN113313042B (zh) * 2021-06-08 2024-01-05 成都鼎辉智慧农业科技有限公司 一种图像处理方法、摄食状态检测方法及存储介质
WO2022264370A1 (ja) * 2021-06-17 2022-12-22 日本電気株式会社 画像処理装置、画像処理方法及びプログラム
US11922702B2 (en) * 2021-08-19 2024-03-05 Ford Global Technologies, Llc Enhanced object detection

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069846A (ja) * 2001-08-27 2003-03-07 Fujitsu Ltd 画像処理プログラム
JP2005122501A (ja) * 2003-10-17 2005-05-12 Sharp Corp 表示データ編集装置、表示装置、表示データ編集方法、プログラム及び記録媒体
JP2006067521A (ja) * 2004-08-30 2006-03-09 Kyocera Corp 画像処理装置と方法、および画像撮像装置と方法
JP2007214781A (ja) * 2006-02-08 2007-08-23 Fujifilm Corp 画像トリミング装置、画像トリミング方法、およびそのプログラム
JP2007310805A (ja) * 2006-05-22 2007-11-29 Matsushita Electric Ind Co Ltd 物体認識装置
JP2008257127A (ja) * 2007-04-09 2008-10-23 Toppan Printing Co Ltd 画像表示装置及び画像表示方法
JP2008306583A (ja) * 2007-06-08 2008-12-18 Canon Inc 印刷システムおよび画像形成装置
JP2009151858A (ja) * 2007-12-19 2009-07-09 Sony Corp レーベルプリント装置、レーベルプリントシステム及びレーベルプリント方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04315344A (ja) 1991-04-15 1992-11-06 Nippon Telegr & Teleph Corp <Ntt> 符号誤り監視装置
JP4374718B2 (ja) 2000-04-20 2009-12-02 シンフォニアテクノロジー株式会社 顔写真画像切り抜き処理方法
JP2002149673A (ja) * 2000-06-14 2002-05-24 Matsushita Electric Ind Co Ltd データ処理装置およびデータ処理方法
KR100708337B1 (ko) * 2003-06-27 2007-04-17 주식회사 케이티 퍼지 기반 oc―svm을 이용한 동영상 자동 요약 장치및 방법
JP4315344B2 (ja) 2003-11-27 2009-08-19 富士フイルム株式会社 画像編集装置および方法並びにプログラム
JP5036612B2 (ja) * 2008-03-28 2012-09-26 三洋電機株式会社 撮像装置
JP5328815B2 (ja) * 2009-01-14 2013-10-30 パナソニック株式会社 撮像装置及び撮像方法
CN101866422A (zh) * 2010-06-29 2010-10-20 上海大学 基于图像的多特征融合提取图像关注度的方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003069846A (ja) * 2001-08-27 2003-03-07 Fujitsu Ltd 画像処理プログラム
JP2005122501A (ja) * 2003-10-17 2005-05-12 Sharp Corp 表示データ編集装置、表示装置、表示データ編集方法、プログラム及び記録媒体
JP2006067521A (ja) * 2004-08-30 2006-03-09 Kyocera Corp 画像処理装置と方法、および画像撮像装置と方法
JP2007214781A (ja) * 2006-02-08 2007-08-23 Fujifilm Corp 画像トリミング装置、画像トリミング方法、およびそのプログラム
JP2007310805A (ja) * 2006-05-22 2007-11-29 Matsushita Electric Ind Co Ltd 物体認識装置
JP2008257127A (ja) * 2007-04-09 2008-10-23 Toppan Printing Co Ltd 画像表示装置及び画像表示方法
JP2008306583A (ja) * 2007-06-08 2008-12-18 Canon Inc 印刷システムおよび画像形成装置
JP2009151858A (ja) * 2007-12-19 2009-07-09 Sony Corp レーベルプリント装置、レーベルプリントシステム及びレーベルプリント方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11741665B2 (en) 2019-09-19 2023-08-29 Fujifilm Business Innovation Corp. Image processing apparatus and non-transitory computer readable medium storing image processing program

Also Published As

Publication number Publication date
CN103201769B (zh) 2016-09-07
US20130195359A1 (en) 2013-08-01
WO2013031096A1 (ja) 2013-03-07
CN103201769A (zh) 2013-07-10
US9025872B2 (en) 2015-05-05
JP6023058B2 (ja) 2016-11-09

Similar Documents

Publication Publication Date Title
JP6023058B2 (ja) 画像処理装置、画像処理方法、プログラム、集積回路
JP5934653B2 (ja) 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置
US10579669B2 (en) System, apparatus, method, program and recording medium for processing image
JP4139615B2 (ja) 前景/背景セグメント化を用いた画像のイベント・クラスタリング
JP5818799B2 (ja) デジタル画像の美的品質の推定方法
JP5848336B2 (ja) 画像処理装置
US9082013B2 (en) Image recognition device, image recognition method, program, and integrated circuit
CN101426093B (zh) 图像处理设备和图像处理方法
US8908976B2 (en) Image information processing apparatus
CN110210276A (zh) 一种移动轨迹获取方法及其设备、存储介质、终端
JP5779089B2 (ja) エッジ検出装置、エッジ検出プログラム、およびエッジ検出方法
JP2012014376A (ja) 画像処理装置及び方法、並びにプログラム
CN111311475A (zh) 检测模型训练方法、装置、存储介质和计算机设备
US8270731B2 (en) Image classification using range information
CN112069342A (zh) 图像分类方法、装置、电子设备及存储介质
JP2011049866A (ja) 画像表示装置
JP2018194956A (ja) 画像認識装置、方法、及びプログラム
CN110751034A (zh) 行人行为识别方法及终端设备
JP2013175956A (ja) 撮像装置、撮像方法、画像処理装置、画像処理方法および画像処理システム
Cavalcanti et al. A survey on automatic techniques for enhancement and analysis of digital photography
CN112906466A (zh) 图像关联方法、系统及设备以及图像搜索方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160805

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161006

R150 Certificate of patent or registration of utility model

Ref document number: 6023058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250