JP2009212929A - 画像トリミング範囲の評価方法、装置およびプログラム - Google Patents

画像トリミング範囲の評価方法、装置およびプログラム Download PDF

Info

Publication number
JP2009212929A
JP2009212929A JP2008055053A JP2008055053A JP2009212929A JP 2009212929 A JP2009212929 A JP 2009212929A JP 2008055053 A JP2008055053 A JP 2008055053A JP 2008055053 A JP2008055053 A JP 2008055053A JP 2009212929 A JP2009212929 A JP 2009212929A
Authority
JP
Japan
Prior art keywords
trimming range
image
evaluation value
region
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008055053A
Other languages
English (en)
Inventor
Hirotami Kin
浩民 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008055053A priority Critical patent/JP2009212929A/ja
Publication of JP2009212929A publication Critical patent/JP2009212929A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

【課題】様々な角度からトリミング範囲を定量的に評価し、より適切なトリミング範囲の自動設定に資する。
【解決手段】総合評価部6が、各種の最適化アルゴリズム(PSO、遺伝的アルゴリズム、タブーサーチなどのその他のメタヒューリスティック手法)に従って任意に生成した各トリミング領域Rにつき、各スコアCP(R)、ROI(R)、VC(R)、CS(R)を求め、評価スコア算出部7がこれを重みづけ加算した総合評価値TS(R)を算出する。そして、トリミング範囲最適化部8が当該最適化アルゴリズムに従い、総合評価値TS(R)の最適解である最適なトリミング領域R(opt)を導出する。
【選択図】 図1

Description

本発明は最適な画像トリミング範囲の評価に関する。
非特許文献1では、構図サブモデル、保存サブモデル、および罰サブモデルの3つのサブ評価モデルを構築することにより、画像領域範囲を評価して、最適なトリミング範囲を探索する。すなわち、顔の位置分布による構図評価や、注目領域に対する保存性評価、顔領域に対する罰評価などの定量的評価により、最適なトリミング範囲を探索する。
特許文献1では、顔、高彩度領域、水平線などのオブジェクトを用いて、予め構築した画像構図に関するルールに基づき、画像範囲を選択して画像をクロッピングする。
Li-Qun Chen, Xing Xie, Xin Fan, Wei-Ying Ma, Hong-Jiang Zhang, He-Qin Zhou, "A visual attention model for adapting images on small displays", Multimedia Systems(2003), pp.353-364. US7,133,571 B2
非特許文献1は、空、地面、消失点、高彩度領域などの興味領域(ROI)に関する評価や、注目領域を用いた視覚一致性に関する評価などに対応していない。
特許文献1は、予め決めた構図ルールによりクロッピングを行うため、定量的に評価して最適な画像範囲を設定することに対応していない。
本願発明は、様々な角度からトリミング範囲を定量的に評価し、より適切なトリミング範囲の自動設定に資することを目的とする。
本発明に係る画像トリミング範囲の評価方法は、所望の画像を入力するステップと、入力された画像のトリミング範囲を設定するステップと、画像の主要被写体を識別し、識別された主要被写体とトリミング範囲との位置関係に基づいてトリミング範囲の構図を評価する構図評価値を算出するステップと、画像の興味領域を識別し、識別された興味領域とトリミング範囲との位置関係に基づいてトリミング範囲を評価する興味領域評価値を算出するステップと、画像の注目領域を識別し、識別された注目領域とトリミング範囲との位置関係に基づいてトリミング範囲における注目領域の一致性を評価する視覚一致性評価値を算出するステップと、画像の所定のオブジェクトを抽出し、所定のオブジェクトとトリミング範囲との包含関係に応じてトリミング範囲における所定のオブジェクトの保存性を評価する保存性評価値を算出するステップと、構図評価値と、興味領域評価値と、視覚一致性評価値と、保存性評価値とに基づき、トリミング範囲の総合評価値を算出するステップと、を含む。
構図評価値を算出するステップでは、三分割法に従って構図評価値を算出してもよい。
興味領域評価値を算出するステップでは、画像の三分割線と興味領域との最短距離に応じて興味領域評価値を算出してもよい。
視覚一致性評価値を算出するステップでは、画像の注目領域を識別し、識別された注目領域の中心位置とトリミング範囲の中心位置の一致性に応じて視覚一致性評価値を算出してもよい。
保存性評価値を算出するステップでは、トリミング範囲における所定のオブジェクトの専有面積比率に応じて保存性評価値を算出してもよい。
興味領域は、高彩度領域、消失点、空および地面のうち少なくとも1つを含む。 注目領域は、画像中で最大の情報量を有する領域を含む。
所定のオブジェクトは、人物の顔または人体を含む。
総合評価値を最適化するようなトリミング範囲を探索するステップを含んでもよい。
本発明に係る画像トリミング範囲の評価装置は、所望の画像を入力する手段と、入力された画像のトリミング範囲を設定する手段と、画像の主要被写体を識別し、識別された主要被写体とトリミング範囲との位置関係に基づいてトリミング範囲の構図を評価する構図評価値を算出する手段と、画像の興味領域を識別し、識別された興味領域とトリミング範囲との位置関係に基づいてトリミング範囲を評価する興味領域評価値を算出する手段と、画像の注目領域を識別し、識別された注目領域とトリミング範囲との位置関係に基づいてトリミング範囲における注目領域の一致性を評価する視覚一致性評価値を算出する手段と、画像の所定のオブジェクトを抽出し、所定のオブジェクトとトリミング範囲との包含関係に応じてトリミング範囲における所定のオブジェクトの保存性を評価する保存性評価値を算出する手段と、構図評価値と、興味領域評価値と、視覚一致性評価値と、保存性評価値とに基づき、トリミング範囲の総合評価値を算出する手段と、を含む。
上記の画像トリミング範囲の評価方法をコンピュータに実行させるプログラムも本発明に含まれる。このプログラムは、DVDやCDROMなどの着脱可能な記録媒体に記録されて供与されてもよいし、ROMやハードディスクのような内蔵記録媒体に記録されてもよいし、ネットワーク経由で供与してもよい。
本発明によると、構図評価値、興味領域評価値と、視覚一致性評価値と、保存性評価値という4つの評価値を用いて総合評価値を算出するから、これにより様々な角度からトリミング範囲を定量的に評価でき、より適切なトリミング範囲の自動設定に資する。
図1は、本発明の好ましい実施形態に係る自動トリミング装置の概略構成図である。自動トリミング装置は、画像入力部1、構図評価部2、ROI評価部3、視覚一致性評価部4、保存性評価部5、総合評価部6、評価スコア出力部7、トリミング範囲最適化部8、トリミング部9を含む。
画像入力部1は、ネットワークアダプタ、USBポート、メディアインタフェースなどからなり、カメラつき携帯電話その他の外部の通信機器、デジタルカメラ、可搬性記録媒体などから、画像データを入力する。
構図評価部2、ROI評価部3、視覚一致性評価部4、保存性評価部5、総合評価部6、評価スコア出力部7、トリミング範囲最適化部8、トリミング部9は、CPU、RAM、ROM、ハードディスクなど、データ演算に必要な各種装置からなる。これらの各部、あるいは自動トリミング装置そのものが、1または複数のパソコンで構成されてもよい。また、これら各部のデータ演算の手順を規定するコンピュータプログラムを記録した記録媒体(ハードディスク、ROM、CDROMなど)も自動トリミング装置に備えられていか装着可能である。
構図評価部2は、トリミング領域の中心点や三分割線の交点などの位置情報を参照して主要被写体の位置に関する合理性を示す値(構図評価値)を算出する。
ROI評価部3は、トリミング領域の三分割線を基準にして、空、地面、消失点、高彩度領域などの興味領域(ROI;Region of Interest)に関する妥当性を示す値(ROI評価値)を算出する。
視覚一致性評価部4は、まず、人間の注目メカニズムを模倣した「Saliency map(顕著度マップ)」を作成する。そして、ズーム枠のように予め定められたサイズの枠を用いて、最大情報量を持つ位置を探し、探し出された領域(注目領域)の中心位置と、トリミング領域の中心位置とを比較して、トリミング領域の位置の合理性を示す値(視覚一致性評価値)を算出する。
保存性評価部5は、画像の重要なオブジェクト(例えば人物の顔や人体など、自動的に検出された重要領域)がトリミング領域でカバーされている割合を示す値(保存性評価値)を算出する。
総合評価部6は、構図評価値、ROI評価値、視覚一致性評価値、および保存性評価値に基づき、トリミング範囲の総合評価値を算出する。具体的には、構図評価値、ROI評価値、視覚一致性評価値、および保存性評価値を重みづけ加算した値を総合評価値とする。
すなわち、Rを任意に設定されたトリミング領域、CP(R)、ROI(R)、VC(R)、CS(R)をそれぞれRに対する構図評価値、ROI評価値、視覚一致性評価値、および保存性評価値、α、β、μ、ηをそれぞれCP(R)、ROI(R)、VC(R)、CS(R)に対する重みとすると、総合評価値TS(R)は、
TS(R)=α×CP(R)+β×ROI(R)+μ×VC(R)+η×CS(R)・・・(1)
となる。各評価値の重みα、β、μ、ηは、経験的に定められる。つまり、どの評価値を重視するかにより、重みの値を変える。
構図評価部2は、後述する各種手法で検出された主要被写体の中心位置Mが、図2に示すようなトリミング領域Rの中心位置Cまたは中心線と三分割線との交点Gなどの参照点との距離を計算し、この距離を変数とし、この距離が小さいほど高い値を出力するような関数を用いて、構図評価値CP(R)を算出する。ここで、参照点は次のようなルールによって定めるとよい。
(1)大きいまたは小さいサイズの主要被写体の場合、点Cを参照点とする。これは例えば、人物被写体の顔をアップで撮影する場合や、周囲の背景を含めて人物を撮影する場合、主要被写体である人物の顔は、中央部分に集まるとより見栄えがよいと考えられるからである。
(2)中程度のサイズの主要被写体の場合、点Gを参照点とする。これは例えば、人物被写体の全身を縦撮りする場合(ポートレート)、主要被写体である人物の顔は、中央部分より少し上に位置するとより見栄えがよいと考えられるからである。
つまり、主要被写体のサイズ判断に応じて参照点を決める。その他、参照点は、黄金分割点などとしてもよく、適宜なしうる。
ROI評価部3は、空、地面、消失点、高彩度領域のような興味領域(ROI)の評価値を算出する。具体的には、ROI領域Rの三分割線(H3、H3、V3、V3)(図2参照)と興味領域との最短距離の算出し、この最短距離を変数とし、この最短距離が小さいほど高い値を出力するような関数(例えばe−x)を用いて、ROI評価値を算出する。あるいは、興味領域とトリミング領域Rとの重複度が高いほど高い値を出力するような関数を用いて、ROI評価値を算出する。最短距離が小さいほど高い値を出力しかつ重複度が高いほど高い値を出力するような関数を用いてもよい。
視覚一致性評価部4は、後述する手法により注目領域Rを抽出した上、トリミング領域Rの中心位置Cと注目領域Rとの位置ずれの指標を求め、この位置ずれの指標に基づいて、視覚一致性の評価スコアVC(R)を求める。
保存性評価部5は、図3(a)に例示する顔と人体領域を対象として、保存性の評価を行う。これは例えば、トリミング領域に包含されている領域と主要被写体の顔領域との比率、ないしトリミング領域に包含されている領域と人体領域との比率を算出し、これを保存性のスコアCS(R)とする。
以上のような4つの評価モデルの結果を統合して、最終的な評価スコアを計算する。図3(b)は、このような評価モデルで複数のトリミング範囲をスコアで評価する結果の一例を示す。図3(b)の画像上に線で表示している枠は、トリミングの範囲を示し、同図下部の数は、トリミングのスコアを表示している。ここでは、実線のトリミング範囲が最もスコアが高い。
注目領域抽出は、光学ズームと類似の考えである。多くの人間視覚に関する実験により、人間の注目位置が、オブジェクトやオブジェクトパーツ、オブジェクトグループと関連しており、これらのオブジェクトを認識する前に、どうやって注目されるのかが課題になっている。視覚処理のための注目メカニズムの関連研究が、1980年代から始まり、コンピュータ処理技術、計算技術、コンピュータビジョン技術の発展に伴い、1990年代の中期から、大きく進歩してきた。現在、多くの研究では、KochとUllmanに提案された”saliency map-based model of bottom-up attention”のモデルをベースにして、様々な研究提案を展開している。この構築手法については、基本的に、輝度値、方向性、色彩などの要素特徴の抽出と統合により、”saliency map(顕著度マップ)”を作成する。
人の視覚システムに関する知見を用いると,画像のどの部分が人の注意を引き、どの部分が注意を引かないかを調べることができる。このような、人の視覚注意の引く強さを表すマップとして顕著度マップは用いられる。
最近の脳科学研究の発展により,人の低レベルにおける視覚システムにおいては、オブジェクトのエッジを検出したり,あるいは線の方向を検出するなどの、低レベルな画像処理が行われていることがわかってきている。 顕著度マップは、その知見に基づいて, 人の目が画像のどのあたりに注目するかを示すもので、 明るい部分がより人の視覚注意を引きやすい部分に対応する。 顕著度マップは,実際には、画像の輝度値、色彩、方向性に対してそれぞれ計算されたマップを合成することで計算することができる。
本願では、最適なトリミング範囲を探索する目的で、顕著度マップを利用した注目領域の抽出について提案する。
具体的には、注目領域の抽出が、顕著度マップの算出と、最大注目値を持つ注目領域の検出のような2つのステップで行う。まず、顕著度マップの算出では、図4に示すように、マルチ解像度の画像空間の中で行う。図4(a)に示す解像度レベルLの画像上で、ある任意の画素xにおいて、ある大きさの隣接領域R(図では3×3画素)の中に位置するある画素yとの間で、図4(b)に示すようなマスクを利用して、両画素x、yの特徴量の類似性(例えば、輝度値、色彩および方向性)を計算する。
図5は、以上のような手法により求めた顕著度マップの結果の一例を示す。
なお、注目領域の検出手法は上記に限定されず、その他、本出願人による特開2007−258870号公報に示されるように、オブジェクト毎に該オブジェクトの種類、輝度、大きさおよび位置のうち少なくとも1つを含む特徴を用いて該オブジェクトの注目度を算出し、該算出された注目度が所定の閾値以上であるオブジェクトを含む領域を注目領域として検出してもよい。
次に、以上のように求めた顕著度マップを用いて、最大情報量を持つ領域を探索する。本願では、図6に例示するようなズームファクターを設けて、それに合わせて得られる枠を利用して、注目領域を探索する。注目領域を探索する際に、あるズームファクターにより決めたサイズの枠の中に位置する画素位置での注目値の和を枠のサイズで割って得られたスコアを、枠の注目値とする。そして、顕著度マップから、最大の注目値を持つ枠の位置を求めて、注目領域として抽出する。図7は、5つのズームファクターにより決めたサイズの枠を用いて、それぞれ検出した注目領域の結果の一例を示す。図8は、予め決めたズームファクターにより決めたサイズの枠を用いて検出した注目領域の結果の一例を示す。
以下、上述の定量化評価モデルを用いて、最適なトリミングの位置と範囲を決める手法の一例を説明する。
概要を説明すると、最適なトリミング範囲の探索用の枠のサイズと初期位置を決め、式(1)により総合評価値を計算することを所定回数繰り返し、最大値を持つ(式(1)を最適化する)枠の位置を探索する。
まず、探索用の枠のサイズの選択を行う。まず、ランダムに枠を生成し、その中から、Rf×(n−1)/n>hf>1/2×Rf,または,Rw×(n−1)/n>wf>1/2×Rwの条件を満たすサイズ(wf,hf)を選ぶ(nはランダムに生成される自然数)。これにより、基準の大きさに満たない枠で枠の位置が探索されるという無駄が防げる。
次に、上記条件に合致するものとして選択された枠のサイズを、予め定められたアスペクト比(例えば画像の縦横比率)に合致するよう、枠のサイズを修正する。例えば図9に示すような、枠L1、L2、L3は、画像の縦横スケールを保つために、サイズが所定のアスペクト比に合うよう修正された枠である。広さが高さより大きければ、広さを保ちながら、高さを修正する。そうでなければ、高さを保ちながら、画像の縦横比率になるように広さを修正する。当然ながら、こうすると枠サイズの修正が効率的である。
次に、探索の初期位置の選択を行う。探索の初期位置の選択では、ランダムに、図8に示すような画像の4つの角にある輝度領域(大きさはws×hs;wsとhsは経験的に定められ、例えばws 、hsはそれぞれ、画像の幅あるいは高さの1/5〜1/6など)と中心にある輝度領域(大きさは角領域と重複しない範囲の任意の値)の中から、ランダムに選択された1つの領域範囲の中で、ランダムに一か所を指定する。ここでは、4つの角領域C1〜C4のうちいずれか1つが選択されれば、枠の角を当該選択された角領域C1〜C4にそれぞれ対応させ、中心領域Oが選択されれば、枠の中心を当該選択された中心領域Oに対応させる。つまり、選択された領域においてランダムに指定された位置に、枠の対応する位置(枠の4つ角、すなわち左上角、左下角、右上角、右下角のうちいずれか1つもしくは枠の中心)を合わせることで、枠の探索初期位置を決める。
図9では、枠L1の左上角が領域C1の指定位置に、枠L2の右下角が領域C3の指定位置に、枠L3の左下角が領域C2の指定位置にそれぞれ置かれることで、初期位置が設定されている。
ここで、最適化アルゴリズムとしてPSO(Particle Swarm Optimization)を用いる場合は、以上の初期位置に配置された枠(図9の例では、L1〜L3)をエージェント群(何らかの目的関数を最適化するような行動をとる粒子の群れ)として、総合評価値TS(R)の算出関数(1)を最適化するエージェント群の位置(本願では枠で囲まれるトリミング範囲)を、PSO所定の数式(例えば特開2006−048474号公報や特開2006−209331号公報などに記載される周知のもの)によって修正していく。
当該修正は、総合評価値TS(R)が所定の閾値以上に達するか、所定の反復回数までエージェント群の位置が修正されるまで、繰り返し、TS(R)を最適化する枠の位置を探索する。
ここで、エージェント群の枠の初期位置が画像の四隅か中心に合うように決められているため、修正された位置の枠サイズが、探索中に画像外縁からはみ出ることはない。
定量化評価モデルを用いて各位置でのフィット値を計算することにより、最適解(枠の位置)を決める。ここでは、総合評価値が予め決めた閾値以上になるか、あるいはエージェント群の位置修正が予め決めた循環回数まで達したかによって、最適解の探索を停止させる。図10および図11は、以下のような手法で探索したトリミング領域(実線で表示する領域範囲)の探索結果例を示す。
以下、図12のフローチャートを参照し、構図、ROI、視覚一致性および保存性の4つの評価モデルを用いたトリミング領域の評価値算出処理の流れを説明する。この処理のうち、S1は画像入力部1が、S11−S13は構図評価部2が、S21−23は保存性評価部5が、S31−S43はROI評価部3が、S51−S53は視覚一致性評価部4が、それぞれ実施するものとする。ただし、これらのステップをコンピュータに実施させるプログラムも本発明に含まれるため、当該プログラムが供与された情報処理装置であれば、図1の自動トリミング装置に限らず、どのような情報処理装置でも実施しうる。
S1で画像入力部1が画像を入力すると、S11では、構図評価部2が、入力された画像から、画像を構成する各画素から複数の特徴量を抽出する。特徴量とは、例えば、画像の各画素に割り当てられた成分信号値の1方向に沿った変化の規則性の程度を示す相関特徴量、画像のエッジの特徴を示すエッジ特徴量、画像の色の特徴を示す色特徴量などが挙げられる。
S12では、構図評価部2が抽出された特徴量を有するオブジェクトを検出する。オブジェクトの検出方法としては、例えば、本出願人による特許公開2005−63309号公報に記載されるように、類似した画素特徴量毎に画素を分類し、画素の分類毎に領域分割して複数のクラスタリング領域を生成し、生成されたクラスタリング領域のうち最も画素数の少ない最小クラスタリング領域を抽出し、抽出された最小クラスタリング領域と隣接する隣接クラスタリング領域を抽出し、生成されたクラスタリング領域を統合して、オブジェクトを検出する。抽出するオブジェクトの種類としては、例えば、人物の顔、植物、地面、空、建築物(ランドマーク)等が考えられる。説明の簡略のため、ここでは、人物の顔を検出するものとする。
S13では、構図評価部2が全体画像から検出されたすべての顔画像の大きさを算出して最も大きい顔画像を検出し、最も大きい顔画像の所定の割合(たとえば0.4倍)を設定しきい値とする。そして、この設定しきい値より小さい顔画像を顔画像として検出されなかったものとして除外し、残った顔画像を主要被写体とする。
S21では、保存性評価部5が入力画像から色彩の特徴量を抽出し、S22では色彩モデルを構築する。そして、S23では、保存性評価部5が色彩モデルに基づいて人体領域を検出する。これは例えば、S12で検出した顔領域を基準として、当該顔領域と同一人物の人体領域の存在領域を推定する。そして、推定された人体領域の存在領域の色彩情報を抽出し、人物ごとの色彩モデルを構築する。そして、推定領域における類似色彩領域を抽出し、それを人体領域とする。
あるいは、本出願人による特許公開2008−9576号公報に記載されるように、画像中の顔または顔部品を検出し、検出された顔または顔部品の位置情報から人体領域が含まれると推測される推測領域を決定し、決定された推測領域中の人体領域を抽出し、推測領域中の輪郭周辺領域に抽出された人体領域の少なくとも一部が存在するか否かを判断し、人体領域の少なくとも一部が存在すると判断したとき、輪郭周辺領域に存在する人体領域の近傍かつ推測領域の外側に存在する近傍外側領域を含むように推測領域を拡張更新し、拡張更新された推測領域中の人体領域を抽出するようにしてもよい。
例えば、図3の例では、二人の人物の顔領域X1およびX2を基準に、当該人物の人体領域Y1およびY2が抽出される。
S31では、ROI評価部3が入力画像からエッジ特徴量を抽出する。そして、S32では、ROI評価部3が上述のように抽出されたエッジ特徴量毎に画素を分類して、オブジェクトを検出する。S33では、ROI評価部3が検出されたオブジェクトから、空・地面領域を判別する。これは、例えば、白色や青色が支配的なオブジェクトを空、黄土色が支配的なオブジェクトを地面と判別する。
S34では、ROI評価部3が抽出された色特徴量から、高彩度領域を判別する。
S41では、ROI評価部3が入力画像に対して細線化処理、エッジ検出などの画像処理により、画像の方向成分の特徴量を算出する。S42では、ROI評価部3が算出された方向成分から、線分を検出する。そして、S43では、検出された線分が集中している点、すなわち、消失点を算出する。
S51では、視覚一致性評価部4が上述のように、画像の輝度値、色彩、方向性に対してそれぞれマップを計算し、S52では、視覚一致性評価部4が計算されたマップを合成して顕著度マップを作成する。
S53では、視覚一致性評価部4が顕著度マップに基づき、注目領域を抽出する。
S58では、総合評価部6が、各種の最適化アルゴリズム(上述のPSOの他、遺伝的アルゴリズム、タブーサーチなどのその他のメタヒューリスティック手法)に従って任意に生成した各トリミング領域Rにつき、各スコアCP(R)、ROI(R)、VC(R)、CS(R)を求め、評価スコア算出部7がこれを重みづけ加算した総合評価値TS(R)を算出する。そして、トリミング範囲最適化部8が最適化アルゴリズムに従い、総合評価値TS(R)の最適解である最適なトリミング領域R(opt)を導出する。
S59では、トリミング範囲最適化部8が最適なトリミング領域R(opt)をトリミング部9に出力する。この後、トリミング部9がこの出力された最適なトリミング領域R(opt)に相当する画像領域を、入力画像から抽出する。
自動トリミング装置の概略構成図 主要被写体の中心位置M、トリミング領域Rの中心位置C、中心線と三分割線との交点Gの位置関係を例示した図 顔と人体領域の一例を示す図 顕著度マップの算出の概念説明図 顕著度マップの一例を示す図 ズームファクターに応じた注目領域の探索の様子を例示した図 複数のズームファクターにより決めたサイズの枠を用いて、それぞれ検出した注目領域の結果の一例を示す図 予め決めたズームファクターにより決めたサイズの枠を用いて検出した注目領域の結果の一例を示す図 画像の四隅または中央部を基準として初期位置に配置された枠の一例を示す図 トリミング領域の探索結果の一例を示す図 トリミング領域の探索結果の他の例を示す図 トリミング領域の評価値算出処理の流れを説明するフローチャート
符号の説明
1:画像入力部、2:構図評価部、3:ROI評価部、4:視覚一致性評価部、5:保存性評価部、6:総合評価部、7:評価スコア算出部、8:トリミング範囲最適化部、9:トリミング部

Claims (11)

  1. 所望の画像を入力するステップと、
    前記入力された画像のトリミング範囲を設定するステップと、
    前記画像の主要被写体を識別し、前記識別された主要被写体と前記トリミング範囲との位置関係に基づいて前記トリミング範囲の構図を評価する構図評価値を算出するステップと、
    前記画像の興味領域を識別し、前記識別された興味領域と前記トリミング範囲との位置関係に基づいて前記トリミング範囲を評価する興味領域評価値を算出するステップと、
    前記画像の注目領域を識別し、前記識別された注目領域と前記トリミング範囲との位置関係に基づいて前記トリミング範囲における前記注目領域の一致性を評価する視覚一致性評価値を算出するステップと、
    前記画像の所定のオブジェクトを抽出し、前記所定のオブジェクトと前記トリミング範囲との包含関係に応じて前記トリミング範囲における前記所定のオブジェクトの保存性を評価する保存性評価値を算出するステップと、
    前記構図評価値と、前記興味領域評価値と、前記視覚一致性評価値と、前記保存性評価値とに基づき、前記トリミング範囲の総合評価値を算出するステップと、
    を含む画像トリミング範囲の評価方法。
  2. 前記構図評価値を算出するステップでは、三分割法に従って前記構図評価値を算出する請求項1に記載の画像トリミング範囲の評価方法。
  3. 前記興味領域評価値を算出するステップでは、画像の三分割線と前記興味領域との最短距離に応じて前記興味領域評価値を算出する請求項1または2に記載の画像トリミング範囲の評価方法。
  4. 前記視覚一致性評価値を算出するステップでは、前記画像の注目領域を識別し、前記識別された注目領域の中心位置と前記トリミング範囲の中心位置の一致性に応じて前記視覚一致性評価値を算出する請求項1〜3のいずれかに記載の画像トリミング範囲の評価方法。
  5. 前記保存性評価値を算出するステップでは、前記トリミング範囲における前記所定のオブジェクトの専有面積比率に応じて前記保存性評価値を算出する請求項1〜4のいずれかに記載の画像トリミング範囲の評価方法。
  6. 前記興味領域は、高彩度領域、消失点、空および地面のうち少なくとも1つを含む請求項1〜5のいずれかに記載の画像トリミング範囲の評価方法。
  7. 前記注目領域は、前記画像中で最大の情報量を有する領域を含む請求項1〜6のいずれかに記載の画像トリミング範囲の評価方法。
  8. 前記所定のオブジェクトは、人物の顔または人体を含む請求項1〜7のいずれかに記載の画像トリミング範囲の評価方法。
  9. 前記総合評価値を最適化するような前記トリミング範囲を探索するステップを含む請求項1〜8のいずれかに記載の画像トリミング範囲の評価方法。
  10. 所望の画像を入力する手段と、
    前記入力された画像のトリミング範囲を設定する手段と、
    前記画像の主要被写体を識別し、前記識別された主要被写体と前記トリミング範囲との位置関係に基づいて前記トリミング範囲の構図を評価する構図評価値を算出する手段と、
    前記画像の興味領域を識別し、前記識別された興味領域と前記トリミング範囲との位置関係に基づいて前記トリミング範囲を評価する興味領域評価値を算出する手段と、
    前記画像の注目領域を識別し、前記識別された注目領域と前記トリミング範囲との位置関係に基づいて前記トリミング範囲における前記注目領域の一致性を評価する視覚一致性評価値を算出する手段と、
    前記画像の所定のオブジェクトを抽出し、前記所定のオブジェクトと前記トリミング範囲との包含関係に応じて前記トリミング範囲における前記所定のオブジェクトの保存性を評価する保存性評価値を算出する手段と、
    前記構図評価値と、前記興味領域評価値と、前記視覚一致性評価値と、前記保存性評価値とに基づき、前記トリミング範囲の総合評価値を算出する手段と、
    を含む画像トリミング範囲の評価装置。
  11. 請求項1〜9のいずれかに記載の画像トリミング範囲の評価方法をコンピュータに実行させるプログラム。
JP2008055053A 2008-03-05 2008-03-05 画像トリミング範囲の評価方法、装置およびプログラム Pending JP2009212929A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008055053A JP2009212929A (ja) 2008-03-05 2008-03-05 画像トリミング範囲の評価方法、装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008055053A JP2009212929A (ja) 2008-03-05 2008-03-05 画像トリミング範囲の評価方法、装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2009212929A true JP2009212929A (ja) 2009-09-17

Family

ID=41185633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008055053A Pending JP2009212929A (ja) 2008-03-05 2008-03-05 画像トリミング範囲の評価方法、装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2009212929A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114596A (ja) * 2011-11-30 2013-06-10 Kddi Corp 画像認識装置及び方法
JP2014143673A (ja) * 2012-12-26 2014-08-07 Canon Inc 画像処理装置、撮像装置、画像処理方法、及び記録媒体
JP2014522596A (ja) * 2011-05-31 2014-09-04 トムソン ライセンシング 3dコンテンツを再目標化するための方法およびデバイス
JP2015198388A (ja) * 2014-04-02 2015-11-09 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム
JP2021060649A (ja) * 2019-10-03 2021-04-15 富士ゼロックス株式会社 画像処理装置,システム,プログラム
WO2021109050A1 (zh) * 2019-12-05 2021-06-10 惠州光弘科技股份有限公司 基于粒子群优化的smt焊点质量控制方法及系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014522596A (ja) * 2011-05-31 2014-09-04 トムソン ライセンシング 3dコンテンツを再目標化するための方法およびデバイス
US9743062B2 (en) 2011-05-31 2017-08-22 Thompson Licensing Sa Method and device for retargeting a 3D content
JP2013114596A (ja) * 2011-11-30 2013-06-10 Kddi Corp 画像認識装置及び方法
JP2014143673A (ja) * 2012-12-26 2014-08-07 Canon Inc 画像処理装置、撮像装置、画像処理方法、及び記録媒体
JP2015198388A (ja) * 2014-04-02 2015-11-09 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム
JP2021060649A (ja) * 2019-10-03 2021-04-15 富士ゼロックス株式会社 画像処理装置,システム,プログラム
JP7392368B2 (ja) 2019-10-03 2023-12-06 富士フイルムビジネスイノベーション株式会社 画像処理装置,システム,プログラム
WO2021109050A1 (zh) * 2019-12-05 2021-06-10 惠州光弘科技股份有限公司 基于粒子群优化的smt焊点质量控制方法及系统

Similar Documents

Publication Publication Date Title
US10043313B2 (en) Information processing apparatus, information processing method, information processing system, and storage medium
US20150055824A1 (en) Method of detecting a main subject in an image
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
JP5671533B2 (ja) 立体画像対における遠近感および視差の調整
US7995807B2 (en) Automatic trimming method, apparatus and program
US20150016687A1 (en) Method, system and computer storage medium for face detection
US8577099B2 (en) Method, apparatus, and program for detecting facial characteristic points
US8295593B2 (en) Method of detecting red-eye objects in digital images using color, structural, and geometric characteristics
JP5878924B2 (ja) 画像処理装置、撮像装置および画像処理方法
MX2014002827A (es) Aparato de reconocimiento de personas y metodo de reconocimiento de personas.
US10489640B2 (en) Determination device and determination method of persons included in imaging data
JP2009212929A (ja) 画像トリミング範囲の評価方法、装置およびプログラム
JP2005190400A (ja) 顔画像検出方法及び顔画像検出システム並びに顔画像検出プログラム
US20150278584A1 (en) Object discriminating apparatus and method
WO2022257314A1 (zh) 图像检测方法和相关训练方法及相关装置、设备及介质
JP2011253354A (ja) 画像処理装置および方法、並びにプログラム
JP7077046B2 (ja) 情報処理装置、被写体の判別方法及びコンピュータプログラム
JP6511950B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5201184B2 (ja) 画像処理装置及びプログラム
KR101592087B1 (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
JP2011150626A (ja) 画像分類方法、装置、及びプログラム
CN114882492A (zh) 一种车牌识别方法、装置、终端及计算机可读存储介质
US20120308142A1 (en) Method for eye detection for a given face
JP2007219899A (ja) 個人識別装置、個人識別方法および個人識別プログラム
JP2009059165A (ja) 輪郭検出装置、それを用いた視線検出装置、偽の輪郭データの除去をコンピュータに実行させるためのプログラム、視線方向の検出をコンピュータに実行させるためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体