JP2013222304A - 画像処理装置およびその制御方法、プログラム - Google Patents

画像処理装置およびその制御方法、プログラム Download PDF

Info

Publication number
JP2013222304A
JP2013222304A JP2012093395A JP2012093395A JP2013222304A JP 2013222304 A JP2013222304 A JP 2013222304A JP 2012093395 A JP2012093395 A JP 2012093395A JP 2012093395 A JP2012093395 A JP 2012093395A JP 2013222304 A JP2013222304 A JP 2013222304A
Authority
JP
Japan
Prior art keywords
image
images
subject
evaluation
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012093395A
Other languages
English (en)
Other versions
JP2013222304A5 (ja
JP6004718B2 (ja
Inventor
Katsuhiko Kawasaki
勝彦 川崎
Shigeki Hirooka
茂樹 弘岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012093395A priority Critical patent/JP6004718B2/ja
Publication of JP2013222304A publication Critical patent/JP2013222304A/ja
Publication of JP2013222304A5 publication Critical patent/JP2013222304A5/ja
Application granted granted Critical
Publication of JP6004718B2 publication Critical patent/JP6004718B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】画像の内容または属性について偏りのない画像選択が行える画像処理装置およびその制御方法を提供する。
【解決手段】画像処理装置は、複数の画像の各々について、画像の内容および属性情報の少なくとも何れかに基づいて評価値を算出し、複数の画像の一部またはすべてを、ユーザ指示に応じて選択できる選択候補として、算出された評価値の順に表示する。そして、画像処理装置は、表示されている選択候補から選択された画像の内容および属性情報の少なくとも何れかに基づいて、複数の画像のうちの選択された画像以外の画像の評価値を更新する。
【選択図】 図12

Description

本発明は、ユーザが画像を選択するアルバム作製システムにおいて、適切な画像の選択を容易にする、画像処理装置および方法及びプログラムに関する。
合焦、顔の大きさなどに基づいて、画像を自動的に選択する印刷装置が提案されている。しかしながら、そのような一般的な技術では、良い画像を選択することができても、同じような構図、同じ被写体の組み合わせ、同一時間帯の画像ばかりになってしまう可能性がある。
また、特許文献1には、画像に写っている人物に応じて画像をグループ分けし、画像の鑑賞者に応じて、表示すべき画像グループを判断し、画像を表示する電子アルバム表示システムが記載されている。
また、特許文献2に記載のアルバム作成装置、アルバム作成方法、及びプログラムでは、候補画像をイベント毎に分類し、各イベントの主画像を選択し、各イベントの従画像を同じイベント分類内から主画像の内容に基づいて選択する。特に、特許文献2では、従画像選択部が主画像との類似度を算出し、類似度が小さい画像を選択すること、類似度とは、被写体が同じであるか否かであることが記載されている。
また、特許文献3に記載の画像選択装置および画像選択方法では、ユーザが印刷の目的に応じて自動印刷モードを選択する。そして、モードに応じて設定された評価基準および荷重を適用して各画像を評価し、閾値以上の総合評価値を有する画像を印刷対象の画像として選択する。ここでの評価項目には、少なくとも、ピントずれの程度、ブレの程度、露出の適正度、被写体の顔の大きさ、被写体の顔の位置、撮影位置までの距離、のいずれか1つが含まれる。
特開2006−236218号公報 特開2006−295890号公報 特開2007−041836号公報
特許文献1に記載されている方法で、画像を選択し、印刷物のアルバムを作成した場合には、同じ被写体の組み合わせ、構図の写真が続いてしまう可能性がある。また、特許文献2に記載されている方法では、従画像同士の類似度は判断せず、人物の組み合わせによる類似度の判断は行なわない。また、画像の加工による類似度の低減についても言及していない。さらに、特許文献3に記載されている方法では、選択した画像に基づいて評価値を決定しないため、似たような画像ばかりが選択されてしまう可能性がある。また、被写体の組み合わせが評価項目に入っていないため、同一の組み合わせの画像ばかりになってしまう可能性がある。さらに、画像を加工する構成がないため、閾値に達した画像が不足の場合には、レイアウトに空欄ができてしまう。
したがって、以上のような特許文献1〜3に記載の従来技術では、良い画像を選択することはできても、選択された画像の集合は、同じような構図、同じ被写体の組み合わせ、同一時間帯の画像ばかりになってしまう可能性がある。
本発明は、上記課題に鑑みてなされたものであり、画像の内容または属性について偏りのない画像選択が行える画像処理装置およびその制御方法を提供することを目的とする。
上記の目的を達成するための本発明の一態様による画像処理装置は以下の構成を備える。すなわち、
複数の画像の各々を、画像の内容および属性情報の少なくとも何れかに基づいて評価する評価手段と、
前記評価に基づいて、前記複数の画像の一部またはすべてを、ユーザ指示に応じて選択できる選択候補として、提示する提示手段と、
前記選択候補から選択された画像の内容および属性情報の少なくとも何れかに基づいて、前記複数の画像うちの前記選択された画像以外の画像の評価を更新する更新手段と、を備える。
本発明によれば、画像の内容または属性について偏りのない画像選択が行える画像処理装置およびその制御方法が提供される。
実施形態によるアルバム作成システムの物理的構成を示すブロック図。 実施形態によるアルバム作成システムの論理的構成を示すブロック図。 アルバム作成処理の全体の流れを示すフローチャート。 登録情報の編集処理の流れを示すフローチャート。 登録情報(被写体リスト、被写体関係情報)を説明する図。 ポイント算出規則設定処理を示すフローチャート。 画像ポイント算出処理を示すフローチャート。 画像に付与されている属性情報を示す図。 (a)画像内被写体関係情報と、(b)被写体ポイントを説明する図。 画像ポイントを算出する過程を説明する図。 画像選択処理を示すフローチャート。 ユーザの画像選択操作を説明する図。 他の実施形態による画像選択処理を示すフローチャート。 ユーザの画像選択操作を説明する図。 他の実施形態による画像選択処理を示すフローチャート。 画像ポイントを算出する過程を説明する図。 他の実施形態によるアルバム作成処理を示すフローチャート。 トリミング処理を示すフローチャート。 トリミング処理を説明する図。 ポイント算出規則の一例を示す図。 アルバム作成システムの操作画面の一例を示す図。
[第1実施形態]
<アルバム作成システムの構成>
図1は、本実施形態に於けるアルバム作成システムとして動作する画像処理装置の一例を示す物理的構成図である。100は、アルバム作成システムとして機能する画像処理装置である。画像処理装置100には、CPU101、ROM102、RAM103、表示部104、操作部105、印刷部106が具備されている。本アルバム作成システムは、ROM102に記憶されたプログラムをCPU101が読み出して実行することによって動作し、たとえば図2に示す各機能部を実現する。なお、印刷部106は、画像処理装置100の外部に接続される形態であってもよく、いわゆるコンピュータ(情報処理装置)と印刷装置から構成されてもよい。
図2は、第1実施形態によるアルバム作成システムの一例を示す論理的構成図である。画像読み込み部201によって、メモリーカードなどから読み込まれた画像は、入力画像集合記憶部202に記憶される。入力画像集合記憶部202には入力画像集合Imgs−inが記憶されている。入力画像集合記憶部202には、読み込まれた複数の画像の一部または全てを要素とした集合が記憶されることになる。選択画像集合記憶部203には、入力画像集合記憶部202の集合から選択された画像を要素とする選択画像集合Imgs−outが記憶されている。登録情報記憶部204には、被写体情報や構図情報などの登録情報が記憶されている。登録情報編集部205は、登録情報記憶部204に記憶されている登録情報を編集する。
ポイント算出規則記憶部206には、たとえば図20に示されるような、画像にポイントを付与する規則であるポイント算出規則が記憶されている。ポイント算出規則は、ポイント算出規則編集部207によって編集される。画像選択部208は入力画像集合記憶部202の画像集合から画像を選択し、選択された画像を、選択画像Img−selとする。ポイント算出部209は、画像に対するポイントを算出する。レイアウト処理部210は、画像選択部208によって選択された画像をアルバム用にレイアウトする。印刷処理部211は、印刷部106にレイアウトされた画像を印刷させる。トリミング部212は、入力画像集合記憶部202および選択画像集合記憶部203に記憶されている画像をトリミングする。
図21に、アルバム作成システムの操作画面の一例を示す。ページレイアウト領域Layout−editD内にはページ領域Page1、Page2、・・・が設定されている。各ページ領域Page1、Page2、・・・内には画像設置領域Place1、Place2、・・・が設定されている。また、ボタンButtonLによって左方向にアルバムのページを捲ることができ、ボタンButtonRによって右方向にアルバムのページを捲ることができる。ページレイアウト領域Layout−editDの下部には、入力画像集合表示領域Imgs−inDと選択画像集合表示領域Imgs−outDが設定されている。入力画像集合表示領域Imgs−inDには、入力画像集合Imgs−inの縮小画像(サムネイル)が、ユーザ指示に応じて選択できる選択候補として表示される。また、選択画像集合表示領域Imgs−outDには、上記選択候補からユーザ指示により選択された選択済みの画像の集合である選択画像集合Imgs−outが、各画像の縮小画像(サムネイル)により表示される。ユーザは、入力画像集合表示領域Imgs−inDに表示されている選択候補の画像を、選択画像集合表示領域Imgs−outDに移動することでアルバムに使用する画像を選択する。また、選択画像集合表示領域Imgs−outDから選択した画像を、入力画像集合表示領域Imgs−inDに移動することで選択した画像を非選択状態に戻す(非選択画像に戻す)ことができる。選択画像集合表示領域Imgs−outDに表示されている選択画像集合Imgs−outは選択順に、画像設置領域Place1、Place2、・・・に表示される。
<アルバム作成処理>
図3は、アルバム作成処理の全体の流れを示すフローチャートである。ステップS301において、画像読み込み部201は、メモリーカードなどから画像の読み込みを行う。ここで読み込んだ画像は、入力画像集合Imgs−inとして入力画像集合記憶部202に記憶される。ステップS302において、登録情報記憶部204、登録情報編集部205は、登録情報の設定を行なう。ステップS302における登録情報の設定処理の詳細は後述する。ステップS303において、ポイント算出規則記憶部206、ポイント算出規則編集部207は、ポイント算出規則の設定を行う。ステップS303におけるポイント算出規則の設定処理の詳細は後述する。ステップS304において、画像選択部208は、入力画像集合表示領域Imgs−inDの設定を行う。入力画像集合記憶部202に記憶されている入力画像集合Imgs−inの画像は、入力画像集合表示領域Imgs−inDに表示される。ステップS305において、画像選択部208は、選択画像集合表示領域Imgs−outDの設定を行う。選択画像集合記憶部203に記憶されている選択画像集合Imgs−outの画像は、選択画像集合表示領域Imgs−outDに表示される。ステップS306において、ポイント算出部209は、画像内容または属性に基づいて画像を評価し、その評価値を画像ポイントとして算出する。本実施形態では、ポイント算出部209は、ポイント算出規則記憶部206に記憶されているポイント算出規則に基づいて画像のポイントを算出し、算出したポイントを画像に付加する。ステップS306における画像ポイント算出処理の詳細については後述する。ステップS307において、画像選択部208は、画像を選択する。画像選択処理の詳細は後述する。ステップ308において、レイアウト処理部210は、選択された画像をアルバム用にレイアウトする。ステップS309において、印刷処理部211は、レイアウトされた画像を印刷する。トリミング部212については、第4実施形態により後述する。
<画像に付いている情報>
ステップS301において読み込まれた画像には、被写体情報と構図情報が付いている。例えば、図8(a1)の画像ImgABには、被写体の識別情報としての被写体名を含む構図情報として、図8(b1)のようなフレーム情報F1〜F4が付いている。ここで、フレームF1は、被写体Aの全体領域、フレームF2は被写体Aの顔領域を表す。また、フレームF3は、被写体Bの全体領域、フレームF4は被写体Bの顔領域を表す。各フレームには、被写体名、および、画像中の位置と大きさが指定されている。例えばフレームF1は、被写体Aに対するものあり、左上の位置が(X1,Y1)であり、幅がW1、高さがH1であると指定されている。さらに顔フレームF2には、図8(c1)に示すように、顔の向きを示す情報Y2(両耳を結ぶ線)と、N2(鼻筋を示す線)が付いていてもよい。同様に、図8(a2)の画像ImgABCには、図8(b2)のようなフレーム情報F5〜F10が付いている。画像に付いている被写体名は構図情報に含まれていてもよいし、被写体名と構図情報と分離していてもよい。また、画像に付いている被写体名と構図情報などは、画像を読み込んだ後に認識技術などによって付けてもよい。
<登録情報の設定処理>
図4の流れ図を用いて、登録情報の設定処理(図3のステップS302)の詳細な説明を行う。ステップS401において、登録情報編集部205は、登録情報記憶部204から登録情報の読み込みを行う。登録情報には、図5(a)に示すような被写体リストObj−Listと、図5(b)に示すような被写体関係情報Obj−Connectとがある。図5(a)に示すように、被写体リストObj−Listは、例えば人名A〜Hからなるリストである。被写体リストの人名は、何らかの方法で予め与えられていても良いし、手動で設定されても良いし、入力画像集合内の人物認識によって自動的に取得しても良い。また、図5(b)に示すように、被写体関係情報Obj−Connectは、被写体名、被写体の所属するグループ、グループ名、被写体間の関係等を記録した情報である。具体的には、Family(A,B,C)、父子(A,C)のようにデータとして記録されている。ステップS402において、登録情報編集部205は、登録情報を編集するかどうかをユーザに確認する。ステップS402において、ユーザが登録情報を編集すると指定すれば、処理はステップS403に移る。ステップS402において、ユーザが登録情報を編集しないと指定すれば、処理を終了する。
ステップS403において、登録情報編集部205は、ユーザ操作に応じて、例えば、図5(a)のような被写体リストObj−Listの編集を行う。ステップS404において、登録情報編集部205は、被写体の属性の設定を行う。ここでは属性として、図5(b)の被写体関係情報Obj−Connectに示すような被写体名A、B、C・・・、およびそれらの関係の設定を行う。ステップS405において、登録情報編集部205は、ユーザ操作に応じて、アルバムの主体となる被写体の設定を行う。例えば、図5(b)に示すように被写体Aを主体に設定することができる。ステップS406において、登録情報編集部205は、ユーザ操作に応じて、被写体と被写体との関係を編集する。例えば、図5(b)に示すように、「被写体Cは被写体Aの息子である」のような設定を行う。ステップS407において、登録情報編集部205は、ユーザ操作に応じて、被写体のグルーピングを行う。例えば被写体AとBとCを同一グループとしてまとめる。ステップS408において、登録情報編集部205は、ユーザ操作に応じて、被写体のグループに属性を設定する。例えば図5(b)の被写体AとBとCの属するグループ名に「家族」を設定する。ステップS409において、登録情報編集部205は、各種属性の設定を終了するかどうかユーザに確認する。ステップS409において、各種属性の設定を続けるとユーザが指定すれば、処理はステップS403に戻る。ステップS409において、各種属性の設定を終了するとユーザが指定すれば、登録情報の設定処理を終了する。なお、編集結果の登録情報は、登録情報記憶部204に記憶される。
このような処理によって、図5(a)の被写体リストを編集して、図5(c)に示されるような被写体リストを作成できる。また、図5(b)のような被写体関係情報を、図5(d)に示すように、被写体関係情報編集画面Obj−Connect−Edit上で編集することができる。
<ポイント算出規則の設定処理>
次に、図6のフローチャートを用いて、ポイント算出規則編集部207によるポイント算出規則の設定処理(図3のステップS303)の詳細な説明を行う。ポイント算出規則は、画像中の被写体や構図情報から、画像のポイントを算出する規則である。ポイント算出規則は、ユーザ等が作成したもの、システムが予め設定したものでもよいし、入力画像集合を画像解析して得られた情報に応じた規則を適用してもよい。ポイント算出規則は、例えば、「画像ポイント=被写体ポイント+構図ポイント」のような規則や、「画像ポイント=F(被写体ポイント,構図ポイント,合焦ポイント):F(X,Y,Z)はユーザが定義した関数」のような規則である。なお、合焦ポイントの詳細な使用例については第3実施形態において詳述する。
ステップS501において、ポイント算出規則編集部207は、メモリーカードなどからポイント算出規則記憶部206にポイント算出規則を読み込む。ステップS502において、ポイント算出規則編集部207は、ポイント算出規則記憶部206に記憶されているポイント算出規則を編集するかどうかを判定する。ステップS502において、ポイント算出規則を編集するとユーザが指定すれば、処理はステップS503に移る。他方、ステップS502において、ポイント算出規則を編集しないとユーザが指定すれば、ポイント算出規則の設定処理を終了する。
ステップS503において、ポイント算出規則編集部207は、ポイント算出規則記憶部206に記憶されているポイント算出規則をユーザ操作に応じて編集する。例えば、「画像ポイント=F(被写体ポイント,構図ポイント,合焦ポイント):F(X,Y,Z)」のようなポイント算出規則があったとき、関数F(X,Y,Z)の形をユーザが変更することができる。ステップS504において、ポイント算出規則編集部207は、ポイント算出規則の編集を終了するかどうか判定する。ステップS504において、ポイント算出規則の編集を終了するとユーザが指定したならば、ポイント算出規則の設定処理を終了する。他方、ステップS504において、ポイント算出規則の編集を続けるとユーザが指定したならば、処理はステップS503に戻る。
図20は、ポイント算出規則の一例である。ここでは、最優先の規則0によって、規則を適用する順番(優先順位)が指定されている。上述したようにこれらのポイント算出規則はユーザが編集可能である。また、ポイント算出規則は、プログラムと分離してデータベースに記録されていてもよいし、プログラム内に記述されていてもよい。
<画像ポイント算出処理>
図7のフローチャートを用いて、複数の画像の各々について、画像の内容および属性情報の少なくとも何れかに基づいて評価値を算出する処理の一例である画像ポイント算出処理(図3のステップS306)の詳細を説明する。本実施形態では、被写体名と構図情報とは分離可能な属性として画像に付いているものとして、画像ポイント=被写体ポイント+構図ポイント、と算出する。ステップS601において、ポイント算出部209は、入力画像集合記憶部202から最初の画像を選択する。ステップS602において、ポイント算出部209は、画像内被写体情報を抽出する。読み込んだ画像には、図10(b1)のように出現する被写体名と、図10(e1)のような構図情報が付与されている。また、登録情報記憶部204には、図5(b)のような被写体関係情報Obj−Connectが記憶されている。ここでは、読み込んだ画像に対して、画像内に出現する被写体が抽出される。そして、ポイント算出部209は、図5(b)の被写体関係情報Obj−Connectを用いて、図9(a)のような画像内被写体情報を抽出する。例えば画像Img1に対して、図10(c1)のような画像内被写体情報が設定される。
ステップS603において、ポイント算出部209は、例えば図20に示すようなポイント算出規則を用いて、画像の被写体ポイントを算出する。ここでは、図9(a)のような画像内被写体情報に対して、図9(b)のように被写体ポイントが算出される。ここでは、図9(b1)〜(b6)において、(20)や(10)のような括弧内の数字が算出された被写体ポイントを表す。すると、例えば図10(a1)の画像Img1に対する被写体ポイントは、図10(d1)のようになる。次に、ステップS604において、ポイント算出部209は、画像に付与されている被写体の構図情報(図10(e1))と、例えば図20に示すようなポイント算出規則を用いて、画像の構図ポイントを算出する。すると、例えば図10(a1)の画像Img1に対する構図ポイントは、図10(f1)のようになる。その後、被写体ポイントと構図ポイントは加算されて、図10(a1)の画像については図10(h1)に示す画像ポイントが得られることになる。
ステップS605において、ポイント算出部209は、最後の画像に対して画像ポイント算出処理が行なわれたかどうか判定する。ステップS605においてYESならば、画像ポイント算出処理を終了する。ステップS605においてNOならば、処理はステップS606に移る。ステップS606において、ポイント算出部209は、入力画像集合内の次の画像を選択し、処理はステップS602に戻る。
以上のようなステップ601〜ステップS606の画像ポイント算出処理によって、最終的に、図10(a1)〜図10(a10)の画像Img1〜Img10に対して付与される画像ポイントは、図10(h1)〜図10(h10)のように算出される。以下の説明で、画像ImgXのポイントがNであるとき、ImgX(N)と記述する。例えば図10に示した画像(Img1〜Img10)の各々の画像のポイントは、Img1(120)、Img2(120)、Img3(120)、Img4(120)、Img5(100)、Img6(100)、Img7(90)、Img8(100)、Img9(90)、Img10(90)となる。
<画像選択処理>
本実施形態では、選択画像と被写体情報および構図が一致する他画像のポイントを下げる。図11のフローチャートを用いて、画像選択処理(図3のステップS307)の詳細を説明する。
ステップS701において、画像選択部208は、入力画像集合(入力画像集合記憶部202に記憶されている)を、上記の画像ポイント算出処理で算出された画像ポイント順に、入力画像集合表示領域Imgs−inDに表示する。ステップS702において、ユーザによる画像の選択操作を受け付ける。ユーザによる画像の選択操作とは、たとえば、ユーザが図21の入力画像集合表示領域Imgs−inDに表示されている画像を選択し、選択画像集合表示領域Imgs−outDに移動する操作である。或いは、ユーザが選択画像集合表示領域Imgs−outDに表示されている画像を選択し、入力画像集合表示領域Imgs−inDに移動する操作である。このときユーザが選択した画像を選択画像Img−selとする。入力画像集合表示領域Imgs−inDから選択画像集合表示領域Imgs−outDに移動した選択画像Img−selは、入力画像集合から除外され、選択画像集合に加入されることになる。同様に、選択画像集合表示領域Imgs−outDから入力画像集合表示領域Imgs−inDに移動した選択画像Img−selは、選択画像集合から除外され、入力画像集合に加入されることになる。ステップS703において、画像選択部208は、選択画像が入力画像集合内の画像である(Img−sel⊂Imgs−in)かどうかを判定する。ステップS703においてYESならば、処理はステップS704に移る。また、ステップS703においてNOならば、選択画像が選択画像集合内の画像である(Img−sel⊂Imgs−out)とみなして、処理はステップS709に移る。
ステップS704〜S708では、入力画像集合表示領域Imgs−inDに表示された選択候補から選択された画像の内容および属性情報の少なくとも何れかに基づいて、選択された画像以外の画像の評価値が更新される。本実施形態では、評価値の更新に画像の内容(被写体、構図)を用いる例を示す。ステップS704において、画像選択部208は、入力画像集合Imgs−inから選択画像Img−selを取り除く。ステップS705において、画像選択部208は、選択画像Img−selを選択画像集合Imgs−outに追加する。選択画像集合Imgs−outは選択画像集合記憶部203に記憶される。ステップS706において、画像選択部208は、選択画像Img−selと入力画像集合Imgs−in中の他画像との被写体の一致度、および選択画像Img−selと選択画像集合Imgs−out中の他画像との被写体一致度をそれぞれ算出する。被写体一致度は、同一人物か否かに基づいて判断される。次に、ステップS707において、画像選択部208は、選択画像Img−selと入力画像集合Imgs−in中の他画像との構図一致度、および選択画像Img−selと選択画像集合Imgs−out中の他画像との構図一致度をそれぞれ算出する。構図一致度の算出は、例えば図20の規則10や規則11を用いて行う。ステップS708において、画像選択部208は、選択画像Img−selと、被写体および構図が一致する(被写体一致度と構図一致度が所定値より大きい)入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像のポイントを下げる。そして、処理はステップS714に移る。
他方、選択画像集合Imgs−outに属する選択済みの画像がユーザ指示に応じて非選択状態になった場合(選択候補、すなわち入力画像集合Imgs−inに戻った場合)は、ステップS709以降の処理が実行される。ステップS709以降では、選択候補に戻った画像の内容および属性情報の少なくとも何れかに基づいて、その選択候補に戻った画像以外の画像の評価値を更新する処理が実行される。ステップS709において、画像選択部208は、選択画像集合Imgs−outから選択画像Img−selを取り除く。ステップS710において、画像選択部208は、選択画像Img−selを入力画像集合Imgs−inに追加する。ステップS711において、画像選択部208は、選択画像Img−selと入力画像集合Imgs−in中の他画像との被写体一致度、および選択画像Img−selと選択画像集合Imgs−out中の他画像との被写体一致度をそれぞれ算出する。ステップS712において、画像選択部208は、選択画像Img−selと入力画像集合Imgs−in中の他画像との構図一致度、および選択画像Img−selと選択画像集合Imgs−out中の他画像との構図一致度をそれぞれ算出する。ステップS713において、画像選択部208は、選択画像Imgs−selと、被写体および構図が一致する入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像のポイントを増加する。こうして、選択画像Img−sel以外の画像について、選択画像Img−selの選択により生じた画像ポイントの減少分を元に戻す。そして、処理はステップS714に移る。
なお、選択状態にある画像(選択画像集合に属する画像)を非選択状態に戻した場合の画像ポイントの再計算の方法は、上記に限られるものではない。例えば、各画像について、選択された画像と画像ポイントの減少値とを対応付けて保持しておき、各画像の画像ポイントを非選択状態に戻された画像に対応して保持されている減少値だけ増加させるようにしてもよい。
ステップS714において、画像選択部208は、入力画像集合Imgs−inをポイント順に入力画像集合表示領域Imgs−inDに表示する。ステップS715において、画像選択部208は、選択画像集合Imgs−outを選択順に選択画像集合表示領域Imgs−outDに表示する。ステップS716において、画像選択部208は、画像選択処理を終了するかどうかユーザに確認する。ステップS716において、ユーザが画像選択処理を終了すると判定したならば、処理を終了する。他方、ステップS716において、ユーザが画像選択処理を継続すると判定したならば、処理はステップS702に戻る。
<ユーザの画像選択操作の説明>
図12を用いて、上記画像選択処理(図11)におけるユーザの画像選択操作を説明する。画像選択処理への入力は、ステップS306(図3)においてポイント付けされた入力画像集合Imgs−inである。ここでは、Imgs−in=(Img1(120)、Img2(120)、Img3(120)、Img4(120)、Img5(100)、Img6(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))である。また、このときの選択画像集合Imgs−out=(空集合)である。
まず、入力画像集合Imgs−inの画像が、図12(b1)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示される。ここで、ポイントが同じ画像は、一定の基準でソートされて表示される。また、選択画像集合Imgs−outの画像が、図12(a1)に示すように、選択画像集合表示領域Imgs−outDに表示される(ステップS701)。
ユーザが入力画像集合表示領域Imgs−inDに表示されている画像Img1を選択(第1の選択)して、選択画像集合表示領域Imgs−outDに移動する(ステップS702)。すると、選択画像が入力画像集合内の画像である(Img−sel⊂Img−in)と判定される(ステップS703)。結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(120)、Img5(100)、Img6(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる(ステップS704)。また、選択画像集合は、Imgs−out=(Img1(120))となる(ステップS705)。
次に、画像選択部208は、選択画像Img1と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との被写体一致度を算出する(ステップS706)。ここでの、選択画像Img1に対する画像内被写体情報は、図10(c1)である。図10(c1)と同じ画像内被写体情報は、図10(c4)と図10(c8)である。したがって、ステップS706では、画像Img4とImg8が、選択画像Img1と被写体情報が一致すると判定される。
次に、画像選択部208は、選択画像Img1と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との構図一致度を算出する(ステップS707)。ここでの、選択画像Img1に対する構図は、図10(e1)である。図10(e1)と同じ構図は、図10(e3)と図10(e4)である。したがって、ステップS707では、画像Img3とImg4が、選択画像Img1と構図が一致すると判定される。
次に、画像選択部208は、選択画像Img1と、被写体情報および構図が一致する画像のポイントを下げる。ここでは、選択画像Img1と被写体情報および構図が一致する画像はImg4(120)であるので、Img4のポイントを一定値(例えば40)下げて、Img4(80)とする(ステップS708)。この結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(80)、Img5(100)、Img6(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる。
次に、画像選択部208は、入力画像集合Imgs−inの画像を、図12(b2)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示する(ステップS714)。また、画像選択部208は、選択画像集合Imgs−outの画像を、図12(a2)に示すように、ユーザの選択順に選択画像集合表示領域Imgs−outDに表示する(ステップS715)。ユーザがさらに画像選択(第2の選択)を続けると、処理はステップS716を経て、ステップS702に戻る。
続いて、ユーザが入力画像集合表示領域Imgs−inDに表示されている画像Img6を選択したとする。すると、画像選択部208は、画像Img6を選択画像集合表示領域Imgs−outDに移動する(ステップS702)。選択画像である画像Img6は入力画像集合内の画像である(Img−sel⊂Img−in)と判定される(ステップS703)。その結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(80)、Img5(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる(ステップS704)。また、選択画像集合は、Imgs−out=(Img1(120)、Img6(100))となる(ステップS705)。
次に、画像選択部208は、選択画像Img6と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との被写体一致度を算出する(ステップS706)。ここでの、選択画像Img6に対する画像内被写体情報は、図10(c6)である。図10(c6)と同じ画像内被写体情報は、図10(c5)と図10(c10)である。したがって、ステップS706では、画像Img5とImg10が、選択画像Img6と被写体情報が一致すると判定される。
次に、画像選択部208は、選択画像Img6と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との構図一致度を算出する(ステップS707)。ここでの、選択画像Img6に対する構図は、図10(e6)である。図10(e6)と同じ構図は、図10(e5)である。したがって、ステップS707では、画像Img5が、選択画像Img6と構図が一致すると判定される。
次に、画像選択部208は、被写体情報および構図が選択画像Img6と一致する画像のポイントを下げる。ここでは、被写体情報および構図が選択画像Img6と一致する画像はImg5(100)であるので、画像選択部208はImg5のポイントを一定値(例えば40)下げて、Img5(60)とする(ステップS708)。この結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(80)、Img5(60)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる。
次に、画像選択部208は、入力画像集合Imgs−inの画像を、図12(b3)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示する(ステップS714)。また、画像選択部208は、選択画像集合Imgs−outの画像を、図12(a3)に示すように、ユーザの選択順に選択画像集合表示領域Imgs−outDに表示する(ステップS715)。ユーザがさらに画像選択を続けると、処理はステップS716を経て、ステップS702に戻る。
次に、ユーザが選択画像集合表示領域Imgs−outDに表示されている画像Img1を選択して、入力画像集合表示領域Imgs−inDに移動したとする(ステップS702)。すると、画像選択部208は、選択画像が選択画像集合内の画像である(Img−sel⊂Imgs−out)と判定する(ステップS703)。その結果、選択画像集合は、Imgs−out=(Img6(100))となる(ステップS709)。
画像選択部208が、選択画像(Img1)を入力画像集合の最後に加えるとImgs−inは次のようになる(ステップS710)。すなわち、Imgs−in=(Img2(120)、Img3(120)、Img4(80)、Img5(60)、Img8(100)、Img7(90)、Img9(90)、Img10(90)、Img1(120))となる。
次に、画像選択部208は、選択画像Img1と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との被写体一致度を算出する(ステップS711)。ここでの、選択画像Img1に対する画像内被写体情報は、図10(c1)である。図10(c1)と同じ画像内被写体情報は、図10(c4)と図10(c8)である。したがって、ステップS711では、画像Img4とImg8が、選択画像Img1と被写体情報が一致すると判定される。
次に、画像選択部208は、選択画像Img1と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との構図一致度を算出する(ステップS712)。ここでの、選択画像Img1に対する構図は、図10(e1)である。図10(e1)と同じ構図は、図10(e3)と図10(e4)である。したがって、ステップS712では、画像Img3とImg4が、選択画像Img1と構図が一致すると判定される。
次に、画像選択部208は、選択画像Img1と、被写体情報および構図が一致する画像のポイントをもとに戻す(ステップS713)。ここでは、選択画像Img1と被写体情報および構図が一致する画像はImg4(80)であるので、Img4のポイントを一定値(例えば40)上げて、Img4(120)とする(ステップS713)。その結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(120)、Img5(60)、Img8(100)、Img7(90)、Img9(90)、Img10(90)、Img1(120))となる。
次に、入力画像集合Imgs−inの画像が、図12(b4)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示される(ステップS714)。また、選択画像集合Imgs−outの画像が、図12(a4)に示すように、ユーザの選択順に選択画像集合表示領域Imgs−outDに表示される(ステップS715)。
ここで、ユーザが画像選択処理を終了する旨を入力すると、ステップS716を経て、本処理が終了する。
上記実施形態では、画像に図8(a1)、図8(b1)のような属性情報(被写体情報、構図情報)が設定されているものとして、画像ポイント算出処理(図7)と画像選択処理(図11)を説明した。画像に設定される属性としては、図8(c1)のような顔の向きがあってもよい。ここでは、顔フレームF2内に、両耳の位置を通る線分Y2と、鼻筋を示す線分N2を座標等で指定する。このとき、ステップS604(図7)の構図ポイント算出では、適当な関数FD()を用いて、顔向きポイント=FD(Y2、N2)を算出し、顔向きポイントを構図ポイントに加える。このような顔向きポイント算出規則は、図20の規則群中に記述されているものとする。また顔フレームF2内の表情に対して、ポイントを算出する関数FH()を定義し、表情ポイント=FH(F2)のように算出する。そして、表情ポイントを画像ポイントに加える規則を作成して、図20の規則群に加えてもよい。
また、上記実施形態において、ステップS708では選択された画像と類似するか否かにより画像ポイントを所定値だけ減少させているが、これに限られるものではない。例えば、選択された画像と他の画像との類似度を算出し、算出された類似の度合いに応じて減少させる画像ポイントの値が変化するようにしてもよい。同様に、ステップS713で画像ポイントを戻す場合にも、算出された類似の度合いに応じて増加させる画像ポイントの値が変化するようにしてもよい。
<第1実施形態の効果>
以上のように、第1実施形態によれば、1つ以上の画像に対しその画像内容、属性情報、および選択済みの画像の画像内容および属性情報に応じてポイントを算出するポイント算出部と、画像をポイント順に並べて表示する表示部とを具備する。さらに、ユーザが表示された画像の中から画像を選択する画像選択部を有し、ユーザが画像を選択する度に、ポイント算出部は選択された画像以外の画像のポイントを再計算し、更新する。ポイントの算出に用いられる画像内容は被写体、被写体の組み合わせ、構図、被写体に対する合焦の有無、被写体が人間である場合の顔の向き、表情のいずれかあるいは1つ以上の組み合わせである。以上のような構成によれば、ユーザが選択した写真と、同一の被写体や同一の構図の写真のポイントが下げられ、優先順位が下げられて再表示されるので、選ばれにくくなる。したがって、アルバム作成の画像選択において、ユーザは被写体と構図が一度選んだ写真と異なる写真を選びやすくなる。したがって、上記実施形態によれば、アルバム作成のための画像選択の際に、被写体の組み合わせや構図、時間帯に偏りのない画像選択が容易になる。
[第2実施形態]
<画像選択処理の他の実施形態>
第1実施形態では、選択画像と被写体情報および構図が一致する他画像のポイントを下げる構成を説明した。第2実施形態では、さらに、選択画像と撮影時刻が(一定の範囲内で)一致する他画像のポイントを下げる。図13の流れ図を用いて、第2実施形態による画像選択処理(図3のステップS308)の詳細を説明する。なお、図13のステップS801〜S807、S810〜S813の処理は、第1実施形態(図11)のステップS701〜S707、S709〜S712と同様の処理である。
ステップS808において、画像選択部208は、選択画像Img−selと入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との撮影時刻一致度を算出する。ステップS809において、画像選択部208は、選択画像Img−selと、撮影時刻、または、被写体および構図が一致する他画像のポイントを下げる。そして、処理はステップS816に移る。
また、ステップS814において画像選択部208は、選択画像Img−selと入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との撮影時刻一致度を算出する。ステップS815において画像選択部208は、選択画像Imgs−selと、撮影時刻、または、被写体および構図が一致する他画像のポイントを、ステップS713と同様に、元に戻す。そして、処理はステップS816に移る。ステップS816〜S818の処理は、図11のステップS714〜S716と同様である。
<第2実施形態におけるユーザの画像選択操作の説明>
図14を用いて、第2実施形態による画像選択処理(図13)におけるユーザの画像選択操作を説明する。画像選択処理への入力は、図3のステップS306において、ポイント付けされた入力画像集合Imgs−inである。ここでは、Imgs−in=(Img1(120)、Img2(120)、Img3(120)、Img4(120)、Img5(100)、Img6(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))である。また、このときの選択画像集合Imgs−out=(空集合)である。
まず、入力画像集合Imgs−inの画像が、図14(b1)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示される。また、選択画像集合Imgs−outの画像が、図14(a1)に示すように、選択画像集合表示領域Imgs−outDに表示される(ステップS801)。
ユーザが入力画像集合表示領域Imgs−inDに表示されている画像Img1を選択して、選択画像集合表示領域Imgs−outDに移動する(ステップS802)。すると、選択画像は、入力画像集合内の画像である(Img−sel⊂Imgs−in)と判定される(ステップS803)。その結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(120)、Img5(100)、Img6(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる(ステップS804)。また、選択画像集合は、Imgs−out=(Img1(120))となる(ステップS805)。
次に、画像選択部208は、選択画像Img1と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との被写体一致度を算出する(ステップS806)。ここでの、選択画像Img1に対する画像内被写体情報は、図10(c1)である。図10(c1)と同じ画像内被写体情報は、図10(c4)と図10(c8)である。したがって、ステップS806では、画像Img4とImg8が、選択画像Img1と被写体情報が一致すると判定される。
次に、画像選択部208は、選択画像Img1と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との構図一致度を算出する(ステップS807)。ここでの、選択画像Img1に対する構図は、図10(e1)である。図10(e1)と同じ構図は、図10(e3)と図10(e4)である。したがって、ステップS807では、画像Img3とImg4が、選択画像Img1と構図が一致すると判定される。次に、画像選択部208は、選択画像Img1と他の画像との撮影時刻一致度を算出する(ステップS808)。ここでは、画像間の撮影時刻の差が5分以内(この時間差は設定可能)ならば、2つの画像の撮影時刻が一致しているものとする。選択画像Img1に対する撮影時刻情報は、図10(g1)である。図10(g1)と同じとみなされる撮影時刻情報は、存在しない。
次に、画像選択部208は、選択画像Img1と、撮影時刻、または、被写体情報および構図が一致する画像のポイントを下げる(ステップS809)。選択画像Img1と撮影時刻、または、被写体情報および構図が一致する画像はImg4(120)であるので、Img4のポイントを一定値(例えば40)下げて、Img4(80)とする。その結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(80)、Img5(100)、Img6(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる。また、入力画像集合Imgs−inの画像が、図14(b2)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示される(ステップS816)。さらに、選択画像集合Imgs−outの画像が、図14(a2)に示すように、ユーザの選択順に選択画像集合表示領域Imgs−outDに表示される(ステップS817)。
ユーザはさらに画像選択を続ける。すると、処理はステップS818を経て、ステップS802に戻る。
続いて、ユーザが入力画像集合表示領域Imgs−inDに表示されている画像Img6を選択して、選択画像集合表示領域Imgs−outDに移動したとする(ステップS802)。選択画像Img6は入力画像集合内の画像である(Img−sel⊂Imgs−in)と判定される(ステップS803)。その結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(120)、Img4(80)、Img5(100)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる(ステップS804)。また、選択画像集合は、Imgs−out=(Img1(120)、Img6(100))となる(ステップS805)。
次に、画像選択部208は、選択画像Img6と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との被写体一致度を算出する(ステップS806)。本例において、選択画像Img6に対する画像内被写体情報は、図10(c6)である。図10(c6)と同じ画像内被写体情報は、図10(c5)と図10(c10)である。したがって、ステップS806では、画像Img5とImg10が、選択画像Img6と被写体情報が一致すると判定される。
次に、画像選択部208は、選択画像Img6と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との構図一致度を算出する(ステップS807)。ここでの、選択画像Img6に対する構図は、図10(e6)である。図10(e6)と同じ構図は、図10(e5)である。したがって、ステップS807では、画像Img5が、選択画像Img6と構図が一致すると判定される。
次に、画像選択部208は、選択画像Img6と入力画像集合Imgs−in中および選択画像集合Imgs−out中の他画像との撮影時刻一致度を算出する(ステップS808)。ここでの、選択画像Img6に対する撮影時刻は、図10(g6)である。図10(g6)と同じ撮影時刻は、図10(g3)である。したがって、ステップS808では、画像Img3が、選択画像Img6と撮影時刻が一致すると判定される。
続いて、画像選択部208は、選択画像Img6と、撮影時刻、または、被写体情報および構図が一致する画像のポイントを下げる(ステップS809)。ここでは、選択画像Img6と撮影時刻が一致する画像はImg3である(120)。また、選択画像Img6と被写体情報および構図が一致する画像はImg5(100)である。したがって、Img3とImg5のポイントを一定値(例えば40)下げて、Img3(80)およびImg5(60)とする(ステップS809)。その結果、入力画像集合は、Imgs−in=(Img2(120)、Img3(80)、Img4(80)、Img5(60)、Img8(100)、Img7(90)、Img9(90)、Img10(90))となる。
次に、画像選択部208は、入力画像集合Imgs−inの画像を、図14(b3)に示すように、ポイント順に入力画像集合表示領域Imgs−inDに表示する(ステップS816)。また、画像選択部208は、選択画像集合Imgs−outの画像を、図14(a3)に示すように、ユーザの選択順に選択画像集合表示領域Imgs−outDに表示する(ステップS817)。ここで、ユーザが画像選択処理を終了する旨を入力すると、ステップS818を経て、処理を終了する。
以上のように、第2実施形態では、ユーザが選んだ画像と、撮影時刻、または、被写体および構図が一致する画像のポイントを下げる。これ以外にも、ユーザが選んだ画像と、撮影場所、撮影時刻、被写体、構図のうちの1つ以上の組み合わせが一定の範囲内で一致する画像のポイントを下げるようにしてもよい。例えば、場所の一致度の判定は、次のように行う。画像Aの撮影位置をPA、被写体位置をPA1、PA2・・・PAn、画像Bの撮影位置をPB、被写体位置をPB1、PB2・・・PABm、とする。そして、ある判定関数FP()と閾値THDを定義し、FP(PA,PA1,PA2・・・PAn、PB、PB1、PB2・・・Pbm)<THD、のとき撮影場所が一致すると判定する。なお、撮影位置は、たとえばGPSを利用して取得され得る。また、被写体位置は、画像内の各被写体までの焦点距離情報などを利用して撮影位置と被写体位置との位置関係を求めることで、取得され得る。
<第2実施形態の効果>
このように、ユーザが選択した写真と、撮影時刻、撮影場所、被写体、構図のいずれか、または、これらの1つ以上組み合わせが一致するとみなされる写真のポイントが下げられる。ポイントの下げられた写真は、優先順位が下げられて再表示されるので、再度選ばれにくくなる。したがって、アルバム作成の画像選択において、ユーザは、撮影時刻、撮影場所、被写体、構図などが一度選んだ写真と異なる写真を選びやすくなる。
[第3実施形態]
<画像ポイント算出処理の他の実施形態>
第1実施形態では、画像の被写体ポイントと構図ポイントをそれぞれ算出し、それらを合計することにより画像ポイント得た(図7のステップS603、S604)。第3実施形態では、ポイント算出処理の他の実施形態として、被写体情報と構図情報とを関連させて画像ポイントを算出する処理を説明する。以下、図15のフローチャートを用いて、第3実施形態における画像ポイント算出処理(図3のステップS306)を説明する。
読み込んだ画像、例えば図16(a1)のImgAXには、図16(a2)、図16(a4)、図16(a6)、図16(a8)のような属性情報が付いているものとする。図16(a2)は被写体情報であり、図16(a4)は構図情報であり、図16(a6)および図16(a8)は被写体構図情報である。そして、図16(a2)のような被写体情報からは、被写体ポイントが算出される。また、図16(a4)のような構図情報からは、構図ポイントが算出される。さらに、図16(a6)や図16(a8)のような被写体構図情報からは、被写体構図ポイントが算出される。また、例えば、規則50〜規則52(図20)を用いて、合焦情報(フォーカスの有無、および、フォーカスの位置)に基づいて合焦ポイントを算出する。そして、例えば、規則100(図20)によって、画像ポイント=被写体ポイント+構図ポイント+被写体構図ポイント+合焦ポイント、と算出する。
本実施形態では、図16(a1)のImgAXと、図16(b1)のImgXAの2枚の画像が読み込まれている場合についてのべる。
ステップS901において、ポイント算出部209は、最初の画像(=ImgAX)を選択する。ステップS902において、ポイント算出部209は、画像内被写体情報を抽出する。ステップS903において、ポイント算出部209は、画像の被写体ポイントを算出する(図16(a3))。ここでは、図9(a)のような画像内被写体情報に対して、図20のようなポイント算出規則を適用して、図9(b)のような被写体ポイントを算出する。次に、ステップS904において、ポイント算出部209は、画像の構図ポイントを算出する(図16(a5))。例えば、規則21(図20)のようなポイント算出規則を適用して、画像の構図ポイントを算出する。
続いて、ステップS905において、ポイント算出部209は、画像の被写体構図ポイントを算出する(図16(a7)、図16(a9))。例えば、規則22(図20)のようなポイント算出規則を適用して、画像の被写体構図ポイントを算出する。また、ステップS906において、ポイント算出部209は、画像の合焦ポイントを算出する。例えば、規則50〜規則52(図20)のようなポイント算出規則を適用して、画像の合焦ポイントを算出する(図16(a10))。
ステップS907において、ポイント算出部209は、ステップS903〜S906で算出されたポイントを用いて画像にポイントを設定する。
例えば、図16(a1)の画像ImgAXに対しては、図16(a3)に示すように被写体ポイント=(10)、図16(a5)に示すように構図ポイント=(70)が得られる。また、図16(a7)および図16(a9)に示すように、画像ImgAXに対して被写体構図ポイント=(50)+(−10)=(40)、図16(a10)に示すように合焦ポイント=(10)が得られる。以上から、図16(a11)に示すように、ImgAXの画像ポイント=被写体ポイント(10)+構図ポイント(70)+被写体構図ポイント(40)+合焦ポイント(10)=(130)となる。
ステップS908において、ポイント算出部209は、最後の画像に対して画像ポイント算出処理が行なわれたかどうか判定する。ステップS908においてYESならば、画像ポイント算出処理を終了する。ステップS908においてNOならば、処理はステップS909に移る。ステップS909において、ポイント算出部209は、入力画像集合内の次の画像を選択し、処理はステップS902に戻る。例えば、ステップS909において次の画像ImgXAが選択され、ステップS902〜ステップS907の処理が行われる。すると、図16(b11)に示すように、ImgXAの画像ポイント=被写体ポイント(10)+構図ポイント(70)+被写体構図ポイント(−20)+合焦ポイント(−5)=(55)となる。
<第3実施形態の効果>
このように、写真内の被写体の位置に応じてポイントを付加でき、それらのポイント算出規則を設定できる。また焦点が主体に合っていたらポイントを高くしたり、焦点が無関係な人に合っていたらポイントを低くしたりする規則を記述して登録できる。したがって、アルバムの主体が指定した構図で出現する写真のポイントを高くしたり、無関係な人が大きく写っている写真のポイントを低くしたりできる。また、焦点が写真内の誰に合っているかに応じて、写真のポイントを制御できる。そして、被写体、構図、被写体情報を含む構図、合焦の有無、焦点の位置によって写真へのポイントの付き方を規則として記述でき、これらの規則群を用いて、写真のポイントを算出できる。
[第4実施形態]
<アルバム作成処理の他の実施形態>
第4実施形態では、画像ポイントが閾値以下の入力画像集合の画像に対して自動的に加工(ここではトリミング)を行い、トリミングした画像のポイントが閾値以上ならば、もとの画像と置き換えてアルバム作成処理を行う。図17は、第4実施形態によるアルバム作成処理を説明するフローチャートである。なお、図17のステップS1001〜S1006の処理は第1実施形態(図3)のステップS301〜S306と同様である。ただし、ステップS1006の画像ポイント算出処理では、第1実施形態(図7のステップS601〜ステップS606)、第3実施形態(図15のステップS901〜ステップS909)のいずれを用いてもよい。
ステップS1007において、トリミング部212(図1)は、トリミング処理を行う。トリミング処理においては、入力画像集合内のポイントが閾値以下の画像をトリミングして、閾値以上になるものがあれば、元の画像をトリミング後の画像に置き換える。トリミング処理の詳細については後述する。ステップS1008において、画像選択部208は、画像を選択する。ステップ1009において、レイアウト処理部210は、選択された画像をアルバム用にレイアウトする。ステップS1010において、印刷処理部211は、レイアウトされた画像を印刷する。
<トリミング処理の概要>
第4実施形態のトリミング処理では、画像に対するポイントを算出した後、ポイントが閾値(ここでは、例えば95)未満の画像に対して、ポイントを下げる原因になる被写体が含まれているかどうかを判定する。ここで、ポイントを下げる原因になる被写体とは、図5(a)の被写体リストObj−List=(A、B、・・・、H)内に含まれていない被写体である。そして、ポイントを下げる原因になる被写体を除いた残りの被写体を求める。これらの残りの被写体を含む領域をトリミング画像とする。
例えば図19(b1)の画像Img9(90)には、被写体A、D、Xが含まれている。このとき、例えば図20のようなポイント算出規則を用いると、図19(b2)に示すように、被写体ポイントは=(20)+(−30)=(−10)である。また、図20のポイント算出規則によって、図19(b3)に示すように、構図ポイントは=(100)である。ここでは被写体Xの影響でポイントが(−20)となっている。そこで、被写体Xを除いた残りの被写体A,Dに関する、被写体ポイントを求めると、図19(c2)のように(20)となる。そこで、トリミング部212は、被写体A、Dのみを含むように、元の画像Img9から、図19(c1)のようなトリミング画像FrTr1を切り出す。そして新たなトリミング画像FrTr1に対して、トリミング部212は、画像ポイント=「図19(c2)の被写体ポイント(20)」+「図19(c3)の構図ポイント(100)」を算出する。すると、図19(d)に示すように、トリミング画像の画像ポイントはFrTr1(120)となる。画像ポイントが閾値(95)以上なので、トリミング部212は、トリミング画像FrTr1をImg9t(120)として入力画像集合のもとの画像と置き換える(図19(e))。
<トリミング処理のフローチャート>
第4実施形態によるトリミング処理を、図18のフローチャートを用いて詳細に説明する。まず、図17に示す流れ図(ステップS1001〜ステップS1006)の処理によって、読み込んだ画像には、図10(h1)〜(h10)のように画像ポイントが付与されている(図19(a))。次に、図18の流れ図(ステップS1101〜ステップS1112)によって、トリミング処理が行なわれる。
まず、ステップS1101において、トリミング部212は、閾値(本例では「95」)を設定する。ステップS1102において、トリミング部212は、入力画像集合の最初の画像を選択する。ステップS1103において、トリミング部212は、画像ポイントを算出する。ここでは、図7の画像ポイント算出処理と同様の方法(画像ポイント=被写体ポイント+構図ポイント)で画像ポイントが算出される。なお、この処理は画像ポイント算出処理(ステップS1006)において算出済みであれば不要である。次に、ステップS1104において、トリミング部212は、選択されている画像の画像ポイントが閾値未満かどうか判定する。ステップS1104において画像ポイントが閾値未満と判定されたならば、処理はステップS1105に進む。また、ステップS1104において画像ポイントが閾値以上と判定されたならば、処理はステップS1111に移る。
ステップS1105において、トリミング部212は、選択している画像から被写体を抽出する。例えば、図19(b1)に示す画像Img9が選択中ならば、被写体A、D、Xが抽出される。ステップS1106において、トリミング部212は、選択中の画像内にポイントを減らす原因の被写体があるかどうか判定する。ステップS1106においてYESならば処理はステップS1107に移り、NOならば処理はステップS1111に移る。例えば、図19(b2)に示すように、選択中の画像Img9内には、画像のポイントを減らす(−30)原因になる被写体Xが存在するため、処理はステップS1107へ進む。
ステップS1107において、トリミング部212は、トリミング画像FrTr1を求める。例えば、トリミング部212は、図19(c2)のように、被写体Xを取り除き、被写体AとDを残したトリミング画像を得る。領域FrTr1の位置と大きさを決めるには、条件AD=「被写体AとDの顔を含み、被写体Xの顔を含まない」を用いる。そして条件ADを満たす最少領域を求め、その構図ポイントを算出する。条件ADを満たす領域が条件ADを満たさなくなるまで段階的に大きくしてゆき、各大きさの領域に付いて構図ポイントを求め、最大の構図ポイントの領域をFrTr1とする。条件ADを満たす領域が1つもなかったときや、トリミング画像FrTr1が小さくなりすぎて解像度が(予めアルバムなどの商材によって指定される解像度より)劣化したときは、トリミング画像FrTr1は元の画像(ここではImg9)とする。また、画像を使用する商材あるいは配置する枠のサイズに対して、トリミング画像FrTr1の解像度が指定される解像度より劣化した時は、トリミング画像FrTr1は元の画像(ここではImg9)とする。
ステップS1108において、トリミング部212は、図20のような規則を用いて、トリミング画像の画像ポイント(=被写体ポイント+構図ポイント)を算出する。例えば、図19(c1)のトリミング画像FrTr1に対しては、被写体ポイント(20:図19(c2))+構図ポイント(100:図19(c3))=画像ポイント(120)となる。ステップS1109において、トリミング部212は、トリミング画像FrTR1(120)の画像ポイントが閾値(95)以上かどうか判定する。ステップS1109においてYESならば処理はステップS1110に進み、NOならば処理はステップS1111に移る。ここでは、ステップS1109においてYESになるので、ステップS1110においてトリミング画像FrTR1(120)を新たにImg9t(120)(図19(d))として入力画像集合の元の画像と置き換える(図19(e))。ステップS1111において、トリミング部212は、入力画像集合の最後の画像かどうか判定する。ステップS1111において最後の画像であると判定されたならば、トリミング処理を終了する。ステップS1111において最後の画像ではないと判定されたならば、処理はステップS1112に移る。ステップS1112において、トリミング部212は、入力画像集合の次の画像を選択し、処理をステップS1103に戻す。
なお、ステップS1107において、条件ADの代わりに次のような条件AD2を用いてもよい。条件AD2=「被写体AとDの顔を含み、被写体Xの顔を含まない。かつ、トリミング画像は元の画像と縦横比が同じである」。
このように、入力画像集合に対してトリミング処理を行なった後、画像選択処理を行う。すると、画像選択処理(図17、ステップS1008)においてポイント順に画像が表示される(図11のS701、図11のS801)。その結果、図19(e)のように画像が表示される。
なお、閾値を基に無条件に画像をトリミングするだけでは無く、アルバムに対して、選択すべき写真の枚数が少なくなってきた場合に、上記のようなトリミング処理を行うようにしてもよい。
また、本実施形態では、閾値以下の画像をトリミングしているが、トリミングの結果ポイントが向上する全ての画像をトリミングしても良い。
また、本実施形態では、トリミング画像を入力画像集合の元の画像と置き換えているが、元の画像を残しておいてトリミング画像を入力画像集合に追加するようにしてもよい。この場合は、画像選択処理(図11、図13)の際に元画像あるいはトリミング画像が選択されると、他方の画像のポイントを下げることになる。
また、トリミング画像と元画像とは画像選択の際に識別できるように枠の色などを変えて表示しても良い。
また、入力画像集合表示領域を元画像用とトリミング画像用に分けても良い。
また、被写体の組み合わせ、構図、被写体に対する合焦の有無、被写体が人間である場合の顔の向きや表情、撮影時刻、撮影場所のいずれかあるいは1つ以上の組み合わせによるポイントが高くなるように画像を加工してもよい。
<第4実施形態の効果>
以上のように、第4実施形態によれば、画像のポイントに閾値を設け、ポイントが閾値未満であるか否かを判断し、閾値未満である画像を加工することにより、閾値以上の得点とする。これによって、面倒な画像加工を自動的に行い、自動的に適当な画像を増やすことができる。
[第5実施形態]
上記各実施形態のアルバム作成システムでは、図21に示すような操作画面を提示し、ユーザが入力画像集合表示領域Imgs−inDに表示されている画像からアルバムに掲載すべき画像を選択することでアルバムが生成される。入力画像集合表示領域Imgs−inDにおける画像の表示順序は選択された画像に基づいて再計算された画像ポイントに応じて並べ変えられるため、ユーザがアルバムへの掲載する画像を選択する際に、似たような画像が偏って選択されることを防ぐことができる。しかしながら、このようなマニュアルによるアルバム作成システムではなく、再計算された画像ポイントの最も高い画像を順次取り出してアルバムに掲載していくことでアルバムを自動生成するよう構成してもよいことは言うまでもない。
自動的にアルバムを生成する構成とする場合は、たとえば、図11、図12の手順を以下のように変形すればよい。すなわち、ステップS701、S702(またはステップS801、S802)において、入力画像集合のうち最も高い画像ポイントを有する画像を選択してアルバムの形成に用いるようにする。このとき、選択された画像が入力画像集合から除外されて選択画像集合に加入される。そして、ステップS704〜S708(またはステップS804〜S809)により、選択された画像以外の画像について画像ポイントの再計算が行なわれる。以上の処理をアルバムに掲載する画像数だけ実行する(ステップS716、S818)。なお、入力画像集合表示領域Imgs−inDなどの画像の表示は省略可能となるので、ステップS714、S715(ステップS816、S817)は省略してよい。
このようなアルバムの自動生成によれば、被写体の組み合わせや構図、時間帯などに偏りのないように選択された画像が掲載されたアルバムが生成される。
<その他の実施形態>
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (13)

  1. 複数の画像の各々を、画像の内容および属性情報の少なくとも何れかに基づいて評価する評価手段と、
    前記評価に基づいて、前記複数の画像の一部またはすべてを、ユーザ指示に応じて選択できる選択候補として、提示する提示手段と、
    前記選択候補から選択された画像の内容および属性情報の少なくとも何れかに基づいて、前記複数の画像うちの前記選択された画像以外の画像の評価を更新する更新手段と、を備えることを特徴とする画像処理装置。
  2. 前記評価手段は、前記画像の評価を評価値として算出し、
    前記更新手段は、前記選択された画像と前記選択された画像以外の画像との類似の度合いをそれら画像の内容および属性情報の少なくとも何れかに基づいて取得し、取得された類似の度合いにしたがって前記選択された画像以外の画像の評価値を減少させることを特徴とする請求項1に記載の画像処理装置。
  3. 前記更新手段は、前記選択された画像以外の画像のそれぞれとについて前記選択された画像と類似するか否かを判定し、類似すると判定された画像の評価値を所定値だけ減少させることを特徴とする請求項2に記載の画像処理装置。
  4. 前記提示手段は、前記選択された画像を前記選択候補から除外することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記提示手段は、選択済みとなっている画像がユーザ指示に応じて非選択状態になった場合に、該非選択状態になった画像を前記選択候補に戻し、
    前記更新手段は、前記選択候補に戻った画像の内容および属性情報の少なくとも何れかに基づいて、該選択候補に戻った画像以外の画像の評価値を更新することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記更新手段は、前記選択候補に戻った画像と前記選択候補に戻った画像以外の画像との類似の度合いをそれら画像の内容および属性情報の少なくとも何れかに基づいて取得し、取得された類似度の度合いにしたがって前記選択候補に戻った画像以外の画像の評価値を増加させることを特徴とする請求項5に記載の画像処理装置。
  7. 前記画像を、前記評価が向上するように加工する加工手段を更に備えることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記画像の内容は、画像内の被写体の識別情報、被写体の画像内における位置および大きさに基づく構図情報、画像内の被写体に対する合焦の有無に基づく合焦情報、画像内の被写体の顔の向きの情報、の少なくともいずれかを含むことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記属性情報は、撮影時刻、撮影場所、の少なくともいずれかを含むことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 複数の画像の各々を、画像の内容および属性情報の少なくとも何れかに基づいて評価する評価手段と、
    前記評価手段による評価に基づいて、前記複数の画像からアルバムに掲載する画像を選択する第1の選択手段と、
    前記選択された画像の内容および属性情報の少なくとも何れかに基づいて、前記複数の画像のうち、前記選択された画像以外の画像の評価を更新する更新手段と、
    前記更新手段により更新された評価に基づいて、前記選択された画像以外の画像からアルバムに掲載する画像を選択する第2の選択手段と、
    前記第1の選択手段と前記第2の選択手段により選択されたアルバムに掲載する画像を用いてアルバムを生成する生成手段と、を備えることを特徴とする画像処理装置。
  11. 画像処理装置の制御方法であって、
    複数の画像の各々を、画像の内容および属性情報の少なくとも何れかに基づいて評価する評価工程と、
    前記評価に基づいて、前記複数の画像の一部またはすべてを、ユーザ指示に応じて選択できる選択候補として、提示する提示工程と、
    前記選択候補から選択された画像の内容および属性情報の少なくとも何れかに基づいて、前記複数の画像のうち前記選択された画像以外の画像の評価を更新する更新工程と、を有することを特徴とする画像処理装置の制御方法。
  12. 画像処理装置の制御方法であって、
    複数の画像の各々を、画像の内容および属性情報の少なくとも何れかに基づいて評価する評価工程と、
    前記評価工程における評価に基づいて、前記複数の画像からアルバムに掲載する画像を選択する第1の選択工程と、
    前記選択された画像の内容および属性情報の少なくとも何れかに基づいて、前記複数の画像のうち前記選択された画像以外の画像の評価を更新する更新工程と、
    前記更新工程において更新された評価に基づいて、前記選択された画像以外の画像から、アルバムに掲載する画像を選択する第2の選択工程と、
    前記第1の選択工程と前記第2の選択工程により選択されたアルバムに掲載する画像を用いてアルバムを生成する生成工程と、を有することを特徴とする画像処理装置の制御方法。
  13. コンピュータに、請求項11または12に記載の画像処理装置の制御方法の各工程を実行させるためのプログラム。
JP2012093395A 2012-04-16 2012-04-16 画像処理装置およびその制御方法、プログラム Active JP6004718B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012093395A JP6004718B2 (ja) 2012-04-16 2012-04-16 画像処理装置およびその制御方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012093395A JP6004718B2 (ja) 2012-04-16 2012-04-16 画像処理装置およびその制御方法、プログラム

Publications (3)

Publication Number Publication Date
JP2013222304A true JP2013222304A (ja) 2013-10-28
JP2013222304A5 JP2013222304A5 (ja) 2015-06-11
JP6004718B2 JP6004718B2 (ja) 2016-10-12

Family

ID=49593220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012093395A Active JP6004718B2 (ja) 2012-04-16 2012-04-16 画像処理装置およびその制御方法、プログラム

Country Status (1)

Country Link
JP (1) JP6004718B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068331A (ja) * 2015-09-28 2017-04-06 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2018097483A (ja) * 2016-12-09 2018-06-21 キヤノン株式会社 画像処理方法、画像処理装置、及びプログラム
US10303949B2 (en) 2015-09-28 2019-05-28 Fujifilm Corporation Image evaluation system, image evaluation method and recording medium storing image evaluation program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031310A (ja) * 2004-07-15 2006-02-02 Seiko Epson Corp 画像処理装置及び画像抽出方法
JP2008083889A (ja) * 2006-09-27 2008-04-10 Fujifilm Corp 画像評価装置および方法並びにプログラム
JP2010176459A (ja) * 2009-01-30 2010-08-12 Nikon Corp 電子機器およびランク付けプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031310A (ja) * 2004-07-15 2006-02-02 Seiko Epson Corp 画像処理装置及び画像抽出方法
JP2008083889A (ja) * 2006-09-27 2008-04-10 Fujifilm Corp 画像評価装置および方法並びにプログラム
JP2010176459A (ja) * 2009-01-30 2010-08-12 Nikon Corp 電子機器およびランク付けプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068331A (ja) * 2015-09-28 2017-04-06 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
US10303949B2 (en) 2015-09-28 2019-05-28 Fujifilm Corporation Image evaluation system, image evaluation method and recording medium storing image evaluation program
JP2018097483A (ja) * 2016-12-09 2018-06-21 キヤノン株式会社 画像処理方法、画像処理装置、及びプログラム

Also Published As

Publication number Publication date
JP6004718B2 (ja) 2016-10-12

Similar Documents

Publication Publication Date Title
JP6323465B2 (ja) アルバム作成プログラム、アルバム作成方法およびアルバム作成装置
KR101605983B1 (ko) 얼굴 검출을 이용한 이미지 재구성
JP7250567B2 (ja) 装置、方法、及びプログラム
JP5802255B2 (ja) レイアウト編集装置、レイアウト編集方法およびプログラム
JP7111632B2 (ja) 画像候補決定装置,画像候補決定方法,ならびに画像候補決定装置を制御するプログラムおよびそのプログラムを格納した記録媒体
JP2020140577A (ja) 装置、方法、及びプログラム
KR101953306B1 (ko) 사용자 인터랙션에 기초하여 3d 영상을 생성하기 위한 방법 및 장치
JP2020140568A (ja) 装置、方法、及びプログラム
US9087237B2 (en) Information processing apparatus, control method thereof, and storage medium
JP6028549B2 (ja) 情報処理装置、情報処理システム、その制御方法、及びプログラム
WO2014156559A1 (ja) 画像検索装置およびその動作制御方法ならびに画像検索サーバ
JP6004718B2 (ja) 画像処理装置およびその制御方法、プログラム
JP6681192B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2022123209A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2019185747A (ja) メディアオブジェクトをグループ化するコンピュータ実装方法及びプログラム、並びに画像取り込み装置
JP2011139329A (ja) 画像処理装置、及び、画像加工プログラム
WO2016125418A1 (ja) 画像表示制御装置,画像表示制御方法,および画像表示制御プログラムならびにそのプログラムを格納した記録媒体
JP2020140555A (ja) 画像処理装置、制御方法、及びプログラム
WO2023149135A1 (ja) 画像処理装置、画像処理方法及びプログラム
CN104519218A (zh) 图像处理设备和图像处理方法
JP2018055534A (ja) 画像抽出システム,画像抽出方法およびそのプログラム
EP2763391B1 (en) Image editing device, image editing method, program, and computer readable storage medium
WO2018192244A1 (zh) 一种智能设备的拍摄引导方法
JP7451242B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7398944B2 (ja) 電子アルバム生成装置、電子アルバム生成方法及びプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160906

R151 Written notification of patent or utility model registration

Ref document number: 6004718

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151