JP2015053542A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2015053542A
JP2015053542A JP2013184046A JP2013184046A JP2015053542A JP 2015053542 A JP2015053542 A JP 2015053542A JP 2013184046 A JP2013184046 A JP 2013184046A JP 2013184046 A JP2013184046 A JP 2013184046A JP 2015053542 A JP2015053542 A JP 2015053542A
Authority
JP
Japan
Prior art keywords
image
layout
size
subject
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013184046A
Other languages
English (en)
Other versions
JP6282065B2 (ja
Inventor
河合 良徳
Yoshitoku Kawai
良徳 河合
雄介 橋井
Yusuke Hashii
雄介 橋井
梅田 清
Kiyoshi Umeda
清 梅田
寛康 國枝
Hiroyasu Kunieda
寛康 國枝
洋行 酒井
Hiroyuki Sakai
洋行 酒井
尚紀 鷲見
Hisanori Washimi
尚紀 鷲見
池田 徹
Toru Ikeda
徹 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013184046A priority Critical patent/JP6282065B2/ja
Priority to US14/476,596 priority patent/US9904879B2/en
Publication of JP2015053542A publication Critical patent/JP2015053542A/ja
Application granted granted Critical
Publication of JP6282065B2 publication Critical patent/JP6282065B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K15/00Arrangements for producing a permanent visual presentation of the output data, e.g. computer output printers
    • G06K15/02Arrangements for producing a permanent visual presentation of the output data, e.g. computer output printers using printers
    • G06K15/18Conditioning data for presenting it to the physical printing elements
    • G06K15/1867Post-processing of the composed and rasterized print image
    • G06K15/1868Post-processing of the composed and rasterized print image for fitting to an output condition, e.g. paper colour or format
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K15/00Arrangements for producing a permanent visual presentation of the output data, e.g. computer output printers
    • G06K15/02Arrangements for producing a permanent visual presentation of the output data, e.g. computer output printers using printers
    • G06K15/025Simulating output on another printing arrangement, e.g. proof output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1202Dedicated interfaces to print systems specifically adapted to achieve a particular effect
    • G06F3/1203Improving or facilitating administration, e.g. print management
    • G06F3/1208Improving or facilitating administration, e.g. print management resulting in improved quality of the output result, e.g. print layout, colours, workflows, print preview
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/125Page layout or assigning input pages onto output media, e.g. imposition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/1253Configuration of print job parameters, e.g. using UI at the client
    • G06F3/1256User feedback, e.g. print preview, test print, proofing, pre-flight checks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1278Dedicated interfaces to print systems specifically adapted to adopt a particular infrastructure
    • G06F3/1285Remote printer device, e.g. being remote from client or server
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1278Dedicated interfaces to print systems specifically adapted to adopt a particular infrastructure
    • G06F3/1292Mobile client, e.g. wireless printing

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

【課題】 出力サイズに応じた適切なレイアウトを得ることができる画像処理装置、画像処理方法、及びプログラムを提供する。
【解決手段】 1以上の画像を含む画像群を取得する。取得した画像群から所定数の画像を選択して配置することにより、複数のレイアウト候補を作成し、レイアウト内に配置された各画像の被写体の特徴に応じた前記各画像の個別評価に基づいて、作成されたレイアウト候補の評価を行う。各画像の被写体の特徴は、出力手段により出力される出力サイズにより特定される各画像の被写体のサイズを含む。
【選択図】 図25

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。
デジタルスチルカメラ(以下DSCとも記載)やカメラ機能が搭載された多機能携帯電話などにより、ユーザが撮影する多数のデジタル写真のデータは、ユーザが保有するPCや、インターネット上に存在するストレージサービスに保存される。
保存された多数のデジタル写真のデータの中からユーザが、所望の画像がどこに保存されているのかを探す際に、膨大な画像閲覧操作を行う必要があった。これは、画像の閲覧性・検索性においてユーザビリティを大きく損なう要因となっている。
ところで、特許文献1では、レイアウトテーブルに格納された過去のレイアウトのパラメータを変化させることで1又は複数のレイアウト候補を作成する方法が提案されている。
特開2009−245071
ここで、レイアウト結果を印刷する際に、A3サイズの用紙に印刷する場合とA6サイズの用紙に印刷する場合では、同じレイアウトでも被写体の印刷サイズも異なるため、印刷物に対するユーザの感じ方は変わる。
しかしながら、特許文献1では、印刷サイズについて全く考慮せずに、レイアウトの評価を行っているため、用紙サイズによっては最適なレイアウトが得られないという課題があった。
本発明は上述した事情に鑑み、出力サイズに応じた適切なレイアウトを得ることができる画像処理装置、画像処理方法、及びプログラムを提供することを課題とする。
上述のような課題を解決するための本発明の画像処理装置は、1以上の画像を含む画像群を取得する取得手段と、前記取得手段により取得した画像群に含まれる画像を配置してレイアウト候補を作成する作成手段と、レイアウト内に配置された各画像の被写体の特徴に応じた前記各画像の個別評価に基づいて、前記作成手段により作成されたレイアウト候補の評価を行う評価手段と、前記作成手段により作成されたレイアウト候補を所定の出力サイズで出力する出力手段と、を備え、各画像の被写体の特徴は、前記出力手段により出力されるレイアウト候補の出力サイズにより特定される各画像の被写体のサイズを含むことを特徴とする。
本発明では、出力されるレイアウト候補のサイズにより特定される各画像の被写体のサイズに応じてレイアウト候補を評価することにより、出力されるサイズに応じた適切なレイアウトを得ることができるという効果を奏する。
実施形態1に係る画像処理装置のハードウェア構成図である。 実施形態1に係るソフトウェアブロック図である。 実施形態1に係る画像解析処理のフローチャートである。 実施形態1に係る画像解析処理のフローチャートである。 実施形態1に係る人物グループ生成処理のフローチャートである。 実施形態1に係る自動レイアウト提案処理のフローチャートである。 実施形態1の人物グループの表示例を示す図である。 実施形態1の画像群の表示例を示す図である。 画像解析結果の保存形式の例を示す図である。 手動でお気に入り度を入力するためのUIの例及び手動でイベント情報を入力するためのUI例を示す図である。 手動で人物属性情報を入力するためのUI例を示す図である。 人物属性情報の保存形式の例を示す図である。 レイアウトテンプレートの一例を示す図である。 図13のレイアウトテンプレートの保持形式の例を示す図である。 レイアウトテンプレートの一例を示す図である。 図15のレイアウトテンプレートの保持形式の例を示す図である。 実施形態1における自動レイアウト生成処理のフローチャートである。 実施形態1における不要画像フィルタリング処理のフローチャートである。 自動トリミング処理の説明図、明るさ適正度の算出方法の説明図、及び彩度適正度の算出方法の説明図である。 トリミング欠け判定処理の説明図である。 実施形態1に係る自動レイアウト生成結果の表示例を示す図である。 決定されたテーマと主人公情報の保持例を示す図である。 決定されたテーマと主人公情報の保持例を示す図である。 生成したレイアウト情報の保持例を示す図である。 各画像の評価値の算出処理のフローチャートの一例である。 被写体の特徴と情報量の影響の大小の例を示す図である。 被写体の特徴と情報量の影響の大小の例を示す図である。 各画像の評価値の算出処理のフローチャートの他の例である。
(実施形態1)
以下では、入力画像群を用いて自動でレイアウト出力物を生成するために、本発明における実施形態1について説明する。これはあくまで実施の1つの形態を例として示したものであり、本発明は以下の実施形態に限定されるものではない。
図1は実施形態1の画像処理装置のハードウェア構成例を示すブロック図である。
図1において、画像処理装置115は、CPU100と、ROM101と、RAM102と、2次記憶装置103と、表示装置104と、入力装置105と、IF107と、IF108と、無線LAN109を備えている。さらに、内部撮像デバイス106を備えている。これらは、制御バス/データバス110により相互に接続されている。
画像処理装置115は、例えば、コンピュータである。CPU100(中央演算装置)は、実施形態1で説明する情報処理をプログラムに従って実行する。ROM101は、CPU100により実行される以下に示すアプリケーション等のプログラムが記憶されている。RAM102は、CPU100によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供している。2次記憶装置103は、ハードディスク等であり、画像ファイルや画像解析結果を保存するデータベース等を保存するための記憶媒体である。表示装置104は、例えば、ディスプレイであり、実施形態1の処理結果や以下に示すUI(User Interface)等をユーザに提示する装置である。表示装置104は、タッチパネル機能を備えても良い。入力装置105は、ユーザが画像補正の処理の指示等を入力するためのマウスやキーボード等である。
また、内部撮像デバイス106で撮像された画像は、所定の画像処理を経た後、2次記憶装置103に記憶される。また、画像処理装置115は、インターフェース(IF108)を介して接続された外部撮像デバイス111から画像データを読み込むこともできる。さらに、無線LAN(Local Area Network)109はインターネット113に接続されている。画像処理装置115は、インターネット113に接続された外部サーバー114より画像データを取得することもできる。
画像等を出力するためのプリンタ112は、IF107を介して画像処理装置115に接続されている。尚、プリンタ112はさらにインターネット上に接続されており、無線LAN109経由でプリントデータのやり取りをすることもできる。
図2は本実施形態における上記アプリケーション等ソフトウェア構成のブロック図である。
まずハードウェアが取得した画像データは、通常JPEG(Joint Photography Expert Group)等の圧縮形式になっている。そのため、画像コーデック部200は、該圧縮形式を解凍していわゆるRGB点順次のビットマップデータ形式に変換する。変換されたビットマップデータは、表示・UI制御部201に伝達され、ディスプレイ等の表示装置104上に表示される。
上記ビットマップデータは、さらに画像センシング部203(アプリケーション)に入力され、同部において、詳細は後述するが、画像の様々な解析処理が行われる。上記解析処理の結果得られた画像の様々な属性情報は、所定の形式に従ってデータベース部202において、上述した2次記憶装置103に保存される。なお、以降においては、画像解析処理とセンシング処理は同義で扱う。
シナリオ生成部204(アプリケーション)では、ユーザが入力した様々な条件に応じて、自動で生成すべきレイアウトの条件を生成し、レイアウト生成部205(アプリケーション)では上記シナリオに従って、自動でレイアウトを生成する処理を行う。
生成したレイアウトは、レンダリング部206で表示用のビットマップデータを生成し、該ビットマップデータは表示・UI制御部201に送られ、結果がディスプレイ等の表示装置104に表示される。一方で、レンダリング結果はさらにプリントデータ生成部207に送られ、同部でプリンタ用コマンドデータに変換され、プリンタに送出される。
図3〜6は、本実施形態のアプリケーションの基本的な画像処理のフローチャートである。具体的には、図3及び4は、画像センシング部203のフローを示しており、複数の画像データ群を取得して、それぞれについて解析処理を施し、その結果をデータベースに格納するまでの処理の流れを示している。図5は、検出した顔位置情報に基づいて、同じ人物と思われる顔情報をグループ化するための処理の流れを示している。図6は、画像の解析情報およびユーザが入力した様々な情報に基づいて、レイアウト作成のためのシナリオを決定し、該シナリオに基づいて、自動でレイアウトを生成するための処理の流れを示している。
図3のS301では、1以上の画像データを含む画像データ群の取得を行う。画像データ群は、例えば、ユーザが、撮影画像が格納された撮像装置やメモリカードを画像処理装置115に接続して、これらから撮像画像を読み込むことで取得する。また、内部撮像装置で撮影され、2次記憶装置に保存されていた画像データ群を取得してもよい。あるいは、無線LANを介して、インターネット上に接続された外部サーバー114等、画像処理装置115以外の場所から画像データ群を取得をしてもよい。
画像データ群を取得すると、そのサムネイル群が図8(a)や図8(b)に示すようにUIに表示される。図8(a)の801に示すように2次記憶装置103内のフォルダ単位で画像のサムネイル802を表示してもよいし、図8(b)に示すようにカレンダーのようなUI901で日付ごとに画像データが管理されていてもよい。日付の部分902をクリックすることにより、同日に撮影された画像を、図8(a)のようなサムネイル一覧で表示する。
次に、S302において、各画像のデコードを行う。具体的には、アプリケーションが、新規で保存され未だセンシング処理が行われていない画像をサーチし、抽出された各画像について、画像コーデック部200が圧縮データからビットマップデータに変換する。
次に、S303において、上記ビットマップデータに対して、各種センシング処理を実行する。ここでいうセンシング処理には、次の表1に示すような様々な処理が含まれる。本実施形態では、センシング処理の例として、顔検出、画像の特徴量解析、シーン解析を挙げており、それぞれ表1に示すようなデータ型の結果を算出する。
Figure 2015053542
以下、それぞれのセンシング処理について説明する。
画像の基本的な特徴量である全体の平均輝度、平均彩度は、公知の方法で求めればよいため、詳細な説明は省略する。平均輝度は、画像の各画素について、RGB成分を公知の輝度色差成分(例えばYCbCr成分)に変換し(変換式省略)、Y成分の平均値を求めればよい。また、平均彩度は、上記CbCr成分について画素毎に以下を算出し、下記Sの平均値を求めればよい。
Figure 2015053542
また、画像内の平均色相(AveH)は、画像の色合いを評価するための特徴量である。各画素毎の色相は、公知のHIS変換式を用いて求めることができ、それらを画像全体で平均化することにより、AveHを求めることができる。
また、これらの特徴量は、上述したように画像全体で算出してもよいし、例えば、画像を所定サイズの領域に分割し、各領域毎に算出してもよい。
次に、人物の顔検出処理について説明する。本実施形態で使用する人物の顔検出手法としては、公知の方法を用いることができる。
特開2002−183731号に記載されている方法では、入力画像から目領域を検出し、目領域周辺を顔候補領域とする。この顔候補領域に対して、画素毎の輝度勾配、および輝度勾配の重みを算出し、これらの値を、あらかじめ設定されている理想的な顔基準画像の勾配、および勾配の重みと比較する。そのときに、各勾配間の平均角度が所定の閾値以下であった場合、入力画像は顔領域を有すると判定する。
また、特開2003−30667号に記載されている方法では、まず画像中から肌色領域を検出し、同領域内において、人間の虹彩色画素を検出することにより、目の位置を検出することができる。
特開平8−63597号に記載されている方法では、まず、複数の顔の形状をしたテンプレートと画像とのマッチング度を計算する。そのマッチング度が最も高いテンプレートを選択し、最も高かったマッチング度があらかじめ定められた閾値以上であれば、選択されたテンプレート内の領域を顔候補領域とする。同テンプレートを用いることで、目の位置を検出することができる。
さらに、特開2000−105829号に記載されている方法では、まず、鼻画像パターンをテンプレートとし、画像全体、あるいは画像中の指定された領域を走査し最もマッチする位置を鼻の位置として出力する。次に、画像の鼻の位置よりも上の領域を目が存在する領域と考え、目画像パターンをテンプレートとして目存在領域を走査してマッチングをとり、ある閾値よりもマッチ度が度置きい画素の集合である目存在候補位置集合を求める。そして、目存在候補位置集合に含まれる連続した領域をクラスタとして分割し、各クラスタと鼻位置との距離を算出する。その距離が最も短くなるクラスタを目が存在するクラスタと決定することで、器官位置の検出することができる。
その他の人物の顔検出方法としては、特開平8−77334、特開2001−216515、特開平5−197793、特開平11−53525、特開2000−132688、特開2000−235648、特開平11−250267に記載されるような顔および器官位置を検出する方法が挙げられる。また、人物の顔検出処理は、特許第2541688号に記載された方法でもよく、方法は特に限定されるものではない。
人物の顔検出処理により、各入力画像について、人物顔の個数と各顔毎の座標位置を取得することができる。また、画像中の顔座標位置が分かることにより、顔領域の特徴量を解析することができる。例えば、顔領域毎に顔領域内に含まれる画素値の平均YCbCr値を求めることにより、顔領域の平均輝度および平均色差を得ることができる。
また、画像の特徴量を用いてシーン解析処理を行うことができる。シーン解析処理は、例えば、出願人が開示している特開2010−251999号や特開2010−273144号等で開示されている方法により行うことができる。シーン解析処理により、風景(Landscape)、夜景(Nightscape)、人物(Portrait)、露出不足(Underexposure)、その他(Others)、という撮影シーンを区別するためのIDを取得することができる。
なお、本実施形態では、上記のセンシング処理によりセンシング情報を取得したが、その他のセンシング情報を利用してもよい。
上記のようにして取得したセンシング情報は、データベース部202に保存する。データベース部202への保存形式については、例えば、図9に示すような汎用的なフォーマット(例えば、XML:eXtensible Markup Language)で記述し、格納すればよい。
図9においては、各画像毎の属性情報を、3つのカテゴリに分けて記述する例を示している。
1番目のBaseInfoタグは、画像サイズや撮影時情報として、あらかじめ取得した画像ファイルに付加されている情報を格納するためのタグである。ここには、画像毎の識別子ID、画像ファイルが格納されている保存場所、画像サイズ、撮影日時などが含まれる。
2番目のSensInfoタグは、上述した画像解析処理の結果を格納するためのタグである。画像全体の平均輝度、平均彩度、平均色相やシーン解析結果が格納され、さらに、画像中に存在する人物の顔位置や顔色に関する情報が格納される。
3番目のUserInfoタグは、ユーザが画像毎に入力した情報を格納することができるタグであるが、詳細については後述する。
なお、画像属性情報のデータベース格納方法については、上記に限定されるものではない。その他公知のどのような形式で格納してもよい。
図3のS305では、上述したS302及びS303の処理を行った画像が最後の画像か否かを判定する。最後の画像である場合は、S306へ進み、最後の画像ではない場合は、S302へ戻る。
S306において、S303で検出された顔位置情報を用いて、人物毎のグループを生成する処理を行う。あらかじめ人物の顔を自動でグループ化しておくことにより、その後ユーザが各人物に対して名前を付ける作業を効率化することができる。
ここでの人物グループ形成は、公知の個人認識方法を用いて、図5の処理フローにより実行する。
なお、個人認識処理は、主に、顔の中に存在する眼や口といった器官の特徴量抽出と、それらの関係性の類似度を比較することにより実行される。個人認識処理は、例えば、特許第3469031号等に開示されているので、ここでの詳細な説明は省略する。
図5は人物グループ生成処理S306の基本的なフローチャートである。
まず、S501で、2次記憶装置に保存されている画像を順次読みだしてデコード処理を行う。さらにS502でデータベース部202にアクセスし、該画像中に含まれる顔の個数と顔の位置情報を取得する。次に、S504において、個人認識処理を行うための正規化顔画像を生成する。
ここで正規化顔画像とは、画像内に様々な大きさ、向き、解像度で存在する顔を切り出して、すべて所定の大きさと向きになるよう、変換して切り出した顔画像のことである。個人認識を行うためには、眼や口といった器官の位置が重要となるため、正規化顔画像のサイズは、上記器官が確実に認識できる程度であることが望ましい。このように正規化顔画像を生成することにより、特徴量検出処理において、様々な解像度の顔に対応する必要がなくなる。
次に、S505で、正規化顔画像から顔特徴量を算出する。ここでの顔特徴量とは眼や口、鼻といった器官の位置、大きさや、さらには顔の輪郭などを含むことを特徴とする。
さらに、S506で、あらかじめ人物の識別子(辞書ID)毎に顔特徴量が格納されているデータベース(以降、顔辞書と呼ぶ)の顔特徴量と類似しているか否かの判定を行う。類似度は、例えば、辞書ID内部で管理されている特徴量と、新たに入力された特徴量を比較して算出する。ここで用いる特徴量は、保持されている目、鼻、口といった器官の位置や、器官間の距離等の情報である。類似度は、上記の特徴量が類似しているほど高く、類似してない場合には低い値を取るものとし、例えば0〜100の値を取り得るものとする。そして、類似しているか否かの判定は、算出した類似度を予め保持されている閾値と比較し、類似度が閾値よりも高い場合には辞書IDと同一人物であると判断する。一方、類似度が閾値よりも低い場合には、同一人物ではないものとして判定する。このような類似度判定のための閾値は、全ての辞書IDに対して固定の値を一つだけ保持するようにいてもよいし、各辞書ID毎に異なった閾値を保持するようにしてもよい。
S506の判定がYesの場合S509に進み、同じ人物として同じ人物の辞書IDに該顔の特徴量を追加する。
S506の判定がNoの場合S508に進み、現在評価対象となっている顔は、これまで顔辞書に登録された人物とは異なる人物であると判断して、新規辞書IDを発行して顔辞書に追加する。S502〜S509までの処理を、入力画像群の中から検出した顔領域全てに適用して、登場した人物のグループ化を行う。
人物グループ生成処理の結果は、図12のXMLフォーマットで示すように、各顔毎にIDタグを用いて記述し、上述したデータベースに保存する。
なお、上記実施形態においては、図3に示すように、全ての画像のセンシング処理が終了した後に人物グループ生成処理を実行したが、これ以外の方法としてもよい。例えば、図4に示すように、1つの画像に対してS403でセンシング処理を実行した後に、顔検出位置情報を利用してグループ化処理S405を行うという作業を繰り返したとしても、同様の結果を生成することができる。
また、人物グループ生成処理によって得られた各人物グループは、図7のようなUI701にて表示されることになる。同7において、702は人物グループの代表顔画像を表しており、その横には、該人物グループの名前を表示する領域703が存在する。自動の人物グループ化処理を終了した直後は、同図に示すように人物名は「No name1」「No name2」などと表示されている。これらの人物名を以下「人物ID」とする。また、704は該人物グループに含まれる複数の顔画像である。後述するが、図7のUI701においては、「No name X」の領域703を指定して人物名を入力したり、人物毎に誕生日や続柄等の情報を入力することができる。
また、上記センシング処理は、オペレーティングシステムのバックグラウンドタスクを利用して実行してもよい。この場合、ユーザはコンピュータ上で別の作業を行っていたとしても、画像群のセンシング処理を継続させることができる。
本実施形態においては、ユーザが手動で画像に関する様々な属性情報を入力することもできる。
その属性情報(以降、手動登録情報)の例の一覧を、表2に記載する。手動登録情報は大きく、画像単位に設定するものと、上記処理によりグループ処理した人物に設定する情報に分かれる。
Figure 2015053542
まず、画像毎に設定する属性情報として、ユーザのお気に入り度がある。お気に入り度は、その画像を気に入っているかどうかを、ユーザが手動で段階的に入力するものである。例えば、図10(a)に示すように、UI1301上で、所望のサムネイル画像1302をマウスポインタ1303で選択し、右クリックをすることでお気に入り度を入力できるダイアログを表示する。ユーザはメニューの中で自分の好みに応じて、★の数を選択することができる。本実施形態では、お気に入り度が高いほど★の数が多くなるよう設定する。
また、上記お気に入り度については、ユーザが手動で設定せずに、自動で設定するようにしてもよい。例えば、ユーザが図8(a)に示す画像サムネイル一覧表示の状態から、所望の画像ファイルをクリックし、1画像表示画面に遷移したとする。その遷移した回数を計測して、回数に応じてお気に入り度を設定してもよい。例えば、閲覧した回数が多いほど、ユーザが該画像を気に入っていると判断する。
また、他の例として、プリント回数をお気に入り度に設定してもよい。例えば、プリント行為を行った場合、当然その画像を気に入っていると判断してお気に入り度が高いと設定すればよい。この場合は、プリント回数を計測して、プリント回数に応じてよりお気に入り度を設定する。
以上説明したように、お気に入り度については、ユーザが手動で設定してもよく、閲覧回数に応じてお気に入り度を設定してもよく、プリント回数に応じてお気に入り度を設定してもよい。これらの設定及び計測した情報は、それぞれ個別に、図9で示すようなXMLフォーマットで、データベース部202のUserInfoタグ内に格納される。例えば、お気に入り度はFavoriteRateタグで、閲覧回数はViewingTimesタグで、プリント回数はPrintingTimesタグにそれぞれ格納される。
また、画像毎に設定する別の情報として、イベント情報が挙げられる。イベント情報は、例えば、家族旅行“travel”、卒業式“graduation”、結婚式“wedding”が挙げられる。
イベントの指定は、図10(b)に示すように、カレンダー上で所望の日付をマウスポインタ1402などで指定して、その日のイベント名を入力することにより行うことができるようにすればよい。指定されたイベント名は、画像の属性情報の一部として、図9に示すXMLフォーマットに含まれることになる。図9のフォーマットでは、UserInfoタグ内のEventタグを使って、イベント名と画像を紐付けている。なお、以下、「紐づけ」とは、関連付けることを指す。
次に、人物の属性情報について説明する。
図11は、人物の属性情報を入力するためのUIを示している。図11において、1502は所定人物(この場合は“father”)の代表顔画像を示している。1503は、所定人物の人物名(人物ID)の表示領域である。また、1504は、他の画像の中から検出し、S506で顔特徴量が類似していると判断された画像(サムネイル)である。このように、図11では、人物ID1503の下に、S506で顔特徴量が類似していると判断された画像1504の一覧が表示される。
センシング処理が終了した直後は、図7に示すように各人物グループには名前が入力されていないが、「No name」の部分702をマウスポインタで指示することにより、任意の人物名を入力することができる。
また、人物毎の属性情報として、それぞれの人物の誕生日やアプリを操作しているユーザから見た続柄を設定することもできる。図11の人物の代表顔1502をクリックすると、画面下部に図示するように、第1の入力部1505ではクリックした人物の誕生日を入力することができる。また、第2の入力部1506では、クリックした人物の続柄情報を入力することができる。
以上、入力された人物属性情報は、これまでの画像に関連付けられた属性情報とは異なり、図12のようなXMLフォーマットによって、画像属性情報とは別にデータベース部202内で管理される。
本実施形態では、あらかじめ用意した様々なレイアウトテンプレートを用いてレイアウト生成処理を行う。レイアウトテンプレートとは図13や図15に示すようなものであり、レイアウトする用紙サイズ上に、複数の画像配置枠1702、1902、1903(以降、スロットと同義)を備えている。
このようなテンプレートは多数用意されており、あらかじめ本実施例を実行するためのソフトウェアが画像処理装置115にインストールされた時点で、2次記憶装置103に保存しておけばよい。また、その他の方法として、IF107や無線LAN109を介して接続されたインターネット上に存在する外部サーバー114から、任意のテンプレート群を取得してもよい。
これらのテンプレートは汎用性の高い構造化言語、例えば上述したセンシング結果の格納と同様にXMLで記載されているものとする。XMLデータの例を図14及び図16に示す。
これらの例では、まずBASICタグに、レイアウトページの基本的な情報を記述する。基本的な情報とは、例えば該レイアウトのテーマやページサイズ、およびページの解像度(dpi)等が考えられる。同例Xにおいて、テンプレートの初期状態では、レイアウトテーマであるThemeタグはブランクとなっている。また、基本情報として、ページサイズはA4、解像度は300dpiを設定している。
また、ImageSlotタグは、上述した画像配置枠の情報を記述している。ImageSlotタグの中にはIDタグとPOSITIONタグの2つを保持し、画像配置枠のIDと位置を記述している。該位置情報については、図14や図16で図示するように、例えば左上を原点とするX−Y座標系において定義される。
また、上記ImageSlotは、その他にそれぞれのスロットに対して、スロットの形状および配置すべき推奨人物グループ名を設定する。例えば、図13のテンプレートにおいては、図14のShapeタグで示すように、すべてのスロットは矩形“rectangle”形状で、人物グループ名はPersonGroupタグによって“MainGroup”を配置することを推奨している。
また、図15のテンプレートにおいては、図34に示すように、中央に配置しているID=0のスロットは矩形形状であることが記載されている。また、人物グループは“SubGroup”を配置し、その他のID=1,2と続くスロットは楕円“ellipse”形状で、人物グループは“MainGroup”を配置することを推奨している。
本実施形態においては、上述したようなテンプレートを多数保持する。
本実施形態に係るアプリケーションは、入力された画像群に対して解析処理を実行し、人物を自動的にグループ化してUIで表示することができる。また、ユーザはその結果を見て、人物グループ毎に名前や誕生日などの属性情報を入力したり、画像毎にお気に入り度などを設定することができる。さらに、テーマごとに分類された多数のレイアウトテンプレートを保持することができる。
以上の条件を満たす本実施形態のアプリケーションは、ある所定のタイミングで、自動的にユーザに好まれそうなコラージュレイアウトを生成し、ユーザに提示する処理を行う(以下、レイアウトの提案処理という)。
以上の条件を満たすと、本実施形態のアプリケーションは、ある所定のタイミングに、自動的にユーザに好まれそうなコラージュレイアウトを生成し、ユーザに提示する処理を行う。これを、レイアウトの提案処理と呼ぶこととする。
図6は、レイアウトの提案処理を行うための基本的なフローチャートを示している。
まず、S601において、レイアウトの提案処理のシナリオを決定する。シナリオには、提案するレイアウトのテーマ及びテンプレートの決定、レイアウト内で重視する人物(主人公)の設定、レイアウト生成に用いる画像群の選定情報などが含まれる。
以下では、2つのシナリオを例示して、シナリオの決定方法について説明する。
例えば、2週間前に自動的に各人物に関する誕生日のレイアウトの提案処理を行う設定がされていたとする。図11で自動グループ化されている人物“son”の1歳の誕生日が近いとする。この場合には、提案するレイアウトのテーマは成長記録“growth”と決定する。次にテンプレートの選択を行うが、この場合には成長記録に適した図15のようなものを選択し、図22に示すように、XMLのThemeタグの部分に“growth”と記載する。次にレイアウトを行う際に注目する主人公“MainGroup”として、“son”を設定する。また、レイアウトを行う際に副次的に注目する“SubGroup”として“son”と“father”を設定する。次に、レイアウトに利用するための画像群を選定する。この例の場合には、データベースを参照し、上記人物“son”の誕生日からこれまでに撮影した画像群のうち、“son”を含む画像群を大量に抽出してリスト化する。以上が、成長記録レイアウトのためのシナリオ決定である。
上記とは異なる例として、1カ月以内に所定のイベント情報が登録されていた場合、レイアウトの提案処理を実行する設定がされているとする。図10(b)で登録したイベント情報から、例えば数日前に家族旅行に行きその画像が大量に2次記憶装置に保存されていることがわかると、シナリオ決定部は、家族旅行のレイアウトを提案するためのシナリオを決定する。この場合には、提案するレイアウトのテーマは旅行“travel”と決定する。次にテンプレートの選択を行うが、この場合には図13のようなレイアウトを選択し、図36に示すように、XMLのThemeタグの部分に“travel”と記載する。次にレイアウトを行う際に注目する主人公“MainGroup”として、“son”、“mother”、“father”を設定する。このように、XMLの特性を活かせば、“MainGroup”として複数の人物を設定することができる。次に、レイアウトに利用するための画像群を選定する。この例の場合には、データベースを参照し、上記旅行イベントに紐付けられた画像群を大量に抽出してリスト化する。以上が、家族旅行レイアウトのためのシナリオ決定である。
次に、図6のS603において、上述したシナリオに基づくレイアウトの自動生成処理を実行する。図17はレイアウト処理部の詳細な処理フローを示している。以降は、同図に沿って、各処理ステップの説明を行う。
まず、S2101で、上述したシナリオ生成処理で決定され、テーマと人物グループ情報が設定された後のテンプレート情報を取得する。
次に、S2103においては、上記シナリオで決定した画像リストに基づいて、各画像毎に該画像の特徴量をデータベースから取得し、画像群属性情報リストを生成する。ここでいう画像群情報リストとは、図9に示したIMAGEINFOタグが画像リスト分だけ並んだ構成となっている。
このように、本実施形態の自動レイアウト生成処理では、このように画像データそのものを直接扱うのではなく、あらかじめ画像毎にセンシング処理を行ってデータベース保存しておいた属性情報を利用する。レイアウト生成処理を行う際に、画像データそのものを対象としてしまうと、画像群を記憶するために非常に巨大なメモリ領域を必要としてしまうことを避けるためである。すなわち、これにより、レイアウト生成処理で必要なメモリ量を低減させることができる。
具体的には、まず、S2105において、入力された画像群の属性情報を用いて、入力された画像群の中から不要画像のフィルタリングを行う。フィルタリング処理は、図18のフローにて行う。図18では、各画像毎に、まずS2201で全体の平均輝度がある閾値(ThY_LowとThY_High)内に含まれているかの判定を行う。否の場合にはS2206に進み、注目画像はレイアウト対象から除去する。
同様に、S2202〜S2205では、注目画像に含まれる顔領域それぞれについて、平均輝度、平均色差成分が、良好な肌色領域を示す所定閾値に含まれているかの判定を行う。S2202〜S2205のすべての判定がYesとなる画像のみ、以降のレイアウト生成処理に適用される。具体的には、S2202では、ID=Nである顔領域のAveYが所定閾値(ThfY_LowとThfY_High)の範囲に含まれているか否かの判定を行う。S2203では、ID=Nである顔領域のAveChが所定閾値(ThfY_LowとThfY_High)の範囲に含まれているか否かの判定を行う。S2204では、ID=Nである顔領域のAveCrが所定閾値(ThfY_LowとThfY_High)の範囲に含まれているか否かの判定を行う。S2205では、最後の顔であるか否かを判定する。最後の顔ではない場合は、S2202へ戻り、最後の顔である場合は、処理を終了する。
なお、このフィルタリング処理では、以降の一時レイアウト作成処理に明らかに不要と判断できる画像の除去を目的としているため、上記閾値は比較的湯緩やかに設定することが望ましい。例えばS2201の画像全体輝度の判定において、ThY_HighとThY_Lowの差が画像ダイナミックレンジに比して極端に小さいと、それだけYesと判定される画像が少なくなってしまう。本実施形態のフィルタリング処理ではそうならないよう、両者の差をできる限り広く設定し、かつ明らかに異常画像と判断されるものは除去できるような閾値に設定する。
次に図17のS2107において、上記処理でレイアウト対象となった画像群を用いて、大量(L個)の一時レイアウトを生成する。一時レイアウトの生成は、取得したテンプレートの画像配置枠に対して、入力画像を任意に当てはめる処理を繰り返す。このときに、例えば、以下のパラメータ(画像選択・配置・トリミング)をランダムで決定する。
画像選択基準としては、例えば、レイアウト中の画像配置枠がN個の時、画像群の中からどの画像を選択するかが挙げられる。配置基準としては、例えば、選択した複数の画像を、どの配置枠に配置するかが挙げられる。トリミング基準としては、配置した際に、どの程度のトリミング処理を行うかというトリミング率が挙げられる。トリミング率は例えば0〜100%で表わされ、トリミングは、図19(a)に示すように、画像の中心を基準として所定のトリミング率で行われる。図19(a)では、2301は画像全体を示し、2302はトリミング率50%でトリミングした際の切り取り枠を示している。
上述したような画像選択・配置・トリミング基準に基づいて、可能な限り数多くの一時レイアウトを生成する。生成した各一時レイアウトは、図37のXMLのように表わすことができる。各スロットに対して、選択され配置された画像のIDがImageIDタグに記述され、トリミング率がTrimingRatioタグに記述される。
なお、ここで生成する一時レイアウトの数Lは、後述するレイアウト評価ステップでの評価処理の処理量と、それを処理する画像処理装置115の性能に応じて決定されるが、例えば、数十万通り以上の一時レイアウトを生成するのが好ましい。
レイアウト評価ステップでの評価処理の処理量は、作成するレイアウトテンプレートの複雑度合いに応じて増減する。例えば、テンプレート内で取り扱うスロット数が多いほど評価処理量は増加し、また、各スロットに指定されたレイアウト条件が複雑であるほど評価処理量は増加する。したがって、生成しようとしているテンプレートの複雑度合をあらかじめ見積もって、それにより動的にLを決定してもよい。
以上述べたように適切にLを設定することで、自動レイアウト作成時のレスポンスとレイアウト結果の品質を最適にコントロールできる。
生成したレイアウトは、それぞれIDを付加して図24のXML形式で2次記憶装置103にファイル保存してもよいし、構造体など別のデータ構造を用いてRAM102上に記憶してもよい。
次に、図17のS2108において、大量に生成した一時レイアウトの定量評価を行う。具体的には、作成したL個の一時レイアウトに対して、それぞれ所定のレイアウト評価量を用いて評価を行う。本実施形態におけるレイアウト評価量の一覧を、表3に示す。表3に示すように、本実施形態で用いるレイアウト評価量は、主に3つのカテゴリに分けることができる。
Figure 2015053542
一つ目は、画像個別の評価量である。これは画像の明るさや彩度、ブレぼけ量等の状態、印刷サイズに対する適正度などを判断し、スコア化するものである。以下、本実施形態のスコア化の一例について説明する。明るさの適正度は、図19(b)に示すように、平均輝度がある所定レンジ範囲内においてはスコア値100とし、所定レンジ範囲から外れるとスコア値を下げるよう設定する。彩度の適正度は、図19(c)に示すように、画像全体の平均彩度がある所定の彩度値より大きい場合にはスコア値100とし、所定値より小さい場合にはスコア値を除々に下げるように設定する。なお、印刷サイズに対する適正度については、詳細は後述する。
二つ目は、画像とスロットの適合度の評価である。画像とスロットの適合度の評価としては、例えば、人物適合度、トリミング欠け判定が挙げられる。人物適合度は、スロットに指定されている人物と、実際に該スロットに配置された画像内に存在する人物の適合率を表したものである。例を挙げると、あるスロットが、XMLで指定されているPersonGroupで、“father”、“son”が指定されているものとする。この時、該スロットに割り当てられた画像に該2人の人物が写っていたとすると、該スロットの人物適合度はスコア値100とする。片方の人物しか写っていなかったとすると、適合度はスコア値50とし、両者とも写っていなかった場合は、スコア値0とする。ページ内の適合度は、各スロット毎に算出した適合度の平均値とする。トリミング領域2702の欠け判定は、例えば、図20に示すように、画像中に存在する顔の位置2703が判明している場合、欠けた部分の面積に応じて、0から100までのスコア値を算出する。欠けた面積が0の場合、スコアは100とし、逆にすべての顔領域が欠けた場合、スコア値は0とする。
三つめは、レイアウトページ内のバランスを評価である。バランスを評価するための評価値としては、例えば、画像類似性、画素値分布のばらつき、オブジェクトのばらつきが挙げられる。
レイアウト頁内のバランスを評価するための評価量として、画像類似性について説明する。画像の類似性は、大量に生成した一時レイアウト毎に算出されるレイアウト頁内のそれぞれの画像の類似性である。例えば、旅行テーマのレイアウトを作成したい場合、あまりに似通った類似度の高い画像ばかりが並んでいたとすると、それは良いレイアウトとは言えない場合がある。したがって、例えば、類似性は、撮影日時によって評価することができる。撮影日時が近い画像は、同じような場所で撮影された可能性が高いが、撮影日時が離れていれば、その分、場所もシーンも異なる可能性が高いからである。撮影日時は、図9で示したように、画像属性情報として、予めデータベース部202に保存されている、画像毎の属性情報から取得することができる。撮影日時から類似度を求めるには以下のような計算を行う。例えば、今注目している一時レイアウトに表4で示すような4つの画像がレイアウトされているものとする。
なお、画像IDで特定される画像には、それぞれ撮影日時情報が付加されている。具体的には、撮影日時として、年月日及び時間(西暦:YYYY、月:MM、日:DD、時:HH、分:MM、秒:SS)が付加されている。このとき、この4つの画像間で、撮影時間間隔が最も短くなる値を算出する。
Figure 2015053542
この場合は、画像ID102と108間の30分が最も短い間隔である。この間隔をMinIntervalとし、秒単位で格納する。すなわち30分=1800秒である。このMinIntervalをL個の各一時レイアウト毎に算出して配列stMinInterval[l]に格納する。次に、該stMinInterval[l]の中で最大値MaxMinInterval値を求める。すると、l番目の一時レイアウトの類似度評価値Similarity[l]は以下のようにして求めることができる。
Similarity[l]=100×stMinInterval[l]/MaxMinInterval
すなわち、上記Similarity[l]は、最小撮影時間間隔が大きいほど100に近づき、小さいほど0に近づく値となっているため、画像類似度評価値として有効である。
レイアウト頁内のバランスを評価するための評価量として、画素値分布のばらつきについて説明する。ここでは、画素値分布のばらつきとして、色合いのバラつきを例に挙げて説明する。例えば旅行テーマのレイアウトを作成したい場合、あまりに似通った色(例えば、青空の青、山の緑)の画像ばかりが並んでいたとすると、それは良いレイアウトとは言えない場合がある。この場合は、色のばらつきの大きいものを高い評価とする。注目しているl番目の一時レイアウト内に存在する画像の平均色相AveHの分散を算出して、それを色合いのバラつき度tmpColorVariance[l]として格納する。次に、tmpColorVariance[l]の中での最大値MaxColorVariance値を求める。すると、l番目の一時レイアウトの色合いバラつき度の評価値ColorVariance[l]は以下のようにして求めることができる。
ColorVariance[l]=100×tmpColorVariance[l]/MaxColorVariance
上記ColorVariance[l]は、ページ内に配置された画像の平均色相のバラつきが大きいほど100に近づき、小さいほど0に近づく値となる。したがって、色合いのばらつき度評価値として用いることができる。
画素値分布のばらつきは、上述したものに限定されるものではない。
レイアウト頁内のバランスを評価するための評価量として、オブジェクトのバラつきについて説明する。ここでは、オブジェクトのバラつきとして、顔の大きさのバラつきを例に挙げて説明する。例えば、旅行テーマのレイアウトを作成したい場合、レイアウト結果を見て、あまりに似通った顔のサイズの画像ばかりが並んでいたとすると、それは良いレイアウトとは言えない場合がある。レイアウト後の紙面上における顔の大きさが、小さいものもあれば大きいものもあり、それらがバランスよく配置されていることが、良いレイアウトと考える。この場合は、顔のサイズのばらつきの大きいものを高い評価とする。注目しているl番目の一時レイアウト内に配置された後の顔の大きさ(顔位置の左上から右下までの対角線の距離)の分散値を、tmpFaceVariance[l]として格納する。次に、該tmpFaceVariance[l]の中での最大値MaxFaceVariance値を求める。すると、l番目の一時レイアウトの顔サイズバラつき度の評価値FaceVariance[l]は、以下のようにして求めることができる。
FaceVariance[l]=100×tmpFaceVariance[l]/MaxFaceVariance
上記FaceVariance[l]は、紙面上に配置された顔サイズのバラつきが大きいほど100に近づき、小さいほど0に近づく値となる。したがって、顔サイズのバラつき度評価値として用いることができる。
オブジェクトのバラつきは、上述したものに限定されるものではない。
またその他カテゴリとして、ユーザの嗜好性評価が挙げられる。
ユーザの嗜好性評価は、例えば、上記に述べた各種の評価量による評価値が低いレイアウトであっても、ユーザが個人的に気に入った写真が含まれるレイアウトであれば、そのユーザにとっては良いレイアウトとなる場合もある。そのようなレイアウトの選択を阻害しないよう、ユーザ嗜好性を元にした評価量を用いて評価するのが好ましい。上述したように、ユーザは各画像に対して事前にお気に入り度を設定することができるため、これに基づいて嗜好性を評価することができる。また、例えば、自動で閲覧回数や閲覧時間に基づいて嗜好性を評価することもできる。これらの評価に用いる情報は、FavorteRateタグ、ViewingTimesタグ、PrintingTimesタグで管理されている情報をもとにして算出できる。
1番目の一時レイアウトについて、各スロットに配置された画像のタグ情報の各々の数値について全ての画像の平均値FavorteRateAve[l]、ViewingTimesAve[l]、PrintingTimesAve[l]を求める。
次に、これらの総和を取ることで、ユーザの嗜好性評価値UserFavor[l]は、以下のようにして求めることができる。
UserFavor[l]=FavorteRateAve[l]+ViewingTimesAve[l]+PrintingTimesAve[l]
上記UserFavor[l]は、ユーザのお気に入り度が高い画像、閲覧回数が多い画像、印刷回数の多い画像を用いたレイアウトほど高い値を示す。したがって、本実施形態では、UserFavor[l]の値が高いほどレイアウトに対するユーザ嗜好性が高いと判断する。
以上説明したような、各一時レイアウト毎に算出した複数の評価値を、以下では統合化して、各一時レイアウト毎のレイアウト評価値とする。1番目の一時レイアウトの統合評価値を、EvalLayout[l]とし、上記で算出したN個の評価値(表3の評価値それぞれを含む)の値を、EvalValue[n]とする。このとき、統合評価値は以下で求めることができる。
Figure 2015053542
上式において、W[n]は、表3で示したシーン毎の各評価値の重みである。この重みはレイアウトのテーマ毎に異なる重みを設定する。例えば、表3に示すようにテーマを成長記録“growth”と旅行“travel”で比較した場合、旅行テーマの方は、できるだけ良質の写真をいろいろな場面で数多くレイアウトすることが望ましい場合が多い。このため、画像の個別評価値やページ内のバランス評価値を重視する傾向に設定する。一方、成長記録“growth”の場合、画像のバリエーションよりは、成長記録の対象となる主人公が確実にスロットに適合しているか否かが重要である場合が多い。このため、ページ内バランスや画像個別評価よりも、画像・スロット適合度評価を重視する傾向に設定する。なお、本実施形態におけるテーマ毎の重要度は表3に示すように設定した。このようにして算出したEvalLayout[l]を用いて、S2109では、レイアウト結果表示のためのレイアウトリストLayoutList[k]を生成する。レイアウトリストLayoutList[k]の作成方法については、詳細は後述する。このレイアウトリストLayoutList[k]は、図6のS605でレンダリング表示を行う際にレイアウト順番をk番目とした時に、評価が終了したレイアウトの順番lとの対応付けを行うのに用いられる。LayoutList[k]の中身は、レイアウト順番値lの値が、記載されている。このレイアウトリストLayoutList[k]のkが小さい方から、順に表示が行われる。
図6に戻って、上記処理によって得られたレイアウト結果を、図6のS605でレンダリングした結果を図21のように表示する。S605では、まずLayoutList[0]に格納されているレイアウト識別子を読み出し、識別子に相当する一時レイアウト結果を、2次記憶装置103あるいはRAM102上から読み出す。レイアウト結果には、上述したようにテンプレート情報とテンプレート内に存在するスロット毎に、割り当てられた画像名が設定されている。したがって、これらの情報に基づいて、画像処理装置115上で動作するOSの描画関数を用いて、該レイアウト結果をレンダリングし、図21の2902のように表示することになる。
図21では、Nextボタン2904を押下することにより、次点スコアであるLayoutList[1]の識別子を読み出し、上記と同様にレンダリング後、表示を行う。これにより、ユーザは様々なバリエーションの提案レイアウトを閲覧することができる。また、Previousボタン2903を押下することにより、前に表示したレイアウトを再表示することができる。さらに、表示されたレイアウトが気に入った場合には、プリントボタン2905を押下することで、画像処理装置115に接続されたプリンタ112からレイアウト結果2902をプリントアウトすることができる。
ここで、図17に示すS2108の大量(L個)のレイアウトの定量評価の際の印刷サイズに対する適正度について詳細に説明する。
印刷サイズに対する適正度として、例えば、10人が写っている集合写真(画像)を、レイアウトサイズの1/4程度のスロットに配置して印刷した場合について説明する。A6の被記録媒体に印刷した場合、画像の印刷サイズは、A6の1/4であり人物が小さく印刷されすぎて、ユーザは被写体の顔の表情を識別しにくい。一方、A3の被記録媒体に印刷した場合は画像の印刷サイズはA5相当になり、人物の大きさが十分に大きく、ユーザは被写体の顔の表情を識別することができる。
また、1人の顔が画像全体に写っている写真(画像)をレイアウトサイズの1/4程度のスロットに配置し印刷した場合について説明する。A6の被記録媒体に印刷した場合は、画像の印刷サイズは、A6の1/4と小さいがスロットに対して顔が大きく写っているため、ユーザは顔の表情を十分に識別することができる。一方、A3の被記録媒体に印刷した場合は画像の印刷サイズはA5相当になり、顔が大きく写っておりインパクトが大きくなりすぎる。前者、すなわち、画像が多人数を含む場合は、顔の大きさ及び顔の数により決定する被写体の情報量に対して、印刷サイズが小さすぎることが影響している。後者、すなわち、画像が少人数(例えば、1人)の場合は、顔の大きさ及び顔の数により決定する被写体の情報量に対して、印刷サイズが大きすぎることが影響している。本実施形態では、印刷サイズに対して最適なレイアウトを決定するために、顔の大きさ及び顔の数を用いた被写体の情報量のスコア化(印刷サイズに対する適正度のスコア化)について例を示す。
まず、顔の大きさ及び顔の数を特定する方法は、特に限定されないが、本実施形態では、S303のセンシングにおいて検出された顔位置情報を用いる。S303では、予め画像群の画像に対する顔位置情報を、バックグランドで計算されデータベース部202に登録する。本実施形態では、レイアウトの評価時に顔位置情報を毎回計算するのではなく、計算の効率化のためデータベース部202に登録された(保持された)顔位置情報を用いる。
ここで、顔の大きさ及び顔の数に基づく各画像の評価値の算出処理について、図25を用いて説明する。図25は、顔の大きさ及び顔の数に基づく各画像の評価値の算出処理のフローであり、CPUにより実行される。ここでは、被記録媒体として紙を用いた場合について説明する。この算出処理により得られた評価結果に基づいて、ユーザに提示するレイアウトを決定する。
ステップS2201では、顔位置情報に基づいて画像に顔が含まれるかどうかを判定する。顔が1つ以上含まれる場合、その画像は、人物が被写体だと判断する。
S2202において、被写体が人物だと判断された画像について、顔の大きさ及び顔の数より、当該画像における顔領域率を算出する。本実施形態では、まず、S303において検出された顔位置情報に基づいて、画像に含まれる全ての顔領域の合計値を求める。具体的には、n人分の顔位置情報に基づいて、n人分の顔領域のサイズを足し合わせて、1つの画像における全ての顔領域の合計サイズを求める。そして、得られた顔領域の合計サイズを画像全体のサイズで割って、その画像に対して顔領域が占める割合である顔領域率を算出する。なお、本実施形態では、サイズは、ピクセル数により求めるものとした。
ここでは、例えば、画像Aとして人数が10人写っている集合写真の顔領域率(画像Aの顔領域率a)と、画像Bとして1人の顔が画像全体に写っている写真の顔領域率(画像Bの顔領域率b)を求める。
S2202では、元画像の一部をトリミングして使用する場合は、トリミングされた画像における顔領域率を算出する。以下、顔領域のサイズ及び顔の数から算出される顔領域率を「被写体の特徴」ともいう。
なお、画像における顔領域率の算出方法は、上述したものに限定されるものではなく、各画像における顔領域率を求めることができるものであればよい。
ステップS2203において、画像の出力サイズ(本実施形態では、画像の印刷サイズ)を特定する。
ステップS2203において画像の印刷サイズを求める。
まず、画像を配置するレイアウト画像(本実施形態では、レイアウトテンプレート)における各スロットサイズを特定する。スロットサイズは、例えば、レイアウトテンプレートにスロットの情報が記されている場合はそこから算出することができる。ここでは、例えば、レイアウトサイズの1/4程度のスロットに画像を配置する。
そして、画像の印刷サイズ(画像Aの印刷サイズ、画像Bの印刷サイズ)を求める。ユーザが予め印刷する用紙サイズが指定している場合などのように、レイアウト画像(レイアウトテンプレート)の用紙サイズが決定している場合は、用紙サイズとスロットサイズから画像の印刷サイズを求めることができる。ここでは、例えば、A6用紙にレイアウト画像を印刷した場合を印刷サイズc、A3に印刷した場合を印刷サイズdとする。
ステップS2204において、顔領域の印刷サイズを求める。レイアウト画像を印刷した場合の顔領域の印刷サイズは、顔領域率と印刷サイズを掛け合わせたものとする。画像AをA6用紙に印刷した場合の顔領域の印刷サイズはacとなり、画像BをA6用紙に印刷した場合の顔領域の印刷サイズはbcとなる。画像AをA3用紙に印刷した場合の顔領域の印刷サイズはadとなり、画像BをA3用紙に印刷した場合の顔領域の印刷サイズはbdとなる。
S2205において、顔の大きさ及び顔の数、並びに顔の印刷サイズ(Face Size)より評価量(Face Evaluation Value)を算出する。
本実施形態では、顔領域の印刷サイズが小さすぎても大きすぎても好ましくないとする。具体的には、顔の印刷サイズが小さすぎる場合の評価値を低くし、顔が大きくなりすぎる場合の評価値を低くする。印刷サイズに対する適正度は、例えば、以下の計算式から算出することができる。具体的には、閾値e及び閾値fを設定し、顔領域の印刷サイズが、閾値eから閾値fの間に入る場合は評価量を100とする。顔領域の印刷サイズが、しきい値e以下の場合は徐々に評価値を小さくし、しきい値fより大きい場合は徐々に評価値を小さくする。
Face Evaluation Value=100*Face Size/e
(Face Size≦eの場合)
Face Evaluation Value=100
(e<FaceSize<fの場合)
Face Evaluation Value=100*(1−(Face Size−f)/(Max Size−f))
(Face Size>fの場合)
上述した方法により算出した印刷サイズに対する適正度を正規化しスコア化する。このように、印刷サイズにおける各画像の被写体サイズに応じて、各画像の評価がレイアウト候補の評価に与える強度を変化させる。なお、画像個別の評価の際に、印刷サイズに対する適正度と他の評価量と総合的にする場合、テーマ毎の重み付けの係数を乗じた上、加算することにより行うようにしてもよい。本実施形態では、レイアウト画像を印刷物として観察した時の観点でレイアウト評価をする。具体的には、指定された用紙サイズから紙面上にプリントされた場合のサイズに換算するようにする。
このように、レイアウト評価の1つとして、印刷サイズに対する適正度を評価することにより、印刷サイズに応じた適切なレイアウト候補の評価を高くすることができる。したがって、評価の高い順にユーザにレイアウト画像(レイアウト候補)を提案する際に、印刷サイズに応じた適切なレイアウトを得ることができる。
本実施形態では、印刷サイズに対する適正度は、印刷された際の画像のサイズと、その画像における顔領域のサイズとにより異なる結果となる。例えば、顔領域が同じサイズであったとしても、顔の数が1人と10人の場合では評価量が異なる。
これにより、例えば、レイアウト画像を確認するモニタ表示上の条件が変わらなくても、被記録媒体上にレイアウトされる画像を適切に評価することができる。
(実施形態2)
実施形態1では、顔サイズと顔の数を被写体の特徴とし、これに応じて画像の個別評価を行うものとしたが、本実施形態では、画像の有する他の情報量に応じて評価を行うものとする。なお、実施形態1と同様の構成については説明を省略する。
画像の有する情報量に着目すると、画像群には情報量の多い画像、情報量の少ない画像が混在する。情報量の多い画像をスロットサイズの小さいスロットに配置するとレイアウト結果よりユーザは、情報を十分に得られないと感じることがある。一方、情報量の小さい画像をスロットサイズの大きいスロットに配置すると情報不足と感じることがある。これは、用紙サイズによってさらに顕著になる。例えば、情報量の多い画像を印刷サイズの小さいスロットに配置すると印刷結果からユーザは、より情報を十分に得られないと感じやすく、情報量の小さい画像を印刷サイズの大きいスロットに配置すると、より情報不足と感じやすい。
本実施形態では、レイアウト画像において画像の人物情報量に応じた最適な配置を行う。
実施形態1では、被写体の情報量に影響する被写体の特徴として、画像に写った人物の顔サイズ及び数を用いたが、ここでは、被写体の情報量に影響する他の被写体の特徴について述べる。
まず、被写体の情報量に影響する被写体の特徴として、画像の主被写体が人物の場合について説明する。
画像の主被写体が人物の場合、人物の顔の大きさ、人物の顔の数、顔の向き、顔の逆光度合い、人物の顔以外の部位(例えば、人物の体の部位)などが情報量に影響を与えるため、これらを被写体の特徴として定義する。そして、情報量が大きいものはその特徴に基づく評価量を大きく、情報量が小さいものはその特徴に基づく評価量を小さくする。
ここで、図26に被写体の特徴と情報量の影響の大小の例を図示する。顔の数が多い場合、情報量が大きい。顔の向きは、正面の場合は情報量が大、横向きの場合は情報量が中、後ろ向きの場合は情報量が小とする。また、逆光の写真は顔がつぶれ気味となるので十分な情報量が得らないものとし、顔の逆光度合いが大きいほど情報量が小、逆光度合いが小さいほど情報量が大とする。また、画像において人物の顔だけでなく身体も写っていた方が人物が何をしているか、どういう状況なのか等が判断できるため情報量が多いものとし、顔のみの場合情報量が小、上半身の場合情報量が中、全体の場合情報量が大とする。上述したような情報量に対して、評価値をそれぞれ設定する。顔の向きが正面の場合、他の顔の向きと比較して情報量が最も大きいため、例えば、顔の向きが正面の場合は1、顔の向きが横向きの場合は0.5、後ろ向きの場合は0.1とする。
逆光度に応じた評価値としては、例えば、完全な逆光だったら0.1、逆光でなければ1とする。なお、本実施形態では、逆光度合いは顔の肌の色に応じて求めることとし、上述した逆光度の間は連続的な評価値とするものとした。なお、逆光度合いの評価値は、これに限定されるものではなく、逆光度合いを示す数値情報を複数の範囲に場合分けし、それぞれに評価値を設定するようにしてもよい。
画像に写っている人物の身体の部位に応じた評価値としては、例えば、顔のみの場合は1、上半身の場合は1.5、体全体が写っている場合は2とする。上述した部位の間は画像に写っている体の量により連続的な評価値とする。
本実施形態では、上述したすべての項目の評価量を掛け合わせたものを人物の情報量とする。画像に複数人写っている場合は、それぞれの人物の評価量を求め足し合わせたものをその画像の人物の情報量とする。
さらに、本実施形態では、実施形態1と同様に、顔領域率及びスロットサイズおよびスロットの印刷サイズおよび顔領域の印刷サイズを算出する。そして、求めた人物の情報量を顔の領域の印刷サイズで割ったものが単位顔領域印刷サイズあたりの人物情報量になる。
単位顔領域印刷サイズあたりの人物情報量(Person information Value)に基づき画像の人物評価量(Person Evaluation Value)を算出する。印刷サイズに対して適正な情報量が含まれている画像の評価量を100とし、少なすぎても多すぎても評価量が小さくなるようにする。例えば、算出した画像の人物評価量が閾値gから閾値hの間に入る場合は評価量を100とし、閾値g未満の場合は人物評価量に応じて徐々に評価値を小さくする。一方、人物評価量が閾値hより大きい場合は人物評価量に応じて徐々に評価値を小さくする。
上述した方法により算出した印刷サイズに対する適正度を正規化しスコア化する。なお、画像個別の評価の際に、印刷サイズに対する適正度と他の評価量と総合的にする場合、テーマ毎の重み付けの係数を乗じた上、加算することにより行うようにしてもよい。
本実施形態では、本実施形態では、レイアウト画像を印刷物として観察した時の観点でレイアウト評価をする。具体的には、指定された用紙サイズから紙面上にプリントされた場合のサイズに換算するようにする。
このように、レイアウト評価の1つとして、印刷サイズに対する適正度を評価することにより、印刷サイズに応じた適切なレイアウト候補の評価を高くすることができる。したがって、評価の高い順にユーザにレイアウト画像(レイアウト候補)を提案する際に、印刷サイズに応じた適切なレイアウトを得ることができる。
本実施形態では、印刷サイズに対する適正度は、印刷された際の画像のサイズと、その画像における人物情報量とにより異なる結果となる。これにより、人物情報量が大きい画像が小さいスロット及び印刷サイズが小さく出力される確率を軽減または回避できる。また、人物情報量が小さい画像が大きいスロット及び印刷サイズが大きく出力される確率を軽減または回避できる。
なお、本実施形態では、すべての項目の評価値を掛け合わせたものを人物情報量としたが、一部の項目のみを使用して人物情報量としてもよい。
(実施形態3)
実施形態1及び2では、被写体が人物の場合の画像の個別評価について説明したが、本実施形態では、被写体が人物以外の場合の画像の個別評価について説明する。なお、実施形態1と同様の構成については説明を省略する。
人物以外の被写体として、例えば、風景及び文字が挙げられる。ここでは、風景及び文字の各被写体の特徴と情報量について、図27を用いて説明する。図27は、被写体の特徴と情報量の影響の大小の例を示す図である。
画像の被写体が風景の場合は、情報量に影響する被写体の特徴として、例えば、写っているランドマーク数がある。画像に含まれるランドマーク数が多いほど、その画像の情報量は多くなる。各画像に含まれるランドマーク数は、スマートフォンやデジタルカメラに搭載されているGPSやジャイロセンサーなどによって、撮影場所、撮影方向、撮影時の焦点距離を特定し、地図データベースと参照することにより推定することができる。なお、ランドマーク数の求め方は、これに限定されるものではない。
また、画像の被写体が風景の場合、情報量に影響する被写体の他の特徴として、画像の空間周波数が挙げられる。画像の空間周波数も情報量と相関がある。青空の画像は情報量が少なく、街並みの画像は情報量が多く、それぞれ、青空の画像は空間周波数が低く、街並みの画像は空間周波数が高い。すなわち、空間周波数が高いほど情報量が大きいといえる。
さらに、画像の被写体が風景の場合、情報量に影響する被写体の他の特徴として色の分布が挙げられる。色の分布も情報量と相関がある。様々な被写体が写っているものは、色にばらつきがあり色の分布も広くなるのに対し、単一の被写体しか写っていないようなものは色の分布に偏りがあり色の分布も狭くなる。すなわち、色の分布が広いほうが情報量が多いといえる。
また、画像が文字の場合、情報量に影響する被写体の特徴として、文字数が挙げられる。画像における文字情報は、ユーザにとって重要な情報であることが多い。例えば、旅行やイベントの際の看板の文字、観光地の説明書きなどのように記録のための撮影の場合、文字情報がユーザにとって重要な情報であることが多い。したがって、本実施形態では、文字数が多いほど情報量が多いものとする。
また、画像が文字を含む場合、情報量に影響する被写体の特徴として、文字の言語の種類が挙げられる。日本語と英語を比較すると、日本語の方が1文字あたりの情報量が多いため、本実施形態では、日本語の情報量を大、英語の情報量を小とする。なお、ここでは、日本語と英語を例に挙げたが、これに限定されず、他の言語の場合も、適宜、情報量を設定すればよい。
また、画像が文字を含む場合、情報量に影響する被写体の特徴として、固有名称か否かが挙げられる。固有名詞は、ユーザにとって観光地名などの重要な情報であることが多いため、本実施形態では、固有名詞が含まれる場合は情報量が多いものとする。上述したような被写体の特徴に対して、情報量に応じて評価値をそれぞれ設定する。そして、各項目の評価量に基づいて被写体の特徴を画像ごとに求め、画像の印刷サイズで割ったものが単位印刷サイズあたりの被写体情報量になる。この被写体情報量を用いて実施形態1及び2と同様の方法により、各画像の評価量を決定することができる。
ここで、本実施形態の画像における被写体の特徴の算出方法について説明する。
まず、画像における顔領域及び文字領域を検出する。被写体の人物は、実施形態1で説明したS303のセンシングにおいて顔領域を検出することにより検出することができる。また、文字(文字領域)は、公知技術を用いて検出することができる。
次に、検出された顔領域には回領域位置情報を付加し、検出された文字領域には文字領域位置情報を付加し、それ以外の領域には風景領域位置情報を付加する。
そして、各画像の評価値を算出する。ここで、図27を用いて、情報量に影響する被写体の特徴が画像に複数混在する場合の画像の評価値の算出方法について説明する。なお、図28は、各画像の評価値の算出処理のフローであり、CPU100により実行される。
S2501では、画像に顔領域が含まれるか判定する(S2501)。本実施形態では、顔領域位置情報が付加されている場合、顔領域が含まれていると判定する。
画像に顔領域が含まれる場合は(S2501でYes)、被写体が人物の場合の被写体の特徴に基づき、評価量aを算出する(S2202)。なお、評価量aは、例えば、実施形態1や実施形態2で説明した方法により算出することができる。その後、S2503へ進む。
画像に顔領域が含まれない場合は(S2501でNo)、S2503へ進む。
S2503では、画像に文字領域が含まれるかどうかを判定する。本実施形態では、文字領域位置情報が付加されている場合、文字領域が含まれると判定する。
画像に文字領域が含まれる場合は(S2503でYes)、被写体が文字の場合の被写体の特徴に基づき評価量bを算出する(S2504)。その後、S2505へ進む。
画像に文字領域が含まれない場合は、S2505に進む。
S2505では、画像に風景領域が含まれるかどうかを判定する。本実施形態では、風景領域位置情報が付加されている場合、風景領域が含まれると判定する。
風景領域が含まれる場合は(S2505でYes)、被写体が風景の場合の被写体の特徴に基づき評価量cを算出する(S2506)。その後、S2507へ進む。
風景領域が含まれない場合は、S2507へ進む。
S2507では、算出した評価値a、評価値b、及び評価値cを合計し、画像の評価値を求める。なお、合計する際に、テーマごとに重み付けを変えてもよい。例えば、テーマが人物の場合は人物の評価量の割合を高く、テーマが旅行の場合は、人物の情報量の評価量だけでなく、風景や文字の情報量に対する評価量に基づいて、評価を行う。
上述した方法により算出した印刷サイズに対する適正度を正規化しスコア化する。なお、画像個別の評価の際に、印刷サイズに対する適正度と他の評価量と総合的にする場合、テーマ毎の重み付けの係数を乗じた上、加算することにより行うようにしてもよい。
本実施形態では、本実施形態では、レイアウト画像を印刷物として観察した時の観点でレイアウト評価をする。具体的には、指定された用紙サイズから紙面上にプリントされた場合のサイズに換算するようにする。
このように、レイアウト評価の1つとして、印刷サイズに対する適正度を評価することにより、印刷サイズに応じた適切なレイアウト候補の評価を高くすることができる。したがって、評価の高い順にユーザにレイアウト画像(レイアウト候補)を提案する際に、印刷サイズに応じた適切なレイアウトを得ることができる。
なお、図28では、顔領域の有無、文字領域の有無、風景領域の有無の順に評価値の算出を行ったが、画像の評価値の算出は、この順に限定されるものではない。
(他の実施形態)
本発明の基本的構成は上述したものに限定されるものではない。上述した実施形態は、本発明の効果を得るための一手段であり、類似の別手法を用いたり、異なるパラメータを用いたとしても、本発明と同等の効果が得られる場合は、本発明の範疇に含まれる。
例えば、上述した実施形態3では、被写体が人物、風景、文字のそれぞれの特徴の評価値を算出して各画像の評価値を求めたが、これに限定されるものではない。例えば、予め画像の被写体が何かを判断し、その被写体に関する特徴のみから各画像の評価値を求めるようにしてもよい。これにより、画像の評価値の算出時間を削減することができる。
ここで、画像の被写体の判定について簡単に説明する。画像の被写体の判定は、例えば、画像に含まれる顔領域、文字領域、及び風景領域の位置情報を利用することができる。例えば、画像に顔領域が1つ以上存在する場合、被写体=人物と判定する。ただし、画像に顔領域が1つ以上存在し且つ人物の領域が予め設定したある一定サイズ以下の場合は、被写体=人物+風景とする。また、画像に文字領域が存在し且つ文字領域が予め設定したある一定サイズ以上である場合、被写体に文字を加える。すなわち、この場合は、被写体=文字、被写体=人物+文字、又は被写体=人物+風景+文字となる。そして、例えば、顔領域が含まれず、且つ文字領域を含まない又は文字領域が一定サイズ以下だった場合は、被写体=風景とする。
また、上述した実施形態では、S1508の大量レイアウトの定量評価の際に、印刷サイズと画像の被写体の特徴に基づく評価量を用いることとしたが、これに限定されるものではない。例えば、S1507で印刷サイズと画像の被写体の特徴に基づく評価量を用いるようにしてもよい。具体的には、S1507において大量の一時レイアウトを生成する際に、印刷サイズと画像の被写体の特徴に基づく評価量が、予め設定した値以下となるスロットと画像の組み合わせは、レイアウトを作成しないようにしてもよい。これにより、明らかに評価値が低くなる一時レイアウトが作成されなくなり、処理時間を高速化することができる。
また、上述した実施形態では、S1508の大量レイアウトを中間レイアウトとして生成するものとしたが、必ずしも大量レイアウトを作成する必要はない。例えば、ユーザがテンプレートと使用したい少量の画像を選択する場合は、以下の方法により最適なレイアウトを作成することができる。
まず、ユーザがレイアウトテンプレート及び出力用紙サイズを選択する。このとき、レイアウトテンプレートには実施形態1と同様に各スロットに適した画像の条件が記載されているものとする。次に、ユーザがレイアウトの使用したい画像群を選択する。このとき、選択する画像数はスロット数よりも多くてもよい。次に、各画像の解析を行い、スロットに適した画像の条件を満たすか判定するために必要な情報を取得する。このとき、明らかな失敗画像である等と解析された場合は画像群から削除するようにしてもよい。そして、解析した情報をもとに各スロットに記載された条件に適合する画像を選択する。スロットに適した画像の条件を満たす画像が複数存在する場合、上述した実施形態で説明した印刷サイズと被写体の特徴を用いてより好適な画像を決定することができる。そして、各スロットに配置した際の印刷サイズと被写体の特徴を用いて実施形態1及び2で説明した評価値を算出し、評価値の高い画像を最終選択画像とする。これにより、各スロットに適した画像の条件を満たす画像をレイアウト画像に配置して、レイアウトを生成し、予め指定した用紙サイズで印刷することができる。
また、上述した実施形態では、作成したレイアウトを印刷する場合を例に挙げて説明したが、出力方法は印刷されたものに限定されるものではない。例えば、モニタ等の表示装置のける表示が最終成果物としてもよい。例えば、スマートフォン用の表示を最終成果物とする場合、最終成果物のサイズは、例えば、4インチ前後となり、タブレット用の表示を最終成果物とする場合は7〜10インチとなる。また、ノートPC用の表示を最終成果物とする場合は10〜15インチとなり、デスクトップ用の表示を最終成果物とする場合は20インチ以上となる。これらの場合、出力サイズとして、印刷する際の被記録媒体のサイズの代わりに表示サイズに基づいて、評価を行うようにすればよい。
本実施形態では、ユーザが画像グループをマウスポインタによりドラッグ操作することで、人物グループの結合処理を実行する例を示したが、操作はマウスポインタによる操作に限定されるものでもない。
また、上述した実施形態では、オブジェクトとして人物を例に挙げて説明したが、オブジェクトは人物とは限らない。犬や猫などのペットの認識処理を行ってこれらを認識することにより、オブジェクトとしてペットを設定することができる。また、エッジ検出などの形を認識処理によれば、建物や小物なども認識できるため、オブジェクトとして、建物や小物などを設定することができる。
上述した実施形態では、画像処理装置としてコンピュータを例に挙げて説明したが、これに限定されるものではない。例えば、プリンタ、複写機、ファクシミリ装置、携帯電話、PDA、画像ビューワー、デジタルカメラ、などの画像処理を行う装置において、本発明を適用可能である。
また、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタ等)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、プリンタ、複写機、ファクシミリ装置等)に適用しても良い。
被記録媒体の材質は、紙に限定されるものではなく、記録剤を付与した印刷処理が可能なものであれば種々のものを採用可能である。なお、ここでいう記録剤は、液状のインクに限定されるものではなく、種々の記録剤を採用可能である。
上述した実施形態は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(CPUやMPU等)がプログラムを読み出して実行する処理である。また、プログラムは、1つのコンピュータで実行させても、複数のコンピュータを連動させて実行させるようにしてもよい。また、上記した処理の全てをソフトウェアで実現する必要はなく、処理の一部または全部をASIC等のハードウェアで実現するようにしてもよい。また、CPUも1つのCPUで全ての処理を行うものに限らず、複数のCPUが適宜連携をしながら処理を行うものとしてもよい。

Claims (10)

  1. 1以上の画像を含む画像群を取得する取得手段と、
    前記取得手段により取得した画像群に含まれる画像を配置してレイアウト候補を作成する作成手段と、
    レイアウト内に配置された各画像の被写体の特徴に応じた前記各画像の個別評価に基づいて、前記作成手段により作成されたレイアウト候補の評価を行う評価手段と、
    前記作成手段により作成されたレイアウト候補を所定の出力サイズで出力する出力手段と、
    を備え、
    各画像の被写体の特徴は、前記出力手段により出力されるレイアウト候補の出力サイズにより特定される各画像の被写体のサイズを含むことを特徴とする画像処理装置。
  2. 前記評価手段は、前記出力手段により出力されるレイアウト候補の出力サイズにより特定される各画像の被写体のサイズに応じて、前記各画像の評価がレイアウト候補の評価に与える強度を変化させることを特徴とする請求項1に記載の画像処理装置。
  3. 前記各画像の被写体の特徴は、被写体の情報量を含むことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記被写体の情報量は、前記被写体が人物である場合、顔の大きさ、顔の数、顔の向き、逆光度、及び顔以外の大きさのうち1以上の情報量を含むことを特徴とする請求項3に記載の画像処理装置。
  5. レイアウト内に配置される各画像の被写体に人物、風景、及び文字のうち少なくともいずれを含むか特定する特定手段をさらに備えることを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。
  6. 前記作成手段は、複数のレイアウト候補を作成し、
    前記評価手段による評価結果に基づいて、前記作成手段により作成された複数のレイアウト候補の中から選択した1以上のレイアウト候補を提示する提示手段をさらに備えることを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。
  7. 前記提示手段は、前記評価手段による評価が高いレイアウト候補を提示することを特徴とする請求項6に記載の画像処理装置。
  8. 前記出力サイズは、前記レイアウト候補を印刷する被記録媒体のサイズであることを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。
  9. 1以上の画像を含む画像群を取得する取得工程と、
    前記取得工程において取得した画像群に含まれる画像を配置してレイアウト候補を作成する作成工程と、
    レイアウト内に配置された各画像の被写体の特徴に応じた前記各画像の個別評価に基づいて、前記作成工程において作成されたレイアウト候補の評価を行う評価工程と、
    前記作成工程において作成されたレイアウト候補を所定の出力サイズで出力する出力工程と、
    を備え、
    各画像の被写体の特徴は、前記出力工程において出力される出力サイズにより特定される各画像の被写体のサイズを含むことを特徴とする画像処理方法。
  10. 請求項1〜8のいずれか1項に記載の画像処理装置の各手段としてコンピュータを機能させるプログラム。
JP2013184046A 2013-09-05 2013-09-05 画像処理装置、画像処理方法、及びプログラム Active JP6282065B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013184046A JP6282065B2 (ja) 2013-09-05 2013-09-05 画像処理装置、画像処理方法、及びプログラム
US14/476,596 US9904879B2 (en) 2013-09-05 2014-09-03 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013184046A JP6282065B2 (ja) 2013-09-05 2013-09-05 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2015053542A true JP2015053542A (ja) 2015-03-19
JP6282065B2 JP6282065B2 (ja) 2018-02-21

Family

ID=52582848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013184046A Active JP6282065B2 (ja) 2013-09-05 2013-09-05 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US9904879B2 (ja)
JP (1) JP6282065B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117407A (ja) * 2015-12-25 2017-06-29 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2020030858A (ja) * 2015-04-08 2020-02-27 東芝テック株式会社 画像処理装置及び画像処理方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5568148B2 (ja) * 2012-03-27 2014-08-06 富士フイルム株式会社 レイアウト装置、レイアウト方法およびプログラム
JP5938379B2 (ja) * 2013-09-24 2016-06-22 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
US9740918B1 (en) * 2015-05-20 2017-08-22 Amazon Technologies, Inc. Detecting objects in multiple images using integral images
US9740919B1 (en) * 2015-05-20 2017-08-22 Amazon Technologies, Inc. Detecting objects in multiple images using integral images
US10545650B2 (en) 2015-08-12 2020-01-28 International Business Machines Corporation Application for auto deletion of images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041836A (ja) * 2005-08-03 2007-02-15 Seiko Epson Corp 画像選択装置および画像選択方法
WO2012111275A1 (ja) * 2011-02-17 2012-08-23 パナソニック株式会社 画像評価装置、画像評価方法、プログラム、集積回路

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2541688B2 (ja) 1990-05-21 1996-10-09 日産自動車株式会社 眼位置検出装置
JP2973676B2 (ja) 1992-01-23 1999-11-08 松下電器産業株式会社 顔画像特徴点抽出装置
JP3557659B2 (ja) 1994-08-22 2004-08-25 コニカミノルタホールディングス株式会社 顔抽出方法
JPH0877334A (ja) 1994-09-09 1996-03-22 Konica Corp 顔画像の特徴点自動抽出方法
US6374200B1 (en) * 1997-02-03 2002-04-16 Fujitsu Limited Layout apparatus for laying out objects in space and method thereof
JP3469031B2 (ja) 1997-02-18 2003-11-25 株式会社東芝 顔画像登録装置及びその方法
JPH1153525A (ja) 1997-08-06 1999-02-26 Matsushita Electric Ind Co Ltd 顔器官検出装置及び媒体
JP3549013B2 (ja) 1998-03-05 2004-08-04 日本電信電話株式会社 目の位置検出方法、目の位置検出装置および目の位置検出プログラムを記録した記録媒体
JP2000105829A (ja) 1998-09-29 2000-04-11 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
JP2000132688A (ja) 1998-10-29 2000-05-12 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
JP2000235648A (ja) 1999-02-17 2000-08-29 Fujitsu Ltd 目の抽出装置および瞬き検出装置
JP2001216515A (ja) 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置
EP1211640A3 (en) 2000-09-15 2003-10-15 Canon Kabushiki Kaisha Image processing methods and apparatus for detecting human eyes, human face and other objects in an image
US7340676B2 (en) * 2000-12-29 2008-03-04 Eastman Kodak Company System and method for automatic layout of images in digital albums
US6895103B2 (en) 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
JP4428704B2 (ja) * 2004-12-27 2010-03-10 パナソニック株式会社 印刷システム
JP4850818B2 (ja) * 2007-11-30 2012-01-11 キヤノン株式会社 画像処理装置およびその方法
JP4991614B2 (ja) 2008-03-31 2012-08-01 富士フイルム株式会社 レイアウト決定方法、プログラムおよび装置
JP5743384B2 (ja) 2009-04-14 2015-07-01 キヤノン株式会社 画像処理装置及び画像処理方法とコンピュータプログラム
JP5424712B2 (ja) 2009-05-21 2014-02-26 キヤノン株式会社 画像処理装置及びその制御方法とプログラム
US9122912B1 (en) * 2012-03-15 2015-09-01 Google Inc. Sharing photos in a social network system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041836A (ja) * 2005-08-03 2007-02-15 Seiko Epson Corp 画像選択装置および画像選択方法
WO2012111275A1 (ja) * 2011-02-17 2012-08-23 パナソニック株式会社 画像評価装置、画像評価方法、プログラム、集積回路

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020030858A (ja) * 2015-04-08 2020-02-27 東芝テック株式会社 画像処理装置及び画像処理方法
JP2017117407A (ja) * 2015-12-25 2017-06-29 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US20150062652A1 (en) 2015-03-05
JP6282065B2 (ja) 2018-02-21
US9904879B2 (en) 2018-02-27

Similar Documents

Publication Publication Date Title
JP5993642B2 (ja) 情報処理装置及びその制御方法及びプログラム
JP6045232B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6012310B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5956860B2 (ja) 画像処理装置、画像処理方法、プログラム
JP6071288B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US9436706B2 (en) Image processing apparatus, image processing method, and storage medium for laying out images
JP5981789B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6071287B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6282065B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6012308B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6031278B2 (ja) 情報処理装置及びその制御方法及びプログラム
JP6016489B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム
JP6012309B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6222900B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6261206B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6168928B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6797871B2 (ja) プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180123

R151 Written notification of patent or utility model registration

Ref document number: 6282065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151