JP6071289B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP6071289B2
JP6071289B2 JP2012154005A JP2012154005A JP6071289B2 JP 6071289 B2 JP6071289 B2 JP 6071289B2 JP 2012154005 A JP2012154005 A JP 2012154005A JP 2012154005 A JP2012154005 A JP 2012154005A JP 6071289 B2 JP6071289 B2 JP 6071289B2
Authority
JP
Japan
Prior art keywords
image
face
area
region
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012154005A
Other languages
English (en)
Other versions
JP2014016818A (ja
Inventor
尚紀 鷲見
尚紀 鷲見
雄介 橋井
雄介 橋井
洋行 酒井
洋行 酒井
寛康 國枝
寛康 國枝
梅田 清
清 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012154005A priority Critical patent/JP6071289B2/ja
Priority to US13/933,425 priority patent/US9292760B2/en
Publication of JP2014016818A publication Critical patent/JP2014016818A/ja
Application granted granted Critical
Publication of JP6071289B2 publication Critical patent/JP6071289B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Description

本発明は画像処理装置、画像処理方法、およびプログラムに関する。
近年、写真印刷やビデオクリップ作成ソフトなどにおいて、テンプレートのスロットに画像を自動ではめ込み、レイアウト画像を完成させる技術が知られている。また、テンプレートに配置される画像において、テンプレート枠に配置される領域をトリミングするときに、注目領域である被写体が出力されないことを防ぐための技術が知られている。
特許文献1では以下の構成を備える。静止画上に設定される主要被写体領域と、主要被写体の中心を決める注目点を設定する。レイアウト枠には、静止画を嵌め込む際に注目点と合致させる基準点が設定されている。基準点からレイアウト枠までの距離と、注目点から静止画の外郭までの距離の算出距離の比率を求め、その最大値を第1パラメータとする。また、基準点からレイアウト枠までの距離と、注目点から主要被写体領域の外郭までの距離との比率を求め、その最小値を第2パラメータとする。第1パラメータが第2パラメータよりも大きいと、空白領域の発生又は主要被写体がはみ出るアルバム画像となり、静止画のはめ込みが禁止される。
特開2007−26246号公報
特許文献1では、人物などの注目領域の位置を考慮し、自動でトリミングの位置を決定する技術が述べられている。該技術において、注目領域の位置については考慮され良好な配置がなされたとしても、通行人やカメラにかかってしまった撮影者の指などの不必要なオブジェクトについては何ら考慮されないという課題がある。
特許文献1に記載の技術により、図30の画像3402に対して処理を行った場合、ユーザの家族の顔などの注目領域3404、3405とともに、たまたま写った通行人の領域である3406が特定される。すると、画像3402の座標系における3409がトリミング領域となる。すると、画像3402に3409に示す領域でトリミングした結果、3407のようになる。トリミング後画像3407には注目領域3404および3405が表示されているが、通行人に対応する3406も一緒に表示されているため、ユーザにとって所望の出力対象の領域が出力できない場合がある。
本発明は上記の課題を鑑みてなされたものであり、画像における出力対象の領域を適切に決定することができる画像処理装置、画像処理方法、およびプログラムを提供することを目的とする。
上記課題を解決するために、本願発明は以下の構成を有する。すなわち、画像処理装置は、画像群内の画像に含まれている人物の顔領域を検出することで、複数の顔領域において類似する特徴量に対応する、同一人物に対応するグループを生成する生成手段と、前記生成手段により生成されたグループを登録する登録手段と、出力対象の候補である画像から顔領域を特定する特定手段と、前記特定手段により特定された顔領域を前記画像における出力対象の領域に含めるかについて、当該顔領域に対応するグループが前記登録手段により登録されているか否かに基づく判定を行う判定手段と、前記判定手段による判定結果に基づいて、前記画像における出力対象の領域を決定する決定手段と、を備え、前記決定手段は、少なくとも、前記特定手段により特定された顔領域に対応するグループが前記登録手段により登録されていない場合、当該顔領域を含まない領域を優先して前記出力対象の領域を決定する。
本発明によれば、画像における出力対象の領域を適切に決定することができる。
本発明のソフトウェアを実行可能なハードウェア構成図。 本発明の処理のソフトウェアブロック図。 画像解析処理のフローチャート。 画像解析処理のフローチャート。 人物グループ生成処理のフローチャート。 自動レイアウト提案処理のフローチャート。 人物グループの表示例を示す図。 サムネイル形式による画像群の表示例を示す図。 カレンダー形式による画像群の表示例を示す図。 画像解析結果の保存形式の例を示す図。 手動でお気に入り度を入力するためのUI例を示す図。 手動でイベント情報を入力するためのUI例を示す図。 手動で人物属性情報を入力するためのUI例を示す図。 人物属性情報の保存形式の例を示す図。 レイアウトテンプレートの一例を示す図。 図15のレイアウトテンプレートの保持形式の例を示す図。 レイアウトテンプレートの一例を示す図。 図17のレイアウトテンプレートの保持形式の例を示す図。 第1の実施形態における自動レイアウト生成処理のフローチャート。 第1の実施形態における不要画像フィルタリング処理のフローチャート。 自動トリミング処理の一例を示す図。 明るさ適正度の算出方法の説明図。 彩度適正度の算出方法の説明図。 トリミング欠け判定処理の説明図。 自動レイアウト生成結果の表示例を示す図。 決定されたテーマと主人公情報の保持例を示す図。 決定されたテーマと主人公情報の保持例を示す図。 生成した自動レイアウト情報の保持例を示す図。 第1の実施形態における全体フローチャート。 自動トリミング処理の一例を示す図。 自動トリミング処理の一例を示す図。 レイアウトテンプレートの一例を示す図。
<第1の実施形態>
以下では、入力画像群を用いて自動でレイアウト出力物を生成するための実施形態について説明する。これはあくまで実施の1つの形態を例として示したものであり、本発明は以下の実施に限定されるものではない。
なお、本実施形態では簡単のため、レイアウト出力物として、1ページのコラージュ系出力物を想定するが、本発明を単葉印刷や複数ページのアルバムであってもよい。
図1は、本実施形態に係わる情報処理装置のハードウェア構成例を説明するブロック図である。図1において、情報処理装置115は、CPU100と、ROM101と、RAM102と、2次記憶装置103と、表示装置104と、入力装置105と、IF107と、IF108と、無線LAN I/F109を備えている。さらに、内部撮像デバイス106を備えている。これらは、制御バス/データバス110により相互に接続されている。本実施形態の情報処理装置115は、画像処理装置として機能する。
図1において、CPU(中央演算装置)100は、本実施形態で説明する情報処理方法を以下に示すアプリケーションなどのプログラムに従って実行する。ROM101は、CPU100により実行されるプログラムが記憶されている。RAM102は、CPU100によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供している。2次記憶装置103はハードディスク等であり、画像ファイルや画像解析結果を保存するデータベースなどを保存するための記憶媒体である。表示装置104は例えばディスプレイであり、本実施形態の処理結果や以下に示す種々のUI(User Interface)をユーザに提示する装置である。表示装置104はタッチパネル機能を備えても良い。また、制御バス/データバス110は、上述の各部とCPU100とを接続する。このほかにユーザが画像補正の処理の指示等を入力するためのマウスやキーボードといった入力装置105も備える。
また、情報処理装置115は、内部撮像デバイス106を備えてもよい。内部撮像デバイス106で撮像された画像は、所定の画像処理を経た後、2次記憶装置103に保存される。また、情報処理装置115はインターフェース(IF108)を介して接続された外部撮像デバイス111から読み込んでも構わない。さらに、情報処理装置115は無線LAN(Local Area Network)と接続するための無線LAN I/F109を備え、該LANはインターネット113に接続されている。情報処理装置115は、インターネット113に接続された外部サーバー114より画像データを取得することもできる。
最後に、画像等を出力するためのプリンタ112が、IF107を介して情報処理装置115に接続されている。なお、プリンタ112はさらにインターネット113上に接続されており、無線LAN I/F109経由でプリントデータのやり取りをすることもできる。
図2は本実施形態における基本ソフトウェア構成のブロック図である。
まず情報処理装置115が取得した画像データは、通常JPEG(Joint Photography Expert Group)等の圧縮形式になっている。そのため、画像コーデック部200は、該圧縮形式を解凍していわゆるRGB点順次のビットマップデータ形式に変換する。変換されたビットマップデータは、表示・UI制御部201に伝達され、ディスプレイ等の表示装置104上に表示される。
上記ビットマップデータは、さらに画像センシング部203(アプリケーション)に入力され、画像センシング部203において、画像の様々な解析処理(詳細は後述)が行われる。上記解析処理の結果得られた画像の様々な属性情報は、画像データに付与された画像情報として所定の形式に従ってデータベース部202(アプリケーション)において、上述した2次記憶装置103に保存される。なお、以降においては、画像解析処理とセンシング処理は同義で扱う。
シナリオ生成部204(アプリケーション)では、ユーザが入力した様々な条件に応じて、詳細は後述するが、自動で生成すべきレイアウトの条件を生成する。レイアウト生成部205ではシナリオ生成部204が生成したシナリオに従って、自動でレイアウトを生成する処理を行う。
レイアウト生成部205が生成したレイアウトは、レンダリング部206で表示用のビットマップデータを生成し、該ビットマップデータは表示・UI制御部201に送られ、結果が表示装置104に表示される。
また、レンダリング部206によるレンダリング結果はさらにプリントデータ生成部207に送られ、プリントデータ生成部207でプリンタ用コマンドデータに変換され、プリンタ112に送出される。
本実施形態の基本的な画像処理のフローチャートについて説明をする。
図29は、本実施形態の処理の流れを表すフローチャートである。本処理フローは、本実施形態において、CPU100がROM101等に格納されたプログラムを実行することにより実現される。
S3301では、CPU100は、画像データ群の取得を行う。ここでは例えば、過去にユーザが外部撮像デバイス111で撮影し、2次記憶装置103で保管している画像データを対象とし、ファイルパスを取得する。詳細な内容、手法については後述する。
S3302では、CPU100は、取得した画像データ群の画像それぞれについてデコードし、解析処理および解析結果のデータベース登録を行う。解析処理では、画像内の人物顔の個数、各顔の座標位置、シーン情報などを取得し、データベースへ格納する。詳細な内容、手法については後述する。
S3303では、CPU100は、人物グルーピングを行う。S3302で検出された顔の情報を用い、該顔の特徴量が似ているものをグループ化する。詳細な内容、手法については後述する。
全ての画像について解析(S3302)およびグルーピング(S3303)を行うため、CPU100は、S3302、S3303を画像の数だけ繰り返す。
S3304では、CPU100は、ユーザ情報の入力を行う。S3303にてグループ化した顔について、ユーザがUIを用いて人物名および続柄、友人や家族といった属性を入力する。これを人物登録と呼ぶことにする。この人物登録された顔画像と各人物の情報とは関連付けて保持される。各グループのそれぞれの顔について、どの画像のどの座標に存在するかが記録されている。これらにより、ソフトウェアは各画像のどの位置に誰が写っているかを得る事ができる。その他、各画像についてユーザお気に入り度の入力などもここで行われる。詳細な内容、手法については後述する。
S3305では、CPU100は、テンプレートの取得を行う。本実施形態においては、予め様々なレイアウトテンプレートが用意されていることを想定する。レイアウトテンプレートとは図15および図17に示すようなものである。
尚、各図における1702、1703、1704、1903はそれぞれ画像を配置する画像配置領域であり、テンプレートにおいてスロットと呼ぶ。スロットは、既定のサイズを有する。図32は重なりがあるスロット3602および3603を持つ。こういった重なりがあるスロットにおいて、重なりの下側であるスロット3603では斜線部のように、表示されている部分を画像配置領域とする。テンプレートについての詳細は後述する。
S3306では、CPU100は、提案処理のシナリオを決定する。シナリオには、提案するレイアウトのテーマおよびテンプレートの決定、およびレイアウト内で重視する人物(主人公)の設定、およびレイアウト生成に用いる画像群の選定情報が含まれる。尚、シナリオはユーザがUIを用いて手動で選択、指示しても良い。詳細な内容、手法については後述する。
S3307では、上述したシナリオに基づき、画像の選択、一時レイアウト生成、レイアウト評価を行う。画像の選択は、輝度などを評価し、フィルタリングする事により不要画像を排除する。こうして一時レイアウトに使用する候補の画像を選択する。選択方法の詳細については後述する。
一時レイアウト生成は、取得したテンプレートの画像配置枠に対して、上記でフィルタリング済みの画像を任意に当てはめる処理を繰り返し、大量の一時レイアウトを生成する。ここでは、各スロットにトリミングされた画像が配置されたレイアウトが出力される。一時レイアウトの生成の詳細については後述する。
レイアウト評価は、上記で大量に作成された一時レイアウトのそれぞれについて評価を行う。評価は、画像個別、画像とスロットの適合度、レイアウトページ内のバランスなどを算出し、それらを統合化して評価値とする。
本実施形態では、上記の画像とスロットの適合度の評価項目の一つである不要領域存在評価を行う。不要領域存在評価とは、実際に画像配置領域であるスロットに配置された画像内に不要領域がどの程度存在するかを評価するものであり、不要領域が少ない程評価が良い。
「不要領域」とは例えば、通行中の他人や、撮影者が意図せずカメラのレンズに指をかけて撮影された指の領域など、表示する事で見栄えが悪くなる邪魔な領域である。他人とは例えば友人、知人、家族ではない人を指す。
他人であるか否かの判断の例として以下のような方法がある。
・センシングにより顔検出されたが、ユーザによる人物登録がなされていない人物
・ユーザの持つ画像群の中で出現頻度が低い人物
顔の座標、向き、大きさなどから顔領域に連続する領域を体として推測できる。例えば、顔の長さの8倍を縦の長さ(身長)、4倍を横幅などとして体を推測する。他人と判定された人物の顔と推測した体部も含めて不要領域としても良い。以上によれば、画像郡のセンシングあるいは人物登録がなされれば自動的に不要領域を判定する事ができる。
尚、ソフトウェアが解析した画像群において出現頻度が高い人物については人物登録がなされていなくとも不要領域としない。これにより人物登録の漏れによる弊害を防ぐ事が出来る。
出現頻度は、個人認識により同一人物として認識され生成された各人物グループの人物が画像群の内、どの程度の割合で登場するかを算出すれば良い。あるいは、登場回数が予め定めた閾値を超えた人物は出現頻度が高い、閾値を超えない人物は出現頻度が低いとしても良い。連写など、短い時間内に多く撮影された画像には通行人であっても多く写っている。そのため、時間の間隔を考慮して登場回数を制御した方がより性格な出現頻度を算出可能となる。
また、以下の場合は不要領域の候補となり得る。
・ピントが合っていない人物
・ある閾値より顔が小さく写っている人物
・後述する注目領域の人物と離れた距離で写っている人物
・注目領域の人物と顔の大きさが著しく異なる人物
・注目領域の人物と顔の表情が異なる人物
・注目領域の人物と該人物との顔の向きの関係により、他人と推測できる人物
・注目領域の人物と該人物との移動方向の関係により、他人と推測できる人物
撮影者は主要な被写体にフォーカスを合わすため、ピントが合っていない人物や小さく写っている人物は不用な可能性がある。また、後述する注目領域は主要被写体となるため、主要被写体との関係で必要な人物か否かを推測できる。
画像の座標位置や顔の大きさ(領域間の位置関係など)から、該人物が撮影時に注目領域の人物からどの程度離れた距離にいたかが推測できる。例えば家族や友達、恋人とはある程度近い距離に集まって移る事が多いため、注目領域の人物から離れて写っている人物は他人である可能性が高い。奥行き的な距離の算出の例として、次のような方法がある。顔の大きさから推測する方法、二眼カメラで視差の距離が一致する部分より同距離を判定する方法、多くのレンズを持つなど、1回の撮影で複数のフォーカス位置を撮影できるカメラでは、同フォーカス位置でピントが合っている物を同距離とする方法、などである。
何らかの関係がある人物(以下、関係人物)同士は同じ時間を共有している。笑顔など、主要被写体である注目領域の人物と表情が同じであれば関係人物である可能性が高く、反対に表情が異なれば無関係の人物である可能性が高い。表情の判定は例えば特開2005−44330号公報に記載の技術など、公知の方法を用いれば良い。
また、注目領域の人物と同じ向きを見ている、注目領域の人物と向き合っている、カメラ目線、などの人物は関係人物である可能性が高く、その他を向いている人物は関係人物でない可能性が高い。人物が見ている向きは、目などの顔の器官の位置より推測しても良いし、公知の目線の判定などの技術を用いて算出するなどしても良い。
動画から切り出した画像や、連写、ある程度短い時間内に複数の静止画が撮影された場合などは、前後フレームの関係から被写体の移動ベクトルが分かる。これを用い、注目領域の人物から離れる方向や関係の無い方向へ進んでいる人物は他人である可能性が高い。移動ベクトルの求め方は、ブロックマッチング法など、公知の方法を用いれば良い。
その他の方法として、ユーザによって他人であると人物登録されたり、無視のコマンドが指定された人物を他人としても良い。つまり、不要領域と注目領域とは関連性が低いオブジェクトを含むと考えられる。ユーザがマウスやキーボード、タッチパネルなどのUIを用いて不要領域を指定しても良い。
不要領域は人物に限らず、車や建物、山などの静物や動物でも良い。
また、上記に挙げた不要領域の判定の基となる項目の複数を用いて不要領域であるか否かを判定しても良い。例えば、それぞれの項目に重みを持たせ、加重平均してスコアを算出し、予め定めた閾値やユーザが設定した閾値と比較する方法がある。他の方法として、各項目を判定機として使い、公知のAdaBoostなどの方法によって判定しても良い。
本実施形態では注目領域を用いる。注目領域とは例えば、ユーザが人物登録をした人物が写っている座標など、必要な領域である。顔の座標、向き、大きさなどから胴体を推測し、推測した胴体部も含めて注目領域としても良い。
上述の不要領域の判定と逆の理由から、以下は注目領域の候補となり得る。
・ピントが合っている人物
・ある閾値より顔が大きく写っている人物
・後述する注目領域の人物と近い距離で写っている人物
・注目領域の人物と顔の大きさが同じ程度の人物
・注目領域の人物と顔の表情が同じ人物
・注目領域の人物と該人物との顔の向きの関係により、関係人物と推測できる人物
・注目領域の人物と該人物との移動方向の関係により、関係人物と推測できる人物
不要領域の判定と同様に、これらの項目の複数を用いて注目領域であるか否かを判定しても良い。
尚、その他の例として、マウスやキーボードなどのUIを用いてユーザが注目領域として指定した領域や、人物属性が家族や友人である人物などを注目領域としても良い。注目領域の使用方法の詳細については後述する。
図30の3401は図15のスロット1704を表す。前述のようにスロットは画像を配置する領域である。3402はスロット3401に配置する画像である。画像3402には不要領域3406(点線内)が含まれる。尚、3403、3404、3405は、センシングにより検出され、特定された顔領域を表している。本実施形態では破線で示す3404、3405の顔は、ユーザに人物登録された注目領域であるとする。
3408、3411、3414はそれぞれ画像3402の座標を表した図であり、斜線部はそれぞれトリミング領域3409、3412、3415である。トリミング領域はスロット3401と同じアスペクト比である。トリミング領域がスロットと異なるアスペクト比であると、画像配置後のスロット内に余白が生じる事になり、見栄えの悪い画となり得る。
3409は画像のおよそ中心をスロット3401に配置するトリミング領域である。画像3402に対し、3408内の3409で示す領域でトリミングを行った場合、3407のようになる。3407では不要領域3406がスロットに表示されてしまっている。本発明ではこのような場合は不要領域存在評価の評価値を低く設定する。不要領域存在評価値の求め方として本実施形態では以下の方法を用いる。3409に示すようなトリミング領域に不要領域が入っているか否かを判定し、不要領域の一部でも入っていれば評価値を0とし、入っていなければ評価値を100とする。他の実施の形態として、不要領域がスロットに表示されている面積の割合(表示面積率)を算出し、表示面積率に応じて評価値を決定する方法もある。表示面積率が低いほど評価値を上げれば良く、例えば以下の式のように求めれば良い。
評価値 = 100 − 表示面積率[%]
また、表示面積率に閾値を設け、閾値未満であれば評価値は100、閾値以上であれば評価値は0などとしても良い。
表示面積率は例えば、画像3402のトリミング位置を表す3408および3409において、トリミング領域3408と不要領域3406が重なる画素数をカウントし、トリミング領域3409の画素数で割った値を用いれば良い。また、注目領域とトリミング領域が矩形であれば、座標を用いて数値計算し、表示面積率を求めても良い。
画像内に不要領域が含まれない場合、評価値は100とする。
画像3402に対し3408、3409に示すトリミングを施した3407の評価を行うと、不要領域3406が表示されているため、不要領域存在評価値は0となる。
次に、画像3402に対し3411、3412に示すトリミングの例を説明する。該トリミングを施すとスロットは3410のようになる。上記と同様に評価を行うと、3410に不要領域3406は表示されていないため、不要領域存在評価値は100となる。
同様に、画像3402に対し3414、3415に示すトリミングの例を説明する。該トリミングを施すとスロットは3413のようになる。評価を行うと、3413に表示されている不要領域3406部の面積は0[%]であり、不要領域存在評価値は100となる。
ここで、不要領域存在評価値が0である3407と、不要領域存在評価値が100である3410および3413を比較する。どれも注目領域である3404および3405が表示されているが、3407には通行人である3407も表示されてしまっている。本来は家族など登録人物に対応する注目領域3404、3405に注目したいが、3407では不要な通行人が入る事により、多少なりとも意識が登録人物から逸れてしまう。一方、3410、3413では通行人である3407は表示されず、登録人物に注目が集まる。このように、不要領域存在評価値は不必要なオブジェクトが撮影された画像において、良好なトリミング位置を決定するための要素となる。不要領域が消失した状態、つまり不要領域が画像配置領域に存在しないようなトリミングの評価が高く、優先的に採用されるようになる。
図31を用いて他の例を説明する。図31の3501は図15のスロット1704を表す。3502はスロット3501に配置する画像である。画像3502には不要領域3505(点線内)が含まれる。3505は撮影者が撮影時に誤ってレンズにかけてしまった指であり、予めユーザがUIを用いて不要領域として登録している。尚、破線3503、3504、センシングにより検出された顔領域を表している。本実施形態では破線3503および3504で示す顔は、ユーザに人物登録された注目領域であるとする。
3507、3510はそれぞれ画像3402の座標を表した図であり、斜線部3508、3511はそれぞれトリミング領域である。トリミング領域はスロット3501と同じアスペクト比である。
画像3502に対し、3507内の3508で示す領域でトリミングを行った場合、3506のようになる。3506では不要領域3405がスロットに表示されてしまっているため、不要領域存在評価値は0となる。
画像3502に対し、3510内の3511で示す領域でトリミングを行った場合、3509のようになる。3509では不要領域は一切スロットに表示されていないため、不要領域存在評価値は100となる。
このように不要領域存在評価を行い、後述するように該評価値を用いる事により、不要なオブジェクトが入った、レイアウトとして良好でない配置がされにくくなる。
図29のS3307では不要領域存在評価および、その他のレイアウト対する各カテゴリの評価値をそれぞれ求め、重み付け加算により統合して該レイアウトの評価値とする。その他の評価値の出力方法は後述する。
図29のS3308では、レンダリングおよび出力を行う。上記処理によって得られたレイアウト結果をレンダリングし、結果をディスプレイに表示する。表示後、ユーザは入力装置105を用いてトリミング位置を修正しても良い。
以上のように、不要領域を考慮してトリミング位置の評価を行う事により、不要なオブジェクトが含まれる悪印象なトリミングが発生しにくくなる。
尚、本実施形態では人物登録されていない人物を不要領域としたが、あまりにも多くの通行人などが存在する画像では除外しても良い。例えば都心の人ごみの中で撮影した画像については通行人も風景となり得る。例えば注目領域の数に対してN倍以上の数の通行人がいた場合、不要領域存在評価値を100とする。Nは任意の値である。
以下では、本実施形態における各ステップの詳細についての説明を行う。
図3および図4は、画像センシング部203のフローを示しており、複数の画像データ群を取得して、それぞれについて解析処理を施し、その結果をデータベースに格納するまでの処理の流れを示している。この図3および図4の処理は、図29のS3301〜S3303の処理に相当する。
まず図3を用いて、画像センシング部203が実行する処理のフローチャートについて説明する。
S301では、画像データ群の取得を行う。画像データ群の取得は、例えば、ユーザが、撮影画像が格納された撮像装置やメモリカードを情報処理装置115に接続することで、該撮像画像を読み込むことができる。また、内部撮像デバイス106で撮影され、2次記憶装置103に保存されていた画像も、当然のことながら対象となる。あるいは、画像は無線LAN I/F109を介して、インターネット113上に接続された外部サーバー114等、情報処理装置115以外の装置から取得をしてもよい。
ここで、図8および図9を用いて、画像データ群を取得した際の表示装置104の表示について説明する。画像データ群を取得すると、その画像データ群に対応するサムネイル群が図8および図9に示すように表示装置104上のUIは、取得した画像データに基づく画像を確認できる表示となる。表示装置104上のUIの表示方法は、画像を確認できるものであれば、特に限定されるものではない。例えば、図8に示すようにUI801に2次記憶装置103内のフォルダ単位で画像のサムネイル802を表示してもよいし、図9に示すようにUI901でカレンダー形式において日付ごとに画像データが管理されていてもよい。図9のUI901では、日付の部分902をクリックすれば、同日に撮影された画像が、図8のUI801のようなサムネイル一覧で表示される。
次に図3のフローチャートにおいて、S302〜S305において、取得した画像データ群それぞれについて、解析処理および解析結果のデータベース登録を行う。
具体的には、S302において、各画像のデコードを行う。まず、画像センシング部203(アプリケーション)が、新規で保存され未だセンシング処理が行われていない画像をサーチし、抽出された各画像について、コーデック部が圧縮データからビットマップデータに変換する。
次に、S303において、変換されたビットマップデータに対して、各種センシング処理を実行してセンシング情報を取得し、データベースに登録する。表1は画像解析した結果得られる属性情報の例である。センシング処理には、表1に示されるような様々な処理を想定する。本実施形態では、センシング処理の例として、顔検出および顔領域の特徴量解析、画像の特徴量解析、シーン解析を行い、それぞれ表1に示すようなデータ型の結果を算出する。本実施形態では、画像基本特徴量としては、平均輝度(int:値0〜255)、平均彩度(int:0〜255)、平均色相(int:値0〜359)を解析した。また、顔検出としては、人物顔の個数(int:値0以上(0〜MAXFACE)、人物顔の位置情報である座標位置(int*8:値0以上(Width及びHeightそれぞれ同様)を解析した。さらに、顔領域内の平均Y(int:値0〜255)、顔領域内の平均Cb(int:値−128〜127)、顔領域内の平均Cr(int:値−128〜127)を解析した。
Figure 0006071289
以下、それぞれのセンシング処理について説明する。
まず画像の基本的な特徴量である全体の平均輝度、平均彩度については、公知の方法で求めればよいため、簡単に説明する。平均輝度については、画像の各画素について、RGB成分を公知の輝度色差成分(例えばYCbCr成分)に変換し、Y成分の平均値を求めればよい。また、平均彩度については、上記CbCr成分について画素毎に以下を算出し、下記Sの平均値を求めればよい。
Figure 0006071289
また、画像内平均色相(AveH)は、画像の色合いを評価するための特徴量である。各画素の色相は、公知のHIS変換式を用いて求めることができ、それらを画像全体で平均化することにより、AveHを求めることができる。
また、上記特徴量は、画像全体で算出してもよいし、例えば、画像を所定サイズの領域に分割し、領域毎に算出してもよい。
次に、人物の顔検出処理について説明する。本実施形態に係る人物の顔検出手法としては、種々の方法を使用することができる。特開2002−183731号公報に記載の方法では、まず入力画像から目領域を検出し、目領域周辺を顔候補領域とする。
検出された顔候補領域に対して、画素毎の輝度勾配、および輝度勾配の重みを算出し、これらの値を、あらかじめ設定されている理想的な顔基準画像の勾配、および勾配の重みと比較する。その時に、各勾配間の平均角度が所定の閾値以下であった場合、入力画像は顔領域を有すると判定する方法が記載されている。
また、特開2003−30667号公報に記載の方法では、まず画像中から肌色領域を検出し、検出された肌色領域内において、人間の虹彩色画素を検出することにより、目の位置を検出することが可能であるとしている。
さらに、特開平8−63597号公報に記載の方法では、複数の顔の形状をしたテンプレートと画像とのマッチング度を計算する。該マッチング度が最も高いテンプレートを選択し、最も高かったマッチング度があらかじめ定められた閾値以上であれば、選択されたテンプレート内の領域を顔候補領域とする。同テンプレートを用いることで、目の位置を検出することが可能であるとしている。
さらに、特開2000−105829号公報に記載の方法では、まず、鼻画像パターンをテンプレートとし、画像全体、あるいは画像中の指定された領域を走査し最もマッチする位置を鼻の位置として出力する。次に、画像の鼻の位置よりも上の領域を目が存在する領域と考え、目画像パターンをテンプレートとして目存在領域を走査してマッチングをとり、ある閾値よりもマッチ度が大きい画素の集合である目存在候補位置集合を求める。さらに、目存在候補位置集合に含まれる連続した領域をクラスタとして分割し、各クラスタと鼻位置との距離を算出する。その距離が最も短くなるクラスタを目が存在するクラスタと決定することで、器官位置の検出が可能であるとしている。
顔検出処理の方法として、その他、例えば、以下に示す顔および器官位置を検出する方法を用いてもよい。例えば、特開平8−77334号公報、特開2001−216515号公報、特開平5−197793号公報、特開平11−53525号公報、特開2000−132688号公報、特開2000−235648号公報、特開平11−250267号公報が挙げられる。さらには特登録2541688号公報が挙げられる。
上記処理の結果、各入力画像について、人物顔の個数と各顔毎の座標位置を取得することができる。
また、画像中の顔座標位置が分かれば、該顔領域毎に顔領域内に含まれる画素値の平均YCbCr値を求めることにより、該顔領域の平均輝度および平均色差を得ることができる。
また、画像の特徴量を用いてシーン解析処理を行うことができる。シーン解析処理については、例えば、特開2010−251999号公報や特開2010−273144号公報等で開示されている技術を利用してもよい。なお、ここでは両者の詳細説明は割愛する。上記シーン解析の結果、風景(Landscape)、夜景(Nightscape)、人物(Portrait)、露出不足(Underexposure)、その他(Others)、という撮影シーンを区別するためのIDを取得することができる。
なお、センシング情報は、上記のセンシング処理により取得されるものに限定されるものではなく、例えば、その他のセンシング情報を利用してもよい。
上記のようにして取得したセンシング情報が、データベース部202に保存される。データベース部202への保存形式は特に限定されないが、例えば図10に示すような汎用的なフォーマット(例えば、XML:eXtensible Markup Language)で記述し、格納する。
図10においては、画像毎の属性情報を、3つのカテゴリに分けて記述する例を示している。1番目のBaseInfoタグは、画像サイズや撮影時情報として、あらかじめ取得した画像ファイルに付加されている情報である。ここには、画像毎の識別子IDや、画像ファイルが格納されている保存場所、画像サイズ、撮影日時などが含まれる。
次に2番目のSensInfoタグは、上述した画像解析処理の結果を格納するためのタグである。画像全体の平均輝度、平均彩度、平均色相やシーン解析結果が格納され、さらに、画像中に存在する人物の顔位置や顔色に関する情報が記述可能である。
次に3番目のUserInfoタグは、ユーザが画像毎に入力した情報を格納することができるが、詳細については後述する。
なお、画像属性情報のデータベース格納方法については、上記に限定されるものではない。その他公知のどのような形式であっても構わない。
次に、図3のS306において、個人認識処理を用いた人物グルーピングを行う。ここでは、S303で検出された顔位置情報を用いて、人物毎のグループを生成する処理を行う。あらかじめ人物の顔を自動でグループ化しておくことにより、その後ユーザが各人物に対して名前を付けていく作業を効率化することが可能となる。
ここでの人物グループ生成処理は、公知の個人認識技術を用いて、図5に示す処理フローに従って実行される。
なお、個人認識技術は、主に顔の中に存在する眼や口といった器官の特徴量抽出と、それらの関係性の類似度の比較、という二つの技術で構成される。その技術については、例えば特許第3469031号公報等で開示されている記述を用いることができる。なお、上記の個人認識技術は一例であって、本実施形態においては、そのいかなる手法を用いても構わない。
図5は、検出した顔位置情報に基づいて、同じ人物と思われる顔情報をグループ化するための処理の流れを示している。図5は人物グループ生成処理(図3のS306もしくは図4のS405)に対応するフローチャートである。
まず、S501で、2次記憶装置103に保存されている画像を順次読みだしてデコード処理を行う。デコード処理はS302と同様であるので説明を省略する。さらにS502でデータベースS503にアクセスし、該画像中に含まれる顔の個数と顔の位置情報を取得する。次に、S504において、個人認識処理を行うための正規化顔画像を生成する。
ここで正規化顔画像とは、画像内に様々な大きさ、向き、解像度で存在する顔を切り出して、すべて所定の大きさと向きになるよう、変換して切り出した顔画像のことである。個人認識を行うためには、眼や口といった器官の位置が重要となるため、正規化顔画像のサイズは、上記器官が確実に認識できる程度であることが望ましい。このように正規化顔画像を用意することにより、特徴量検出処理において、様々な解像度の顔に対応する必要がなくなるという利点がある。
次に、S505で、正規化顔画像から顔特徴量を算出する。ここでの顔特徴量とは眼や口、鼻といった器官の位置、大きさや、さらには顔の輪郭などを含むことを特徴とする。
さらに、S506で、あらかじめ人物の識別子(ID)毎に用意されている顔特徴量を格納したデータベース(以降、顔辞書507と呼ぶ)の顔特徴量と類似しているか否かの判定を行う。なお、この顔辞書の詳細については後述する。S506の判定がYesの場合、S509において同じ人物として、同じ人物の辞書IDに、追加する。
S506の判定がNoの場合、現在評価対象となっている顔は、これまで顔辞書に登録された人物とは異なる人物であるとして、新規人物IDを発行して顔辞書507に追加する。S510において、処理対象の画像データ中に、他の顔領域があるか否かを判定する。他の顔領域がある場合(S510でYES)、S502に戻る。一方、他の顔領域がない場合(S510でNO)、S511に進む。
S511において、全ての画像についてS502〜509の処理が終了したか否かを判定する。全ての画像について処理が終了した場合は、処理を終了し、全ての画像について処理が終了していない場合は、S502へ戻る。つまりS502〜S509までの処理を、入力画像群の中から検出した顔領域全てに適用して、登場した人物のグループ化を行う。
グループ化の結果は、図14のXMLフォーマットで示すように、顔領域毎にIDタグを用いて記述し、上述したデータベースS304に保存しておく。
なお、上記実施形態においては、図3に示したように、全ての画像のセンシング処理及びデータベースの登録が終了した後に人物グループ生成処理を実行したが、本実施形態ではこれに限定するものではない。例えば、図4に示すように、S403におけるセンシング処理、データベースへの登録、S405におけるグループ化処理を各画像に対して繰り返し行ったとしても、同様の結果を生成することができる。
また、上記の処理によって得られた各人物グループは、表示装置104のUIに表示される。本実施形態に係る各人物グループの表示を図7に示す。図7のようなUI701において、702は人物グループの代表顔画像を表しており、その横には、該人物グループの名前を表示する領域703が存在する。自動の人物グループ化処理を終了した直後は、図7に示すように人物名は「No name」と表示されている。また、704は該人物グループに含まれる複数の顔画像が表示されている。後述するが、図7のUI701において、ユーザは、入力装置105を操作することにより「No name」の領域703を指定して人物名を入力したり、人物毎に誕生日や続柄等の情報を入力したりすることができる。
また、上記のセンシング処理は、オペレーティングシステムのバックグラウンドタスクを利用して実行しても良い。この場合、ユーザが情報処理装置115上で別の作業を行っていたとしても、画像群のセンシング処理を継続させることができる。
本実施形態においては、ユーザが手動で画像に関する様々な属性情報を入力することも想定してもよく、自動で画像に関する様々な属性情報を設定するようにしてもよい。
その属性情報の例の一覧を、表2に記載する。手動又は児童によって登録される属性情報は大きく分けると、画像毎に設定するものと、上記処理によりグループ処理された人物に対して設定される情報に分けられる。
Figure 0006071289
まず、画像毎に設定される情報として、ユーザの「お気に入り度」が挙げられる。お気に入り度は、例えば、その画像を気に入っているかどうかを、ユーザが手動で入力することができる。例えば図11示すように、UI1301上で、所望のサムネイル画像1302をマウスポインタ1303で選択し、右クリックをすることでお気に入り度を入力できるダイアログを表示する。ユーザはメニューの中で自分の好みに応じて、★の数を選択することができる。本実施形態では、お気に入り度が高いほど★の数が多くなるよう設定した。
また、上記お気に入り度は、ユーザが手動で設定せずに、自動で設定するようにしてもよい。例えば、ユーザが閲覧した回数をお気に入り度として自動設定してもよい。ユーザが図8に示す画像サムネイル一覧表示の状態から、所望の画像ファイルをクリックし、1画像表示画面に遷移したとする。その遷移した回数を計測して、計測された回数に応じてお気に入り度を設定する。すなわち、閲覧した回数が多いほど、ユーザが該画像を気に入っていると判断する。
また他の例として、プリント回数に応じてお気に入り度を自動設定してもよい。具体的には、例えばユーザによる画像に対するプリント指示があった回数をプリント回数として計測する。このプリント回数が多い画像ほど、ユーザによるお気に入り度が高いと判断する。
以上で説明したように、お気に入り度については、ユーザが手動で設定する方法や、閲覧回数やプリント回数に基づいてお気に入り度を自動設定する方法などが挙げられる。上述したような属性情報は、それぞれ個別に、図10で示すようなXMLフォーマットで、データベース部202のUserInfoタグ内に格納される。例えば、お気に入り度はFavoriteRateタグで、閲覧回数はViewingTimesタグで、プリント回数はPrintingTimesタグでそれぞれ表わされる。
また、マウスなどのUIを用い、ユーザが手動で不要領域を指定した場合、Unnecessaryタグ内にそれらの座標情報などが格納される。
また、画像毎に設定する別の属性情報として、イベント情報が挙げられる。イベント情報としては、例えば、家族旅行“travel”、卒業式“graduation”、結婚式“wedding”等がある。
イベントの指定は、例えば、図12で示すように、カレンダー上で所望の日付をマウスポインタ1402などで指定して、その日のイベント名を入力することで設定できるようにしてもよい。指定されたイベント名は、画像の属性情報の一部として、図10示すXMLフォーマットに含まれることになる。図10のフォーマットでは、UserInfoタグ内のEventタグを使って、イベント名と画像を関連付けている(紐付けている)。
次に、図13を用いて人物の属性情報について説明する。
図13は、人物の属性情報を入力するためのUIを示している。図13において、1502は所定人物(この場合は“father”)の代表顔画像を示している。また、1504には、他の画像の中から検出し、S506で顔特徴量が類似していると判断された画像の一覧が表示されている。
センシング処理が終了した直後は、図7に示したように各人物グループには名前が入力されていないが、ユーザが「No name」の領域703をマウスポインタで指示する。そして、ユーザがキーボード等を操作して人物名を入力することにより、任意の人物名を入力することができる。
また、人物毎の属性として、それぞれの人物の誕生日やアプリを操作しているユーザから見た続柄を設定することもできる。本実施形態では、図13の人物の代表顔1502をクリックすると、画面下部に図示するように、ユーザはクリックした人物の誕生日を第1入力部1505で、続柄情報を第2入力部1506で入力することができる。
以上、入力された人物の属性情報は、これまでの画像に紐付けられた画像の属性情報とは異なり、図14のようなXMLフォーマットによって、画像の属性情報とは別にデータベース部202内で管理される。
本実施形態においては、あらかじめ様々なレイアウトテンプレートが用意されていることを想定する。レイアウトテンプレートとは図15および図17に示すようなもので、レイアウトする用紙サイズ上に、複数の画像配置枠1702、1703、1704、1902(以降、スロットと同義)で構成されている。
このようなテンプレートは、あらかじめ本実施形態を実行するためのソフトウェアが情報処理装置115にインストールされた時点で、2次記憶装置に保存しておけばよい。また、その他の方法として、IF107や無線LAN I/F109を介して接続されたインターネット113上に存在する外部サーバー114から、任意のテンプレート群を取得してもよい。
これらのテンプレートは汎用性の高い構造化言語、例えば上述したセンシング結果の格納と同様にXMLで記載されているものとする。XMLデータの例を図16および図18に示す。これらの図では、まずBASICタグにおいて、レイアウトページの基本的な情報を記述する。基本的な情報としては、例えば該レイアウトのテーマやページサイズ、およびページの解像度(dpi)等が挙げられる。図16や図18において、テンプレートの初期状態では、レイアウトテーマであるThemeタグはブランクとなっている。本実施形態では、基本情報として、ページサイズはA4、解像度は300dpiを設定している。
また、以降は、上述した画像配置枠の情報をImageSlotタグで記述している。ImageSlotタグの中にはIDタグとPOSITIONタグの2つを保持し、画像配置枠のIDと位置を記述してある。該位置情報については、図15や図17で図示するように、例えば左上を原点とするX−Y座標系において定義する。
また、ImageSlotタグは、その他にそれぞれのスロットに対して、スロットの形状および配置すべき推奨人物グループ名を設定することができる。例えば、図15のテンプレートにおいては、図16のShapeタグで示すように、すべてのスロットは矩形“rectangle”形状で、人物グループ名はPersonGroupタグによって“MainGroup”を配置することを推奨している。
また、図17のテンプレートにおいては、図18に示すように、中央に配置しているID=0のスロットは矩形形状であることが記載されている。また、人物グループは“SubGroup”を配置し、その他のID=1,2と続くスロットは楕円“ellipse”形状で、人物グループは“MainGroup”を配置することを推奨している。
本実施形態においては、このようなテンプレートを多数保持するものとする。
上記のように、本実施形態に係るアプリケーションは、入力された画像群に対して解析処理を実行し、人物を自動的にグループ化してUIで表示することができる。また、ユーザはその結果を見て、人物グループ毎に名前や誕生日などの属性情報を入力したり、画像毎にお気に入り度などを設定したりすることができる。
さらにはテーマごとに分類された多数のレイアウトテンプレートを保持することができる。
以上の条件を満たすと、本実施形態に係るアプリケーションは、ある所定のタイミングに、自動的にユーザに好まれそうなコラージュレイアウトを生成し、ユーザに提示する処理を行う(以下、レイアウトの提案処理とする)。
図6は、画像の解析情報およびユーザが入力した様々な情報に基づいて、レイアウト作成のためのシナリオを決定し、該シナリオに基づいて、自動でレイアウトを生成するための処理の流れを示している。まずS601において、提案処理のシナリオを決定する。シナリオには、提案するレイアウトのテーマおよびテンプレートの決定、およびレイアウト内で重視する人物(主人公)の設定、並びにレイアウト生成に用いる画像群の選定情報が含まれる。
以下では、2つのシナリオ決定について説明する。
例えば、図13で自動グループ化されている人物“son”の2週間前になった場合、自動的にコラージュレイアウトを生成し提示するように予め設定されているものとする。そして、“son”の1歳の誕生日の2週間前になったときに、テーマの決定、テンプレートの選択、画像の選定が行われる。”son“の1歳の誕生部では、提案するレイアウトのテーマは成長記録“growth”と決定する。次にテンプレートの選択を行うが、この場合には成長記録に適した図17のようなものを選択し、図26に示すように、XMLのThemeタグの部分に“growth”と記載する。次にレイアウトを行う際に注目する主人公“MainGroup”として、“son”を設定する。また、レイアウトを行う際に副次的に注目する“SubGroup”として“son”と“father”を設定する。次に、レイアウトに利用するための画像群を選定する。この例の場合には、データベース602を参照し、上記人物“son”の誕生日からこれまでに撮影した画像群のうち、“son”を含む画像群を大量に抽出してリスト化する。以上が、成長記録レイアウトのためのシナリオ決定である。
上記とは異なる例として、1ヶ月以内に撮影された旅行の写真がある場合、自動的にコラージュレイアウトを生成して提示するように予め設定されているものとする。図12で登録したイベント情報から、例えば数日前に家族旅行に行きその画像が大量に2次記憶装置103に保存されていることがわかると、レイアウト生成部205は、家族旅行のレイアウトを提案するためのシナリオを決定する。この場合には、提案するレイアウトのテーマは旅行“travel”と決定する。次にテンプレートの選択を行うが、この場合には図15のようなテンプレートを選択し、図27に示すように、XMLのThemeタグの部分に“travel”と記載する。次にレイアウトを行う際に注目する主人公“MainGroup”として、“son”、“mother”、“father”を設定する。このように、XMLの特性を活かせば、“MainGroup”として複数の人物を設定することができる。次に、レイアウトに利用するための画像群を選定する。この例の場合には、データベース602を参照し、上記旅行イベントに紐付けられた画像群を大量に抽出してリスト化する。以上が、家族旅行レイアウトのためのシナリオ決定である。
次に、図6のS603において、上述したシナリオに基づくレイアウトの自動生成処理を実行する。ここで、図19を用いて、シナリオに基づくレイアウトの自動生成処理について説明する。図19はレイアウト生成部205の詳細な処理フローを示している。
図19では、まずS2101で、上述したシナリオ生成処理で決定されたレイアウトテーマと人物グループ情報が設定された後のレイアウトテンプレート情報を、S2102より取得する。
次に、S2103において、シナリオで決定した画像群リストS2106に基づいて、画像毎に該画像の特徴量をデータベースS2104から取得し、画像群属性情報リストを生成する。ここでいう画像群属性情報リストとは、図10に示したIMAGEINFOタグが画像リストの分だけ並んだ構成となっている。以降ではこの画像属性情報リストに基づいて、S2105〜S2109における自動レイアウト生成処理を行う。
このように、本実施形態の自動レイアウト生成処理では、このように画像データそのものを直接扱うのではなく、あらかじめ画像毎にセンシング処理を行ってデータベース保存しておいた属性情報を利用する。この理由は、レイアウト生成処理を行う際に、画像データそのものを対象としてしまうと、画像群を記憶するために非常に巨大なメモリ領域を必要としてしまうためである。即ち、本実施形態のようにデータベース部202に記憶しておいた属性情報を利用することにより、メモリ領域の使用量を低減することができる。
次に、S2105において、入力された画像群の属性情報を用いて、入力された画像群の中から不要画像のフィルタリングを行う。ここで、図20を用いて、フィルタリング処理について説明する。図20は、フィルタリング処理のフローチャートである。同図では、各画像毎に、まずS2201で全体の平均輝度がある閾値(ThY_LowとThY_Hight)内に含まれているかの判定を行う。否の場合にはS2206に進み、注目画像はレイアウト対象から除去する。
同様に、S2202〜S2205では、注目画像に含まれる顔領域それぞれについて、平均輝度、平均色差成分が、良好な肌色領域を示す所定閾値に含まれているかの判定を行う。S2202〜S2205のすべての判定がYesとなる画像のみ、以降のレイアウト生成処理に適用される。
具体的には、S2202では、ID=Nである顔領域のAveYが所定閾値(ThfY_LowとThfY_Hight)の範囲に含まれているか否かの判定を行う。S2203では、ID=Nである顔領域のAveChが所定閾値(ThfY_LowとThfY_Hight)の範囲に含まれているか否かの判定を行う。S2204では、ID=Nである顔領域のAveCrが所定閾値(ThfY_LowとThfY_Hight)の範囲に含まれているか否かの判定を行う。S2205では、最後の顔であるか否かを判定する。最後の顔ではない場合は、S2202へ戻り、最後の顔である場合は、処理を終了する。
なお、このフィルタリング処理では、以降の一時レイアウト作成処理に明らかに不要と判断できる画像の除去を目的としているため、上記閾値は比較的湯緩やかに設定することが望ましい。例えばS2201の画像全体の輝度値の判定において、ThY_HighとThY_Lowの差が画像ダイナミックレンジに比して極端に小さいと、各判定にてYesと判定される画像が少なくなってしまう。従って、本実施形態のフィルタリング処理ではそうならないよう、両者の差をできる限り広く設定し、かつ明らかに異常画像と判断されるものは除去できるような閾値を設定する。
次に図19のS2107において、上記処理でレイアウト対象となった画像群を用いて、大量(L個)の一時レイアウトを生成する。一時レイアウトは、取得したテンプレートの画像配置枠に対して、入力画像を任意に当てはめる処理を繰り返すことで実行する。
入力画像をテンプレートの画像配置枠に当てはめるにあたり、レイアウト中の画像配置枠がN個の時、画像群の中からどの画像を選択するかランダムに決定する。また、選択した複数の画像を、どの配置枠に配置するかランダムに決定する。さらに、画像が配置された際に、どの程度のトリミング処理を行うかというトリミング率をランダムに決定する。
なお、トリミング率は例えば0〜100%で表わされ、図21のようにトリミングされる。同図において、2301は画像全体を示し、2302はトリミング率50%でトリミングした際の切り取り領域を示している。つまり、2302は出力される出力領域となる。
本実施形態では、上記の画像選択・配置・トリミング基準に基づいて、可能な限り数多くの一時レイアウトを生成する。尚、選択されたテーマによっては、一時レイアウト作成の時点で画像内の注目領域がなるべく全て入るようなトリミングを行うといった条件を課しても良い。こうする事でより良いレイアウトが生まれやすくなる。生成した各一時レイアウトは、図28のXMLのように表わすことができる。各スロットに対して、選択され配置された画像のIDがImageIDタグで、トリミング領域がTrimingCropタグでそれぞれ記述されている。
なお、ここで生成する一時レイアウトの数Lについては、後述するレイアウト評価ステップでの評価処理の処理量と、それを処理する情報処理装置115の性能に応じて決定されるが、例えば数十万通り以上の一時レイアウトを用意することが望ましい。生成したレイアウトは、それぞれIDを付加して図28のXML形式で2次記憶装置103にファイル保存してもよいし、構造体など別のデータ構造を用いてRAM102上に記憶してもよい。
次に、図19のS2108において、上記で作成したL個の一時レイアウトに対して、それぞれ所定のレイアウト評価量を用いて評価を行う。本実施形態におけるレイアウト評価量の一覧を、表3に示す。表3に示すように、本実施形態で用いるレイアウト評価量は、主に3つのカテゴリに分けることができる。
Figure 0006071289
一つめのカテゴリは、画像個別の評価量である。これは画像の明るさや彩度、ブレぼけ量等の状態を判定し、スコア化するものである。スコア化の一例を以下に示す。まず明るさの適正度については、図22に示す。図22のグラフにおいて、縦軸をスコア値(score)、横軸を平均輝度(Ave Y)とする。図22において、平均輝度がある所定レンジ範囲内においてはスコア値100とし、所定閾値範囲外となるとスコア値を100から下げるよう設定している。また、彩度の適正度については、図23に示す。図23のグラフにおいて、縦軸をスコア値(score)、横軸を平均彩度(Ave Y)とする。図23において、画像全体の平均彩度がある所定の彩度値より大きい場合にはスコア値100とし、所定値より小さい場合にはスコア値を除所に下げていくよう設定している。
二つ目の評価カテゴリは、画像とテンプレート中のスロットの適合度の評価(画像・スロット適合度評価)である。これは、画像とスロットの適合の程度をスコア化するものである。
本実施形態においては、上述した不要領域存在評価により、画像とスロットの適合度評価値を算出する。即ち、テンプレートにおける配置枠(スロット)に配置された画像において、画像における注目領域の一部が、レイアウトにおける配置枠の外にはみ出し、その注目領域の一部が配置枠に含まれるか判定し、その判定結果により、画像とスロットの適合度を評価する。具体的には、注目領域の一部がはみ出しているときの適合度を、注目領域の全部が配置枠からはみ出している場合、また注目領域の全部が配置枠に含まれる場合よりも高い評価とする。
また別の画像・スロット適合度評価値として、人物適合度がある。人物適合度とは、スロットに指定されている人物と、実際に該スロットに配置された画像内に存在する人物の適合率を表したものである。例を挙げると、あるスロットが、XMLで指定されているPersonGroupタグで、“father”、“son”が指定されているものとする。この時、該スロットに割り当てられた画像に該2人の人物が写っていたとすると、該スロットの人物適合度はスコア値100とする。もし片方の人物しか写っていなかったとすると、適合度はスコア値50とする。両者とも写っていなかった場合は、スコア値0になる。つまり、指定された注目領域(人物)がスロットに存在するようなトリミングが高い評価となり、そのようなトリミングは優先的に採用される。
ページ内の適合度は、スロット毎に算出した適合度の平均値とする。
三つめの評価カテゴリは、レイアウトページ内のバランスを評価するものである。表3ではバランスを評価するための評価値をいくつか提示している。
まず、画像類似性について説明する。画像の類似性は、大量に生成した一時レイアウト毎に、それぞれの画像の類似性を算出する。例えば旅行テーマのレイアウトを作成したい場合、あまりに似通った類似度の高い画像ばかりが並んでいたとすると、それは良いレイアウトとは言えないことがある。例えば、類似性は、撮影日時によって評価することができる。撮影日時が近い画像は、同じような場所で撮影された可能性が高いが、撮影日時が離れていれば、その分、場所もシーンも異なる可能性が高いからである。
撮影日時は、図10で示したように、画像の属性情報として、予めデータベース部202に保存されている、画像毎の属性情報から取得することができる。撮影日時から類似度を求めるには以下のような計算を行う。
Figure 0006071289
例えば、今注目している一時レイアウトに表4で示すような4つの画像がレイアウトされているものとする。なお、表4において、画像IDで特定される画像には、それぞれ撮影日時情報が付加されている。具体的には、撮影日時として、年月日及び時間(西暦:YYYY、月:MM、日:DD、時:HH、分:MM、秒:SS)が付加されている。このとき、この4つの画像間で、撮影時間間隔が最も短くなる値を算出する。この場合は、画像ID102と画像ID108間の30分が最も短い間隔である。この間隔をMinIntervalとし、秒単位で格納する。すわなち、30分=1800秒である。このMinIntervalをL個の一時レイアウト毎に算出して配列stMinInterval[l]に格納する。次に、該stMinInterval[l]の中で最大値MaxMinInterval値を求める。すると、l番目の一時レイアウトの類似度評価値Similarity[l]は以下のようにして求めることができる。
Similarity[l] = 100×stMinInterval[l] / MaxMinInterval
すなわち、Similarity[l]の値は、最小撮影時間間隔が大きいほど100に近づき、小さいほど0に近づく値となり、画像類似度評価値として有効である。
次に、レイアウトページ内のバランスを評価するための評価量として、色合いのバラつきについて説明する。例えば旅行テーマのレイアウトを作成したい場合、あまりに似通った色(例えば、青空の青、山の緑)の画像ばかりが並んでいたとすると、それは良いレイアウトとは言えないことがある。したがって、ここでは注目しているl番目の一時レイアウト内に存在する画像の平均色相AveHの分散を算出して、それを色合いのバラつき度tmpColorVariance[l]として格納する。次に、該tmpColorVariance[l]の中での最大値MaxColorVarianceを求める。すると、l番目の一時レイアウトの色合いバラつき度の評価値ColorVariance[l]は以下のようにして求めることができる。
ColorVariance[l] = 100 × tmpColorVariance[l] / MaxColorVariance
すなわち、ColorVariance[l]の値は、ページ内に配置された画像の平均色相のバラつきが大きいほど100に近づき、小さいほど0に近づく値となり、色合いのばらつき度評価値として有効である。
次に、レイアウトページ内のバランスを評価するための評価量として、顔の大きさのバラつき度について説明する。例えば旅行テーマのレイアウトを作成したい場合、レイアウト結果を見て、あまりに似通った顔のサイズの画像ばかりが並んでいたとすると、それは良いレイアウトとは言えないことがある。レイアウト後の紙面上における顔の大きさが、小さいものもあれば大きいものもあり、それらがバランスよく配置されていることが、良いレイアウトとする場合、顔サイズのばらつきが大きくなるように設定する。その場合、注目しているl番目の一時レイアウト内に配置された後の顔の大きさ(顔位置の左上から右下までの対角線の距離)の分散値を、tmpFaceVariance[l]として格納する。次に、該tmpFaceVariance[l]の中での最大値MaxFaceVariance値を求める。すると、l番目の一時レイアウトの顔サイズバラつき度の評価値FaceVariance[l]は、以下のようにして求めることができる。
FaceVariance[l] = 100 × tmpFaceVariance[l] / MaxFaceVariance
すなわち、FaceVariance[l]の値は、紙面上に配置された顔サイズのバラつきが大きいほど100に近づき、小さいほど0に近づく値となり、顔サイズのバラつき度評価値として有効である。
またその他カテゴリとして、ユーザの嗜好性評価が考えられる。
以上説明したような、各一時レイアウト毎に算出した複数の評価値を、以下では統合化して、各一時レイアウト毎のレイアウト評価値とする。今、l番目の一時レイアウトの統合評価値を、EvalLayout[l]とし、上記で算出したN個の評価値(表3の評価値それぞれを含む)の値を、EvalValue[n]とする。この時、統合評価値は以下で求めることができる。
Figure 0006071289
上式において、W[n]は、表3で示したシーン毎の各評価値の重みである。該重みはレイアウトのテーマ毎に異なる重みを設定していることが特徴となっている。例えば、表3に示すようにテーマを成長記録“growth”と旅行“travel”で比較した場合、旅行テーマの方は、できるだけ良質の写真をいろいろな場面で数多くレイアウトする。そのため、画像の個別評価値やページ内のバランス評価値を重視するように設定する。一方、成長記録“growth”の場合、画像のバリエーションよりは、成長記録の対象となる主人公が確実にスロットに適合しているか否かが重要であるとし、ページ内バランスや画像個別評価よりも、画像・スロット適合度評価を重視するように設定する。
ここで、表3に示すように不要領域存在評価の重みを高く設定する事により、邪魔なオブジェクトが少ないレイアウトが優先されることになる。別の例として、不要領域存在評価の重みのみ1.0などの値を持ち、他の項目の重みをすべて0にすれば、不要領域存在評価のみに特化したレイアウト結果が得られる。
このようにして算出したEvalLayout[l]を用いて、S2109では、レイアウト結果表示のためのレイアウトリストLayoutList[k]を生成する。レイアウトリストは、予め定められた個数(例えば5個)に対して、EvalLayout[l]のうち、評価値が高いもの順に識別子lを記憶しておく。例えば最も良いスコアを出したものが、l=50番目に作成した一時レイアウトであった場合、LayoutList[0]=50となる。同様に、LayoutList[1]以降は、スコア値が2番目以降の識別子lを記憶しておく。
以上が、図19のフローチャートの説明である。
次に、図19を用いて説明した上記処理によって得られたレイアウト結果を、図6のS605において表示させる。本実施形態では、図25のUI2901上に表示させる。S605では、まずLayoutList[0]に格納されているレイアウト識別子を読み出し、該識別子に相当する一時レイアウト結果を、2次記憶装置103あるいはRAM102上から読み出す。レイアウト結果には、上述したようにテンプレート情報と該テンプレート内に存在するスロット毎に、割り当てられた画像名およびトリミングの情報が設定されている。S605ではこれらの情報に基づいて、情報処理装置115上で動作するOSの描画関数を用いて、該レイアウト結果をレンダリングし、図25のレイアウト2902のように表示することになる。
図25のNextボタン2904を押下することにより、次点スコアであるLayoutList[1]の識別子を読み出し、上記と同様にレンダリング後、表示を行うことで、ユーザは様々なバリエーションの提案レイアウトを閲覧することができる。また、Previousボタン2903を押下することにより、前に表示したレイアウトを再表示することもできる。さらに、表示されたレイアウトが気に入った場合には、プリントボタン2905を押下することで、情報処理装置115に接続されたプリンタ112からレイアウト2902をプリントアウトすることもできる。
以上のように、本実施形態によれば、不要な領域が出力対象の領域(表示、印刷等の出力処理により可視化される領域)に含まれないように、出力対象の領域を決定する。具体的には、顔領域等の注目領域を特定し、その注目領域を出力対象の領域に含ませるか判定する。例えば、顔領域に対応する人物が、ユーザにより登録された人物であるか判定する。そして、注目領域を出力対象の領域に含ませないと判定された場合(当該注目領域を不要と判定した場合)、当該注目領域を含まない出力対象の領域を決定することができる。これにより、例えば特定の人物の顔領域が出力対象の領域に含まれ、その特定の人物でない顔領域を出力対象の領域から除外して、出力対象の領域を決定することができる。
また、たとえ顔として特定された領域に対応する人物が、ユーザによる登録されていない人物であっても、画像における領域の位置や大きさにより、出力対象の領域に含ませることができる。例えば、ユーザ登録されている人物の顔領域の近い顔領域が特定された場合、その顔領域を出力対象とする。よって、例えばユーザ登録されている人物の隣で撮影された人物の顔を、出力対象とすることができる。
<第2の実施形態>
上述の第1の実施形態では大量の一時レイアウトを作成した後にレイアウト評価の一部として不要領域存在評価を行ったが、本実施形態では、レイアウトを作成するときに、注目領域が切れないようにレイアウトを作成する。具体的には、テンプレートに配置される配置候補の画像に対して多数のトリミング領域の候補を設定し、上述した不要領域存在評価を行う。このトリミング領域はスロットと同じアスペクト比であり、種々のサイズの候補を設定する。本実施形態では、小さい面積から設定し、画像左上の座標から該トリミング領域を設定して不要領域存在評価を行う。設定されたトリミング領域の候補に対する不要領域存在評価が予め定めた閾値より高ければ一時レイアウトの候補とする。トリミング領域を左上の座標から右へ1画素ずつ進め、最右座標まで評価したら次は左上から1画素下へずらし、また右方向へ進めて評価して行く。このように画像の全領域で評価を行ったら次はトリミング領域の面積を大きくして同様な評価を行う。
このようにして不要領域存在評価を行い、閾値以上であった候補のトリミングの中からレイアウトを作成しても、スロット内に不要なオブジェクトが表示されるトリミングが発生しにくくなる。
<第3の実施形態>
上述の第1の実施形態ではトリミングによって不要領域が画像配置領域に存在しない事を優先していた。本実施形態では、不要領域が画像配置領域に存在するか否かを判別し、存在する場合はそれを記憶しておく。尚、判定の方法は第1の実施形態と同様に行えば良い。
レンダリング部206で該画像の不要領域に対し、公知のぼかし処理、フレーム内補間処理、フレーム間補間処理などの画像加工処理を行い、画像から不要領域のオブジェクトを削除あるいは目立たなくする。ぼかし処理の例としてはガウシアンフィルタによる畳み込みを行えば良い。フレーム内補間とは、不要領域がなかった場合はどのようになっているかを推定し、画像内の不要領域外の画素を用いて不要領域を消す事を指す。フレーム間補間とは、連続撮影や動画など、時間的に近い撮影画像を他に持つ場合に用いられる技術であり、対象画像の不要領域のオブジェクトがない場合を時間的に近い画像の画素で置き換える事により不要領域のオブジェクトを削除する事を指す。
以上により、不要領域のオブジェクトが目立たなくなり、悪印象な画像が発生しにくくなる。
<その他の実施形態>
以上説明した実施形態は本発明の効果を得るための一手段であり、類似の別手法を用いたり、異なるパラメータを用いたとしても、本発明と同等の効果が得られる場合は、本発明の範疇に含まれる。
また、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタ等)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、プリンタ、複写機、ファクシミリ装置等)に適用しても良い。
また、本発明の目的は、以下によっても達成できる。まず、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給する。次に、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行すればよい。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけではない。例えば、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。さらに、プログラムを実行するコンピュータ(プロセッサ)は1つに限らず、複数のコンピュータが協働して、以上の実施形態の処理を実行してもよい。
さらに、まず、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、該プログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。

Claims (22)

  1. 画像群内の画像に含まれている人物の顔領域を検出することで、複数の顔領域において類似する特徴量に対応する、同一人物に対応するグループを生成する生成手段と、
    前記生成手段により生成されたグループを登録する登録手段と、
    出力対象の候補である画像から顔領域を特定する特定手段と、
    前記特定手段により特定された顔領域を前記画像における出力対象の領域に含めるかについて、当該顔領域に対応するグループが前記登録手段により登録されているか否かに基づく判定を行う判定手段と、
    前記判定手段による判定結果に基づいて、前記画像における出力対象の領域を決定する決定手段と、
    を備え、
    前記決定手段は、少なくとも、前記特定手段により特定された顔領域に対応するグループが前記登録手段により登録されていない場合、当該顔領域を含まない領域を優先して前記出力対象の領域を決定することを特徴とする画像処理装置。
  2. 画像群内に画像に含まれている人物の顔領域を検出することで、複数の顔領域において類似する特徴量に対応する、同一人物に対応するグループを生成する生成手段と、
    前記生成手段により生成されたグループを登録する登録手段と、
    出力対象の候補である画像から顔領域を特定する特定手段と、
    前記特定手段により特定された顔領域を前記画像における出力対象の領域に含めるかについて、当該顔領域に対応するグループが前記登録手段により登録されているか否かに基づく判定を行う判定手段と、
    前記判定手段による判定結果に基づいて、前記画像における出力対象の領域の複数の候補から、前記出力対象の領域を決定する決定手段と、
    を備え、
    前記決定手段は、少なくとも、前記特定手段により特定された顔領域に対応するグループが前記登録手段により登録されていない場合、当該顔領域を含む候補よりも当該顔領域を含まない候補を優先して、前記出力対象の領域を決定することを特徴とする画像処理装置。
  3. 前記登録手段は、前記グループに対応する前記特徴量を登録することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記登録手段は、前記生成手段により生成されたグループに対するユーザによる所定の入力に応じて、前記グループを登録することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記所定の入力は、前記人物の人物名と続柄と属性のうちの少なくとも1つの入力であることを特徴とする請求項に記載の画像処理装置。
  6. 前記判定手段は、前記画像において前記特定手段により特定された顔領域が前記登録手段により登録されているグループに対応する人物に対応する場合、当該顔領域を当該画像における出力対象の領域に含めると判定し、当該顔領域が前記登録手段により登録されているグループに対応する人物に対応しない場合、当該顔領域を当該画像における出力対象の領域に含めないと判定することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  7. 前記判定手段は更に、前記特定手段により特定された顔領域に対応し且つ前記生成手段により生成されたグループに対応する人物が、前記画像群において顔領域として検出された頻度に基づく判定を行うことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  8. 前記特定手段により特定された顔領域に対応する人物に対応するグループが前記登録手段により登録されていなくても、前記人物の前記頻度が高い場合には、前記判定手段は、前記顔領域を前記出力対象の領域に含むように判定を行うことを特徴とする請求項に記載の画像処理装置。
  9. 前記判定手段は更に、前記登録手段により登録されているグループに対応する人物に対応する顔領域の大きさに対する、前記特定手段により特定された前記顔領域の大きさに基づいて、前記判定を行うことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  10. 画像群内の画像に含まれている人物の顔領域を検出することで、複数の顔領域において類似する特徴量を含む、同一人物に対応するグループを生成する生成手段と、
    出力対象の候補である画像から顔領域を特定する特定手段と、
    前記特定手段により特定された前記顔領域を前記画像における出力対象の領域に含めるかについて、前記生成手段により生成されたグループに対応し且つ前記特定手段により特定された顔領域に対応する人物が前記画像群において顔領域として検出された頻度に基づく判定を行う判定手段と、
    前記判定手段による判定結果に基づいて、前記画像における出力対象の領域を決定する決定手段と、
    を備え、
    前記決定手段は、少なくとも、前記特定手段により特定された前記顔領域の前記頻度が低い場合、当該顔領域を含まない領域を優先して前記出力対象の領域を決定することを特徴とする画像処理装置。
  11. 画像群内の画像に含まれている人物の顔領域を検出することで、複数の顔領域において類似する特徴量を含む、同一人物に対応するグループを生成する生成手段と、
    出力対象の候補である画像から顔領域を特定する特定手段と、
    前記特定手段により特定された前記顔領域を前記画像における出力対象の領域に含めるかについて、前記生成手段により生成されたグループに対応し且つ前記特定手段により特定された顔領域に対応する人物が前記画像群において顔領域として検出された頻度に基づく判定を行う判定手段と、
    前記判定手段による判定結果に基づいて、前記画像における出力対象の領域の複数の候補から、前記出力対象の領域を決定する決定手段と、
    を備え、
    前記決定手段は、少なくとも、前記特定手段により特定された前記顔領域の前記頻度が低い場合、当該顔領域を含む候補よりも当該顔領域を含まない候補を優先して、前記出力対象の領域を決定することを特徴とする画像処理装置。
  12. 前記特定手段により複数の顔領域が特定された場合に、前記判定手段は、当該複数の顔領域に基づき、当該複数の顔領域のそれぞれを出力対象の領域に含めるかを判定することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記特定手段により複数の顔領域が特定された場合に、前記判定手段は、1つの顔領域に対する所定の条件に従って、当該複数の顔領域のそれぞれに対し、出力対象の領域に含めるかを判定することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記判定手段は、前記特定手段により特定された顔領域の前記画像内における位置または領域の面積の少なくとも一方に基づき、当該顔領域を出力対象の領域に含ませるかを判定することを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 前記画像において前記決定手段により決定された出力対象の領域がテンプレートに配置されたレイアウトを出力する出力手段を更に備えることを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。
  16. 前記出力手段は、前記レイアウトを表示装置に表示させることを特徴とする請求項15に記載の画像処理装置。
  17. 前記出力手段は前記レイアウトを印刷装置に印刷させることを特徴とする請求項15に記載の画像処理装置。
  18. 画像群内の画像に含まれている人物の顔領域の特徴量を検出することで、複数の顔領域において類似する特徴量に対応する、同一人物に対応するグループを生成し、当該生成されたグループを登録する登録工程と、
    出力対象の候補である画像から顔領域を特定する特定工程と、
    前記特定工程にて特定された顔領域を前記画像における出力対象の領域に含めるかについて、当該顔領域に対応するグループが前記登録工程にて登録されているか否かに基づく判定を行う判定工程と、
    前記判定工程における判定結果に基づいて、前記画像における出力対象の領域を決定する決定工程と、
    を有し、
    前記決定工程において、少なくとも、前記特定工程にて特定された顔領域に対応するグループが前記登録工程にて登録されていない場合、当該顔領域を含まない領域を優先して前記出力対象の領域を決定することを特徴とする画像処理方法。
  19. 画像群内の画像に含まれている人物の顔領域の特徴量を検出することで、複数の顔領域において類似する特徴量に対応する、同一人物に対応するグループを生成し、当該生成されたグループを登録する登録工程と、
    出力対象の候補である画像から顔領域を特定する特定工程と、
    前記特定工程にて特定された顔領域を前記画像における出力対象の領域に含めるかについて、当該顔領域に対応するグループが前記登録工程にて登録されているか否かに基づく判定を行う判定工程と、
    前記判定工程における判定結果に基づいて、前記画像における出力対象の領域の複数の候補から、前記出力対象の領域を決定する決定工程と、
    を有し、
    前記決定工程において、少なくとも、前記特定工程にて特定された顔領域に対応するグループが前記登録工程にて登録されていない場合、当該顔領域を含む候補よりも当該顔領域を含まない候補を優先して、前記出力対象の領域を決定することを特徴とする画像処理方法。
  20. 画像群内の画像に含まれている人物の顔領域を検出することで、複数の顔領域において類似する特徴量を含む、同一人物に対応するグループを生成する生成工程と、
    出力対象の候補である画像から顔領域を特定する特定工程と、
    前記特定工程にて特定された前記顔領域を前記画像における出力対象の領域に含めるかについて、前記生成工程にて生成されたグループに対応し且つ前記特定工程にて特定された顔領域に対応する人物が前記画像群において顔領域として検出された頻度に基づく判定を行う判定工程と、
    前記判定工程における判定結果に基づいて、前記画像における出力対象の領域を決定する決定工程と、
    を有し、
    前記決定工程において、少なくとも、前記特定工程において特定された前記顔領域の前記頻度が低い場合、当該顔領域を含まない領域を優先して前記出力対象の領域を決定することを特徴とする画像処理方法。
  21. 画像群内の画像に含まれている人物の顔領域を検出することで、複数の顔領域において類似する特徴量を含む、同一人物に対応するグループを生成する生成工程と、
    出力対象の候補である画像から顔領域を特定する特定工程と、
    前記特定工程にて特定された前記顔領域を前記画像における出力対象の領域に含めるかについて、前記生成工程にて生成されたグループに対応し且つ前記特定工程にて特定された顔領域に対応する人物が前記画像群において顔領域として検出された頻度に基づく判定を行う判定工程と、
    前記判定工程における判定結果に基づいて、前記画像における出力対象の領域の複数の候補から、前記出力対象の領域を決定する決定工程と、
    を有し、
    前記決定工程において、少なくとも、前記特定工程において特定された前記顔領域の前記頻度が低い場合、当該顔領域を含む候補よりも当該顔領域を含まない候補を優先して、前記出力対象の領域を決定することを特徴とする画像処理方法。
  22. 請求項1乃至17のいずれか1項に記載の画像処理装置としてコンピュータを機能させるためのプログラム。
JP2012154005A 2012-07-09 2012-07-09 画像処理装置、画像処理方法、およびプログラム Active JP6071289B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012154005A JP6071289B2 (ja) 2012-07-09 2012-07-09 画像処理装置、画像処理方法、およびプログラム
US13/933,425 US9292760B2 (en) 2012-07-09 2013-07-02 Apparatus, method, and non-transitory computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012154005A JP6071289B2 (ja) 2012-07-09 2012-07-09 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2014016818A JP2014016818A (ja) 2014-01-30
JP6071289B2 true JP6071289B2 (ja) 2017-02-01

Family

ID=49878572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012154005A Active JP6071289B2 (ja) 2012-07-09 2012-07-09 画像処理装置、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US9292760B2 (ja)
JP (1) JP6071289B2 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6012310B2 (ja) * 2012-07-09 2016-10-25 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP5981789B2 (ja) 2012-07-09 2016-08-31 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6379507B2 (ja) * 2014-02-14 2018-08-29 セイコーエプソン株式会社 印刷装置、印刷方法
JP6360370B2 (ja) 2014-06-30 2018-07-18 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP6350069B2 (ja) * 2014-07-22 2018-07-04 富士ゼロックス株式会社 情報処理システム、情報処理装置およびプログラム
JP6355517B2 (ja) * 2014-10-14 2018-07-11 富士フイルム株式会社 橋梁検査ロボットシステム
JP6355518B2 (ja) * 2014-10-14 2018-07-11 富士フイルム株式会社 橋梁検査ロボットシステム
CN104866194B (zh) * 2015-05-21 2018-07-13 百度在线网络技术(北京)有限公司 图片搜索方法及装置
JP6389803B2 (ja) * 2015-05-27 2018-09-12 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
US10325390B2 (en) * 2016-03-31 2019-06-18 Qualcomm Incorporated Geometric work scheduling with dynamic and probabilistic work trimming
US10198626B2 (en) * 2016-10-19 2019-02-05 Snap Inc. Neural networks for facial modeling
JP6723909B2 (ja) * 2016-12-09 2020-07-15 キヤノン株式会社 画像処理方法、画像処理装置、及びプログラム
JP6885896B2 (ja) * 2017-04-10 2021-06-16 富士フイルム株式会社 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム
JP6869809B2 (ja) * 2017-05-29 2021-05-12 株式会社Nttドコモ 画像推定装置
JP7039882B2 (ja) * 2017-08-16 2022-03-23 富士フイルムビジネスイノベーション株式会社 画像解析装置及び画像解析プログラム
JP2019160004A (ja) * 2018-03-15 2019-09-19 富士フイルム株式会社 画像判別装置,画像判別方法ならびに画像判別装置のプログラムおよびそのプログラムを格納した記録媒体
US11095814B2 (en) * 2018-05-25 2021-08-17 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP7263791B2 (ja) * 2019-01-17 2023-04-25 大日本印刷株式会社 表示システム及び撮影画像表示方法
CN111178167B (zh) * 2019-12-12 2023-07-25 咪咕文化科技有限公司 穿帮镜头审核方法、装置、电子设备及存储介质
KR20220129948A (ko) * 2021-03-17 2022-09-26 라인플러스 주식회사 이미지에서 삭제할 객체를 추천하는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
DE112022006206T5 (de) * 2021-12-28 2024-11-07 Fujifilm Corporation Bildgebungsunterstützungsvorrichtung, Bildgebungsunterstützungsverfahren und Programm
JP2023163733A (ja) * 2022-04-28 2023-11-10 キヤノン株式会社 情報処理装置、その制御方法およびプログラム
WO2024195128A1 (ja) * 2023-03-23 2024-09-26 日本電気株式会社 画像処理装置、画像処理方法及び非一時的なコンピュータ可読媒体
WO2025013483A1 (ja) * 2023-07-10 2025-01-16 富士フイルム株式会社 画像評価装置、画像評価方法、プログラム、及び記録媒体

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2541688B2 (ja) 1990-05-21 1996-10-09 日産自動車株式会社 眼位置検出装置
JP2973676B2 (ja) 1992-01-23 1999-11-08 松下電器産業株式会社 顔画像特徴点抽出装置
US5400200A (en) 1992-09-14 1995-03-21 Eastman Kodak Company Magnetic head suspension apparatus
JP3557659B2 (ja) 1994-08-22 2004-08-25 コニカミノルタホールディングス株式会社 顔抽出方法
JPH0877334A (ja) 1994-09-09 1996-03-22 Konica Corp 顔画像の特徴点自動抽出方法
JP3469031B2 (ja) 1997-02-18 2003-11-25 株式会社東芝 顔画像登録装置及びその方法
JPH1153525A (ja) 1997-08-06 1999-02-26 Matsushita Electric Ind Co Ltd 顔器官検出装置及び媒体
JP3549013B2 (ja) 1998-03-05 2004-08-04 日本電信電話株式会社 目の位置検出方法、目の位置検出装置および目の位置検出プログラムを記録した記録媒体
JP2000105829A (ja) 1998-09-29 2000-04-11 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
JP2000132688A (ja) 1998-10-29 2000-05-12 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
JP2000235648A (ja) 1999-02-17 2000-08-29 Fujitsu Ltd 目の抽出装置および瞬き検出装置
JP2001216515A (ja) 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置
EP1211640A3 (en) 2000-09-15 2003-10-15 Canon Kabushiki Kaisha Image processing methods and apparatus for detecting human eyes, human face and other objects in an image
US6895103B2 (en) 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
JP2005044330A (ja) 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP4315345B2 (ja) 2003-11-27 2009-08-19 富士フイルム株式会社 画像編集装置および方法並びにプログラム
JP4578948B2 (ja) 2003-11-27 2010-11-10 富士フイルム株式会社 画像編集装置および方法並びにプログラム
JP2007026246A (ja) 2005-07-20 2007-02-01 Fujifilm Holdings Corp アルバム作成装置及びアルバム作成プログラム
WO2007020789A1 (ja) * 2005-08-12 2007-02-22 Sony Computer Entertainment Inc. 顔画像表示装置、顔画像表示方法及び顔画像表示プログラム
JP4762731B2 (ja) * 2005-10-18 2011-08-31 富士フイルム株式会社 アルバム作成装置、アルバム作成方法、およびアルバム作成プログラム
JP4926568B2 (ja) 2006-06-29 2012-05-09 キヤノン株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP4637063B2 (ja) 2006-07-04 2011-02-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP4632452B2 (ja) 2006-07-07 2011-02-16 キヤノン株式会社 画像補正処理装置、画像補正処理方法、プログラム及び記憶媒体
JP4998995B2 (ja) 2007-06-08 2012-08-15 富士フイルム株式会社 アルバム作成装置および方法ならびにプログラム
JP5032911B2 (ja) 2007-07-31 2012-09-26 キヤノン株式会社 画像処理装置及び画像処理方法
JP2009152718A (ja) * 2007-12-19 2009-07-09 Seiko Epson Corp 画像処理装置、画像処理方法、およびプログラム
JP4991604B2 (ja) 2008-03-17 2012-08-01 キヤノン株式会社 画像処理装置、画像処理方法
JP5390828B2 (ja) 2008-10-17 2014-01-15 キヤノン株式会社 画像処理装置、及び、画像処理方法
JP5743384B2 (ja) 2009-04-14 2015-07-01 キヤノン株式会社 画像処理装置及び画像処理方法とコンピュータプログラム
JP5424712B2 (ja) 2009-05-21 2014-02-26 キヤノン株式会社 画像処理装置及びその制御方法とプログラム
JP5183568B2 (ja) 2009-05-21 2013-04-17 キヤノン株式会社 画像処理装置及び方法、及びプログラムを記録した記憶媒体
JP5554984B2 (ja) 2009-12-24 2014-07-23 キヤノン株式会社 パターン認識方法およびパターン認識装置
JP5595121B2 (ja) 2010-05-24 2014-09-24 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP5791241B2 (ja) 2010-07-16 2015-10-07 キヤノン株式会社 画像処理方法、画像処理装置、およびプログラム
JP5700968B2 (ja) 2010-07-16 2015-04-15 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US8842934B2 (en) 2010-07-20 2014-09-23 Canon Kabushiki Kaisha Image processing apparatus and method for controlling the image processing apparatus

Also Published As

Publication number Publication date
US20140010459A1 (en) 2014-01-09
JP2014016818A (ja) 2014-01-30
US9292760B2 (en) 2016-03-22

Similar Documents

Publication Publication Date Title
JP6071289B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6012310B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5993642B2 (ja) 情報処理装置及びその制御方法及びプログラム
JP6045232B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5956860B2 (ja) 画像処理装置、画像処理方法、プログラム
JP7250567B2 (ja) 装置、方法、及びプログラム
JP6039942B2 (ja) 情報処理装置及びその制御方法及びプログラム
JP6071288B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5981789B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6016489B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム
JP6012309B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6031278B2 (ja) 情報処理装置及びその制御方法及びプログラム
JP6071287B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2015053541A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6222900B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2014016785A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6282065B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN108228114A (zh) 控制方法和存储介质
JP7027101B2 (ja) 情報処理装置、制御方法、及びプログラム
JP6168928B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6606374B2 (ja) 画像処理装置および方法およびプログラム
JP6797871B2 (ja) プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161227

R151 Written notification of patent or utility model registration

Ref document number: 6071289

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151