JP6071288B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP6071288B2
JP6071288B2 JP2012153671A JP2012153671A JP6071288B2 JP 6071288 B2 JP6071288 B2 JP 6071288B2 JP 2012153671 A JP2012153671 A JP 2012153671A JP 2012153671 A JP2012153671 A JP 2012153671A JP 6071288 B2 JP6071288 B2 JP 6071288B2
Authority
JP
Japan
Prior art keywords
image
group
dictionary
feature amount
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012153671A
Other languages
English (en)
Other versions
JP2014016786A5 (ja
JP2014016786A (ja
Inventor
梅田 清
清 梅田
雄介 橋井
雄介 橋井
寛康 國枝
寛康 國枝
洋行 酒井
洋行 酒井
尚紀 鷲見
尚紀 鷲見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012153671A priority Critical patent/JP6071288B2/ja
Priority to US13/934,865 priority patent/US9563823B2/en
Publication of JP2014016786A publication Critical patent/JP2014016786A/ja
Publication of JP2014016786A5 publication Critical patent/JP2014016786A5/ja
Application granted granted Critical
Publication of JP6071288B2 publication Critical patent/JP6071288B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Description

本発明は、画像処理のための画像処理装置、画像処理方法、及びプログラムに関する。
デジタルスチルカメラ(以下、DSCともいう)、あるいはカメラ機能が搭載された多機能携帯電話の普及に伴い、ユーザが撮影するデジタル写真の枚数は飛躍的に増加している。これらのデータは、ユーザが保有しているPCや、インターネット上に存在するストレージサービスに保存されることが一般的である。しかしながら、保存する枚数の増加に伴い、所望の画像がどこに保存されているのかを探す際に、膨大な画像閲覧操作を行うことが必要であることが問題となっている。そこで、ユーザが保存した大量の画像データの中から人物の顔を検出し、各顔領域に対して顔の特徴量解析を行い、同一人物と思われる人物の顔を自動でグループ化する方法が提案されている(特許文献1参照)。
特表2011−516966号
特許文献1のように、同一人物と思われる人物の顔を自動でグループ化処理する場合、グループ化の精度、言い換えれば、個人認識の精度を向上させることが課題となっている。
なお、上述した特許文献1では、表示した人物グループの中で、誤認識を起こしている可能性が高いと思われる顔情報について警告マークを表示し、ユーザがその顔を許容するか、拒否するか入力する手段を設けることが開示されている。そして、ユーザが該顔を拒否した場合、UI上から表示されなくなることが開示されている。しかしながら、グループ化処理をする際に、誤認識を起こしている可能性が高いとされた顔情報と同程度の顔情報が新たに入力された場合、同様に、警告マークが表示されてしまう。
本発明は、上述した事情に鑑み、認識精度を向上させた画像処理装置、画像処理方法、及びプログラムを提供することを目的とする。
上記課題を解決するための本発明の画像処理装置は、画像データから抽出したオブジェクトの特徴量を、類似する特徴量毎に特徴量グループに分類して辞書において管理する管理手段と、前記管理手段で管理されている特徴量グループの特徴量と、画像データから抽出したオブジェクトの特徴量との類似度判定を行う判定手段と、複数のオブジェクト画像を、前記管理手段により管理されている複数の特徴量グループに対応する複数のオブジェクトグループに分類して表示部に表示させる表示制御手段と、前記表示制御手段による表示に対するユーザの指示に応じて、オブジェクトグループに対して同一のオブジェクトを特定するためのオブジェクト情報を設定する設定手段と、前記表示制御手段による表示に対するユーザの指示に応じて、前記表示制御手段による表示において1つのオブジェクトグループに含まれている複数のオブジェクト画像のうちのユーザにより個別に指定されたオブジェクト画像に対応するオブジェクト情報を修正する修正手段と、前記修正手段によりオブジェクト情報の修正が行われる場合、前記辞書において、前記修正が行われたオブジェクト画像のオブジェクトの特徴量の属する特徴量グループを変更する変更手段と、を備え、前記設定手段により複数のオブジェクトグループに対して同一の第1のオブジェクト情報が設定される場合、前記辞書において、当該複数のオブジェクトグループに対応する複数の特徴量グループは結合されず、前記第1のオブジェクト情報とは異なる第2のオブジェクト情報が設定されているオブジェクトグループに含まれているオブジェクト画像がユーザにより個別に指定され、前記修正手段による修正により、当該指定されたオブジェクト画像に当該第1のオブジェクト情報が設定される場合、前記変更手段は、前記辞書において、当該オブジェクト画像のオブジェクトの特徴量を、当該第1のオブジェクト情報が設定されているオブジェクトグループに対応する特徴量グループに追加することを特徴とする。
本発明によれば、誤認識が発生した顔情報をユーザが修正した際に、個人認識の精度を低下させることなく、修正情報を反映させることができる。これにより、以降において、同一人物でありながら異なる特徴量をもつ顔を正しく同一人物として分類することができ、個人認識の精度を高めることができる。
また、個人認識精度を高めることにより、個人認識情報を用いてレイアウト成果物を自動生成した場合に、よりユーザにとって好ましいレイアウトを生成することができる。
実施形態1に係る画像処理装置ハードウェア構成図である。 実施形態1に係るソフトウェアブロック図である。 実施形態1に係る画像解析処理のフローチャートである。 実施形態1に係る画像解析処理のフローチャートである。 実施形態1に係る人物グループ生成処理のフローチャートである。 実施形態1に係る自動レイアウト提案処理のフローチャートである。 実施形態1の人物グループの表示例を示す図である。 実施形態1のサムネイル形式による画像群の表示例を示す図である。 実施形態1のカレンダー形式による画像群の表示例を示す図である。 手動でお気に入り度を入力するためのUIの例を示す図である。 手動でイベント情報を入力するためのUI例を示す図である。 手動で人物属性情報を入力するためのUI例を示す図である。 レイアウトテンプレートの一例を示す図である。 レイアウトテンプレートの一例を示す図である。 実施形態1における自動レイアウト生成処理のフローチャートである。 実施形態1における不要画像フィルタリング処理のフローチャートである。 実施形態1に係る自動トリミング処理の一例を示す図である。 実施形態1に係る明るさ適正度の算出方法の説明図である。 実施形態1に係る彩度適正度の算出方法の説明図である。 実施形態1に係るトリミング欠け判定処理の説明図である。 実施形態1に係る自動レイアウト生成結果の表示例を示す図である。 人物グループ生成処理によって生成された顔辞書の構成を示した図である。 実施形態1に係る顔辞書の構成を示した図である。 実施形態2に係る顔辞書の構成を示した図である。 実施形態2に係る顔辞書更新処理のフロー図である。 実施形態3に係る顔辞書の構成を示した図である。 実施形態3に係る顔辞書更新処理のフロー図である。 実施形態3に係る顔辞書の構成を示した図である。 実施形態4に係る顔辞書更新処理のフロー図である。 実施形態4に係る顔辞書の構成を示した図である。 実施形態5に係る顔辞書の構成を示した図である。 画像解析結果及び人物属性の保存形式の例を示す図である。 図13のレイアウトテンプレートの保存形式の例を示す図である。 図14のレイアウトテンプレートの保存形式の例を示す図である。 決定されたテーマと主人公情報の保持例を示す図である。 決定されたテーマと主人公情報の保持例を示す図である。 生成したレイアウト情報の保持例を示す図である。
(実施形態1)
以下では、入力画像群を用いて自動でレイアウト出力物を生成するために、本発明における好適な第1実施形態について説明する。これはあくまで実施の1つの形態を例として示したものであり、本発明は以下の実施形態に限定されるものではない。
図1は実施形態1の画像処理装置のハードウェア構成例を示すブロック図である。
図1において、情報処理装置115は、CPU100と、ROM101と、RAM102と、2次記憶装置103と、表示装置104と、入力装置105と、IF107と、IF108と、無線LAN109を備えている。さらに、内部撮像デバイス106を備えている。これらは、制御バス/データバス110により相互に接続されている。本実施形態の情報処理装置115は、画像処理装置として機能する。
情報処理装置115は、例えば、コンピュータである。CPU100(中央演算装置)は、実施形態1で説明する情報処理をプログラムに従って実行する。ROM101は、CPU100により実行される以下に示すアプリケーション等のプログラムが記憶されている。RAM102は、CPU100によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供している。2次記憶装置103は、ハードディスク等であり、画像ファイルや画像解析結果を保存するデータベース等を保存するための記憶媒体である。表示装置104は、例えば、ディスプレイであり、実施形態1の処理結果や以下に示すUI(User Interface)等をユーザに提示する装置である。表示装置104は、タッチパネル機能を備えても良い。入力装置105は、ユーザが画像補正の処理の指示等を入力するためのマウスやキーボード等である。
また、内部撮像デバイス106で撮像された画像は、所定の画像処理を経た後、2次記憶装置103に記憶される。また、情報処理装置115は、インターフェース(IF108)を介して接続された外部撮像デバイス111から画像データを読み込むこともできる。さらに、無線LAN(Local Area Network)108はインターネット113に接続されている。情報処理装置115は、インターネット113に接続された外部サーバー114より画像データを取得することもできる。
画像等を出力するためのプリンタ112は、IF107を介して情報処理装置115に接続されている。尚、プリンタ112はさらにインターネット上に接続されており、無線LAN109経由でプリントデータのやり取りをすることもできる。
図2は本実施形態における上記アプリケーション等ソフトウェア構成のブロック図になっている。
まずハードウェア115が取得した画像データは、通常JPEG(Joint Photography Expert Group)等の圧縮形式になっている。そのため、画像コーデック部200は、該圧縮形式を解凍していわゆるRGB点順次のビットマップデータ形式に変換する。変換されたビットマップデータは、表示・UI制御部201に伝達され、ディスプレイ等の表示装置104上に表示される。
上記ビットマップデータは、さらに画像センシング部203(アプリケーション)に入力され、同部において、詳細は後述するが、画像の様々な解析処理が行われる。上記解析処理の結果得られた画像の様々な属性情報は、所定の形式に従ってデータベース部202において、上述した2次記憶装置103に保存される。なお、以降においては、画像解析処理とセンシング処理は同義で扱う。
シナリオ生成部204(アプリケーション)では、ユーザが入力した様々な条件に応じて、自動で生成すべきレイアウトの条件を生成し、レイアウト生成部205(アプリケーション)では上記シナリオに従って、自動でレイアウトを生成する処理を行う。
生成したレイアウトは、レンダリング部206で表示用のビットマップデータを生成し、該ビットマップデータは表示・UI制御部201に送られ、結果がディスプレイ等の表示装置104に表示される。一方で、レンダリング結果はさらにプリントデータ生成部207に送られ、同部でプリンタ用コマンドデータに変換され、プリンタに送出される。
図3〜6は、本実施形態のアプリケーションの基本的な画像処理のフローチャートである。具体的には、図3及び4は、画像センシング部203のフローを示しており、複数の画像データ群を取得して、それぞれについて解析処理を施し、その結果をデータベースに格納するまでの処理の流れを示している。図5は、検出した顔位置情報に基づいて、同じ人物と思われる顔情報をグループ化するための処理の流れを示している。図6は、画像の解析情報およびユーザが入力した様々な情報に基づいて、レイアウト作成のためのシナリオを決定し、該シナリオに基づいて、自動でレイアウトを生成するための処理の流れを示している。
図3のS301では、画像データ群の取得を行う。画像データ群は、例えば、ユーザが、撮影画像が格納された撮像装置やメモリカードを情報処理装置115に接続して、これらから撮像画像を読み込むことで取得する。また、内部撮像装置で撮影され、2次記憶装置に保存されていた画像データ群を取得してもよい。あるいは、無線LANを介して、インターネット上に接続された外部サーバー114等、情報処理装置115以外の場所から画像データ群を取得をしてもよい。
画像データ群を取得すると、そのサムネイル群が図8や図9に示すようにUIに表示される。図8の801に示すように2次記憶装置103内のフォルダ単位で画像のサムネイル802を表示してもよいし、図9に示すようにカレンダーのようなUI901で日付ごとに画像データが管理されていてもよい。日付の部分902をクリックすることにより、同日に撮影された画像を、図8のようなサムネイル一覧で表示する。
次に、S302において、各画像のデコードを行う。具体的には、アプリケーションが、新規で保存され未だセンシング処理が行われていない画像をサーチし、抽出された各画像について、画像コーデック部200が圧縮データからビットマップデータに変換する。
次に、S303において、上記ビットマップデータに対して、各種センシング処理を実行する。ここでいうセンシング処理には、次の表1に示すような様々な処理が含まれる。本実施形態では、センシング処理の例として、顔検出、画像の特徴量解析、シーン解析を挙げており、それぞれ表1に示すようなデータ型の結果を算出する。
Figure 0006071288
以下、それぞれのセンシング処理について説明する。
画像の基本的な特徴量である全体の平均輝度、平均彩度は、公知の方法で求めればよいため、詳細な説明は省略する。平均彩度は、画像の各画素について、RGB成分を公知の輝度色差成分(例えばYCbCr成分)に変換し(変換式省略)、Y成分の平均値を求めればよい。また、平均彩度は、上記CbCr成分について画素毎に以下を算出し、下記Sの平均値を求めればよい。
Figure 0006071288
また、画像内の平均色相(AveH)は、画像の色合いを評価するための特徴量である。各画素毎の色相は、公知のHIS変換式を用いて求めることができ、それらを画像全体で平均化することにより、AveHを求めることができる。
また、これらの特徴量は、上述したように画像全体で算出してもよいし、例えば、画像を所定サイズの領域に分割し、各領域毎に算出してもよい。
次に、人物の顔検出処理について説明する。本実施形態で使用する人物の顔検出手法としては、公知の方法を用いることができる。
特開2002−183731号に記載されている方法では、入力画像から目領域を検出し、目領域周辺を顔候補領域とする。この顔候補領域に対して、画素毎の輝度勾配、および輝度勾配の重みを算出し、これらの値を、あらかじめ設定されている理想的な顔基準画像の勾配、および勾配の重みと比較する。そのときに、各勾配間の平均角度が所定の閾値以下であった場合、入力画像は顔領域を有すると判定する。
また、特開2003−30667号に記載されている方法では、まず画像中から肌色領域を検出し、同領域内において、人間の虹彩色画素を検出することにより、目の位置を検出することができる。
特開平8−63597号に記載されている方法では、まず、複数の顔の形状をしたテンプレートと画像とのマッチング度を計算する。そのマッチング度が最も高いテンプレートを選択し、最も高かったマッチング度があらかじめ定められた閾値以上であれば、選択されたテンプレート内の領域を顔候補領域とする。同テンプレートを用いるこことで、目の位置を検出することができる。
さらに、特開2000−105829号に記載されている方法では、まず、鼻画像パターンをテンプレートとし、画像全体、あるいは画像中の指定された領域を走査し最もマッチする位置を鼻の位置として出力する。次に、画像の鼻の位置よりも上の領域を目が存在する領域と考え、目画像パターンをテンプレートとして目存在領域を走査してマッチングをとり、ある閾値よりもマッチ度が度置きい画素の集合である目存在候補位置集合を求める。そして、目存在候補位置集合に含まれる連続した領域をクラスタとして分割し、各クラスタと鼻位置との距離を算出する。その距離が最も短くなるクラスタを目が存在するクラスタと決定することで、器官位置の検出することができる。
その他の人物の顔検出方法としては、特開平8−77334、特開2001−216515、特開平5−197793、特開平11−53525、特開2000−132688、特開2000−235648、特開平11−250267に記載されるような顔および器官位置を検出する方法が挙げられる。また、人物の顔検出処理は、特許第2541688号に記載された方法でもよく、方法は特に限定されるものではない。
人物の顔検出処理により、各入力画像について、人物顔の個数と各顔毎の座標位置を取得することができる。また、画像中の顔座標位置が分かることにより、顔領域の特徴量を解析することができる。例えば、顔領域毎に顔領域内に含まれる画素値の平均YCbCr値を求めることにより、顔領域の平均輝度および平均色差を得ることができる。
また、画像の特徴量を用いてシーン解析処理を行うことができる。シーン解析処理は、例えば、出願人が開示している特開2010−251999号や特開2010−273144号等で開示されている方法により行うことができる。シーン解析処理により、風景(Landscape)、夜景(Nightscape)、人物(Portrait)、露出不足(Underexposure)、その他(Others)、という撮影シーンを区別するためのIDを取得することができる。
なお、本実施形態では、上記のセンシング処理によりセンシング情報を取得したが、その他のセンシング情報を利用してもよい。
上記のようにして取得したセンシング情報は、データベース202に保存する。データベース202への保存形式については、例えば、図32に示すような汎用的なフォーマット(例えば、XML:eXtensible Markup Language)で記述し、格納すればよい。
図32(a)においては、各画像毎の属性情報を、3つのカテゴリに分けて記述する例を示している。
1番目のBaseInfoタグは、画像サイズや撮影時情報として、あらかじめ取得した画像ファイルに付加されている情報を格納するためのタグである。ここには、画像毎の識別子ID、画像ファイルが格納されている保存場所、画像サイズ、撮影日時などが含まれる。
2番目のSensInfoタグは、上述した画像解析処理の結果を格納するためのタグである。画像全体の平均輝度、平均彩度、平均色相やシーン解析結果が格納され、さらに、画像中に存在する人物の顔位置や顔色に関する情報が格納される。
3番目のUserInfoタグは、ユーザが画像毎に入力した情報を格納することができるタグであるが、詳細については後述する。
なお、画像属性情報のデータベース格納方法については、上記に限定されるものではない。その他どのような形式で格納してもよい。
図3のS305では、上述したS302及びS303の処理を行った画像が最後の画像か否かを判定する。最後の画像である場合は、S306へ進み、最後の画像ではない場合は、S302へ戻る。
S306において、S303で検出された顔位置情報を用いて、人物毎のグループを生成する処理を行う。あらかじめ人物の顔を自動でグループ化しておくことにより、その後ユーザが各人物に対して名前を付ける作業を効率化することができる。
ここでの人物グループ形成は、個人認識方法を用いて、図5の処理フローにより実行する。
なお、個人認識処理は、主に、顔の中に存在する眼や口といった器官の特徴量抽出と、それらの関係性の類似度を比較することにより実行される。個人認識処理は、例えば、特許第3469031号等に開示されているので、ここでの詳細な説明は省略する。
図5は人物グループ生成処理S306の基本的なフローチャートである。
まず、S501で、2次記憶装置に保存されている画像を順次読みだしてデコード処理を行う。さらにS502でデータベース部202にアクセスし、該画像中に含まれる顔の個数と顔の位置情報を取得する。次に、S504において、個人認識処理を行うための正規化顔画像を生成する。
ここで正規化顔画像とは、画像内に様々な大きさ、向き、解像度で存在する顔を切り出して、すべて所定の大きさと向きになるよう、変換して切り出した顔画像のことである。個人認識を行うためには、眼や口といった器官の位置が重要となるため、正規化顔画像のサイズは、上記器官が確実に認識できる程度であることが望ましい。このように正規化顔画像を生成することにより、特徴量検出処理において、様々な解像度の顔に対応する必要がなくなる。
次に、S505で、正規化顔画像から顔特徴量を算出する。ここでの顔特徴量とは眼や口、鼻といった器官の位置、大きさや、さらには顔の輪郭などを含むことを特徴とする。
さらに、S506で、あらかじめ人物の識別子(辞書ID)毎に顔特徴量が格納されているデータベース(以降、顔辞書と呼ぶ)の顔特徴量と類似しているか否かの判定を行う。類似度は、例えば、辞書ID内部で管理されている特徴量と、新たに入力された特徴量を比較して算出する。ここで用いる特徴量は、保持されている目、鼻、口といった器官の位置や、器官間の距離等の情報である。類似度は、上記の特徴量が類似しているほど高く、類似してない場合には低い値を取るものとし、例えば0〜100の値を取り得るものとする。そして、類似しているか否かの判定は、算出した類似度を予め保持されている閾値と比較し、類似度が閾値よりも高い場合には辞書IDと同一人物であると判断する。一方、類似度が閾値よりも低い場合には、同一人物ではないものとして判定する。このような類似度判定のための閾値は、全ての辞書IDに対して固定の値を一つだけ保持するようにいてもよいし、各辞書ID毎に異なった閾値を保持するようにしてもよい。
S506の判定がYesの場合S509に進み、同じ人物として同じ人物の辞書IDに該顔の特徴量を追加する。
S506の判定がNoの場合S508に進み、現在評価対象となっている顔は、これまで顔辞書に登録された人物とは異なる人物であると判断して、新規辞書IDを発行して顔辞書に追加する。S502〜S509までの処理を、入力画像群の中から検出した顔領域全てに適用して、登場した人物のグループ化を行う。
人物グループ生成処理の結果は、図32(b)のXMLフォーマットで示すように、各顔毎に辞書IDタグを用いて記述し、上述したデータベースに保存する。
ここで、人物グループ生成処理によって生成された顔辞書内部の様子を図22に示す。図22において、2201は辞書IDを示し、2203は顔特徴量を示している。同じ辞書IDで管理される顔特徴量は、人物認識処理によって、同一人物であると判定された顔の顔特徴量である。
なお、上記実施形態においては、図3に示すように、全ての画像のセンシング処理が終了した後に人物グループ生成処理を実行したが、これ以外の方法としてもよい。例えば、図4に示すように、1つの画像に対してS403でセンシング処理を実行した後に、顔検出位置情報を利用してグループ化処理S405を行うという作業を繰り返したとしても、同様の結果を生成することができる。
また、人物グループ生成処理によって得られた各人物グループは、図7のようなUI701にて表示されることになる。同7において、702は人物グループの代表顔画像を表しており、その横には、該人物グループの名前を表示する領域703が存在する。自動の人物グループ化処理を終了した直後は、同図に示すように人物名は「No name1」「No name2」などと表示されている。これらの人物名を以下「人物ID」とする。また、704は該人物グループに含まれる複数の顔画像である。後述するが、図7のUI701においては、「No name X」の領域703を指定して人物名を入力したり、人物毎に誕生日や続柄等の情報を入力することができる。
このとき、図22の2202に示すように、辞書ID2201と人物ID2202は、それぞれ互いに関連付けられて(紐付けられて)管理される。
また、上記センシング処理は、オペレーティングシステムのバックグラウンドタスクを利用して実行してもよい。この場合、ユーザはコンピュータ上で別の作業を行っていたとしても、画像群のセンシング処理を継続させることができる。
本実施形態においては、ユーザが手動で画像に関する様々な属性情報を入力することもできる。
その属性情報(以降、手動登録情報)の例の一覧を、表2に記載する。手動登録情報は大きく、画像単位に設定するものと、上記処理によりグループ処理した人物に設定する情報に分かれる。
Figure 0006071288
まず、画像毎に設定する属性情報として、ユーザのお気に入り度がある。お気に入り度は、その画像を気に入っているかどうかを、ユーザが手動で段階的に入力するものである。例えば、図10に示すように、UI1001上で、所望のサムネイル画像1002をマウスポインタ1003で選択し、右クリックをすることでお気に入り度を入力できるダイアログを表示する。ユーザはメニューの中で自分の好みに応じて、★の数を選択することができる。本実施形態では、お気に入り度が高いほど★の数が多くなるよう設定する。
また、上記お気に入り度については、ユーザが手動で設定せずに、自動で設定するようにしてもよい。例えば、ユーザが図8に示す画像サムネイル一覧表示の状態から、所望の画像ファイルをクリックし、1画像表示画面に遷移したとする。その遷移した回数を計測して、回数に応じてお気に入り度を設定してもよい。例えば、閲覧した回数が多いほど、ユーザが該画像を気に入っていると判断する。
また、他の例として、プリント回数をお気に入り度に設定してもよい。例えば、プリント行為を行った場合、当然その画像を気に入っていると判断してお気に入り度が高いと設定すればよい。この場合は、プリント回数を計測して、プリント回数に応じてよりお気に入り度を設定する。
以上説明したように、お気に入り度については、ユーザが手動で設定してもよく、閲覧回数に応じてお気に入り度を設定してもよく、プリント回数に応じてお気に入り度を設定してもよい。これらの設定及び計測した情報は、それぞれ個別に、図32(a)で示すようなXMLフォーマットで、データベース202のUserInfoタグ内に格納される。例えば、お気に入り度はFavoriteRateタグで、閲覧回数はViewingTimesタグで、プリント回数はPrintingTimesタグにそれぞれ格納される。
また、画像毎に設定する別の情報として、イベント情報が挙げられる。イベント情報は、例えば、家族旅行“travel”、卒業式“graduation”、結婚式“wedding”が挙げられる。
イベントの指定は、図11に示すように、カレンダー上で所望の日付をマウスポインタ1102などで指定して、その日のイベント名を入力することにより行うことができるようにすればよい。指定されたイベント名は、画像の属性情報の一部として、図32(a)に示すXMLフォーマットに含まれることになる。図32(a)のフォーマットでは、UserInfoタグ内のEventタグを使って、イベント名と画像を紐付けている。なお、以下、「紐づけ」とは、関連付けることを指す。
次に、人物の属性情報について説明する。
図12は、人物の属性情報を入力するためのUIを示している。図12において、1202は所定人物(この場合は“father”)の代表顔画像を示している。1203は、所定人物の人物名(人物ID)の表示領域である。また、1204は、他の画像の中から検出し、S506で顔特徴量が類似していると判断された画像(サムネイル)である。このように、図12では、人物ID1203の下に、S506で顔特徴量が類似していると判断された画像1204の一覧が表示される。
センシング処理が終了した直後は、図7に示すように各人物グループには名前が入力されていないが、「No name」の部分703をマウスポインタで指示することにより、任意の人物名を入力することができる。
また、人物毎の属性情報として、それぞれの人物の誕生日やアプリを操作しているユーザから見た続柄を設定することもできる。図12の人物の代表顔1202をクリックすると、画面下部に図示するように、第1の入力部1205ではクリックした人物の誕生日を入力することができる。また、第2の入力部1206では、クリックした人物の続柄情報を入力することができる。
以上、入力された人物属性情報は、これまでの画像に関連付けられた属性情報とは異なり、図32(b)のようなXMLフォーマットによって、画像属性情報とは別にデータベース202内で管理される。
一方、上記設定した名前は、上記XMLフォーマットとは別に、図23の2302のように、辞書IDと紐付け管理されてもよい。
本実施形態では、あらかじめ用意した様々なレイアウトテンプレートを用いてレイアウト生成処理を行う。レイアウトテンプレートとは図13や図14に示すようなものであり、レイアウトする用紙サイズ上に、複数の画像配置枠1302,1402,1403(以降、スロットと同義)を備えている。
このようなテンプレートは多数用意されており、あらかじめ本実施例を実行するためのソフトウェアが情報処理装置115にインストールされた時点で、2次記憶装置103に保存しておけばよい。また、その他の方法として、IF 107や無線LAN109を介して接続されたインターネット上に存在する外部サーバー114から、任意のテンプレート群を取得してもよい。
これらのテンプレートは汎用性の高い構造化言語、例えば上述したセンシング結果の格納と同様にXMLで記載されているものとする。XMLデータの例を図33及び図34に示す。
これらの例では、まずBASICタグに、レイアウトページの基本的な情報を記述する。基本的な情報とは、例えば該レイアウトのテーマやページサイズ、およびページの解像度(dpi)等が考えられる。同例Xにおいて、テンプレートの初期状態では、レイアウトテーマであるThemeタグはブランクとなっている。また、基本情報として、ページサイズはA4、解像度は300dpiを設定している。
また、ImageSlotタグは、上述した画像配置枠の情報を記述している。ImageSlotタグの中にはIDタグとPOSITIONタグの2つを保持し、画像配置枠のIDと位置を記述している。該位置情報については、図13や図14で図示するように、例えば左上を原点とするX−Y座標系において定義される。
また、上記ImageSlotは、その他にそれぞれのスロットに対して、スロットの形状および配置すべき推奨人物グループ名を設定する。例えば、図14のテンプレートにおいては、図33のShapeタグで示すように、すべてのスロットは矩形“rectangle”形状で、人物グループ名はPersonGroupタグによって“MainGroup”を配置することを推奨している。
また、図14のテンプレートにおいては、図34に示すように、中央に配置しているID=0のスロットは矩形形状であることが記載されている。また、人物グループは“SubGroup”を配置し、その他のID=1,2と続くスロットは楕円“ellipse”形状で、人物グループは“MainGroup”を配置することを推奨している。
本実施形態においては、上述したようなテンプレートを多数保持する。
本実施形態に係るアプリケーションは、入力された画像群に対して解析処理を実行し、人物を自動的にグループ化してUIで表示することができる。また、ユーザはその結果を見て、人物グループ毎に名前や誕生日などの属性情報を入力したり、画像毎にお気に入り度などを設定することができる。さらに、テーマごとに分類された多数のレイアウトテンプレートを保持することができる。
以上の条件を満たす本実施形態のアプリケーションは、ある所定のタイミングで、自動的にユーザに好まれそうなコラージュレイアウトを生成し、ユーザに提示する処理を行う(以下、レイアウトの提案処理という)。
さらにはテーマごとに分類された多数のレイアウトテンプレートを保持することができる。
以上の条件を満たすと、本実施例のアプリケーションは、ある所定のタイミングに、自動的にユーザに好まれそうなコラージュレイアウトを生成し、ユーザに提示する処理を行う。これを、レイアウトの提案処理と呼ぶこととする。
図6は、レイアウトの提案処理を行うための基本的なフローチャートを示している。
まず、S601において、レイアウトの提案処理のシナリオを決定する。シナリオには、提案するレイアウトのテーマ及びテンプレートの決定、レイアウト内で重視する人物(主人公)の設定、レイアウト生成に用いる画像群の選定情報などが含まれる。
以下では、2つのシナリオを例示して、シナリオの決定方法について説明する。
例えば、2週間前に自動的に各人物に関する誕生日のレイアウトの提案処理を行う設定がされていたとする。図12で自動グループ化されている人物“son”の1歳の誕生日が近いとする。この場合には、提案するレイアウトのテーマは成長記録“growth”と決定する。次にテンプレートの選択を行うが、この場合には成長記録に適した図14のようなものを選択し、図35に示すように、XMLのThemeタグの部分に“growth”と記載する。次にレイアウトを行う際に注目する主人公“MainGroup”として、“son”を設定する。また、レイアウトを行う際に副次的に注目する“SubGroup”として“son”と“father”を設定する。次に、レイアウトに利用するための画像群を選定する。この例の場合には、データベースを参照し、上記人物“son”の誕生日からこれまでに撮影した画像群のうち、“son”を含む画像群を大量に抽出してリスト化する。以上が、成長記録レイアウトのためのシナリオ決定である。
上記とは異なる例として、1カ月以内に所定のイベント情報が登録されていた場合、レイアウトの提案処理を実行する設定がされているとする。図11で登録したイベント情報から、例えば数日前に家族旅行に行きその画像が大量に2次記憶装置に保存されていることがわかると、シナリオ決定部は、家族旅行のレイアウトを提案するためのシナリオを決定する。この場合には、提案するレイアウトのテーマは旅行“travel”と決定する。次にテンプレートの選択を行うが、この場合には図13のようなレイアウトを選択し、図36に示すように、XMLのThemeタグの部分に“travel”と記載する。次にレイアウトを行う際に注目する主人公“MainGroup”として、“son”、“mother”、“father”を設定する。このように、XMLの特性を活かせば、“MainGroup”として複数の人物を設定することができる。
次に、レイアウトに利用するための画像群を選定する。この例の場合には、データベースを参照し、上記旅行イベントに紐付けられた画像群を大量に抽出してリスト化する。以上が、家族旅行レイアウトのためのシナリオ決定である。
次に、図6のS603において、上述したシナリオに基づくレイアウトの自動生成処理を実行する。図15はレイアウト処理部の詳細な処理フローを示している。以降は、同図に沿って、各処理ステップの説明を行う。
まず、S1501で、上述したシナリオ生成処理で決定され、テーマと人物グループ情報が設定された後のテンプレート情報を取得する。
次に、S1503においては、上記シナリオで決定した画像リストに基づいて、各画像毎に該画像の特徴量をデータベースから取得し、画像群属性情報リストを生成する。ここでいう画像群情報リストとは、図32(a)に示したIMAGEINFOタグが画像リスト分だけ並んだ構成となっている。
このように、本実施形態の自動レイアウト生成処理では、このように画像データそのものを直接扱うのではなく、あらかじめ画像毎にセンシング処理を行ってデータベース保存しておいた属性情報を利用する。レイアウト生成処理を行う際に、画像データそのものを対象としてしまうと、画像群を記憶するために非常に巨大なメモリ領域を必要としてしまうことを避けるためである。すなわち、これにより、レイアウト生成処理で必要なメモリ量を低減させることができる。
具体的には、まず、S1505において、入力された画像群の属性情報を用いて、入力された画像群の中から不要画像のフィルタリングを行う。フィルタリング処理は、図16のフローにて行う。図16では、各画像毎に、まずS1601で全体の平均輝度がある閾値(ThY_LowとThY_Hight)内に含まれているかの判定を行う。否の場合にはS1606に進み、注目画像はレイアウト対象から除去する。
同様に、S1602〜S1605では、注目画像に含まれる顔領域それぞれについて、平均輝度、平均色差成分が、良好な肌色領域を示す所定閾値に含まれているかの判定を行う。S1602〜S1605のすべての判定がYesとなる画像のみ、以降のレイアウト生成処理に適用される。具体的には、S1602では、ID=Nである顔領域のAveYが所定閾値(ThfY_LowとThfY_Hight)の範囲に含まれているか否かの判定を行う。S1603では、ID=Nである顔領域のAveChが所定閾値(ThfY_LowとThfY_Hight)の範囲に含まれているか否かの判定を行う。S1604では、ID=Nである顔領域のAveCrが所定閾値(ThfY_LowとThfY_Hight)の範囲に含まれているか否かの判定を行う。S1605では、最後の顔であるか否かを判定する。最後の顔ではない場合は、S1602へ戻り、最後の顔である場合は、処理を終了する。
なお、このフィルタリング処理では、以降の一時レイアウト作成処理に明らかに不要と判断できる画像の除去を目的としているため、上記閾値は比較的湯緩やかに設定することが望ましい。例えばS1601の画像全体輝度の判定において、ThY_HighとThY_Lowの差が画像ダイナミックレンジに比して極端に小さいと、それだけYesと判定される画像が少なくなってしまう。本実施形態のフィルタリング処理ではそうならないよう、両者の差をできる限り広く設定し、かつ明らかに異常画像と判断されるものは除去できるような閾値に設定する。
次に図15のS1507において、上記処理でレイアウト対象となった画像群を用いて、大量(L個)の一時レイアウトを生成する。一時レイアウトの生成は、取得したテンプレートの画像配置枠に対して、入力画像を任意に当てはめる処理を繰り返す。このときに、例えば、以下のパラメータ(画像選択・配置・トリミング)をランダムで決定する。
画像選択基準としては、例えば、レイアウト中の画像配置枠がN個の時、画像群の中からどの画像を選択するかが挙げられる。配置基準としては、例えば、選択した複数の画像を、どの配置枠に配置するかが挙げられる。トリミング基準としては、配置した際に、どの程度のトリミング処理を行うかというトリミング率が挙げられる。トリミング率は例えば0〜100%で表わされ、トリミングは、図17に示すように、画像の中心を基準として所定のトリミング率で行われる。図17では、2001は画像全体を示し、2002はトリミング率50%でトリミングした際の切り取り枠を示している。
上述したような画像選択・配置・トリミング基準に基づいて、可能な限り数多くの一時レイアウトを生成する。生成した各一時レイアウトは、図37のXMLのように表わすことができる。各スロットに対して、選択され配置された画像のIDがImageIDタグに記述され、トリミング率がTrimingRatioタグに記述される。
なお、ここで生成する一時レイアウトの数Lは、後述するレイアウト評価ステップでの評価処理の処理量と、それを処理する情報処理装置115の性能に応じて決定される。本実施形態では、例えば数十万通り以上の一時レイアウトを生成した。生成したレイアウトは、それぞれIDを付加して図37のXML形式で2次記憶装置103にファイル保存してもよいし、構造体など別のデータ構造を用いてRAM102上に記憶してもよい。
次に、図15のS1508において、大量に生成した一時レイアウトの定量評価を行う。具体的には、作成したL個の一時レイアウトに対して、それぞれ所定のレイアウト評価量を用いて評価を行う。本実施形態におけるレイアウト評価量の一覧を、表3に示す。表3に示すように、本実施形態で用いるレイアウト評価量は、主に3つのカテゴリに分けることができる。
Figure 0006071288
一つ目は、画像個別の評価量である。これは画像の明るさや彩度、ブレぼけ量等の状態を判断し、スコア化するものである。以下、本実施形態のスコア化の一例について説明する。明るさの適正度は、図18に示すように、平均輝度がある所定レンジ範囲内においてはスコア値100とし、所定レンジ範囲から外れるとスコア値を下げるよう設定する。彩度の適正度は、図18に示すように、画像全体の平均彩度がある所定の彩度値より大きい場合にはスコア値100とし、所定値より小さい場合にはスコア値を除々に下げるように設定する。
二つ目は、画像とスロットの適合度の評価である。画像とスロットの適合度の評価としては、例えば、人物適合度、トリミング欠け判定が挙げられる。人物適合度は、スロットに指定されている人物と、実際に該スロットに配置された画像内に存在する人物の適合率を表したものである。例を挙げると、あるスロットが、XMLで指定されているPersonGroupで、“father”、“son”が指定されているものとする。この時、該スロットに割り当てられた画像に該2人の人物が写っていたとすると、該スロットの人物適合度はスコア値100とする。片方の人物しか写っていなかったとすると、適合度はスコア値50とし、両者とも写っていなかった場合は、スコア値0とする。ページ内の適合度は、各スロット毎に算出した適合度の平均値とする。トリミング領域1702の欠け判定は、例えば、図20に示すように、画像中に存在する顔の位置2003が判明している場合、欠けた部分の面積に応じて、0から100までのスコア値を算出する。欠けた面積が0の場合、スコアは100とし、逆にすべての顔領域が欠けた場合、スコア値は0とする。
三つめは、レイアウトページ内のバランスを評価である。バランスを評価するための評価値としては、例えば、画像類似度、色合いばらつき、顔サイズばらつきが挙げられる。画像の類似性は、大量に生成した一時レイアウト毎に算出されるレイアウト頁内のそれぞれの画像の類似性である。例えば、旅行テーマのレイアウトを作成したい場合、あまりに似通った類似度の高い画像ばかりが並んでいたとすると、それは良いレイアウトとは言えない場合がある。したがって、例えば、類似性は、撮影日時によって評価することができる。撮影日時が近い画像は、同じような場所で撮影された可能性が高いが、撮影日時が離れていれば、その分、場所もシーンも異なる可能性が高いからである。撮影日時は、図37で示したように、画像属性情報として、予めデータベース202に保存されている、画像毎の属性情報から取得することができる。撮影日時から類似度を求めるには以下のような計算を行う。例えば、今注目している一時レイアウトに表4で示すような4つの画像がレイアウトされているものとする。
なお、画像IDで特定される画像には、それぞれ撮影日時情報が付加されている。具体的には、撮影日時として、年月日及び時間(西暦:YYYY、月:MM、日:DD、時:HH、分:MM、秒:SS)が付加されている。このとき、この4つの画像間で、撮影時間間隔が最も短くなる値を算出する。
Figure 0006071288
この場合は、画像ID102と108間の30分が最も短い間隔である。この間隔をMinIntervalとし、秒単位で格納する。すわなち30分=1800秒である。このMinIntervalをL個の各一時レイアウト毎に算出して配列stMinInterval[l]に格納する。次に、該stMinInterval[l]の中で最大値MaxMinInterval値を求める。すると、l番目の一時レイアウトの類似度評価値Similarity[l]は以下のようにして求めることができる。
Similarity[l]=100×stMinInterval[l]/MaxMinInterval
すなわち、上記Similarity[l]は、最小撮影時間間隔が大きいほど100に近づき、小さいほど0に近づく値となっているため、画像類似度評価値として有効である。
次に、色合いのバラつきについて説明する。例えば旅行テーマのレイアウトを作成したい場合、あまりに似通った色(例えば、青空の青、山の緑)の画像ばかりが並んでいたとすると、それは良いレイアウトとは言えない場合がある。この場合は、色のばらつきの大きいものを高い評価とする。注目しているl番目の一時レイアウト内に存在する画像の平均色相AveHの分散を算出して、それを色合いのバラつき度tmpColorVariance[l]として格納する。次に、tmpColorVariance[l]の中での最大値MaxColorVariance値を求める。すると、l番目の一時レイアウトの色合いバラつき度の評価値ColorVariance[l]は以下のようにして求めることができる。
ColorVariance[l]=100×tmpColorVariance[l]/MaxColorVariance
上記ColorVariance[l]は、ページ内に配置された画像の平均色相のバラつきが大きいほど100に近づき、小さいほど0に近づく値となる。したがって、色合いのばらつき度評価値として用いることができる。
次に、顔の大きさのバラつき度について説明する。例えば、旅行テーマのレイアウトを作成したい場合、レイアウト結果を見て、あまりに似通った顔のサイズの画像ばかりが並んでいたとすると、それは良いレイアウトとは言えない場合がある。レイアウト後の紙面上における顔の大きさが、小さいものもあれば大きいものもあり、それらがバランスよく配置されていることが、良いレイアウトと考える。この場合は、顔のサイズのばらつきの大きいものを高い評価とする。注目しているl番目の一時レイアウト内に配置された後の顔の大きさ(顔位置の左上から右下までの対角線の距離)の分散値を、tmpFaceVariance[l]として格納する。次に、該tmpFaceVariance[l]の中での最大値MaxFaceVariance値を求める。すると、l番目の一時レイアウトの顔サイズバラつき度の評価値FaceVariance[l]は、以下のようにして求めることができる。
FaceVariance[l]=100×tmpFaceVariance[l]/MaxFaceVariance
上記FaceVariance[l]は、紙面上に配置された顔サイズのバラつきが大きいほど100に近づき、小さいほど0に近づく値となる。したがって、顔サイズのバラつき度評価値として用いることができる。
またその他カテゴリとして、ユーザの嗜好性評価が考えられる。
以上説明したような、各一時レイアウト毎に算出した複数の評価値を、以下では統合化して、各一時レイアウト毎のレイアウト評価値とする。1番目の一時レイアウトの統合評価値を、EvalLayout[l]とし、上記で算出したN個の評価値(表3の評価値それぞれを含む)の値を、EvalValue[n]とする。このとき、統合評価値は以下で求めることができる。
Figure 0006071288
上式において、W[n]は、表3で示したシーン毎の各評価値の重みである。この重みはレイアウトのテーマ毎に異なる重みを設定する。例えば、表3に示すようにテーマを成長記録“growth”と旅行“travel”で比較した場合、旅行テーマの方は、できるだけ良質の写真をいろいろな場面で数多くレイアウトすることが望ましい場合が多い。このため、画像の個別評価値やページ内のバランス評価値を重視する傾向に設定する。一方、成長記録“growth”の場合、画像のバリエーションよりは、成長記録の対象となる主人公が確実にスロットに適合しているか否かが重要である場合が多い。このため、ページ内バランスや画像個別評価よりも、画像・スロット適合度評価を重視する傾向に設定する。なお、本実施形態におけるテーマ毎の重要度は表3に示すように設定した。
このようにして算出したEvalLayout[l]を用いて、S1709では、レイアウト結果表示のためのレイアウトリストLayoutList[k]を生成する。レイアウトリストは、予め定められた個数(例えば5個)に対して、EvalLayout[l]のうち、評価値が高いもの順に識別子lを記憶しておく。例えば最も良いスコアを出したものが、l=50番目に作成した一時レイアウトであった場合、LayoutList[0]=50となる。同様に、LayoutList[1]以降は、スコア値が2番目以降の識別子lを記憶しておく。
図6に戻って、上記処理によって得られたレイアウト結果を、図6のS605でレンダリングした結果を図21のように表示する。S605では、まずLayoutList[0]に格納されているレイアウト識別子を読み出し、識別子に相当する一時レイアウト結果を、2次記憶装置103あるいはRAM102上から読み出す。レイアウト結果には、上述したようにテンプレート情報とテンプレート内に存在するスロット毎に、割り当てられた画像名が設定されている。したがって、これらの情報に基づいて、情報処理装置115上で動作するOSの描画関数を用いて、該レイアウト結果をレンダリングし、図21の2102のように表示することになる。
図21では、Nextボタン2104を押下することにより、次点スコアであるLayoutList[1]の識別子を読み出し、上記と同様にレンダリング後、表示を行う。これにより、ユーザは様々なバリエーションの提案レイアウトを閲覧することができる。また、Previousボタン2103を押下することにより、前に表示したレイアウトを再表示することができる。さらに、表示されたレイアウトが気に入った場合には、プリントボタン2105を押下することで、情報処理装置115に接続されたプリンタ112からレイアウト結果2102をプリントアウトすることができる。
ここで、本実施形態に係る個人認識時に使用する顔辞書の更新処理に関して詳細に説明する。なお、ここでいう顔辞書とは、個人認識に用いる顔認識情報である。
ここで、本実施形態に係る個人認識時に使用する顔辞書の更新処理に関して詳細に説明する。
図12に示すように、UI上に表示された顔グループの中には誤認識が発生することがある。例えば、同一人物であるはずのfatherが、別人物であると判断され、人物グループ生成処理において、所定の顔領域が誤ったグループに振り分けられることがある。
このようなケースにおけるユーザの修正作業について、図12を用いて説明する。すなわち、図12において、fatherのグループに、fatherとは別人の顔sonの顔画像が誤認識により表示されている場合を例に挙げて説明する。この場合、ユーザは、マウスポインタ1207を操作して、誤っている顔画像1204をドラッグして、正しい人物グループであるsonのグループに移動させることで、UIにおいて顔画像1204が正しいグループにグルーピングされる。すなわち、ユーザによる修正指示により、UIにおいて顔画像1204が正しいグループにグルーピングされる。このユーザによる操作は、顔画像1204の人物グループにおいて人物名を、fatherからsonに変更したことと同義である。
このユーザによる操作は、左から3番目の顔の画像1204は、fatherではなくsonであることを明示的に示している。すなわち、このようなユーザ操作は、誤った人物情報と正しい人物情報の両者を示している。本実施形態では、この操作情報を顔辞書に反映させることで、以降の認識精度を向上させる。
本実施形態では、このユーザによる操作に基づいて、辞書の修正、言い換えれば、辞書の更新を行う。
ここで、図23は、辞書の内部構成を示す図である。図23において、辞書には、各顔特徴量2304が所定の類似度以上の特徴量毎に分類されており、顔特徴量群2303として保持されている。各顔特徴量群2304には、辞書ID2301と、人物ID2302が付加されている。辞書IDは、辞書において顔特徴量群を特定するものである。人物IDは、顔特徴量の人物を特定するものである。
本実施形態では、図12に示すUI上の左から3番目の顔の画像1204は、図23(a)に示す辞書の辞書ID=1の左から3番目に登録されている顔特徴量2304と対応する。したがって、ユーザによる移動操作に伴って、図23(a)においてfatherに対応付けられた辞書ID=1で特定される顔特徴量群2303のうち左から3番目に登録されている顔特徴量2304を、図23(b)に示すようにsonの顔特徴量群2303に移動させる。言い換えれば、人物ID=fatherに対応付けられた顔特徴量群2303の中から、修正対象となった顔に対応する特徴量2304を除去すると共に、人物ID=sonに対応付けられた顔特徴量群2303に、修正対象となった顔に対応する特徴量2304を登録する。
上述した方法により、辞書の内容を更新することで、以降に行う認識処理において、顔特徴量2401と類似したsonの顔が入力された場合、fatherではなく、正しくsonと判定される確率が高まる。すなわち、個人認識の精度を向上させることができる。これにより、以降のユーザの修正作業の手間を省くことができる。すなわち、ユーザの1回の修正作業により、以降の個人認識処理において個人認識の精度を向上させることができる。
さらに、上述した方法により、精度を向上させた顔認識情報を用いて以降の自動レイアウト処理を行うことで、自動生成するレイアウトの精度を向上させることができる。
(実施形態2)
本実施形態では、顔辞書の更新処理以外は実施形態1と同様であるので、重複する説明は省略する。
図24を用いて、本実施形態について説明する。図24は、辞書の内部構成を示す図である。図24において、辞書には、各顔特徴量が所定の類似度以上の特徴量毎に分類されており、顔特徴量群2504として保持されている。各顔特徴量群2504には、辞書ID2501と、人物ID2502が付加されている。ここでは、予め図25に示すように、一つの人物ID=fatherが、複数の辞書ID=1,2を管理する場合について説明する。
人物認識処理では、同一人物であっても、顔の特徴量が異なるために別の人物として認識される場合がある。同一人物で顔の特徴量が異なる場合としては、例えば、怒った顔と笑った顔が挙げられる。これは、怒った顔と笑った顔では、目や口といった器官の特徴量が異なるためである。同一人物であっても特徴量が異なる場合は、それぞれ異なる辞書IDが対応づけられるため、UI上では別人として表示されることになる。
しかしながら、UI上において、例えば、図7のNo name1が笑ったfather、No name2が怒ったfatherであった場合、ユーザはどちらにもfatherという名前を付ける操作を行う。これにより、UI表示上は、No name1とNo name2は、一つのfatherという人物IDによって管理されるため、同じグループとして表示される。本実施形態では、上述したユーザによる人物IDの修正に伴って、辞書では人物IDのみを修正し、辞書IDはそのまま別々に管理する。辞書において人物IDによって管理せずに、辞書IDを別々に管理することにより、類似度判定の精度を維持することができる。なお、辞書において元々別人として分類されていた顔特徴量を一人の人物として結合すると、その辞書を用いて類似度判定すると、類似の許容度が拡大し、誤認識を生じやすくなる。
図24は、UI表示上は一つの人物ID(=father)でありながら、人物IDが複数の辞書IDに紐付けられている顔辞書構成を示している。図24は、ID3に紐づいたsonの顔特徴量群2504のうち顔特徴量2503は、実際はfatherの顔特徴量である場合を示している。すなわち、顔特徴量2503は、fatherが誤ってsonと認識されている。
本実施形態では、図示しないが、UI上の左から2番目の顔の画像は図24に示す辞書の辞書ID=3の左から2番目に登録されている顔特徴量2503に対応する。このとき、ユーザは、UI表示上誤った人物グループに登録されている画像を、マウスポインタ等を利用して正しい人物グループであるfatherにドラッグアンドドロップする操作を行うことで、人物IDをson からfatherに変更することができる。
このときの顔辞書の特徴量の更新処理について、図25のフローチャートを用いて説明する。
まずS2601において、人物IDに対応付けられた辞書IDにおいて、修正対象となった顔に対応する顔特徴量2503を除去する。
次に、S2602で、修正後の人物IDに対応付けられた辞書IDが複数であるか否かを判定する。複数であった場合は、S2603へ進み、1つであった場合は、S2604へ進む。
S2604では、該辞書IDに対応する特徴量2503を追加する。
S2603では、顔特徴量2503を追加すべき辞書IDを特定する。まず、修正対象となった顔に対応する特徴量2503を、修正後の人物IDに対応づけられる2以上の辞書IDそれぞれに含まれる特徴量と比較する。特徴量の比較は、特徴量同士の類似度の比較により行う。例えば、特徴量には目や鼻、口、輪郭といった顔の特徴位置の情報が含まれているため、特徴位置の情報を比較することで、類似度を算出することができる。そして、平均類似度が高い辞書IDに特徴量2503を追加する。
以上により、辞書内容の更新を終了する。
本実施形態では、特徴量2503と辞書ID1,2に含まれる特徴量との類似度を算出し、辞書ID毎の平均類似度を算出し、該平均類似度が高い辞書IDに、特徴量2503を追加する。
本実施形態では、実施形態1と同様に、ユーザの操作に伴って、辞書を更新することにより、以降に行う辞書を用いた認識処理において、個人認識の精度を向上させることができる。これにより、以降のユーザの修正作業の手間を省くことができる。すなわち、ユーザの1回の修正作業により、以降の個人認識処理において個人認識の精度を向上させることができる。
さらに、上述した方法により、精度を向上させた顔認識情報を用いて以降の自動レイアウト処理を行うことで、自動生成するレイアウトの精度を向上させることができる。
また、上述したように、個人認識処理においては、同一人物であることを判定するための特徴量に、類似度が低いものが混在すると、認識判定の許容度が広がり、誤認識が増加するという問題がある。これに対し、本実施形態では、1つの人物IDに対し、特徴量の異なる辞書IDを対応付けることを許容することにより、類似度判定の精度を向上させることができる。
したがって、各辞書ID内部に類似度が低い特徴量を混在させることを防止することができ、以降の認識精度の低下を防止することができる。
(実施形態3)
本実施形態では、顔辞書の更新処理以外は実施形態1と同様であるので、重複する説明は省略する。本実施形態では、図23などで示した顔辞書の構成について、それぞれの辞書IDに登録できる顔特徴量の個数に制限がある場合について説明する。
本実施形態では、辞書IDで特定される顔特徴量群に登録できる顔特徴量の個数に制限を設けている。これにより、表情が異なる特徴量、言い換えれば、類似度が離れた特徴量が多く混在することによる認識精度の低下を抑制することができる。認識精度の低下は、異なる特徴量が多く混在すると、同一人物であると判断するための許容度が広がるためによる生じる傾向があるためである。
上記を鑑みると、同一人物であると判定するための顔特徴量の数には、上限値を設定することが望ましい。したがって、本実施形態では、同一人物であると判定するための顔特徴量の数の上限値Nhを設定した。
本実施形態の辞書更新の方法について図26を用いて説明する。図26は、顔特徴量の数の上限として、上限値Nh=5が設定された辞書構成である。すなわち、本実施形態では、各辞書IDに登録可能な顔特徴量は5個を上限としている。
ここで、辞書ID=3で人物ID=sonである顔特徴量群2704に含まれる顔特徴量2703は、実際はfatherの顔特徴量であるとする。
この場合、ユーザはUI操作によって、実施形態1と同様にsonグループに表示されているfatherの顔画像を、正しいfatherグループに修正する操作を行う。
この時の辞書更新処理を、図27のフローチャートに従って説明する。
図27において、まずS2801において、実施形態2のS2601と同様に、辞書IDの顔特徴量群から修正対象である顔の特徴量を削除する。
次に、S2802において、辞書IDの数値を特定する変数Nの値を初期化する。
次にS2803において、修正した後の人物ID(本実施形態の場合father)に対応付けられた辞書IDのうち、特徴量2803と平均類似度がN番目に高い辞書IDを特定する。ここでは、平均類似度が1番目に高い辞書IDがID=1であったとする。
次に、S2804において、辞書IDの平均類似度が所定の閾値Sth以上であるか否かを判定する。閾値Sth以上である場合は、S2805へ進み、閾値Sth未満である場合は、S2808で辞書IDを新設する。
S2808では、類似度が低い特徴量を同じ辞書ID内に混在させることは避けたいため、辞書IDを新設し、S2809において、新設した辞書IDに特徴量2703を追加する。このときの辞書の内部の構成を図28(a)に示す。図28(a)では、ユーザ操作により、特徴量はfatherのものであるとわかっているので、新規辞書ID=4を人物ID=fatherに紐付けて、特徴量2904を保存する。
S2805では、辞書IDに空きがあるかどうかを判定する。辞書IDに空きがある場合は、S2809へ進み該辞書IDに特徴量を追加する。一方、辞書IDに空きがない場合は、SS2806へ進む。本実施形態では、最も平均類似度が高い辞書IDはID=1であるが、図27によれば、ID=1はすでに顔特徴量が5個入っているため、S2805の判定はNoとなる。
S2806では、変数Nが最大値であるか否かを判定する。具体的には、変数Nが各人物IDに紐づけられている辞書IDのうち最大値に該当するか否かを判定する。最大値である場合は、S2808へ進み、最大ではない場合は、S2807へ進む。本実施形態の場合は、fatherで紐付けられている辞書IDの総数Nmax=2であるかどうかが判定される。そして、N=1であるため、判定はNoとなり、S2807において変数Nがインクリメントされる。
S2809では、特徴量を辞書IDに追加して、処理を終了する。
N=2の場合について簡単に説明する。S2803でN=2番目に平均類似度が高い辞書IDが特定されるが、この場合は辞書ID=2であるとする。この辞書ID=2に含まれる特徴量について、平均類似度を算出し、S2804において閾値Sthと比較する。平均類似度が閾値Sth以上であった場合、S2805で空きがあるか確認する。図28(b)では、辞書ID=2には4つの顔特徴量が登録されているため、空きが存在すると判定され、S2809において、該辞書ID=2に特徴量2703を追加する。
以上のように、本実施形態では、修正後の辞書更新については、各辞書ID毎の平均類似度と空きがあるか否かの判定により、更新を行う。そして、空きが存在しない場合や、平均類似度が所定閾値より低い場合には、辞書IDを新設し、それを修正後の人物IDと紐付けることにより、類似度の許容度の拡大による認識精度の低下を抑制する。また、実施形態1と同様に、以降の認識処理の精度を向上させることができる。
(実施形態4)
本実施形態では、顔辞書の更新処理以外は実施形態3と同様であるので、重複する説明は省略する。
ここで、図29のフローチャートを用いて本実施形態の辞書更新について説明する。なお、図29のフローチャートにおけるS3101〜S3104は、実施形態3のS2801〜S2804と同様であるので説明を省略する。
S3105では、辞書IDには空きがあるか否かを判定し、空きがある場合はS3109へ進み、空きがない場合はS3106へ進む。
S3106では、特徴量の入れ替えを行うか否かを判定する。すなわち、入れ替えるべき特徴量が存在するか否かの判定を行う。特徴量の入れ替えるべき特徴量が存在すると判定した場合は、S3108へ進み、入れ替えるべき特徴量が存在しないと判定した場合は、S3107へ進む。
ここで、入れ替えを行うか否かの判定処理について説明する。図27の辞書構成において、修正の対象となっている特徴量2703に対して平均類似度が最も高い辞書IDはID=1であるとし、このときの平均類似度をS0とする。図27では、辞書ID=1は既に空きが存在しない。したがって、既に登録してある5個の特徴量と、修正の対象となっている特徴量2703とを比較して、特徴量2703と入れ替えるべき特徴量が存在するか否かの判定を行う。
具体的には、まず、修正の対象となっている特徴量2703と平均類似度が最も高いと想定する辞書ID=1に含まれている5つの特徴量それぞれを、F1,F2,F3,F4,F5とする。
次に、各特徴量と他の特徴量とを比較して、平均類似度を算出する。具体的には、まず、特徴量F1について、F2〜F5までの特徴量との類似度を算出し、その平均類似度をS1とする。類似度の算出方法は、特に限定されず、例えば、公知の方法を用いることができる。本実施形態では、特徴量として保持されている目、鼻、口といった器官の位置情報についてそれぞれの差分を算出し、該差分の合計が小さいほど、互いの類似度は高いものとした。特徴量F2に関しても同様に、F2以外の4つの特徴量と類似度を比較して、平均類似度S2を算出する。このようにして、平均類似度S1〜S5を算出する。
次に、平均類似度のうち、最も低い類似度を特定し、上述した特徴量2703の辞書ID=1に対する類似度S0とを比較して、最も低い類似度が類似度S0よりも小さい場合は、入れ替えるべき特徴量が存在すると判断する。例えば、最も低い類似度がS4であった場合、最低類似度S4と上述した特徴量2703の辞書ID=1に対する類似度S0とを比較して、S4<S0となった場合には、F4と特徴量2703を入れ替えるべきと判断する。
S3108では、特徴量の入れ替えを行う。例えば、上述した例の場合は、特徴量F4と特徴量2703の入れ替えを行う。その結果、図30に示すような辞書構成となる。図30における特徴量3203は、図26の特徴量2703と同一である。
本実施形態では、平均類似度が少しでも高い特徴量で各辞書IDを構成することにより、類似の許容度を狭く設定することができ、以降の認識精度を高めることができる。
なお、本実施形態では、平均類似度が最も低いものを更新候補、すなわち、辞書の入れ替えの対象とする方法について説明したが、本発明はこれに限定されるものではない。類似度が高い辞書IDを特定し、該辞書IDに含まれる特徴量と修正の対象である顔の特徴量を比較して、更新を行うものであれば、同様の効果が得られる。
(実施形態5)
本実施形態では、顔辞書の更新処理以外は実施形態3と同様であるので、重複する説明は省略する。
実施形態1〜4では、いずれも、修正対象となった顔の人物IDの修正先の辞書の更新について説明してきたが、本実施形態では、修正前の情報に基づく類似度判定の方法について述べる。
図31を用いて、本実施形態の類似度判定方法について説明する。図31は、本実施形態に係る辞書構成を示す図である。図31(a)において、辞書ID=1で人物ID=fatherの顔特徴量群に含まれている特徴量3301は、実際は、sonの特徴量であるとする。すなわち、顔特徴量3301は、sonが誤ってfatherと認識されているものとする。
本実施形態では、同一人物であるか否かの判定に用いる類似度閾値3302は、辞書ID毎に設定されている。類似度閾値は異なる値を設定することができるが、図31(a)では、初期状態としていずれも同じ「80」が設定されている。
本実施形態では、図示しないがUI上の左から3番目の顔の画像は、図31(a)に示す辞書の辞書ID=3の左から3番目に登録されている顔特徴量3301に対応するとする。このとき、ユーザは、UI表示上で、誤ったグループに登録された画像を、マウスポインタ等を利用して正しい人物グループであるsonにドラッグアンドドロップする操作を行うことで、人物IDをfatherからsonに変更する。
本実施形態では、ユーザの操作に伴って、もともと誤認識が発生していた辞書ID=1の類似度閾値を変更する。具体的には、誤認識が発生していた辞書ID=1に関しては、図31(b)に示すように、類似度閾値3402を初期状態から所定量増加して、類似度判定を厳しく設定する。誤認識が発生していたということは、辞書ID=1で管理されている顔特徴量は、なんらかの理由で誤認識を発生し易い特徴量群であったといえるためである。誤認識が発生しやすい特徴量群であった理由としては、例えば、表情の異なる特徴量群が混在している場合が挙げられる。
ユーザの操作に伴って、辞書の更新を行うと共に類似度判定を厳しく設定しなおすことにより、次に新しい顔の特徴量が入力された場合に、辞書ID=1で再び誤認識を発生させる確率を下げることができる。したがって、個人認識の精度を向上させることができる。
なお、本実施形態では、類似度閾値を80から85に増加させたが、本発明はこれに限定されるものではなく、他の値や増加量を用いてもよい。
(他の実施形態)
以上、本発明の各実施形態を説明したが、本発明の基本的構成は上述したものに限定されるものではない。以上説明した実施例は本発明の効果を得るための一手段であり、類似の別手法を用いたり、異なるパラメータを用いたとしても、本発明と同等の効果が得られる場合は、本発明の範疇に含まれることは言うまでもない。
例えば、実施形態4では、所定の辞書IDの特徴量群に空きがない場合は、辞書IDを新設したり、その次に類似する辞書IDの特徴量群に顔特徴量を追加するようにしたが、特徴量を辞書に登録しなくてもよい。
本実施形態では、ユーザが画像グループをマウスポインタによりドラッグ操作することで、人物グループの結合処理を実行する例を示したが、操作はマウスポインタによる操作に限定されるものでもない。
また、上述した実施形態では、オブジェクトとして人物を例に挙げて説明したが、オブジェクトは人物とは限らない。犬や猫などのペットの認識処理を行ってこれらを認識することにより、オブジェクトとしてペットを設定することができる。また、エッジ検出などの形を認識処理によれば、建物や小物なども認識できるため、オブジェクトとして、建物や小物などを設定することができる。これらの場合、オブジェクトの特徴量を抽出して、辞書登録すれば、上述した実施形態と同様の方法により、画像処理を行うことができる。
上述した実施形態では、ユーザ操作による修正指示に応じて、オブジェクト(人物)をオブジェクト毎に分類したグループ表示を修正して表示装置104に表示させるように表示制御を行ったが、これに限定されるものではない。例えば、表示装置104に表示させなくてもよい。この場合、画像データから抽出したオブジェクトは、オブジェクト毎に分類して管理し、ユーザの修正指示があった場合にバックグラウンドで、オブジェクトの分類を変更・修正して管理するようにすればよい。このように管理することで、図15で説明したレイアウト生成処理において、適切なレイアウトを生成することができる。 上述した実施形態では、レイアウト出力物として、1ページに複数の画像を配置した出力物を生成する例を挙げて説明したが、本発明は、複数ページのアルバム出力にも適用することができる。
上述した実施形態は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(CPUやMPU等)がプログラムを読み出して実行する処理である。また、プログラムは、1つのコンピュータで実行させても、複数のコンピュータを連動させて実行させるようにしてもよい。また、上記した処理の全てをソフトウェアで実現する必要はなく、一部又は全部をハードウェアによって実現するようにしてもよい。

Claims (17)

  1. 画像データから抽出したオブジェクトの特徴量を類似する特徴量毎に特徴量グループに分類して辞書において管理する管理手段と、
    前記管理手段で管理されている特徴量グループの特徴量と、画像データから抽出したオブジェクトの特徴量との類似度判定を行う判定手段と、
    複数のオブジェクト画像を、前記管理手段により管理されている複数の特徴量グループに対応する複数のオブジェクトグループに分類して表示部に表示させる表示制御手段と、
    前記表示制御手段による表示に対するユーザの指示に応じて、オブジェクトグループに対して同一のオブジェクトを特定するためのオブジェクト情報を設定する設定手段と、
    前記表示制御手段による表示に対するユーザの指示に応じて、前記表示制御手段による表示において1つのオブジェクトグループに含まれている複数のオブジェクト画像のうちのユーザにより個別に指定されたオブジェクト画像に対応するオブジェクト情報を修正する修正手段と、
    前記修正手段によりオブジェクト情報の修正が行われる場合、前記辞書において、前記修正が行われたオブジェクト画像のオブジェクトの特徴量の属する特徴量グループを変更する変更手段と、
    を備え
    前記設定手段により複数のオブジェクトグループに対して同一の第1のオブジェクト情報が設定される場合、前記辞書において、当該複数のオブジェクトグループに対応する複数の特徴量グループは結合されず、
    前記第1のオブジェクト情報とは異なる第2のオブジェクト情報が設定されているオブジェクトグループに含まれているオブジェクト画像がユーザにより個別に指定され、前記修正手段による修正により、当該指定されたオブジェクト画像に当該第1のオブジェクト情報が設定される場合、前記変更手段は、前記辞書において、当該オブジェクト画像のオブジェクトの特徴量を、当該第1のオブジェクト情報が設定されているオブジェクトグループに対応する特徴量グループに追加することを特徴とする画像処理装置。
  2. 前記変更手段は、前記辞書において、前記修正手段による修正が行われたオブジェクト画像のオブジェクトの特徴量を、前記修正前に属していたオブジェクトグループに対応する特徴量グループから削除することにより、前記辞書においてオブジェクトの特徴量の属するグループを変更することを特徴とする請求項1に記載の画像処理装置。
  3. 前記変更手段は、前記辞書において、前記修正手段による修正が行われたオブジェクト画像のオブジェクト特徴量を、前記修正前に属していたオブジェクトグループに対応する特徴量グループから削除して、当該修正の後に属するオブジェクトグループに対応する特徴量グループに登録することにより、前記辞書においてオブジェクトの特徴量の属するグループを変更することを特徴とする請求項2に記載の画像処理装置。
  4. 前記変更手段は、前記第2のオブジェクト情報が設定されているオブジェクトグループに含まれているオブジェクト画像がユーザにより個別に指定され、前記修正手段による修正により、当該指定されたオブジェクト画像に当該第1のオブジェクト情報が設定される場合、当該オブジェクト画像のオブジェクトの特徴量を、当該第1のオブジェクト情報が設定されている前記複数のオブジェクトグループに対応する前記複数の特徴量グループのいずれかに追加することを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
  5. 前記変更手段は、前記指定されたオブジェクト画像のオブジェクトの特徴量を、前記第1のオブジェクト情報が設定されている前記複数のオブジェクトグループに対応する前記複数の特徴量グループのうち前記指定されたオブジェクト画像のオブジェクトの特徴量との類似度が高いグループに追加することを特徴とする請求項4に記載の画像処理装置。
  6. 前記変更手段は、前記辞書において管理される特徴量グループに属する特徴量と、前記修正手段による修正が行われたオブジェクト画像のオブジェクトの特徴量との類似度が所定の基準以下であるとき、前記修正が行われたオブジェクト画像のオブジェクトの特徴量が属する新たなグループを設けることを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。
  7. 前記管理手段は、各特徴量グループに属する特徴量の数に上限を設けており、
    前記画像処理装置は、前記修正手段による修正の後に前記修正が行われたオブジェクト画像が対応する所定の特徴量グループに属する特徴量と、前記修正手段による修正が行われた前記オブジェクト画像の特徴量との類似度に基づいて、前記所定の特徴量グループに属する特徴量の入れ替えを行うか否かを判定する第2の判定手段を備えることを特徴とする請求項1〜6のいずれか1項に記載の画像処理装置。
  8. 複数の画像をテンプレートに配置したレイアウトを生成する生成手段と、
    前記生成手段により生成されたレイアウトを前記表示部に表示させる第2の表示制御手段と、
    を備え、
    前記生成手段は、画像データから抽出したオブジェクトに対する前記判定手段による類似度判定により当該オブジェクトに対して特定された特徴量グループに対応するオブジェクトグループに基づき、前記画像データに対応する画像をテンプレートへの配置候補として選定することを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。
  9. 前記設定手段により複数のオブジェクトグループに対して同一の第1のオブジェクト情報が設定される場合、当該複数のオブジェクトグループが結合され、前記辞書において当該複数のオブジェクトグループに対応する複数の特徴量グループは結合されず、当該複数の特徴量グループがそれぞれ当該結合された1つのオブジェクトグループに関連付けられることを特徴とする請求項8に記載の画像処理装置。
  10. 前記受信手段が修正指示を受信した場合、前記判定手段は、前記修正手段による修正が行われたオブジェクト画像のオブジェクトの特徴量が前記修正前に属していた特徴量グループに設定する類似度の判定基準を、前記修正前よりも高くすることを特徴とする請求項1〜9のいずれか1項に記載の画像処理装置。
  11. 前記オブジェクトは、人物を含むことを特徴とする請求項1〜10のいずれか1項に記載の画像処理装置。
  12. 前記オブジェクトの特徴量は、人物の顔の特徴量であることを特徴とする請求項11に記載の画像処理装置。
  13. 前記オブジェクト情報は、人物の名前または続柄であることを特徴とする請求項11または12に記載の画像処理装置。
  14. 前記オブジェクトは、建物を含むことを特徴とする請求項1〜10のいずれか1項に記載の画像処理装置。
  15. 前記設定手段により複数のオブジェクトグループに対して同一の第1のオブジェクト情報が設定される場合、前記辞書において、当該複数のオブジェクトグループに対応する複数の特徴量グループは結合されず、前記表示制御手段は、前記複数のオブジェクトグループを同一のグループとして表示させることを特徴とする請求項1〜14のいずれか1項に記載の画像処理装置。
  16. 画像データから抽出したオブジェクトの特徴量を類似する特徴量毎に特徴量グループに分類して辞書において管理する管理工程と、
    複数のオブジェクト画像を、前記管理工程において管理されている複数の特徴量グループに対応する複数のオブジェクトグループに分類して表示部に表示させる表示工程と、
    前記表示工程における表示に対するユーザの指示に応じて、オブジェクトグループに対して同一のオブジェクトを特定するためのオブジェクト情報を設定する設定工程と、
    前記表示工程における表示に対するユーザの指示に応じて、前記表示工程における表示において1つのオブジェクトグループに含まれている複数のオブジェクト画像のうちのユーザにより個別に指定されたオブジェクト画像に対応するオブジェクト情報を修正する修正工程と、
    前記修正工程においてオブジェクト情報の修正が行われる場合、前記辞書において、前記修正が行われたオブジェクト画像のオブジェクトの特徴量の属する特徴量グループを変更する変更工程と、
    を備え、
    前記管理工程で管理されている特徴量グループは、画像データから抽出したオブジェクトの特徴量との類似度判定に用いられ、
    前記設定工程において複数のオブジェクトグループに対して同一の第1のオブジェクト情報が設定される場合、前記辞書において、当該複数のオブジェクトグループに対応する複数の特徴量グループは結合されず、
    前記第1のオブジェクト情報とは異なる第2のオブジェクト情報が設定されているオブジェクトグループに含まれているオブジェクト画像がユーザにより個別に指定され、前記修正工程における修正により、当該指定されたオブジェクト画像に当該第1のオブジェクト情報が設定される場合、前記変更工程では、前記辞書において、当該オブジェクト画像のオブジェクトの特徴量を、当該第1のオブジェクト情報が設定されているオブジェクトグループに対応する特徴量グループに追加することを特徴とする画像処理方法。
  17. 請求項1〜15のいずれか項に記載の画像処理装置の各手段としてコンピュータを機能させるためのプログラム。
JP2012153671A 2012-07-09 2012-07-09 画像処理装置、画像処理方法、及びプログラム Active JP6071288B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012153671A JP6071288B2 (ja) 2012-07-09 2012-07-09 画像処理装置、画像処理方法、及びプログラム
US13/934,865 US9563823B2 (en) 2012-07-09 2013-07-03 Apparatus and method for managing an object extracted from image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012153671A JP6071288B2 (ja) 2012-07-09 2012-07-09 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2014016786A JP2014016786A (ja) 2014-01-30
JP2014016786A5 JP2014016786A5 (ja) 2015-09-10
JP6071288B2 true JP6071288B2 (ja) 2017-02-01

Family

ID=49878577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012153671A Active JP6071288B2 (ja) 2012-07-09 2012-07-09 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US9563823B2 (ja)
JP (1) JP6071288B2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015116971A1 (en) * 2014-01-31 2015-08-06 Heller Noah Raymond Determination of aesthetic preferences based on user history
WO2016006090A1 (ja) * 2014-07-10 2016-01-14 株式会社東芝 電子機器、方法及びプログラム
JP2017220112A (ja) * 2016-06-09 2017-12-14 キヤノン株式会社 データ管理システム、制御方法、およびプログラム
US10169649B2 (en) * 2016-07-28 2019-01-01 International Business Machines Corporation Smart image filtering method with domain rules application
JP6942464B2 (ja) * 2016-12-09 2021-09-29 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6873678B2 (ja) 2016-12-09 2021-05-19 キヤノン株式会社 画像処理装置、制御方法、及びプログラム
JP6862164B2 (ja) * 2016-12-09 2021-04-21 キヤノン株式会社 プログラム、画像処理装置、および画像処理方法
JP6885896B2 (ja) * 2017-04-10 2021-06-16 富士フイルム株式会社 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム
JP6517298B2 (ja) * 2017-10-10 2019-05-22 株式会社Cygames 対象物取得確認のためのシステム、サーバ、プログラム及び方法
CN110097606B (zh) * 2018-01-29 2023-07-07 微软技术许可有限责任公司 面部合成
JP7161522B2 (ja) * 2018-03-29 2022-10-26 株式会社スカイシーカー 動物生息調査方法、動物生息調査システム、および動物生息調査装置
WO2020047466A1 (en) * 2018-08-30 2020-03-05 The Government Of The United States Of America, As Represented By Thesecretary Of The Navy Human-assisted machine learning through geometric manipulation and refinement
JPWO2021193271A1 (ja) * 2020-03-23 2021-09-30
JP7419142B2 (ja) * 2020-04-01 2024-01-22 株式会社東芝 表示制御装置、表示制御方法及びプログラム
CN112036514B (zh) * 2020-11-04 2021-07-13 腾讯科技(深圳)有限公司 一种图像分类方法、装置、服务器及计算机可读存储介质
US20240087289A1 (en) * 2021-05-25 2024-03-14 Nec Corporation Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2541688B2 (ja) 1990-05-21 1996-10-09 日産自動車株式会社 眼位置検出装置
JP2973676B2 (ja) 1992-01-23 1999-11-08 松下電器産業株式会社 顔画像特徴点抽出装置
JP3557659B2 (ja) 1994-08-22 2004-08-25 コニカミノルタホールディングス株式会社 顔抽出方法
JPH0877334A (ja) 1994-09-09 1996-03-22 Konica Corp 顔画像の特徴点自動抽出方法
JP3469031B2 (ja) 1997-02-18 2003-11-25 株式会社東芝 顔画像登録装置及びその方法
JPH1153525A (ja) 1997-08-06 1999-02-26 Matsushita Electric Ind Co Ltd 顔器官検出装置及び媒体
JPH11143992A (ja) * 1997-11-07 1999-05-28 Hitachi Ltd 情報処理装置
JP3549013B2 (ja) 1998-03-05 2004-08-04 日本電信電話株式会社 目の位置検出方法、目の位置検出装置および目の位置検出プログラムを記録した記録媒体
JP2000105829A (ja) 1998-09-29 2000-04-11 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
JP2000132688A (ja) 1998-10-29 2000-05-12 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
JP2000235648A (ja) 1999-02-17 2000-08-29 Fujitsu Ltd 目の抽出装置および瞬き検出装置
JP3428512B2 (ja) * 1999-07-14 2003-07-22 日本電気株式会社 文字認識装置およびコンピュータ可読記録媒体
JP2001216515A (ja) 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置
US6965684B2 (en) 2000-09-15 2005-11-15 Canon Kabushiki Kaisha Image processing methods and apparatus for detecting human eyes, human face, and other objects in an image
US6895103B2 (en) 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
KR100438841B1 (ko) * 2002-04-23 2004-07-05 삼성전자주식회사 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템
JP4305079B2 (ja) * 2003-07-30 2009-07-29 セイコーエプソン株式会社 画像管理装置
JP4762731B2 (ja) * 2005-10-18 2011-08-31 富士フイルム株式会社 アルバム作成装置、アルバム作成方法、およびアルバム作成プログラム
JP2009211488A (ja) * 2008-03-05 2009-09-17 Mitsubishi Electric Corp 認証装置
CN101990667B (zh) * 2008-04-02 2013-08-28 谷歌公司 将自动人脸识别合并入数字图像集中的方法和装置
JP5743384B2 (ja) 2009-04-14 2015-07-01 キヤノン株式会社 画像処理装置及び画像処理方法とコンピュータプログラム
JP5424712B2 (ja) 2009-05-21 2014-02-26 キヤノン株式会社 画像処理装置及びその制御方法とプログラム
JP5503921B2 (ja) * 2009-08-21 2014-05-28 ソニーモバイルコミュニケーションズ, エービー 情報端末、情報端末の情報制御方法及び情報制御プログラム
JP2011170492A (ja) * 2010-02-17 2011-09-01 Panasonic Corp 画像登録装置及び登録方法
US8863183B2 (en) * 2010-04-09 2014-10-14 Cyber Ai Entertainment Inc. Server system for real-time moving image collection, recognition, classification, processing, and delivery
JP5485254B2 (ja) * 2011-12-19 2014-05-07 富士フイルム株式会社 画像整理装置および方法ならびにプログラム

Also Published As

Publication number Publication date
US9563823B2 (en) 2017-02-07
JP2014016786A (ja) 2014-01-30
US20140010464A1 (en) 2014-01-09

Similar Documents

Publication Publication Date Title
JP6071288B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6012310B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6071287B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6045232B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5956860B2 (ja) 画像処理装置、画像処理方法、プログラム
US10013395B2 (en) Apparatus, control method thereof, and storage medium that determine a layout image from a generated plurality of layout images by evaluating selected target images
US9275270B2 (en) Information processing apparatus and control method thereof
US9436706B2 (en) Image processing apparatus, image processing method, and storage medium for laying out images
JP5981789B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6016489B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム
JP6012309B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2014016785A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6261206B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6031278B2 (ja) 情報処理装置及びその制御方法及びプログラム
JP6222900B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6282065B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US9509870B2 (en) Image processing apparatus, image processing method, and storage medium enabling layout varations
JP6797871B2 (ja) プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161227

R151 Written notification of patent or utility model registration

Ref document number: 6071288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151