JP6039942B2 - 情報処理装置及びその制御方法及びプログラム - Google Patents

情報処理装置及びその制御方法及びプログラム Download PDF

Info

Publication number
JP6039942B2
JP6039942B2 JP2012154011A JP2012154011A JP6039942B2 JP 6039942 B2 JP6039942 B2 JP 6039942B2 JP 2012154011 A JP2012154011 A JP 2012154011A JP 2012154011 A JP2012154011 A JP 2012154011A JP 6039942 B2 JP6039942 B2 JP 6039942B2
Authority
JP
Japan
Prior art keywords
image
feature
feature amount
dictionary
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012154011A
Other languages
English (en)
Other versions
JP2014016824A5 (ja
JP2014016824A (ja
Inventor
諏訪 徹哉
徹哉 諏訪
寛康 國枝
寛康 國枝
雄介 橋井
雄介 橋井
尚紀 鷲見
尚紀 鷲見
中村 隆
隆 中村
藤田 貴志
貴志 藤田
梅田 清
清 梅田
洋行 酒井
洋行 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012154011A priority Critical patent/JP6039942B2/ja
Priority to US13/922,802 priority patent/US9275270B2/en
Publication of JP2014016824A publication Critical patent/JP2014016824A/ja
Publication of JP2014016824A5 publication Critical patent/JP2014016824A5/ja
Application granted granted Critical
Publication of JP6039942B2 publication Critical patent/JP6039942B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Description

本発明は画像中の人物の顔を識別技術に関するものである。
デジタルスチールカメラ(以下「DSC」とも記載)の普及に伴い、昨今では時に数千枚から数万枚といった多くの画像データをハンドリングする必要がある。ハンドリングする方法として、特に、重要な技術の1つとして、人物の顔を手掛かりに画像をハンドリングすることによって人物抽出を実現するものがある。
人物抽出の方法は、大きく顔検出技術と個人認識技術に分けられる。前者は、画像内に存在する顔を見つけだすものであり、顔の存在有無の判断に利用される。後者は、検出された顔に対し、誰の顔かを特定するものである。人物抽出する際には、各個人を識別するため、個人毎の顔の特徴パターンを記憶するためのデータベース(顔辞書)を参照する。そして、顔辞書に登録された画像をもとに、新たに追加された画像の解析処理を実施して人物抽出を行う。
特許文献1では、人物の認識を実施する際、複数の異なる表情の特徴量と確率分布パラメータを利用することが開示されている。
また、特許文献2では、認識する際の変動する照明や顔の向き、表情の変化についての精度低下防止が記述されている。データ属性ごとに用意された複数の辞書データの各々について、入力データと辞書データとの間で対応する局所パターンの相関値を算出する。データ属性ごとの相関値の集合を統合し、入力データの類似度を算出し、それに基づいて識別している。
特開2005-208850号公報 特開2011-134114号公報 特開平06-095685号公報
上記の特許文献1および特許文献2においては、個人認識の精度を向上させるために、表情や照明の変化に対応する記載がなされているものの、十分な個人認識の精度とは言えなかった。
本発明は係る問題点に鑑みなされたものであり、画像中の顔の個人認識処理において、個人認識精度を向上させた画像処理装置、画像処理方法、及びプログラムを提供しようとするものである。
この課題を解決するため、例えば本発明の情報処理装置は以下の構成を備える。すなわち、
画像データから抽出した被写体の顔領域の複数の部位の特徴量を含む特徴パターンを被写体毎に分類して、顔領域の認識に用いる辞書において管理する管理手段と、
前記被写体の顔領域の複数の部位のうち着目部位の特徴量を、小分類化できるか判定し、小分類化できると判定した場合には前記着目部位の特徴量を複数に小分類化して新たな特徴量とする小分類化手段と、
前記小分類化手段により小分類化された場合は、前記着目部位の新たな特徴量と、前記管理手段において管理される前記着目部位以外の部位の特徴量と、を組み合わせた特徴パターンを、前記被写体の新たな特徴パターンとして前記辞書に登録する登録手段と、を備える。
本発明によれば、個人認識精度を向上させることができる。例えば、デジタル画像中の顔の個人認識処理において、表情の異なる画像について、十分な精度を実現することができる。
本発明のソフトウェアを実行可能なハードウェア構成を示す図。 本発明の処理のソフトウェアブロック図。 画像解析処理のフローチャート。 画像解析処理のフローチャート。 人物グループ生成処理のフローチャート。 自動レイアウト提案処理のフローチャート。 人物グループの表示例を示す図。 サムネイル形式による画像群の表示例を示す図。 カレンダー形式による画像群の表示例を示す図。 画像解析した結果得られる属性情報の例を示す図。 画像解析結果の保存形式の例を示す図。 ユーザが手動入力可能な属性情報の例を示す図。 手動でお気に入り度を入力するためのUI例を示す図。 手動でイベント情報を入力するためのUI例を示す図。 手動で人物属性情報を入力するためのUI例を示す図。 レイアウトテンプレートの一例を示す図。 レイアウトテンプレートの一例を示す図。 実施形態1における自動レイアウト生成処理のフローチャート。 実施形態1における不要画像フィルタリング処理のフローチャート。 自動トリミング処理の一例を示す図。 自動レイアウトを行う際のレイアウト評価値の例を示す図。 明るさ適正度の算出方法の説明図。 彩度適正度の算出方法の説明図。 トリミング欠け判定処理の説明図。 画像類似性判定処理の説明図。 自動レイアウト生成結果の表示例を示す図。 実施形態1における顔辞書作成処理のフローチャート。 実施形態1における細分化処理のフローチャート。 実施形態1における特徴量要素の細分化処理の一例を示す図。 実施形態1における個人認識処理の一例を示す図。 実施形態1における個人認識および顔辞書更新のフローチャート。 人間の特徴量の変化のイメージ図。 実施形態2における特徴量要素の細分化処理の一例を示す図。 実施形態2における個人認識処理の一例を示す図。 実施形態2における顔辞書作成処理のフローチャート。 実施形態2における顔辞書削減のフローチャート。 実施形態1及び2における特徴量パターン削減のフローチャート。
以下、添付図面に従って本発明に係る実施形態を詳細に説明する。
[実施形態1]
以下では、画像群から顔辞書を生成し、それに基づいた人物(被写体)抽出、レイアウトしたコラージュ画像生成、提案についての実施形態を説明する。これはあくまで実施の1つの形態を例として示したものであり、本発明は以下の実施形態に限定されるものではない。
<ハードウェア構成の説明>
図1は、第1の実施形態に係わる情報処理装置のハードウェア構成例を説明するブロック図である。図1において、情報処理装置115は、例えば、コンピュータである。この情報処理装置115は、画像処理装置として機能する。同図において、100はCPU(中央演算装置)であり、本実施形態で説明する情報処理方法をプログラムに従って実行する。101はROMであり、CPU100により実行されるBIOSプログラムが記憶されている。102はRAMで、CPU100により実行されるOSやアプリケーションを記憶したり、CPU100による各種情報の一時的に記憶のためのワークメモリとしても機能する。103はハードディスク等の2次記憶装置であり、OS,各種アプリケーションを記憶保持機能、並びに、記憶管理対象の画像ファイルを格納する画像記憶機能、更には、画像解析結果を保存するデータベース機能として作用する記憶媒体である。104は表示装置であり、本実施形態の処理結果など以下に示す種々のUI(User Inter Face)をユーザに提示する装置である。該表示装置104としては、例えば、ディスプレイが挙げられ、タッチパネル機能を備えても良い。また、110は制御バス/データバスであり、上述の各部とCPU100とを接続する。このほかにユーザが画像補正の処理の指示等を入力するためのマウスやキーボードといった入力装置105も備える。
また、情報処理装置115は、内部撮像デバイス106を備えてもよい。該内部撮像デバイス106で撮像された画像は、所定の画像処理を経た後、2次記憶装置103に保存される。また、画像データはインターフェース(IF108)を介して接続された外部撮像デバイス111から読み込んでも構わない。さらに、情報処理装置115は無線LAN(Local Area Network)109を備え、該LANはインターネット113に接続されている。該インターネットに接続された外部サーバー114より画像を取得することもできる。
最後に、画像等を出力するためのプリンタ112が、IF107を介して接続されている。なお、該プリンタはさらにインターネット上に接続されており、上記無線LAN109経由でプリントデータのやり取りをすることもできる。
<ソフトウェアのブロック図>
図2は本実施形態における上記アプリケーションを含むソフトウェア構成のブロック図になっている。
まずハードウェア115が取得する、デジタルカメラ等で撮像された画像データは、通常JPEG(Joint Photography Expert Group)等の圧縮形式になっている。そのため、画像コーデック部200は、該圧縮形式を解凍していわゆるRGB点順次のビットマップデータ形式に変換する。変換されたビットマップデータは、表示・UI制御部201に伝達され、ディスプレイ等の表示装置104上に表示される。
上記ビットマップデータは、さらに画像センシング部203(アプリケーション)に入力され、同部において、詳細は後述するが、画像の様々な解析処理が行われる。上記解析処理の結果得られた画像の様々な属性情報は、所定の形式に従ってデータベース部202(アプリケーション)において、上述した2次記憶装置103に保存される。なお、以降においては、画像解析処理とセンシング処理は同義で扱う。
シナリオ生成部204(アプリケーション)では、ユーザが入力した様々な条件に応じて、詳細は後述するが、自動で生成すべきレイアウトの条件を生成する。レイアウト生成部205では上記シナリオに従って、自動でレイアウトを生成する処理を行う。
生成したレイアウトは、レンダリング部206で表示用のビットマップデータを生成し、該ビットマップデータは表示・UI制御部201に送られ、結果がディスプレイに表示される。また、レンダリング結果はさらにプリントデータ生成部207に送られ、同部でプリンタ用コマンドデータに変換され、プリンタに送出される。
図3〜図6を用いて、本実施形態の基本的な画像処理のフローについて説明する。
図3および図4は、画像センシング部203のフローを示しており、複数の画像データ群を取得して、それぞれについて解析処理を施し、その結果をデータベースに格納するまでの処理の流れを示している。図5は、検出した顔位置情報に基づいて、同じ人物と思われる顔情報をグループ化する人物グループ生成処理の流れを示している。図6は、画像の解析情報およびユーザが入力した様々な情報に基づいて、レイアウト作成のためのシナリオを決定し、該シナリオに基づいて、自動でレイアウトを生成するための処理の流れを示している。
図3を用いて、画像センシング部203が実行する処理のフローについて説明する。まず図3のS301では、画像データ群の取得を行う。画像データ群は、例えば、ユーザが、撮影画像が格納された撮像装置やメモリカードを情報処理装置115に接続し、これらから撮影画像を読み込むことで取得する。また、画像データ群として、内部撮像装置で撮影され、2次記憶装置103に保存されていた画像を取得してもよい。あるいは、画像は無線LANを介して、インターネット上に接続された外部サーバー114等、情報処理装置115以外の装置から取得をしてもよい。
ここで、図8及び図9を用いて、画像データ群を取得した際の表示装置104の表示について説明する。画像データ群を取得すると、そのサムネイル群が図8や図9に示すようにUIに表示される。表示装置104上のUIの表示方法は、画像を確認できるものであれば、特に限定されるものではない。図8の801に示すように2次記憶装置103内のフォルダ単位で画像のサムネイル802を表示してもよいし、図9に示すようにカレンダーのようなUI901で日付ごとに画像データが管理されていてもよい。図9のUI901では、日付の部分902をクリックすれば、同日に撮影された画像が、図8のようなサムネイル一覧で表示される。
次に、S302〜305において、取得した画像データ群それぞれについて、解析処理および解析結果のデータベース登録を行う。
具体的には、S302において、各画像のデコードを行う。まず、アプリケーションは、新規で保存され未だセンシング処理が行われていない画像をサーチし、抽出された各画像について、コーデック部が圧縮データからビットマップデータに変換する。
次に、S303において、上記ビットマップデータに対して、各種センシング処理を実行させる。ここでいうセンシング処理には、図10に示されるような様々な処理を想定する。本実施形態では、センシング処理の例として、顔検出および顔領域の特徴量解析、画像の特徴量解析、シーン解析を挙げており、それぞれ同図に示すようなデータ型の結果を算出する。本実施形態では、画像基本特徴量としては、平均輝度(int:値0〜255)、平均彩度(int:0〜255)、平均色相(int:値0〜359)を解析した。また、顔検出としては、人物顔の個数(int:値0以上(0〜MAXFACE)、人物顔の位置情報である座標位置(int*8:値0以上(Width及びHeightそれぞれ同様)を解析した。さらに、顔領域内の平均Y(int:値0〜255)、顔領域内の平均Cb(int:値−128〜127)、顔領域内の平均Cr(int:値−128〜127)を解析した。以下、それぞれのセンシング処理について説明する。
まず画像の基本的な特徴量である全体の平均輝度、平均彩度については、公知の方法で求めればよいため、簡単に説明する。平均輝度は、画像の各画素について、RGB成分を公知の輝度色差成分(例えばYCbCr成分)に変換し(変換式省略)、Y成分の平均値を求めればよい。また、平均彩度は、上記CbCr成分について画素毎に次式Sを算出し、その平均値を求めればよい。
S=(Cb2+Cr21/2
また、画像内の平均色相(AveH)は、画像の色合いを評価するための特徴量である。各画素毎の色相は、公知のHIS変換式を用いて求めることができ、それらを画像全体で平均化することにより、AveHを求めることができる。
また、上記特徴量は、画像全体で算出してもよいし、例えば、画像を所定サイズの領域に分割し、各領域毎に算出してもよい。
次に、人物の顔検出処理について説明する。本実施形態で使用する人物の顔検出手法としては、すでに様々な手法を用いることができる。特開2002-183731では、入力画像から目領域を検出し、目領域周辺を顔候補領域とする。
そして、該顔候補領域に対して、画素毎の輝度勾配、および輝度勾配の重みを算出し、これらの値を、あらかじめ設定されている理想的な顔基準画像の勾配、および勾配の重みと比較する。その時に、各勾配間の平均角度が所定の閾値以下であった場合、入力画像は顔領域を有すると判定する方法が記載されている。
また、特開2003-30667によれば、まず画像中から肌色領域を検出し、同領域内において、人間の虹彩色画素を検出することにより、目の位置を検出することが可能である。
特開平8-63597によれば、複数の顔の形状をしたテンプレートと画像とのマッチング度を計算する。該マッチング度が最も高いテンプレートを選択し、最も高かったマッチング度があらかじめ定められた閾値以上であれば、選択されたテンプレート内の領域を顔候補領域とする。同テンプレートを用いるこことで、目の位置を検出することが可能である。
特開2000-105829によれば、まず、鼻画像パターンをテンプレートとし、画像全体、あるいは画像中の指定された領域を走査し最もマッチする位置を鼻の位置として出力する。次に、画像の鼻の位置よりも上の領域を目が存在する領域と考え、目画像パターンをテンプレートとして目存在領域を走査してマッチングをとり、ある閾値よりもマッチ度が度置きい画素の集合である目存在候補位置集合を求める。さらに、目存在候補位置集合に含まれる連続した領域をクラスタとして分割し、各クラスタと鼻位置との距離を算出する。その距離が最も短くなるクラスタを目が存在するクラスタと決定することで、顔の部位位置の検出が可能である。
その他、顔および部位位置を検出する方法としては、特開平8-77334、特開2001-216515、特開平5-197793、特開平11-53525、特開2000-132688、特開2000-235648、特開平11-250267などが挙げられる。さらには特登録2541688など、数多くの手法が挙げられる。本実施形態では特に手法を限定はしない。
上記処理の結果、各入力画像について、人物顔の個数と各顔毎の座標位置を取得することができる。
また、画像中の顔座標位置が分かれば、該顔領域毎に顔領域内に含まれる画素値の平均YCbCr値を求めることにより、該顔領域の平均輝度および平均色差を得ることができる。
また、画像の特徴量を用いてシーン解析処理を行うことができる。シーン解析処理については、様々な手法を用いることができ、例えば、出願人が開示している特開2010-251999や特開2010-273144等で開示されている技術を利用することができる。上記シーン解析の結果、風景(Landscape)、夜景(Nightscape)、人物(Portrait)、露出不足(Underexposure)、その他(Others)、という撮影シーンを区別するためのIDを取得することができる。
なお、センシング情報は、上記のセンシング処理により取得されるものに限定されるものではなく、例えば、その他のセンシング情報を利用してもよい。
上記のようにして取得したセンシング情報を、データベース202に保存する。データベースへの保存形式は、特に限定されないが、例えば、図11に示すような汎用的なフォーマット(例えば、XML:eXtensible Markup Language)で記述し、格納すればよい。
同図においては、各画像毎の属性情報を、3つのカテゴリに分けて記述する例を示している。1番目のBaseInfoタグは、画像サイズや撮影時情報として、あらかじめ取得した画像ファイルに付加されている情報である。ここには、画像毎の識別子IDや、画像ファイルが格納されている保存場所、画像サイズ、撮影日時などが含まれる。
次に2番目のSensInfoタグは、上述した画像解析処理の結果を格納するためのタグである。画像全体の平均輝度、平均彩度、平均色相やシーン解析結果が格納され、さらに、画像中に存在する人物の顔位置や顔色に関する情報が記述可能である。
次に3番目のUserInfoタグは、ユーザが画像毎に入力した情報を格納することができるが、詳細については後述する。
なお、画像属性情報のデータベース格納方法については、上記に限定されるものではない。その他どのような形式であっても構わない。
<個人認識処理を用いた人物グルーピング>
次に、図3のS306において、S303で検出された顔位置情報を用いて、人物毎のグループを生成する処理を行う。あらかじめ人物の顔を自動でグループ化しておくことにより、その後ユーザが各人物に対して名前を付けていく作業を効率化することが可能となる。
ここでの人物グループ生成処理は、公知の個人認識技術を用いて、図5の処理フローにより実行する。
図5は人物グループ生成処理S306の基本的なフローチャートである。
まず、S501で、2次記憶装置に保存されている画像を順次読みだしてデコード処理を行う。さらにS502でデータベースにアクセスし、該画像中に含まれる顔の個数と顔の位置情報を取得する。次に、S504において、個人認識処理を行うための正規化顔画像を生成する。
ここで正規化顔画像とは、画像内に様々な大きさ、向き、解像度で存在する顔を切り出して、すべて所定の大きさと向きになるよう、変換して切り出した顔画像のことである。個人認識を行うためには、眼や口といった部位の位置が重要となるため、正規化顔画像のサイズは、上記部位が確実に認識できる程度であることが望ましい。このように正規化顔画像を用意することにより、特徴量検出処理において、様々な解像度の顔に対応する必要がなくなるという利点がある。
次に、S512で被写体毎の顔を分類するための顔辞書作成処理を実施する。対象となる画像から顔位置取得S504、正規化生成S504された顔画像をもとに、顔辞書を作成する。本処理について、詳細は後述する。
S510において、処理対象の画像データ中に、他の顔領域があるか否かを判定する。他の顔領域がある場合(S510でYES)、S502に戻る。一方、他の顔領域がない場合(S510でNO)、S511に進む。S511において、全ての画像についてS502〜509の処理が終了したか否かを判定する。全ての画像について処理が終了した場合は、処理を終了し、全ての画像について処理が終了していない場合は、S502へ戻る。つまり、S510およびS511の判定処理により全ての顔および画像により、顔辞書が生成された後、S513により、顔辞書の細分化グループ生成が実施される。これは対象の画像をもとに生成された顔辞書を解析し、さらに細分化されたグループを生成するものであり、本処理についても詳細は後述する。
グループ化の結果は、XMLなどのフォーマットで、上述したデータベースに保存しておく。
なお、上記実施形態においては、図3に示したように、全ての画像のセンシング処理が終了した後に人物グループ生成処理を実行したが、これに限定されるものではない。例えば、図4に示すように、各画像に対してS403でセンシング処理を実行した後に、顔検出位置情報を利用してグループ化処理S405を行い、これを繰り返して全ての画像データの処理を行うようにしたとしても、同様の結果を生成することができる。
また、上記の処理によって得られた各人物グループは、図7のようなUI701にて表示されることになる。同図において、702は人物グループの代表顔画像を表しており、その横には、該人物グループの名前を表示する領域703が存在する。自動の人物グループ化処理を終了した直後は、同図に示すように人物名は「No name」と表示される。また、704は該人物グループに含まれる複数の顔画像が表示される。後述するが、同図のUIにおいては、「No name」の領域703を指定して人物名を入力したり、人物毎に誕生日や続柄等の情報を入力することができる。
また、上記センシング処理は、オペレーティングシステムのバックグラウンドタスクを利用して実行しても良い。この場合、ユーザはコンピュータ上で別の作業を行っていたとしても、画像群のセンシング処理を継続させることができる。
<ユーザ情報の入力(人物名、誕生日、お気に入り度、など)>
本実施形態においては、ユーザが手動で画像に関する様々な属性情報を入力してもよく、自動で画像に関する様々な属性情報を設定するようにしてもよい。
その属性情報の例の一覧を、図12に示す。手動登録情報は大きく分けると、画像毎に設定する画像の属性情報と、上記処理によりグループ処理した人物毎に設定する人物の属性情報に分かれる。
まず、画像毎に設定する属性情報として、ユーザのお気に入り度がある。お気に入り度は、その画像を気に入っているかどうかを、例えば、ユーザが手動で入力することができる。例えば図13示すように、UI1301上で、所望のサムネイル画像1302をマウスポインタ1303で選択し、右クリックをすることでお気に入り度を入力できるダイアログを表示する。ユーザはメニューの中で自分の好みに応じて、★の数を選択することができる。本実施形態では、お気に入り度が高いほど★の数が多くなるよう設定した。
また、上記お気に入り度は、ユーザが手動で設定せずに、自動で設定するようにしてもよい。例えば、ユーザが図8に示す画像サムネイル一覧表示の状態から、所望の画像ファイルをクリックし、1画像表示画面に遷移したとする。その遷移した回数を計測して、回数に応じてお気に入り度を自動設定してもよい。すなわち、閲覧した回数が多いほど、ユーザが該画像を気に入っていると判断する。
また他の例として、プリント回数に応じてお気に入り度を自動設定してもよい。具体的には、例えば、プリント行為を行った場合、当然その画像を気に入っていると判断し、プリント回数が多いほど、よりお気に入り度が高いと判断する。
以上で説明したように、お気に入り度については、ユーザが手動で設定する方法、閲覧回数やプリント回数に応じてお気に入り度を自動設定する方法など様々考えられる。上記設定および計測した情報については、それぞれ個別に、図11で示すようなXMLフォーマットで、データベース202のUserInfoタグ内に格納される。例えば、お気に入り度はFavoriteRateタグで、閲覧回数はViewingTimesタグで、プリント回数はPrintingTimesタグに格納される。
また、画像毎に設定する別の属性情報として、イベント情報が考えられる。イベント情報としては、例えば、家族旅行“travel”、卒業式“graduation”、結婚式“wedding”が挙げられる。 イベントの指定は、例えば、図14で示すように、カレンダー上で所望の日付をマウスポインタ1402などで指定して、その日のイベント名を入力することで設定できるようにしてもよい。指定されたイベント名は、画像の属性情報の一部として、図11に示すXMLフォーマットに含まれることになる。同図のフォーマットでは、UserInfoタグ内のEventタグを使って、イベント名と画像を関連付けている(紐付けている)。
次に、人物の属性情報について説明する。
図15は、人物の属性情報を入力するためのUIを示している。同図において、1502は所定人物(この場合は“father”)の代表顔画像を示している。また、1504には、他の画像の中から検出し、S506で顔特徴量が類似していると判断された画像の一覧が表示される。
センシング処理が終了した直後は、図7に示したように各人物グループには名前が入力されていないが、「No name」の部分703をマウスポインタで指示することにより、任意の人物名を入力することができる。
また、人物毎の属性として、それぞれの人物の誕生日やアプリを操作しているユーザから見た続柄を設定することもできる。本実施形態では、図15の人物の代表顔1502をクリックすると、画面下部に図示するように、クリックした人物の誕生日を第1入力部1505で、続柄情報を第2入力部1506で入力することができるようにした。
以上、入力された人物の属性情報は、これまでの画像に紐付けられた画像の属性情報とは異なり、画像属性情報とは別にデータベース202内で管理される。
本実施形態においては、あらかじめ様々なレイアウトテンプレートが用意されている。レイアウトテンプレートとは図16および図17に示すようなもので、レイアウトする用紙サイズ上に、複数の画像配置枠1702,1902(以降、スロットと同義)で構成されている。
このようなテンプレートは多数用意されており、あらかじめ本実施形態を実行するためのソフトウェアが情報処理装置115にインストールされた時点で、2次記憶装置103に保存しておけばよい。また、その他の方法として、IF 107や無線LAN109を介して接続されたインターネット上に存在するサーバー114から、任意のテンプレートを取得してもよい。
これらのテンプレートは汎用性の高いページ記述言語、例えば上述したセンシング結果の格納と同様にXMLなどで記載されているものとする。本実施形態においては、このようなテンプレートを多数保持する。
上記のように、本実施形態で提示したアプリケーションは、入力された画像群に対して解析処理を実行し、人物を自動的にグループ化してUIで表示することができる。また、ユーザはその結果を見て、人物グループ毎に名前や誕生日などの属性情報を入力したり、画像毎にお気に入り度などを設定することができる。
さらにはテーマごとに分類された多数のレイアウトテンプレートを保持することができる。
以上の条件を満たすと、本実施形態のアプリケーションは、ある所定のタイミングで、自動的にユーザに好まれそうなコラージュ画像を生成し、ユーザに提示する処理を行う。これを、レイアウトの提案処理と呼ぶこととする。
図6は、レイアウトの提案処理を行うための基本的なフローチャートを示している。
同図において、まずS601において、提案処理のシナリオを決定する。シナリオには、提案するレイアウトのテーマおよびテンプレートの決定、レイアウト内で重視する人物(主人公)の設定、レイアウト生成に用いる画像群の選定情報が含まれる。
以下では簡単のため、2つのシナリオについて例を記載する。
例えば、各人物の誕生日の2週間前になった場合、自動的にコラージュレイアウトを生成し提示するように予め設定されているとする。そして、図15で自動グループ化されている人物“son”の1歳の誕生日が2週間後となったとする。この場合には、提案するレイアウトのテーマは成長記録“growth”と決定する。次にテンプレートの選択を行うが、この場合には成長記録に適した図17のようなものを選択する。次に、レイアウトに利用するための画像群を選定する。この例の場合には、データベースを参照し、上記人物“son”の誕生日からこれまでに撮影した画像群のうち、“son”を含む画像群を大量に抽出してリスト化する。以上が、成長記録レイアウトのためのシナリオ決定である。
上記とは異なる例として、1カ月以内に撮影された旅行の写真がある場合、自動的にコラージュレイアウトを生成して提示するように予め設定されているとする。図14で登録したイベント情報から、例えば数日前に家族旅行に行きその画像が大量に2次記憶装置に保存されていることがわかると、シナリオ決定部は、家族旅行のレイアウトを提案するためのシナリオを決定する。この場合には、提案するレイアウトのテーマは旅行“travel”と決定し、図16のようなレイアウトを選択する。次に、レイアウトに利用するための画像群を選定する。この例の場合には、データベースS602を参照し、上記旅行イベントに紐付けられた画像群を大量に抽出してリスト化する。以上が、家族旅行レイアウトのためのシナリオ決定である。
次に、図6のS603において、上述したシナリオに基づくレイアウトの自動生成処理を実行する。ここで、図18を用いて、シナリオに基づくレイアウトの自動生成処理について説明する。図18はレイアウト処理部の詳細な処理フローを示している。
同図では、まずS2101で、上述したシナリオ生成処理で決定され、レイアウトテーマと人物グループ情報が設定された後のレイアウトテンプレート情報を、より取得する。
次に、S2103においては、上記シナリオで決定した画像群リストに基づいて、各画像毎に該画像の特徴量をデータベースから取得し、画像群属性情報リストを生成する。ここでいう画像群情報リストとは、図11に示したIMAGEINFOタグが画像リスト分だけ並んだ構成となっている。以降ではこの画像属性情報リストに基づいて、S2105〜S2109における自動レイアウト生成処理を行う。
このように、本実施形態の自動レイアウト生成処理では、このように画像データそのものを直接扱うのではなく、あらかじめ画像毎にセンシング処理を行ってデータベース保存しておいた属性情報を利用する。この理由は、レイアウト生成処理を行う際に、画像データそのものを対象としてしまうと、画像群を記憶するために非常に巨大なメモリ領域を必要としてしまうためである。すなわち、本実施形態のようにデータベース部に記憶しておいた属性情報を利用することにより、メモリ領域の使用量を低減することができる。
次に、S2105において、入力された画像群の属性情報を用いて、入力された画像群の中から不要画像のフィルタリングを行う。フィルタリング処理は、図19のフローにて行う。同図では、各画像毎に、まずS2201で全体の平均輝度がある閾値(ThY_LowとThY_Hight)内に含まれているかの判定を行う。否の場合にはS2206に進み、注目画像はレイアウト対象から除去する。具体的には、S2202では、ID=Nである顔領域のAveYが所定閾値(ThfY_LowとThfY_Hight)の範囲に含まれているか否かの判定を行う。S2203では、ID=Nである顔領域のAveChが所定閾値(ThfY_LowとThfY_Hight)の範囲に含まれているか否かの判定を行う。S2204では、ID=Nである顔領域のAveCrが所定閾値(ThfY_LowとThfY_Hight)の範囲に含まれているか否かの判定を行う。S2205では、最後の顔であるか否かを判定する。最後の顔ではない場合は、S2202へ戻り、最後の顔である場合は、処理を終了する。
同様に、S2202〜S2205では、注目画像に含まれる顔領域それぞれについて、平均輝度、平均色差成分が、良好な肌色領域を示す所定閾値に含まれているかの判定を行う。S2202〜S2205のすべての判定がYesとなる画像のみ、以降のレイアウト生成処理に適用される。
なお、このフィルタリング処理では、以降の一時レイアウト作成処理に明らかに不要と判断できる画像の除去を目的としているため、上記閾値は比較的湯緩やかに設定することが望ましい。例えばS2201の画像全体輝度の判定において、ThY_HighとThY_Lowの差が画像ダイナミックレンジに比して極端に小さいと、それだけYesと判定される画像が少なくなってしまう。したがって、本実施形態のフィルタリング処理では、両者の差をできる限り広く設定し、かつ明らかに異常画像と判断されるものは除去できるような閾値を設定する。
次に図18のS2107において、上記処理でレイアウト対象となった画像群を用いて、大量(L個)の一時レイアウトを生成する。一時レイアウトの生成は、取得したテンプレートの画像配置枠に対して、入力画像を任意に当てはめる処理を繰り返すことにより実行する。この時に、以下のパラメータ(画像選択・配置・トリミング基準)をランダムで決定する。画像選択基準としては、レイアウト中の画像配置枠がN個の時、画像群の中からどの画像を選択するかが挙げられ、配置としては、選択した複数の画像を、どの配置枠に配置するかが挙げられ、トリミング基準としては、・配置した際に、どの程度のトリミング処理を行うかというトリミング率が挙げられる。ここで、トリミング率は例えば0〜100%で表わされ、画像の中心を基準として、図20のように所定の領域がトリミングされる。同図において、2301は画像全体を示し、2302はトリミング率50%でトリミングした際の切り取り枠を示している。
上記の画像選択・配置・トリミング基準に基づいて、可能な限り数多くの一時レイアウトを生成する。生成した各一時レイアウトについても、XMLのように形式で表わすことができる。
なお、ここで生成する一時レイアウトの数Lについては、後述するレイアウト評価ステップでの評価処理の処理量と、それを処理する情報処理装置115の性能に応じて決定されるが、例えば数十万通り以上の一時レイアウトを用意する。
次に、図18のS2108において、上記で作成したL個の一時レイアウトに対して、それぞれ所定のレイアウト評価量を用いて評価を行う。本実施形態におけるレイアウト評価量の一覧を、図21に示す。同図に示すように、本実施形態で用いるレイアウト評価量は、主に3つのカテゴリに分けることができる。
一つ目の評価カテゴリは、画像個別の評価量である。これは画像の明るさや彩度、ブレぼけ量等の状態を判断し、スコア化するものである。スコア化の一例を如何に示す。まず明るさの適正度については、図22に示すように、平均輝度がある所定レンジ範囲内においてはスコア値100とし、所定レンジ範囲外となるとスコア値が下げるよう設定している。また、彩度の適正度については、図23に示すように、画像全体の平均彩度がある所定の彩度値より大きい場合にはスコア値100とし、所定値より小さい場合にはスコア値を除所に下げていくよう設定している。
二つ目の評価カテゴリは、画像とスロットの適合度の評価である。画像・スロットの適合度の評価としては、例えば、人物適合度、トリミング欠け判定が挙げられる。人物適合度とは、スロットに指定されている人物と、実際に該スロットに配置された画像内に存在する人物の適合率を表したものである。例を挙げると、あるスロットが、 “father”、“son”が指定されているものとする。この時、該スロットに割り当てられた画像に該2人の人物が写っていたとすると、該スロットの人物適合度はスコア値100とする。もし片方の人物しか写っていなかったとすると、適合度はスコア値50とし、両者とも写っていなかった場合は、スコア値0とする。ページ内の適合度は、各スロット毎に算出した適合度の平均値とする。
また別の画像・スロット適合度評価値として、トリミング領域2702の欠け判定が存在する。例えば、図24に示すように、画像中に存在する顔の位置2703が判明している場合、欠けた部分の面積に応じて、0から100までのスコア値を算出する。欠けた面積が0の場合、スコアは100とし、逆にすべての顔領域が欠けた場合、スコア値は0とする。
三つめの評価カテゴリは、レイアウトページ内のバランスの評価である。図21ではバランスを評価するための評価値として画像類似性、色合いばらつき、顔サイズばらつきを挙げている。
まず、画像類似性について説明する。画像の類似性は、大量に生成した一時レイアウト毎に、それぞれの画像の類似性を算出する。例えば旅行テーマのレイアウトを作成したい場合、あまりに似通った類似度の高い画像ばかりが並んでいたとすると、それは良いレイアウトとは言えないことがある。例えば、類似性は、撮影日時によって評価することができる。撮影日時が近い画像は、同じような場所で撮影された可能性が高いが、撮影日時が離れていれば、その分、場所もシーンも異なる可能性が高いからである。撮影日時は、図11で示したように、画像属性情報として、予めデータベース202に保存されている、画像毎の属性情報から取得することができる。撮影日時から類似度を求めるには以下のような計算を行う。例えば、今注目している一時レイアウトに図25で示すような4つの画像がレイアウトされているものとする。なお、図25において、画像IDで特定される画像には、それぞれ撮影日時情報が付加されている。具体的には、撮影日時として、年月日及び時間(西暦:YYYY、月:MM、日:DD、時:HH、分:MM、秒:SS)が付加されている。この時、この4つの画像間で、撮影時間間隔が最も短くなる値を算出する。この場合は、画像ID102と108間の30分が最も短い間隔である。この間隔をMinIntervalとし、秒単位で格納する。すわなち30分=1800秒である。このMinIntervalをL個の各一時レイアウト毎に算出して配列stMinInterval[l]に格納する。次に、該stMinInterval[l]の中で最大値MaxMinInterval値を求める。すると、l番目の一時レイアウトの類似度評価値Similarity[l]は以下のようにして求めることができる。
Similarity[l] = 100×stMinInterval[l] / MaxMinInterval
すなわち、上記Similarity[l]は、最小撮影時間間隔が大きいほど100に近づき、小さいほど0に近づく値となっているため、画像類似度評価値として有効である。
次に、レイアウトページ内のバランスを評価するための評価量として、色合いのバラつきについて説明する。例えば旅行テーマのレイアウトを作成したい場合、あまりに似通った色(例えば、青空の青、山の緑)の画像ばかりが並んでいたとすると、それは良いレイアウトとは言えないことがある。この場合は、色合いのばらつきが大きくなるように設定する。ここでは注目しているl番目の一時レイアウト内に存在する画像の平均色相AveHの分散を算出して、それを色合いのバラつき度tmpColorVariance[l]として格納する。次に、該tmpColorVariance[l]の中での最大値MaxColorVariance値を求める。すると、l番目の一時レイアウトの色合いバラつき度の評価値ColorVariance[l]は以下のようにして求めることができる。
ColorVariance[l] = 100 × tmpColorVariance[l] / MaxColorVariance
すなわち、上記ColorVariance[l]は、ページ内に配置された画像の平均色相のバラつきが大きいほど100に近づき、小さいほど0に近づく値となっているため、色合いのばらつき度評価値として有効である。
次に、レイアウトページ内のバランスを評価するための評価量として、顔の大きさのバラつき度について説明する。例えば旅行テーマのレイアウトを作成したい場合、レイアウト結果を見て、あまりに似通った顔のサイズの画像ばかりが並んでいたとすると、それは良いレイアウトとは言えないことがある。レイアウト後の紙面上における顔の大きさが、小さいものもあれば大きいものもあり、それらがバランスよく配置されていることが、良いレイアウトとする場合、顔サイズばらつきが大きくなるように設定する。その場合、注目しているl番目の一時レイアウト内に配置された後の顔の大きさ(顔位置の左上から右下までの対角線の距離)の分散値を、tmpFaceVariance[l]として格納する。次に、該tmpFaceVariance[l]の中での最大値MaxFaceVariance値を求める。すると、l番目の一時レイアウトの顔サイズバラつき度の評価値FaceVariance[l]は、以下のようにして求めることができる。
FaceVariance[l] = 100 × tmpFaceVariance[l] / MaxFaceVariance
すなわち、上記FaceVariance[l]は、紙面上に配置された顔サイズのバラつきが大きいほど100に近づき、小さいほど0に近づく値となっているため、顔サイズのバラつき度評価値として有効である。
またその他カテゴリとして、ユーザの嗜好性評価が考えられる。
以上説明したような、各一時レイアウト毎に算出した複数の評価値を、以下では統合化して、各一時レイアウト毎のレイアウト評価値とする。今、l番目の一時レイアウトの統合評価値を、EvalLayout[l]とし、上記で算出したN個の評価値(図21の評価値それぞれを含む)の値を、EvalValue[n]とする。この時、統合評価値は以下で求めることができる。EvalLayout[l]=Σ{EvalValue[n]×W[n]}ここで、Σはn=0,1,2,…,Nの合算演算記号を示す。また、W[n]は、図21で示したシーン毎の各評価値の重みである。該重みはレイアウトのテーマ毎に異なる重みを設定していることが特徴となっている。例えば、図21に示すようにテーマを成長記録“growth”と旅行“travel”で比較した場合、旅行テーマの方は、できるだけ良質の写真をいろいろな場面で数多くレイアウトすることが望ましいとし、画像の個別評価値やページ内のバランス評価値を重視する傾向に設定する。一方、成長記録“growth”の場合、画像のバリエーションよりは、成長記録の対象となる主人公が確実にスロットに適合しているか否かが重要である。そのため、ページ内バランスや画像個別評価よりも、画像・スロット適合度評価を重視する傾向に設定する。
このようにして算出したEvalLayout[l]を用いて、S2109では、レイアウト結果表示のためのレイアウトリストLayoutList[k]を生成する。レイアウトリストは、予め定められた個数(例えば5個)に対して、EvalLayout[l]のうち、評価値が高いもの順に識別子lを記憶しておく。例えば最も良いスコアを出したものが、l=50番目に作成した一時レイアウトであった場合、LayoutList[0]=50となる。同様に、LayoutList[1]以降は、スコア値が2番目以降の識別子lを記憶しておく。
次に、図19を用いて説明したレイアウト生成処理によって得られたレイアウト結果を表示する。本実施形態では、レンダリングした結果を、図6のS605でレンダリングして結果を図26のように表示し、提案する。S605では、まずLayoutList[0]に格納されているレイアウト識別子を読み出し、該識別子に相当する一時レイアウト結果を、2次記憶装置あるいはRAM上から読み出す。レイアウト結果には、上述したようにテンプレート情報と該テンプレート内に存在するスロット毎に、割り当てられた画像名が設定されている。S605ではこれらの情報に基づいて、情報処理装置115上で動作するOSの描画関数を用いて、該レイアウト結果をレンダリングし、図26の2902のようにポップアップし、表示する。
同図の他の画像ボタン2903を押下することにより、次点スコアであるLayoutList[1]の識別子を読み出し、上記と同様にレンダリング後、表示を行うことで、ユーザは様々なバリエーションの提案レイアウトを閲覧することができる。さらに、表示されたレイアウトが気に入った場合には、印刷ボタン2905を押下することで、情報処理装置115に接続されたプリンタ112からレイアウト結果をプリントアウトすることもできる。
上述した実施形態のうち、図5のS512にあたる顔辞書作成処理について説明する。
図27に顔辞書作成処理S512のフローチャートを示す。以下、本実施形態では、説明を簡単にするために、顔を構成する部位による判定として、眉の角度、目の大きさ、口の角度を例に挙げて説明するが、これに限定されるものではない。例えば、さらに多くの部位を用いて判定ようにしてもよく、他の部位を用いて判定してもよい。
S3301〜S3303は、それぞれ、眉の角度Bθ、目の大きさES、口の角度Mθ(以下、説明のために、これらを特徴量要素と呼ぶ)の算出を行う。
S3301では、眉角度を算出する。眉の角度は、例えば、両端部を直線で結んだ際の水平からの傾きから算出することができる。眉の角度を左右別々に取得するようにしてもよいが、本実施形態では、左右の眉の角度の平均を求めて、これを眉の角度とした。S3302では、目の大きさを算出する。目の大きさは、目の横(水平)方向、縦(垂直)方向の高さを、左右別々に算出してもよいが、本実施形態では縦方向の左右の平均の値とした。S3303では、口の角度は、眉毛と同様に、水平からの傾きから算出した。口の角度を算出する際には、口は顔の中心で変局点を取ることも多いので、最大角度を利用したり、近似曲線を使って求めたりしてもよい。
S3304では、顔辞書に登録された特徴量パターンの中に、類似のものがあるか否かを判定する。すなわち、算出したBθ、ES、Mθの組み合わせ(以下、これを特徴量パターンと呼ぶ)が顔辞書内に既に存在するか否かの判断を行う。このとき、既に顔辞書に格納されている特徴量パターンのうち、各特徴量要素の平均値BθAve、ESAve、MθAveに対し、算出した眉の角度Bθ、目の大きさES、口の角度Mθが予め定められ所定範囲内にあるか否かで判定する。この範囲をBθWidth、ESWidth、MθWidthと定義した場合には、次の評価を行えば良い。
(BθAve−BθWidth)< Bθ <(BθAve+BθWidth) かつ
(ESAve−ESWidth)< ES <(ESAve+ESWidth) かつ
(MθAve−MθWidth)< Mθ <(MθAve+MθWidth)
類似のものが存在しない場合は、S3305で新たな特徴量パターンとして、顔辞書に新規登録する。類似のものが存在する場合は、S3306において、該特徴量パターンと同一と判断され、追加登録される。
次のS3307では、新規作成又は追加された特徴量パターンにおいて、各特徴量要素の統計値を作成又は更新を行う。統計値の一例としては、上記S3304で使用した平均値のほか、分散値などが挙げられる。
以上により、顔辞書の追加、更新が繰り返され、S511において、全画像が終了と判断された場合には、既存画像をもとにした顔辞書が作成される。
次にS513の細分化グループ生成について説明する。ここでは、顔辞書内の1つのグループ(例えば人物「太郎」)に属する特徴量をさらに細分化処理することで、よりきめ細かい判定が可能な辞書に修正する。図28に細分化グループ生成処理のフローチャートを示す。なお、細分化グループ生成処理は、該当する人物であると判定された顔の個数が、予め設定された個数以上になった場合に実行されるものとする。
S3401では対象となる人物「太郎」と判定された画像群の特徴量の特徴量パターンを取得する。尚、上記と同様、特徴量パターンは、眉の角度、目の大きさ、口の角度の特徴量要素で構成されているものとして説明する。
S3402では、特徴量要素の一つを取得する。そして、S3403にて、対象とする特徴量要素のピーク検出を行う。図29(a)に、ある特徴量パターンの一例を示す。横軸が特徴量を示し、矢印がその特徴量の存在範囲を示している。縦軸が度数(頻度)である。
S3402において対象とする特徴量要素を眉の角度とした場合には、図29(a)では、2つのピークが検出される。ピークの検出は、幾つかの方法があるが、微分処理を用いて変局点(ここでは上に凸の変局点)を検出するものとする。なお、局所的な凹凸により誤検出してしまう場合は、スムージング処理や近似曲線を併用する方法も有用である。図29(a)の眉の角度を表わす特徴量範囲には、ピークが2つ検出される。また、同様の処理を適用すると、図29(a)では、目の大きさ、口の角度はそれぞれ1および2となる。
S3404において、着目部位についてピークが複数あるか否かの判定、すなわち、小分類化できるか否かの判定を実施する。
2つ以上のピークが存在する場合は、S3405へと進み、特徴量存在範囲を2以上の小範囲に分割する処理(ピーク分割処理)が実施される。その後、S3406に処理を進める。分割方法は、ピーク値を中心とした正規分布を考慮してもよいし、実際の半値幅をもとに推定する方法を利用してもよい。本実施形態では、図29(b)に示すように、分割をする。
一方、S3404でピークが1以下であれば、ピーク分割はせず、現在の特徴量範囲を維持し、S3406に処理を進める。
S3406において、全特徴量要素についてS3403からS3405が終了したか否かを判定する。終了した場合は、S3407に進み、終了していない場合は、S3402へ戻る。また、S3407において、全特徴量パターンについてS3402からS3406が終了したか否かを判定する。終了した場合は、S3408に進み、終了していない場合は、S3401へ戻る。
S3408では、S3405において分割されたピークをもとに、再度グルーピングをやり直す。図29(a)では同一特徴量要素となっていたものを本処理後では、図29(b)のように分割し、それに基づき顔辞書を変更する。図29(b)の例では、図29(a)であった特徴量パターンが分割され、図29(b)の眉の角度は2種類(矢印の色:黒、白)、目は1種類のまま(同:黒)、口の角度は2種類(同:黒、白)に分割される。従って、分割処理後は下記2×1×2=4通りの特徴量パターンになる。
特徴量パターン1:眉(黒)×目(黒)×口(黒)
特徴量パターン2:眉(黒)×目(黒)×口(白)
特徴量パターン3:眉(白)×目(黒)×口(黒)
特徴量パターン4:眉(白)×目(黒)×口(白)
尚、図29の眉の角度のように、正規分布などで推定した場合、重複する領域が存在することになる(同図(b)斜線部)。この場合、該領域に存在する画像をどちらに振り分けるのかが問題となる。本実施形態では、両ピークの交点Aを求め、交点Aに相当する角度MθAを境界に細分化を実施する。こうすることで、画像の細かい変化に感度をもつ辞書が作成されることになる。例えば、特徴量パターン1は、大きく笑った顔への検出、特徴量パターン2では少し笑った顔への検出感度をもつ辞書となる。
さらに、本実施形態では、上記のようにして得られた各特徴量パターン毎(パターン1乃至4)の出現頻度を計数し、出現頻度が少ないパターンを除外する。図37にそのフローチャートを示す。S4301で対象とする特徴量パターンを取得し、S4302でその出現頻度(ここでは画像の中の出現回数)を計測する。S4303において、予め決められた所定数と比較し、所定数未満の場合はS4304へ進み、所定数以上の場合は、S4305へ進む。S4304では、該当するパターンは所定基準を満たさないとして削除する。すなわち、所定数以下であるパターンを個人識別のためのパターンから除外する。このとき、取りえない組み合わせのパターンは、個人識別のためのパターンから除外される。これを細分化した全特徴量パターンに対し実施する。S4305では、全特徴量パターンが終了したか判定し、終了していない場合は、S4301へ戻り、終了している場合は処理を終了する。これにより、各部位の取り得る組み合わせを規定し、目は笑っているものの口は怒っているなどの、実際に取り得ない組み合わせを除外し、出現頻度の高いパターンで辞書を更新することで、辞書の精度、すなわち、人物識別の精度の向上を図ることが出来る(精度の高い辞書管理が可能になる)。
また、こうした処理は表情だけでなく、眉と口の角度は似ているものの、目の大きさが少し違うといった、似た顔をもつ異なる人物(例えば、兄弟や親子など)を区別するのにも有効となる。
尚、顔の変化の中には、メガネなどの装飾品を付けた場合も含めることが出来る。レンズの影響で目の大きさなどが変化することも起こり、この場合も独立した特徴量パターンとして辞書に登録することにより、検出性能を持つことが出来る。
上記の処理の結果、例えば人物「太郎」を識別するための顔辞書は、図30に示すように構築される。図示の如く、特徴量パターン1、2、4を用いて「太郎」を識別することと決定し、特徴パターン3は「太郎」を識別するためには不使用とする。不使用とするとは、識別対象の顔画像の特徴が特徴量パターン3であったとしても、それを「太郎」とは識別しないことを意味する。この結果、たまたま他人が特徴量パターン3を持つ顔を持っていたとしても、それを誤って太郎とは識別しなくなる。すなわち、他人が誤って「太郎」として判定される可能性を低くするいことができ、顔識別の精度を向上させることが可能になる。
上述した顔辞書を利用し、新たに入力された画像の個人認識を行う。その際、顔辞書についても、適宜修正を行うことにより、個人認識の精度を向上させることができる。当初の顔辞書を作成した画像群が、必ずしも十分なサンプル数であったとは限らないからである。一方で、十分最適な顔辞書になっているにも関わらず、修正を行い精度の低下を引き起こす恐れもある。それらを考慮し、下記処理により、辞書の更新を実施する。
図31に、新たに入力された画像内に存在する顔の個人認識および顔辞書の更新のフローチャートを示す。
S3701では、対象とする顔の画像を取得する。この顔の画像は、S504で記載されたものと同様に正規化処理実施済みのものとする。
S3702では、S3701で取得した画像より、特徴量要素である、眉の角度Bθ、目の大きさES、口の角度Mθを算出する。
S3703では、顔辞書内に登録された特徴量パターンを参照し、類似のパターンがあるか否かの判定を行う。図27のS3304で示した処理と同様の判定でも構わないが、予め設定する所定の範囲BθWidth2、ESWidth2、MθWidth2(いずれも正の値としている)は、S3304のそれらよりも小さい値にすることが望ましい。既に細分化グループ生成が実施されているものであり、各特徴量パターンのもつ特徴量要素の幅が小さいためである。
(BθAve−BθWidth2)< Bθ <(BθAve+BθWidth2) かつ
(ESAve−ESWidth2)< ES <(ESAve+ESWidth2) かつ
(MθAve−MθWidth2)< Mθ <(MθAve+MθWidth2
上記条件による判定が実行され、類似パターンが存在する場合はS3704へ進み、存在しない場合はS3705に進む。S3704では、該特徴量パターンとひも付けられた(関連付けられた)名前が特定され、対象の顔の個人認識が実施される。
S3705では、該当する顔(人物)が存在しなかったため、処理は終了になる。
S3704では、個人認識が実施された後、辞書の更新処理に移行する。S3706では、対象となった特徴量パターンのもつ統計値を取得する。このうち、ばらつきを示す分散値σOLDに着目する。
S3707において、既存の分散値σOLDが、予め設定した所定値以上であるか否かの判定を実施する。既存の分散値σOLDが所定値以上ではない場合、すなわち、十分に小さい値になっている場合は、特徴量パターンが既に十分な精度が出ていると判断し、S3708に進む。この場合は、特に顔辞書は更新されない。
一方、既存の分散値σOLDが所定値以上と判定された場合は、まだ特徴量パターンを形成するのに十分なサンプリング数でないと判断し、S3709に進む。
S3709では対象となる顔の特徴量パターンを追加した場合の統計量を算出する。新たに計算された分散値をσNEWとする。
S3710では、σOLDとσNEWの比較を行い、σNEWが小さくなる場合、つまり追加した方が、ばらつきが小さくなる場合には、S3711に進み、顔辞書に特徴量パターンの追加が行われる。ばらつきが小さくならない場合は、S3708に進み、特に顔辞書は更新されない。
本実施形態では、顔辞書を用いた個人認識精度を向上させることができる。例えば、デジタル画像中の顔の個人認識処理において、表情の異なる画像について、十分な精度を実現することができる。尚、異なる表情の中には、メガネなどの装飾品による変化も含まれる。以上のように、個人認識を実施すると同時に、必要と判断した場合には顔辞書の更新を行うことで、顔辞書の学習機能を有することが出来る。また、本実施形態に係る辞書を用いた上記処理により、提案型でコラージュ画像を作成する際に、既存の画像に類似する表情の画像であっても正確に個人認識することが可能となる。このように、誤った個人認識が抑制されることにより、適切なコラージュ画像を提案することができる。なお、本実施形態では、ピークを分割することにより、特徴量を細分化したが、特徴量を細分化できるものであれば、これに限定されない。
[実施形態2]
上記実施形態1では、特徴量パターンを構成する特徴量要素として、眉の角度、目の大きさ、口の角度を例に挙げた。
これに対し、本実施形態では、人物識別のためのパターンの1要素として時間を取り入れた例を説明する。本実施形態は、顔辞書以外は、実施形態1と同様であるので、実施形態1と同様の部分については説明を省略する。
人物識別のためのパターンの1要素として、時間要素を取り入れる場合、各画像とその撮影日時がひも付けされることが必要になる。本実施形態では、各画像は図11に示す属性情報を用いて記憶管理されるので、図11の記述ににおけるタグ「CaptureDateTime」からその撮影時刻を得ることができる。
図32は、人間の顔のある変化の度合いを示したイメージ図である。縦軸はある特徴量を示す軸、横軸は時間軸である。図32に示すように、人間の顔は、誕生から変化を始め、死亡するまで常に変わり続ける。したがって、本実施形態では、加齢による変化という要素を加えて顔辞書を細分化する。
実施形態1で細分化した特徴量パターンを用いることによる多様な表情検出について説明したが、本実施形態では、さらに、その中で加齢による変化という要素を加えてさらに細分化し、個人認識精度を向上させた。
顔辞書の作成に係る処理手順を図35に示す。尚、S4101〜S4107については、図27のS3301〜S3307と同様であるため説明は省略する。
S4108では、S4106で画像の特徴量要素を辞書に追加した後、該画像の時間情報を取得する。時間の情報は、画像ファイルに付加されているメタデータ、例えばExifの撮影日時を参照すればよい。メタデータが含まれない場合は、ファイルの作成日時を参照することでも代用可能である。
画像ファイルのExif情報は、撮影日時として秒単位の詳細なものが記載されているが、本処理ではそこまでの情報は必要ないため、日、月、年などの単位でまとめた時間の情報を取得するようにしてもよい。また、図32の顔の変化に示したように、幼少の頃の方が大きく、年齢を重ねるにつれ、変化率が小さくなることを考慮し、対象とする人物の年齢に応じ、取得する時間の情報の単位を切り替えるようにしても良い。
最初の検出時で、まだ年齢や名前などのプロファイルが取得出来ていない場合は、予め決められた期間を使用すればよい。
顔辞書の細分化グループ生成処理のフローは実施形態1の図28に示したものと同様であるが、S3408のグルーピング処理において、取得した時間の情報を利用し、実施を行う点で異なる。その部分について説明を加える。
図33は、本実施形態の特徴量要素を示す図である。実施形態1の図29で示した特徴量要素、眉の角度、目の大きさ、口の角度に加え、時間の特徴量要素が加わったものになっている(図33)。時間の特徴量要素の場合、一定期間撮影した後、しばらく経って撮影というケースもあり、正規分布になるとは限らない。そうしたことを考慮し、上述した日、月、年など決められた期間の最初と最後の日時を決定すればよい。
ピークで分離したものに対し、さらに時間の要素を考慮したグルーピング処理を実施する。図33において、特徴量要素としての時間を、黒、斜線、白の3つの時間範囲で表している。
この時間の要素を、他の特徴量要素に適用したものが、それぞれのピーク部分である。例えば、眉の角度であれば、ピーク検出による細分化により、2つに分けられるが、さらに時間の要素により、5つに細分化される(黒:2、斜線:2、白:1)。同様に、目の大きさ、口の角度は、それぞれ、3(黒:1、斜線:1、白:1)、4(黒:2、斜線:1、白:1)に細分化される。顔辞書としては、同一時間の要素を掛け合わせて、登録することから、
黒:2×1×2=4
斜線:2×1×1=2
白:1×1×1=1
の合計7つの特徴量パターンに分類される。
この後、第1実施形態で図37を用いて説明した、出現頻度による、取り得ない組み合わせの除去を実施する。
こうした処理を実施することにより、図34に示すような顔辞書が構成される。すなわち、7つの特徴量パターンのうち、特徴量パターン1、2、4、5、7は「一郎」を識別するために利用し、残りの特徴量パターン3、6は「一郎」を識別するためには使用しないことにする。
上記で作成した時間を考慮した顔辞書を利用し、新たに入力された画像の個人認識を行っていく方法について説明する。実施形態1と同様に、個人認識すると同時に、その結果をもとに辞書の更新を行う。処理フローは、図31のフローと同様であるため、説明は省略する。
ここでは、辞書の更新方法の一つとして、顔辞書の容量最適化処理について説明する。本実施形態のシステムでは、顔辞書のデータは、2次記憶装置、図1の103に記憶されることになる。2次記憶装置103は、一般的に有限な領域のため、顔辞書データを蓄積する際も限られた容量に抑える必要がある。つまり、予め決められた容量をオーバーした場合は、データベースに登録してある何かしらのデータを削除し、容量を押さえる処理が必要となる。
図36は、容量を抑える処理の一例の処理フローを示したものである。S4201では、顔辞書データベースの容量が一定以上に到達しているか否かの判定処理を実施する。本判定処理で、一定以上に達していない、すなわち、まだ容量に十分な空きがあると判定された場合には、何も行われず、処理を終了する。容量が一定以上であり、データの削減が必要だと判断された場合は、S4202へと進む。S4202では、顔辞書を生成した際に利用した時間の特徴量要素を参考に最も古い時間で構成される特徴量パターンを検出し、取得する。S4203では、S4202で取得した特徴量パターンの削除を実行する。実行後、再度、容量の確認を行い、一定以下になるまで繰り返し処理が実施される。
図33に示した例では、時間の特徴量要素のうち、左側が古い、つまり最も古いものを黒とした場合に、黒の特徴量要素を含むデータを削除する。つまり、本例であれば、黒の特徴量パターン4つが削除されることになる。
顔が刻々と変化することは上述したが、新たに入力され画像に対し、個人認識処理を実施するため参照する顔辞書は、新しいデータで構成することにより、より個人認識精度を向上させることができる。すなわち、古い時間の含むものを取り除いて行くことにより、より個人認識を向上させることができる。なお、時間を利用し、細分化した特徴量要素で構成されている顔辞書では、この処理を実現するのが容易である。
尚、図36で記載した処理フローでは、容量を参照し、その実施可否を判断したが、これ以外にもユーザが明示的に容量を削減する処理を実施してもよい。
[その他の実施形態]
以上説明した実施形態は本発明の効果を得るための一手段であり、類似の別手法を用いたり、異なるパラメータを用いたとしても、本発明と同等の効果が得られる場合は、本発明の範疇に含まれる。
尚、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、プログラムは、1つのコンピュータで実行させても、複数のコンピュータを連動させて実行させるようにしてもよい。また、上記した処理の全てをソフトウェアで実現する必要はなく、一部または全部をハードウェアによって実現するようにしてもよい。
上述した実施形態では、レイアウト出力物として、1ページに複数の画像を配置した出力物について説明したが、勿論、複数ページの出力にも適用することができる。

Claims (12)

  1. 画像データから抽出した被写体の顔領域の複数の部位の特徴量を含む特徴パターンを被写体毎に分類して、顔領域の認識に用いる辞書において管理する管理手段と、
    前記被写体の顔領域の複数の部位のうち着目部位の特徴量を、小分類化できるか判定し、小分類化できると判定した場合には前記着目部位の特徴量を複数に小分類化して新たな特徴量とする小分類化手段と、
    前記小分類化手段により小分類化された場合は、前記着目部位の新たな特徴量と、前記管理手段において管理される前記着目部位以外の部位の特徴量と、を組み合わせた特徴パターンを、前記被写体の新たな特徴パターンとして前記辞書に登録する登録手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記管理手段において管理される特徴パターンの複数の画像データにおける出現頻度が所定基準を満たすか否かを判定する判定手段と、
    前記判定手段で所定基準を満たさないと判定された特徴パターンを除外する除外手段とを備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記特徴パターンは、顔領域内の装飾品の特徴量を含むことを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記辞書における被写体の特徴パターンのばらつきが予め設定された値を超えた場合に、前記辞書における被写体の特徴パターン及び新たな特徴パターンのばらつきが、前記辞書における被写体の特徴パターンのばらつきよりも小さいか判定する第2判定手段を備え、
    前記登録手段は、前記第2判定手段により小さいと判定された場合に、前記被写体の新たな特徴パターンを辞書に登録することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記被写体の顔領域の各部位の特徴量のピークを特定する特定手段をさらに備え、前記特定手段がある着目部位の特徴量において複数のピークを特定した場合、前記小分類化手段は、特定したピークに応じてその着目部位の特徴量を複数に小分類化して新たな特徴量とすることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記特定手段がある着目部位において複数のピークを特定しなかった場合、前記小分類化手段は、その着目部位の特徴量を分割しないことを特徴とする請求項5に記載の情報処理装置。
  7. 前記小分類化手段により小分類化された場合は、前記登録手段は、前記小分類化する前の特徴量の代わりに、前記小分類化手段により小分類化した複数の小分類化済み特徴量と、前記着目部位以外の部位の特徴量と組み合わせた特徴量パターンを、前記被写体の新たな特徴量パターンとして前記辞書に登録することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 各画像データの画像の撮影日時を示す情報を取得する取得手段をさらに備え、
    前記小分類化手段は、前記被写体の撮影日時の時間軸に沿って特徴量をさらに分割する
    ことを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記辞書を用いて画像データの顔認識をする認識手段をさらに備えることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
  10. 前記複数の部位は、目、眉、口、鼻のうち少なくとも2以上を含むことを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
  11. 画像データから抽出した被写体の顔領域の複数の部位の特徴量を含む特徴パターンを被写体毎に分類して、顔領域の認識に用いる辞書において管理する管理工程と、
    前記被写体の顔領域の複数の部位のうち着目部位の特徴量を、小分類化できるか判定し、小分類化できると判定した場合にはその着目部位の特徴量を複数に小分類化して新たな特徴量とする小分類化工程と、
    前記小分類化工程において前記着目部位の特徴量が複数に小分類化された場合は、前記着目部位の新たな特徴量と、前記管理工程において管理される前記着目部位以外の部位の特徴量と、を組み合わせた特徴パターンを、前記被写体の新たな特徴パターンとして前記辞書に登録する登録工程と、
    を備えることを特徴とする情報処理装置の制御方法。
  12. 請求項1乃至10のいずれか一項に記載の情報処理装置の各手段としてコンピュータを機能させるためのプログラム。
JP2012154011A 2012-07-09 2012-07-09 情報処理装置及びその制御方法及びプログラム Active JP6039942B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012154011A JP6039942B2 (ja) 2012-07-09 2012-07-09 情報処理装置及びその制御方法及びプログラム
US13/922,802 US9275270B2 (en) 2012-07-09 2013-06-20 Information processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012154011A JP6039942B2 (ja) 2012-07-09 2012-07-09 情報処理装置及びその制御方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2014016824A JP2014016824A (ja) 2014-01-30
JP2014016824A5 JP2014016824A5 (ja) 2015-08-27
JP6039942B2 true JP6039942B2 (ja) 2016-12-07

Family

ID=49878566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012154011A Active JP6039942B2 (ja) 2012-07-09 2012-07-09 情報処理装置及びその制御方法及びプログラム

Country Status (2)

Country Link
US (1) US9275270B2 (ja)
JP (1) JP6039942B2 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9088753B2 (en) 2013-01-11 2015-07-21 Canon Kabushiki Kaisha Image forming apparatus, luminance correction method, and storage medium storing program
JP6198521B2 (ja) 2013-08-26 2017-09-20 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2015043158A (ja) 2013-08-26 2015-03-05 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN105303591B (zh) * 2014-05-26 2020-12-11 腾讯科技(深圳)有限公司 在拼图上叠加地点信息的方法、终端及服务器
JP6417154B2 (ja) 2014-08-27 2018-10-31 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2016031190A1 (ja) 2014-08-27 2016-03-03 日本電気株式会社 情報処理装置および認識支援方法
US10049273B2 (en) * 2015-02-24 2018-08-14 Kabushiki Kaisha Toshiba Image recognition apparatus, image recognition system, and image recognition method
JP6472300B2 (ja) 2015-03-31 2019-02-20 キヤノン株式会社 画像処理装置および情報処理装置、並びに、それらの方法
JP6478840B2 (ja) 2015-07-01 2019-03-06 キヤノン株式会社 画像処理装置および画像処理方法
KR102439938B1 (ko) 2015-08-03 2022-09-05 삼성전자주식회사 사용자 인증을 위한 멀티-모달 퓨전 방법 및 사용자 인증 방법
JP6660119B2 (ja) 2015-08-07 2020-03-04 キヤノン株式会社 情報処理装置、情報処理方法、並びにプログラム
JP6525862B2 (ja) 2015-08-07 2019-06-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6666046B2 (ja) 2016-04-25 2020-03-13 キヤノン株式会社 画像処理装置および画像処理方法
EP3239929B1 (en) 2016-04-27 2019-06-12 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
JP6942464B2 (ja) 2016-12-09 2021-09-29 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6902860B2 (ja) 2016-12-09 2021-07-14 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10019788B1 (en) * 2017-02-14 2018-07-10 Cogniac, Corp. Machine-learning measurements of quantitative feature attributes
JP6902886B2 (ja) 2017-03-14 2021-07-14 キヤノン株式会社 画像処理装置、方法およびプログラム
WO2019212230A1 (ko) * 2018-05-03 2019-11-07 엘지전자 주식회사 영상 코딩 시스템에서 블록 사이즈에 따른 변환을 사용하는 영상 디코딩 방법 및 그 장치
JP7104575B2 (ja) 2018-06-29 2022-07-21 キヤノン株式会社 画像処理装置、制御方法、及びプログラム
JP7316768B2 (ja) 2018-06-29 2023-07-28 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7350495B2 (ja) 2019-02-28 2023-09-26 キヤノン株式会社 装置、方法、及びプログラム
JP7341677B2 (ja) 2019-02-28 2023-09-11 キヤノン株式会社 装置、方法、及びプログラム
JP7341676B2 (ja) 2019-02-28 2023-09-11 キヤノン株式会社 装置、方法、及びプログラム
JP7286392B2 (ja) 2019-04-17 2023-06-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7286393B2 (ja) * 2019-04-17 2023-06-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2021033334A (ja) * 2019-08-13 2021-03-01 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP7433912B2 (ja) 2020-01-06 2024-02-20 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、プログラム、および記憶媒体
JP2022061279A (ja) 2020-10-06 2022-04-18 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2022123209A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2022123213A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2022123210A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2023021794A (ja) 2021-08-02 2023-02-14 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2023067166A (ja) 2021-10-29 2023-05-16 キヤノン株式会社 画像処理装置及び画像処理方法
JP2023067164A (ja) 2021-10-29 2023-05-16 キヤノン株式会社 画像処理装置及び画像処理方法

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63296465A (ja) 1987-05-28 1988-12-02 Canon Inc 受信画像記録装置
JP2541688B2 (ja) 1990-05-21 1996-10-09 日産自動車株式会社 眼位置検出装置
JP3302011B2 (ja) 1990-06-11 2002-07-15 キヤノン株式会社 図形編集方法及びその装置
JP2973676B2 (ja) 1992-01-23 1999-11-08 松下電器産業株式会社 顔画像特徴点抽出装置
JPH0695685A (ja) 1992-09-17 1994-04-08 N T T Data Tsushin Kk パターン認識辞書作成方法
US5677725A (en) 1993-02-25 1997-10-14 Canon Kabushiki Kaisha Image forming apparatus and method performing a halftone image by pulse-width modulation
JP3015264B2 (ja) 1993-12-10 2000-03-06 キヤノン株式会社 情報処理装置及び方法
JP3557659B2 (ja) 1994-08-22 2004-08-25 コニカミノルタホールディングス株式会社 顔抽出方法
JPH0877334A (ja) 1994-09-09 1996-03-22 Konica Corp 顔画像の特徴点自動抽出方法
JP3461626B2 (ja) * 1995-07-28 2003-10-27 シャープ株式会社 特定画像領域抽出方法及び特定画像領域抽出装置
JPH1153525A (ja) 1997-08-06 1999-02-26 Matsushita Electric Ind Co Ltd 顔器官検出装置及び媒体
JP3549013B2 (ja) 1998-03-05 2004-08-04 日本電信電話株式会社 目の位置検出方法、目の位置検出装置および目の位置検出プログラムを記録した記録媒体
US6694051B1 (en) 1998-06-24 2004-02-17 Canon Kabushiki Kaisha Image processing method, image processing apparatus and recording medium
JP3492202B2 (ja) 1998-06-24 2004-02-03 キヤノン株式会社 画像処理方法、装置および記録媒体
JP2000105829A (ja) 1998-09-29 2000-04-11 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
JP2000132688A (ja) 1998-10-29 2000-05-12 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
JP2000235648A (ja) 1999-02-17 2000-08-29 Fujitsu Ltd 目の抽出装置および瞬き検出装置
JP2001216515A (ja) 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置
US6965684B2 (en) 2000-09-15 2005-11-15 Canon Kabushiki Kaisha Image processing methods and apparatus for detecting human eyes, human face, and other objects in an image
US6895103B2 (en) 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
JP4095265B2 (ja) 2001-09-06 2008-06-04 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータ読み取り可能な記憶媒体、及びコンピュータプログラム
JP4335492B2 (ja) 2002-03-05 2009-09-30 キヤノン株式会社 動画像管理方法及び装置
US7432985B2 (en) 2003-03-26 2008-10-07 Canon Kabushiki Kaisha Image processing method
US20050063568A1 (en) * 2003-09-24 2005-03-24 Shih-Ching Sun Robust face detection algorithm for real-time video sequence
JP4348202B2 (ja) * 2004-01-21 2009-10-21 日本放送協会 顔画像認識装置及び顔画像認識プログラム
JP4926568B2 (ja) 2006-06-29 2012-05-09 キヤノン株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP4637063B2 (ja) 2006-07-04 2011-02-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP4632452B2 (ja) 2006-07-07 2011-02-16 キヤノン株式会社 画像補正処理装置、画像補正処理方法、プログラム及び記憶媒体
JP5032911B2 (ja) 2007-07-31 2012-09-26 キヤノン株式会社 画像処理装置及び画像処理方法
JP5109564B2 (ja) * 2007-10-02 2012-12-26 ソニー株式会社 画像処理装置、撮像装置、これらにおける処理方法およびプログラム
JP4991604B2 (ja) 2008-03-17 2012-08-01 キヤノン株式会社 画像処理装置、画像処理方法
JP2011171782A (ja) * 2008-05-30 2011-09-01 Access Co Ltd コンテンツ自動再生方法、コンテンツ自動再生プログラム、コンテンツ自動再生システム、およびコンテンツ自動再生サーバ
JP5390943B2 (ja) * 2008-07-16 2014-01-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP5390828B2 (ja) 2008-10-17 2014-01-15 キヤノン株式会社 画像処理装置、及び、画像処理方法
JP5743384B2 (ja) 2009-04-14 2015-07-01 キヤノン株式会社 画像処理装置及び画像処理方法とコンピュータプログラム
JP5183568B2 (ja) 2009-05-21 2013-04-17 キヤノン株式会社 画像処理装置及び方法、及びプログラムを記録した記憶媒体
JP5424712B2 (ja) 2009-05-21 2014-02-26 キヤノン株式会社 画像処理装置及びその制御方法とプログラム
JP5328505B2 (ja) 2009-06-18 2013-10-30 キヤノン株式会社 画像処理装置および画像処理方法
JP5554984B2 (ja) * 2009-12-24 2014-07-23 キヤノン株式会社 パターン認識方法およびパターン認識装置
JP5595121B2 (ja) 2010-05-24 2014-09-24 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP5700968B2 (ja) 2010-07-16 2015-04-15 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP5791241B2 (ja) 2010-07-16 2015-10-07 キヤノン株式会社 画像処理方法、画像処理装置、およびプログラム
JP5649425B2 (ja) * 2010-12-06 2015-01-07 株式会社東芝 映像検索装置

Also Published As

Publication number Publication date
US9275270B2 (en) 2016-03-01
JP2014016824A (ja) 2014-01-30
US20140010450A1 (en) 2014-01-09

Similar Documents

Publication Publication Date Title
JP6039942B2 (ja) 情報処理装置及びその制御方法及びプログラム
JP6012310B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5956860B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5993642B2 (ja) 情報処理装置及びその制御方法及びプログラム
JP6045232B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6071289B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6012309B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US10127436B2 (en) Apparatus, image processing method and storage medium storing program
US9436706B2 (en) Image processing apparatus, image processing method, and storage medium for laying out images
JP6071288B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6071287B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6031278B2 (ja) 情報処理装置及びその制御方法及びプログラム
JP6016489B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム
US9542594B2 (en) Information processing apparatus, method for processing information, and program
JP6222900B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6282065B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US9509870B2 (en) Image processing apparatus, image processing method, and storage medium enabling layout varations
US10708446B2 (en) Information processing apparatus, control method, and storage medium
JP6797871B2 (ja) プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161107

R151 Written notification of patent or utility model registration

Ref document number: 6039942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151