JP2014016822A - 画像処理装置及びその制御方法、プログラム - Google Patents

画像処理装置及びその制御方法、プログラム Download PDF

Info

Publication number
JP2014016822A
JP2014016822A JP2012154009A JP2012154009A JP2014016822A JP 2014016822 A JP2014016822 A JP 2014016822A JP 2012154009 A JP2012154009 A JP 2012154009A JP 2012154009 A JP2012154009 A JP 2012154009A JP 2014016822 A JP2014016822 A JP 2014016822A
Authority
JP
Japan
Prior art keywords
face
category
image
dictionary
category determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012154009A
Other languages
English (en)
Other versions
JP5956860B2 (ja
JP2014016822A5 (ja
Inventor
Hiroyasu Kunieda
寛康 國枝
Tetsuya Suwa
徹哉 諏訪
Takashi Nakamura
隆 中村
Takashi Fujita
貴志 藤田
Kiyoshi Umeda
清 梅田
Yusuke Hashii
雄介 橋井
Hiroyuki Sakai
洋行 酒井
Hisanori Washimi
尚紀 鷲見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012154009A priority Critical patent/JP5956860B2/ja
Priority to US13/921,774 priority patent/US9189681B2/en
Publication of JP2014016822A publication Critical patent/JP2014016822A/ja
Publication of JP2014016822A5 publication Critical patent/JP2014016822A5/ja
Application granted granted Critical
Publication of JP5956860B2 publication Critical patent/JP5956860B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/179Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 被写体の個体情報に応じた高精度な認識処理が可能な辞書を作成する。
【解決手段】 画像データから抽出した被写体の顔領域の顔特徴量を、類似度に応じて所定のカテゴリに分類して辞書において管理する辞書管理手段と、被写体の年齢及び性別の少なくとも一方を示す個体情報に応じて、顔特徴量をカテゴリ毎に分類するためのカテゴリ判定条件を設定するカテゴリ判定条件設定手段と、カテゴリ判定条件設定手段で設定されたカテゴリ判定条件に基づいて、辞書で顔特徴量が属するカテゴリを判定するカテゴリ判定手段と、を備える。
【選択図】 図33

Description

本発明は、画像データ中の被写体の顔領域を検出して管理する画像処理技術に関するものである。
デジタルスチールカメラ(以下「DSC」とも記載)の普及に伴い、昨今では時に数千枚から数万枚といった多くの画像データをハンドリングする必要がある。ハンドリングする方法として、特に、重要な技術の1つとして、人物の顔を手掛かりに画像をハンドリングすることによって個人認識を実現するものがある。具体的な例としては、まず、予め入力画像に含まれる顔領域を検出し、検出された顔画像を解析して得られる情報(以下、「特徴量」と記載する)を抽出し、抽出された特徴量を登録する。なお、登録される特徴量は、解析する画像の数や、画像に含まれる顔の数に応じて増えていく。以下、複数の特徴量を登録したものを「辞書」又は「顔辞書」と呼ぶ。そして、得られた顔辞書と、新たに入力された画像を解析して得られる特徴量とを照合することによって、個人認識が可能となる。
特許文献1では、辞書において、特徴量をカテゴライズする手法が提案されている。まず、識別辞書作成に必要なパターンの学習サンプルを予め用意し、類似するパターンをカテゴリ毎にまとめる。そして、作成された類似パターンのカテゴリ内で誤認識が少なくなるようにカテゴリを細分割し、細分割後に類似した再分割カテゴリを統合する。このカテゴライズ結果に基づいて辞書登録に特徴量を登録する。
特開平11−203415号公報
しかしながら、特許文献1に記載の類似パターンカテゴリ識別辞書作成装置では、被写体毎にカテゴライズしていないため、被写体によっては認識精度が低くなってしまうことがあった。
本発明は上記の課題を鑑みてなされたものであり、被写体の個体情報に応じた高精度な認識処理が可能な辞書を作成することである。
上記の目的を達成するための本発明による画像処理装置は以下の構成を備える。即ち、
画像データから抽出した被写体の顔領域の顔特徴量を、類似度に応じて所定のカテゴリに分類して辞書において管理する辞書管理手段と、
前記被写体の年齢及び性別の少なくとも一方を示す個体情報に応じて、前記顔特徴量を前記カテゴリ毎に分類するためのカテゴリ判定条件を設定するカテゴリ判定条件設定手段と、
前記カテゴリ判定条件設定手段で設定されたカテゴリ判定条件に基づいて、前記辞書で前記顔特徴量が属するカテゴリを判定するカテゴリ判定手段と
を備える。
本発明によれば、被写体の個体情報に応じた高精度な認識処理が可能な辞書を作成することができる。
画像処理装置のハードウェア構成である。 画像処理装置を制御するためのソフトウェアブロック図である。 画像解析処理のフローチャートである。 画像解析処理のフローチャートである。 人物グループ生成処理のフローチャートである。 自動レイアウト提案処理のフローチャートである。 人物グループの表示例を示す図である。 サムネイル形式による画像群の表示例を示す図である。 カレンダー形式による画像群の表示例を示す図である。 画像解析した結果得られる属性情報の例を示す図である。 画像解析結果の保存形式の例を示す図である。 ユーザーが手動入力可能な属性情報の例を示す図である。 手動でお気に入り度を入力するためのUI例を示す図である。 手動でイベント情報を入力するためのUI例を示す図である。 手動で人物属性情報を入力するためのUI例を示す図である。 人物属性情報の保存形式の例である。 レイアウトテンプレートの一例を示す図である。 図17のレイアウトテンプレートの保持形式の例を示す図である。 レイアウトテンプレートの一例を示す図である。 図19のレイアウトテンプレートの保持形式の例を示す図である。 実施形態1の自動レイアウト生成処理のフローチャートである。 実施形態1の不要画像フィルタリング処理のフローチャートである。 自動トリミング処理の一例を示す図である。 自動レイアウトを行う際のレイアウト評価値の例である。 明るさ適正度の算出方法の説明図である。 彩度適正度の算出方法の説明図である。 トリミング欠け判定処理の説明図である。 画像類似性判定処理の説明図である。 自動レイアウト生成結果の表示例を示す図である。 決定されたテーマと主人公情報の保持例を示す図である。 決定されたテーマと主人公情報の保持例を示す図である。 生成した自動レイアウト情報の保持例を示す図である。 顔辞書作成装置の説明図である。 顔辞書内部の構成の説明図である。 顔辞書作成処理を示すフローチャートである。 顔辞書作成装置の説明図である。 顔辞書登録候補選択画面のUI例を示す図である。 年齢設定画面のUI例を示す図である。 顔辞書作成処理を示すフローチャートである。
以下、本発明の実施の形態について図面を用いて詳細に説明する。
(実施形態1)
以下では、入力画像群を用いて自動でレイアウト出力物を生成するために、本発明における好適な実施形態1について説明する。これはあくまで実施の1つの形態を例として示したものであり、本発明は以下の実施形態に限定されるものではない。
図1は実施形態1の画像処理装置のハードウェア構成例を示すブロック図である。
図1において、画像処理装置115は、CPU100と、ROM101と、RAM102と、2次記憶装置103と、表示装置104と、入力装置105と、IF107と、IF108と、無線LAN109を備えている。さらに、内部撮像デバイス106を備えている。これらは、制御バス/データバス110により相互に接続されている。本実施形態の画像処理装置115は、情報処理装置によって実現される。
画像処理装置115は、例えば、コンピュータ115である。CPU(中央演算装置)100は、実施形態1で説明する情報処理を以下に示すアプリケーションなどのプログラムに従って実行する。ROM101は、CPU100により実行されるプログラムが記憶されている。RAM102は、CPU100によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供している。2次記憶装置103はハードディスク等であり、画像ファイルや画像解析結果を保存するデータベース等を保存するための記憶媒体である。表示装置104は、例えば、ディスプレイであり、本実施形態の処理結果など以下に示す種々のUI(User Inter face)をユーザーに提示する装置である。表示装置104は、タッチパネル機能を備えても良い。また、110は制御バス/データバスであり、上述の各種構成要素とCPU100とを相互に接続する。このほかに、ユーザーが画像補正の処理の指示等を入力するためのマウスやキーボード等の入力装置105も備える。
また、画像処理装置115は、内部撮像デバイス106を備えてもよい。内部撮像デバイス106で撮像された画像は、所定の画像処理を経た後、2次記憶装置103に記憶される。また、画像処理装置115はインターフェース(IF108)を介して接続された外部撮像デバイス111から読み込んでも構わない。さらに、画像処理装置115は無線LAN(Local Area Network)109を備え、無線LAN109はインターネット113に接続されている。インターネット113に接続された外部サーバー114より画像データを取得することもできる。
最後に、画像等を出力するためのプリンタ112が、IF107を介して画像処理装置115に接続されている。尚、プリンタ112はさらにインターネット上に接続されており、無線LAN109経由でプリントデータのやり取りをすることもできる。
図2は実施形態1の上記アプリケーションを含むソフトウェア構成を示すブロック図である。
まず、画像処理装置115が取得した画像データは、通常、JPEG(Joint Photography Expert Group)等の圧縮形式で圧縮されている。そのため、画像コーデック部200は、その圧縮形式に基づいて、画像データを解凍して、いわゆる、RGB点順次のビットマップデータ形式の画像データ(ビットマップデータ)に変換する。変換されたビットマップデータは、表示・UI制御部201に伝達され、ディスプレイ等の表示装置104上に表示される。
ビットマップデータは、さらに、画像センシング部203(アプリケーション)に入力され、画像センシング部203において、画像の様々な解析処理(詳細は後述)が行われる。解析処理の結果、得られた画像の様々な属性情報は、所定の形式に従ってデータベース部202(アプリケーション)において、上述した2次記憶装置103に記憶される。尚、以降においては、画像解析処理とセンシング処理は同義で扱う。
シナリオ生成部204(アプリケーション)では、ユーザーが入力した様々な条件に応じて、詳細は後述するが、自動で生成すべきレイアウトの条件を生成する。レイアウト生成部205では、生成されたシナリオに従って、画像データを配置するためのレイアウトを自動で生成する処理を行う。
生成したレイアウトは、レンダリング部206で表示用のビットマップデータにレンダリングされ、そのレンダリング結果であるビットマップデータは表示・UI制御部201に送信され、その内容が表示装置104に表示される。一方で、レンダリング結果は、プリントデータ生成部207に送信されて、プリントデータ生成部207でプリンタ用コマンドデータに変換され、プリンタ112に送信される。
図3〜図6を用いて、本実施形態の基本的な画像処理のフローチャートについて説明する。
図3及び図4は、画像センシング部203が実行する処理のフローチャートを示しており、複数の画像データ群を取得して、それぞれについて解析処理を施し、その結果をデータベース部202に格納するまでの処理を示している。
図5は、検出した顔位置情報に基づいて、同じ人物と思われる顔情報をグループ化する人物グループ生成処理を示している。
図6は、画像の解析情報及びユーザーが入力した様々な情報に基づいて、レイアウト作成のためのシナリオを決定し、そのシナリオに基づいて、レイアウトを自動で生成するための処理を示している。
まず、図3を用いて、画像センシング部203が実行する処理のフローチャートについて説明する。
S301において、画像データ群の取得を行う。画像データ群は、例えば、ユーザーが、撮影画像が格納された撮像装置やメモリカードを画像処理装置115に接続し、これらから撮影画像を読み込むことで取得する。また、画像データ群として、内部撮像デバイス110で撮影され、2次記憶装置103に記憶されている撮像画像を取得してもよい。画像データ群は、無線LAN109を介して、インターネット113上に接続された外部サーバー114等、画像処理装置115以外の装置から取得してもよい。
ここで、図8及び図9を用いて、画像データ群を取得した際の表示装置104の表示について説明する。画像データ群を取得すると、図8や図9に示すように、表示装置104上のUIは、取得した画像データに基づく画像が確認できる表示となる。表示装置104上のUIの表示方法は、画像を確認できるものであれば、特に限定されるものではない。例えば、図8に示すように、UI801に2次記憶装置103内のフォルダ単位で画像のサムネイル802を表示してもよいし、図9に示すようにUI901でカレンダーにおいて日付ごとに画像データが管理されていてもよい。図9のUI901では、日付の部分902をクリックすれば、同日に撮影された画像が、図8のようなサムネイル一覧で表示される。
次に、S302〜305において、取得した画像データ群それぞれについて、解析処理及び解析結果のデータベース登録を行う。
具体的には、S302において、各画像のデコードを行う。まず、画像センシング部203(アプリケーション)が、新規で保存され未だセンシング処理が行われていない画像データをサーチする。そして、抽出された各画像について、画像コーデック部200が画像データ(圧縮画像データ)からビットマップデータに変換する(デコードする)。
次に、S303において、ビットマップデータに対して、各種センシング処理を実行してセンシング情報を取得し、データベース登録をする。ここでいうセンシング処理とは、画像解析処理を指しており、本実施形態では、図10に示す様々な画像解析処理を行う。具体的には、センシング処理として、画像データ中の被写体の顔検出及び顔領域の特徴量解析、画像の特徴量解析、シーン解析を行い、それぞれ図10に示すようなデータ型の結果を算出する。本実施形態では、画像基本特徴量としては、平均輝度(int:値0〜255)、平均彩度(int:0〜255)、平均色相(int:値0〜359)を解析した。また、顔検出としては、人物顔の個数(int:値0以上(0〜MAXFACE)、人物顔の位置情報である座標位置(int*8:値0以上(Width及びHeightそれぞれ同様)を解析した。さらに、顔領域内の平均Y(int:値0〜255)、顔領域内の平均Cb(int:値−128〜127)、顔領域内の平均Cr(int:値−128〜127)を解析した。
尚、本実施形態では、被写体の顔を人物とするが、ペット等の動物の顔を被写体としてもよい。
以下、それぞれのセンシング処理について説明する。
まず、画像の基本的な特徴量である全体の平均輝度、平均彩度については、公知の方法で算出すればよいため、簡単に説明する。平均輝度については、画像の各画素について、RGB成分を公知の輝度色差成分(例えば、YCbCr成分)に変換し、Y成分の平均値を算出すればよい。また、平均彩度については、上記CbCr成分について画素毎に、以下の式を算出し、Sの平均値を求めればよい。
また、画像内の平均色相(AveH)は、画像の色合いを評価するための特徴量である。各画素毎の色相は、公知のHIS変換式を用いて算出することができ、それらを画像全体で平均化することにより、AveHを算出することができる。
上記特徴量は、画像全体で算出してもよいし、例えば、画像を所定サイズの領域に分割し、各領域毎に算出してもよい。
次に、人物の顔検出処理について説明する。本実施形態に係る人物の顔検出手法としては、様々な方法を用いることができる。例えば、特開2002−183731号公報に記載の方法では、まず、入力画像から目領域を検出し、目領域周辺を顔候補領域とする。その顔候補領域に対して、画素毎の輝度勾配、及び輝度勾配の重みを算出し、これらの値を、あらかじめ設定されている理想的な顔基準画像の勾配、及び勾配の重みと比較する。その時に、各勾配間の平均角度が所定の閾値以下である場合、入力画像は顔領域を有すると判定する。
また、特開2003−30667号公報に記載の方法では、画像中から肌色領域を検出し、その肌色領域内において、人間の虹彩色画素を検出することにより、目の位置を検出することが可能である。
特開平8−63597号公報に記載の方法では、まず、複数の顔の形状をしたテンプレートと画像とのマッチング度を計算する。そのマッチング度が最も高いテンプレートを選択し、最も高いマッチング度があらかじめ定められた閾値以上であれば、選択されたテンプレート内の領域を顔候補領域とする。このテンプレートを用いるこことで、目の位置を検出することが可能である。
特開2000−105829号公報に記載の方法では、まず、鼻画像パターンをテンプレートとし、画像全体、あるいは画像中の指定された領域を走査し最もマッチする位置を鼻の位置として出力する。次に、画像の鼻の位置よりも上の領域を目が存在する目存在領域と考え、目画像パターンをテンプレートとして目存在領域を走査してマッチングをとり、ある閾値よりもマッチ度が大きい画素の集合である目存在候補位置集合を取得する。さらに、目存在候補位置集合に含まれる連続した領域をクラスタとして分割し、各クラスタと鼻位置との距離を算出する。その距離が最も短くなるクラスタを目が存在するクラスタと決定することで、器官位置の検出が可能である。
顔検出処理の方法として、その他、例えば、以下に示す公知の顔及び器官位置を検出する方法を用いてもよい。例えば、特開平8−77334号公報、特開2001−216515号公報、特開平5−197793号公報、特開平11−53525号公報、特開2000−132688号公報、特開2000−235648号公報、特開平11−250267号公報が挙げられる。さらには、特許第2541688等が挙げられる。
顔検出処理の結果、各入力画像について、人物顔の個数と各顔毎の顔座標位置を取得することができる。また、画像中の顔座標位置が分かれば、顔領域毎に顔領域内に含まれる画素値の平均YCbCr値を算出することにより、顔領域の平均輝度及び平均色差を算出することができる。
また、画像の特徴量を用いて、シーン解析処理を行うことができる。シーン解析処理については、様々な方法を用いることができ、例えば、本出願人が出願している特開2010−251999号公報や特開2010−273144号公報等で開示されているように公知の方法を用いることができる。シーン解析処理の結果、風景(Landscape)、夜景(Nightscape)、人物(Portrait)、露出不足(Underexposure)、その他(Others)等の撮影シーンを区別するためのIDを取得することができる。
尚、センシング情報は、上記のセンシング処理により取得されるものに限定されるものではなく、例えば、その他のセンシング情報を利用してもよい。
以上のようにして取得したセンシング情報を、データベース部202に記憶する。
データベース部202への保存形式は、特に限定されないが、例えば、図11に示すような汎用的なフォーマット(例えば、XML:eXtensible Markup Language)で記述し、記憶すればよい。
図11では、各画像毎の属性情報を、3つのカテゴリに分けて記述する例を示している。1番目の<BaseInfo>タグは、画像サイズや撮影時情報として、あらかじめ取得した画像ファイルに付加されている情報である。ここには、画像毎の識別子ID(ID)や、画像ファイルが格納されている保存場所(<ImagePath>)、画像サイズ(<ImageSize〜>)、撮影日時(<CaptureDateTime>)等が含まれる。
次に、2番目の<SensInfo>タグは、上述した画像解析処理の結果を格納するためのタグである。画像全体の平均輝度、平均彩度、平均色相やシーン解析結果が格納され、さらに、画像中に存在する人物の顔位置や顔色に関する情報が記述可能である。
次に、3番目の<UserInfo>タグは、ユーザーが画像毎に入力した情報を格納することができるが、詳細については後述する。
尚、画像の属性情報のデータベース部202の格納方法については、上記に限定されるものではなく、その他、どのような形式であっても構わない。
そして、S305において、取得した画像データ群の内、未処理の画像データが最後の画像データであるか否かを判定する。最後の画像データでない場合(S305でNO)、S302に戻り、未処理の画像データを、取得した画像データ群から取得する。一方、最後の画像データである場合(S305でYES)、S306に進む。
S306において、個人認識処理を用いた人物グルーピングを行う。ここでは、S303で検出された顔位置情報を用いて、人物毎のグループを生成する人物グループ生成処理を実行する。あらかじめ人物の顔を自動でグループ化しておくことにより、その後、ユーザーが各人物に対して名前を付けていく作業を効率化することが可能となる。
ここでの人物グループ生成処理は、個人認識技術を用いて、図5のフローにより実行する。
尚、個人認識技術は、主に顔の中に存在する眼や口といった器官の特徴量抽出と、それらの関係性の類似度の比較という二つの技術で構成される。個人認識技術として、例えば、特許第3469031等に開示されているように公知の手法を用いることができる。
図5はS306の詳細を示すフローチャートである。
まず、S501において、2次記憶装置103に記憶されている画像データを順次読み出してデコードを行う。デコード処理は、S302と同様であるので説明を省略する。
S502において、データベース部202にアクセスし、画像データ中に含まれる顔の個数と顔の位置情報を取得する。
次に、S504において、個人認識処理を行うための正規化顔画像を生成する。
ここで、正規化顔画像とは、画像内に様々な大きさ、向き、解像度で存在する顔を切り出して、すべて所定の大きさと向きになるよう、変換して切り出した顔画像のことである。個人認識を行うためには、眼や口等の器官の位置が重要となるため、正規化顔画像のサイズは、器官が確実に認識できる程度であることが望ましい。このように正規化顔画像を用意することにより、特徴量検出処理において、様々な解像度の顔に対応する必要がなくなるという利点がある。
次に、S505において、正規化顔画像から顔特徴量を抽出する。ここでの顔特徴量とは、眼や口、鼻等の器官の位置、大きさや、さらには顔の輪郭等を含む。
さらに、S506において、データベース部202上に構築されている、あらかじめ人物の識別子(人物ID)毎に用意されている顔特徴量を記憶する顔辞書を参照して、抽出した顔特徴量と類似しているか否かを判定する。尚、ここでは、いずれの顔特徴量も登録するものとして説明したが、詳細は後述するが、図33及び35に示すように顔特徴量を登録しない場合もある。
判定の結果、類似している場合(S506でYES)、S509において、抽出した特徴量を同じ(あるいは類似の)人物の追加特徴量として、対応する人物IDのエントリに追加辞書登録する。
一方、判定の結果、類似していない場合(S506でNO)、現在評価対象となっている顔の特徴量は、これまでに顔辞書に登録された人物とは異なる人物であるとして、新規人物IDを発行して顔辞書に新規辞書登録する。尚、詳細は後述するが、本実施形態では、顔状態判定において、顔状態が悪いと判定されたものは辞書登録を行わない。
S510において、処理対象の画像データ中に、他の顔領域があるか否かを判定する。他の顔領域がある場合(S510でYES)、S502に戻る。一方、他の顔領域がない場合(S510でNO)、S511に進む。
S511において、全ての画像についてS502〜509の処理が終了したか否かを判定する。全ての画像について処理が終了した場合は、処理を終了し、全ての画像について処理が終了していない場合は、S502へ戻る。つまり、S502〜S509までの処理を、取得した画像データ群の中から検出した顔領域全てに適用して、登場した人物のグループ化を行う。
グループ化の結果は、図16のXMLフォーマットで示すように、各顔領域毎にIDタグを用いて記述し、データベース部202(図3)に保存しておく。
尚、実施形態1においては、図3に示すように、全ての画像データのセンシング処理及びデータベースの登録が終了した後に人物グループ生成処理を実行しているが、これ以外の方法としてもよい。例えば、図4に示すように、各画像データに対して、S403においてセンシング処理を実行し、データベースに登録した後に、顔の位置情報を利用して、S405において人物グループ生成処理を実行し、これを繰り返して全ての画像データの処理を行うようにしてもよい。
また、上記の処理によって得られた各人物グループは、表示装置104のUIに表示される。本実施形態に係る各人物グループの表示を図7に示す。図7のUI701において、702は人物グループの代表顔画像を表しており、その横には、該人物グループの名前を表示する領域703が存在する。自動の人物グループ化処理を終了した直後は、同図に示すように、領域703には、人物名が「No name」と表示される。また、704は人物グループに含まれる複数の顔画像が表示される。後述するが、同図のUI701においては、「No name」の領域703を指定して人物名を入力したり、人物毎に誕生日や続柄等の情報を入力したりすることができる。
また、上述したセンシング処理は、オペレーティングシステムのバックグラウンドタスクを利用して実行しても良い。この場合、ユーザーがコンピュータ115上で別の作業を行っていたとしても、画像群のセンシング処理を継続させることができる。
本実施形態では、ユーザーが手動で画像に関する様々な属性情報を設定してもよく、自動で画像に関する様々な属性情報を設定するようにしてもよい。
その属性情報の例の一覧を、図12に示す。手動又は自動によって登録する属性情報は大きく分けると、画像毎に設定する画像の属性情報と、人物グループ処理によってグループ分けされた人物毎に設定する人物の属性情報とに分かれる。
まず、画像の属性情報として、ユーザーのお気に入り度が挙げられる。お気に入り度は、例えば、その画像を気に入っているかどうかを、ユーザーが手動で入力することができる。例えば、図13示すように、UI1301上で、所望のサムネイル画像1302をマウスポインタ1303で選択し、右クリックをすることでお気に入り度を入力できるダイアログを表示する。ユーザーは、メニューの中で自分の好みに応じて、「★」の数を選択することができる。本実施形態では、お気に入り度が高いほど「★」の数が多くなるよう設定した。
また、お気に入り度は、ユーザーが手動で設定せずに、自動で設定するようにしてもよい。例えば、ユーザーが閲覧した回数をお気に入り度として自動設定してもよい。ユーザーが図8に示す画像サムネイル一覧表示(UI801)の状態から、所望のサムネイル(画像ファイル)をクリックし、1画像表示画面に遷移したとする。その遷移した回数を計測して、回数に応じてお気に入り度を自動設定してもよい。すなわち、閲覧した回数が多いほど、ユーザーがその画像を気に入っていると判定する。
また他の例として、プリント回数に応じてお気に入り度を自動設定してもよい。具体的には、例えば、プリント操作を行った場合、その画像を気に入っていると判定し、プリント回数が多いほどよりお気に入り度が高いと判定する。
以上で説明したように、お気に入り度については、ユーザーが手動で設定する方法、閲覧回数やプリント回数に基づいて自動で設定する方法が挙げられる。
上述したような属性情報は、それぞれ個別に、図11で示すようなXMLフォーマットで、データベース部202の<UserInfo>タグ内に格納される。例えば、お気に入り度は<FavoriteRate>タグ、閲覧回数は<ViewingTimes>タグ、プリント回数は<PrintingTimes>タグに格納される。
また、画像毎に設定する別の属性情報として、イベント情報が挙げられる。イベント情報としては、例えば、家族旅行「travel」、卒業式「graduation」、結婚式「wedding」等が挙げられる。
イベントの指定は、例えば、図14のUI1401で示すカレンダー上で所望の日付をマウスポインタ1402で指定して、その日のイベント名を入力することで設定できるようにしてもよい。指定されたイベント名(イベント情報)は、画像の属性情報の一部として、図11示すXMLフォーマットに含まれることになる。XMLフォーマットでは、<UserInfo>タグ内の<Event>タグを使って、イベント名と画像を関連付けている(紐付けている)。
次に、図15を用いて、人物の属性情報について説明する。
図15は、人物の属性情報を入力するためのUI1501を示している。同図において、1502は所定人物(この場合は「father」)の代表顔画像を示している。また、1503は所定人物の名前を表示する領域を示している。また、1504には、他の画像の中から検出し、S506で顔特徴量が類似していると判定された画像の一覧が表示される。
センシング処理が終了した直後は、図7に示したように各人物グループには名前が入力されていないが、「No name」の領域703をマウスポインタで指示することにより、任意の人物名を入力することができる。ここで任意の人物名を入力することにより、図15に示すように1503に所定人物の名前が表示される。
また、人物毎の属性情報として、それぞれの人物の誕生日やアプリケーションを操作しているユーザーから見た続柄を設定することもできる。本実施形態では、図15の人物の代表顔画像1502をクリックすると、画面下部に図示するように、クリックした人物の誕生日を第1入力部1505で、続柄情報を第2入力部1506で入力することができるようにした。
以上、入力された人物の属性情報は、これまでの画像に紐付けられた画像の属性情報とは異なり、図16のようなXMLフォーマットによって、画像の属性情報とは別にデータベース部202内で管理される。
また、実施形態1においては、あらかじめ様々なレイアウトテンプレートが用意されている。レイアウトテンプレートとは、例えば、図17及び図19に示すようなものであり、それぞれレイアウトする用紙1701及び1901上に、複数の画像配置枠1702、及び1902及び1903(以降、スロットと同義)で構成されている。
このようなレイアウトテンプレートは、あらかじめ実施形態1を実行するためのソフトウェアが画像処理装置115にインストールされた時点で、2次記憶装置103に保存しておけばよい。また、その他の方法として、IF107や無線LAN109を介して接続されたインターネット113上に存在する外部サーバー114から、任意のレイアウトテンプレートを取得してもよい。
これらのレイアウトテンプレートは、汎用性の高い構造化言語、例えば、上述したセンシング処理の結果の格納と同様にXMLフォーマットで記述されているものとする。図17及び図19のレイアウトテンプレートに対するXMLデータの例をそれぞれ図18及び図20に示す。これらの図では、まず、<BASIC>タグにおいて、レイアウトテンプレートの基本的な情報を記述する。基本的な情報としては、例えば、レイアウトテンプレートのテーマやページサイズ、及びページの解像度(dpi)等が挙げられる。図18及び図20において、レイアウトテンプレートの初期状態では、レイアウトテンプレートのテーマである<Theme>タグはブランクとなっている。本実施形態では、基本情報として、ページサイズ(<PageSize>タグ)はA4、解像度(<Resolution>タグ)は300dpiを設定している。
また、以降は、上述した画像配置枠の情報を<ImageSlot>タグで記述している。<ImageSlot>タグの中には<ID>タグと<POSITION>タグの2つを保持し、画像配置枠のIDと位置を記述してある。位置情報については、図17及び図19で図示するように、例えば、左上を原点とするX−Y座標系において定義する。
また、<ImageSlot>タグには、その他に、それぞれのスロットに対して、スロットの形状及び配置すべき推奨人物グループ名を設定することができる。
例えば、図17のレイアウトテンプレートでは、図18の<Shape>タグで、すべてのスロットは矩形形状(「rectangle」)で、人物グループ名は<PersonGroup>タグで「MainGroup」を配置することを推奨している。
また、図19のレイアウトテンプレートにおいては、図20に示すように、中央に配置しているID=0のスロットは矩形形状(「rectangle」)であることが記述されている。また、人物グループは「SubGroup」を配置し、その他のID=1、2と続くスロットは楕円形状(「ellipse」)で、人物グループは「MainGroup」を配置することを推奨している。
実施形態1においては、このようなレイアウトテンプレートを多数保持するものとした。
上述したように、本実施形態に係るアプリケーションは、入力された画像群に対して解析処理を実行し、人物を自動的にグループ化してUIで表示することができる。また、ユーザーはその結果を見て、人物グループ毎に名前や誕生日等の属性情報を入力したり、画像毎にお気に入り度等を設定することができる。
さらにはテーマ毎に分類された多数のレイアウトテンプレートを保持することができる。
以上の条件を満たすと、本実施形態に係るアプリケーションは、ある所定のタイミングで、自動的にユーザーに好まれそうなコラージュレイアウトを生成し、ユーザーに提示する処理を行う(以下、レイアウトの提案処理とする)。
図6はレイアウトの提案処理の基本的なフローチャートを示している。
まず、S601において、提案処理のシナリオを決定する。シナリオには、提案するレイアウトのテーマ、レイアウトテンプレート、レイアウト内で重視する人物(主人公)の設定、並びにレイアウト生成に用いる画像群の選定情報が含まれる。
以下、2つのシナリオ決定について説明する。
例えば、各人物の誕生日の2週間前になった場合、自動的にコラージュレイアウトを生成し提示するように予め設定されているとする。そして、図15でグループ化されている人物「son」の1歳の誕生日が2週間後となったとする。この場合には、提案するレイアウトのテーマは成長記録「growth」と決定する。次にテンプレートの選択を行うが、この場合には、成長記録に適した図19に示すようなレイアウトテンプレートを選択し、図30に示すように、XMLの<Theme>タグの部分に「growth」と記述する。次に、レイアウトを行う際に注目する主人公「MainGroup」として、「son」を設定する。また、レイアウトを行う際に副次的に注目する「SubGroup」として「son」と「father」を設定する。次に、レイアウトに利用するための画像群を選定する。この例の場合には、データベース部202を参照し、人物「son」の誕生日からこれまでに撮影した画像群のうち、「son」を含む画像群を抽出してリスト化する。このリスト化によって生成される画像リストは、例えば、データベース部202に記憶管理される。以上が、成長記録のレイアウトのためのシナリオ決定である。
異なる例として、1カ月以内に撮影された旅行の写真がある場合、自動的にコラージュレイアウトを生成して提示するように予め設定されているとする。図14で登録したイベント情報から、例えば、数日前に家族旅行に行き、その時の画像が2次記憶装置103に保存されていることがわかると、シナリオ生成部204は、家族旅行のレイアウトを提案するためのシナリオを決定する。この場合には、提案するレイアウトのテーマは旅行「travel」と決定する。次に、レイアウトテンプレートの選択を行うが、この場合には、旅行に適した図17に示すようなレイアウトテンプレートを選択し、図31に示すように、XMLの<Theme>タグの部分に@travel」と記述する。次に、レイアウトを行う際に注目する主人公「MainGroup」として、「son」、「mother」、「father」を設定する。このように、XMLの特性を活かせば、「MainGroup」として複数の人物を設定することができる。次に、レイアウトに利用するための画像群を選定する。この例の場合には、データベース部202を参照し、旅行イベント「travel」に紐付けられた画像群を抽出してリスト化する。このリスト化によって生成される画像リストは、例えば、データベース部202に記憶管理される。以上が、家族旅行のレイアウトのためのシナリオ決定である。
次に、図6のS603において、上述したシナリオに基づくレイアウトの自動生成処理を実行する。ここで、図21を用いて、シナリオに基づくレイアウトの自動生成処理について説明する。図21はレイアウト生成処理の詳細な処理フローを示している。
まず、S2101において、上述したシナリオで決定されたレイアウトテーマ及び人物グループ情報が設定された後のレイアウトテンプレート情報202cを、データベース部202より取得する。
次に、S2103において、シナリオで決定した画像群リスト202dに基づいて、各画像毎にその特徴量をデータベース部202から取得し、画像群属性情報リストを生成する。ここでいう画像群情報リストとは、図11に示す<IMAGEINFO>タグが画像リスト分だけ並んだ構成となっている。以降では、この画像属性情報リストに基づいて、S2105〜S2109における自動レイアウト生成処理を行う。
このように、本実施形態の自動レイアウト生成処理では、画像データそのものを直接扱うのではなく、あらかじめ画像毎にセンシング処理を行ってデータベース部202に記憶しておいた属性情報を利用する。この理由は、レイアウト生成処理を行う際に、画像データそのものを対象としてしまうと、画像群を記憶するために非常に巨大なメモリ領域を必要としてしまうためである。すなわち、本実施形態のようにデータベース部202に記憶しておいた属性情報を利用することにより、メモリ領域の使用量を低減することができる。
次に、S2105において、入力された画像群の属性情報を用いて、入力された画像群の中から不要画像のフィルタリングを行う。ここで、図22を用いて、フィルタリング処理について説明する。
図22は、フィルタリング処理のフローチャートである。
各画像毎に、まず、S1601において、全体の平均輝度値(AveY)が所定閾値(ThY_LowとThY_Hight)範囲内に含まれているか否かの判定を行う。含まれていない場合(S1601でNO)、S1606に進み、注目画像はレイアウト対象画像から除去する。
同様に、S1602〜S1605では、注目画像に含まれる顔領域それぞれについて、平均色差成分(例えば、AveY、AveCb、AveCr成分)が、良好な肌色領域を示す所定閾値範囲内に含まれているか否かの判定を行う。具体的には、S1602では、ID=Nである顔領域のAveYが所定閾値(ThfY_LowとThfY_Hight)の範囲に含まれているか否かの判定を行う。S1603では、ID=Nである顔領域のAveChが所定閾値(ThfY_LowとThfY_Hight)の範囲に含まれているか否かの判定を行う。S1604では、ID=Nである顔領域のAveCrが所定閾値(ThfY_LowとThfY_Hight)の範囲に含まれているか否かの判定を行う。S1605では、最後の顔であるか否かを判定する。最後の顔ではない場合は、S1602へ戻り、最後の顔である場合は、処理を終了する。
そして、S1602〜S1605のすべての判定がYESとなる画像のみ、以降のレイアウト生成処理に適用される。
尚、このフィルタリング処理では、以降の一時レイアウト作成処理に明らかに不要と判定できる画像の除去を目的としているため、上記閾値は比較的緩やかに設定することが望ましい。例えば、S1601の画像全体の輝度値の判定において、ThY_HighとThY_Lowの差が画像ダイナミックレンジに比して極端に小さいと、それだけYESと判定される画像が少なくなってしまう。したがって、本実施形態のフィルタリング処理では、両者の差をできる限り広く設定し、かつ明らかに異常画像と判定されるものは除去できるような閾値を設定する。
次に、図21のS2107において、図22のフィルタリング処理でレイアウト対象となった画像群を用いて、大量(L個)の一時レイアウトを生成する。一時レイアウトの生成は、取得したテンプレートの画像配置枠に対して、入力画像を任意に当てはめる処理を繰り返すことで実行する。この時に、以下のパラメータ(画像選択・配置・トリミング基準)をランダムで決定する。
画像選択としては、例えば、レイアウト中の画像配置枠がN個の時、画像群の中からどの画像を選択するかが挙げられ、配置としては、例えば、選択した複数の画像を、どの配置枠に配置するかが挙げられ、トリミング基準としては、配置した際に、どの程度のトリミング処理を行うかというトリミング率が挙げられる。
尚、トリミング率は、例えば、0〜100%で表わされ、画像の中心を基準として、図23のように所定の領域がトリミングされる。同図において、2301は画像全体を示し、2302はトリミング率50%でトリミングした際の切り取り枠を示している。
上記の画像選択・配置・トリミング基準に基づいて、可能な限り数多くの一時レイアウトを生成する。生成した各一時レイアウトは、図32のXMLのように表わすことができる。各スロットに対して、選択され配置された画像のIDが<ImageID>タグで、トリミング率が<TrimingRatio>タグでそれぞれ記述されている。
尚、ここで生成する一時レイアウトの数Lについては、後述するレイアウト評価ステップでの評価処理の処理量と、それを処理する画像処理装置115の性能に応じて決定されるが、例えば、数十万通り以上の一時レイアウトを用意することが望ましい。生成したレイアウトは、それぞれIDを付加して図32のXML形式で2次記憶装置103にファイル保存してもよいし、構造体等の別のデータ構造を用いてRAM102上に記憶してもよい。
次に、図21のS2108において、作成したL個の一時レイアウトに対して、それぞれ所定のレイアウト評価量を用いて評価を行う。本実施形態におけるレイアウト評価量の一覧を、図24に示す。同図に示すように、本実施形態で用いるレイアウト評価量は、主に、3つのカテゴリに分けることができる。
一つ目の評価カテゴリは、画像個別の評価量である。これは画像の明るさや彩度、ブレぼけ量等の状態を判定し、スコア化するものである。スコア化の一例を以下に示す。まず、明るさの適正度については、図25に示すように、平均輝度がある所定閾値範囲内においてはスコア値100とし、所定閾値範囲外になるとスコア値が下がるよう設定している。また、彩度の適正度については、図26に示すように、画像全体の平均彩度がある所定の彩度値より大きい場合にはスコア値100とし、所定値より小さい場合にはスコア値を徐々に下げていくよう設定している。
二つ目の評価カテゴリは、画像とスロットの適合度の評価(画像・スロット適合度評価)である。画像・スロット適合度を判定し、スコア化するものである。画像・スロットの適合度の評価としては、例えば、人物適合度、トリミング欠け判定が挙げられる。人物適合度とは、スロットに指定されている人物と、実際にそのスロットに配置された画像内に存在する人物の適合率を表したものである。例を挙げると、あるスロットが、XMLで指定されているPersonGroupで、「father」、「son」が指定されているものとする。この時、そのスロットに割り当てられた画像にその2人の人物が写っていたとすると、そのスロットの人物適合度はスコア値100とする。もし片方の人物しか写っていなかったとすると、適合度はスコア値50とする。両者とも写っていなかった場合は、スコア値0とする。スロット内の適合度は、各スロット毎に算出した適合度の平均値とする。
また、別の画像・スロット適合度評価量として、トリミング領域2702の欠け判定が存在する。例えば、図27に示すように、画像2701中に存在する顔の位置2703が判明している場合、欠けた部分の面積に応じて、0から100までのスコア値を算出する。欠けた面積が0の場合、スコアは100とし、逆にすべての顔領域が欠けた場合、スコア値は0とする。
三つ目の評価カテゴリは、レイアウトページ内のバランス(ページ内バランス評価)の評価である。図24では、バランスを評価するための評価値として、画像類似性、色合いばらつき、顔サイズばらつきを挙げている。
まず、「画像類似性」について説明する。画像類似性は、大量に生成した一時レイアウト毎に、それぞれの画像の類似性を算出する。例えば、旅行テーマのレイアウトを作成したい場合、あまりに似通った類似度の高い画像ばかりが並んでいたとすると、それは良いレイアウトとは言えないことがある。例えば、類似性は、撮影日時によって評価することができる。撮影日時が近い画像は、同じような場所で撮影された可能性が高いが、撮影日時が離れていれば、その分、場所もシーンも異なる可能性が高いからである。撮影日時は、図11に示すように、画像の属性情報として、予めデータベース部202に保存されている、画像毎の属性情報から取得することができる。
撮影日時から類似度を算出するには、以下のような計算を行う。例えば、今注目している一時レイアウトに図28で示すような4つの画像がレイアウトされているものとする。尚、図28において、画像IDで特定される画像には、それぞれ撮影日時情報が付加されている。具体的には、撮影日時として、年月日及び時間(西暦:YYYY、月:MM、日:DD、時:HH、分:MM、秒:SS)が付加されている。このとき、この4つの画像間で、撮影時間間隔が最も短くなる値を算出する。この場合は、画像ID102と画像ID108間の30分が最も短い間隔である。この間隔をMinIntervalとし、秒単位で格納する。すわなち、30分=1800秒である。このMinIntervalをL個の各一時レイアウト毎に算出して配列stMinInterval[l]に格納する。次に、stMinInterval[l]の中で最大値MaxMinInterval値を算出する。すると、1番目の一時レイアウトの類似度評価値Similarity[l]は、以下のようにして算出することができる。
Similarity[l] = 100×stMinInterval[l] / MaxMinInterval
すなわち、Similarity[l]は、最小撮影時間間隔が大きいほど100に近づき、小さいほど0に近づく値となっているため、画像類似度評価値として有効である。
次に、レイアウトページ内のバランスを評価するための評価量として、「色合いのばらつき」について説明する。例えば、旅行テーマのレイアウトを作成したい場合、あまりに似通った色(例えば、青空の青、山の緑)の画像ばかりが並んでいたとすると、それは良いレイアウトとは言えないことがある。この場合は、色合いのばらつきが大きくなるように設定する。ここでは注目している1番目の一時レイアウト内に存在する画像の平均色相AveHの分散を算出して、それを色合いのばらつき度tmpColorVariance[l]として格納する。次に、tmpColorVariance[l]の中での最大値MaxColorVariance値を算出する。すると、1番目の一時レイアウトの色合いばらつき度の評価値ColorVariance[l]は以下のようにして算出することができる。
ColorVariance[l] = 100 × tmpColorVariance[l] / MaxColorVariance
すなわち、ColorVariance[l]は、ページ内に配置された画像の平均色相のばらつきが大きいほど100に近づき、小さいほど0に近づく値となっているため、色合いのばらつき度評価値として有効である。
次に、レイアウトページ内のバランスを評価するための評価量として、「顔サイズばらつき」について説明する。例えば、旅行テーマのレイアウトを作成したい場合、レイアウト結果を見て、あまりに似通った顔のサイズの画像ばかりが並んでいたとすると、それは良いレイアウトとは言えないことがある。レイアウト後の紙面上における顔の大きさが、小さいものもあれば大きいものもあり、それらがバランスよく配置されていることが、良いレイアウトとする場合、顔サイズばらつきが大きくなるように設定する。その場合、注目している1番目の一時レイアウト内に配置された後の顔の大きさ(顔位置の左上から右下までの対角線の距離)の分散値を、tmpFaceVariance[l]として格納する。次に、tmpFaceVariance[l]の中での最大値MaxFaceVariance値を算出する。すると、1番目の一時レイアウトの顔サイズばらつき度の評価値FaceVariance[l]は、以下のようにして算出することができる。
FaceVariance[l] = 100 × tmpFaceVariance[l] / MaxFaceVariance
すなわち、FaceVariance[l]は、紙面上に配置された顔サイズのばらつきが大きいほど100に近づき、小さいほど0に近づく値となっているため、顔サイズのばらつき度評価値として有効である。
また、その他カテゴリとして、ユーザーの嗜好性評価が考えられる。
以上説明したような、各一時レイアウト毎に算出した複数の評価値を統合化して、各一時レイアウト毎のレイアウト評価値とする。今、1番目の一時レイアウトの統合評価値を、EvalLayout[l]とし、上記で算出したN個の評価値(図24の評価値それぞれを含む)の値を、EvalValue[n]とする。この時、統合評価値は、以下の式で算出することができる。
上式において、W[n]は、図24で示したシーン毎の各評価値の重みである。この重みは、レイアウトのテーマ毎に異なる重みを設定していることが特徴となっている。例えば、図24に示すようにテーマを成長記録「growth」と旅行「travel」で比較した場合、旅行「travel」の方は、できるだけ良質の写真をいろいろな場面で数多くレイアウトすることが望ましいとし、画像の個別評価値やページ内のバランス評価値を重視する傾向に設定する。一方、成長記録「growth」の方は、画像のバリエーションよりは、成長記録の対象となる主人公が確実にスロットに適合しているか否かが重要であるとし、ページ内バランスや画像個別評価よりも、画像・スロット適合度評価を重視する傾向に設定する。
このようにして算出したEvalLayout[l]を用いて、S2109において、レイアウト結果表示のためのレイアウトリストLayoutList[k]を生成する。レイアウトリストは、予め定められた個数(例えば、5個)に対して、EvalLayout[l]のうち、評価値が高いもの順に識別子1を記憶しておく。例えば、最も良いスコアを出したものが、l=50番目に作成した一時レイアウトであった場合、LayoutList[0]=50となる。同様に、LayoutList[1]以降は、スコア値が2番目以降の識別子1を記憶しておく。
次に、図21を用いて説明したレイアウト生成処理によって得られたレイアウト結果を、図6のS605において、レンダリングしてその結果を表示する。本実施形態では、レンダリングした結果を図29のUI2901上に表示する。S605においては、まず、LayoutList[0]に格納されているレイアウト識別子を読み出し、そのレイアウト識別子に相当する一時レイアウト結果を、2次記憶装置103あるいはRAM102上から読み出す。レイアウト結果には、上述したようにテンプレート情報と該テンプレート内に存在するスロット毎に、割り当てられた画像名が設定されている。S605では、これらの情報に基づいて、画像処理装置115上で動作するOSの描画関数を用いて、該レイアウト結果をレンダリングし、図29のレイアウト結果2902のように表示することになる。
Nextボタン2904を押下することにより、次点スコアであるLayoutList[1]の識別子を読み出し、上記と同様にレンダリング後、表示を行うことで、ユーザーは様々なバリエーションの提案レイアウトを閲覧することができる。また、Previousボタン2903を押下することにより、前に表示したレイアウトを再表示することもできる。さらに、表示されたレイアウトが気に入った場合には、プリントボタン2905を押下することで、画像処理装置115に接続されたプリンタ112からレイアウト結果2902をプリントアウトすることもできる。
以下、本実施形態の個人認識時に使用する顔辞書作成時の制御について詳細に説明する。
本実施形態では、辞書登録する際に年齢・性別(個体情報)に応じて、複数種類のカテゴリのいずれかに登録するカテゴリ判定条件を変更する。ここでは、説明のために、年齢に応じてカテゴリ数を例に挙げる。
図33は、本実施形態の個人認識用の顔辞書作成装置の構成の一例を示すブロック図である。尚、顔辞書作成装置は、各構成要素がハードウェアによって実現されても良いし、図1の画像処理装置115のCPU100の制御によって実現されるソフトウェアで実現されても良いし、ハードウェアとソフトウェアを組み合わせて実現されても良い。
3301は、画像入力部である。入力された画像データをRAM102上に展開する。
3302は、顔検出部である。画像入力部3301で処理されたRAM102上の画像データに対して、顔検出を行う。顔検出処理に関しては、バックグランドセンシングとデータベース登録において説明済みなので、ここでは省略する。
3303は、顔特徴量抽出部である。顔特徴量抽出部3303には、画像入力部3301で入力された画像データと、顔検出部3302で検出された顔検出位置が入力される。また、顔特徴量抽出部3303は、顔検出部3302で得られた顔検出位置に基づき、顔領域内の顔特徴量を抽出する。
本実施形態では、顔特徴量は、各器官に対する周波数応答をベクトル化した特徴量ベクトルとした。尚、顔特徴量は、特徴量ベクトルに限定されるものではなく、他の特徴量を用いてもよい。また、顔特徴量として、顔画像を利用してもよい。また、図5のS504のように、顔特徴量抽出時に、入力された画像データと顔検出結果から、正規化顔画像を作成してもよい。
3304は、顔辞書読込部である。顔辞書読込部3304では、2次記憶装置103の指定場所に顔辞書データが存在するか否かを探索する。予め作成された顔辞書が存在する場合は読み込む。予め作成された顔辞書が存在しない場合は、顔辞書読込処理は行わない。顔辞書には顔特徴量ベクトルが登録されている。顔辞書の保存場所は他の場所であってもよい。また、顔辞書読込部3304では、データ読込時に顔辞書データを解析して、登録されている特徴量ベクトル数を設定する。
ここで、顔辞書の構成に関して詳細に説明する。図34は、顔辞書の内部を示す図である。3401はIDであり、人物の識別子を示している。IDの数は、特に限定されず、任意の数とすることができる。ここでは、説明のためにID1は息子(子供)、ID2は父(大人)とする。3402はカテゴリ(分類)であり、例えば、人物毎に年齢に応じて特徴量をカテゴライズして管理している。カテゴリは、IDによって個数が異なる。すなわち、各IDに対応づけられるカテゴリの数は異なる。カテゴリ数の制御については後述する。3403は顔特徴量ベクトルであり、顔特徴量抽出部3303で抽出された顔特徴量ベクトルを指す。3404は、カテゴリ毎の顔特徴量ベクトル群を示している。
図33の3305は、類似判定部である。顔特徴量抽出部3303で抽出された顔特徴量(顔特徴量ベクトル)と、顔辞書読込部3304で読み込まれた顔辞書データが入力される。ここでは、顔特徴量抽出部3303で抽出された顔特徴量ベクトルと、顔辞書内に登録されている顔特徴量ベクトルの距離を類似度として比較することにより、類似判定を行う。顔特徴量ベクトル間の距離が短いほど似ていると判定し、ベクトル間の距離が長いほど似ていないと判定する。類似判定は、図34の各IDの各カテゴリ総当たりで行う。顔特徴量ベクトル間の距離が最短のものを結果として、IDと距離を出力する。算出した距離が所定閾値以下(換言すれば、顔特徴ベクトルと他の顔特徴量ベクトルとの類似度が所定の類似度範囲内)であれば、同一人物(同一被写体)と判定する。同一人物と判定された場合は、同一人物と判定された人物と同じIDを設定する返す。算出した距離が所定閾値より大きい場合、別人と判定する。別人と判定された場合は、未使用の新規IDを設定する(割り当てる)。尚、類似判定方法は、これに限定されず、他の類似判定方法により判定してもよいことは言うまでもない。
3306は、年齢判定部である。ここでは、画像入力部3301で入力された画像データと、顔検出部3302で検出された顔検出位置(座標)が入力される。年齢判定部3306は、この入力された画像データと顔検出位置から、顔領域内の年齢を判定する。
尚、年齢判定手法は、特に限定されないが、例えば、特開2009−271885号公報等に記載の年齢推定手法が挙げられる。この手法では、顔領域内の輝度やエッジ情報を特徴量として、各年齢毎の判定器を用いて年齢推定を行う。ここでは、年齢推定特徴量として、顔領域内のエッジ情報を年齢推定特徴量として用いた。なお、年齢推定手法は、これに限定されず、他の年齢推定方法、他の年齢推定特徴量を用いてもよい。
また、他の年齢判定方法としては、例えば、予め登録された顔領域と年齢を関連付けたテーブル等により年齢を判定する方法が挙げられる。
また、図12の属性情報内に含まれる誕生日情報をユーザーが設定している場合、使用する画像の撮影情報に設定されている撮影情報を利用して年齢を算出してもよい。
3307は、カテゴリ判定条件設定部である。カテゴリ判定条件設定部3307には、年齢判定部3306で判定された年齢が入力される。カテゴリ判定条件設定部3307は、入力された年齢から既存カテゴリとのカテゴリ類似判定閾値(カテゴリ判定条件)を算出する。ここで、設定するカテゴリ類似判定閾値は、図34に示すカテゴリに対して、年齢に応じて変更する。例えば、子供は大人に比べて顔の状態が複雑であるため、子供と大人で同一認識処理を行う場合には、子供用の顔特徴量は大人よりもカテゴリ数を多くした方が認識精度が向上する。そのため、年齢判定結果から子供の年齢と判定された場合に大人よりもカテゴリが多くなるように細分化する制御を行う。具体的には、類似判定を顔特徴量ベクトル間の差によって判定する場合、年齢が若いほど既存カテゴリとのカテゴリ類似判定閾値を小さく設定し、年齢が高いほど既存カテゴリとのカテゴリ類似判定閾値を大きく設定する。
ここでは、説明のために、顔特徴量ベクトル間の差は正規化され、0から255のレンジで出力されるとする。その場合に、カテゴリ判定条件の設定方法として、ここでは、以下の数式により、カテゴリ類似判定閾値を算出する。
CategoryTh
=BaseTh+(100−year)×(255−BaseTh)/255
CategoryThは、カテゴリ判定条件となるカテゴリ類似判定閾値を示し、BaseThは、基準となる類似判定閾値を示す。カテゴリ類似判定閾値及び基準となる類似判定閾値は、それぞれ適宜設定すればよいが、本実施形態では例えば、「200」と設定した。yearは、判定された年齢が設定される。本実施形態では、「100」を上限とした。カテゴリ類似判定閾値は、上述した式から算出されるものに限定されず、他の数式から算出されるものであってもよい。また、カテゴリ類似判定閾値以外の項目を判定条件に設定してもよい。また、予め作成したテーブルを利用して判定条件を設定してもよい。
3309は、カテゴリ判定部である。カテゴリ判定部3309には、次に示す4つの値が入力される。1つ目は、カテゴリ判定条件設定部3307で算出されたカテゴリ判定条件である。ここでは、年齢判定の結果、算出されたCategoryThが入力される。2つ目は、顔特徴量抽出部3303で算出された顔特徴量である。3つ目は、顔辞書読込部3304で読み込まれた顔辞書である。4つ目は、類似判定部3305で判定された識別子(ID)である。
類似判定結果から得られたIDを用いて、読み込んだ顔辞書から該当するカテゴリを設定する。設定した各カテゴリ内の顔特徴量ベクトル全てに対して、入力した顔特徴量ベクトル間の距離を算出する。この時に設定されたカテゴリ類似判定閾値を利用して、閾値以下である場合、既存カテゴリに入力した特徴量ベクトルを追加登録する。閾値よりも大きい場合、新規カテゴリを作成して、そこに新規登録する。尚、該当するカテゴリを設定する際のカテゴリ類似判定は、これに限定されず、他の類似判定方法であってもよく、例えば、カテゴリ毎に代表特徴量ベクトルを設定して類似判定を行ってもよい。
尚、カテゴリ数は顔辞書の使用容量に応じて変更するようにしてもよい。例えば、顔辞書の空き容量に応じてCategoryThを変更してカテゴリ数を制御してもよい。空き容量が多い場合はカテゴリ数が多くなるように設定し、空き容量が少ない場合はカテゴリ数が少なくなるように設定する。
3308は、顔辞書登録部である。顔特徴量抽出部3303で抽出された顔特徴量と、類似判定部3305で判定された結果の識別子(ID)と、カテゴリ判定条件設定部3307で判定されたカテゴリが入力される。
顔辞書登録部3308では、入力された識別子とカテゴリから登録するカテゴリを特定する。特定したカテゴリに、顔特徴量ベクトルを登録する。
尚、各カテゴリに登録特徴量数の上限を設定してもよい。これは、カテゴリ判定条件設定部3307で年齢に応じたカテゴリ毎の最大登録特徴量数を設定する。カテゴリ判定により既存カテゴリに追加する際に、カテゴリ内の登録特徴量数が最大登録特徴量数未満の場合に追加登録する処理を行ってもよい。この時、子供は大人に比べて最大登録特徴量数を大きく設定する。登録特徴量数が多くなることで大人よりも認識精度があがる。
また、カテゴリ毎の最大登録特徴量数は、顔辞書の使用容量によって変更してもよい。例えば、顔辞書の空き容量に応じてカテゴリ毎の最大登録特徴量数を制御してもよい。空き容量が多い場合は、最大数が多くなるように設定し、空き容量が少ない場合は最大数が少なくなるように設定する。
また、ここでは年齢に応じてカテゴリ判定条件を変更する方法に関して説明しているが、性別によって変更してもよい。女性は化粧により顔特徴量が変化するため、認識精度に影響する。そこで、性別によってカテゴリを変更することによって高い認識性能を確保する。例えば、女性の方が男性よりもカテゴリが多くなるように細分化する制御を行う。この時、使用する性別判定方法としては、例えば、公知の技術を用いることができる。
性別判定方法として図15に示すUIにより設定された続柄から性別を設定してもよい。
また、年齢と性別を組み合わせてカテゴリ判定条件を変更してもよい。例えば、子供の期間は男女問わずカテゴリ数を増やして認識精度を向上させて、、子供の期間を過ぎると男性は、カテゴリ数を少なくするようにしてもよい。子供の期間を過ぎると顔特徴量が定着し、女性よりも少ないカテゴリ数で認識精度が確保できるためである。
また、年齢に加えて表情に応じてカテゴリ判定条件を変更してもよい。例えば、笑顔判定結果に応じて年齢によるカテゴリを更に増減させてもよい。もちろん、他の表情判定を用いてもよい。
次に、顔辞書作成装置の動作手順に関して説明する。図35は本実施形態の顔辞書作成装置の処理に関するフローチャートである。
まず、S3501において、画像入力部3301により、画像データを入力し、RAM102に展開する。
次に、S3502において、顔検出部3302により、画像入力部3301で処理されたRAM102上の画像データに対して、顔検出を行う。
次に、S3503において、顔特徴量抽出部3303により、顔検出部3302で得られた顔検出位置に基づき、顔領域内の顔特徴量を抽出する。
次に、S3504において、顔辞書読込部3304により、2次記憶装置103の指定場所から顔辞書データを読み込む。
次に、S3517において、読み込んだ顔辞書データの登録特徴量数が任意設定された上限に達しているか否かを判定する。上限に達している場合(S3517でYES)、処理を終了する。一方、上限に達していない場合(S3517でNO)、S3505に進む。
次に、S3505において、類似判定部3305において、顔特徴量抽出部3303で抽出された顔特徴量ベクトルと、顔辞書内に登録されている顔特徴量ベクトルの距離を比較することにより、類似度を算出する。
次に、S3506において、類似判定部3305により、算出した類似度に応じて類似判定を行う。
次に、類似判定結果に応じて、識別子(ID)の設定を変更する。別人と判定された場合は、S3507において、未使用の新規IDを割り当てて設定する。一方、同一人物と判定された場合は、S3508において、同一人物と判定された人物と同じIDを返す。
次に、S3509において、年齢判定部3306により、入力された画像データと顔検出位置から、顔領域内の年齢を判定する。
次に、S3510において、カテゴリ判定条件設定部3307により、年齢判定部3306で判定された年齢に基づいて、カテゴリ判定条件(カテゴリ類似判定閾値や登録特徴量数)を設定する。換言すれば、年齢に応じて、カテゴリ判定条件が用意されているので、例えば、判定された年齢が子供で、現在設定されているカテゴリ判定条件が大人用である場合には、そのカテゴリ判定条件を子供用のカテゴリ判定条件に変更(再設定)する。
次に、S3511において、カテゴリ判定部3309により、類似判定結果により特定された識別子(ID)に対して、設定されたカテゴリ判定条件に従って、各カテゴリの顔特徴量との類似判定を行い、最類似カテゴリを判定する。
次に、S3512において、判定した最類似カテゴリの類似判定結果を、カテゴリ判定条件設定部3307で設定されたカテゴリ判定条件に基づいて、カテゴリを判定する。
判定の結果、入力した顔特徴量ベクトルと類似するカテゴリがある場合、S3513において、顔辞書登録部3308により、類似する既存カテゴリに顔特徴量ベクトルを登録する。一方、類似するカテゴリがない場合、S3514において、顔辞書登録部3308により、新規カテゴリを作成して、そのカテゴリに顔特徴量ベクトルを新規登録する。
次に、S3515において、検出された全ての顔検出結果に対して一連の処理を行っているか否かを判定する。全ての顔検出結果に対して一連の処理を行っている場合は次の処理に進む。一方、行っていない場合は、S3503まで戻り、未処理の顔検出結果に対して一連の処理を実行する。
次に、S3516において、設定された全ての画像に対して一連の処理を行っているか否かを判定する。全ての画像に対して一連の処理を行っている場合は処理を終了する。一方、行っていない場合は、S3502まで戻り、未処理の画像に対して一連の処理を実行する。
以上説明したように、実施形態1によれば、顔辞書登録時に年齢及び性別の少なくとも一方に応じて、カテゴリ判定条件を設定(変更)することにより高精度な顔辞書を作成することが可能となり、認識精度を向上させることができる。
個人認識を行う際に、表情や年齢等によって器官の形状や位置関係等が変化するため、特徴量が複雑に変化する。人の顔がとり得るパターンは年齢や性別によって数が異なる。例えば、子供ほど器官の可動範囲が広いため、とり得るパターン数が多くなる。また、例えば、女性は化粧しているか否かによって特徴量が異なるため、取り得るパターン数が多くなる。
したがって、本実施形態では、被写体の年齢や性別に応じて、カテゴリ判定条件を設定して似た特徴量をカテゴライズして辞書登録することにより、認識精度を向上させることができる。
尚、本実施形態では、女性の方が男性よりもカテゴリが多くなるように制御するようにしたが、これに限定されるものではない。例えば、ユーザが、例えば、化粧をするか否か等の情報を登録できるようにし、この情報に応じてカテゴリが多くなるように設定できるようにしてもよい。
<実施形態2>
本実施形態では、辞書登録する際に外部入力装置から設定(個体情報設定)された年齢・性別に基づいて、登録するカテゴリ判定条件を変更する構成について説明する。ここでは、説明のためにカテゴリ判定条件としてカテゴリ数を変更する例を挙げて説明する。本実施形態の画像処理装置を実現するための情報処理装置は、実施形態1と同様であるため、説明を省略する。
図36は、本実施形態の個人認識用の顔辞書作成装置の構成の一例を示すブロック図である。実施形態1の図33と同一の構成要素については、同一の参照番号を用いて、その詳細については省略し、実施形態1と相違する構成要素についてのみ説明する。
3605は、顔辞書登録候補選択部である。画像入力部3301で入力された画像データと、顔検出部3302で得られた顔検出位置に基づき、検出された顔位置を入力された画像データ上にプロットしたものを表示装置104で表示する。顔辞書登録候補選択部3605により、入力された画像データから複数の顔領域が検出された場合に、処理対処の顔領域をユーザーが明示的に選択することができるようになる。
ここでは、顔検出した場合に関して説明しているが、ユーザーが手動で矩形を設定して、顔領域を設定してもよい。
図37には、顔辞書登録候補選択部3605により、表示装置104に表示される一例を示している。3701は、表示装置104上に表示する際に使用するアプリケーションのウィンドウを示している。3702は、入力された画像データを表示する領域を示している。3703は、顔検出部3302により検出された検出結果を示している。3704は、名前入力領域を示している。3705は、マウス等の入力装置105によって操作可能なポインタを示している。3706は、終了ボタンを示しており、顔辞書登録候補選択を終了する場合に選択する。もちろん、これ以外のユーザーインタフェースにより顔辞書登録候補を選択する構成としてもよい。
図37において、表示された入力された画像データ内の顔検出結果に対して、ユーザーがマウス等の入力装置105を利用して、顔辞書に登録する顔領域をポインタ3705で選択する。選択した顔領域がアクティブになると、名前入力領域3704が入力可能となり、ユーザーがキーボード等の入力装置105を用いて名前を入力する。入力が完了した時点で、顔辞書登録候補が選択されたとみなす。
以下、ユーザーによる名前入力は数値に限定し、顔辞書内で辞書管理されるIDに直接利用する場合を例に挙げて説明する。なお、名前入力及びIDはこれに限定されず、名前入力で任意文字を許可し、内部管理用にIDが別途割り振られて対応関係を管理するようにしてもよい。
図36に戻り、3606は、個体情報設定部として機能する年齢設定部である。顔辞書登録候補選択部3605により選択された顔領域に対する年齢を設定する。
図38には、年齢設定部3606により、ディスプレイに表示される一例を示す。ここでは説明を簡単にするために、図37に示した顔辞書登録候補選択部3605と同一ユーザーインタフェースとしたが、別のユーザーインタフェースにより年齢を設定してもよい。
図38において、図37と同一の構成要素については、同一の参照番号を付して説明を省略する。3801は、年齢層を選択するための年齢リストを示す。もちろん、年齢リスト3801では、性別や表情等の特徴を用いてもよい。
ここでは、年齢設定はレンジで表記しているがユーザー入力などにより、詳細に設定できるようにしてもよく、また、年齢のみならず性別を設定できるようにしてもよい。
図37に示す顔辞書登録候補選択部3605において顔辞書登録候補選択後に、図38に示すように年齢リスト3801が自動的にポップアップで表示される。ユーザーはその年齢リスト3801からマウス等の入力装置105により年齢を選択する。選択された年齢は、年齢設定部3606において、顔辞書内で管理しているカテゴリに変換される。
図36に戻り、3607は、カテゴリ判定条件設定部である。年齢設定部3606で設定された年齢から、カテゴリ判定条件を設定する。カテゴリ判定条件は、実施形態1で説明しているので、説明を省略する。
3609は、カテゴリ判定部である。カテゴリ判定部3609には、顔辞書登録候補選択部3605により設定された識別子(ID)と、カテゴリ判定条件設定部3607により設定されたカテゴリ判定条件と、顔特徴量抽出部3303で算出された顔特徴量が入力される。カテゴリ判定部3609は、これらの入力から顔辞書登録時のカテゴリを判定する。カテゴリの判定は、実施形態1で説明しているので、ここでは省略する。
3608は、顔辞書登録部である。顔辞書登録部3608には、顔辞書登録候補選択部3605により設定された識別子(ID)とカテゴリ判定部3609により判定されたカテゴリと、顔特徴量抽出部3303により算出された顔特徴量が入力される。顔辞書登録部3608は、入力された識別子(ID)とカテゴリに基づいて、顔辞書に顔特徴量を登録する。
次に、顔辞書作成装置の動作手順について説明する。図39は本実施形態の顔辞書作成装置の処理のフローチャートである。
まず、S3901において、画像入力部3301により、画像データを入力し、RAM102に展開する。
次に、S3902において、顔検出部3302により、画像入力部3301で処理されたRAM102上の画像データに対して、顔検出を行う。
次に、S3903において、顔特徴量抽出部3303により、顔検出部3302で得られた顔検出位置に基づき、顔領域内の顔特徴量を抽出する。
次に、S3904において、顔辞書読込部3304により、2次記憶装置103の指定場所から顔辞書データを読み込む。
次に、S3905において、顔辞書登録候補選択部3605により、顔辞書に登録する顔検出結果を選択する。
次に、S3906において、年齢設定部3606により、選択された顔検出結果に対する年齢を設定する。
次に、S3907において、カテゴリ判定条件設定部3607により、年齢設定部3606により設定された年齢により、カテゴリ判定条件を設定する。
次に、S3908において、カテゴリ判定部3609により、類似判定結果により特定されたIDに対して、各カテゴリの特徴量との類似判定を行い、最類似カテゴリを判定する。
次に、S3909において、既存カテゴリと類似しているか判定する。具体的には、判定した最類似カテゴリの類似判定結果が既存カテゴリと類似しているかを、カテゴリ判定条件設定部3607で設定されたカテゴリ判定条件に基づいて判定する。
判定の結果、入力した顔特徴量ベクトルと類似するカテゴリがある場合、S3910において、顔辞書登録部3608により、類似する既存カテゴリに登録する。一方、類似するカテゴリがない場合、S3911において、顔辞書登録部3608により、新規カテゴリを作成して、そのカテゴリに新規登録する。
S3912において、図37の終了ボタン3706の押下の有無で、顔辞書登録候補の選択が終了であるか否かを判定する。押下されていない場合、S3903に戻る。一方、押下された場合、S3913に進む。あるいは、検出された全顔検出結果を顔辞書に登録した場合にも同様に顔辞書登録候補の選択を終了し、次の処理に進む。
次に、S3913において、顔辞書に登録したい顔を含む画像の処理が全て処理しているか否かを判定する。全て処理している場合には、処理を終了する。一方、全て処理していない場合、S3902まで戻り、次の画像に対して一連の処理を実行する。
以上説明したように、本実施形態によれば、顔辞書登録時にユーザーにより選択された年齢・性別に応じてカテゴリ判定条件を設定(変更)することにより高精度な顔辞書を作成することが可能となり、認識精度を向上させることができる。
(他の実施形態)
以上説明した実施形態は、本発明の効果を得るための一実施形態であり、類似の別手法を用いたり、異なるパラメータを用いたとしても、本発明と同等の効果が得られる場合は、本発明の範疇に含まれる。
上述した実施形態では、レイアウト出力物として、1ページに複数の画像を配置した出力物を生成する例を挙げて説明したが、本発明は、複数ページのアルバム出力にも適用することができる。
尚、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、プログラムは、1つのコンピュータで実行させても、複数のコンピュータを連動させて実行させるようにしてもよい。また、上記した処理の全てをソフトウェアで実現する必要はなく、一部または全部をハードウェアによって実現するようにしてもよい。

Claims (7)

  1. 画像データから抽出した被写体の顔領域の顔特徴量を、類似度に応じて所定のカテゴリに分類して辞書において管理する辞書管理手段と、
    前記被写体の年齢及び性別の少なくとも一方を示す個体情報に応じて、前記顔特徴量を前記カテゴリ毎に分類するためのカテゴリ判定条件を設定するカテゴリ判定条件設定手段と、
    前記カテゴリ判定条件設定手段で設定されたカテゴリ判定条件に基づいて、前記辞書で前記顔特徴量が属するカテゴリを判定するカテゴリ判定手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記カテゴリ判定条件設定手段は、前記個体情報に応じて、カテゴリ判定条件のうちカテゴリ判定に用いられるカテゴリ類似判定の基準を変更する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記カテゴリ判定条件設定手段は、前記個体情報に応じて、カテゴリ判定条件のうち前記辞書のカテゴリに登録する最大登録特徴量数を変更する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記被写体の年齢及び性別の少なくとも一方を示す個体情報を設定する個体情報設定手段を更に備える
    ことを特徴とする請求項1〜3のいずれか一項に記載の画像処理装置。
  5. 前記顔検出手段で複数の顔領域が検出された場合に、前記複数の顔領域から、前記顔辞書への登録候補となる顔領域を選択する選択手段を更に備える
    ことを特徴とする請求項1〜4のいずれか一項に記載の画像処理装置。
  6. 画像データから抽出した被写体の顔領域の顔特徴量を、類似度に応じて所定のカテゴリに分類して辞書において管理する辞書管理工程と、
    前記被写体の年齢及び性別の少なくとも一方を示す個体情報に応じて、前記顔特徴量を前記カテゴリ毎に分類するためのカテゴリ判定条件を設定するカテゴリ判定条件設定工程と、
    前記カテゴリ判定条件設定工程で設定されたカテゴリ判定条件に基づいて、前記辞書で前記顔特徴量が属するカテゴリを判定するカテゴリ判定工程と、
    を備えることを特徴とする画像処理方法。
  7. 請求項6に記載の画像処理方法をコンピュータにより実行することを特徴とするプログラム。
JP2012154009A 2012-07-09 2012-07-09 画像処理装置、画像処理方法、プログラム Active JP5956860B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012154009A JP5956860B2 (ja) 2012-07-09 2012-07-09 画像処理装置、画像処理方法、プログラム
US13/921,774 US9189681B2 (en) 2012-07-09 2013-06-19 Image processing apparatus, method thereof, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012154009A JP5956860B2 (ja) 2012-07-09 2012-07-09 画像処理装置、画像処理方法、プログラム

Publications (3)

Publication Number Publication Date
JP2014016822A true JP2014016822A (ja) 2014-01-30
JP2014016822A5 JP2014016822A5 (ja) 2015-08-27
JP5956860B2 JP5956860B2 (ja) 2016-07-27

Family

ID=49878551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012154009A Active JP5956860B2 (ja) 2012-07-09 2012-07-09 画像処理装置、画像処理方法、プログラム

Country Status (2)

Country Link
US (1) US9189681B2 (ja)
JP (1) JP5956860B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019130670A1 (ja) * 2017-12-27 2019-07-04 株式会社日立製作所 生体認証システム
WO2019151116A1 (ja) * 2018-01-31 2019-08-08 日本電気株式会社 情報処理装置
DE112016001718B4 (de) 2015-04-13 2020-06-10 The Yokohama Rubber Co., Ltd. Kautschukzusammensetzung, vulkanisiertes Produkt und Verwendung der Kautschukzusammensetzung zur Herstellung eines Luftreifens
JP7461692B2 (ja) 2020-05-11 2024-04-04 Fcnt合同会社 携帯端末、情報処理方法及び情報処理プログラム

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9088753B2 (en) 2013-01-11 2015-07-21 Canon Kabushiki Kaisha Image forming apparatus, luminance correction method, and storage medium storing program
JP5936138B2 (ja) * 2013-06-19 2016-06-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 操作手順書を生成する装置及び方法
JP6198521B2 (ja) 2013-08-26 2017-09-20 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2015043158A (ja) 2013-08-26 2015-03-05 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP6417154B2 (ja) 2014-08-27 2018-10-31 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6472300B2 (ja) 2015-03-31 2019-02-20 キヤノン株式会社 画像処理装置および情報処理装置、並びに、それらの方法
JP6478840B2 (ja) 2015-07-01 2019-03-06 キヤノン株式会社 画像処理装置および画像処理方法
JP6525862B2 (ja) 2015-08-07 2019-06-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6660119B2 (ja) 2015-08-07 2020-03-04 キヤノン株式会社 情報処理装置、情報処理方法、並びにプログラム
US10410045B2 (en) * 2016-03-23 2019-09-10 Intel Corporation Automated facial recognition systems and methods
JP6666046B2 (ja) 2016-04-25 2020-03-13 キヤノン株式会社 画像処理装置および画像処理方法
EP3239929B1 (en) 2016-04-27 2019-06-12 Canon Kabushiki Kaisha Image processing apparatus, image processing method and program
JP6902860B2 (ja) 2016-12-09 2021-07-14 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6942464B2 (ja) 2016-12-09 2021-09-29 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6902886B2 (ja) 2017-03-14 2021-07-14 キヤノン株式会社 画像処理装置、方法およびプログラム
CN108725357B (zh) * 2018-05-15 2022-06-03 上海博泰悦臻网络技术服务有限公司 基于人脸识别的参数控制方法、系统与云端服务器
JP7104575B2 (ja) 2018-06-29 2022-07-21 キヤノン株式会社 画像処理装置、制御方法、及びプログラム
JP7316768B2 (ja) 2018-06-29 2023-07-28 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7350495B2 (ja) 2019-02-28 2023-09-26 キヤノン株式会社 装置、方法、及びプログラム
JP7341676B2 (ja) 2019-02-28 2023-09-11 キヤノン株式会社 装置、方法、及びプログラム
JP7341677B2 (ja) 2019-02-28 2023-09-11 キヤノン株式会社 装置、方法、及びプログラム
CN109919165B (zh) * 2019-03-18 2021-07-06 广东工业大学 一种基于相似度的多示例字典学习分类方法及装置
JP6733765B1 (ja) * 2019-03-27 2020-08-05 日本電気株式会社 処理装置、処理方法及びプログラム
JP7286392B2 (ja) 2019-04-17 2023-06-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7286393B2 (ja) 2019-04-17 2023-06-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7433912B2 (ja) 2020-01-06 2024-02-20 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、プログラム、および記憶媒体
JP2022061279A (ja) 2020-10-06 2022-04-18 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2022123210A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2022123213A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2022123209A (ja) 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN113645503B (zh) * 2021-07-26 2022-05-17 珠海格力电器股份有限公司 一种应用控制方法、装置、电子设备及存储介质
JP2023021794A (ja) 2021-08-02 2023-02-14 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2023067166A (ja) 2021-10-29 2023-05-16 キヤノン株式会社 画像処理装置及び画像処理方法
JP2023067164A (ja) 2021-10-29 2023-05-16 キヤノン株式会社 画像処理装置及び画像処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203415A (ja) * 1998-01-16 1999-07-30 Fuji Xerox Co Ltd 類似パターンカテゴリ識別辞書作成装置および方法
JP2009087209A (ja) * 2007-10-02 2009-04-23 Sony Corp 画像処理装置、撮像装置、これらにおける処理方法およびプログラム

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63296465A (ja) 1987-05-28 1988-12-02 Canon Inc 受信画像記録装置
JP2541688B2 (ja) 1990-05-21 1996-10-09 日産自動車株式会社 眼位置検出装置
JP3302011B2 (ja) 1990-06-11 2002-07-15 キヤノン株式会社 図形編集方法及びその装置
JP2973676B2 (ja) 1992-01-23 1999-11-08 松下電器産業株式会社 顔画像特徴点抽出装置
US5677725A (en) 1993-02-25 1997-10-14 Canon Kabushiki Kaisha Image forming apparatus and method performing a halftone image by pulse-width modulation
US6181805B1 (en) * 1993-08-11 2001-01-30 Nippon Telegraph & Telephone Corporation Object image detecting method and system
JP3015264B2 (ja) 1993-12-10 2000-03-06 キヤノン株式会社 情報処理装置及び方法
JP3557659B2 (ja) 1994-08-22 2004-08-25 コニカミノルタホールディングス株式会社 顔抽出方法
JPH0877334A (ja) 1994-09-09 1996-03-22 Konica Corp 顔画像の特徴点自動抽出方法
JP3469031B2 (ja) 1997-02-18 2003-11-25 株式会社東芝 顔画像登録装置及びその方法
JPH1153525A (ja) 1997-08-06 1999-02-26 Matsushita Electric Ind Co Ltd 顔器官検出装置及び媒体
JP3549013B2 (ja) 1998-03-05 2004-08-04 日本電信電話株式会社 目の位置検出方法、目の位置検出装置および目の位置検出プログラムを記録した記録媒体
US6694051B1 (en) 1998-06-24 2004-02-17 Canon Kabushiki Kaisha Image processing method, image processing apparatus and recording medium
JP3492202B2 (ja) 1998-06-24 2004-02-03 キヤノン株式会社 画像処理方法、装置および記録媒体
JP2000105829A (ja) 1998-09-29 2000-04-11 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
JP2000132688A (ja) 1998-10-29 2000-05-12 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
JP2000235648A (ja) 1999-02-17 2000-08-29 Fujitsu Ltd 目の抽出装置および瞬き検出装置
JP2001216515A (ja) 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置
US6965684B2 (en) 2000-09-15 2005-11-15 Canon Kabushiki Kaisha Image processing methods and apparatus for detecting human eyes, human face, and other objects in an image
US6895103B2 (en) 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
JP4095265B2 (ja) 2001-09-06 2008-06-04 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータ読み取り可能な記憶媒体、及びコンピュータプログラム
JP4335492B2 (ja) 2002-03-05 2009-09-30 キヤノン株式会社 動画像管理方法及び装置
US7432985B2 (en) 2003-03-26 2008-10-07 Canon Kabushiki Kaisha Image processing method
JP2005078413A (ja) * 2003-09-01 2005-03-24 Matsushita Electric Ind Co Ltd 電子機器及び電子機器における応答情報出力方法
JP4267584B2 (ja) * 2005-02-28 2009-05-27 株式会社東芝 機器制御装置及びその方法
JP2007206833A (ja) * 2006-01-31 2007-08-16 Toshiba Corp 生体照合方法および生体照合装置
JP4926568B2 (ja) 2006-06-29 2012-05-09 キヤノン株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP4637063B2 (ja) 2006-07-04 2011-02-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP4632452B2 (ja) 2006-07-07 2011-02-16 キヤノン株式会社 画像補正処理装置、画像補正処理方法、プログラム及び記憶媒体
JP4745207B2 (ja) * 2006-12-08 2011-08-10 株式会社東芝 顔特徴点検出装置及びその方法
JP5032911B2 (ja) 2007-07-31 2012-09-26 キヤノン株式会社 画像処理装置及び画像処理方法
JP4991604B2 (ja) 2008-03-17 2012-08-01 キヤノン株式会社 画像処理装置、画像処理方法
JP5072102B2 (ja) 2008-05-12 2012-11-14 パナソニック株式会社 年齢推定方法及び年齢推定装置
JP5390828B2 (ja) 2008-10-17 2014-01-15 キヤノン株式会社 画像処理装置、及び、画像処理方法
JP5743384B2 (ja) 2009-04-14 2015-07-01 キヤノン株式会社 画像処理装置及び画像処理方法とコンピュータプログラム
JP5424712B2 (ja) 2009-05-21 2014-02-26 キヤノン株式会社 画像処理装置及びその制御方法とプログラム
JP5183568B2 (ja) 2009-05-21 2013-04-17 キヤノン株式会社 画像処理装置及び方法、及びプログラムを記録した記憶媒体
JP5328505B2 (ja) 2009-06-18 2013-10-30 キヤノン株式会社 画像処理装置および画像処理方法
JP5595121B2 (ja) 2010-05-24 2014-09-24 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP5791241B2 (ja) 2010-07-16 2015-10-07 キヤノン株式会社 画像処理方法、画像処理装置、およびプログラム
JP5700968B2 (ja) 2010-07-16 2015-04-15 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US8705875B1 (en) * 2010-09-07 2014-04-22 University Of North Carolina At Wilmington Demographic analysis of facial landmarks
JP2013003662A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置及び方法、並びにプログラム
US9626597B2 (en) * 2013-05-09 2017-04-18 Tencent Technology (Shenzhen) Company Limited Systems and methods for facial age identification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203415A (ja) * 1998-01-16 1999-07-30 Fuji Xerox Co Ltd 類似パターンカテゴリ識別辞書作成装置および方法
JP2009087209A (ja) * 2007-10-02 2009-04-23 Sony Corp 画像処理装置、撮像装置、これらにおける処理方法およびプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016001718B4 (de) 2015-04-13 2020-06-10 The Yokohama Rubber Co., Ltd. Kautschukzusammensetzung, vulkanisiertes Produkt und Verwendung der Kautschukzusammensetzung zur Herstellung eines Luftreifens
WO2019130670A1 (ja) * 2017-12-27 2019-07-04 株式会社日立製作所 生体認証システム
JP2019117579A (ja) * 2017-12-27 2019-07-18 株式会社日立製作所 生体認証システム
US11113493B2 (en) 2017-12-27 2021-09-07 Hitachi, Ltd. Biometric authentication system
WO2019151116A1 (ja) * 2018-01-31 2019-08-08 日本電気株式会社 情報処理装置
JP2019132019A (ja) * 2018-01-31 2019-08-08 日本電気株式会社 情報処理装置
JP7461692B2 (ja) 2020-05-11 2024-04-04 Fcnt合同会社 携帯端末、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
US9189681B2 (en) 2015-11-17
JP5956860B2 (ja) 2016-07-27
US20140010415A1 (en) 2014-01-09

Similar Documents

Publication Publication Date Title
JP5956860B2 (ja) 画像処理装置、画像処理方法、プログラム
JP6012310B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6045232B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6016489B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム
JP5993642B2 (ja) 情報処理装置及びその制御方法及びプログラム
US10127436B2 (en) Apparatus, image processing method and storage medium storing program
JP6039942B2 (ja) 情報処理装置及びその制御方法及びプログラム
JP6071288B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6071289B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6012309B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US9519842B2 (en) Apparatus and method for managing an object extracted from image data
JP6031278B2 (ja) 情報処理装置及びその制御方法及びプログラム
JP6222900B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6282065B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2015053541A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6261206B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9509870B2 (en) Image processing apparatus, image processing method, and storage medium enabling layout varations

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160617

R151 Written notification of patent or utility model registration

Ref document number: 5956860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151