JP2005250556A - トリミング処理方法および装置並びにプログラム - Google Patents

トリミング処理方法および装置並びにプログラム Download PDF

Info

Publication number
JP2005250556A
JP2005250556A JP2004056131A JP2004056131A JP2005250556A JP 2005250556 A JP2005250556 A JP 2005250556A JP 2004056131 A JP2004056131 A JP 2004056131A JP 2004056131 A JP2004056131 A JP 2004056131A JP 2005250556 A JP2005250556 A JP 2005250556A
Authority
JP
Japan
Prior art keywords
face
image
trimming
unit
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004056131A
Other languages
English (en)
Inventor
Makoto Yonaha
誠 與那覇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2004056131A priority Critical patent/JP2005250556A/ja
Priority to US11/066,436 priority patent/US20050196069A1/en
Publication of JP2005250556A publication Critical patent/JP2005250556A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 トリミング処理を効率良く行う。
【解決手段】 特徴抽出部1は、撮像ポイントAにおいて取得された画像群Aに対して、先頭の10枚の写真画像を用いて顔の検出処理を行い、画像群A内の写真画像における顔の範囲、顔の向きを画像群Aの特徴として抽出する。目検出部10は、特徴抽出部1により得られた画像群Aの特徴に基づいて、画像群A内の各々の写真画像に対して、検出する顔の向き、顔を検出する領域を限定して顔の検出を行うと共に、検出された顔から目の検出を行う。
【選択図】 図3

Description

本発明は顔写真画像、具体的に同じ撮像条件で撮像して得た複数の顔写真画像から構成された画像群毎にトリミング処理を行うトリミング方法および装置並びにプログラムに関するものである。
パスポートや免許証の交付申請、あるいは履歴書の作成などの場合において、本人の顔が写っている予め定められた出力規格の写真(以下証明写真という)の提出が要求されることが多い。このため、利用者の撮影を行うための撮影室が設けられ、撮影室内の椅子に着座した利用者を撮影し、利用者の証明写真用の顔写真画像をシートに記録した証明写真シートを作成することを自動的に行う証明写真の自動作成装置が従来より利用されている。このような自動作成装置は、大型であり、設置場所が限られているため、利用者が証明写真を取得するためには、自動作成装置が設置された場所を探して出向く必要があり、不便である。
この問題を解決するために、例えば、特許文献1に記載されたように、証明写真の作成に用いる顔写真画像(顔が写されている画像)がモニタなどの表示装置で表示されている状態で、表示されている顔写真画像における頭頭部位置と顎の先端位置を指示すると、コンピュータが指示された2つの位置および証明写真の出力規格に基づいて顔の拡大縮小率、顔の位置を求めて画像を拡大縮小すると共に、拡大縮小した画像中の顔が証明写真における所定の位置に配置されるように拡大縮小した顔写真画像をトリミングして得たトリミング画像を証明写真画像として形成する方法が提案されている。このような方法によって、利用者は、証明写真の自動作成装置よりも多数存在しているDPE店などに証明写真の作成を依頼することができると共に、手持ちの写真のうち、写りが良いなどのような気に入った写真が記録された写真フィルムまたは記録媒体をDPE店などに持ち込むことで、気に入った写真から証明写真を作成させることも可能となる。
しかしながら、この技術では、表示されている顔写真画像に対して頭頭部位置と顎の先端位置を各々指示する、という煩雑な操作をオペレータが行う必要があるので、特に多数の利用者の証明写真を作成するなどの場合にオペレータの負担が大きい。また、特に表示されて顔写真画像中の顔の領域の面積が小さい場合や、顔写真画像の解像度が粗いなどの場合には、頭頭部位置と顎の先端位置をオペレータが迅速かつ正確に指示することは困難であり、適切な証明写真の迅速な作成ができないという問題がある。
そこで、オペレータの負担を減らし、迅速かつ正確にトリミング領域を設定する方法が数多く提案されている。特に近年、写真画像から顔や、目などの自動検出技術の進歩に伴い、写真画像から顔、目などを検出して、それに基づいてトリミング領域を設定してトリミングを行う自動トリミング処理方法が脚光を浴びている。これらの方法によれば、オペレータにより頭頭部位置と顎の先端位置を指示することを必要とせずに顔写真画像から証明写真の作成ができる。例えば、特許文献2には、顔写真画像中の頭頭部位置および両目の位置を検出すると共に、検出された頭頭部位置と両目の位置から顎の先端位置を推定してトリミング領域を設定する方法を提案している。自動トリミング処理においては、最も重要でかつ時間がかかり、かつ精度が要求される処理としては、トリミング領域の設定をするための部位の検出である。この部位は、例えば顔部分全体であってもよく、両目(瞳)であってもよい。
一方、例えば、多人数の社員を有する企業の社員証の更新や、運転免許試験場における運転免許の新規発行、更新などに際して、対象者を撮像して顔写真画像を得、その顔写真画像をトリミングしてトリミング画像を得、このトリミング画像を用いて社員証、免許など(以下合わせてカードという)を作成する作業を一人ずつ行う作業フローよりも、撮像処理と、トリミング処理と、カードの作成処理とを別々に分けて、各々の対象者を夫々撮像して顔写真画像を得、これらの多量の顔写真画像に対してトリミング処理を施して多量のトリミング画像を得、これらのトリミング画像を用いて夫々のカードを発行することが望まれる。こうすることによって、顔写真画像を取得する撮像処理、トリミング処理、カード発行処理を担う装置、人員の専門化を図ることができ、効率が良いからである。例えば、広い区域に点在する撮像ポイントにおいて撮像を行い、トリミング処理を行う装置は、各ポイントで得られた顔写真画像に対してトリミング処理を行い、カード発行装置は、トリミング処理を行う装置により得られたトリミング画像を用いてカードを発行するシステムが考えられる。
特開平11―341272号公報 特開2002−152492号公報
前述した証明写真自動発行装置の場合において、通常、撮像をされる人の座る位置、顔位置などの撮像条件が固定されており、撮像して得た顔写真画像において、顔の位置、顔のサイズ、顔の向き(画像における顔の傾き。例えば図11に示す例においては、図11(a)は顔が垂直であり、傾きが0度とすれば、図11(b)と図11(c)は図11(a)を基準として夫々−15度と+15度の傾きを有することとなる)など、トリミング処理と関係あるパラメータも固定で、略同じであるため、自動発行装置は、撮像して得た顔写真画像をトリミングする際に、これらの要因に基づいた既定の処理をすればよく、処理が早い。さらにこのような自動発行装置においては、上述したパラメータが略固定であるため、顔検出などを行うまでもなく、これらのパラメータに応じて決められた顔写真画像中の固定の位置をトリミング領域とすることもできる。これに対して、上述したような、撮像処理、トリミング処理などが分けられたシステムにおいては、トリミング処理をする際に、対象とする多量の顔写真画像の上述した撮像条件が異なる可能性があるので、各々の顔写真画像においては顔の位置なども異なる可能性がある。そのため、全ての顔写真画像に対して、いかなる撮像条件にも対応できるように顔などの検出を行って、トリミング領域を設定するようにすると、処理時間がかかり、効率が良くないという問題がある。
本発明は、上記事情に鑑みてなされたものであり、トリミング処理を効率良く行うことができるトリミング処理方法および装置並びにプログラム並びにシステムを提供することが目的とするものである。
本発明のトリミング処理方法は、顔部位が所定の位置に所定の大きさで配置されるように規定された所定の規格のトリミング画像を得るために、顔写真画像に対して、前記顔部位を含むトリミング領域を設定するための、前記顔部位または前記顔部位に含まれる所定の部位であるトリミング領域設定用部位を検出し、
検出された該トリミング設定用部位に基づいて、前記所定の規格に合致するように前記顔写真画像における前記トリミング領域を設定し、
該トリミング領域の切取りおよび/または拡大縮小を行って前記トリミング画像を得るトリミング処理方法において、
同じ撮像条件で人物を撮像して得た複数の顔写真画像から構成された画像群毎に、該画像群内の各前記顔写真画像の、前記同じ撮像条件により生じた共通の、前記検出処理、前記設定処理、および前記切取りおよび/または拡大縮小処理のうちの1つまたは複数の処理の処理条件を限定し得る特徴を取得し、
該特徴に応じて、該特徴を有する前記画像群内の顔写真画像の前記処理条件を限定すると共に、限定された該処理条件を用いて各前記顔写真画像に対して当該処理を行うことを特徴とするものである。
本発明のトリミング処理方法は、互い前記撮像条件が異なり得る複数の撮像ポイントのうちの、1つの同じ撮像ポイントにより取得された複数の顔写真画像からなる画像群を対象とすることができる。
本発明のトリミング処理方法は、処理する画像群内の一部の顔写真画像を用いて該画像群の前記特徴を取得することができる。
本発明において、前記特徴が、前記画像群内の各顔写真画像における顔の大きさを含むものであり、顔の検出を必要とする前記トリミング領域設定用部位の検出を行う際に、前記顔の大きさに基づいて検出する顔の大きさを限定して前記顔の検出を行うことが好ましい。

また、「顔の位置」とは、顔写真画像において顔部位が存在する場所を示す情報を意味し、例えば、顔の中心位置や、顔部位の中の目の位置などとすることができる。顔写真画像における顔の大きさが顔写真画像全体の大きさに関係するものの、証明写真用の顔写真においては、顔の大きさを顔写真画像全体の大きさの例えば60%以下とすることができるため、顔の位置、例えば顔の中心位置が分かればこの中心位置を中心とした、顔写真画像の大きさの60%の大きさの領域を顔が含まれる範囲(以下顔範囲という)として推定することができる。また、画像群の特徴として、画像群内の顔写真画像における顔の大きさも取得するようにすれば、より確実に顔範囲を得ることができる。本発明においては、画像群の特徴として、前記画像群内の各顔写真画像における顔の位置を含むものとし、該顔の位置に基づいて、前記トリミング領域設定用部位の検出範囲を限定し、限定された前記検出範囲において各前記顔写真画像に対して前記検出を行うようにしてもよい。なお、画像群内の各顔写真画像における顔の位置が全く同じではなく、微小なずれがある場合に対応し、本発明における画像群の特徴としての「顔の位置」は、該画像群内の各顔写真画像における顔の位置の範囲を含むものとする。
本発明のトリミング処理方法において、前記特徴が、前記画像群内の各顔写真画像における顔の向きを含むものであり、顔の検出を必要とする前記トリミング領域設定用部位の検出を行う際に、前記向きに基づいて検出する顔の向きを限定して前記顔の検出を行うことが好ましい。
本発明のトリミング処理装置は、顔部位が所定の位置に所定の大きさで配置されるように規定された所定の規格のトリミング画像を得るために、顔写真画像に対して、前記顔部位を含むトリミング領域を設定するための、前記顔部位または前記顔部位に含まれる所定の部位であるトリミング領域設定用部位を検出するトリミング領域設定用部位検出部と、
該トリミング設定用部位に基づいて、前記所定の規格に合致するように前記顔写真画像における前記トリミング領域を設定するトリミング領域設定部と、
該トリミング領域の切取りおよび/または拡大縮小を行って前記トリミング画像を得るトリミング実行部とを有してなるトリミング処理装置であって、
同じ撮像条件で人物を撮像して得た複数の顔写真画像から構成された画像群毎に、該画像群内の各前記顔写真画像の、前記同じ撮像条件により生じた共通の、前記検出処理、前記設定処理、および前記切取りおよび/または拡大縮小処理のうちの1つまたは複数の処理の処理条件を限定し得る特徴を取得する特徴取得手段をさらに有し、
前記トリミング領域設定用部位検出部、および/または前記トリミング領域設定部、および/または前記トリミング実行部が、前記特徴取得手段により取得された前記特徴に応じて、該特徴を有する前記画像群内の顔写真画像の前記処理条件を限定すると共に、限定された該処理条件を用いて各前記顔写真画像に対して当該処理を行うものであることを特徴とするものである。
本発明のトリミング処理方法装置は、互い前記撮像条件が異なり得る複数の撮像ポイントのうちの、1つの同じ撮像ポイントにより取得された複数の顔写真画像からなる画像群を対象とすることができる。
前記特徴取得手段は、前記画像群のうちの一部の顔写真画像を用いて該画像群の前記特徴を取得するものとすることができる。
前記特徴は、前記画像群内の各顔写真画像における顔の大きさを含むものであり、前記トリミング領域設定用部位検出手段は、顔の検出を必要とする前記トリミング領域設定用部位の検出を行う際に、前記顔の大きさに基づいて検出する顔の大きさを限定して前記顔の検出を行うことが好ましい。
また、前記特徴は、前記画像群内の各顔写真画像における顔の位置を含むものであり、
前記トリミング領域設定用部位検出手段は、該顔の位置に基づいて、前記トリミング領域設定用部位の検出範囲を限定し、限定された前記検出範囲において各前記顔写真画像に対して前記検出を行うものとしてもよい。
前記特徴は、前記画像群内の各顔写真画像における顔の向きを含むものであり、前記トリミング領域設定用部位検出手段は、顔の検出を必要とする前記トリミング領域設定用部位の検出を行う際に、前記向きに基づいて検出する顔の向きを限定して前記顔の検出を行うものであることが好ましい。
本発明のプログラムは、本発明のトリミング処理方法をコンピュータに実行させるものである。
本発明によれば、同じ撮像ポイントにより取得された顔写真画像からなる画像群のような、その中に含まれる顔写真画像の撮像条件が同じ画像群に対して、まず、この同じ撮像条件により生じた共通の、顔、目などを検出する処理や、トリミング領域を設定する処理や、トリミング領域の切取りおよび/または拡大縮小処理などの処理条件を限定し得る特徴を取得する。画像群内の各顔写真画像に対してトリミング処理を行う際に、これらの特徴に応じて、トリミング処理に含まれる前述の各処理のうちの該当する処理の処理条件を限定して処理を行う。このように限定を加えることによって、処理を早くすることができ、効率が良い。例えば、特徴として画像群内の顔写真画像における顔の大きさを取得して、画像群内の各顔写真画像から顔を検出する際に、検出する顔の大きさをこの特徴としての大きさに基づいて限定することによって、計算量を減らすことができ、効率がよい。また、特徴として顔の位置を取得すれば、顔を検出する範囲を限定することができ、計算量を減らすことができる。また例えば、特徴として画像群内の顔写真画像における顔の向きを取得し、画像群内の各顔写真画像から顔、目などを検出する際に、検出する顔の向きをこの向きに基づいて限定して検出することによって、計算量を減らすことができる。また、例えば、切り取られたトリミング領域に対して、所定の規格に合致するための拡大縮小を行う必要がある場合、この拡大縮小率も画像群の特徴として取得するようにすれば、顔写真画像からトリミング領域を切り取った後には、拡大縮小率を顔写真画像毎に計算する必要がなく、この特徴としての拡大縮小率を用いて拡大縮小すればよい。
以下、図面を参照して、本発明の実施形態について説明する。
図1は、本発明の実施形態となるIDカード発行システムの構成を示すブロック図である。図示のように、本実施形態のカード発行システムは、IDカード作成対象の人物を撮像して顔写真画像(以下略して単に写真画像という)を得る複数の撮像ポイントと、各撮像ポイントからの写真画像を用いて夫々のIDカードを作成するIDカード製作センター300とを有し、各撮像ポイントとIDカード製作センター300とがネットワーク250により接続されており、撮像ポイントにおいて得られた写真画像は、ネットワーク250を介してIDカード製作センター300に送信される。
各撮像ポイントは、撮像して得た画像写真画像をIDカード製作センター300に送信する際に、撮像ポイントA、撮像ポイントBなどのような、撮像を行った撮像ポイントを識別するための情報も写真画像に付属させて送信する。
IDカード製作センター300は、各撮像ポイントから送信されてきた写真画像を撮像ポイント毎に保管する画像保管部220と、画像保管部220により保管された写真画像に対してトリミング処理を行ってトリミング画像を得るトリミング処理部100と、トリミング処理部100により得られたトリミング画像を用いてIDカードを作成するカード作成部240とを備えてなるものである。
IDカード製作センター300の画像保管部220は、各撮像ポイントから送信されてきた写真画像の付属情報を読み取り、写真画像を撮像ポイント別に保管する。図2は、画像保管部220により保管された写真画像のデータ構造の例を示している。図示のように、各撮像ポイントからの写真画像が、その撮像ポイントに対応する記憶領域に記憶保存されている。
トリミング処理部100は、画像保管部220により保管された写真画像に対してトリミング処理を行ってトリミング画像を得るものである。ここでは、全国に支社があり、10000人ほどの社員を有する会社の社員証の更新のために、IDカード製作センター300に本社、各支社のための撮像ポイントから送信されてきた社員の写真画像を例にする。トリミング処理部100は、各写真画像に対して顔検出処理と目検出処理を行うと共に、社員証に貼付される顔写真画像の規格に応じてトリミング領域の設定、切取りなどの処理を行う。なお、このトリミング処理により得られたトリミング画像のサイズが前述規格に合致する必要があるため、トリミング処理部100は、必要に応じて写真画像の拡大縮小処理も行う。ここで、トリミング処理部100の詳細構成について説明する。
図3は、図1に示す実施形態のIDカード発行システムにおけるIDカード製作センター300のトリミング処理部100の構成を示すブロック図である。図示のように、トリミング処理部100は、特徴抽出部1と、目検出部10と、瞳中心位置検出部50と、トリミング領域取得部60と、トリミング部70と、第1の記憶部65とを有してなる。なお、トリミング処理部100は、撮像ポイント毎に写真画像のトリミング処理を行うものであり、ここでは撮像ポイントAの各々の写真画像に対する処理を例にして説明する。
トリミング処理部100の特徴抽出部1は、画像保管部220により保管された撮像ポイントAからの写真画像群(図2に示す例において、撮像ポイントAの0001〜2000までの画像群、以下画像群Aという)内の一部(ここでは、図2の例に示す0001〜0010までの先頭の10枚)を用いて、画像群Aの特徴を抽出する。ここでの特徴とは、トリミング処理と関係する特徴を意味し、本実施形態においては、特徴抽出部1は、顔範囲(顔位置および大きさ)と顔の向きを画像群Aの特徴として抽出する。各撮像ポイント間は、被写体の人物の座る位置、写真画像における人物の部分の大きさなどの撮像条件が異なる可能性があるが、同じ撮像ポイントにおいては、これらの撮像条件が同じであるため、同じ撮像ポイントの写真画像における顔の位置、大きさ、顔の向きが略同じであると考えられる。
図4は、特徴抽出部1の構成を示すブロック図である。図示のように、特徴抽出部1は、前述した10枚の写真画像に対して夫々当該写真画像の特徴量C0を算出する特徴量算出部2と、後述する第1の参照データE1が格納されている第2の記憶部4と、特徴量算出部2が算出した特徴量C0と第2の記憶部4内の第1の参照データE1とに基づいて、写真画像における人物の顔を検出し、この顔の位置、大きさ、顔の向きを得る識別部5と、識別部5により得られた10枚の写真画像の夫々における顔の位置、大きさ、向きに基づいて画像群Aにおける顔範囲、顔向きを取得し、画像群Aの特徴として特定する特徴特定部7と、制御部3と、処理実績データベース6とを有してなるものである。
特徴量算出部2は、顔の識別に用いる特徴量C0を写真画像(以下写真画像S0という)から算出する。具体的には、勾配ベクトル(すなわち写真画像S0上の各画素における濃度が変化する方向および変化の大きさ)を特徴量C0として算出する。以下、勾配ベクトルの算出について説明する。まず、特徴量算出部2は、写真画像S0に対して図5(a)に示す水平方向のエッジ検出フィルタによるフィルタリング処理を施して写真画像S0における水平方向のエッジを検出する。また、特徴量算出部2は、写真画像S0に対して図5(b)に示す垂直方向のエッジ検出フィルタによるフィルタリング処理を施して写真画像S0における垂直方向のエッジを検出する。そして、写真画像S0上の各画素における水平方向のエッジの大きさHおよび垂直方向のエッジの大きさVとから、図6に示すように、各画素における勾配ベクトルKを算出する。なお、特徴量算出部2は、後述するように写真画像S0および顔画像の変形の各段階において特徴量C0を算出する。
なお、このようにして算出された勾配ベクトルKは、図7(a)に示すような人物の顔の場合、図7(b)に示すように、目および口のように暗い部分においては目および口の中央を向き、鼻のように明るい部分においては鼻の位置から外側を向くものとなる。また、口よりも目の方が濃度の変化が大きいため、勾配ベクトルKは口よりも目の方が大きくなる。
そして、この勾配ベクトルKの方向および大きさを特徴量C0とする。なお、勾配ベクトルKの方向は、勾配ベクトルKの所定方向(例えば図6におけるx方向)を基準とした0から359度の値となる。
ここで、勾配ベクトルKの大きさは正規化される。この正規化は、写真画像S0の全画素における勾配ベクトルKの大きさのヒストグラムを求め、その大きさの分布が写真画像S0の各画素が取り得る値(8ビットであれば0〜255)に均一に分布されるようにヒストグラムを平滑化して勾配ベクトルKの大きさを修正することにより行う。例えば、勾配ベクトルKの大きさが小さく、図8(a)に示すように勾配ベクトルKの大きさが小さい側に偏ってヒストグラムが分布している場合には、大きさが0〜255の全領域に亘るものとなるように勾配ベクトルKの大きさを正規化して図8(b)に示すようにヒストグラムが分布するようにする。なお、演算量を低減するために、図8(c)に示すように、勾配ベクトルKのヒストグラムにおける分布範囲を例えば5分割し、5分割された頻度分布が図8(d)に示すように0〜255の値を5分割した範囲に亘るものとなるように正規化することが好ましい。
第2の記憶部4内に格納されている第1の参照データE1は、後述するサンプル画像から選択された複数画素の組み合わせからなる複数種類の画素群のそれぞれについて、各画素群を構成する各画素における特徴量C0の組み合わせに対する識別条件を規定したものである。
第1の参照データE1中の、各画素群を構成する各画素における特徴量C0の組み合わせおよび識別条件は、顔であることが分かっている複数のサンプル画像と顔でないことが分かっている複数のサンプル画像とからなるサンプル画像群の学習により、あらかじめ決められたものである。
なお、本実施形態においては、第1の参照データE1を生成する際には、顔であることが分かっているサンプル画像として、30×30画素サイズを有し、図9に示すように、1つの顔の画像について両目の中心間の距離が10画素、9画素および11画素であり、両目の中心間距離において垂直に立った顔を平面上±15度の範囲において3度単位で段階的に回転させた(すなわち、回転角度が−15度,−12度,−9度,−6度,−3度,0度,3度,6度,9度,12度,15度)サンプル画像を用いるものとする。したがって、1つの顔の画像につきサンプル画像は3×11=33通り用意される。なお、図9においては−15度、0度および+15度に回転させたサンプル画像のみを示す。また、回転の中心はサンプル画像の対角線の交点である。ここで、両目の中心間の距離が10画素のサンプル画像であれば、目の中心位置はすべて同一となっている。この目の中心位置をサンプル画像の左上隅を原点とする座標上において(x1,y1)、(x2,y2)とする。また、図面上の上下方向における目の位置(すなわちy1,y2)はすべてのサンプル画像において同一である。
また、顔でないことが分かっているサンプル画像としては、30×30画素サイズを有する任意の画像を用いるものとする。
ここで、顔であることが分かっているサンプル画像として、両目の中心間距離が10画素であり、平面上の回転角度が0度(すなわち顔が垂直な状態)のもののみを用いて学習を行った場合、第1の参照データE1を参照して顔の位置であると識別されるのは、両目の中心間距離が10画素で全く回転していない顔のみである。写真画像S0に含まれる可能性がある顔のサイズは一定ではないため、顔を識別する際には、後述するように写真画像S0を拡大縮小して、サンプル画像のサイズに適合するサイズの顔および目の位置を識別できるようにしている。しかしながら、両目の中心間距離を正確に10画素とするためには、写真画像S0のサイズを拡大率として例えば1.1単位で段階的に拡大縮小しつつ識別を行う必要があるため、演算量が膨大なものとなる。
また、写真画像S0に含まれる可能性がある顔は、図11(a)に示すように平面上の回転角度が0度のみではなく、図11(b)、(c)に示すように回転している場合もある。しかしながら、両目の中心間距離が10画素であり、顔の回転角度が0度のサンプル画像のみを使用して学習を行った場合、顔であるにも拘わらず、図11(b)、(c)に示すように回転した顔については識別を行うことができなくなってしまう。
このため、本実施形態においては、顔であることが分かっているサンプル画像として、図9に示すように両目の中心間距離が9,10,11画素であり、各距離において平面上±15度の範囲にて3度単位で段階的に顔を回転させたサンプル画像を用いて、第1の参照データE1の学習に許容度を持たせるようにしたものである。これにより、後述する識別部5において識別を行う際には、写真画像S0を拡大率として11/9単位で段階的に拡大縮小すればよいため、写真画像S0のサイズを例えば拡大率として例えば1.1単位で段階的に拡大縮小する場合と比較して、演算時間を低減できる。また、図11(b)、(c)に示すように回転している顔も識別することができる。
以下、図12のフローチャートを参照しながらサンプル画像群の学習手法の一例を説明する。
学習の対象となるサンプル画像群は、顔であることが分かっている複数のサンプル画像と、顔でないことが分かっている複数のサンプル画像とからなる。なお、顔であることが分かっているサンプル画像は、上述したように1つのサンプル画像につき両目の中心位置が9,10,11画素であり、各距離において平面上±15度の範囲にて3度単位で段階的に顔を回転させたものを用いる。各サンプル画像には、重みすなわち重要度が割り当てられる。まず、すべてのサンプル画像の重みの初期値が等しく1に設定される(S1)。
次に、サンプル画像における複数種類の画素群のそれぞれについて識別器が作成される(S2)。ここで、それぞれの識別器とは、1つの画素群を構成する各画素における特徴量C0の組み合わせを用いて、顔の画像と顔でない画像とを識別する基準を提供するものである。本実施形態においては、1つの画素群を構成する各画素における特徴量C0の組み合わせについてのヒストグラムを識別器として使用する。
図13を参照しながらある識別器の作成について説明する。図13の左側のサンプル画像に示すように、この識別器を作成するための画素群を構成する各画素は、顔であることが分かっている複数のサンプル画像上における、右目の中心にある画素P1、右側の頬の部分にある画素P2、額の部分にある画素P3および左側の頬の部分にある画素P4である。そして顔であることが分かっているすべてのサンプル画像について全画素P1〜P4における特徴量C0の組み合わせが求められ、そのヒストグラムが作成される。ここで、特徴量C0は勾配ベクトルKの方向および大きさを表すが、勾配ベクトルKの方向は0〜359の360通り、勾配ベクトルKの大きさは0〜255の256通りあるため、これをそのまま用いたのでは、組み合わせの数は1画素につき360×256通りの4画素分、すなわち(360×256)4通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、勾配ベクトルの方向を0〜359を0〜44と315〜359(右方向、値:0),45〜134(上方向値:1),135〜224(左方向、値:2),225〜314(下方向、値3)に4値化し、勾配ベクトルの大きさを3値化(値:0〜2)する。そして、以下の式を用いて組み合わせの値を算出する。
組み合わせの値=0(勾配ベクトルの大きさ=0の場合)
組み合わせの値=((勾配ベクトルの方向+1)×勾配ベクトルの大きさ(勾配ベクトルの大きさ>0の場合)
これにより、組み合わせ数が94通りとなるため、特徴量C0のデータ数を低減できる。
同様に、顔でないことが分かっている複数のサンプル画像についても、ヒストグラムが作成される。なお、顔でないことが分かっているサンプル画像については、顔であることが分かっているサンプル画像上における上記画素P1〜P4の位置に対応する画素が用いられる。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、図13の一番右側に示す、識別器として用いられるヒストグラムである。この識別器のヒストグラムが示す各縦軸の値を、以下、識別ポイントと称する。この識別器によれば、正の識別ポイントに対応する特徴量C0の分布を示す画像は顔である可能性が高く、識別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の識別ポイントに対応する特徴量C0の分布を示す画像は顔でない可能性が高く、やはり識別ポイントの絶対値が大きいほどその可能性は高まる。ステップS2では、識別に使用され得る複数種類の画素群を構成する各画素における特徴量C0の組み合わせについて、上記のヒストグラム形式の複数の識別器が作成される。
続いて、ステップS2で作成した複数の識別器のうち、画像が顔であるか否かを識別するのに最も有効な識別器が選択される。最も有効な識別器の選択は、各サンプル画像の重みを考慮して行われる。この例では、各識別器の重み付き正答率が比較され、最も高い重み付き正答率を示す識別器が選択される(S3)。すなわち、最初のステップS3では、各サンプル画像の重みは等しく1であるので、単純にその識別器によって画像が顔であるか否かが正しく識別されるサンプル画像の数が最も多いものが、最も有効な識別器として選択される。一方、後述するステップS5において各サンプル画像の重みが更新された後の2回目のステップS3では、重みが1のサンプル画像、重みが1よりも大きいサンプル画像、および重みが1よりも小さいサンプル画像が混在しており、重みが1よりも大きいサンプル画像は、正答率の評価において、重みが1のサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップS3では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく識別されることに、より重点が置かれる。
次に、それまでに選択した識別器の組み合わせの正答率、すなわち、それまでに選択した識別器を組み合わせて使用して各サンプル画像が顔の画像であるか否かを識別した結果が、実際に顔の画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる(S4)。ここで、組み合わせの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。所定の閾値を超えた場合は、それまでに選択した識別器を用いれば画像が顔であるか否かを十分に高い確率で識別できるため、学習は終了する。所定の閾値以下である場合は、それまでに選択した識別器と組み合わせて用いるための追加の識別器を選択するために、ステップS6へと進む。
ステップS6では、直近のステップS3で選択された識別器が再び選択されないようにするため、その識別器が除外される。
次に、直近のステップS3で選択された識別器では顔であるか否かを正しく識別できなかったサンプル画像の重みが大きくされ、画像が顔であるか否かを正しく識別できたサンプル画像の重みが小さくされる(S5)。このように重みを大小させる理由は、次の識別器の選択において、既に選択された識別器では正しく識別できなかった画像を重要視し、それらの画像が顔であるか否かを正しく識別できる識別器が選択されるようにして、識別器の組み合わせの効果を高めるためである。
続いて、ステップS3へと戻り、上記したように重み付き正答率を基準にして次に有効な識別器が選択される。
以上のステップS3からS6を繰り返して、顔が含まれるか否かを識別するのに適した識別器として、特定の画素群を構成する各画素における特徴量C0の組み合わせに対応する識別器が選択されたところで、ステップS4で確認される正答率が閾値を超えたとすると、顔が含まれるか否かの識別に用いる識別器の種類と識別条件とが確定され(S7)、これにより第1の参照データE1の学習を終了する。
なお、上記の学習手法を採用する場合において、識別器は、特定の画素群を構成する各画素における特徴量C0の組み合わせを用いて顔の画像と顔でない画像とを識別する基準を提供するものであれば、上記のヒストグラムの形式のものに限られずいかなるものであってもよく、例えば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図13の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。
また、学習の方法としては上記手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いることができる。
識別部5は、複数種類の画素群を構成する各画素における特徴量C0の組み合わせのすべてについて第1の参照データE1が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組み合わせについての識別ポイントを求め、すべての識別ポイントを総合して写真画像S0に顔が含まれるか否かを識別する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。本実施形態では、すべての識別ポイントを加算して、その加算値が所定の閾値(以下顔識別閾値という)以上である場合には写真画像S0には顔が含まれると判断し、顔識別閾値より小さい場合には顔は含まれないと判断する。
ここで、写真画像S0のサイズは30×30画素のサンプル画像とは異なり、各種サイズを有するものとなっている可能性がある。また、顔が含まれる場合、平面上における顔の回転角度が0度であるとは限らない。このため、識別部5は、図14に示すように、写真画像S0を縦または横のサイズが30画素となるまで段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ(図14においては縮小する状態を示す)、各段階において拡大縮小された写真画像S0上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された写真画像S0上において1画素ずつ移動させながら、マスク内の画像が顔の画像であるか否かの識別を行うことにより、写真画像S0に顔が含まれるか否かを識別する。
なお、第1参照データE1の生成時に学習したサンプル画像として両目の中心位置の画素数が9,10,11画素のものを使用しているため、写真画像S0の拡大縮小時の拡大率は11/9とすればよい。また、第1の参照データE1の生成時に学習したサンプル画像として、顔が平面上で±15度の範囲において回転させたものを使用しているため、写真画像S0は30度単位で360度回転させればよい。
なお、特徴量算出部2は、写真画像S0の拡大縮小および回転という変形の各段階において特徴量C0を算出する。
そして、写真画像S0に顔が含まれるか否かの識別を拡大縮小および回転の全段階の写真画像S0について行い、一度でも顔が含まれると識別された場合には、写真画像S0には顔が含まれると識別し、顔が含まれると識別された段階におけるサイズおよび回転角度の写真画像S0から、識別されたマスクMの位置に対応する30×30画素の領域を顔の画像(以下顔画像という)として抽出する。ここで、前述した各段階は、写真画像S0の拡大縮小率および回転角度に対応するため、識別部5は、顔画像が抽出された段階およびマスクMの位置に基づいて、写真画像S0における顔の向きと、顔の位置およびサイズ(拡大縮小される前のサイズ)とを取得する。
特徴量算出部2および識別部5は、前述した処理を画像群Aの先頭10枚の写真画像に対して行い、夫々の写真画像における顔の向きと、顔の位置およびサイズ(顔範囲)とを取得して、特徴特定部7に出力する。
特徴特定部7は、識別部5により10枚の写真画像に対して夫々得られた顔の向きを画像群Aにおける写真画像の顔の向きとすると共に、識別部5により得られた夫々の顔範囲を包含する範囲を画像群Aにおける顔の範囲として画像群Aの特徴を特定する。
特徴特定部7は、画像群Aの特徴を図3に示すトリミング処理部100の目検出部10に出力すると共に、撮像ポイントAの特徴として処理実績データベース6にも出力して登録させる。図16は、処理実績データベース6におけるデータ構成の例を示している。図示のように、処理実績データベース6において、特徴特定部7により得られた撮像ポイントの特徴、すなわち当該撮像ポイントにおいて得られた写真画像における顔の向き、顔範囲を示す情報が、撮像ポイント毎に記憶されている。図示の例では、顔の向きとして、顔が傾いた角度、顔範囲として、顔領域の左上端の画素位置(a1,b1)と顔領域の右下端の画素位置(a2,b2)が撮像ポイントに対応して記憶されている。
ここまで特徴抽出部1の特徴量算出部2、識別部5、特徴特定部7において行われる処理について説明したが、これらの処理は、制御部3の制御に従って行われるものである。制御部3は、画像群Aに対して、まず、画像群Aに付属された、撮像ポイントを示す情報(撮像ポイントA)を取得し、処理実績データベース6と照合する。処理実績データベース6に撮像ポイントAの特徴が記憶されていれば、処理実績データベース6からその特徴を読み出して直接目検出部10に出力するが、処理実績データベース6に撮像ポイントAに関するデータがなければ、画像群Aの先頭10枚の写真画像を特徴量算出部2に出力して、特徴量の算出、顔の識別、特徴の特定、処理実績データベース6への登録などの上述した処理を行わせる。
図15は、特徴抽出部1において行われる処理を示すフローチャートである。図示のように、制御部3は、まず、画像群Aの撮像ポイントを示す情報(ここでは撮像ポイントA)を取得し、取得された撮像ポイントに対応する特徴が処理実績データベース6にあるか否かを照合する(S10、S11)。処理実績データベース6に撮像ポイントAに対応する特徴があれば(S12:Yes)、その特徴を読み出して目検出部10に出力する(S13、S23)一方、処理実績データベース6に撮像ポイントAに対応する特徴がなければ(S12:No)、画像群Aの先頭10枚の写真画像を特徴量算出部2に出力してステップS14〜S23までの処理を行わせる。画像群Aにおける1枚目の写真画像に対して、特徴量算出部2がこの写真画像の拡大縮小および回転の各段階において、写真画像の勾配ベクトルKの方向および大きさを特徴量C0として算出する(S14、S15)。そして、識別部5が第2の記憶部4から第1の参照データE1を読み出し(S16)、該写真画像に顔が含まれるか否かの識別を行い、前述各段階のうち、顔が含まれると識別された段階におけるサイズおよび回転角度の写真画像から、識別されたマスクMの位置に対応する30×30画素の領域を顔画像として抽出する(S17)と共に、当該写真画像における顔の向き、顔の範囲を取得する(S18)。特徴抽出部1の特徴量算出部2と識別部5は、ステップS14〜ステップS18までの処理を、画像群Aの先頭10枚の写真画像に対して行い、各写真画像に対する処理の結果を特徴特定部7に出力する(S15〜S20)。特徴特定部7は、識別部5により10枚の写真画像に対して夫々得られた顔の向きを画像群Aにおける全ての写真画像の顔の向きとすると共に、識別部5により得られた夫々の顔範囲を包含する範囲を画像群Aの各写真画像における顔の範囲として画像群Aの特徴を特定する(S21)。制御部3は、特徴特定部7により得られた画像群Aの特徴を処理実績データベース6に登録させると共に、目検出部10にも出力させる(S22、S23)。
目検出部10は、特徴抽出部1から出力されてきた画像群Aの特徴を利用して、画像群Aに含まれる各々の写真画像に対して、両目の検出を行うものである。図17は、目検出部10の構成を示すブロック図である。図示のように、目検出部10は、写真画像S0から顔を検出する領域を抽出して領域画像S0aを得る顔検出領域取得部11と、領域画像S0aおよび後述する顔画像から特徴量C0を算出する特徴量算出部12と、後述する第1および第2の参照データE1a、E2が格納されている第3の記憶部13と、特徴量算出部12が算出した領域画像S0aの特徴量C0と第3の記憶部13内の第1の参照データE1aとに基づいて、領域画像S0aにおける人物の顔を識別して、顔部分の画像(顔画像)を抽出する第1の識別部14と、第1の識別部14により抽出された顔画像に対して、特徴量算出部12が算出した顔画像内の特徴量C0と第3の記憶部13内の第2の参照データE2とに基づいて、その顔に含まれる目の位置を識別する第2の識別部15とを備えてなる。
なお、目検出部10により識別される目の位置とは、顔における目尻から目頭の間の中心位置(図18中×で示す)であり、図18(a)に示すように真正面を向いた目の場合においては瞳の中心位置と同様であるが、図18(b)に示すように右を向いた目の場合は瞳の中心位置ではなく、瞳の中心から外れた位置または白目部分に位置する。
顔検出領域取得部11は、特徴抽出部1から出力されてきた画像群Aの特徴に基づいて、写真画像S0から顔検出用の領域画像S0aを取得する。具体的には、まず、画像群Aの1つの特徴である顔範囲(例えば図16に示す位置(a1,b1)と位置(a2,b2)とを対角線両端の頂点とする長方形区域)の画像を抽出すると共に、画像群Aのもう1つの特徴である顔の向きに基づいて、抽出された画像を回転させることによって、図11(a)に示すような顔が垂直な状態である領域画像S0aを取得する。このようにして顔検出領域取得部11により得られた領域画像S0aは、顔が含まれ、かつ顔の状態が垂直(すなわち平面上における回転角度が0度)である画像となる。
特徴量算出部12は、顔の識別に用いる特徴量C0を領域画像S0aから算出する。また、後述するように第1の識別部14により領域画像S0aから抽出された顔画像からも同様の特徴量C0を算出する。なお、処理する対象が写真画像S0ではなく、写真画像S0の一部(またはこの一部を回転させて得た画像)となる領域画像S0aおよび後述する顔画像である点を除いて、特徴量算出部12は、特徴抽出部1の特徴量算出部2と同じ動作をするので、ここでその詳細な説明を省略する。
第3の記憶部13内に格納されている第1および第2の参照データE1a,E2は、後述するサンプル画像から選択された複数画素の組み合わせからなる複数種類の画素群のそれぞれについて、各画素群を構成する各画素における特徴量C0の組み合わせに対する識別条件を規定したものである。
第1および第2の参照データE1a,E2中の、各画素群を構成する各画素における特徴量C0の組み合わせおよび識別条件は、顔であることが分かっている複数のサンプル画像と顔でないことが分かっている複数のサンプル画像とからなるサンプル画像群の学習により、あらかじめ決められたものである。
特徴抽出部1において、処理する写真画像S0における顔の向きが分からないため、第1の参照データE1は、顔であることが分かっているサンプル画像として、図11(b)、(c)に示すように回転している顔も識別できるように、両目の中心間距離において垂直に立った顔を平面上±15度の範囲において3度単位で段階的に回転させた(すなわち、回転角度が−15度,−12度,−9度,−6度,−3度,0度,3度,6度,9度,12度,15度)サンプル画像を用いるものとしている。すなわち、1つの顔の画像につき図9に示すように両目の中心間距離が9,10,11画素であり、各距離において平面上±15度の範囲にて3度単位で段階的に顔を回転させた3×11=33通りのサンプル画像が用意される。これに対して、目検出部10においては、顔検出の対象となる画像が、顔検出領域取得部11により得られた領域画像S0aであり、この領域画像S0aにおける顔の向きが顔検出領域取得部11により図11(a)に示すように垂直になるように回転されたものであるため、第1の参照データE1aを求めるためには、1つの顔の画像につき図9の最上部に示された3つの、顔が垂直な状態であるサンプル画像のみを用いればよい。
なお、第1の参照データE1a、および後述する第2の参照データE2を求めるための学習手法は、特徴抽出部1に用いられた第1の参照データE1を求めるための学習手法と同じであり、ここで、その詳細な説明を省略する。
本実施形態において、第2の参照データE2を生成する際には、顔であることが分かっているサンプル画像として、30×30画素サイズを有し、図10に示すように、1つの顔の画像について両目の中心間の距離が10画素、9.7画素および10.3画素であり、顔が各両目の中心間距離において垂直に立った(回転角度が0度)3通りのサンプル画像を用いるものとする。なお、両目の中心間の距離を9.7画素および10.3画素とするためには、両目の中心間の距離が10画素のサンプル画像を9.7倍あるいは10.3倍に拡大縮小して、拡大縮小後のサンプル画像のサイズを30×30画素とすればよい。
通常、写真画像に含まれる可能性がある顔は、図11(a)に示すように平面上の回転角度が0度のみではなく、図11(b)、(c)に示すように回転している場合もある。そのため、目の識別を行う際に、顔の回転角度が0度のサンプル画像のみを使用して学習を行った場合、顔における目であるにも拘わらず、図11(b)、(c)に示すように回転した顔における目の識別を行うことができなくなってしまう。回転した顔中の目も識別できるようにするためには、1つの顔の画像について顔が各両目の中心間距離において垂直に立った顔を平面上において例えば1度単位で段階的に回転させたサンプル画像を用いる必要がある。本実施形態において、顔検出領域取得部11により得られた領域画像S0aは、顔の回転角度が0度の画像であるため、目検出部10の第1の識別部14により抽出された顔画像においても、顔の回転角度が0度の画像であるため、目の識別をするためのサンプル画像は、図10に示すような顔が回転していないもののみでよい。
なお、第2の参照データE2の学習に用いられるサンプル画像における目の中心位置を、本実施形態において識別する目の位置とする。
また、顔でないことが分かっているサンプル画像としては、30×30画素サイズを有する任意の画像を用いるものとする。
第1の識別部14は、複数種類の画素群を構成する各画素における特徴量C0の組み合わせのすべてについて第1の参照データE1aが学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組み合わせについての識別ポイントを求め、すべての識別ポイントを総合して領域画像S0aにおける顔を識別する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。
ここで、領域画像S0aのサイズは30×30画素のサンプル画像とは異なり、特徴抽出部1により得られた顔範囲のサイズを有するものである。このため、第1の識別部14は、領域画像S0aを縦または横のサイズが30画素となるまで段階的に拡大縮小しつつ、各段階において拡大縮小された領域画像S0a上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された領域画像S0a上において1画素ずつ移動させながら、マスク内の画像が顔の画像であるか否かの識別を行う。
なお、第1参照データE1aの生成時に学習したサンプル画像として両目の中心位置の画素数が9,10,11画素のものを使用しているため、写真画像S0の拡大縮小時の拡大率は11/9とすればよい。
なお、特徴量算出部12は、領域画像S0aの拡大縮小という変形の各段階において特徴量C0を算出する。
ここで、特徴抽出部1においては、処理対象となる写真画像S0のサイズは30×30画素のサンプル画像とは異なり、各種サイズを有するものとなっている可能性がある。また、顔が含まれる場合、平面上における顔の回転角度が0度であるとは限らない。このため、特徴抽出部1の識別部5は、写真画像S0を縦または横のサイズが30画素となるまで段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ各段階において拡大縮小された写真画像S0上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された写真画像S0上において1画素ずつ移動させながら、マスク内の画像が顔の画像であるか否かの識別を行うことにより、写真画像S0内の顔を識別する。これに対して、目検出部10においては、処理対象となる領域画像S0aは、顔の回転角度が0度であるため、目検出部10の第1の識別部14は、領域画像S0aを縦または横のサイズが30画素となるまで段階的に拡大縮小し、各段階において拡大縮小された領域画像S0a上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された領域画像S0a上において1画素ずつ移動させながら、マスク内の画像が顔の画像であるか否かの識別を行うことにより、領域画像S0a内の顔を識別する。すなわち、特徴抽出部1の識別部5と比べ、処理する対象の領域画像S0aが平面上における回転角度が0であるため、顔を識別する際に、領域画像S0aを拡大縮小するものの、回転させる必要がない。こうすることによって、演算量を減らすことができ、効率が良い。
また、顔を識別する処理を施す画像が、写真画像S0の一部分となる領域画像S0aのみであり、識別する範囲が狭くなるため、写真画像S0全体から顔を識別することよりさらに演算量を減らすことができる。
前に説明したように、特徴抽出部1における識別部5は、写真画像S0における顔を識別する際に、識別ポイントが所定の顔識別閾値以上である場合に顔が含まれると識別する。写真画像S0には、顔以外に背景部分も多く存在し、所定の顔識別閾値を用いて顔の識別をするのは、顔以外の部分を顔として誤識別してしまうことを防ぐためである。一方、目検出部10における第1の識別部14は、主要部分が顔であり、背景部分が少ない領域画像S0aにおける顔を識別するものであるため、ここでは、すべての識別ポイントを加算して、その加算値の正負および大きさによって識別を行うものとする。例えば、加算値が負の値である場合には、マスクM内の画像が顔ではないと判断する一方、前述した全ての段階において得られた正の値を有する加算値のうち、最も値の大きい加算値が求められた段階におけるサイズの領域画像S0aから、該当するマスクMの位置に対応する30×30画素の領域を顔画像として抽出する。
第2の識別部15は、第1の識別部14が抽出した顔画像上において、複数種類の画素群を構成する各画素における特徴量C0の組み合わせのすべてについて第2の参照データE2が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組み合わせについての識別ポイントを求め、すべての識別ポイントを総合して顔に含まれる目の位置を識別する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。
ここで、第2の識別部15は、第1の識別部14が抽出した顔画像のサイズを段階的に拡大縮小しつつ、各段階において拡大縮小された顔画像上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された顔上において1画素ずつ移動させながら、マスク内の画像における目の位置の識別を行う。
ここで、第2の識別部15は、第1の識別部14が領域画像S0aにおける顔を識別する際と同じように、顔の状態が垂直であるため、顔画像を拡大縮小するものの、回転させる必要がない。こうすることによって、演算量を減らすことができ、効率が良い。
なお、第2参照データE2の生成時に学習したサンプル画像として両目の中心位置の画素数が9.07,10,10.3画素のものを使用しているため、顔画像の拡大縮小時の拡大率は10.3/9.7とすればよい。
なお、特徴量算出部12は、顔画像の拡大縮小という変形の各段階において特徴量C0を算出する。
そして、本実施形態では、抽出された顔画像の変形の全段階においてすべての識別ポイントを加算し、加算値が最も大きい変形の段階における30×30画素のマスクM内の顔画像において、左上隅を原点とする座標を設定し、サンプル画像における目の位置の座標(x1,y1)、(x2,y2)に対応する位置を求め、変形前の領域画像S0aにおけるこの位置に対応する位置を目の位置と識別する。
第2の識別部15は、上述した処理において識別した両目の位置から両目間の距離Dを求め、両目の位置および両目間の距離Dを情報Qとして瞳中心位置検出部50に出力する。
図19は本実施形態における目検出部10の動作を示すフローチャートである。領域画像S0aに対して、まず、特徴量算出部12が領域画像S0aの拡大縮小の各段階において、領域画像S0aの勾配ベクトルKの方向および大きさを特徴量C0として算出する(S30)。そして、第1の識別部14が第3の記憶部13から第1の参照データE1aを読み出し(S31)、領域画像S0aにおける顔を識別すると共に、識別された顔の画像を抽出する(S32)。次いで、特徴量算出部12が顔画像の拡大縮小の各段階において、顔画像の勾配ベクトルKの方向および大きさを特徴量C0として算出する(S33)。そして、第2の識別部15が第3の記憶部13から第2の参照データE2を読み出し(S34)、顔に含まれる目の位置の識別を行う(S35)。
続いて、第2の識別部15は、ステップS35において識別された目の位置に基づいて両目間の距離Dを求め、目の位置および両目間の距離Dを情報Qとして瞳中心位置検出部50に出力する(S36、S37)。
次に瞳中心位置検出部50について説明する。
図20は、瞳中心位置検出部50の構成を示すブロック図である。図示のように、瞳中心位置検出部50は、目検出部10からの情報Qに基づいて、写真画像S0を2つに切り取って左目と右目とを夫々含む片目画像S1a、S1b(以下、区別して説明する必要がない場合には、両方を指す意味でS1という)を得る切取部30と、片目画像S1に対してグレー変換を行い、片目画像S1のグレースケール画像S2(S2a,S2b)を得るグレー変換部31と、グレースケール画像S2に対して前処理を行って前処理済み画像S3(S3a,S3b)を得る前処理部32と、前処理済み画像S3を2値化するための閾値Tを算出する2値化閾値算出部34を有し、該2値化閾値算出部34により得られた閾値Tを用いて前処理済み画像S3を2値化処理して2値画像S4(S4a,S4b)を得る2値化部33と、2値画像S4の各画素の座標を円環のハフ空間に投票し、投票された各投票位置の投票値を得ると共に、同じ円心座標を有する投票位置の統合投票値W(Wa,Wb)を算出する投票部35と、投票部35により得られた各統合投票値のうちの最も大きい統合投票値が対応する円心座標を中心位置候補G(Ga,Gb)とすると共に、後述する照合部37から次の中心位置候補を探すように指示されたとき、次の中心位置候補を求める中心位置候補取得部36と、中心位置候補取得部36により取得した中心位置候補は照合基準に満たしているか否かを判別し、照合基準に満たしていればこの中心位置候補を瞳の中心位置として後述する微調整部38に出力する一方、照合基準に満たしていなければ中心位置候補取得部36に中心位置候補を取得し直すことをさせると共に、中心位置候補取得部36により取得された中心位置候補が照合基準を満たすようになるまで中心位置候補取得部36に中心位置候補の取得し直しを繰り返させる照合部37と、照合部37から出力されてきた瞳の中心位置G(Ga,Gb)に対して微調整を行って最終中心位置G’(G’a,G’b)を得ると共に、2つの瞳間の距離D1を求める微調整部38とを有してなるものである。
切取部30は、目検出部10から出力されてきた情報Qに基づいて、左目のみと右目のみとを夫々含む所定の範囲を切り出して片目画像S1aとS1bを得るものである。ここで、切取る際の所定の範囲とは、夫々の目の近傍を外枠にした範囲であり、例えば、図21に示す斜線範囲のように、目検出部10より識別した目の位置(目の中心点)を中心とした、図示X方向とY方向の長さが夫々Dと0.5Dである長方形の範囲とすることができる。なお、図示斜線範囲は、図中の左目のトリミングの範囲であるが、右目についても同様である。
グレー変換部31は、切取部30により得られた片目画像S1に対して下記の式(1)に従ってグレー変換処理を行ってグレースケール画像S2を得る。

Y=0.299×R+0.587×G+0.114×B (1)
但し、Y:輝度値
R,G,B:R、G、B値

前処理部32は、グレースケール画像S2に対して前処理を行うものであり、ここでは、前処理として、平滑化処理と穴埋め処理が行われる。また、平滑化処理は、例えばカウシアンフィルタを適用することによって行われ、穴埋め処理は、補間処理とすることができる。
図18に示すように、写真画像における瞳の部分において、中心より上が部分的に明るくなる傾向があるため、穴埋め処理を行ってこの部分のデータを補間することにより瞳の中心位置の検出精度を向上させることができる。
2値化部33は、2値化閾値算出部34を有し、該2値化閾値算出部34により算出した閾値Tを用いて、前処理部32により得られた前処理済み画像S3を2値化して2値画像S4を得るものである。2値化閾値算出部34は、具体的には前処理済み画像S3に対して、図22に示す輝度のヒストグラムを作成し、前処理済み画像S3の全画素数の数分の1(図示では1/5となる20%)に相当する出現頻度に対応する輝度値を2値化用の閾値Tとして求める。2値化部33は、この閾値Tを用いて前処理済み画像S3を2値化して2値画像S4を得る。
投票部35は、まず、2値化画像S4における各画素(画素値が1となる画素)の座標を円環のハフ空間(円中心点X座標,円中心点Y座標,半径r)に投票して、各投票位置の投票値を算出する。通常、1つの投票位置がある画素により投票されると、1回投票されたとして投票値に1が加算されるようにして各投票位置の投票値を求めるようにしているが、ここでは、1つの投票位置がある画素に投票されると、投票値に1を加算するのではなく、投票した画素の輝度値を参照して、輝度値が小さいほど、大きい重みを付けて加算するようにして各投票位置の投票値を求める。図23は、本実施形態の瞳中心位置検出部50における投票部35に使用された重付け係数のテーブルを示している。なお、図中Tは、2値化閾値算出部34により算出された2値化用の閾値Tである。
投票部35は、このようにして各投票位置の投票値を求めた後、これらの投票位置のうち、円環中心点座標値、即ち円環ハフ空間(X,Y,r)における(X,Y)座標値が同じである投票位置同士の投票値を加算して各々の(X,Y)座標値に対応する統合投票値Wを得て、相対応する(X,Y)座標値と対応付けて中心位置候補取得部36に出力する。
中心位置候補取得部36は、まず、投票部35からの各々の統合投票値から、最も大きい統合投票値に対応する(X,Y)座標値を、瞳の中心位置候補Gとして取得して、照合部37に出力する。ここで、中心位置候補取得部36により取得された中心位置候補Gは、左瞳の中心位置Gaと右瞳の中心位置Gbとの2つであり、照合部37は、目検出部10により出力された両目間の距離Dに基づいて、2つの中心位置Ga、Gbの照合を行う。
具体的には、照合部37は、次の2つの照合基準に基づいて照合を行う。
左瞳の中心位置と右瞳の中心位置とのY座標値の差が(D/50)以下。
左瞳の中心位置と右瞳の中心位置とのX座標値の差が(0.8×D〜1.2×D)の範囲内。

照合部37は、中心位置候補取得部36からの2つの瞳の中心位置候補Ga、Gbが上記2つの照合基準を満たしているか否かを判別し、2つの基準とも満たしていれば(以下照合基準を満たしているという)、瞳の中心位置候補Ga、Gbを瞳の中心位置として微調整部38に出力する。一方、2つの基準または2つの基準のうちの1つを満たしていなければ(以下照合基準を満たしていないという)、中心位置候補取得部36に次の中心位置候補を取得するように指示すると共に、中心位置候補取得部36により取得された次の中心位置候補に対して上述した照合、照合基準を満たしている場合の中心位置出力、照合基準を満たしていない場合の中心位置候補を再取得する指示などの処理を、照合基準を満たすようになるまで繰り返す。
片方、中心位置候補取得部36は、照合部37から次の中心位置候補の取得が指示されると、まず、片方(ここでは、左瞳)の中心位置を固定して、もう片方(ここでは右瞳)の各々の統合投票値Wbから、下記の3つの条件に合う投票位置の(X,Y)座標値を次の中心位置候補として取得する。

1.最後に照合部37に出力した中心位置候補の(X、Y)座標値により示される位置とD/30以上(D:両目間の距離)離れている。
2.相対応する統合投票値が、条件1を満たす(X,Y)座標値に対応する統合投票値のうち、最後に照合部37に出力した中心位置候補の(X,Y)座標値に対応する統合投票値の次に大きい。
3.相対応する統合投票値が、1回目に照合部37に出力した中心位置候補の(X,Y)座標値に対応する統合投票値(最も大きい統合投票値)の10パーセント以上である。

中心位置候補取得部36は、まず、左瞳の中心位置を固定して、右瞳に対して求められた統合投票値Wbに基づいて上記3つの条件を満たす右瞳の中心位置候補を探すが、上記3つの条件を満たす候補を見つからない場合には、右瞳の中心位置を固定して、左瞳に対して求められた統合投票値Waに基づいて上記の3つの条件を満たす左瞳の中心位置を探す。
微調整部38は、照合部37から出力してきた瞳の中心位置G(照合基準を満たしている中心位置候補)に対して微調整を行うものである。まず、左瞳の中心位置の微調整を説明する。微調整部38は、2値化部33により得られた左目の片目画像S1aの2値画像S4aに対して、サイズが9×9で、オール1のマスクを用いてマスク演算を3回繰り返し、このマスク演算の結果により得られた最大結果値を有する画素の位置(Gmとする)に基づいて、照合部37から出力してきた左瞳の中心位置Gaに対して微調整を行う。具体的には、例えば、位置Gmと中心位置Gaとの平均を取って得た平均位置を瞳の最終中心位置G’aとするようにしてもよいし、中心位置Gaの方に重みを付けて平均演算して得た平均位置を瞳の最終中心位置G’aとするようにしてもよい。ここでは、中心位置Gaの方に重みを付けて平均演算することにする。
また、右瞳の中心位置の微調整は、右目の片目画像S1bの2値画像S4bを用いて上記と同じように行われる。
微調整部38は、このようにして、照合部37から出力してきた瞳の中心位置Ga、Gbに対して微調整を行って最終中心位置G’a、G’bを得、最終中心位置G’を用いて2つの瞳間の距離D1を求めて、中心位置G’と共にトリミング領域取得部60に出力する。
図24は、瞳中心位置検出部50の処理を示すフローチャートである。図示のように、まず、切取部30は、目検出部10により情報Qとして出力されてきた両目の位置および両目間の距離Dに基づいて写真画像S0から2つの片目画像を切り取り、左目のみを含む片目画像S1aと右目のみを含む片目画像S1bが得られる(S125)。片目画像S1は、グレー変換部31によりグレー変換されてグレースケール画像S2となる(S130)。グレースケール画像S2は、前処理部32により平滑化処理と穴埋め処理を施され、さらに2値化部33により2値化処理されて2値画像S4となる(S135、S140)。投票部35において、2値画像S4の各画素の座標は円環のハフ空間に投票され、その結果、各々の円中心点を示す(X,Y)座標値に対応する統合投票値Wが得られる(S145)。中心位置候補取得部36は、まず、最も大きい統合投票値に対応する(X,Y)座標値を瞳の中心位置候補Gとして照合部37に出力する(S150)。照合部37は、前述した照合基準に基づいて中心位置候補取得部36からの2つの中心位置候補Ga、Gbに対して照合を行い(S115)、2つの中心位置候補Ga、Gbが照合基準を満たしていれば(S160:Yes)、この2つの中心位置候補Ga、Gbを中心位置として微調整部38に出力する一方、2つの中心位置候補Ga、Gbが照合基準を満たしていなければ(S160:No)、中心位置候補取得部36に次の中心位置候補を探すように指示する(S150)。ステップS150からステップS160までの処理が、照合部37により、中心位置候補取得部36からの中心位置候補Gが照合基準を満たすと判別されるまで繰り返される。
微調整部38は、照合部37から出力された中心位置Gに対して微調整を行い、最終中心位置G’および2つの瞳間の距離D1をトリミング領域取得部60に出力する(S165)。
図25は、トリミング領域取得部60の構成を示すブロック図である。図示のように、トリミング領域取得部60は、顔枠取得部62とトリミング領域設定部64とを有してなる。顔枠取得部62は、写真画像S0における両瞳間の距離D1および係数U1a、U1b、U1cを用いて式(2)に従った演算を行って得た値L1a、L1b、L1cを夫々、写真画像S0における両瞳の中心位置Gmを横方向の中心とする顔枠の横幅、中心位置Gmから顔枠の上辺までの距離、中心位置Gmから顔枠の下辺までの距離とするようにして顔枠を取得する。
なお、係数U1a、U1b、U1cは、予め設定され、第1の記憶部65に記憶されたものであり、ここでは、夫々3.250×(1±0.05)、1.905×(1±0.05)、2.170×(1±0.05)の範囲内の値であるものとする。

L1a=D1×U1a
L1b=D1×U1b (2)
L1c=D1×U1c
但し、L1a:両瞳の中心位置を横方向の中心とする顔枠の横幅
L1b:両瞳の中心位置から顔枠の上辺までの距離
L1c:両瞳の中心位置から顔枠の下辺までの距離
D1:両瞳間の距離
U1a,U1b,U1c:係数

トリミング領域設定部64は、顔枠取得部62により取得された顔枠の位置および大きさに基づいて、所定の出力規格に合致するように写真画像S0におけるトリミング領域を設定してトリミング部70に出力する。
トリミング部70は、トリミング領域取得部60により得られたトリミング領域を写真画像S0から切り取ると共に、出力規格に応じて必要であれば拡大縮小処理も行ってトリミング画像を得る。
カード作成部240は、トリミング処理部100により得られたトリミング画像を社員証に印刷する。
図26は、図1に示す実施形態のIDカード発行システムにおけるIDカード製作センター300において行われる処理を示すフローチャートである。なお、画像保管部220は、各撮像ポイントから送信されてきた写真画像を撮像ポイント毎に保管するものであり、ここでは、画像保管部220の処理の説明を省略すると共に、画像保管部220に既に撮像ポイントAの写真画像が保管されていることを例にして説明を行う。
図26に示すように、1つの画像群(ここで、例として画像群A)内の各写真画像に基づいて夫々の社員証の作成をするのに当たって、まず、トリミング処理部100における制御部3は、画像群Aの各写真画像を撮像した撮像ポイント(ここでは撮像ポイントA)に対応するデータが処理実績データベース6にあるか否かを確認する(S210)。処理実績データベース6に撮像ポイントAに対応するデータ、すなわち、写真画像における顔範囲、顔の向きからなる特徴を示す情報があれば(S210:Yes)、制御部3は、当該特徴を示す情報を読み出して目検出部10に出力する(S230)一方、この情報が無ければ(S210:No)、画像群Aの写真画像のうちの、先頭10枚の写真画像を特徴抽出部1に出力して、画像群A、すなわち撮像ポイントAの特徴の抽出を行わせる(S215)。特徴抽出部1は、10枚の写真画像の夫々に対して顔の識別を行って顔領域、顔の向きを得ると共に、10枚の写真画像の夫々の顔領域を包含する領域と、顔の向きとを夫々画像群Aの各写真画像における顔範囲と顔の向きにして画像群Aの特徴を得る。なお、特徴抽出部1は、取得した画像群Aの特徴を目検出部10に出力すると共に、撮像ポイントAの特徴として撮像ポイントAと対応付けて処理実績データベースに登録する(S215、S220)。
目検出部10は、特徴抽出部1から出力されてきた画像群Aの特徴に基づいて、画像群Aの各写真画像から夫々の目の検出(本実施形態においては、両目の中心位置の識別)を行う(S240、S245)。具体的には、まず、画像群Aの特徴に含まれる顔範囲に対応する領域を、顔を検出する領域として取得し、この顔検出領域において顔の識別を行って顔画像を抽出する(S240)。なお、顔の識別を行う際に、画像群Aの特徴に含まれる顔の向きに基づいて、顔が垂直な状態になるように、顔を検出する領域の画像を回転させる。このようにして顔を検出する領域および顔の向きを限定することによって、処理の効率化を図る。次いで、抽出された顔画像に対して目の識別を行い、両目の中心位置および両目間の距離Dを得る(S245)。
瞳中心位置検出部50は、目検出部10により得られた両目の中心位置および両目間の距離Dとからなる情報Qを利用して、写真画像における両瞳夫々の中心位置、および両瞳間の距離D1を検出する(S250)。
トリミング領域取得部60は、両瞳および両瞳間の距離D1を用いて顔枠を取得し、取得した顔枠に基づいて、トリミング領域を設定する(S265)。
トリミング部70は、トリミング領域取得部60により設定されたトリミング領域の画像を写真画像から切り取り、必要に応じて拡大縮小処理を行ってトリミング画像を得る(S270)。
トリミング処理部100は、画像群Aの特徴に基づいて顔を抽出する処理(ステップS240)からトリミング画像を得る処理(S270)までの処理を画像群Aの全ての写真画像に対して施して夫々のトリミング画像を得る(S275:No、S280、S240〜S270)。
カード作成部240は、トリミング処理部100により得られた各々のトリミング画像の印刷を夫々行い、社員証を作成する(S290)。
なお、ここでは、カード作成部240は、トリミング処理部100により画像群A内の全ての写真画像のトリミング画像を取得してからカードの作成を開始するようにしているが、例えば、トリミング処理部100は、トリミング画像の取得次第、当該されたトリミング画像をカード作成部240に出力し、カード作成部240は、トリミング処理部100から出力されてきたトリミング画像を用いて社員証を順次作成するようにしてもよい。
また、目検出部10は、画像群内の先頭10枚の写真画像を用いて抽出された特徴に基づいて目の検出を行う際に、顔を検出する領域を、特徴として抽出された顔範囲に限定して顔を検出する処理画像群内の全ての写真画像(先頭10枚を含む)に対して行うようにしているが、先頭10枚の写真画像は、特徴抽出に用いられた際に既に顔の検出が行われたので、先頭10枚の写真画像に対しては、目検出部10において顔の検出を行うことをせず、特徴抽出の際に検出された顔に対して目の検出を行うようにしてもよい。
このように、本実施形態のIDカード発行システムは、互いに撮像条件が異なり得る複数の撮像ポイントにおいて取得された写真画像のうちの、同じ撮像ポイントの写真画像群に対してトリミング処理を行う際に、同じ撮像ポイントの写真画像は、顔の領域と顔の向きが略同じであることに着目し、画像群の内の一部(本実施形態においては先頭10枚)の写真画像の夫々を用いて顔の識別を行い、この画像群内の写真画像における顔範囲と顔向きとを画像群の特徴として抽出すると共に、抽出された特徴に基づいて画像群内の各写真画像における顔を検出する領域および顔の向きを限定して、トリミング領域を設定するために必要な顔の検出、目の検出を各写真画像に対して行う。顔を検出する領域および顔の向きに限定を加えることによって、演算量を減らすことができるため、トリミング処理の効率が良く。
以上、本発明の望ましい実施形態について説明したが、本発明の不良トリミング画像検出方法および装置並びにそのためのプログラムは、上述した実施形態に限られるものではなく、本発明の主旨を逸脱しない限り、様々な増減、変更を行うことができる。
例えば、本実施形態において、画像群の特徴として顔範囲(顔の位置および大きさ)、顔の向きを抽出するようにしているが、顔の位置(または位置の範囲)、大きさ、顔の向きのうちのいずれか1つでもよく、任意の組み合わせでもよい。さらに、画像群の特徴も、顔範囲、顔の向きに限らず、トリミング処理する上に必要ないかなるものであってもよい。
また、取得した特徴を用いて限定を行う対象も、本実施形態のように、顔を検出する範囲、顔の向きに限られることがない。例えば、本実施形態において、顔範囲、すなわち顔の位置および大きさを用いて、顔を検出する範囲を限定しているが、例えば、顔の大きさを用いて、検出する顔の大きさを限定して顔の検出を行うようにしてもよい。具体的には、例えば、本実施形態において、目検出部10は、特徴抽出部1により得られた特徴としての顔範囲に含まれる顔の大きさを利用して、第1の識別部14および第2の識別部15において検出を行う際に、検出する顔の大きさを限定して、すなわち、図14に示すように写真画像を段階的に拡大縮小する際の拡大縮小率を、特徴として抽出された顔の大きさに対応する拡大縮小率に限定して検出を行うことができる。こうすることによって、演算量を減らすことができ、効率がよい。
また、本実施形態において、画像群の特徴として顔の向きを抽出し、画像群内の各写真画像に対して顔の検出を行う際に、特徴として抽出れた顔の向きを有する顔のみを検出するようにしているが、例えば、画像群の特徴として抽出した顔の向きを含む所定の範囲を、画像群内の各写真画像から顔を検出する際の顔の向きの範囲として限定し、この範囲内の向きを有する顔を検出するようにしてもよい。
また、本実施形態において、写真画像における顔がいかなる向き(−180度〜+180度)を有する場合にも対応可能にするために、顔を検出する際に、第2の記憶部4に記憶された、−15度〜15度の範囲において3度単位で段階的に回転させた(すなわち、回転角度が−15度,−12度,−9度,−6度,−3度,0度,3度,6度,9度,12度,15度)サンプル画像を学習して得た第1の参照データE1を用いると共に、写真画像を30度単位で回転しつつ検出を行っているが、社員証などのための証明写真を取得することを目的とする本実施形態のシステムのような場合、各撮像ポイントからの写真画像においては、顔の向き、すなわち各撮像ポイントにおけるカメラ角度が0度、90度、180度(または−180度)、−90度以外であることがないと考えてもよい。このような場合において、顔の向きを特徴として抽出する際に、−180度〜+180度の範囲内のあらゆる向きから抽出する代わりに、存在し得る向き、例えば上述の0度、90度、180度、−90度の向きのみから顔の実際の向きを抽出すればよい。すなわち、本実施形態の例においては、特徴抽出部1は、顔であると分かっているサンプル画像として0度のサンプル画像のみを用いて学習することによって参照データを得、この参照データを用いて顔の向きを取得するために、写真画像を90度ずつ回転させながら写真画像から顔を検出するようにしてもよく、または顔であると分かっているサンプル画像として0度、90度、180度、−90度の向きのサンプル画像を用いて学習することによって参照データを得、写真画像を回転させずにこの参照データを用いて顔を検出することによって顔の向きを取得するようにしてもよい。
また、例えば、画像群から特徴を抽出する際に、先頭10枚の写真画像に対してトリミング画像を得るまでの処理を行い、トリミング部70が、トリミング領域取得部60により取得されたトリミング領域を切り取ってトリミング画像を得る際に所定の規格に合致するように行った拡大縮小の拡大縮小率(この拡大縮小率が、写真画像の大きさと関係し、撮像ポイント毎に異なり得る)も画像群の特徴として得るようにすれば、後に画像群内の写真画像に対してトリミング処理する際に、切り取ったトリミング領域の画像に対して拡大縮小処理を行うとき、特徴として抽出された拡大縮小率を適用すればよい。
また、本実施形態において、特徴抽出部1において画像群の特徴を抽出取得する際に、顔の検出を行って、顔範囲、顔の向きを得るようにしているが、画像群内の例えば先頭10枚の写真画像を表示して操作者に確認させ、操作者に顔範囲、顔の向きを入力させるようにしてもよい。
また、本実施形態において、一度処理した実績のある撮像ポイントの特徴を登録するようにしているが、例えば、各撮像ポイントの特徴を予め登録したデータベースを用意し、画像群を処理するのに当たって、画像群の撮像ポイントに基づいてこのデータベースから該当する特徴を読み出すようにしてもよい。
また、画像群の撮像ポイントを示す情報も、画像群に添付された態様に限らず、例えば操作者により入力するようにしてもよい。
また、本実施形態において、目検出部10は、写真画像から顔を検出する際に、特徴としての顔範囲の画像に対して識別ポイントを算出し、この識別ポイントが正であり、かつ絶対値が最も大きいことを顔検出の条件としているが、例えば、特徴抽出部1と同じように、識別ポイントが顔識別閾値以上であることを顔検出の条件とし、この顔識別閾値により顔が検出されなかった写真画像に対して、顔が検出されるまで顔識別閾値を段階的に下げて検出を行うようにしてもよい。また、この場合、顔が検出されなかった写真画像に対して、顔が検出されるまで識別閾値を下げての検出を繰り返すようにしてもよいが、例えば、1つの画像群に対してトリミング処理を行う際に、顔が検出された写真画像に対しては、検出された顔に基づいて後の処理を行う一方、顔が検出されなかった写真画像に対しては、顔写真画像をハードディスクや、メモリなどの記憶装置に一時記憶させておき、この画像群内の全ての写真画像に対する処理が終了した後に、一時記憶された、顔が検出されなかった写真画像に対して前述の識別閾値を下げての再検出を行うようにしてもよい。
また、本実施形態のIDカード発行システムは、説明上の便宜のため、例えば写真画像、トリミング画像とIDカード上の記載事項(氏名、生年月日、入社日、部署、肩書きなど)との対応付けについての処理を説明していないが、例えば各社員の社員番号と社員の個人データ(少なくともIDカード上の記載事項を含む)とを対応付けて記憶したデータベースを設けると共に、各社員の社員番号をID番号として写真画像、トリミング画像に付属させるようにすればよい。そして、カード作成部240は、社員証を作成するに際して、トリミング画像に付属された社員番号に対応する個人データをデータベースから読み出して社員証を作成すればよい。
また、本実施形態において、写真画像から瞳を検出して、瞳の位置に基づいてトリミング領域を設定するようにしているが、顔位置、目の位置を用いてもよい。さらに、頭頂部の位置、顎の位置なども用いるようにしてもよい。
本発明の実施形態となるIDカード発行システムの構成を示すブロック図 図1に示すIDカード発行システムにおける画像保管部220による写真画像の保管態様を示す図 トリミング処理部100の構成を示すブロック図 図3に示すトリミング処理部100における特徴抽出部1の構成を示すブロック図 エッジ検出フィルタを示す図 勾配ベクトルの算出を説明するための図 (a)は人物の顔を示す図、(b)は(a)に示す人物の顔の目および口付近の勾配ベクトルを示す図 (a)は正規化前の勾配ベクトルの大きさのヒストグラムを示す図、(b)は正規化後の勾配ベクトルの大きさのヒストグラムを示す図、(c)は5値化した勾配ベクトルの大きさのヒストグラムを示す図、(d)は正規化後の5値化した勾配ベクトルの大きさのヒストグラムを示す図 特徴抽出部1における第2の記憶部4に記憶された第1の参照データE1の学習に用いられる顔であることが分かっているサンプル画像の例 目検出部10における第3の記憶部13に記憶された第2の参照データE2の学習に用いられる顔であることが分かっているサンプル画像の例 顔の回転を説明するための図 参照データの学習手法を示すフローチャート 識別器の導出方法を示す図 特徴抽出部1により顔を検出する際の、写真画像の段階的な変形を説明するための図 特徴抽出部1の処理を示すフローチャート 特徴抽出部1における処理実績データベース6の例を示す図 図3に示すトリミング処理部100における目検出部10の構成を示すブロック図 目の中心位置を説明するための図 目検出部10の処理を示すフローチャート 図3に示すトリミング処理部100における瞳中心位置検出部50の構成を示すブロック図 瞳中心位置検出部50における切取部30が切り取る位置を説明するための図 2値化閾値の求め方を説明するための図 投票値の重み付けを説明するための図 瞳中心位置検出部50の処理を示すフローチャート 図3に示すトリミング処理部100におけるトリミング領域取得部60の構成を示すブロック図 IDカード製作センター300において行われる処理を示すフローチャート
符号の説明
1 特徴抽出部
2 特徴量算出部
3 制御部
4 第2の記憶部
5 識別部
6 処理実績データベース
7 特徴特定部
10 目検出部
11 顔検出領域取得部
12 特徴量算出部
13 第3の記憶部
14 第1の識別部
15 第2の識別部
30 切取部
31 グレー変換部
32 前処理部
33 2値化部
34 2値化閾値算出部
35 投票部
36 中心位置候補取得部
37 照合部
38 微調整部
50 瞳中心位置検出部
60 トリミング領域取得部
62 顔枠取得部
64 トリミング領域設定部
70 トリミング部
65 第1の記憶部
100 トリミング処理部
220 画像保管部
240 カード作成部
250 ネットワーク
300 IDカード製作センター

Claims (13)

  1. 顔部位が所定の位置に所定の大きさで配置されるように規定された所定の規格のトリミング画像を得るために、顔写真画像に対して、前記顔部位を含むトリミング領域を設定するための、前記顔部位または前記顔部位に含まれる所定の部位であるトリミング領域設定用部位を検出し、
    検出された該トリミング設定用部位に基づいて、前記所定の規格に合致するように前記顔写真画像における前記トリミング領域を設定し、
    該トリミング領域の切取りおよび/または拡大縮小を行って前記トリミング画像を得るトリミング処理方法において、
    同じ撮像条件で人物を撮像して得た複数の顔写真画像から構成された画像群毎に、該画像群内の各前記顔写真画像の、前記同じ撮像条件により生じた共通の、前記検出処理、前記設定処理、および前記切取りおよび/または拡大縮小処理のうちの1つまたは複数の処理の処理条件を限定し得る特徴を取得し、
    該特徴に応じて、該特徴を有する前記画像群内の顔写真画像の前記処理条件を限定すると共に、限定された該処理条件を用いて各前記顔写真画像に対して当該処理を行うことを特徴とするトリミング処理方法。
  2. 前記顔写真画像が、互いに前記撮像条件が異なり得る複数の撮像ポイントのうちの1つにより取得されたものであり、
    前記画像群が、同じ前記撮像ポイントにより取得された顔写真画像からなるものであることを特徴とする請求項1記載のトリミング処理方法。
  3. 前記画像群のうちの一部の顔写真画像を用いて該画像群の前記特徴を取得することを特徴とする請求項1または2記載のトリミング処理方法。
  4. 前記特徴が、前記画像群内の各顔写真画像における顔の大きさを含むものであり、
    顔の検出を必要とする前記トリミング領域設定用部位の検出を行う際に、前記顔の大きさに基づいて検出する顔の大きさを限定して前記顔の検出を行うことを特徴とする請求項1から3のいずれか1項記載のトリミング処理方法。
  5. 前記特徴が、前記画像群内の各顔写真画像における顔の位置を含むものであり、
    該顔の位置に基づいて、前記トリミング領域設定用部位の検出範囲を限定し、
    限定された前記検出範囲において各前記顔写真画像に対して前記検出を行うことを特徴とする請求項1から3のいずれか1項記載のトリミング処理方法。
  6. 前記特徴が、前記画像群内の各顔写真画像における顔の向きを含むものであり、
    顔の検出を必要とする前記トリミング領域設定用部位の検出を行う際に、前記向きに基づいて検出する顔の向きを限定して前記顔の検出を行うことを特徴とする請求項1から5のいずれか1項記載のトリミング処理方法。
  7. 顔部位が所定の位置に所定の大きさで配置されるように規定された所定の規格のトリミング画像を得るために、顔写真画像に対して、前記顔部位を含むトリミング領域を設定するための、前記顔部位または前記顔部位に含まれる所定の部位であるトリミング領域設定用部位を検出するトリミング領域設定用部位検出部と、
    該トリミング設定用部位に基づいて、前記所定の規格に合致するように前記顔写真画像における前記トリミング領域を設定するトリミング領域設定部と、
    該トリミング領域の切取りおよび/または拡大縮小を行って前記トリミング画像を得るトリミング実行部とを有してなるトリミング処理装置であって、
    同じ撮像条件で人物を撮像して得た複数の顔写真画像から構成された画像群毎に、該画像群内の各前記顔写真画像の、前記同じ撮像条件により生じた共通の、前記検出処理、前記設定処理、および前記切取りおよび/または拡大縮小処理のうちの1つまたは複数の処理の処理条件を限定し得る特徴を取得する特徴取得手段をさらに有し、
    前記トリミング領域設定用部位検出部、および/または前記トリミング領域設定部、および/または前記トリミング実行部が、前記特徴取得手段により取得された前記特徴に応じて、該特徴を有する前記画像群内の顔写真画像の前記処理条件を限定すると共に、限定された該処理条件を用いて各前記顔写真画像に対して当該処理を行うものであることを特徴とするトリミング処理装置。
  8. 前記顔写真画像が、互いに前記撮像条件が異なり得る複数の撮像ポイントのうちの1つにより取得されたものであり、
    前記画像群が、同じ前記撮像ポイントにより取得された顔写真画像からなるものであることを特徴とする請求項7記載のトリミング処理装置。
  9. 前記特徴取得手段が、前記画像群のうちの一部の顔写真画像を用いて該画像群の前記特徴を取得するものであることを特徴とする請求項7または8記載のトリミング処理装置。
  10. 前記特徴が、前記画像群内の各顔写真画像における顔の大きさを含むものであり、
    前記トリミング領域設定用部位検出手段が、顔の検出を必要とする前記トリミング領域設定用部位の検出を行う際に、前記顔の大きさに基づいて検出する顔の大きさを限定して前記顔の検出を行うことを特徴とする請求項7から9のいずれか1項記載のトリミング処理装置。
  11. 前記特徴が、前記画像群内の各顔写真画像における顔の位置を含むものであり、
    前記トリミング領域設定用部位検出手段が、該顔の位置に基づいて、前記トリミング領域設定用部位の検出範囲を限定し、限定された前記検出範囲において各前記顔写真画像に対して前記検出を行うことを特徴とする請求項7から9のいずれか1項記載のトリミング処理装置。
  12. 前記特徴が、前記画像群内の各顔写真画像における顔の向きを含むものであり、
    前記トリミング領域設定用部位検出手段が、顔の検出を必要とする前記トリミング領域設定用部位の検出を行う際に、前記向きに基づいて検出する顔の向きを限定して前記顔の検出を行うものことを特徴とする請求項7から11のいずれか1項記載のトリミング処理装置。
  13. 顔部位が所定の位置に所定の大きさで配置されるように規定された所定の規格のトリミング画像を得るために、顔写真画像に対して、前記顔部位を含むトリミング領域を設定するための、前記顔部位または前記顔部位に含まれる所定の部位であるトリミング領域設定用部位を検出する検出処理と、
    検出された該トリミング設定用部位に基づいて、前記所定の規格に合致するように前記顔写真画像における前記トリミング領域を設定する設定処理と、
    該トリミング領域の切取りおよび/または拡大縮小を行って前記トリミング画像を得るトリミング実行処理とをコンピュータに実行させるプログラムであって、
    同じ撮像条件で人物を撮像して得た複数の顔写真画像から構成された画像群毎に、該画像群内の各前記顔写真画像の、前記同じ撮像条件により生じた共通の、前記検出処理、前記設定処理、および前記切取りおよび/または拡大縮小処理のうちの1つまたは複数の処理の処理条件を限定し得る特徴を取得する処理をさらにコンピュータに実行させ、
    前記検出処理、および/または前記設定処理、および/または前記トリミング実行処理が、前記特徴に応じて、該特徴を有する前記画像群内の顔写真画像の前記処理条件を限定すると共に、限定された該処理条件を用いて各前記顔写真画像に対して当該処理を行うことを特徴とするプログラム。
JP2004056131A 2004-03-01 2004-03-01 トリミング処理方法および装置並びにプログラム Withdrawn JP2005250556A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004056131A JP2005250556A (ja) 2004-03-01 2004-03-01 トリミング処理方法および装置並びにプログラム
US11/066,436 US20050196069A1 (en) 2004-03-01 2005-02-28 Method, apparatus, and program for trimming images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004056131A JP2005250556A (ja) 2004-03-01 2004-03-01 トリミング処理方法および装置並びにプログラム

Publications (1)

Publication Number Publication Date
JP2005250556A true JP2005250556A (ja) 2005-09-15

Family

ID=34908897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004056131A Withdrawn JP2005250556A (ja) 2004-03-01 2004-03-01 トリミング処理方法および装置並びにプログラム

Country Status (2)

Country Link
US (1) US20050196069A1 (ja)
JP (1) JP2005250556A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007267268A (ja) * 2006-03-29 2007-10-11 Furyu Kk 写真シール作成装置および方法、並びにプログラム
JP2007336126A (ja) * 2006-06-14 2007-12-27 Fujifilm Corp 撮像装置およびその制御方法
JP2011259515A (ja) * 2011-10-05 2011-12-22 Furyu Kk 写真シール作成装置および方法、並びにプログラム
JP2012009980A (ja) * 2010-06-23 2012-01-12 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2017026893A (ja) * 2015-07-24 2017-02-02 国立大学法人静岡大学 画像表示装置

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706577B1 (en) * 2006-01-26 2010-04-27 Adobe Systems Incorporated Exporting extracted faces
US7720258B1 (en) 2006-01-26 2010-05-18 Adobe Systems Incorporated Structured comparison of objects from similar images
US7694885B1 (en) 2006-01-26 2010-04-13 Adobe Systems Incorporated Indicating a tag with visual data
US7636450B1 (en) 2006-01-26 2009-12-22 Adobe Systems Incorporated Displaying detected objects to indicate grouping
US7716157B1 (en) 2006-01-26 2010-05-11 Adobe Systems Incorporated Searching images with extracted objects
US7978936B1 (en) 2006-01-26 2011-07-12 Adobe Systems Incorporated Indicating a correspondence between an image and an object
US8259995B1 (en) 2006-01-26 2012-09-04 Adobe Systems Incorporated Designating a tag icon
US7813526B1 (en) 2006-01-26 2010-10-12 Adobe Systems Incorporated Normalizing detected objects
US7813557B1 (en) 2006-01-26 2010-10-12 Adobe Systems Incorporated Tagging detected objects
US9842331B2 (en) 2008-01-18 2017-12-12 Mitek Systems, Inc. Systems and methods for mobile image capture and processing of checks
US10528925B2 (en) 2008-01-18 2020-01-07 Mitek Systems, Inc. Systems and methods for mobile automated clearing house enrollment
US10685223B2 (en) * 2008-01-18 2020-06-16 Mitek Systems, Inc. Systems and methods for mobile image capture and content processing of driver's licenses
US8983170B2 (en) 2008-01-18 2015-03-17 Mitek Systems, Inc. Systems and methods for developing and verifying image processing standards for mobile deposit
US10102583B2 (en) 2008-01-18 2018-10-16 Mitek Systems, Inc. System and methods for obtaining insurance offers using mobile image capture
US9298979B2 (en) * 2008-01-18 2016-03-29 Mitek Systems, Inc. Systems and methods for mobile image capture and content processing of driver's licenses
JP2009232243A (ja) * 2008-03-24 2009-10-08 Seiko Epson Corp 画像処理装置、画像処理方法、および画像処理のためのコンピュータプログラム
JP4966260B2 (ja) * 2008-06-25 2012-07-04 キヤノン株式会社 画像処理方法および画像処理装置、プログラム並びに、コンピュータ読み取り可能な記憶媒体
JP5507962B2 (ja) * 2009-11-05 2014-05-28 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
US10891475B2 (en) 2010-05-12 2021-01-12 Mitek Systems, Inc. Systems and methods for enrollment and identity management using mobile imaging
KR101795601B1 (ko) * 2011-08-11 2017-11-08 삼성전자주식회사 영상 처리 장치, 영상 처리 방법, 및 컴퓨터 판독가능 저장매체
US10558848B2 (en) 2017-10-05 2020-02-11 Duelight Llc System, method, and computer program for capturing an image with correct skin tone exposure

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1136937B1 (en) * 2000-03-22 2006-05-10 Kabushiki Kaisha Toshiba Facial image forming recognition apparatus and a pass control apparatus
JP3983469B2 (ja) * 2000-11-14 2007-09-26 富士フイルム株式会社 画像処理装置、方法及び記録媒体

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007267268A (ja) * 2006-03-29 2007-10-11 Furyu Kk 写真シール作成装置および方法、並びにプログラム
JP2007336126A (ja) * 2006-06-14 2007-12-27 Fujifilm Corp 撮像装置およびその制御方法
JP4686406B2 (ja) * 2006-06-14 2011-05-25 富士フイルム株式会社 撮像装置およびその制御方法
JP2012009980A (ja) * 2010-06-23 2012-01-12 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2011259515A (ja) * 2011-10-05 2011-12-22 Furyu Kk 写真シール作成装置および方法、並びにプログラム
JP2017026893A (ja) * 2015-07-24 2017-02-02 国立大学法人静岡大学 画像表示装置

Also Published As

Publication number Publication date
US20050196069A1 (en) 2005-09-08

Similar Documents

Publication Publication Date Title
JP2005250556A (ja) トリミング処理方法および装置並びにプログラム
US7542591B2 (en) Target object detecting method, apparatus, and program
US8184870B2 (en) Apparatus, method, and program for discriminating subjects
US7720302B2 (en) Method, apparatus and program for image processing
US8139826B2 (en) Device and method for creating photo album
US8577099B2 (en) Method, apparatus, and program for detecting facial characteristic points
US20050117802A1 (en) Image processing method, apparatus, and program
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
CN107256410B (zh) 眼底图像分类方法及装置
KR101781358B1 (ko) 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법
US20160267339A1 (en) Image processing apparatus and method of generating face image
US7995807B2 (en) Automatic trimming method, apparatus and program
JP4647289B2 (ja) 画像処理方法および装置並びにプログラム
JP2006119817A (ja) 画像処理装置
JP2005084980A (ja) 顔画像付きカード用データ生成装置および方法並びにプログラム
CN111507957A (zh) 身份证图片转换方法、装置、计算机设备及存储介质
JP4619762B2 (ja) 画像処理方法および装置並びにプログラム
JP2007048172A (ja) 情報分類装置
CN113436735A (zh) 基于人脸结构度量的体重指数预测方法、设备和存储介质
CN111611994A (zh) 图像提取方法、装置、电子设备和存储介质
JP4510562B2 (ja) 円中心位置検出方法および装置並びにプログラム
JP2005332382A (ja) 画像処理方法および装置並びにプログラム
JP2005084979A (ja) 顔認証システムおよび方法並びにプログラム
JP2005108207A (ja) 画像処理方法および装置並びにプログラム
JP2005242641A (ja) トリミング用データ作成方法およびトリミング用データおよびトリミング処理システム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070501