JP2005108207A - 画像処理方法および装置並びにプログラム - Google Patents

画像処理方法および装置並びにプログラム Download PDF

Info

Publication number
JP2005108207A
JP2005108207A JP2004262387A JP2004262387A JP2005108207A JP 2005108207 A JP2005108207 A JP 2005108207A JP 2004262387 A JP2004262387 A JP 2004262387A JP 2004262387 A JP2004262387 A JP 2004262387A JP 2005108207 A JP2005108207 A JP 2005108207A
Authority
JP
Japan
Prior art keywords
distance
eyes
face
image
center position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004262387A
Other languages
English (en)
Inventor
Makoto Yonaha
誠 與那覇
To Chin
涛 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2004262387A priority Critical patent/JP2005108207A/ja
Publication of JP2005108207A publication Critical patent/JP2005108207A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 トリミング領域を正確かつ迅速に決定する。
【解決手段】 顔写真画像における両瞳間の距離D1に対して式(44)に従った演算を行って得た値L1a、L1b、L1cを夫々、両目間の中心位置Pmを横方向の中心とする顔枠の横幅、中心位置Pmから顔枠の上辺までの距離、中心位置Pmから顔枠の下辺までの距離とするようにして顔枠を決定し、この顔枠を用いてトリミング領域を設定する。
L1a=D×3.250
L1b=D×1.905 (44)
L1c=D×2.170
【選択図】 図1

Description

本発明は顔写真画像に対して、トリミング領域を設定する画像処理方法および装置並びにそのためのプログラム並びにデジタルカメラ並びに写真ボックス装置に関するものである。
パスポートや免許証の交付申請、あるいは履歴書の作成などの場合において、本人の顔が写っている予め定められた出力規格の写真(以下証明写真という)の提出が要求されることが多い。このため、利用者の撮影を行うための撮影室が設けられ、撮影室内の椅子に着座した利用者を撮影し、利用者の証明写真用の顔写真画像をシートに記録した証明写真シートを作成することを自動的に行う証明写真の自動作成装置が従来より利用されている。このような自動作成装置は、大型であるため、設置場所が限られているため、利用者が証明写真を取得するためには、自動作成装置が設置された場所を探して出向く必要があり、不便である。
この問題を解決するために、例えば、特許文献1に記載されたように、証明写真の作成に用いる顔写真画像(顔が写されている画像)がモニタなどの表示装置で表示されている状態で、表示されている顔写真画像における頭頭部位置と顎の先端位置を指示すると、コンピュータが指示された2つの位置および証明写真の出力規格に基づいて顔の拡大縮小率、顔の位置を求めて画像を拡大縮小すると共に、拡大縮小した画像中の顔が証明写真における所定の位置に配置されるように拡大縮小した顔写真画像をトリミングして証明写真画像を形成する方法が提案されている。このような方法によって、利用者は、証明写真の自動作成装置よりも多数存在しているDPE店などに証明写真の作成を依頼することができると共に、手持ちの写真のうち、写りが良いなどのような気に入った写真が記録された写真フィルムまたは記録媒体をDPE店などに持ち込むことで、気に入った写真から証明写真を作成させることも可能となる。
しかしながら、この技術では、表示されている顔写真画像に対して頭頭部位置と顎の先端位置を各々指示する、という煩雑な操作をオペレータが行う必要があるので、特に多数の利用者の証明写真を作成するなどの場合にオペレータの負担が大きい。また、特に表示されて顔写真画像中の顔の領域の面積が小さい場合や、顔写真画像の解像度が粗いなどの場合には、頭頭部位置と顎の先端位置をオペレータが迅速かつ正確に指示することは困難であり、適切な証明写真の迅速な作成ができないという問題がある。
特許文献2には、顔写真画像中の頭頭部位置および両目の位置を検出すると共に、検出された頭頭部位置と両目の位置から顎の先端位置を推定してトリミング領域を設定する方法を提案している。この方法によれば、オペレータにより頭頭部位置と顎の先端位置を指示することを必要とせずに顔写真画像から証明写真の作成ができる。
特開平11−341272号公報 特開2002−152492号公報
しかしながら、特許文献2記載の方法では、目の検出に加え、頭頂部の検出も必要とし、処理が煩雑である。
また、頭頂部の検出においては、頭頂部が目より上の部分に位置するのにも拘らず、顔写真画像全体から頭頂部を検出するようにしているため、処理時間がかかることは勿論、顔写真画像に写った人物の衣装の色によっては正確に頭頂部を検出することができない可能性が生じ、結果として適切なトリミング領域を設定することができないという問題がある。
本発明は、上記事情に鑑み、正確かつ迅速に顔写真画像中のトリミング領域を設定することできる画像処理方法および装置並びにそのためのプログラムを提供することを目的とするものである。
本発明の第1の画像処理方法は、顔写真画像における両目間の距離Dおよび係数U1a、U1b、U1cを用いて式(1)に従った演算を行って得た値L1a、L1b、L1cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の上辺までの距離、前記中心位置Gmから前記顔枠の下辺までの距離とするようにして前記顔枠を取得し、
前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定する画像処理方法において、
前記係数U1a、U1b、U1cが、サンプル顔写真画像における両目間の距離Dsおよび所定のテスト係数Ut1a、Ut1b、Ut1cを用いて式(2)に従った演算を行って得た夫々の値Lt1a、Lt1b、Lt1cと、前記サンプル顔写真画像における顔の横幅、前記両目間の中心位置から前記顔の上端までの距離、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするものである。

L1a=D×U1a
L1b=D×U1b (1)
L1c=D×U1c

Lt1a=Ds×Ut1a
Lt1b=Ds×Ut1b (2)
Lt1c=Ds×Ut1c

ここで、前記「顔の横幅」とは、顔が横方向(両目が並ぶ方向)における最大の幅であり、例えば左耳から右耳までの距離とすることができる。「顔の上端」とは、前記横方向と直交する縦方向における顔の最も上部の位置を意味し、例えば頭頂部とすることができる。「顔の下端」とは、前記縦方向における顔の最も下部の位置を意味し、例えば顎の先端とすることができる。
人の顔の大きさは夫々異なるが、特別な例を除いて、顔の大きさ(横幅、縦幅)は、両目間の距離と対応する関係にあると共に、目から頭頂部までの距離および目から顎の先端までの距離も、両目間の距離と対応する関係にある。本発明の第1の画像処理方法は、この点に着目し、多数のサンプル顔写真画像を用いて、顔の横幅、目から顔の上端までの距離、目から顔の下端までの距離の夫々と、両目間の距離との関係を示す係数U1a、U1b、U1cを統計的に求め、顔写真画像の目の位置および両目間の距離に基づいて、顔枠取得してトリミング領域を設定するものである。
また、本発明において、目の位置とは、目の中心点に限られることがなく、瞳の位置、目尻の位置などとしてもよい。
また、両目間の距離として、図30に示すように、両目の夫々の瞳間の距離d1を用いることが望ましいが、例えば、同図におけるd2、d3、d4、d5が示すような、目頭間の距離、目の中心点間の距離、一方の目の目尻と他方の目の中心点間の距離、両目の目尻間の距離を用いてもよい。図示していないが、一方の目の瞳と他方の目の中心点間の距離や、一方の目の瞳と他方の目の目尻間の距離と、一方の目の目尻と他方の目の目頭間の距離などを用いても勿論よい。
本発明の第2の画像処理方法は、顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出し、
前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U2a、U2cを用いて式(3)に従った演算を行って得た値L2a、L2cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の下辺までの距離とするようにすると共に、前記垂直距離Hを前記中心位置Gmから前記顔枠の上辺までの距離とするようにして前記顔枠を取得し、
前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定する画像処理方法において、
前記係数U2a、U2cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut2a、Ut2cを用いて式(4)に従った演算を行って得た夫々の値Lt2a、Lt2cと、前記サンプル顔写真画像における顔の幅、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするものである。

L2a=D×U2a
L2c=H×U2c (3)


Lt2a=Ds×Ut2a
Lt2b=Hs×Ut2c (4)

本発明の第3の画像処理方法は、顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出し、
前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U3a、U3b、U3cを用いて式(5)に従った演算を行って得た値L3a、L3cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の下辺までの距離とするようにすると共に、前記垂直距離Hを前記中心位置Gmから前記顔枠の上辺までの距離とするようにして前記顔枠を取得し、
前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定する画像処理方法において、
前記係数U3a、U3b、U3cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut3a、Ut3b、Ut3cを用いて式(6)に従った演算を行って得た夫々の値Lt3a、Lt3cと、前記サンプル顔写真画像における顔の幅、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするものである。

L3a=D×U3a
L3c=D×U3b+H×U3c (5)


Lt3a=Ds×Ut3a
Lt3b=Ds×Ut3b+Hs×Ut3c (6)

本発明の第4の画像処理方法は、顔写真画像における両目間の距離Dおよび係数U4a、U4b、U4cを用いて式(7)に従った演算を行って得た値L4a、L4b、L4cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにして前記トリミング領域を設定する画像処理方法において、
前記係数U4a、U4b、U4cが、サンプル顔写真画像における両目間の距離Dsおよび所定のテスト係数Ut4a、Ut4b、Ut4cを用いて式(8)に従った演算を行って得た夫々の値Lt4a、Lt4b、Lt4cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするものである。

L4a=D×U4a
L4b=D×U4b (7)
L4c=D×U4c

Lt4a=Ds×Ut4a
Lt4b=Ds×Ut4b (8)
Lt4c=Ds×Ut4c

本発明の第5の画像処理方法は、顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出し、
前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U5a、U5b、U5cを用いて式(9)に従った演算を行って得た値L5a、L5b、L5cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにするようにして前記トリミング領域を設定する画像処理方法において、
前記係数U5a、U5b、U5cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut5a、Ut5b、Ut5cを用いて式(10)に従った演算を行って得た夫々の値Lt5a、Lt5b、Lt5cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするものである。

L5a=D×U5a
L5b=H×U5b (9)
L5c=H×U5c

Lt5a=Ds×Ut5a
Lt5b=Hs×Ut5b (10)
Lt5c=Hs×Ut5c

本発明の第6の画像処理方法は、顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出し、
前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U6a、U6b1、U6c1、U6b2、U6c2を用いて式(11)に従った演算を行って得た値L6a、L6b、L6cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにして前記トリミング領域を設定する画像処理方法において、
前記係数U6a、U6b1、U6c1、U6b2、U6c2が、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut6a、Ut6b1、Ut6c1、Ut6b2、Ut6c2を用いて式(12)に従った演算を行って得た夫々の値Lt6a、Lt6b、Lt6cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするものである。

L6a=D×U6a
L6b=D×U6b1+H×U6c1 (11)
L6c=D×U6b2+H×U6c2

Lt6a=Ds×Ut6a
Lt6b=Ds×Ut6b1+Hs×Ut6c1 (12)
Lt6c=Ds×Ut6b2+Hs×Ut6c2

すなわち、本発明の第4、第5、第6の画像処理方法は、第1、第2、第3の画像処理方法のように顔枠を求めて、該顔枠の位置と大きさに基づいて所定の出力規格に合致したトリミング領域を設定する代わりに、目の位置、両目間の距離に基づいて、または目の位置、両目間の距離、目から頭頂部までの垂直距離Hに基づいて直接トリミングする枠を設定するものである。
本発明の第1の画像処理装置は、顔写真画像における両目間の距離Dおよび係数U1a、U1b、U1cを用いて式(13)に従った演算を行って得た値L1a、L1b、L1cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の上辺までの距離、前記中心位置Gmから前記顔枠の下辺までの距離とするようにして前記顔枠を取得する顔枠取得手段と、
前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定するトリミング領域設定手段とを備えてなる画像処理装置であって、
前記係数U1a、U1b、U1cが、サンプル顔写真画像における両目間の距離Dsおよび所定のテスト係数Ut1a、Ut1b、Ut1cを用いて式(14)に従った演算を行って得た夫々の値Lt1a、Lt1b、Lt1cと、前記サンプル顔写真画像における顔の横幅、前記両目間の中心位置から前記顔の上端までの距離、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするものである。

L1a=D×U1a
L1b=D×U1b (13)
L1c=D×U1c

Lt1a=Ds×Ut1a
Lt1b=Ds×Ut1b (14)
Lt1c=Ds×Ut1c

ここで、前記両目間の距離として、両目の夫々の瞳間の距離を用いることができる。この場合、前記係数U1a、U1b、U1cの値が、夫々3.250×(1±0.05)、1.905×(1±0.05)、2.170×(1±0.05)の範囲内にあることが望ましい。
本発明の第2の画像処理装置は、顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出する頭頂部検出手段と、
前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U2a、U2cを用いて式(15)に従った演算を行って得た値L2a、L2cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の下辺までの距離とするようにすると共に、前記垂直距離Hを前記中心位置Gmから前記顔枠の上辺までの距離とするようにして前記顔枠を取得する顔枠取得手段と、
前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定するトリミング領域設定手段とを備えてなる画像処理装置であって、
前記係数U2a、U2cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut2a、Ut2cを用いて式(16)に従った演算を行って得た夫々の値Lt2a、Lt2cと、前記サンプル顔写真画像における顔の幅、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするものである。

L2a=D×U2a
L2c=H×U2c (15)

Lt2a=Ds×Ut2a
Lt2b=Hs×Ut2c (16)

ここで、前記両目間の距離として、両目の夫々の瞳間の距離を用いることができる。この場合、前記係数U2a、U2cの値が、夫々3.250×(1±0.05)、0.900×(1±0.05)の範囲内にあることが好ましい。
本発明の第3の画像処理装置は、顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出する頭頂部検出手段と、
前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U3a、U3b、U3cを用いて式(17)に従った演算を行って得た値L3a、L3cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の下辺までの距離とするようにすると共に、前記垂直距離Hを前記中心位置Gmから前記顔枠の上辺までの距離とするようにして前記顔枠を取得する顔枠取得手段と、
前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定するトリミング領域設定手段とを備えてなる画像処理装置であって、
前記係数U3a、U3b、U3cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut3a、Ut3b、Ut3cを用いて式(18)に従った演算を行って得た夫々の値Lt3a、Lt3cと、前記サンプル顔写真画像における顔の幅、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするものである。

L3a=D×U3a
L3c=D×U3b+H×U3c (17)

Lt3a=Ds×Ut3a
Lt3b=Ds×Ut3b+Hs×Ut3c (18)

ここで、前記両目間の距離として、両目の夫々の瞳間の距離を用いることができる。この場合、前記係数U3a、U3b、U3cの値が、夫々3.250×(1±0.05)、1.525×(1±0.05)、0.187×(1±0.05)の範囲内にあることが好ましい。
本発明の第4の画像処理装置は、顔写真画像における両目間の距離Dおよび係数U4a、U4b、U4cを用いて式(19)に従った演算を行って得た値L4a、L4b、L4cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにして前記トリミング領域を設定するトリミング領域設定手段を備えた画像処理装置であって、
前記係数U4a、U4b、U4cが、サンプル顔写真画像における両目間の距離Dsおよび所定のテスト係数Ut4a、Ut4b、Ut4cを用いて式(20)に従った演算を行って得た夫々の値Lt4a、Lt4b、Lt4cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするものである。

L4a=D×U4a
L4b=D×U4b (19)
L4c=D×U4c

Lt4a=Ds×Ut4a
Lt4b=Ds×Ut4b (20)
Lt4c=Ds×Ut4c

また、前記両目間の距離として、両目の夫々の瞳間の距離を用いることができる。この場合、前記係数U4a、U4b、U4cの値は、夫々(5.04×範囲係数)、(3.01×範囲係数)、(3.47×範囲係数)の範囲内にあり、該範囲係数が(1±0.4)とすることができる。
ここで、前記範囲係数は、(1±0.25)であることが好ましい。
さらに、前記範囲係数は、(1±0.10)であることがより好ましい。
さらに、前記範囲係数は、(1±0.05)であることがより好ましい。
すなわち、本発明の第4の画像処理装置は、本発明の第4の画像処理方法に対応し、統計的に求められた係数U4a、U4b、U4cを用いて、顔写真画像の目の位置および両目間の距離に基づいて、トリミング領域を直接設定するものである。
ここで、本願発明者は、多数のサンプル顔写真画像(数千枚)を用いて求められた前記係数は、夫々5.04、3.01、3.47(以下説明の便宜のため、係数U0という)であり、これらの係数U0を用いて前記トリミング領域を設定することが最も望ましいが、使用するサンプル顔写真画像の数などによって前記係数にばらつきが生じる可能性があることと、用途によって出力規格の厳しさが異なるので、ここでは、各係数に幅を持たせることができる。
係数U0×(1±0.05)の範囲内にある値を前記係数U4a、U4b、U4cとして使用すると、出力規格が厳しい場合(例えばパスポート写真を取得する場合)においても、設定されたトリミング領域に基づいてトリミングして得た証明写真の合格率が高い。本願発明者が実際にテストした結果、パスポート写真を取得する場合において、90%以上の合格率を得ている。
また、写真証や、免許証などの証明写真の場合、出力規格がパスポート写真ほど厳しくないため、係数U0×(1±0.10)の範囲内にある値を前記係数U4a、U4b、U4cとして使用することができる。
さらに、携帯電話機付属のカメラにより取得した顔写真画像から顔部分をトリミングする場合や、プリクラなどの証明写真以外の目的で顔部分をトリミングする場合において、出力規格はより緩く、係数U0×(1±0.25)の範囲内にある値を前記係数U4a、U4b、U4cとして使用することができる。
さらに、「顔さえあればよい」に等しい出力規格もあるため、このような場合には係数にさらに幅を持たせてもよいが、各係数は夫々係数U0×(1+0.4)よりも大きいと、トリミングして得た画像に顔の部分が小さすぎることと、各係数は夫々係数U0×(1−0.4)よりも小さいと、トリミング領域内に顔全体が入れない可能性が高いこととの理由から、いかに厳しくない出力規格に対しても、係数U0×(1±0.40)の範囲内にある値を前記係数U4a、U4b、U4cとして使用することが望ましい。
本発明の第5の画像処理装置は、顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出する頭頂部検出手段と、
前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U5a、U5b、U5cを用いて式(21)に従った演算を行って得た値L5a、L5b、L5cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにするようにして前記トリミング領域を設定するトリミング領域設定手段とを備えてなる画像処理装置であって、
前記係数U5a、U5b、U5cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut5a、Ut5b、Ut5cを用いて式(22)に従った演算を行って得た夫々の値Lt5a、Lt5b、Lt5cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするものである。

L5a=D×U5a
L5b=H×U5b (21)
L5c=H×U5c

Lt5a=Ds×Ut5a
Lt5b=Hs×Ut5b (22)
Lt5c=Hs×Ut5c

また、前記両目間の距離として、両目の夫々の瞳間の距離を用いることができる。この場合、前記係数U5a、U5b、U5cの値は、夫々(5.04×範囲係数)、(1.495×範囲係数)、(1.89×範囲係数)の範囲内にあり、該範囲係数が(1±0.4)とすることができる。
また、出力規格が厳しくなるに連れ、前記範囲係数は、(1±0.25)、(1±0.10)、(1±0.05)とするようにすることが好ましい。
本発明の第6の画像処理装置は、顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出する頭頂部検出手段と、
前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U6a、U6b1、U6c1、U6b2、U6c2を用いて式(23)に従った演算を行って得た値L6a、L6b、L6cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにして前記トリミング領域を設定するトリミング領域設定手段とを備えてなる画像処理装置であって、
前記係数U6a、U6b1、U6c1、U6b2、U6c2が、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut6a、Ut6b1、Ut6c1、Ut6b2、Ut6c2を用いて式(24)に従った演算を行って得た夫々の値Lt6a、Lt6b、Lt6cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするものである。

L6a=D×U6a
L6b=D×U6b1+H×U6c1 (23)
L6c=D×U6b2+H×U6c2

Lt6a=Ds×Ut6a
Lt6b=Ds×Ut6b1+Hs×Ut6c1 (24)
Lt6c=Ds×Ut6b2+Hs×Ut6c2

また、前記両目間の距離として、両目の夫々の瞳間の距離を用いることができる。この場合、係数U6a、U6b1、U6c1、U6b2、U6c2の値は、夫々(5.04×範囲係数)、(2.674×範囲係数)、(0.4074×範囲係数)、(0.4926×範囲係数)、(1.259×範囲係数)の範囲内にあり、該範囲係数が(1±0.4)とすることができる。
また、出力規格が厳しくなるに連れ、前記範囲係数は、(1±0.25)、(1±0.10)、(1±0.05)とするようにすることが好ましい。
顔写真画像における目の位置の指定は、頭頂部および顎の先端の指定よりかなり簡単かつ正確に行うことができるので、本発明の画像処理装置において、オペレータにより顔写真画像における目の位置を指定するようにしてもよいが、人による操作を減らし、処理の効率向上を図る視点から、本発明の画像処理装置に、前記顔写真画像における目の位置を検出すると共に、前記目の位置に基づいて、前記両目間の距離Dおよび前記両目間の中心位置Gmを算出する目検出手段をさらに設けることが好ましい。
また、近年、デジタルカメラ(携帯電話機に付属するデジタルカメラを含む)の機能が急激に向上しているが、デジタルカメラの表示画面の大きさには限度がある。デジタルカメラの表示画面で顔写真画像の顔部分を確認したい場合や、顔部分の画像のみをネットワーク上のサーバに送信したり、ラボに送信してプリントしてもらったりするなどの需要があり、顔部分の画像を効率良くトリミングすることができるデジタルカメラが期待されている。
本発明のデジタルカメラは、本発明の画像処理装置をデジタルカメラに適用したものであり、撮像手段と、
該撮像手段により得られた顔写真画像におけるトリミング領域を取得するトリミング領域取得手段と、
該トリミング領域取得手段により取得された前記トリミング領域に基づいて前記顔写真画像に対してトリミング処理を施してトリミング画像を得るトリミング実行手段とを備えたデジタルカメラであって、
前記トリミング領域取得手段は、本発明の画像処理装置であることを特徴とするものである。
また、本発明の画像処理装置は、写真ボックス装置に適用することもできる。すなわち、本発明の写真ボックス装置は、撮像手段と、
該撮像手段により得られた顔写真画像におけるトリミング領域を取得するトリミング領域取得手段と、
該トリミング領域取得手段により取得された前記トリミング領域に基づいて前記顔写真画像に対してトリミング処理を施してトリミング画像を得るトリミング実行手段とを備えた写真ボックス装置であって、
前記トリミング領域取得手段は、本発明の画像処理装置であることを特徴とするものである。
ここで、本発明の「写真ボックス装置」とは、撮像から写真プリントを得るまでの処理を自動的に処理する自動写真ボックスのことを意味し、駅や、繁華街などに設置される証明写真用の写真ボックス装置は勿論、プリクラなども含むものである。
本発明の画像処理方法を、コンピュータに実行させるためのプログラムとして提供してもよい。
本発明の第1の画像処理方法および装置によれば、顔写真画像における目の位置、両目間の距離を用いて顔枠を取得し、取得された顔枠の大きさおよび位置に基づいて、所定の出力規格に合致するように顔写真画像におけるトリミング領域を設定するようにしているので、処理が簡単である。
本発明の第4の画像処理方法および装置によれば、顔写真画像における目の位置、両目間の距離を用いて直接トリミング領域を設定し、処理がより簡単である。
また、顔写真画像における目の位置の指定は、頭頂部と顎先端の指定より簡単かつ正確に行うことができるので、本発明の顔写真画像中の目の位置は、オペレータの手動により指定するようにしても、オペレータへの負担はそれほど大きくない。また、目検出手段を設けて自動的に検出するようにしてもよく、この場合、目の位置のみを検出すればよいので、効率がよい。
本発明の第2および第3の画像処理方法および装置によれば、顔写真画像における目の位置より上の部分から頭頂部の位置を検出し、目の位置、両目間の距離、頭頂部の位置に基づいて顔枠を取得するようにしているので、頭頂部を検出する範囲を目の位置より上の部分に限定することによって、処理が早いことは勿論、人物の衣装の色などに影響されず、正確に頭頂部の位置を検出することができ、結果としては適切なトリミング領域の設定ができる。
本発明の第5および第6の画像方法および装置によれば、顔写真画像における目の位置より上の部分から頭頂部の位置を検出し、目の位置、両目間の距離、頭頂部の位置に基づいて直接トリミング領域を設定するようにしているので、頭頂部を検出する範囲を目の位置より上の部分に限定することによって、処理が早いことは勿論、人物の衣装の色などに影響されず、正確に頭頂部の位置を検出することができ、結果としては適切なトリミング領域の設定ができる。
本発明の画像処理装置を適用したデジタルカメラおよび写真ボックス装置は、効率良く顔部分の画像をトリミングすることができるため、質の良いトリミング画像を得ることができる。特に写真ボックス装置の場合、被写体の人物の座った位置が規定の位置から外れたなどの場合においても、顔の一部分が切れるなどのトラブルなしにユーザ所望の写真を得ることができる。
以下、図面を参照して、本発明の実施形態について説明する。
図1は、本発明の第1の実施形態となる画像処理システムAの構成を示すブロック図である。図示のように、本実施形態の画像処理システムAは、入力された写真画像S0に顔部分が含まれているか否かを識別すると共に、顔部分が含まれていない場合には写真画像S0に対する処理を中断する一方、顔部分が含まれている(すなわち、写真画像S0が顔写真画像である)場合にはさらに左目と右目を検出し、両目の位置Pa、Pbおよび両目間の距離D(ここでは、図30に示す両目の夫々の中心点間の距離d3となる)を含む情報Qを得る目検出部1と、目検出部1からの情報Qに基づいて両目の瞳の中心位置G’a、G’bを検出すると共に、2つの瞳の間の距離D1(ここでは、図30に示す距離d1となる)を求め、情報Qに含まれる両目の位置Pa、Pbから両目間の中心位置Pmを求める瞳中心位置検出部50と、両目間の中心位置Pm、瞳間距離D1、および後述する第1の記憶部68aに記憶された係数U1a、U1b、U1cに基づいて顔写真画像S0における顔枠を算出すると共に、算出された顔枠の位置および大きさに基づいてトリミング領域を設定するトリミング領域取得部60aと、トリミング領域取得部60aにより取得されたトリミング領域に基づいて、顔写真画像S0をトリミングしてトリミング画像S5を得る第1のトリミング部70と、トリミング画像S5をプリントして証明写真を得る出力部80と、係数U1a、U1b、U1c、およびトリミング領域取得部60aと第1のトリミング部70とが必要とする他のデータ(出力規格など)を記憶する第1の記憶部68aとを有してなる。
以下、図1に示す画像処理システムAの各構成の詳細について説明する。
まず、目検出部1の詳細について説明する。
図2は、目検出部1の詳細構成を示すブロック図である。図示のように、目検出部1は、写真画像S0から特徴量C0を算出する特徴量算出部2と、後述する第1および第2の参照データE1,E2が格納されている第2の記憶部4と、特徴量算出部2が算出した特徴量C0と第2の記憶部4内の第1の参照データE1とに基づいて、写真画像S0に人物の顔が含まれているか否かを識別する第1の識別部5と、第1の識別部5により写真画像S0に顔が含まれていると識別された場合に、特徴量算出部2が算出した顔の画像内の特徴量C0と第2の記憶部4内の第2の参照データE2とに基づいて、その顔に含まれる目の位置を識別する第2の識別部6と、並びに第1の出力部7とを備えてなる。
なお、目検出部1により識別される目の位置とは、顔における目尻から目頭の間の中心位置(図3中×で示す)であり、図3(a)に示すように真正面を向いた目の場合においては瞳の中心位置と同様であるが、図3(b)に示すように右を向いた目の場合は瞳の中心位置ではなく、瞳の中心から外れた位置または白目部分に位置する。
特徴量算出部2は、顔の識別に用いる特徴量C0を写真画像S0から算出する。また、写真画像S0に顔が含まれると識別された場合には、後述するように抽出された顔の画像から同様の特徴量C0を算出する。具体的には、勾配ベクトル(すなわち写真画像S0上および顔画像上の各画素における濃度が変化する方向および変化の大きさ)を特徴量C0として算出する。以下、勾配ベクトルの算出について説明する。まず、特徴量算出部2は、写真画像S0に対して図4(a)に示す水平方向のエッジ検出フィルタによるフィルタリング処理を施して写真画像S0における水平方向のエッジを検出する。また、特徴量算出部2は、写真画像S0に対して図4(b)に示す垂直方向のエッジ検出フィルタによるフィルタリング処理を施して写真画像S0における垂直方向のエッジを検出する。そして、写真画像S0上の各画素における水平方向のエッジの大きさHおよび垂直方向のエッジの大きさVとから、図5に示すように、各画素における勾配ベクトルKを算出する。また、顔画像についても同様に勾配ベクトルKを算出する。なお、特徴量算出部2は、後述するように写真画像S0および顔画像の変形の各段階において特徴量C0を算出する。
なお、このようにして算出された勾配ベクトルKは、図6(a)に示すような人物の顔の場合、図6(b)に示すように、目および口のように暗い部分においては目および口の中央を向き、鼻のように明るい部分においては鼻の位置から外側を向くものとなる。また、口よりも目の方が濃度の変化が大きいため、勾配ベクトルKは口よりも目の方が大きくなる。
そして、この勾配ベクトルKの方向および大きさを特徴量C0とする。なお、勾配ベクトルKの方向は、勾配ベクトルKの所定方向(例えば図5におけるx方向)を基準とした0から359度の値となる。
ここで、勾配ベクトルKの大きさは正規化される。この正規化は、写真画像S0の全画素における勾配ベクトルKの大きさのヒストグラムを求め、その大きさの分布が写真画像S0の各画素が取り得る値(8ビットであれば0〜255)に均一に分布されるようにヒストグラムを平滑化して勾配ベクトルKの大きさを修正することにより行う。例えば、勾配ベクトルKの大きさが小さく、図7(a)に示すように勾配ベクトルKの大きさが小さい側に偏ってヒストグラムが分布している場合には、大きさが0〜255の全領域に亘るものとなるように勾配ベクトルKの大きさを正規化して図7(b)に示すようにヒストグラムが分布するようにする。なお、演算量を低減するために、図7(c)に示すように、勾配ベクトルKのヒストグラムにおける分布範囲を例えば5分割し、5分割された頻度分布が図7(d)に示すように0〜255の値を5分割した範囲に亘るものとなるように正規化することが好ましい。
第2の記憶部4内に格納されている第1および第2の参照データE1,E2は、後述するサンプル画像から選択された複数画素の組み合わせからなる複数種類の画素群のそれぞれについて、各画素群を構成する各画素における特徴量C0の組み合わせに対する識別条件を規定したものである。
第1および第2の参照データE1,E2中の、各画素群を構成する各画素における特徴量C0の組み合わせおよび識別条件は、顔であることが分かっている複数のサンプル画像と顔でないことが分かっている複数のサンプル画像とからなるサンプル画像群の学習により、あらかじめ決められたものである。
なお、本実施形態においては、第1の参照データE1を生成する際には、顔であることが分かっているサンプル画像として、30×30画素サイズを有し、図8に示すように、1つの顔の画像について両目の中心間の距離が10画素、9画素および11画素であり、両目の中心間距離において垂直に立った顔を平面上±15度の範囲において3度単位で段階的に回転させた(すなわち、回転角度が−15度,−12度,−9度,−6度,−3度,0度,3度,6度,9度,12度,15度)サンプル画像を用いるものとする。したがって、1つの顔の画像につきサンプル画像は3×11=33通り用意される。なお、図8においては−15度、0度および+15度に回転させたサンプル画像のみを示す。また、回転の中心はサンプル画像の対角線の交点である。ここで、両目の中心間の距離が10画素のサンプル画像であれば、目の中心位置はすべて同一となっている。この目の中心位置をサンプル画像の左上隅を原点とする座標上において(x1,y1)、(x2,y2)とする。また、図面上上下方向における目の位置(すなわちy1,y2)はすべてのサンプル画像において同一である。
また、第2の参照データE2を生成する際には、顔であることが分かっているサンプル画像として、30×30画素サイズを有し、図9に示すように、1つの顔の画像について両目の中心間の距離が10画素、9.7画素および10.3画素であり、各両目の中心間距離において垂直に立った顔を平面上±3度の範囲において1度単位で段階的に回転させた(すなわち、回転角度が−3度,−2度,−1度,0度,1度,2度,3度)サンプル画像を用いるものとする。したがって、1つの顔の画像につきサンプル画像は3×7=21通り用意される。なお、図9においては−3度、0度および+3度に回転させたサンプル画像のみを示す。また、回転の中心はサンプル画像の対角線の交点である。ここで、図面上上下方向における目の位置はすべてのサンプル画像において同一である。なお、両目の中心間の距離を9.7画素および10.3画素とするためには、両目の中心間の距離が10画素のサンプル画像を9.7倍あるいは10.3倍に拡大縮小して、拡大縮小後のサンプル画像のサイズを30×30画素とすればよい。
そして、第2の参照データE2の学習に用いられるサンプル画像における目の中心位置を、本実施形態において識別する目の位置とする。
また、顔でないことが分かっているサンプル画像としては、30×30画素サイズを有する任意の画像を用いるものとする。
ここで、顔であることが分かっているサンプル画像として、両目の中心間距離が10画素であり、平面上の回転角度が0度(すなわち顔が垂直な状態)のもののみを用いて学習を行った場合、第1および第2の参照データE1,E2を参照して顔または目の位置であると識別されるのは、両目の中心間距離が10画素で全く回転していない顔のみである。写真画像S0に含まれる可能性がある顔のサイズは一定ではないため、顔が含まれるか否かあるいは目の位置を識別する際には、後述するように写真画像S0を拡大縮小して、サンプル画像のサイズに適合するサイズの顔および目の位置を識別できるようにしている。しかしながら、両目の中心間距離を正確に10画素とするためには、写真画像S0のサイズを拡大率として例えば1.1単位で段階的に拡大縮小しつつ識別を行う必要があるため、演算量が膨大なものとなる。
また、写真画像S0に含まれる可能性がある顔は、図10(a)に示すように平面上の回転角度が0度のみではなく、図10(b)、(c)に示すように回転している場合もある。しかしながら、両目の中心間距離が10画素であり、顔の回転角度が0度のサンプル画像のみを使用して学習を行った場合、顔であるにも拘わらず、図10(b)、(c)に示すように回転した顔については識別を行うことができなくなってしまう。
このため、本実施形態においては、顔であることが分かっているサンプル画像として、図8に示すように両目の中心間距離が9,10,11画素であり、各距離において平面上±15度の範囲にて3度単位で段階的に顔を回転させたサンプル画像を用いて、第1の参照データE1の学習に許容度を持たせるようにしたものである。これにより、後述する第1の識別部5において識別を行う際には、写真画像S0を拡大率として11/9単位で段階的に拡大縮小すればよいため、写真画像S0のサイズを例えば拡大率として例えば1.1単位で段階的に拡大縮小する場合と比較して、演算時間を低減できる。また、図10(b)、(c)に示すように回転している顔も識別することができる。
一方、第2の参照データE2の学習には、図9に示すように両目の中心間距離が9.7,10,10.3画素であり、各距離において平面上±3度の範囲にて1度単位で段階的に顔を回転させたサンプル画像を用いているため、第1の参照データE1と比較して学習の許容度は小さい。また、後述する第2の識別部6において識別を行う際には、写真画像S0を拡大率として10.3/9.7単位で拡大縮小する必要があるため、第1の識別部5において行われる識別よりも演算に長時間を要する。しかしながら、第2の識別部6において識別を行うのは第1の識別部5が識別した顔内の画像のみであるため、写真画像S0の全体を用いる場合と比較して目の位置の識別を行うための演算量を低減することができる。
以下、図11のフローチャートを参照しながらサンプル画像群の学習手法の一例を説明する。なお、ここでは第1の参照データE1の学習について説明する。
学習の対象となるサンプル画像群は、顔であることが分かっている複数のサンプル画像と、顔でないことが分かっている複数のサンプル画像とからなる。なお、顔であることが分かっているサンプル画像は、上述したように1つのサンプル画像につき両目の中心位置が9,10,11画素であり、各距離において平面上±15度の範囲にて3度単位で段階的に顔を回転させたものを用いる。各サンプル画像には、重みすなわち重要度が割り当てられる。まず、すべてのサンプル画像の重みの初期値が等しく1に設定される(S1)。
次に、サンプル画像における複数種類の画素群のそれぞれについて識別器が作成される(S2)。ここで、それぞれの識別器とは、1つの画素群を構成する各画素における特徴量C0の組み合わせを用いて、顔の画像と顔でない画像とを識別する基準を提供するものである。本実施形態においては、1つの画素群を構成する各画素における特徴量C0の組み合わせについてのヒストグラムを識別器として使用する。
図12を参照しながらある識別器の作成について説明する。図12の左側のサンプル画像に示すように、この識別器を作成するための画素群を構成する各画素は、顔であることが分かっている複数のサンプル画像上における、右目の中心にある画素P1、右側の頬の部分にある画素P2、額の部分にある画素P3および左側の頬の部分にある画素P4である。そして顔であることが分かっているすべてのサンプル画像について全画素P1〜P4における特徴量C0の組み合わせが求められ、そのヒストグラムが作成される。ここで、特徴量C0は勾配ベクトルKの方向および大きさを表すが、勾配ベクトルKの方向は0〜359の360通り、勾配ベクトルKの大きさは0〜255の256通りあるため、これをそのまま用いたのでは、組み合わせの数は1画素につき360×256通りの4画素分、すなわち(360×256)4通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、勾配ベクトルの方向を0〜359を0〜44と315〜359(右方向、値:0),45〜134(上方向値:1),135〜224(左方向、値:2),225〜314(下方向、値3)に4値化し、勾配ベクトルの大きさを3値化(値:0〜2)する。そして、以下の式を用いて組み合わせの値を算出する。
組み合わせの値=0(勾配ベクトルの大きさ=0の場合)
組み合わせの値=((勾配ベクトルの方向+1)×勾配ベクトルの大きさ(勾配ベクトルの大きさ>0の場合)
これにより、組み合わせ数が94通りとなるため、特徴量C0のデータ数を低減できる。
同様に、顔でないことが分かっている複数のサンプル画像についても、ヒストグラムが作成される。なお、顔でないことが分かっているサンプル画像については、顔であることが分かっているサンプル画像上における上記画素P1〜P4の位置に対応する画素が用いられる。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、図12の一番右側に示す、識別器として用いられるヒストグラムである。この識別器のヒストグラムが示す各縦軸の値を、以下、識別ポイントと称する。この識別器によれば、正の識別ポイントに対応する特徴量C0の分布を示す画像は顔である可能性が高く、識別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の識別ポイントに対応する特徴量C0の分布を示す画像は顔でない可能性が高く、やはり識別ポイントの絶対値が大きいほどその可能性は高まる。ステップS2では、識別に使用され得る複数種類の画素群を構成する各画素における特徴量C0の組み合わせについて、上記のヒストグラム形式の複数の識別器が作成される。
続いて、ステップS2で作成した複数の識別器のうち、画像が顔であるか否かを識別するのに最も有効な識別器が選択される。最も有効な識別器の選択は、各サンプル画像の重みを考慮して行われる。この例では、各識別器の重み付き正答率が比較され、最も高い重み付き正答率を示す識別器が選択される(S3)。すなわち、最初のステップS3では、各サンプル画像の重みは等しく1であるので、単純にその識別器によって画像が顔であるか否かが正しく識別されるサンプル画像の数が最も多いものが、最も有効な識別器として選択される。一方、後述するステップS5において各サンプル画像の重みが更新された後の2回目のステップS3では、重みが1のサンプル画像、重みが1よりも大きいサンプル画像、および重みが1よりも小さいサンプル画像が混在しており、重みが1よりも大きいサンプル画像は、正答率の評価において、重みが1のサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップS3では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく識別されることに、より重点が置かれる。
次に、それまでに選択した識別器の組み合わせの正答率、すなわち、それまでに選択した識別器を組み合わせて使用して各サンプル画像が顔の画像であるか否かを識別した結果が、実際に顔の画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる(S4)。ここで、組み合わせの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。所定の閾値を超えた場合は、それまでに選択した識別器を用いれば画像が顔であるか否かを十分に高い確率で識別できるため、学習は終了する。所定の閾値以下である場合は、それまでに選択した識別器と組み合わせて用いるための追加の識別器を選択するために、ステップS6へと進む。
ステップS6では、直近のステップS3で選択された識別器が再び選択されないようにするため、その識別器が除外される。
次に、直近のステップS3で選択された識別器では顔であるか否かを正しく識別できなかったサンプル画像の重みが大きくされ、画像が顔であるか否かを正しく識別できたサンプル画像の重みが小さくされる(S5)。このように重みを大小させる理由は、次の識別器の選択において、既に選択された識別器では正しく識別できなかった画像を重要視し、それらの画像が顔であるか否かを正しく識別できる識別器が選択されるようにして、識別器の組み合わせの効果を高めるためである。
続いて、ステップS3へと戻り、上記したように重み付き正答率を基準にして次に有効な識別器が選択される。
以上のステップS3からS6を繰り返して、顔が含まれるか否かを識別するのに適した識別器として、特定の画素群を構成する各画素における特徴量C0の組み合わせに対応する識別器が選択されたところで、ステップS4で確認される正答率が閾値を超えたとすると、顔が含まれるか否かの識別に用いる識別器の種類と識別条件とが確定され(S7)、これにより第1の参照データE1の学習を終了する。
そして、上記と同様に識別器の種類と識別条件とを求めることにより第2の参照データE2の学習がなされる。
なお、上記の学習手法を採用する場合において、識別器は、特定の画素群を構成する各画素における特徴量C0の組み合わせを用いて顔の画像と顔でない画像とを識別する基準を提供するものであれば、上記のヒストグラムの形式のものに限られずいかなるものであってもよく、例えば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図12の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。
また、学習の方法としては上記手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いることができる。
第1の識別部5は、複数種類の画素群を構成する各画素における特徴量C0の組み合わせのすべてについて第1の参照データE1が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組み合わせについての識別ポイントを求め、すべての識別ポイントを総合して写真画像S0に顔が含まれるか否かを識別する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。本実施形態では、すべての識別ポイントを加算して、その加算値の正負によって識別を行うものとする。例えば、識別ポイントの総和が正の値である場合には写真画像S0には顔が含まれると判断し、負の値である場合には顔は含まれないと判断する。なお、第1の識別部5が行う写真画像S0に顔が含まれるか否かの識別を第1の識別と称する。
ここで、写真画像S0のサイズは30×30画素のサンプル画像とは異なり、各種サイズを有するものとなっている。また、顔が含まれる場合、平面上における顔の回転角度が0度であるとは限らない。このため、第1の識別部5は、図13に示すように、写真画像S0を縦または横のサイズが30画素となるまで段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ(図13においては縮小する状態を示す)、各段階において拡大縮小された写真画像S0上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された写真画像S0上において1画素ずつ移動させながら、マスク内の画像が顔の画像であるか否かの識別を行うことにより、写真画像S0に顔が含まれるか否かを識別する。
なお、第1参照データE1の生成時に学習したサンプル画像として両目の中心位置の画素数が9,10,11画素のものを使用しているため、写真画像S0の拡大縮小時の拡大率は11/9とすればよい。また、第1および第2の参照データE1,E2の生成時に学習したサンプル画像として、顔が平面上で±15度の範囲において回転させたものを使用しているため、写真画像S0は30度単位で360度回転させればよい。
なお、特徴量算出部2は、写真画像S0の拡大縮小および回転という変形の各段階において特徴量C0を算出する。
そして、写真画像S0に顔が含まれるか否かの識別を拡大縮小および回転の全段階の写真画像S0について行い、一度でも顔が含まれると識別された場合には、写真画像S0には顔が含まれると識別し、顔が含まれると識別された段階におけるサイズおよび回転角度の写真画像S0から、識別されたマスクMの位置に対応する30×30画素の領域を顔の画像として抽出する。
第2の識別部6は、第1の識別部5が抽出した顔の画像上において、複数種類の画素群を構成する各画素における特徴量C0の組み合わせのすべてについて第2の参照データE2が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組み合わせについての識別ポイントを求め、すべての識別ポイントを総合して顔に含まれる目の位置を識別する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。
ここで、第2の識別部6は、第1の識別部5が抽出した顔画像のサイズを段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ、各段階において拡大縮小された顔画像上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された顔上において1画素ずつ移動させながら、マスク内の画像における目の位置の識別を行う。
なお、第2参照データE2の生成時に学習したサンプル画像として両目の中心位置の画素数が9.07,10,10.3画素のものを使用しているため、顔画像の拡大縮小時の拡大率は10.3/9.7とすればよい。また、第2の参照データE2の生成時に学習したサンプル画像として、顔が平面上で±3度の範囲において回転させたものを使用しているため、顔画像は6度単位で360度回転させればよい。
なお、特徴量算出部2は、顔画像の拡大縮小および回転という変形の各段階において特徴量C0を算出する。
そして、本実施形態では、抽出された顔画像の変形の全段階においてすべての識別ポイントを加算し、加算値が最も大きい変形の段階における30×30画素のマスクM内の顔画像において、左上隅を原点とする座標を設定し、サンプル画像における目の位置の座標(x1,y1)、(x2,y2)に対応する位置を求め、変形前の写真画像S0におけるこの位置に対応する位置を目の位置と識別する。
第1の出力部7は、第1の識別部5が写真画像S0に顔が含まれると認識した場合には、第2の識別部6が識別した両目の位置Pa、Pbから両目間の距離Dを求め、両目の位置Pa、Pbおよび両目間の距離Dを情報Qとして瞳中心位置検出部50に出力する。
図14は本実施形態における目検出部1の動作を示すフローチャートである。写真画像S0に対して、まず、特徴量算出部2が写真画像S0の拡大縮小および回転の各段階において、写真画像S0の勾配ベクトルKの方向および大きさを特徴量C0として算出する(S12)。そして、第1の識別部5が第2の記憶部4から第1の参照データE1を読み出し(S13)、写真画像S0に顔が含まれるか否かの第1の識別を行う(S14)。
第1の識別部5は、写真画像S0に顔が含まれると判別する(S14:Yes)と、写真画像S0から顔を抽出する(S15)。ここでは、1つの顔に限らず複数の顔を抽出してもよい。次いで、特徴量算出部2が顔画像の拡大縮小および回転の各段階において、顔画像の勾配ベクトルKの方向および大きさを特徴量C0として算出する(S16)。そして、第2の識別部6が第2の記憶部4から第2の参照データE2を読み出し(S17)、顔に含まれる目の位置を識別する第2の識別を行う(S18)。
続いて、第1の出力部7が写真画像S0から識別された目の位置Pa、Pbおよび、この目の位置に基づいて求められた両目の中心点間の距離Dを情報Qとして瞳中心位置検出部50に出力する(S19)。
一方、ステップS14において、写真画像S0に顔が含まれていないと判別される(S14:No)と、目検出部1は、写真画像S0に対する処理を終了する。
次に瞳中心位置検出部50について説明する。
図2は、瞳中心位置検出部50の構成を示すブロック図である。図示のように、瞳中心位置検出部50は、目検出部1からの情報Qに基づいて、写真画像S0(この場合顔写真画像となるが、以下略して写真画像という)をトリミングして左目と右目とを夫々含む目近傍トリミング画像S1a、S1b(以下、区別して説明する必要がない場合には、両方を指す意味でS1という)を得る第2のトリミング部10と、目近傍トリミング画像S1に対してグレー変換を行い、目近傍トリミング画像S1のグレースケール画像S2(S2a,S2b)を得るグレー変換部12と、グレースケール画像S2に対して前処理を行って前処理済み画像S3(S3a,S3b)を得る前処理部14と、前処理済み画像S3を2値化するための閾値Tを算出する2値化閾値算出部18を有し、該2値化閾値算出部18により得られた閾値Tを用いて前処理済み画像S3を2値化処理して2値画像S4(S4a,S4b)を得る2値化部20と、2値画像S4の各画素の座標を円環のハフ空間に投票し、投票された各投票位置の投票値を得ると共に、同じ円心座標を有する投票位置の統合投票値W(Wa,Wb)を算出する投票部35と、投票部35により得られた各統合投票値のうちの最も大きい統合投票値が対応する円心座標を中心位置候補G(Ga,Gb)とすると共に、後述する照合部40から次の中心位置候補を探すように指示されたとき、次の中心位置候補を求める中心位置候補取得部35と、中心位置候補取得部35により取得した中心位置候補は照合基準に満たしているか否かを判別し、照合基準に満たしていればこの中心位置候補を瞳の中心位置として後述する微調整部45に出力する一方、照合基準に満たしていなければ中心位置候補取得部35に中心位置候補を取得し直すことをさせると共に、中心位置候補取得部35により取得された中心位置候補が照合基準を満たすようになるまで中心位置候補取得部35に中心位置候補の取得し直しを繰り返させる照合部40と、照合部40から出力されてきた瞳の中心位置G(Ga,Gb)に対して微調整を行って最終中心位置G’(G’a,G’b)を得て、この最終中心位置から2つの瞳間の中心位置間の距離D1を求めると共に、情報Qに含まれた両目の中心位置Pa、Pbから両目間の中心位置Pm(両目の夫々の中心位置間の中心点)を求める微調整部45とを有してなるものである。
第2のトリミング部10は、目検出部1から出力されてきた情報Qに基づいて、左目のみと右目のみとを夫々含む所定の範囲を切り出して目近傍トリミング画像S1aとS1bを得るものである。ここで、トリミングする際の所定の範囲とは、夫々の目の近傍を外枠にした範囲であり、例えば、図16に示す斜線範囲のように、目検出部1より識別した目の位置(目の中心点)を中心とした、図示X方向とY方向の長さが夫々Dと0.5Dである長方形の範囲とすることができる。なお、図示斜線範囲は、図中の左目のトリミングの範囲であるが、右目についても同様である。
グレー変換部12は、第2のトリミング部10により得られた目近傍トリミング画像S1に対して下記の式(37)に従ってグレー変換処理を行ってグレースケール画像S2を得る。

Y=0.299×R+0.587×G+0.114×B (37)
但し、Y:輝度値
R,G,B:R、G、B値

前処理部14は、グレースケール画像S2に対して前処理を行うものであり、ここでは、前処理として、平滑化処理と穴埋め処理が行われる。また、平滑化処理は、例えばカウシアンフィルタを適用することによって行われ、穴埋め処理は、補間処理とすることができる。
図3に示すように、写真画像における瞳の部分において、中心より上が部分的に明るくなる傾向があるため、穴埋め処理を行ってこの部分のデータを補間することにより瞳の中心位置の検出精度を向上させることができる。
2値化部20は、2値化閾値算出部18を有し、該2値化閾値算出部18により算出した閾値Tを用いて、前処理部14により得られた前処理済み画像S3を2値化して2値画像S4を得るものである。2値化閾値算出部18は、具体的には前処理済み画像S3に対して、図17に示す輝度のヒストグラムを作成し、前処理済み画像S3の全画素数の数分の1(図示では1/5となる20%)に相当する出現頻度に対応する輝度値を2値化用の閾値Tとして求める。2値化部20は、この閾値Tを用いて前処理済み画像S3を2値化して2値画像S4を得る。
投票部30は、まず、2値化画像S4における各画素(画素値が1となる画素)の座標を円環のハフ空間(円中心点X座標,円中心点Y座標,半径r)に投票して、各投票位置の投票値を算出する。通常、1つの投票位置がある画素により投票されると、1回投票されたとして投票値に1が加算されるようにして各投票位置の投票値を求めるようにしているが、ここでは、1つの投票位置がある画素に投票されると、投票値に1を加算するのではなく、投票した画素の輝度値を参照して、輝度値が小さいほど、大きい重みを付けて加算するようにして各投票位置の投票値を求める。図18は、図1に示す実施形態の瞳中心位置検出装置における投票部30に使用された重付け係数のテーブルを示している。なお、図中Tは、2値化閾値算出部18により算出された2値化用の閾値Tである。
投票部30は、このようにして各投票位置の投票値を求めた後、これらの投票位置のうち、円環中心点座標値、即ち円環ハフ空間(X,Y,r)における(X,Y)座標値が同じである投票位置同士の投票値を加算して各々の(X,Y)座標値に対応する統合投票値Wを得て、相対応する(X,Y)座標値と対応付けて中心位置候補取得部35に出力する。
中心位置候補取得部35は、まず、投票部30からの各々の統合投票値から、最も大きい統合投票値に対応する(X,Y)座標値を、瞳の中心位置候補Gとして取得して、照合部40に出力する。ここで、中心位置候補取得部35により取得された中心位置候補Gは、左瞳の中心位置Gaと右瞳の中心位置Gbとの2つであり、照合部40は、目検出部1により出力された両目間の距離Dに基づいて、2つの中心位置Ga、Gbの照合を行う。
具体的には、照合部40は、次の2つの照合基準に基づいて照合を行う。
1. 左瞳の中心位置と右瞳の中心位置とのY座標値の差が(D/50)以下。
2. 左瞳の中心位置と右瞳の中心位置とのX座標値の差が(0.8×D〜1.2×D)の範囲内。

照合部40は、中心位置候補取得部35からの2つの瞳の中心位置候補Ga、Gbが上記2つの照合基準を満たしているか否かを判別し、2つの基準とも満たしていれば(以下照合基準を満たしているという)、瞳の中心位置候補Ga、Gbを瞳の中心位置として微調整部45に出力する。一方、2つの基準または2つの基準のうちの1つを満たしていなければ(以下照合基準を満たしていないという)、中心位置候補取得部35に次の中心位置候補を取得するように指示すると共に、中心位置候補取得部35により取得された次の中心位置候補に対して上述した照合、照合基準を満たしている場合の中心位置出力、照合基準を満たしていない場合の中心位置候補を再取得する指示などの処理を、照合基準を満たすようになるまで繰り返す。
片方、中心位置候補取得部35は、照合部40から次の中心位置候補の取得が指示されると、まず、片方(ここでは、左瞳)の中心位置を固定して、もう片方(ここでは右瞳)の各々の統合投票値Wbから、下記の3つの条件に合う投票位置の(X,Y)座標値を次の中心位置候補として取得する。

1.最後に照合部40に出力した中心位置候補の(X、Y)座標値により示される位置とD/30以上(D:両目中心点間の距離)離れている。
2.相対応する統合投票値が、条件1を満たす(X,Y)座標値に対応する統合投票値のうち、最後に照合部40に出力した中心位置候補の(X,Y)座標値に対応する統合投票値の次に大きい。
3.相対応する統合投票値が、1回目に照合部40に出力した中心位置候補の(X,Y)座標値に対応する統合投票値(最も大きい統合投票値)の10パーセント以上である。

中心位置候補取得部35は、まず、左瞳の中心位置を固定して、右瞳に対して求められた統合投票値Wbに基づいて上記3つの条件を満たす右瞳の中心位置候補を探すが、上記3つの条件を満たす候補を見つからない場合には、右瞳の中心位置を固定して、左瞳に対して求められた統合投票値Waに基づいて上記の3つの条件を満たす左瞳の中心位置を探す。
微調整部45は、照合部40から出力してきた瞳の中心位置G(照合基準を満たしている中心位置候補)に対して微調整を行うものである。まず、左瞳の中心位置の微調整を説明する。微調整部45は、2値化部20により得られた左目の目近傍トリミング画像S1aの2値画像S4aに対して、サイズが9×9で、オール1のマスクを用いてマスク演算を3回繰り返し、このマスク演算の結果により得られた最大結果値を有する画素の位置(Gmとする)に基づいて、照合部40から出力してきた左瞳の中心位置Gaに対して微調整を行う。具体的には、例えば、位置Gmと中心位置Gaとの平均を取って得た平均位置を瞳の最終中心位置G’aとするようにしてもよいし、中心位置Gaの方に重みを付けて平均演算して得た平均位置を瞳の最終中心位置G’aとするようにしてもよい。ここでは、中心位置Gaの方に重みを付けて平均演算することにする。
また、右瞳の中心位置の微調整は、右目の目近傍トリミング画像S1bの2値画像S4bを用いて上記と同じように行われる。
微調整部45は、このようにして、照合部40から出力してきた瞳の中心位置Ga、Gbに対して微調整を行って最終中心位置G’a、G’bを得、最終中心位置G’を用いて2つの瞳間の距離D1を求めると共に、情報Qに含まれた両目の中心位置Pa、Pbから両目間の中心位置Pmを求めて、距離D1と中心位置Pmとをトリミング領域取得部60aに出力する。
図19は、図1に示す実施形態の画像処理システムAにおける目検出部1と瞳中心位置検出部50の処理を示すフローチャートである。図示のように、写真画像S0は、まず目検出部1において顔が含まれているか否かの判別がされる(S110)。判別の結果、写真画像S0に顔が含まれていなければ(S115:No)、写真画像S0に対する処理が終了される一方、写真画像S0に顔が含まれていれば(S115:Yes)、さらに、目検出部1において写真画像S0における目の位置が検出され、両目の位置および両目中心点間の距離Dが情報Qとして第2のトリミング部10に出力される(S120)。第2のトリミング部10において、写真画像S0がトリミングされ、左目のみを含む目近傍トリミング画像S1aと右目のみを含む目近傍トリミング画像S1bが得られる(S125)。目近傍トリミング画像S1は、グレー変換部12によりグレー変換されてグレースケール画像S2となる(S130)。グレースケール画像S2は、前処理部14により平滑化処理と穴埋め処理を施され、さらに2値化部20により2値化処理されて2値画像S4となる(S135、S140)。投票部30において、2値画像S4の各画素の座標は円環のハフ空間に投票され、その結果、各々の円中心点を示す(X,Y)座標値に対応する統合投票値Wが得られる(S145)。中心位置候補取得部35は、まず、最も大きい統合投票値に対応する(X,Y)座標値を瞳の中心位置候補Gとして照合部40に出力する(S150)。照合部40は、前述した照合基準に基づいて中心位置候補取得部35からの2つの中心位置候補Ga、Gbに対して照合を行い(S115)、2つの中心位置候補Ga、Gbが照合基準を満たしていれば(S160:Yes)、この2つの中心位置候補Ga、Gbを中心位置として微調整部45に出力する一方、2つの中心位置候補Ga、Gbが照合基準を満たしていなければ(S160:No)、中心位置候補取得部35に次の中心位置候補を探すように指示する(S150)。ステップS150からステップS160までの処理が、照合部40により、中心位置候補取得部35からの中心位置候補Gが照合基準を満たすと判別されるまで繰り返される。
微調整部45は、照合部40から出力された中心位置Gに対して微調整を行い、最終中心位置G’から2つの瞳間の距離D1を求めると共に、情報Qに含まれた両目の中心位置Pa、Pbから両目間の中心位置Pmを求めて、トリミング領域取得部60aに出力する(S165)。
図20は、トリミング領域取得部60aの構成を示すブロック図である。図示のように、トリミング領域取得部60aは、顔枠取得部62aとトリミング領域設定部64aとを有してなる。顔枠取得部62aは、顔写真画像S0における両瞳間の距離D1、両目間の中心位置Pm、および係数U1a、U1b、U1cを用いて式(38)に従った演算を行って得た値L1a、L1b、L1cを夫々、顔写真画像S0における両目間の中心位置Pmを横方向の中心とする顔枠の横幅、中心位置Pmから顔枠の上辺までの距離、中心位置Pmから顔枠の下辺までの距離とするようにして顔枠を取得する。なお、係数U1a、U1b、U1cは、第1の記憶部68aに記憶されており、本実施形態においては夫々3.250、1.905、2.170となっている。
トリミング領域設定部64aは、顔枠取得部62aにより取得された顔枠の位置および大きさに基づいて、出力部80による出力規格に合致するように顔写真画像S0におけるトリミング領域を設定する。

L1a=D1×U1a
L1b=D1×U1b (38)
L1c=D1×U1c
U1a=3.250
U1b=1.905
U1c=2.170

図21は、図1に示す本発明の第1の実施形態となる画像処理システムAの処理を示すフローチャートである。図示のように、本実施形態の画像処理システムAにおいて、顔写真画像となる画像S0に対して、まず、目検出部1により両目の位置(両目の夫々の中心位置)が検出され、両目の位置および両目中心点間の距離Dを含む情報Qが得られる(S210)。瞳中心位置検出部50は、目検出部1からの情報Qに基づいて両目の瞳の中心位置G’a、G’bを検出すると共に、2つの瞳の間の距離D1、両目間の中心位置Pmを求める(S215)。トリミング領域取得部60aは、まず、顔枠取得部62aにより、両目間の中心位置Pm、瞳間距離D1、および第1の記憶部68aに記憶された係数U1a、U1b、U1cを用いて前述の式(38)に従って顔写真画像S0における顔枠を算出する(S225)。そして、トリミング領域取得部60aのトリミング領域設定部64aは、顔枠取得部62aにより得られた顔枠の位置および大きさに基づいてトリミング領域を設定する(S235)。第1のトリミング部70は、トリミング領域取得部60aにより設定されたトリミング領域に基づいて、顔写真画像S0をトリミングしてトリミング画像S5を得る(S240)。出力部80は、トリミング画像S5をプリントして証明写真を得る(S245)。
このように、本実施形態の画像処理システムAによれば、顔写真画像S0から両目の位置、瞳の中心位置を検出し、両目間の中心位置Pmおよび瞳間の距離D1に基づいて顔枠を算出し、算出された顔枠に基づいてトリミング領域を設定するようにし、両目間の中心位置および瞳間の距離さえ分かればトリミング領域を設定することができるので、処理が簡単である。
また、本実施形態の画像処理システムAにおいて、目ないし瞳の位置を自動的に検出するようにしているが、オペレータに目または瞳の中心位置を指定させ、指定された位置、および指定された位置から算出した両目間の距離に基づいて顔枠の取得をするようにしてもよい。
図22は、本発明の第2の実施形態となる画像処理システムBの構成を示すブロック図である。トリミング領域取得部60bと第3の記憶部68bを除いて、画像処理システムBの他の構成は、図1に示す画像処理システムAの相対応する構成と同様なので、ここでトリミング領域取得部60bおよび第3の記憶部68bについてのみ説明すると共に、他の構成については、図1に示す画像処理システムAにおける相対応する構成と同じ符号を付与する。
第3の記憶部68bは、図1に示す画像処理システムAにおける第1の記憶部68aと同じように、第1のトリミング部70が必要とするデータを記憶していると共に、トリミング領域取得部60bが必要とする、後述する係数U2a、U2b、U2cを記憶している。なお、本実施形態において、第3の記憶部68bにより記憶された係数U2a、U2b、U2cは、例として3.250、1.525、0.187となっている。
図23は、トリミング領域取得部60bの構成を示すブロック図である。図23に示すように、トリミング領域取得部60bは、頭頂部検出部61bと、顔枠取得部62bと、トリミング領域設定部64bとを有してなる。
頭頂部検出部61bは、瞳より上の部分に対して頭頂部の検出を行って顔写真画像となる画像S0における頭頂部の位置を検出すると共に、検出された頭頂部の位置から、瞳中心位置検出部50により算出された両目間の中心位置Pmまでの垂直距離Hを算出する。なお、頭頂部の位置の検出は、例えば、特許文献2記載の方法を用いればよい。
顔枠取得部62bは、瞳中心位置検出部50により得られた顔写真画像S0における両瞳間の距離D1、両目間の中心位置Pm、および頭頂部検出部61bにより検出された垂直距離Hおよび第3の記憶部68bに記憶された係数U2a、U2b、U2cを用いて式(39)に従った演算を行って得た値L2a、L2cを夫々、顔写真画像S0における両目間の中心位置Pmを横方向の中心とする顔枠の横幅、中心位置Pmから顔枠の下辺までの距離とするようにすると共に、垂直距離Hを中心位置Pmから顔枠の上辺までの距離とするようにして顔枠を取得する。

L2a=D1×U2a
L2c=D1×U2b+H×U2c (39)
U2a=3.250
U2b=1.525
U2c=0.187

トリミング領域設定部64bは、顔枠取得部62bにより取得された顔枠の位置および大きさに基づいて、出力部80による出力規格に合致するように顔写真画像S0におけるトリミング領域を設定する。
図24は、図22に示す画像処理システムBの処理を示すフローチャートである。図示のように、本実施形態の画像処理システムBにおいて、顔写真画像となる画像S0に対して、まず、目検出部1により両目の位置が検出され、両目の位置および両目中心点間の距離Dを含む情報Qが得られる(S310)。瞳中心位置検出部50は、目検出部1からの情報Qに基づいて両目の瞳の中心位置G’a、G’bを検出すると共に、2つの瞳の間の距離D1、両目間の中心距離Pmを求める(S315)。トリミング領域取得部60bは、まず、頭頂部検出部61bにより、顔写真画像S0おける頭頂部の位置を検出すると共に、検出された頭頂部の位置から、両目間の中心位置Pmまでの垂直距離Hを算出する(S320)。そして、顔枠取得部62bは、両目間の中心位置Pm、瞳間距離D1、垂直距離H、および第3の記憶部68bに記憶された係数U2a、U2b、U2cを用いて前述の式(39)に従って顔写真画像S0における顔枠を算出する(S325)。トリミング領域取得部60bのトリミング領域設定部64bは、顔枠取得部60bにより得られた顔枠の位置および大きさに基づいてトリミング領域を設定し(S335)、第1のトリミング部70は、トリミング領域取得部60bにより設定されたトリミング領域に基づいて、顔写真画像S0をトリミングしてトリミング画像S5を得る(S340)。出力部80は、トリミング画像S5をプリントして証明写真を得る(S345)。
このように、本実施形態の画像処理システムBによれば、まず、顔写真画像S0から両目の中心位置および瞳の中心位置を検出し、両目間の中心位置および瞳間の距離を得ると共に、瞳より上の部分から頭頂部の位置を検出して頭頂部から目までの垂直距離を得る。そして、両目間の中心位置、瞳間の距離、頭頂部の位置、および頭頂部から瞳までの垂直距離に基づいて顔枠を算出し、算出された顔枠に基づいてトリミング領域を設定するようにし、図1に示す実施形態の画像処理システムAと同じように、簡単な処理でトリミング領域を設定することができると共に、瞳間の距離に加え、頭頂部の位置および頭頂部から目までの垂直距離に基づいて顔枠を算出しているので、より精確に顔枠を決定することができ、ひいてはより精確にトリミング領域の設定ができる。
また、目(ここでは瞳)の位置より上の部分から頭頂部の位置を検出するようにしているので、顔写真画像全体を用いる方法より迅速かつ正確に頭頂部の位置を検出することができる。
なお、本実施形態の画像処理システムBにおいて、顔枠取得部62bは、上記の式(39)に従って、両瞳間の距離D1、頭頂部検出部61bにより検出された垂直距離H、および係数U2a、U2b、U2cを用いて演算を行って得た値L2a、L2cを夫々、顔写真画像S0における両目間の中心位置Pmを横方向の中心とする顔枠の横幅、中心位置Pmから顔枠の下辺までの距離とするようにすると共に、垂直距離Hを中心位置Pmから顔枠の上辺までの距離とするようにして顔枠を取得するようにしているが、中心位置Pmから顔枠の下辺までの距離を、垂直距離Hのみに基づいて算出するようにしてもよい。具体的には、下記の式(40)に従って、両瞳間の距離D1および係数U2aを用いて、両瞳間の中心位置Pmを横方向の中心とする顔枠の横幅(L2a)を、垂直距離Hおよび係数U2cを用いて、中心位置Pmから顔枠の下辺までの距離(L2c)を算出するようにしてもよい。

L2a=D1×U2a
L2c=H×U2c (40)
U2a=3.250
U2c=0.900

また、本実施形態の画像処理システムBにおいて、目ないし瞳の位置、頭頂部の位置を自動的に検出するようにしているが、オペレータに目または瞳の中心位置を指定させ、指定された位置より上の部分から頭頂部の検出を行うようにしてもよい。
また、上述した実施形態の画像処理システムAおよび画像処理システムBは、顔枠を設定する際の各係数U1a、U1b、・・・U2cなどとしてはパスポートなど厳しい出力条件にも適用することができる値を用いているが、社員証、履歴書など、出力条件がそれほど厳しくない用途の証明写真の場合や、プリクラなど、顔さえあればいい場合などにおいては、各係数は、上述した各々の値の夫々の(1±0.05)倍の範囲内であればよく、上述した値に限られることがない。
図25は、本発明の第3の実施形態となる画像処理システムCの構成を示すブロック図である。トリミング領域設定部60cと第4の記憶部68cを除いて、画像処理システムCの他の構成は、前述の画像処理システムAまたは画像処理システムBの相対応する構成と同様なので、ここでトリミング領域設定部60cおよび第4の記憶部68cについてのみ説明すると共に、他の構成については、前述の画像処理システムAまたは画像処理システムBにおける相対応する構成と同じ符号を付与する。
第4の記憶部68cは、前述の画像処理システムAまたは画像処理システムBにおける第1の記憶部68a、第3の記憶部68bと同じように、第1のトリミング部70が必要とするデータを記憶していると共に、トリミング領域設定部60cが必要とする、後述する係数U1a、U1b、U1cを記憶している。なお、本実施形態において、第3の記憶部68cにより記憶された係数U1a、U1b、U1cは、例として5.04、3.01、3.47となっている。
トリミング領域設定部60cは、瞳中心位置検出部50により得られた顔写真画像S0における両瞳間の距離D1、両目間の中心位置Pm、および第4の記憶部68cに記憶された係数U1a、U1b、U1cを用いて式(41)に従った演算を行って得た値L1a、L1b、L1cを夫々、顔写真画像S0における両目間の中心位置Pmを横方向の中心とするトリミング領域の横幅、中心位置Pmからトリミング領域の上辺までの距離、中心位置Pmからトリミング領域の下辺までの距離とするようにしてトリミング領域を設定する。

L1a=D1×U1a
L1b=D1×U1b (41)
L1c=D1×U1c
U1a=5.04
U1b=3.01
U1c=3.47

図26は、図25に示す画像処理システムCの処理を示すフローチャートである。図示のように、本実施形態の画像処理システムCにおいて、顔写真画像となる画像S0に対して、まず、目検出部1により両目の位置が検出され、両目の位置および両目中心点間の距離Dを含む情報Qが得られる(S410)。瞳中心位置検出部50は、目検出部1からの情報Qに基づいて両目の瞳の中心位置G’a、G’bを検出し、2つの瞳の間の距離D1を求めると共に、両目間の中心位置Pmを求める(S415)。トリミング領域設定部60cは、両目間の中心位置Pm、瞳間距離D1、および第4の記憶部68cに記憶された係数U1a、U1b、U1cを用いて前述の式(41)に従ってトリミング領域を設定する(S430)。第1のトリミング部70は、トリミング領域設定部60cにより設定されたトリミング領域に基づいて、顔写真画像S0をトリミングしてトリミング画像S5を得る(S440)。出力部80は、トリミング画像S5をプリントして証明写真を得る(S445)。
このように、本実施形態の画像処理システムCは、図1に示す画像処理システムAと同じように、目(ここでは瞳)の位置と距離さえ分かればトリミング領域を設定することができると共に、顔枠の算出をせずに直接トリミング領域を設定しているので、より処理の高速化を図ることができる。
勿論、画像処理システムA、画像処理システムBの場合と同じように、目の位置をオペレータに指定させるようにしてもよい。
図27は、本発明の第4の実施形態となる画像処理システムDの構成を示すブロック図である。トリミング領域取得部60dと第5の記憶部68dを除いて、画像処理システムCの他の構成は、前述の各実施形態の画像処理システムの相対応する構成と同様なので、ここでトリミング領域取得部60dおよび第5の記憶部68dについてのみ説明すると共に、他の構成については、前述の各実施形態の画像処理システムにおける相対応する構成と同じ符号を付与する。
第5の記憶部68dは、第1のトリミング部70が必要とするデータ(出力部80による出力規格など)を記憶していると共に、トリミング領域取得部60dが必要とする、後述する係数U2a、U2b1、U2c1、U2b2、U2c2を記憶している。なお、本実施形態において、第5の記憶部68dにより記憶された係数U2a、U2b1、U2c1、U2b2、U2c2は、例として5.04、2.674、0.4074、0.4926、1.259となっている。
図28は、トリミング領域取得部60dの構成を示すブロック図である。図28に示すように、トリミング領域取得部60dは、頭頂部検出部61dと、トリミング領域設定部64dとを有してなる。
頭頂部検出部61dは、瞳より上の部分に対して頭頂部の検出を行って顔写真画像となる画像S0における頭頂部の位置を検出すると共に、検出された頭頂部の位置から、瞳中心位置検出部50により算出された両目間の中心位置Pmまでの垂直距離Hを算出する。
トリミング領域設定部64dは、顔写真画像S0における両瞳間の距離D1および頭頂部検出部61dにより検出された瞳から頭頂部までの垂直距離Hおよび係数U2a、U2b1、U2c1、U2b2、U2c2を用いて式(42)に従った演算を行って得た値L2a、L2b、L2cを夫々、顔写真画像S0における両目間の中心位置Pmを横方向の中心とするトリミング領域の横幅、中心位置Pmからトリミング領域の上辺までの距離、中心位置Pmからトリミング領域の下辺までの距離とするようにしてトリミング領域を設定する。

L2a=D1×U2a
L2b=D1×U2b1+H×U2c1 (42)
L2c=D1×U2b2+H×U2c2
U2a=5.04
U2b1=2.674
U2c1=0.4074
U2b2=0.4926
U2c2=1.259

図29は、図27に示す画像処理システムDの処理を示すフローチャートである。図示のように、本実施形態の画像処理システムDにおいて、顔写真画像となる画像S0に対して、まず、目検出部1により両目の位置が検出され、両目の位置および両目中心点間の距離Dを含む情報Qが得られる(S510)。瞳中心位置検出部50は、目検出部1からの情報Qに基づいて両目の瞳の中心位置G’a、G’bを検出して2つの瞳の間の距離D1を求めると共に、両目間の中心位置Pmを求める(S515)。トリミング領域取得部60dは、両目間の中心位置Pm、瞳間距離D1、および第5の記憶部68dに記憶された係数U2a、U2b1、U2c1、U2b2、U2c2を用いて前述の式(42)に従ってトリミング領域を設定する(S530)。第1のトリミング部70は、トリミング領域取得部60dにより得られたトリミング領域に基づいて、顔写真画像S0をトリミングしてトリミング画像S5を得る(S540)。出力部80は、トリミング画像S5をプリントして証明写真を得る(S545)。
本実施形態の画像処理システムDにおいて、トリミング領域取得部60dは、上記の式(42)に従って、両瞳間の距離D1、頭頂部検出部61dにより検出された垂直距離H、および係数U2a、U2b1、U2c1、U2b2、U2c2を用いて演算を行って得た値L2a、L2b、L2cを夫々、顔写真画像S0における両目間の中心位置Pmを横方向の中心とするトリミング領域の横幅、中心位置Pmからトリミング領域の上辺までの距離、中心位置Pmからトリミング領域の下辺までの距離とするようにしてトリミング領域を設定するようにしているが、中心位置Pmからトリミング領域の上辺と、中心位置Pmからトリミング領域の下辺までの距離とを、垂直距離Hのみに基づいて算出するようにしてもよい。具体的には、下記の式(43)に従って、両瞳間の距離D1および係数U2aを用いて、両目間の中心位置Pmを横方向の中心とするトリミング領域の横幅(L2a)を、垂直距離Hおよび係数U2bを用いて、中心位置Pmからトリミング領域の上辺までの距離(L2b)を、垂直距離Hおよび係数U2cを用いて、中心位置Pmからトリミング領域の下辺までの距離(L2c)を夫々算出するようにしてもよい。

L2a=D1×U2a
L2b=H×U2b (43)
L2c=H×U2c
U2a=5.04
U2b=1.495
U2c=1.89

以上、本発明の主旨を分かり易くするために、入力された顔写真画像に対してトリミング処理を施して証明写真を得る画像処理システムを実施形態として説明したが、本発明は、上述した画像処理システムの実施形態に限らず、顔写真画像を撮像することから、目的の写真プリントや、トリミングした画像を得ることまでの処理を行う装置、例えば、前述した各実施形態の画像処理システムの機能を備えた写真ボックス装置には勿論、上述した各実施形態の画像処理システムの、トリミングするまでの機能を備えたデジタルカメラなどにも適用することができる。
また、顔枠の取得や、トリミング領域の設定などの際に使われた各係数は、被写体人物の生年月日や、目の色、国籍などに応じて変更するようにしてもよい。
また、上述した各画像処理システムにおいて、顔写真画像S0において1つの顔しかないことを前提としているが、本発明は、1つの画像に複数の顔が存在する場合にも適用することができる。例えば、1つの画像に複数の顔が存在する場合、各顔に対して、上述した画像処理システムAまたはBにおける、顔枠を取得する処理を各顔に対して行い、各顔枠のうちの、上辺が最も上の顔枠の上辺の位置と、下辺が最も下の顔枠の下辺をトリミング領域の上下端の基準にして、これらの複数の顔を一括トリミングするためのトリミング領域を設定するようにすることができる。同様に、各顔枠のうちの、左辺が最も左の顔枠の左辺の位置と、右辺が最も右の顔枠の右辺をトリミング領域の左右端の基準にして、これらの複数の顔を一括トリミングするためのトリミング領域を設定するようにすることもできる。
また、上述した各実施形態は、目の位置および両目間の距離を用いて顔枠(すなわち、顔の左右端、上下端)を推定するか、顔枠のうち、上端(目から頭頂部までの垂直距離)を検出すると共に、顔の左右端、下端(顎)については、目の位置と、両目間の距離と、検出により得られた目から頭頂部までの距離とを用いて推定するかによって顔枠を得るようにするものであるが、上述した各実施形態における顔端部の推定手法を、端部を検出することによって顔枠を得る画像処理システムに部分的に適用するようにしてもよい。顔のトリミングを目的に顔の端部を得る手法としては、「検出」と「推定」とのいずれかが用いられるが、一般的には、顔写真画像の背景部分が安定しているなど画像処理(検出)が容易な場合には、「推定」よりも「検出」によって端部を取得する方は精度が高く、逆に、顔写真画像の背景部分が複雑などの画像処理が困難な場合には、「検出」よりも「推定」によって端部を取得するほうは精度が高い。例えば、髪の毛によって耳が隠れている場合と耳が露出する場合との夫々において、画像処理の難易さが変わる。一方、証明写真のために撮像して得た顔画像は、撮像時に耳の露出が規定されているので、上述した各実施形態のように、「推定」により顔の左右端を取得するシステムにおいて、対象となる顔写真画像が、証明写真用に撮像されたものである場合に限って、推定せずに、画像処理によって顔の左右端を検出するように切り替えるようにしてもよい。また、顎の先端のエッジがはっきりしている場合とはっきりしていない場合との夫々において、画像処理の難易さが変わるので、撮像する際に顎の線がはっきりするように照明が当てられる写真ボックス装置などにおいて、顎の先端位置(顔の下端部)を、推定せずに検出するようにすることができる。
すなわち、本発明の顔枠推定手法は、上述した実施形態に限らず、下記のように部分的に検出手法と組み合わせてもよい。
例えば、目の位置、頭頂部位置、顔の左右両端位置を、検出することによって取得し、目の位置(および目の位置から算出される両目間の距離。以下同じ)から、または目の位置および頭頂部の位置(および目の位置と頭頂部の位置とから算出される目から頭頂部までの垂直距離。以下同じ)から顎の先端位置を推定するようにしてもよい。
または、目の位置、頭頂部位置、顎の先端位置を、検出することによって取得し、顔の左右両端位置を推定するようにしてもよい。
または、顔の左右端、上下端の位置を全部、検出することによって取得するが、いずれかの位置の検出の精度が低いと判断された場合、検出された他の位置から、この検出精度の低い位置を推定に切り替えて取得するようにしてもよい。
なお、顔の左右端の位置、上下端の位置の検出は、従来の種々の方法を適用することができる。例えば、顔の概略中心点を起点とし、左右および上下方向に肌色領域のエッジを抽出し、抽出されたエッジの左右上下の端点を顔の端点とするようにすることができる。さらに、上端の端点を取得するのに際し、上端のエッジを抽出した後に、髪の毛の領域に対してもエッジ抽出を行い、肌色のエッジと、髪の毛の領域のエッジとを比較することによってより精確に上端の位置を得るようにしてもよい。
本発明の第1の実施形態となる画像処理システムAの構成を示すブロック図 目検出部1の構成を示すブロック図 目の中心位置を説明するための図 (a)は水平方向のエッジ検出フィルタを示す図、(b)は垂直方向のエッジ検出フィルタを示す図 勾配ベクトルの算出を説明するための図 (a)は人物の顔を示す図、(b)は(a)に示す人物の顔の目および口付近の勾配ベクトルを示す図 (a)は正規化前の勾配ベクトルの大きさのヒストグラムを示す図、(b)は正規化後の勾配ベクトルの大きさのヒストグラムを示す図、(c)は5値化した勾配ベクトルの大きさのヒストグラムを示す図、(d)は正規化後の5値化した勾配ベクトルの大きさのヒストグラムを示す図 第1の参照データの学習に用いられる顔であることが分かっているサンプル画像の例を示す図 第2の参照データの学習に用いられる顔であることが分かっているサンプル画像の例を示す図 顔の回転を説明するための図 参照データの学習手法を示すフローチャート 識別器の導出方法を示す図 識別対象画像の段階的な変形を説明するための図 目検出部1の処理を示すフローチャート 瞳中心位置検出部50の構成を示すブロック図 第2のトリミング部10がトリミングする位置を説明するための図 2値化閾値の求め方を説明するための図 投票値の重み付けを説明するための図 目検出部1および瞳中心位置検出部50の処理を示すフローチャート トリミング領域取得部60aの構成を示すブロック図 図1に示す画像処理システムAの処理を示すフローチャート 本発明の第2の実施形態となる画像処理システムBの構成を示すブロック図 トリミング領域取得部60bの構成を示すブロック図 図22に示す画像処理システムBの処理を示すフローチャート 本発明の第3の実施形態となる画像処理システムCの構成を示すブロック図 図25に示す画像処理システムCの処理を示すフローチャート 本発明の第4の実施形態となる画像処理システムDの構成を示すブロック図 トリミング領域取得部60dの構成を示すブロック図 図27に示す画像処理システムDの処理を示すフローチャート 両目間の距離の例を示す図
符号の説明
1 目検出部
2 特徴量算出部
4 第2の記憶部
5 第1の識別部
6 第2の識別部
7 第1の出力部
10 第2のトリミング部
12 グレー変換部
14 前処理部
18 2値化閾値算出部
20 2値化部
30 投票部
35 中心位置候補取得部
40 照合部
45 微調整部
50 瞳中心位置検出部
60a トリミング領域取得部
62a 顔枠取得部
64a トリミング領域設定部
68a 第1の記憶部
60b トリミング領域取得部
61b 頭頂部検出部
62b 顔枠取得部
64b トリミング領域設定部
68b 第3の記憶部
60c トリミング領域設定部
68c 第4の記憶部
60d トリミング領域取得部
61d 頭頂部検出部
64d トリミング領域設定部
68d 第5の記憶部
70 第2のトリミング部
80 出力部
S0 写真画像

Claims (29)

  1. 顔写真画像における両目間の距離Dおよび係数U1a、U1b、U1cを用いて式(1)に従った演算を行って得た値L1a、L1b、L1cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の上辺までの距離、前記中心位置Gmから前記顔枠の下辺までの距離とするようにして前記顔枠を取得し、
    前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定する画像処理方法において、
    前記係数U1a、U1b、U1cが、サンプル顔写真画像における両目間の距離Dsおよび所定のテスト係数Ut1a、Ut1b、Ut1cを用いて式(2)に従った演算を行って得た夫々の値Lt1a、Lt1b、Lt1cと、前記サンプル顔写真画像における顔の横幅、前記両目間の中心位置から前記顔の上端までの距離、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とする画像処理方法。

    L1a=D×U1a
    L1b=D×U1b (1)
    L1c=D×U1c

    Lt1a=Ds×Ut1a
    Lt1b=Ds×Ut1b (2)
    Lt1c=Ds×Ut1c
  2. 顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出し、
    前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U2a、U2cを用いて式(3)に従った演算を行って得た値L2a、L2cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の下辺までの距離とするようにすると共に、前記垂直距離Hを前記中心位置Gmから前記顔枠の上辺までの距離とするようにして前記顔枠を取得し、
    前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定する画像処理方法において、
    前記係数U2a、U2cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut2a、Ut2cを用いて式(4)に従った演算を行って得た夫々の値Lt2a、Lt2cと、前記サンプル顔写真画像における顔の幅、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とする画像処理方法。

    L2a=D×U2a
    L2c=H×U2c (3)


    Lt2a=Ds×Ut2a
    Lt2b=Hs×Ut2c (4)
  3. 顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出し、
    前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U3a、U3b、U3cを用いて式(5)に従った演算を行って得た値L3a、L3cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の下辺までの距離とするようにすると共に、前記垂直距離Hを前記中心位置Gmから前記顔枠の上辺までの距離とするようにして前記顔枠を取得し、
    前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定する画像処理方法において、
    前記係数U3a、U3b、U3cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut3a、Ut3b、Ut3cを用いて式(6)に従った演算を行って得た夫々の値Lt3a、Lt3cと、前記サンプル顔写真画像における顔の幅、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とする画像処理方法。

    L3a=D×U3a
    L3c=D×U3b+H×U3c (5)


    Lt3a=Ds×Ut3a
    Lt3b=Ds×Ut3b+Hs×Ut3c (6)
  4. 顔写真画像における両目間の距離Dおよび係数U4a、U4b、U4cを用いて式(7)に従った演算を行って得た値L4a、L4b、L4cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにして前記トリミング領域を設定する画像処理方法において、
    前記係数U4a、U4b、U4cが、サンプル顔写真画像における両目間の距離Dsおよび所定のテスト係数Ut4a、Ut4b、Ut4cを用いて式(8)に従った演算を行って得た夫々の値Lt4a、Lt4b、Lt4cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とする画像処理方法。

    L4a=D×U4a
    L4b=D×U4b (7)
    L4c=D×U4c

    Lt4a=Ds×Ut4a
    Lt4b=Ds×Ut4b (8)
    Lt4c=Ds×Ut4c
  5. 顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出し、
    前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U5a、U5b、U5cを用いて式(9)に従った演算を行って得た値L5a、L5b、L5cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにするようにして前記トリミング領域を設定する画像処理方法において、
    前記係数U5a、U5b、U5cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut5a、Ut5b、Ut5cを用いて式(10)に従った演算を行って得た夫々の値Lt5a、Lt5b、Lt5cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とする画像処理方法。

    L5a=D×U5a
    L5b=H×U5b (9)
    L5c=H×U5c

    Lt5a=Ds×Ut5a
    Lt5b=Hs×Ut5b (10)
    Lt5c=Hs×Ut5c
  6. 顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出し、
    前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U6a、U6b1、U6c1、U6b2、U6c2を用いて式(11)に従った演算を行って得た値L6a、L6b、L6cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにして前記トリミング領域を設定する画像処理方法において、
    前記係数U6a、U6b1、U6c1、U6b2、U6c2が、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut6a、Ut6b1、Ut6c1、Ut6b2、Ut6c2を用いて式(12)に従った演算を行って得た夫々の値Lt6a、Lt6b、Lt6cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とする画像処理方法。

    L6a=D×U6a
    L6b=D×U6b1+H×U6c1 (11)
    L6c=D×U6b2+H×U6c2

    Lt6a=Ds×Ut6a
    Lt6b=Ds×Ut6b1+Hs×Ut6c1 (12)
    Lt6c=Ds×Ut6b2+Hs×Ut6c2
  7. 顔写真画像における両目間の距離Dおよび係数U1a、U1b、U1cを用いて式(13)に従った演算を行って得た値L1a、L1b、L1cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の上辺までの距離、前記中心位置Gmから前記顔枠の下辺までの距離とするようにして前記顔枠を取得する顔枠取得手段と、
    前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定するトリミング領域設定手段とを備えてなる画像処理装置であって、
    前記係数U1a、U1b、U1cが、サンプル顔写真画像における両目間の距離Dsおよび所定のテスト係数Ut1a、Ut1b、Ut1cを用いて式(14)に従った演算を行って得た夫々の値Lt1a、Lt1b、Lt1cと、前記サンプル顔写真画像における顔の横幅、前記両目間の中心位置から前記顔の上端までの距離、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とする画像処理装置。

    L1a=D×U1a
    L1b=D×U1b (13)
    L1c=D×U1c

    Lt1a=Ds×Ut1a
    Lt1b=Ds×Ut1b (14)
    Lt1c=Ds×Ut1c
  8. 前記両目間の距離が、前記両目の夫々の瞳間の距離であり、
    前記係数U1a、U1b、U1cの値が、夫々3.250×(1±0.05)、1.905×(1±0.05)、2.170×(1±0.05)の範囲内にあることを特徴とする請求項7記載の画像処理装置。
  9. 顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出する頭頂部検出手段と、
    前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U2a、U2cを用いて式(15)に従った演算を行って得た値L2a、L2cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の下辺までの距離とするようにすると共に、前記垂直距離Hを前記中心位置Gmから前記顔枠の上辺までの距離とするようにして前記顔枠を取得する顔枠取得手段と、
    前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定するトリミング領域設定手段とを備えてなる画像処理装置であって、
    前記係数U2a、U2cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut2a、Ut2cを用いて式(16)に従った演算を行って得た夫々の値Lt2a、Lt2cと、前記サンプル顔写真画像における顔の幅、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とする画像処理装置。

    L2a=D×U2a
    L2c=H×U2c (15)

    Lt2a=Ds×Ut2a
    Lt2b=Hs×Ut2c (16)
  10. 前記両目間の距離が、前記両目の夫々の瞳間の距離であり、
    前記係数U2a、U2cの値が、夫々3.250×(1±0.05)、0.900×(1±0.05)の範囲内にあることを特徴とする請求項9記載の画像処理装置。
  11. 顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出する頭頂部検出手段と、
    前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U3a、U3b、U3cを用いて式(17)に従った演算を行って得た値L3a、L3cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の下辺までの距離とするようにすると共に、前記垂直距離Hを前記中心位置Gmから前記顔枠の上辺までの距離とするようにして前記顔枠を取得する顔枠取得手段と、
    前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定するトリミング領域設定手段とを備えてなる画像処理装置であって、
    前記係数U3a、U3b、U3cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut3a、Ut3b、Ut3cを用いて式(18)に従った演算を行って得た夫々の値Lt3a、Lt3cと、前記サンプル顔写真画像における顔の幅、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とする画像処理装置。

    L3a=D×U3a
    L3c=D×U3b+H×U3c (17)

    Lt3a=Ds×Ut3a
    Lt3b=Ds×Ut3b+Hs×Ut3c (18)
  12. 前記両目間の距離が、前記両目の夫々の瞳間の距離であり、
    前記係数U3a、U3b、U3cの値が、夫々3.250×(1±0.05)、1.525×(1±0.05)、0.187×(1±0.05)の範囲内にあることを特徴とする請求項11記載の画像処理装置。
  13. 顔写真画像における両目間の距離Dおよび係数U4a、U4b、U4cを用いて式(19)に従った演算を行って得た値L4a、L4b、L4cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにして前記トリミング領域を設定するトリミング領域設定手段を備えた画像処理装置であって、
    前記係数U4a、U4b、U4cが、サンプル顔写真画像における両目間の距離Dsおよび所定のテスト係数Ut4a、Ut4b、Ut4cを用いて式(20)に従った演算を行って得た夫々の値Lt4a、Lt4b、Lt4cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とする画像処理装置。

    L4a=D×U4a
    L4b=D×U4b (19)
    L4c=D×U4c

    Lt4a=Ds×Ut4a
    Lt4b=Ds×Ut4b (20)
    Lt4c=Ds×Ut4c
  14. 前記両目間の距離が、前記両目の夫々の瞳間の距離であり、
    前記係数U4a、U4b、U4cの値が、夫々(5.04×範囲係数)、(3.01×範囲係数)、(3.47×範囲係数)の範囲内にあり、該範囲係数が(1±0.4)であることを特徴とする請求項13記載の画像処理装置。
  15. 顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出する頭頂部検出手段と、
    前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U5a、U5b、U5cを用いて式(21)に従った演算を行って得た値L5a、L5b、L5cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにするようにして前記トリミング領域を設定するトリミング領域設定手段とを備えてなる画像処理装置であって、
    前記係数U5a、U5b、U5cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut5a、Ut5b、Ut5cを用いて式(22)に従った演算を行って得た夫々の値Lt5a、Lt5b、Lt5cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とする画像処理装置。

    L5a=D×U5a
    L5b=H×U5b (21)
    L5c=H×U5c

    Lt5a=Ds×Ut5a
    Lt5b=Hs×Ut5b (22)
    Lt5c=Hs×Ut5c
  16. 前記両目間の距離が、前記両目の夫々の瞳間の距離であり、
    前記係数U5a、U5b、U5cの値が、夫々(5.04×範囲係数)、(1.495×範囲係数)、(1.89×範囲係数)の範囲内にあり、該範囲係数が(1±0.4)であることを特徴とする請求項15記載の画像処理装置。
  17. 顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出する頭頂部検出手段と、
    前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U6a、U6b1、U6c1、U6b2、U6c2を用いて式(23)に従った演算を行って得た値L6a、L6b、L6cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにして前記トリミング領域を設定するトリミング領域設定手段とを備えてなる画像処理装置であって、
    前記係数U6a、U6b1、U6c1、U6b2、U6c2が、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut6a、Ut6b1、Ut6c1、Ut6b2、Ut6c2を用いて式(24)に従った演算を行って得た夫々の値Lt6a、Lt6b、Lt6cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とする画像処理装置。

    L6a=D×U6a
    L6b=D×U6b1+H×U6c1 (23)
    L6c=D×U6b2+H×U6c2

    Lt6a=Ds×Ut6a
    Lt6b=Ds×Ut6b1+Hs×Ut6c1 (24)
    Lt6c=Ds×Ut6b2+Hs×Ut6c2
  18. 前記両目間の距離が、前記両目の夫々の瞳間の距離であり、
    前記係数U6a、U6b1、U6c1、U6b2、U6c2の値が、夫々(5.04×範囲係数)、(2.674×範囲係数)、(0.4074×範囲係数)、(0.4926×範囲係数)、(1.259×範囲係数)の範囲内にあり、該範囲係数が(1±0.4)であることを特徴とする請求項17記載の画像処理装置。
  19. 前記範囲係数が、(1±0.25)であることを特徴とする請求項14、16、18のいずれか1項記載の画像処理装置。
  20. 前記範囲係数が、(1±0.10)であることを特徴とする請求項19記載の画像処理装置。
  21. 前記範囲係数が、(1±0.05)であることを特徴とする請求項20記載の画像処理装置。
  22. 顔写真画像における両目間の距離Dおよび係数U1a、U1b、U1cを用いて式(25)に従った演算を行って得た値L1a、L1b、L1cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の上辺までの距離、前記中心位置Gmから前記顔枠の下辺までの距離とするようにして前記顔枠を取得する処理と、
    前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定する処理とをコンピュータに実行させるプログラムであって、
    前記係数U1a、U1b、U1cが、サンプル顔写真画像における両目間の距離Dsおよび所定のテスト係数Ut1a、Ut1b、Ut1cを用いて式(26)に従った演算を行って得た夫々の値Lt1a、Lt1b、Lt1cと、前記サンプル顔写真画像における顔の横幅、前記両目間の中心位置から前記顔の上端までの距離、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするプログラム。

    L1a=D×U1a
    L1b=D×U1b (25)
    L1c=D×U1c

    Lt1a=Ds×Ut1a
    Lt1b=Ds×Ut1b (26)
    Lt1c=Ds×Ut1c
  23. 顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出する処理と、
    前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U2a、U2cを用いて式(27)に従った演算を行って得た値L2a、L2cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の下辺までの距離とするようにすると共に、前記垂直距離Hを前記中心位置Gmから前記顔枠の上辺までの距離とするようにして前記顔枠を取得する処理と、
    前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定する処理とをコンピュータに実行させるプログラムであって、
    前記係数U2a、U2cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut2a、Ut2cを用いて式(28)に従った演算を行って得た夫々の値Lt2a、Lt2cと、前記サンプル顔写真画像における顔の幅、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするプログラム。

    L2a=D×U2a
    L2c=H×U2c (27)

    Lt2a=Ds×Ut2a
    Lt2b=Hs×Ut2c (28)
  24. 顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出する処理と、
    前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U3a、U3b、U3cを用いて式(29)に従った演算を行って得た値L3a、L3cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とする顔枠の横幅、前記中心位置Gmから前記顔枠の下辺までの距離とするようにすると共に、前記垂直距離Hを前記中心位置Gmから前記顔枠の上辺までの距離とするようにして前記顔枠を取得する処理と、
    前記顔枠の位置および大きさに基づいて、所定の出力規格に合致するように前記顔写真画像におけるトリミング領域を設定する処理とをコンピュータに実行させるプログラムであって、
    前記係数U3a、U3b、U3cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut3a、Ut3b、Ut3cを用いて式(30)に従った演算を行って得た夫々の値Lt3a、Lt3cと、前記サンプル顔写真画像における顔の幅、前記両目間の中心位置から前記顔の下端までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするプログラム。

    L3a=D×U3a
    L3c=D×U3b+H×U3c (29)


    Lt3a=Ds×Ut3a
    Lt3b=Ds×Ut3b+Hs×Ut3c (30)
  25. 顔写真画像における両目間の距離Dおよび係数U4a、U4b、U4cを用いて式(31)に従った演算を行って得た値L4a、L4b、L4cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにして前記トリミング領域を設定する処理をコンピュータに実行させるプログラムであって、
    前記係数U4a、U4b、U4cが、サンプル顔写真画像における両目間の距離Dsおよび所定のテスト係数Ut4a、Ut4b、Ut4cを用いて式(32)に従った演算を行って得た夫々の値Lt4a、Lt4b、Lt4cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするプログラム。

    L4a=D×U4a
    L4b=D×U4b (31)
    L4c=D×U4c

    Lt4a=Ds×Ut4a
    Lt4b=Ds×Ut4b (32)
    Lt4c=Ds×Ut4c
  26. 顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出する処理と、
    前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U5a、U5b、U5cを用いて式(33)に従った演算を行って得た値L5a、L5b、L5cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにするようにして前記トリミング領域を設定する処理とをコンピュータに実行させるプログラムであって、
    前記係数U5a、U5b、U5cが、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut5a、Ut5b、Ut5cを用いて式(34)に従った演算を行って得た夫々の値Lt5a、Lt5b、Lt5cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするプログラム。

    L5a=D×U5a
    L5b=H×U5b (33)
    L5c=H×U5c

    Lt5a=Ds×Ut5a
    Lt5b=Hs×Ut5b (34)
    Lt5c=Hs×Ut5c
  27. 顔写真画像における目の位置より上の部分から頭頂部の位置を検出すると共に、前記目から前記頭頂部までの垂直距離Hを算出する処理と、
    前記顔写真画像における両目間の距離Dおよび前記垂直距離Hおよび係数U6a、U6b1、U6c1、U6b2、U6c2を用いて式(35)に従った演算を行って得た値L6a、L6b、L6cを夫々、前記顔写真画像における前記両目間の中心位置Gmを横方向の中心とするトリミング領域の横幅、前記中心位置Gmから前記トリミング領域の上辺までの距離、前記中心位置Gmから前記トリミング領域の下辺までの距離とするようにして前記トリミング領域を設定する処理とをコンピュータに実行させるプログラムであって、
    前記係数U6a、U6b1、U6c1、U6b2、U6c2が、サンプル顔写真画像における目から頭頂部までの垂直距離Hsおよび両目間の距離Dsおよび所定のテスト係数Ut6a、Ut6b1、Ut6c1、Ut6b2、Ut6c2を用いて式(36)に従った演算を行って得た夫々の値Lt6a、Lt6b、Lt6cと、前記サンプル顔写真画像における前記両目間の中心位置を横方向の中心とする所定のトリミング領域の横幅、前記両目間の中心位置から前記所定のトリミング領域の上辺までの距離、前記両目間の中心位置から前記所定のトリミング領域の下辺までの距離の夫々との差の絶対値を求める処理を多数の前記サンプル顔写真画像に対して行い、各々の前記サンプル顔写真画像に対して求められた前記差の絶対値の総和が最小となるように前記テスト係数を最適化して得たものであることを特徴とするプログラム。

    L6a=D×U6a
    L6b=D×U6b1+H×U6c1 (35)
    L6c=D×U6b2+H×U6c2

    Lt6a=Ds×Ut6a
    Lt6b=Ds×Ut6b1+Hs×Ut6c1 (36)
    Lt6c=Ds×Ut6b2+Hs×Ut6c2
  28. 撮像手段と、
    該撮像手段により得られた顔写真画像におけるトリミング領域を取得するトリミング領域取得手段と、
    該トリミング領域取得手段により取得された前記トリミング領域に基づいて前記顔写真画像に対してトリミング処理を施してトリミング画像を得るトリミング実行手段とを備えたデジタルカメラであって、
    前記トリミング領域取得手段が、請求項7から21のいずれか1項記載の画像処理装置であることを特徴とするデジタルカメラ。
  29. 撮像手段と、
    該撮像手段により得られた顔写真画像におけるトリミング領域を取得するトリミング領域取得手段と、
    該トリミング領域取得手段により取得された前記トリミング領域に基づいて前記顔写真画像に対してトリミング処理を施してトリミング画像を得るトリミング実行手段とを備えた写真ボックス装置であって、
    前記トリミング領域取得手段が、請求項7から21のいずれか1項記載の画像処理装置であることを特徴とする写真ボックス装置。
JP2004262387A 2003-09-09 2004-09-09 画像処理方法および装置並びにプログラム Withdrawn JP2005108207A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004262387A JP2005108207A (ja) 2003-09-09 2004-09-09 画像処理方法および装置並びにプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003358507 2003-09-09
JP2004262387A JP2005108207A (ja) 2003-09-09 2004-09-09 画像処理方法および装置並びにプログラム

Publications (1)

Publication Number Publication Date
JP2005108207A true JP2005108207A (ja) 2005-04-21

Family

ID=34554718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004262387A Withdrawn JP2005108207A (ja) 2003-09-09 2004-09-09 画像処理方法および装置並びにプログラム

Country Status (1)

Country Link
JP (1) JP2005108207A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180116996A (ko) * 2017-04-18 2018-10-26 한국과학기술원 3차원 안면 정면화 시스템 및 방법
JP2020081187A (ja) * 2018-11-21 2020-06-04 国立大学法人 新潟大学 画像処理装置、パズル遊技システム、画像処理方法及びプログラム
CN112507766A (zh) * 2019-09-16 2021-03-16 珠海格力电器股份有限公司 人脸图像提取方法、存储介质及终端设备
CN113222810A (zh) * 2021-05-21 2021-08-06 北京大米科技有限公司 图像处理方法和图像处理装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180116996A (ko) * 2017-04-18 2018-10-26 한국과학기술원 3차원 안면 정면화 시스템 및 방법
KR101963198B1 (ko) 2017-04-18 2019-07-31 한국과학기술원 3차원 안면 정면화 시스템 및 방법
JP2020081187A (ja) * 2018-11-21 2020-06-04 国立大学法人 新潟大学 画像処理装置、パズル遊技システム、画像処理方法及びプログラム
JP7239148B2 (ja) 2018-11-21 2023-03-14 国立大学法人 新潟大学 画像処理装置、パズル遊技システム、画像処理方法及びプログラム
CN112507766A (zh) * 2019-09-16 2021-03-16 珠海格力电器股份有限公司 人脸图像提取方法、存储介质及终端设备
CN112507766B (zh) * 2019-09-16 2023-11-24 珠海格力电器股份有限公司 人脸图像提取方法、存储介质及终端设备
CN113222810A (zh) * 2021-05-21 2021-08-06 北京大米科技有限公司 图像处理方法和图像处理装置

Similar Documents

Publication Publication Date Title
US7542591B2 (en) Target object detecting method, apparatus, and program
JP4505362B2 (ja) 赤目検出装置および方法並びにプログラム
US7848545B2 (en) Method of and system for image processing and computer program
US20050196069A1 (en) Method, apparatus, and program for trimming images
JP4908505B2 (ja) 撮影者を利用した画像の分類
US7215828B2 (en) Method and system for determining image orientation
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
US8254644B2 (en) Method, apparatus, and program for detecting facial characteristic points
JP6884517B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20050220346A1 (en) Red eye detection device, red eye detection method, and recording medium with red eye detection program
US20050117802A1 (en) Image processing method, apparatus, and program
US20040037460A1 (en) Method for detecting objects in digital images
US7995807B2 (en) Automatic trimming method, apparatus and program
JP2008538998A (ja) 画像に含まれる人物を認識する際の時刻の利用
US20060126964A1 (en) Method of and system for image processing and computer program
CN103902958A (zh) 人脸识别的方法
WO2018192245A1 (zh) 一种基于美学评价的照片自动评分方法
JP2007048172A (ja) 情報分類装置
JP4510562B2 (ja) 円中心位置検出方法および装置並びにプログラム
JP2005108207A (ja) 画像処理方法および装置並びにプログラム
JP2005332382A (ja) 画像処理方法および装置並びにプログラム
JPH11306348A (ja) 対象物検出装置及び対象物検出方法
RU2329535C2 (ru) Способ автоматического кадрирования фотографий
JP2005316958A (ja) 赤目検出装置および方法並びにプログラム
JP2005084979A (ja) 顔認証システムおよび方法並びにプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061207

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071204