JP4327317B2 - Person image photographing method and person image photographing apparatus - Google Patents

Person image photographing method and person image photographing apparatus Download PDF

Info

Publication number
JP4327317B2
JP4327317B2 JP36129299A JP36129299A JP4327317B2 JP 4327317 B2 JP4327317 B2 JP 4327317B2 JP 36129299 A JP36129299 A JP 36129299A JP 36129299 A JP36129299 A JP 36129299A JP 4327317 B2 JP4327317 B2 JP 4327317B2
Authority
JP
Japan
Prior art keywords
image
luminance
subject
photographing
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP36129299A
Other languages
Japanese (ja)
Other versions
JP2001177740A (en
Inventor
周一 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP36129299A priority Critical patent/JP4327317B2/en
Publication of JP2001177740A publication Critical patent/JP2001177740A/en
Application granted granted Critical
Publication of JP4327317B2 publication Critical patent/JP4327317B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、たとえば、身分証明書や各種免許証などに貼付する証明用写真を作成することを目的に、被撮影者の少なくとも顔を含む上半身像を撮影する人物画像撮影方法および人物画像撮影装置に関する。
【0002】
【従来の技術】
一般に、この種の人物画像撮影装置にあっては、被撮影者の顔の大きさや位置が、撮影画像内で一定の比率(理想状態)になるように配慮する必要がある。従来、被撮影者の背景として、たとえば、青色(以下、ブルーバックと称す)を用い、あらかじめ被撮影者の身長のばらつきなどを見越して大きな領域を撮影し、ブルーバックの青成分輝度(以下、B輝度と称す)を基準として被撮影者の頭頂位置および左右頭側位置から頭部位置を検出し、この検出した頭部位置を基に被撮影者の顔位置が撮影画像内で理想状態になるように配置し、撮影画像から被撮影者の上半身像を切出す方式が用いられていた。
【0003】
【発明が解決しようとする課題】
被撮影者が一般的な黒髪の日本人と想定した場合、ブルーバックのB輝度に比べて被撮影者の頭部位置(黒髪部分)のB輝度が低いため、高い精度で頭部位置を検出することが可能である。
【0004】
ところが、近年の日本における外国人人口の増加および高年齢化により、被撮影者が黒髪でない可能性も充分に考えられる。たとえば、被撮影者が白髪あるいは無頭髪の場合は、頭部位置のB輝度が高くなってしまうために、ブルーバックのB輝度基準では精度よく頭部位置が検出できない。
【0005】
そこで、本発明は、被撮影者が黒髪でない場合でも、被撮影者の頭部位置を精度よく検出することができ、被撮影者の顔の位置を撮影画像内で理想状態になるように配置できる人物画像撮影方法および人物画像撮影装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明の人物画像撮影方法は、特定色を背景とする被撮影者の少なくとも顔を含む画像を撮影する第1のステップと、この第1のステップにより撮影された画像から、前記被撮影者の背景である特定色に対して高輝度を示す色成分輝度および低輝度を示す色成分輝度を求める第2のステップと、2分探索法により、前記第2のステップにより求められた色成分輝度を基準として前記被撮影者の頭部位置を検出する第のステップと、この第のステップにより検出された前記被撮影者の頭部位置を基に前記第1のステップにより撮影された画像から前記被撮影者の所定領域の画像を切出す第のステップと、この第のステップにより切出された前記被撮影者の所定領域の画像を撮影画像として出力する第のステップとを有する。
【0007】
また、本発明の人物画像撮影方法は、前記背景の特定色は青色であり、前記特定色に対して高輝度を示す色成分輝度は青成分輝度であり、前記特定色に対して低輝度を示す色成分輝度は赤成分輝度であることを特徴とする。
【0008】
また、本発明の人物画像撮影装置は、特定色を背景とする被撮影者の少なくとも顔を含む画像を撮影する撮影手段と、この撮影手段により撮影された画像から、前記被撮影者の背景である特定色に対して高輝度を示す色成分輝度および低輝度を示す色成分輝度を求める輝度計算手段と、2分探索法により、前記輝度計算手段により求められた色成分輝度を基準として前記被撮影者の頭部位置を検出する頭部位置検出手段と、この頭部位置検出手段により検出された前記被撮影者の頭部位置を基に前記撮影手段により撮影された画像から前記被撮影者の所定領域の画像を切出す画像切出手段と、この画像切出手段により切出された前記被撮影者の所定領域の画像を撮影画像として出力する出力手段とを具備している。
【0009】
さらに、本発明の人物画像撮影装置は、前記背景の特定色は青色であり、前記特定色に対して高輝度を示す色成分輝度は青成分輝度であり、前記特定色に対して低輝度を示す色成分輝度は赤成分輝度であることを特徴とする。
【0010】
本発明によれば、たとえば、被撮影者の背景として青色(ブルーバック)を用い、青色の青成分輝度および赤成分輝度を基準として被撮影者の頭部位置を検出し、この検出された被撮影者の頭部位置を基に、被撮影者の顔の位置が理想状態になるように被撮影者の上半身像を切出すことにより、被撮影者が黒髪でない場合でも、被撮影者の頭部位置を精度よく検出することができ、被撮影者の顔の位置を撮影画像内で理想状態になるように配置することができる。
【0011】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
【0012】
図1は、本実施の形態に係る人物画像撮影装置の外観構成を概略的に示すものである。この人物画像撮影装置は、被撮影者1を照明する照明器2、被撮影者1の少なくと顔を含む上半身像を撮影する撮影手段としてのCCD形のビデオカメラ3、撮影状態や撮影者(操作者)4の操作情報などを表示する表示器(モニタディスプレイ)5、撮影者4による操作指示により、カメラ3からの入カ画像を加工したり、表示器5や内蔵する記憶部などに対して出力を行なう制御台(制御部)6、被撮影者1が撮影の際に着座する椅子7、および、撮影の際に被撮影者1の背景となる背景板8から構成されている。ここに、背景板8の色は、たとえば、青色に設定されているものとする。
【0013】
図2は、図1に示した人物画像撮影装置の全体的な構成を示すブロック図である。すなわち、カメラ3からのアナログ信号(入力画像)をリアルタイムにデジタル信号に変換し、ビデオメモリやメインメモリなどに転送するビデオキャプチャ部11、ビデオキャプチャ部11の画像データ、および、その他の描画処理を行ない、表示器5への表示制御を行なうビデオアクセラレート部12、画像データおよびその他への各種の演算処理や各種制御などを行なうCPU(セントラル・プロセッシング・ユニット)、画像データや演算結果などを一時保存するメインメモリ、各種周辺機器とのインターフェイスを備えたCPU部13、各種周辺機器を接続する外部バス(たとえば、SCSIなど)を制御する外部バス制御部14、各種OSやアプリケーション、制御用データ、画像データなどを保存するハードディスク装置などの大容量記憶装置15、制御台6の出力データなどを保存する可搬性のある記憶媒体(たとえば、光磁気ディスクなど)16に対してデータの読み書きを行なうリーダライタ部17、操作者(撮影者)4が操作する入力装置としてのキーボード18やマウス19、撮影した顔画像などを例えば印刷出力する出力手段としての画像印刷装置20、および、同一ネットワーク21上の他の各種機器(画像印刷装置や画像ファイリング装置など)との間で相互通信を行なうためのネットワークアダプタ(LANカードなど)22などによって構成されている。
【0014】
図3は、被撮影者1の頭頂位置を検出する際に用いる頭部の探索法を示した概念図である。
【0015】
以下、図4、図5に示すフローチャートおよび図3を参照して本装置の処理動作を説明する。なお、以下に説明する処理は、主にCPU部13内のCPUの制御によって実行される。
【0016】
まず、頭頂位置の検出について説明する。
【0017】
ステップS1にて、ビデオキャプチャ部11を介して得られるカメラ3からの入力画像31(図3参照、以降、撮影画像とも言う)を取込み、CPU部13内のメインメモリに一時格納する。そして、メインメモリ内の入力画像31により、その背景画像部の上端の左右端の各2箇所、合計4点(たとえば、図3のa,b,c,d)の高輝度を示す色成分輝度、この場合は青成分輝度(以下、B輝度と称す)、および、低輝度を示す色成分輝度、この場合は赤成分輝度(以下、R輝度と称す)を求めるとともに、これら求めた4点a,b,c,dのB輝度およびR輝度の各平均値をそれぞれ計算し、この計算した各平均値をブルーバック(背景板8の色である青色)に対する基準値bstd1,rstd1とする。ここに、このステップS1の処理が本発明における第1の輝度計算手段に対応している。
【0018】
次に、ステップS2,S3にて、撮影画像31の上端ラインから所定のラインYRまでの範囲(初期検出範囲)において、上端から順次、横方向に走査することにより、その走査ライン(探索ライン)に対し、以下に説明する2分探索法によりB輝度平均値を基準で頭頂位置の検出を行なう。ここに、このステップS2,S3の処理が本発明における第1の頭頂位置検出手段に対応している。
【0019】
1.横方向の走査ラインのある範囲内(たとえば、図3に示すXスタートラインからXエンドラインまでの間)において、撮影画像31の左端から所定画素おきにB輝度を調べることにより、ステップS1にて求めたB輝度平均値bstd1±α(αは誤差分)内にないB輝度の画素数をカウントする。
【0020】
2.上記1でのカウント値があらかじめ設定される基準値bnmax1を越えた走査ラインを頭部が存在する走査ライン(図3の例では、3回目の探索ライン、n回目の探索ライン)とする。
【0021】
3.上記2で調べた走査ラインに頭部が存在する揚合は、その走査ラインよりも上方向の検出範囲の半分の距離に位置する走査ラインについて調べ、その走査ラインに頭部が存在しない場合は、その走査ラインよりも下方向の検出範囲の半分の距離に位置する走査ラインについて調ベる。このように、検出範囲を1/2にしてライン調査を繰り返して行なうことにより、頭頂位置を絞り込む(検出)ものである。
【0022】
このようにして、B輝度基準で頭頂位置が確定された場合、ステップS4に進み、ノイズ検出処理として、頭頂位置が確定された走査ラインよりも下方向において、頭部が存在する走査ラインが所定のライン数YN以上存在することを確認する。
【0023】
ステップS2,S3において、B輝度基準で頭頂位置の検出ができなかった場合、ステップS5,S6に進み、撮影画像31の上端ラインから所定のラインYRまでの範囲(初期検出範囲)において、上端から順次、横方向に走査することにより、その走査ライン(探索ライン)に対し、ステップS2,S3と同様な2分探索法により、R輝度平均値を基準で頭頂位置の検出を行なう。ただし、R輝度の基準値はrstd1±β(βは誤差分)、最大カウント数をrnmax1とする。ここに、このステップS5,S6の処理が本発明における第2の頭頂位置検出手段に対応している。
【0024】
このようにして、R輝度基準で頭頂位置が確定された場合、ステップS4に進み、ノイズ検出処理を行なう。R輝度基準で頭頂位置が確定されない場合、ステップS22に進み、エラー処理を行なって、撮影処理を終了する。ここに、このステップS22の処理が本発明におけるエラー処理手段に対応している。
【0025】
なお、ステップS22におけるエラー処理とは、たとえば、エラーの内容をCPU部13内のメインメモリに格納して、後で参照可能にするとともに、エラーの内容を表示器5に表示して、撮影者4に案内する。
【0026】
次に、左右頭側位置の検出について説明する。
【0027】
まず、左頭側位置を検出する。
【0028】
ステップS7にて、CPU部13内のメインメモリに格納されている撮影画像31により、その画像の上記のようにして検出された頭頂位置の近辺における背景画像部の左右端の各2箇所、合計4点の高輝度を示す色成分輝度、この場合は青成分輝度(以下、B輝度と称す)、および、低輝度を示す色成分輝度、この場合は赤成分輝度(以下、R輝度と称す)を求めるとともに、これら求めた4点のB輝度およびR輝度の各平均値をそれぞれ計算し、この計算した各平均値をブルーバック(背景板8の色である青色)に対する基準値bstd2,rstd2とする。ここに、このステップS7の処理が本発明における第2の輝度計算手段に対応している。
【0029】
次に、ステップS8,S9にて、撮影画像31の左端ラインから所定のラインXR1までの範囲(初期検出範囲)において、左端から順次、縦方向に走査することにより、その走査ライン(探索ライン)に対し、以下に説明する2分探索法によりB輝度平均値を基準で左頭側位置の検出を行なう。ここに、このステップS8,S9の処理が本発明における第1の頭側位置検出手段に対応している。
【0030】
1.縦方向の走査ラインのある範囲内(たとえば、図3に示す頭頂ラインからYエンドラインまでの間)において、撮影画像31の上端から所定画素おきにB輝度を調べることにより、ステップS7にて求めたB輝度平均値bstd2±α(αは誤差分)内にないB輝度の画素数をカウントする。
【0031】
2.上記1でのカウント値があらかじめ設定される基準値bnmax2を越えた走査ラインを頭部が存在する走査ラインとする。
【0032】
3.上記2で調べた走査ラインに頭部が存在する揚合は、その走査ラインよりも左方向の検出範囲の半分の距離に位置する走査ラインについて調べ、その走査ラインに頭部が存在しない場合は、その走査ラインよりも右方向の検出範囲の半分の距離に位置する走査ラインについて調ベる。このように、検出範囲を1/2にしてライン調査を繰り返して行なうことにより、左頭側位置を絞り込む(検出)ものである。
【0033】
このようにして、B輝度基準で左頭側位置が確定された場合、ステップS10に進み、ノイズ検出処理として、左頭側位置が確定された走査ラインよりも右方向において、頭部が存在する走査ラインが所定のライン数XN1以上存在することを確認する。
【0034】
ステップS8,S9において、B輝度基準で左頭側位置の検出ができなかった場合、ステップS11,S12に進み、撮影画像31の左端ラインから所定のラインXR1までの範囲(初期検出範囲)において、左端から順次、縦方向に走査することにより、その走査ライン(探索ライン)に対し、ステップS8,S9と同様な2分探索法により、R輝度平均値を基準で左頭側位置の検出を行なう。ただし、R輝度の基準値はrstd2±β(βは誤差分)、最大カウント数をrnmax2とする。ここに、このステップS11,S12の処理が本発明における第2の頭側位置検出手段に対応している。
【0035】
このようにして、R輝度基準で左頭側位置が確定された場合、ステップS10に進み、ノイズ検出処理を行なう。R輝度基準で左頭側位置が確定されない場合、ステップS22に進み、エラー処理を行なって、撮影処理を終了する。
【0036】
次に、右頭側位置を検出する。
【0037】
ステップS13,S14にて、撮影画像31の右端ラインから所定のラインXR2までの範囲(初期検出範囲)において、右端から順次、縦方向に走査することにより、その走査ライン(探索ライン)に対し、以下に説明する2分探索法によりB輝度平均値を基準で右頭側位置の検出を行なう。ここに、このステップS13,S14の処理が本発明における第1の頭側位置検出手段に対応している。
【0038】
1.縦方向の走査ラインのある範囲内(たとえば、図3に示す頭頂ラインからYエンドラインまでの間)において、撮影画像31の上端から所定画素おきにB輝度を調べることにより、ステップS7にて求めたB輝度平均値bstd2±α(αは誤差分)内にないB輝度の画素数をカウントする。
【0039】
2.上記1でのカウント値があらかじめ設定される基準値bnmax2を越えた走査ラインを頭部が存在する走査ラインとする。
【0040】
3.上記2で調べた走査ラインに頭部が存在する揚合は、その走査ラインよりも右方向の検出範囲の半分の距離に位置する走査ラインについて調べ、その走査ラインに頭部が存在しない場合は、その走査ラインよりも左方向の検出範囲の半分の距離に位置する走査ラインについて調ベる。このように、検出範囲を1/2にしてライン調査を繰り返して行なうことにより、右頭側位置を絞り込む(検出)ものである。
【0041】
このようにして、B輝度基準で右頭側位置が確定された場合、ステップS15に進み、ノイズ検出処理として、右頭側位置が確定された走査ラインよりも左方向において、頭部が存在する走査ラインが所定のライン数XN1以上存在することを確認する。
【0042】
ステップS13,S14において、B輝度基準で右側位置の検出ができなかった場合、ステップS16,S17に進み、撮影画像31の右端ラインから所定のラインXR2までの範囲(初期検出範囲)において、右端から順次、縦方向に走査することにより、その走査ライン(探索ライン)に対し、ステップS13,S14と同様な2分探索法により、R輝度平均値を基準で右頭側位置の検出を行なう。ただし、R輝度の基準値はrstd2±β(βは誤差分)、最大カウント数をrnmax2とする。ここに、このステップS16,S17の処理が本発明における第2の頭側位置検出手段に対応している。
【0043】
このようにして、R輝度基準で右頭側位置が確定された場合、ステップS15に進み、ノイズ検出処理を行なう。R輝度基準で右頭側位置が確定されない場合、ステップS22に進み、エラー処理を行なって、撮影処理を終了する。
【0044】
なお、説明の便宜上から、頭頂位置の検出を行なってから左右頭側位置の検出を行なうように説明したが、実際は頭頂位置の検出と左右頭側位置の検出は並列的に行なわれている。
【0045】
さて、頭頂位置および左右頭側位置の検出が終了すると、ステップS18に進み、検出された左右頭側位置の中央位置を算出し、それを顔中央位置CCとする。ここに、このステップS18の処理が本発明における顔中央位置計算手段に対応している。
【0046】
次に、ステップS19にて、先に検出された頭頂位置および顔中央位置CCが、あらかじめ設定される基準範囲内に存在するか否かを確認する。この確認の結果、基準範囲内に存在しない場合、ステップS22に進み、エラー処理を行なって、撮影処理を終了する。ここに、このステップS19の処理が本発明における判定手段に対応している。
【0047】
上記確認の結果、基準範囲内に存在する場合、ステップS20に進み、先に検出された頭頂位置および左右頭側位置を基に、CPU部13内のメインメモリに格納されている撮影画像31から被撮影者1の上半身像を切出す。切出された上半身像の一例を図3の符号32で示す。ここに、このステップS20の処理が本発明における上半身切出手段に対応している。
【0048】
次に、ステップS21にて、切出された上半身像32を出力用に変換し、被撮影者1のその他の個人情報とともに、目的に応じ、CPU部13に接続された画像印刷装置20、あるいは、ネットワークアダプタ22からネットワーク21上に接続された画像印刷装置(図示しない)において、記録媒体(用紙、カードなど)に印刷出力したり、同ネットワーク21上に接続された画像保存手段としての画像ファイリング装置(図示しない)に対して保存出力したり、さらには、CPU部13内のメインメモリあるいは大容量記憶装置15や可搬性のある記憶媒体16を画像保存手段として用いることにより、それに対して記憶(保存出力)する。これで、被撮影者1人に対する全ての撮影処理が終了する。
【0049】
なお、撮影した顔画像を印刷出力するか保存出力するかは目的に応じて選択すればよく、顔画像の出力方法は任意である。
【0050】
以上説明したような頭部位置検出アルゴリズムにより、被撮影者1が黒髪でない場合においても、被撮影者の頭部位置を高精度に検出可能となる。一例として、黒髪、白髪、無頭髪の揚合、被撮影者の頭部位置のRGB値は下記表1に示すような値となる。
【0051】
【表1】

Figure 0004327317
【0052】
上記表1から明らかなように、黒髪の揚合はB輝度がブルーバックのB輝度とかけ離れているため、B輝度基準のみで頭部位置を精度よく検出できる。また、白髪、無頭髪の揚合、B輝度がブルーバックのB輝度とほとんど同じため、B輝度基準では検出できないが、R輝度がブルーバックのR輝度とかけ離れているため、R輝度基準により頭部位置を精度よく検出できることがわかる。
【0053】
なお、前記実施の形態では、被撮影者の背景としてブルーバックを用い、ブルーバックのB輝度およびR輝度を基準として被撮影者の頭部位置を検出する場合について説明したが、本発明はこれに限定されるものでなく、たとえば、被撮影者の背景として赤色や緑色などの他の特定色を用いてもよい。その場合、被撮影者の背景である特定色に対して高輝度を示す色成分輝度および低輝度を示す色成分輝度を基準として被撮影者の頭部位置を検出する。
【0054】
【発明の効果】
以上詳述したように本発明によれば、被撮影者が黒髪でない場合でも、被撮影者の頭部位置を精度よく検出することができ、被撮影者の顔の位置を撮影画像内で理想状態になるように配置できる人物画像撮影方法および人物画像撮影装置を提供できる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る人物画像撮影装置の外観構成を概略的に示す構成図。
【図2】図1に示した人物画像撮影装置の全体的な構成を示すブロック図。
【図3】被撮影者の頭頂位置を検出する際に用いる頭部の探索法を示した概念図。
【図4】処理動作を説明するためのフローチャート。
【図5】処理動作を説明するためのフローチャート。
【符号の説明】
1……被撮影者
2……照明器
3……ビデオカメラ(撮影手段)
4……撮影者(操作者)
5……表示器(モニタディスプレイ)
6……制御台(制御部)
11……ビデオキャプチャ部
12……ビデオアクセラレート部
13……CPU部
15……大容量記憶媒体
16……記憶媒体
17……リーダライタ部
20……画像印刷装置(出力手段)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a person image photographing method and a person image photographing apparatus for photographing an upper body image including at least a face of a person to be photographed, for example, for the purpose of creating an identification photograph to be affixed to an identification card or various licenses. About.
[0002]
[Prior art]
In general, in this type of human image photographing device, it is necessary to consider that the size and position of the face of the person to be photographed have a certain ratio (ideal state) in the photographed image. Conventionally, for example, blue (hereinafter referred to as a blue background) is used as a background of a subject, and a large area is photographed in advance in view of variations in the height of the subject, and the blue component luminance of the blue background (hereinafter, referred to as a blue background). The head position is detected from the top position and the left and right head positions of the subject on the basis of the brightness (referred to as B brightness), and the face position of the subject is in an ideal state in the photographed image based on the detected head position. A method of cutting out the upper body image of the subject from the photographed image was used.
[0003]
[Problems to be solved by the invention]
Assuming that the person to be photographed is a general Japanese with black hair, the head position of the person to be photographed (black hair part) is lower than the B brightness of the blue background, so the head position is detected with high accuracy. Is possible.
[0004]
However, due to the recent increase in the population of foreigners and aging in Japan, the possibility that the subject is not black hair is also fully considered. For example, when the subject is white hair or headless hair, the B brightness at the head position becomes high, and therefore the head position cannot be detected with high accuracy based on the blue back B brightness.
[0005]
Therefore, the present invention can accurately detect the position of the head of the photographed person even when the photographed person is not black hair, and is arranged so that the position of the face of the photographed person is in an ideal state in the photographed image. An object of the present invention is to provide a person image photographing method and a person image photographing device capable of performing the same.
[0006]
[Means for Solving the Problems]
The human image capturing method of the present invention includes a first step of capturing an image including at least a face of a subject having a specific color as a background, and an image captured by the first step. The second step for obtaining the color component luminance indicating high luminance and the color component luminance indicating low luminance for the specific color as the background, and the color component luminance obtained in the second step by the binary search method. a third step of detecting the head position of the person to be photographed as a reference, from the third image captured by the first step based on the head position of the person to be photographed, which is detected by the step wherein a fourth step of cutting out an image of a predetermined region of the person to be photographed, and a fifth step of outputting an image of a predetermined region of the person to be photographed cut out by the fourth step as a captured image .
[0007]
In the human image photographing method of the present invention, the specific color of the background is blue, the color component luminance indicating high luminance with respect to the specific color is blue component luminance, and the low luminance with respect to the specific color. The color component luminance shown is a red component luminance.
[0008]
Further, the human image photographing device of the present invention includes a photographing means for photographing an image including at least the face of the photographed person with a specific color as a background, and an image photographed by the photographing means in the background of the photographed person. Luminance calculation means for obtaining a color component brightness indicating a high brightness and a color component brightness indicating a low brightness for a specific color, and by means of a binary search method, the color component brightness determined by the brightness calculation means is used as a reference. Head position detection means for detecting the head position of the photographer, and the subject from the image photographed by the photographing means based on the head position of the subject photographed by the head position detection means An image cutting means for cutting out an image of the predetermined area, and an output means for outputting the image of the predetermined area of the photographed person cut out by the image cutting means as a taken image.
[0009]
Further, in the human image photographing device of the present invention, the specific color of the background is blue, the color component luminance indicating high luminance with respect to the specific color is blue component luminance, and the low luminance with respect to the specific color. The color component luminance shown is a red component luminance.
[0010]
According to the present invention, for example, blue (blue back) is used as the background of the subject, the head position of the subject is detected based on the blue component luminance and the red component luminance of blue, and the detected subject is detected. Based on the photographer's head position, by cutting out the upper body image of the photographed person so that the face position of the photographed person is in an ideal state, even if the photographed person is not black hair, The position of the part can be detected with high accuracy, and the position of the face of the subject can be arranged in an ideal state in the captured image.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0012]
FIG. 1 schematically shows an external configuration of a human image photographing apparatus according to the present embodiment. This person image photographing device includes an illuminator 2 that illuminates a person to be photographed 1, a CCD type video camera 3 as photographing means for photographing an upper body image including at least a face of the person to be photographed 1, a photographing state and a photographer ( An operator) a display (monitor display) 5 that displays the operation information of the operator 4, and an input image from the camera 3 is processed according to an operation instruction from the photographer 4, or the display 5 or a built-in storage unit A control table (control unit) 6 that performs output, a chair 7 on which the person to be photographed 1 sits when photographing, and a background plate 8 that becomes the background of the person to be photographed 1 when photographing. Here, it is assumed that the color of the background plate 8 is set to blue, for example.
[0013]
FIG. 2 is a block diagram showing an overall configuration of the person image photographing device shown in FIG. That is, an analog signal (input image) from the camera 3 is converted into a digital signal in real time and transferred to a video memory, a main memory or the like, and image data of the video capture unit 11 and other drawing processes are performed. The video accelerator 12 for controlling the display on the display 5, the CPU (Central Processing Unit) for performing various arithmetic processes and various controls on the image data and others, the image data and the calculation results are temporarily stored. Main memory to be stored, CPU unit 13 having an interface with various peripheral devices, external bus control unit 14 for controlling an external bus (for example, SCSI) connecting various peripheral devices, various OSs and applications, control data, Hard disk device that stores image data, etc. A mass storage device 15, a reader / writer unit 17 for reading / writing data from / to a portable storage medium (for example, a magneto-optical disk) 16 for storing output data of the control stand 6, and an operator (photographer) The keyboard 18 and mouse 19 as input devices operated by 4, the image printing device 20 as output means for printing out, for example, a captured face image, and other various devices (image printing device and image on the same network 21). A network adapter (LAN card or the like) 22 for performing mutual communication with a filing device or the like.
[0014]
FIG. 3 is a conceptual diagram showing a head search method used when detecting the top position of the subject 1.
[0015]
The processing operation of the present apparatus will be described below with reference to the flowcharts shown in FIGS. 4 and 5 and FIG. Note that the processing described below is mainly executed under the control of the CPU in the CPU unit 13.
[0016]
First, detection of the top position will be described.
[0017]
In step S <b> 1, an input image 31 (see FIG. 3, hereinafter also referred to as a captured image) obtained from the camera 3 obtained via the video capture unit 11 is captured and temporarily stored in the main memory in the CPU unit 13. Then, according to the input image 31 in the main memory, the color component luminance indicating the high luminance of a total of four points (for example, a, b, c, d in FIG. 3) at the two left and right ends of the upper end of the background image portion. In this case, the blue component luminance (hereinafter referred to as “B luminance”) and the color component luminance indicating low luminance, in this case, the red component luminance (hereinafter referred to as “R luminance”) are obtained, and these four points a , B, c, and d, the average values of B luminance and R luminance are calculated, and the calculated average values are set as reference values bstd1 and rstd1 for the blue background (blue which is the color of the background plate 8). Here, the processing in step S1 corresponds to the first luminance calculation means in the present invention.
[0018]
Next, in steps S2 and S3, the scanning line (search line) is scanned in the horizontal direction sequentially from the upper end in the range (initial detection range) from the upper end line of the captured image 31 to the predetermined line YR. On the other hand, the top position is detected based on the B luminance average value by the binary search method described below. Here, the processing in steps S2 and S3 corresponds to the first top position detecting means in the present invention.
[0019]
1. In step S1, by examining the B luminance at every predetermined pixel from the left end of the captured image 31 within a certain range of the horizontal scanning line (for example, from the X start line to the X end line shown in FIG. 3). The number of B luminance pixels that are not within the obtained B luminance average value bstd1 ± α (α is an error) is counted.
[0020]
2. A scanning line in which the count value in 1 exceeds a preset reference value bnmax1 is a scanning line where the head exists (in the example of FIG. 3, the third search line and the nth search line).
[0021]
3. In the case where the head is present in the scanning line examined in 2 above, the scanning line located at a half distance of the detection range above the scanning line is examined, and when the head does not exist in the scanning line, The scanning line located at half the distance of the detection range below the scanning line is examined. In this way, the head position is narrowed down (detected) by repeating the line investigation with the detection range halved.
[0022]
In this way, when the top position is determined on the basis of the B luminance, the process proceeds to step S4, and as a noise detection process, a scan line where the head is present is predetermined in a downward direction from the scan line where the top position is determined. It is confirmed that there are more than YN lines.
[0023]
In Steps S2 and S3, when the head position cannot be detected based on the B luminance, the process proceeds to Steps S5 and S6, and from the upper end in the range (initial detection range) from the upper end line of the captured image 31 to the predetermined line YR. By sequentially scanning in the horizontal direction, the top position is detected for the scanning line (search line) based on the R luminance average value by the binary search method similar to steps S2 and S3. However, the reference value of R luminance is rstd1 ± β (β is an error), and the maximum count is rnmax1. Here, the processing in steps S5 and S6 corresponds to the second top position detecting means in the present invention.
[0024]
In this way, when the vertex position is determined on the basis of the R luminance, the process proceeds to step S4, and noise detection processing is performed. If the head position is not determined on the basis of the R luminance, the process proceeds to step S22, error processing is performed, and the photographing process is terminated. Here, the processing in step S22 corresponds to the error processing means in the present invention.
[0025]
Note that the error processing in step S22 is, for example, storing the error content in the main memory in the CPU unit 13 so that it can be referred to later, and displaying the error content on the display 5 so that the photographer Guide to 4.
[0026]
Next, detection of the left and right head side positions will be described.
[0027]
First, the left head side position is detected.
[0028]
In step S7, the imaged image 31 stored in the main memory in the CPU unit 13 is added to each of the two left and right edges of the background image portion in the vicinity of the vertex position detected as described above. Color component luminance indicating high luminance of four points, in this case, blue component luminance (hereinafter referred to as B luminance), and color component luminance indicating low luminance, in this case, red component luminance (hereinafter referred to as R luminance) And the average values of the B luminance and R luminance of the four points thus obtained are calculated, and the calculated average values are used as reference values bstd2, rstd2 for the blue background (blue which is the color of the background plate 8). To do. Here, the processing in step S7 corresponds to the second luminance calculation means in the present invention.
[0029]
Next, in steps S8 and S9, in the range (initial detection range) from the left end line of the captured image 31 to the predetermined line XR1, the scanning line (search line) is sequentially scanned from the left end in the vertical direction. On the other hand, the left side position is detected based on the B luminance average value by the binary search method described below. Here, the processes in steps S8 and S9 correspond to the first head side position detecting means in the present invention.
[0030]
1. In a certain range of the vertical scanning line (for example, from the top line to the Y end line shown in FIG. 3), the B luminance is obtained at every predetermined pixel from the upper end of the photographed image 31, and is obtained in step S7. The number of B luminance pixels that are not within the B luminance average value bstd2 ± α (α is an error) is counted.
[0031]
2. A scanning line in which the count value in 1 exceeds a preset reference value bnmax2 is defined as a scanning line in which the head is present.
[0032]
3. In the case where the head is present in the scanning line examined in 2 above, the scanning line located at a half distance of the detection range in the left direction from the scanning line is examined, and the head is not present in the scanning line. The scanning line located at a distance half the detection range in the right direction from the scanning line is examined. In this way, the left-side position is narrowed (detected) by repeating the line investigation with the detection range being halved.
[0033]
When the left head side position is determined on the basis of the B luminance in this way, the process proceeds to step S10, and as a noise detection process, the head is present in the right direction with respect to the scanning line in which the left head side position is determined. It is confirmed that there are at least a predetermined number of scanning lines XN1.
[0034]
In Steps S8 and S9, when the left head side position cannot be detected based on the B luminance, the process proceeds to Steps S11 and S12, and in the range (initial detection range) from the left end line of the captured image 31 to the predetermined line XR1. By sequentially scanning in the vertical direction from the left end, the left head side position is detected for the scanning line (search line) by using the binary search method similar to steps S8 and S9 on the basis of the R luminance average value. . However, the reference value of R luminance is rstd2 ± β (β is an error), and the maximum count is rnmax2. Here, the processing of steps S11 and S12 corresponds to the second head side position detecting means in the present invention.
[0035]
In this way, when the left head position is determined on the basis of the R luminance, the process proceeds to step S10, and noise detection processing is performed. When the left head side position is not determined on the basis of the R luminance, the process proceeds to step S22, error processing is performed, and the photographing process is ended.
[0036]
Next, the right head side position is detected.
[0037]
In steps S13 and S14, in the range from the right end line of the captured image 31 to the predetermined line XR2 (initial detection range), the scanning line (search line) is sequentially scanned from the right end in the vertical direction. The right-side position is detected based on the B luminance average value by the binary search method described below. Here, the processes in steps S13 and S14 correspond to the first head side position detecting means in the present invention.
[0038]
1. In a certain range of the vertical scanning line (for example, from the top line to the Y end line shown in FIG. 3), the B luminance is obtained at every predetermined pixel from the upper end of the photographed image 31, and is obtained in step S7. The number of B luminance pixels that are not within the B luminance average value bstd2 ± α (α is an error) is counted.
[0039]
2. A scanning line in which the count value in 1 exceeds a preset reference value bnmax2 is defined as a scanning line in which the head is present.
[0040]
3. In the case where the head is present in the scanning line examined in 2 above, the scanning line located at half the distance of the detection range in the right direction from the scanning line is examined, and when the head does not exist in the scanning line The scanning line located at a distance half the detection range in the left direction from the scanning line is examined. As described above, the position of the right head side is narrowed (detected) by repeating the line investigation with the detection range being halved.
[0041]
When the right head side position is determined on the basis of the B luminance in this way, the process proceeds to step S15, and as a noise detection process, the head exists in the left direction from the scanning line in which the right head side position is determined. It is confirmed that there are at least a predetermined number of scanning lines XN1.
[0042]
In Steps S13 and S14, when the right position cannot be detected based on the B luminance, the process proceeds to Steps S16 and S17, and in the range from the right end line of the captured image 31 to the predetermined line XR2 (initial detection range) from the right end. By sequentially scanning in the vertical direction, the right head side position is detected for the scanning line (search line) by the binary search method similar to steps S13 and S14 based on the R luminance average value. However, the reference value of R luminance is rstd2 ± β (β is an error), and the maximum count is rnmax2. Here, the processes in steps S16 and S17 correspond to the second head side position detecting means in the present invention.
[0043]
In this way, when the right head position is determined on the basis of the R luminance, the process proceeds to step S15, and noise detection processing is performed. When the right head side position is not determined on the basis of the R luminance, the process proceeds to step S22, error processing is performed, and the photographing process is terminated.
[0044]
For convenience of explanation, it has been described that the position of the left and right heads is detected after the position of the head is detected, but in reality, the detection of the position of the head and the detection of the positions of the left and right heads are performed in parallel.
[0045]
When the detection of the vertex position and the left and right head side positions is completed, the process proceeds to step S18, the center position of the detected left and right head side positions is calculated, and is set as the face center position CC. Here, the processing in step S18 corresponds to the face center position calculating means in the present invention.
[0046]
Next, in step S19, it is confirmed whether or not the vertex position and face center position CC detected previously are within a preset reference range. If the result of this confirmation is that it is not within the reference range, the process proceeds to step S22, error processing is performed, and the photographing process is terminated. Here, the process of step S19 corresponds to the determination means in the present invention.
[0047]
As a result of the confirmation, if it is within the reference range, the process proceeds to step S20, and from the captured image 31 stored in the main memory in the CPU unit 13 based on the head position and the left and right head positions detected previously. The upper body image of the subject 1 is cut out. An example of the cut out upper body image is indicated by reference numeral 32 in FIG. Here, the processing in step S20 corresponds to the upper body cutting means in the present invention.
[0048]
Next, in step S21, the clipped upper body image 32 is converted for output, and together with other personal information of the person to be photographed 1, the image printing apparatus 20 connected to the CPU unit 13 according to the purpose, or In an image printing apparatus (not shown) connected from the network adapter 22 to the network 21, it is printed out on a recording medium (paper, card, etc.) or image filing as an image storage means connected on the network 21. Save and output to a device (not shown), or store the main memory in the CPU 13 or the large-capacity storage device 15 or the portable storage medium 16 as an image storage means. (Save output). This completes all the photographing processes for one person to be photographed.
[0049]
It should be noted that whether the photographed face image is printed out or stored is selected depending on the purpose, and the method of outputting the face image is arbitrary.
[0050]
With the head position detection algorithm as described above, the head position of the subject can be detected with high accuracy even when the subject 1 is not black hair. As an example, the RGB values of black hair, white hair, headless hair, and the head position of the subject are as shown in Table 1 below.
[0051]
[Table 1]
Figure 0004327317
[0052]
As is apparent from Table 1 above, since the B brightness is far from the B brightness of the blue background, the head position can be accurately detected only with the B brightness reference. In addition, because the brightness of white hair and headless hair and B brightness are almost the same as the B brightness of the blue background, it cannot be detected on the basis of the B brightness, but the R brightness is far from the R brightness of the blue background, so It can be seen that the position of the part can be detected with high accuracy.
[0053]
In the above-described embodiment, the case where a blue background is used as the background of the subject and the head position of the subject is detected based on the B luminance and the R luminance of the blue background has been described. For example, another specific color such as red or green may be used as the background of the subject. In this case, the head position of the subject is detected based on the color component luminance indicating high luminance and the color component luminance indicating low luminance for the specific color that is the background of the subject.
[0054]
【The invention's effect】
As described above in detail, according to the present invention, even when the subject is not black hair, the head position of the subject can be accurately detected, and the face position of the subject is ideal in the captured image. A person image photographing method and a person image photographing apparatus that can be arranged so as to be in a state can be provided.
[Brief description of the drawings]
FIG. 1 is a configuration diagram schematically showing an external configuration of a human image photographing apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing an overall configuration of the person image photographing device shown in FIG. 1;
FIG. 3 is a conceptual diagram showing a head search method used when detecting the top position of a subject.
FIG. 4 is a flowchart for explaining a processing operation.
FIG. 5 is a flowchart for explaining a processing operation;
[Explanation of symbols]
1 ... Subject 2 ... Illuminator 3 ... Video camera (photographing means)
4 ... Photographer (operator)
5 …… Display (monitor display)
6 …… Control stand (control unit)
DESCRIPTION OF SYMBOLS 11 ... Video capture part 12 ... Video acceleration part 13 ... CPU part 15 ... Mass storage medium 16 ... Storage medium 17 ... Reader / writer part 20 ... Image printing apparatus (output means)

Claims (4)

特定色を背景とする被撮影者の少なくとも顔を含む画像を撮影する第1のステップと、
この第1のステップにより撮影された画像から、前記被撮影者の背景である特定色に対して高輝度を示す色成分輝度および低輝度を示す色成分輝度を求める第2のステップと、
2分探索法により、前記第2のステップにより求められた色成分輝度を基準として前記被撮影者の頭部位置を検出する第のステップと、
この第のステップにより検出された前記被撮影者の頭部位置を基に前記第1のステップにより撮影された画像から前記被撮影者の所定領域の画像を切出す第のステップと、
この第のステップにより切出された前記被撮影者の所定領域の画像を撮影画像として出力する第のステップと、
を有することを特徴とする人物画像撮影方法。
A first step of photographing an image including at least a face of a subject with a background of a specific color;
A second step of obtaining a color component luminance indicating a high luminance and a color component luminance indicating a low luminance with respect to a specific color as a background of the subject from the image captured in the first step;
A third step of detecting the head position of the subject based on the color component luminance determined in the second step by a binary search method ;
A fourth step of cutting out an image of the predetermined area of the subject from the image photographed by the first step based on the head position of the subject detected by the third step;
A fifth step of outputting an image of a predetermined region of the person to be photographed cut out by the fourth step as a photographic image,
A person image photographing method characterized by comprising:
前記背景の特定色は青色であり、前記特定色に対して高輝度を示す色成分輝度は青成分輝度であり、前記特定色に対して低輝度を示す色成分輝度は赤成分輝度であることを特徴とする請求項1記載の人物画像撮影方法。  The specific color of the background is blue, the color component luminance indicating high luminance with respect to the specific color is blue component luminance, and the color component luminance indicating low luminance with respect to the specific color is red component luminance. The person image photographing method according to claim 1. 特定色を背景とする被撮影者の少なくとも顔を含む画像を撮影する撮影手段と、
この撮影手段により撮影された画像から、前記被撮影者の背景である特定色に対して高輝度を示す色成分輝度および低輝度を示す色成分輝度を求める輝度計算手段と、
2分探索法により、前記輝度計算手段により求められた色成分輝度を基準として前記被撮影者の頭部位置を検出する頭部位置検出手段と、
この頭部位置検出手段により検出された前記被撮影者の頭部位置を基に前記撮影手段により撮影された画像から前記被撮影者の所定領域の画像を切出す画像切出手段と、
この画像切出手段により切出された前記被撮影者の所定領域の画像を撮影画像として出力する出力手段と、
を具備したことを特徴とする人物画像撮影装置。
Photographing means for photographing an image including at least the face of the subject on the background of the specific color;
Luminance calculation means for obtaining a color component brightness indicating a high brightness and a color component brightness indicating a low brightness with respect to a specific color as a background of the subject from the image photographed by the photographing means ;
A head position detecting means for detecting the head position of the subject with reference to the color component brightness obtained by the brightness calculating means by a binary search method ;
Image cutting means for cutting out an image of a predetermined area of the subject from the image taken by the photographing means based on the head position of the subject detected by the head position detecting means;
An output means for outputting an image of a predetermined area of the photographed person cut out by the image cutting means as a taken image;
A person image photographing device characterized by comprising:
前記背景の特定色は青色であり、前記特定色に対して高輝度を示す色成分輝度は青成分輝度であり、前記特定色に対して低輝度を示す色成分輝度は赤成分輝度であることを特徴とする請求項3記載の人物画像撮影装置。  The specific color of the background is blue, the color component luminance indicating high luminance with respect to the specific color is blue component luminance, and the color component luminance indicating low luminance with respect to the specific color is red component luminance. The person image photographing device according to claim 3.
JP36129299A 1999-12-20 1999-12-20 Person image photographing method and person image photographing apparatus Expired - Lifetime JP4327317B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36129299A JP4327317B2 (en) 1999-12-20 1999-12-20 Person image photographing method and person image photographing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36129299A JP4327317B2 (en) 1999-12-20 1999-12-20 Person image photographing method and person image photographing apparatus

Publications (2)

Publication Number Publication Date
JP2001177740A JP2001177740A (en) 2001-06-29
JP4327317B2 true JP4327317B2 (en) 2009-09-09

Family

ID=18472983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36129299A Expired - Lifetime JP4327317B2 (en) 1999-12-20 1999-12-20 Person image photographing method and person image photographing apparatus

Country Status (1)

Country Link
JP (1) JP4327317B2 (en)

Also Published As

Publication number Publication date
JP2001177740A (en) 2001-06-29

Similar Documents

Publication Publication Date Title
US7973828B2 (en) Red-eye filter method and apparatus
US6344907B1 (en) Image modification apparatus and method
JP4072071B2 (en) Face image correction method and apparatus, and face image correction program
US6591005B1 (en) Method of estimating image format and orientation based upon vanishing point location
US20050179780A1 (en) Face detecting apparatus and method
JP2002152492A (en) Image processing device, its method, and recording medium
JP2008523504A (en) Automatic discrimination of digital image acceptability
JP2005339522A (en) Method for automatically identifying hair region
JP2005086516A (en) Imaging device, printer, image processor and program
US11283987B2 (en) Focus region display method and apparatus, and storage medium
JP4200419B2 (en) PHOTO EXTRACTION METHOD, DEVICE, PROGRAM, AND RECORDING MEDIUM
JP4327317B2 (en) Person image photographing method and person image photographing apparatus
US20210281742A1 (en) Document detections from video images
JP4222013B2 (en) Image correction apparatus, character recognition method, and image correction program
JP4316063B2 (en) Face image photographing method and face image photographing apparatus
JP2000292852A (en) Face picture photographing device
JP4091184B2 (en) Camera and image generation method
JP5293422B2 (en) Image specifying device and image specifying program
JP3869635B2 (en) Image processing apparatus, image processing method, recording medium, and print system
EP0883287A1 (en) Image processing system with automatic image separation and alignment functions
JP2003187257A (en) Image creation system
JP4454841B2 (en) Face image photographing apparatus and face image photographing method
JPH06282630A (en) Video id photo system
JP3120074B2 (en) Identification photograph creation device and recording medium recording identification photograph creation program
JP2006178649A (en) Photographing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090519

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090611

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120619

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4327317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120619

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120619

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130619

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term