JP2009081527A - 顔撮影装置 - Google Patents
顔撮影装置 Download PDFInfo
- Publication number
- JP2009081527A JP2009081527A JP2007247428A JP2007247428A JP2009081527A JP 2009081527 A JP2009081527 A JP 2009081527A JP 2007247428 A JP2007247428 A JP 2007247428A JP 2007247428 A JP2007247428 A JP 2007247428A JP 2009081527 A JP2009081527 A JP 2009081527A
- Authority
- JP
- Japan
- Prior art keywords
- face
- edge point
- data
- face image
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】より良好に顔の位置合わせを行うことができる顔撮影装置を提供する。
【解決手段】2以上の検出ラインL1〜L3上における撮影(抽出)した顔画像の輪郭との交点を検出エッジポイントPとして検出し、それらの検出ラインL1〜L3上の基準エッジポイントと比較する。そして、各検出エッジポイントPの基準エッジポイントに対するずれ方向及びずれ量に応じた位置合わせ情報を出力し、その位置合わせ情報に基づいて顔の位置合わせを行う。これにより、顔の位置が左右方向にずれているときと、顔の角度がずれているときとを区別することができるので、より良好に顔の位置合わせを行うことができる。
【選択図】 図4
【解決手段】2以上の検出ラインL1〜L3上における撮影(抽出)した顔画像の輪郭との交点を検出エッジポイントPとして検出し、それらの検出ラインL1〜L3上の基準エッジポイントと比較する。そして、各検出エッジポイントPの基準エッジポイントに対するずれ方向及びずれ量に応じた位置合わせ情報を出力し、その位置合わせ情報に基づいて顔の位置合わせを行う。これにより、顔の位置が左右方向にずれているときと、顔の角度がずれているときとを区別することができるので、より良好に顔の位置合わせを行うことができる。
【選択図】 図4
Description
本発明は、基準顔画像に対する顔の位置合わせを行って顔画像を撮影する顔撮影装置に関するものである。
美容皮膚科、美容外科及び形成外科などでは、顔撮影装置により人(被撮影者)の顔を定期的に撮影し、肌の状態の経時的な変化を観察することにより、化粧品や肌治療の効果を確認する作業が行なわれる場合がある(例えば、特許文献1参照)。具体的には、得られた顔画像からシミ、シワ、毛穴及び色ムラなどの評価が行なわれ、さらには、紫外線を使用したポルフィリン及びかくれジミなどの評価も行なわれている。
このような肌状態の評価を行うために、以前に撮影した顔画像を今回撮影した顔画像と比較する場合がある。このような場合には、以前の顔画像と今回の顔画像とができるだけ同じ条件で撮影されていることが好ましく、その条件の一例として顔の位置及び角度が挙げられる。すなわち、今回撮影した顔画像における顔の位置及び角度が、以前に撮影した顔画像と異なる場合には、シミ、シワ、毛穴及び色ムラなどの位置や大きさを正確に評価することができないおそれがある。
ここで、顔画像をできるだけ同じ条件で撮影する方法としては、頭頂部を検出して基準位置にあるか否かを判定する方法(例えば、特許文献2参照)や、目、耳、鼻などの顔の特徴部分を検出して基準位置にあるか否かを判定する方法(例えば、特許文献3参照)などが提案されている。
しかしながら、特許文献2に開示されている技術のように、頭頂部を検出する場合には、たとえ頭頂部が基準位置にある場合であっても、顔の角度が一致しない場合がある。また、特許文献3に開示されている技術のように、目、耳、鼻などの顔の特徴部分を検出する場合には、その特徴部分の位置を正確に検出することが比較的難しい。そのため、従来の技術では、顔の位置合わせを良好に行うことができないおそれがあった。
本発明は、上記実情に鑑みてなされたものであり、より良好に顔の位置合わせを行うことができる顔撮影装置を提供することを目的とする。
第1の本発明に係る顔撮影装置は、基準顔画像に対する顔の位置合わせを行って顔画像を撮影する顔撮影装置であって、予め定められた2以上の検出ライン上における上記基準顔画像の輪郭との交点を基準エッジポイントとして記憶する基準エッジポイント記憶手段と、上記2以上の検出ライン上における撮影した顔画像の輪郭との交点を検出エッジポイントとして検出するエッジポイント検出手段と、上記基準エッジポイント及び上記検出エッジポイントを比較するエッジポイント比較手段とを備えたことを特徴とする。
このような構成によれば、2以上の検出ライン上における撮影した顔画像の輪郭との交点を検出エッジポイントとして検出し、それらの検出ライン上の基準エッジポイントと比較することによって、顔の位置合わせを行うことができる。
ここで、1つの検出ライン上における検出エッジポイントについてのみ基準エッジポイントと比較するような構成の場合には、顔の位置が左右方向にずれているときと、顔の角度がずれているときとで、基準エッジポイントに対する検出エッジポイントのずれ量が同一となる場合がある。これに対して、本発明のように2以上の検出ラインにおける検出エッジポイントについて基準エッジポイントと比較するような構成によれば、顔の位置が左右方向にずれているときと、顔の角度がずれているときとを区別することができるので、より良好に顔の位置合わせを行うことができる。
第2の本発明に係る顔撮影装置は、上記エッジポイント比較手段による比較結果に基づいて、顔の位置合わせ情報を出力する位置合わせ情報出力手段を備えたことを特徴とする。
このような構成によれば、基準エッジポイント及び検出エッジポイントの比較結果に基づいて顔の位置合わせ情報を出力し、その位置合わせ情報に基づいて顔の位置合わせを行うことができる。したがって、顔の位置をどのようにずらせばよいかが分かりやすいので、より良好に顔の位置合わせを行うことができる。
第3の本発明に係る顔撮影装置は、上記エッジポイント検出手段が、撮影した顔画像の明度データに基づいて上記検出エッジポイントを検出することを特徴とする。
このような構成によれば、撮影した顔画像の明度データに基づいて、検出エッジポイントを良好に検出することができる。すなわち、顔の輪郭部分では明度データの変化量が大きいため、この明度データに基づいて検出エッジポイントを良好に検出することができる。
第4の本発明に係る顔撮影装置は、上記検出ラインに平行な複数ラインにおける撮影した顔画像の明度データを平均化する明度平均化処理手段を備え、上記エッジポイント検出手段が、上記明度平均化処理手段により平均化された明度データに基づいて上記検出エッジポイントを検出することを特徴とする。
このような構成によれば、検出ラインに平行な複数ラインにおける撮影した顔画像の明度データを平均化することにより、明度データのノイズを除去することができるので、検出エッジポイントをさらに良好に検出することができる。
第5の本発明に係る顔撮影装置は、上記検出ライン上における明度データを、その最大値を基準とする明度データに変換することにより正規化する明度正規化処理手段を備え、上記エッジポイント検出手段が、上記明度正規化処理手段により正規化された明度データに基づいて上記検出エッジポイントを検出することを特徴とする。
このような構成によれば、撮影した顔画像と基準顔画像とで全体的な明度差がある場合であっても、明度データの最大値を基準として正規化された検出ライン上の明度データに基づいて検出エッジポイントを検出することにより、検出エッジポイントを良好に検出することができる。
第6の本発明に係る顔撮影装置は、上記エッジポイント検出手段が、撮影した顔画像のRGB各色データのうち、Rデータのみに基づいて上記検出エッジポイントを検出することを特徴とする。
このような構成によれば、撮影した顔画像のRデータのみに基づいて、検出エッジポイントを良好に検出することができる。すなわち、顔の輪郭部分ではRGB各色データのうちRデータの変化量が比較的大きいため、このRデータに基づいて検出エッジポイントを良好に検出することができる。
本発明によれば、2以上の検出ライン上における撮影した顔画像の輪郭との交点を検出エッジポイントとして検出し、それらの検出ライン上の基準エッジポイントと比較することによって、より良好に顔の位置合わせを行うことができる。
<第1実施形態>
図1は、本発明の第1実施形態に係る顔撮影装置Hの構成を示した図であり、筺体1内の構成を横断面図で示している。また、図2は、筺体1の縦断面図である。以下では、図1における上側を前方、下側を後方、左側を左方、右側を右方として説明することとする。
図1は、本発明の第1実施形態に係る顔撮影装置Hの構成を示した図であり、筺体1内の構成を横断面図で示している。また、図2は、筺体1の縦断面図である。以下では、図1における上側を前方、下側を後方、左側を左方、右側を右方として説明することとする。
この顔撮影装置Hは、美容皮膚科、美容外科及び形成外科などで使用され、当該顔撮影装置Hにより人(被撮影者)の顔を定期的あるいは適度な期間を空けて撮影し、肌の状態の経時的な変化を観察することにより、化粧品や肌治療の効果を確認する作業を行なうことができる。この顔撮影装置Hは、得られた顔画像からシミ、シワ、毛穴及び色ムラなどの評価を行なう機能を有し、さらには、紫外線を使用したポルフィリン及びかくれジミなどの評価を行なう機能も有している。ただし、この顔撮影装置Hは、美容皮膚科、美容外科及び形成外科などで被撮影者に対して使用できるだけでなく、他のあらゆる場所において人の顔を撮影する装置として使用可能である。
顔撮影装置Hは、略立方体形状の筺体1を備えており、この筺体1内の所定位置に顔を保持させた状態で顔画像の撮影が行なわれる。筺体1の背面には、開口部1aが形成されており、この開口部1aから被撮影者の顔が挿入される。また、筺体1の背面には、開口部1aからの外光進入を防止するためのカーテン1bが設けられている。すなわち、開口部1aから被撮影者が顔を挿入した状態で、頭の後側をカーテン1bで覆うことにより、室内光などが筺体1内に進入しにくくなるような構造が採用されている。
被撮影者の顔は、顔保持手段としてのあご載せ台2及び額押さえ3により、上記所定位置に保持される。図2に示すように、被撮影者の額に当接する額押さえ3の押さえ部3aは、軸3b周りに回転可能に構成され、左右方向への顔の角度の変更に追従して回転できるようになっている。また、被撮影者のあごに当接するあご載せ台2は、連結部2aを介して軸2b周りに回転可能に構成され、左右方向への顔の角度の変更に追従して回転できるようになっている。したがって、あご載せ台2及び額押さえ3により顔を保持した状態で、顔の角度を左右方向に回転させることができるとともに、その場合でも、追従して回転するあご載せ台2及び額押さえ3により顔を安定して保持することができる。
筺体1内の前方には、顔を撮影するための撮影手段である撮影カメラ4が設けられており、カメラ支持台5を介して筺体1に固定されている。撮影カメラ4は、その光軸が後方に向かって延びるように固定されており、あご載せ台2及び額押さえ3により後方に保持された被撮影者の顔を撮影することができる。より具体的には、顔が撮影カメラ4の光軸に平行な正面方向P0を向いているときには、正面から見た顔画像(正面顔画像)が撮影される。また、顔が撮影カメラ4の光軸に対して左方向へ傾斜した左傾斜方向P1を向いているときには、右斜め前方から見た顔画像(右顔画像)が撮影され、顔が撮影カメラ4の光軸に対して右方向へ傾斜した右傾斜方向P2を向いているときには、左斜め前方から見た顔画像(左顔画像)が撮影される。
左傾斜方向P1は、正面方向P0に対して左方向に角度θだけ傾斜しており、右傾斜方向P2は、正面方向P0に対して右方向に角度θだけ傾斜している。すなわち、左傾斜方向P1及び右傾斜方向P2は、正面方向P0に対して水平面内で逆方向に傾斜しており、正面方向P0に対する傾斜角度θは同一である。この傾斜角度θは、30°〜75°の間に設定され、一般的には40°〜45°に設定される。
ここで、軸3bは押さえ部3aの位置よりも少し後側に設けられており、同様に、軸2bもあご載せ台2のあごが載る位置よりも少し後側に設けられている。また、軸3b及び軸2bは同軸上に設けられており、これらの軸線に対して撮影カメラ4の光軸が直交している。したがって、あご載せ台2及び額押さえ3により顔が保持された状態のまま、軸3b及び軸2bを中心に顔を回転させることにより顔の角度を左右方向へ変更した場合であっても、撮影される顔画像の中心が撮影カメラ4の光軸から大きくずれるのを防止できる。
筺体1内には、顔を照明するための光源8が複数個所に配置されている。各光源8は、図1に示すように顔の位置を中心として円周方向に並べて設けられるとともに、図2に示すように上方及び下方にも設けられており、それぞれ顔に対向するように配置されている。光源8には、可視光を照射する光源と紫外線を照射するブラックライトとがあり、目的に応じて一方又は両方が使用される。可視光を照射する光源8としては、ハロゲンランプ、蛍光灯、LED(Light-Emitting Diode)、フラッシュ光源などの適宜のものを使用することができる。
光源8と顔の位置との間には、光源8から照射される光を均一に拡散するための拡散板9が配置されている。この拡散板9は、図1に示すように、横断面形状が円弧形状(半円形状)である。図2に示すように、拡散板9は、顔に対して水平方向だけでなく、上方及び下方にも配置されており、これにより、顔が拡散板9で包囲されるようになっている。拡散板9における撮影カメラ4の光軸上には、矩形の開口部9aが形成されており、当該開口部9aを介して撮影カメラ4により顔を撮影することができるようになっている。なお、拡散板9は、半円形状のものに限らず、多角形状、楕円形状などの各種形状に形成することができる。
撮影カメラ4及び光源8は、制御装置20に接続されており、当該制御装置20の制御によって動作するようになっている。制御装置20は、顔撮影装置Hの動作を制御する機能の他、撮影カメラ4により撮影された顔画像に関する画像処理を行う機能を有する。制御装置20には、モニター21及びキーボード22を備えた汎用のコンピュータが接続されている。当該顔撮影装置Hの操作者は、キーボード22を操作することによりシャッター操作等の入力操作を行うことができるとともに、撮影カメラ4により撮影された顔画像や画像処理された顔画像等をモニター21で確認することができる。
図3は、この顔撮影装置Hの電気的構成の一例を示したブロック図である。この図3に示すように、顔撮影装置Hは、上述の撮影カメラ4、光源8、モニター21及びキーボード22の他に、コントローラ30、照明制御部31、カメラ制御部32、音声制御部33、スピーカ34、データ保存部35及び画像処理部36などを備えている。
ここで、コントローラ30、照明制御部31、カメラ制御部32、音声制御部33及び画像処理部36は、制御装置20に備えられている。データ保存部35は、制御装置20に備えられていてもよいし、当該制御装置20に接続されたコンピュータのメモリにより構成されていてもよい。スピーカ34は、音声を出力するための音声出力手段であり、制御装置20又は当該制御装置20に接続されたコンピュータに備えられていてもよいし、筺体1内に設けられていてもよい。音声制御部33は、スピーカ34から出力される音声を制御するための音声制御手段である。
コントローラ30は、顔撮影装置Hを統括的に制御するものであり、CPU及びメモリなどにより構成される。照明制御部31は、コントローラ30からの制御信号に基づいて光源8の点灯及び消灯を制御するものであり、顔画像の撮影を行う際に光源8を点灯させる。カメラ制御部32は、コントローラ30からの制御信号に基づいて撮影カメラ4の動作を制御するものであり、撮影カメラ4で顔画像を連続して撮影することにより、複数の静止画像データからなる動画像データを生成することができるとともに、キーボード22によるシャッター操作に基づいて、動画像データより解像度が高い静止画像データを生成することができる。撮影カメラ4により生成される動画像データ及び静止画像データは、データ保存部35に記憶される。画像処理部36は、データ保存部35に記憶された動画像データ及び静止画像データに対する画像処理を行う画像処理手段であり、画像処理後のデータが必要に応じてモニター21に表示される。
本実施形態では、被撮影者の顔を正面方向P0から撮影することにより正面顔画像を撮影した後、左傾斜方向P1に顔を向けて右顔画像を撮影し、さらに右傾斜方向P2に顔を向けて左顔画像を撮影することにより、正面顔画像データ、右顔画像データ及び左顔画像データからなる3つの静止画像データが生成される。すなわち、顔画像を正面方向P0から撮影することにより、正面顔画像データを生成するとともに、正面方向P0に対して左右両方向にそれぞれ同一角度θだけ傾斜した方向から顔画像を撮影することにより、右顔画像データ及び左顔画像データを生成することができる。
正面顔画像、右顔画像及び左顔画像の撮影時には、撮影カメラ4により動画像データが生成され、その動画像データが動画像データ表示手段としてのモニター21にリアルタイムで表示されるようになっている。ここで、リアルタイムとは、データ転送等による若干の時間的誤差を含む概念であり、撮影された動画像データが撮影時とほぼ同時に表示されることを意味している。本実施形態では、正面顔画像、右顔画像及び左顔画像の撮影時に、予め撮影されている基準顔画像に対する顔の位置合わせを行うことにより、顔画像をできるだけ同じ条件で撮影することができるようになっている。
図4は、顔の位置合わせを行う際の態様について説明するための図である。図4では、正面顔画像を撮影する際に顔の位置合わせを行う場合の態様が示されているが、右顔画像及び左顔画像を撮影する際にも同様の態様で顔の位置合わせを行うことができる。
正面顔画像、右顔画像及び左顔画像の撮影時には、撮影カメラ4で撮影されている動画像データから所定のタイミングで静止画像データが抽出され、その抽出された静止画像データに基づく顔画像の輪郭と、それぞれ左右方向に延びる複数の検出ラインL1,L2,L3との交点を検出エッジポイントPとして検出することにより、それらの検出エッジポイントPの位置に基づいて顔の位置合わせを行うことができるようになっている。そして、顔の位置合わせを行った後にキーボード22を用いてシャッター操作を行うことにより、基準顔画像とできるだけ同じ条件で撮影された正面顔画像データ、右顔画像データ及び左顔画像データを得ることができる。
なお、動画像データから抽出される静止画像データは、正面顔画像データ、右顔画像データ及び左顔画像データよりも解像度が低い。以下では、正面顔画像データ、右顔画像データ及び左顔画像データをそれぞれ生成する処理だけでなく、動画像データから静止画像データを抽出する処理も「撮影」に含まれるものとして説明する。
本実施形態では、上記複数の検出ラインとして、顔の中央部付近を左右方向に延びる中央検出ラインL1と、中央検出ラインL1に対して上方に平行に延びる上部検出ラインL2と、中央検出ラインL1に対して下方に平行に延びる下部検出ラインL3とが設定されている。ここで、中央検出ラインL1は鼻の近傍、上部検出ラインL2は目の近傍、下部検出ラインL3は口の近傍に設定されていることが好ましい。
検出エッジポイントPは、各検出ラインL1〜L3における明度データの変化に基づいて検出される。本実施形態では、各検出ラインL1〜L3における明度データに対して、明度平均化処理、移動平均処理及び明度正規化処理などの明度データ処理が行われ、これらの処理後の明度データに基づいて、各検出ラインL1〜L3上における検出エッジポイントPが検出される。
明度平均化処理は、各検出ラインL1〜L3について、その検出ラインL1〜L3を中心とする上下の所定幅W内において、各検出ラインL1〜L3に平行な複数ラインの明度データを平均化する処理である。
移動平均処理は、各検出ラインL1〜L3について、その検出ラインL1〜L3上における左方向又は右方向の一方向に注目ポイントを順次に移動させて、各注目ポイントにおける左右の所定幅内での明度データの平均値を算出し、その平均値を当該注目ポイントの明度データとする処理である。
明度正規化処理は、各検出ラインL1〜L3について、その検出ラインL1〜L3における明度データを、その最大値を基準とする明度データに変換することにより、最大値を「1」とする値に正規化する処理である。
図5は、明度データ処理後の明度データの一例を示した波形図である。この図5に示すように、明度データ処理後の明度データは、明度平均化処理及び移動平均処理によってノイズが除去されるとともに、明度正規化処理によって最大値を「1」とする波形に変換される。
この例では、明度データの最大値「1」と最小値「0」の中間値である「0.5」を閾値として、検出ラインL1〜L3上における当該閾値に対応する位置が検出エッジポイントPとして検出されるようになっている。上記閾値は、「0.5」に限られるものではなく、例えば明度データの平均値を閾値とするなど他の値に設定することもできるが、顔の輪郭部分では明度データの変化量が大きいため、このような明度データの変化量が大きい範囲内で上記閾値を設定することにより、検出エッジポイントPを良好に検出することができる。
本実施形態では、明度平均化処理及び移動平均処理により、明度データのノイズを除去することができるとともに、明度正規化処理により、撮影した顔画像と基準顔画像とで全体的な明度差がある場合であっても、明度データの最大値を基準として正規化された検出ラインL1〜L3上の明度データに基づいて検出エッジポイントPを検出することができるので、検出エッジポイントPを良好に検出することができる。
図6は、画像処理部36の一構成例を示した機能ブロック図である。図6に示すように、画像処理部36は、顔画像抽出部361、明度平均化処理部362、移動平均処理部363、明度正規化処理部364、エッジポイント検出部365、エッジポイント比較部366及び位置合わせ情報出力部367などにより構成され、これらの各機能ブロックは、コントローラ30に備えられたCPUが実行するコンピュータプログラムにより実現される。明度平均化処理部362、移動平均処理部363及び明度正規化処理部364は、明度データに対する処理を行う明度データ処理部368を構成している。
データ保存部35には、図6に示すように、検出ラインL1〜L3に関するデータを記憶する検出ラインデータ記憶部35Aと、基準顔画像に関するデータを記憶する基準顔画像データ記憶部35Bとが割り当てられている。検出ラインデータ記憶部35Aには、中央検出ラインL1、上部検出ラインL2及び下部検出ラインL2の位置情報が記憶されている。検出ラインL1〜L3の位置情報は、固定値であってもよいし、任意の値に変更可能であってもよい。
一方、基準顔画像データ記憶部35Bには、予め撮影されている複数の基準顔画像の静止画像データが記憶されている。基準顔画像データ記憶部35Bは、各基準顔画像に対応付けて、その基準顔画像の輪郭と検出ラインL1〜L3との交点である基準エッジポイントの位置情報を記憶する基準エッジポイント記憶手段を構成している。この基準エッジポイントの位置情報は、検出エッジポイントの場合と同様の態様で、検出ラインL1〜L3上における基準顔画像の輪郭との交点を検出することにより得ることができる。
顔画像抽出部361は、撮影カメラ4により生成される動画像データから静止画像データを抽出する。明度データ処理部368は、検出ラインデータ記憶部35Aに記憶されている各検出ラインL1〜L3の位置情報に基づいて、抽出された静止画像データの各検出ラインL1〜L3における明度データに対して、明度平均化処理部362、移動平均処理部363及び明度正規化処理部364による処理を行う。
明度平均化処理部362は、各検出ラインL1〜L3の明度データについて明度平均化処理を行うことにより、各検出ラインL1〜L3に平行な複数ラインにおける明度データを平均化する明度平均化処理手段である。移動平均処理部363は、各検出ラインL1〜L3の明度データについて移動平均処理を行う移動平均処理手段である。明度正規化処理部364は、各検出ラインL1〜L3の明度データについて明度正規化処理を行うことにより、各検出ラインL1〜L3における明度データを、その最大値を基準とする明度データに変換することにより正規化する明度正規化処理手段である。
エッジポイント検出部365は、明度データ処理部368による処理後の明度データに基づいて、各検出ラインL1〜L3上における顔画像の輪郭との交点を検出エッジポイントPとして検出するエッジポイント検出手段である。より具体的には、上述の通り、各検出ラインL1〜L3上における明度データ処理後の明度データが閾値と比較され、当該閾値に対応する位置が検出エッジポイントPとして検出される。
エッジポイント比較部366は、エッジポイント検出部365により検出された各検出ラインL1〜L3上における検出エッジポイントPと、基準顔画像データ記憶部35Bに記憶されている各検出ラインL1〜L3上における基準エッジポイントの位置情報とを比較するエッジポイント比較手段である。
位置合わせ情報出力部367は、エッジポイント比較部366による比較結果に基づいて、顔の位置合わせ情報を出力する位置合わせ情報出力手段である。上記位置合わせ情報は、各検出エッジポイントPを対応する基準エッジポイントに近似させるための情報であって、各検出エッジポイントPの基準エッジポイントに対するずれ方向及びずれ量に応じた情報として出力される。位置合わせ情報出力部367から出力された位置合わせ情報は、スピーカ34から音声として出力されることにより、当該顔撮影装置Hの操作者又は被撮影者に報知されるようになっている。
図7は、顔の位置合わせ情報の決定方法について説明するための図であり、基準顔画像データに基づく顔画像に対して顔の位置が水平方向にずれている場合を示している。また、図8は、顔の位置合わせ情報の決定方法について説明するための図であり、基準顔画像データに基づく顔画像に対して顔の角度がずれている場合を示している。
なお、図7及び図8では、基準顔画像データに基づく顔画像を破線で示すとともに、撮影カメラ4により生成される動画像データから抽出された静止画像データに基づく顔画像を実線で示している。また、各検出ラインL1〜L3上における各検出エッジポイントPの基準エッジポイントに対するずれ方向を矢印の向きで示すとともに、そのずれ量を矢印の長さで示している。
図7(a)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が左方向へずれている場合が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、顔が右方向へ水平にずれた状態で撮影された顔画像が示されている。この場合、各検出ラインL1〜L3上における各検出エッジポイントPが、図7(a)に矢印で示すように、それぞれ基準エッジポイントに対して同一のずれ方向(左方向)へ同一のずれ量でずれることとなる。
図7(b)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が右方向へずれている場合が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、顔が左方向へ水平にずれた状態で撮影された顔画像が示されている。この場合、各検出ラインL1〜L3上における各検出エッジポイントPが、図7(b)に矢印で示すように、それぞれ基準エッジポイントに対して同一のずれ方向(右方向)へ同一のずれ量でずれることとなる。
図7(c)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が中央部を基準に縮小している場合が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、顔が後方向へ水平にずれた状態で撮影された顔画像が示されている。この場合、図7(c)に矢印で示すように、各検出ラインL1〜L3上における各検出エッジポイントPのうち、右側の各検出エッジポイントPと左側の各検出エッジポイントPとが、それぞれ逆方向であって互いに近づく方向へ同一のずれ量でずれることとなる。
図7(d)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が中央部を基準に拡大している場合が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、顔が前方向へ水平にずれた状態で撮影された顔画像が示されている。この場合、図7(d)に矢印で示すように、各検出ラインL1〜L3上における各検出エッジポイントPのうち、右側の各検出エッジポイントPと左側の各検出エッジポイントPとが、それぞれ逆方向であって互いに遠ざかる方向へ同一のずれ量でずれることとなる。
図7(a)〜(d)に示すように、基準顔画像データに基づく顔画像に対して顔の位置が水平方向にずれている場合には、各検出ラインL1〜L3上における各検出エッジポイントPが、基準エッジポイントに対して同一のずれ量でずれており、ずれ方向のみが異なっている。したがって、各検出エッジポイントPのずれ量が同一であることに基づいて、顔が水平方向にずれていると判断することができるとともに、そのずれ量と各検出エッジポイントPにおけるずれ方向の組合せに基づいて、顔を移動(水平移動)すべき方向及び移動量を判断することができる。
次に、図8(a)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が右方向へ回転している場合であって、あごの位置を中心に回転してずれた状態が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、あご載せ台2に当接するあごの位置を中心に顔が左方向へ回転した状態で撮影された顔画像が示されている。この場合、各検出ラインL1〜L3上における各検出エッジポイントPが、図8(a)に矢印で示すように、それぞれ基準エッジポイントに対して同一のずれ方向(右方向)へずれるとともに、そのずれ量が検出エッジポイントPによって異なっている。より具体的には、右側の各検出エッジポイントP及び左側の各検出エッジポイントPのいずれにおいても、より上側の検出エッジポイントPの方がずれ量が大きくなっている。
図8(b)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が右方向へ回転している場合であって、額の位置を中心に回転してずれた状態が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、額押さえ3に当接する額の位置を中心に顔が左方向へ回転した状態で撮影された顔画像が示されている。この場合、各検出ラインL1〜L3上における各検出エッジポイントPが、図8(b)に矢印で示すように、それぞれ基準エッジポイントに対して同一のずれ方向(左方向)へずれるとともに、そのずれ量が検出エッジポイントPによって異なっている。より具体的には、右側の各検出エッジポイントP及び左側の各検出エッジポイントPのいずれにおいても、より下側の検出エッジポイントPの方がずれ量が大きくなっている。
図8(c)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が左方向へ回転している場合であって、あごの位置を中心に回転してずれた状態が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、あご載せ台2に当接するあごの位置を中心に顔が右方向へ回転した状態で撮影された顔画像が示されている。この場合、各検出ラインL1〜L3上における各検出エッジポイントPが、図8(c)に矢印で示すように、それぞれ基準エッジポイントに対して同一のずれ方向(左方向)へずれるとともに、そのずれ量が検出エッジポイントPによって異なっている。より具体的には、右側の各検出エッジポイントP及び左側の各検出エッジポイントPのいずれにおいても、より上側の検出エッジポイントPの方がずれ量が大きくなっている。
図8(d)は、基準顔画像データに基づく顔画像に対して、抽出された静止画像データに基づく顔画像が左方向へ回転している場合であって、額の位置を中心に回転してずれた状態が示されている。すなわち、図1に示す筺体1内において、基準顔画像の撮影時における顔の位置に対して、額押さえ3に当接する額の位置を中心に顔が右方向へ回転した状態で撮影された顔画像が示されている。この場合、各検出ラインL1〜L3上における各検出エッジポイントPが、図8(d)に矢印で示すように、それぞれ基準エッジポイントに対して同一のずれ方向(右方向)へずれるとともに、そのずれ量が検出エッジポイントPによって異なっている。より具体的には、右側の各検出エッジポイントP及び左側の各検出エッジポイントPのいずれにおいても、より下側の検出エッジポイントPの方がずれ量が大きくなっている。
図8(a)〜(d)に示すように、基準顔画像データに基づく顔画像に対して顔の角度がずれている場合には、各検出ラインL1〜L3上における各検出エッジポイントPが、基準エッジポイントに対して同一のずれ方向にずれており、各ずれ量が検出エッジポイントPによって異なっている。したがって、各検出エッジポイントPのずれ量が検出エッジポイントPによって異なっていることに基づいて、顔が回転してずれていると判断することができるとともに、そのずれ量と各検出エッジポイントPにおけるずれ方向の組合せに基づいて、顔を移動(回転移動)すべき方向及び移動量を判断することができる。
このような図7及び図8を用いて説明した態様で、各検出エッジポイントPを対応する基準エッジポイントに近似させるために顔を移動すべき方向及び移動量が判断され、その情報が顔の位置合わせ情報として出力される。したがって、出力された位置合わせ情報に基づいて顔の位置合わせを行って顔画像を撮影することにより、基準顔画像の撮影時とできるだけ同じ条件で顔画像を撮影することができる。
なお、図8では、あご又は額の位置を中心に顔が左方向又は右方向へ回転している場合について説明したが、あごの位置を中心に顔が前方向又は後方向へ回転した場合や、額の位置を中心に顔が前方向又は後方向に回転した場合であっても、同様に、各検出エッジポイントPのずれ量が検出エッジポイントPによって異なっていることに基づいて、顔が回転してずれていると判断することができるとともに、そのずれ量と各検出エッジポイントPにおけるずれ方向の組合せに基づいて、顔を移動(回転移動)すべき方向及び移動量を判断することができる。
図9は、この顔撮影装置Hで顔の位置合わせを行って顔画像を撮影する際の処理の流れを示したフローチャートである。この顔撮影装置Hで顔画像を撮影する際には、まず、操作者がキーボード22を操作することにより、予め撮影されて基準顔画像データ記憶部35Bに記憶されている複数の基準顔画像データの中から、所望の基準顔画像データを選択する(ステップS101)。例えば、肌状態の評価を行うために以前に撮影した顔画像とできるだけ同じ条件で撮影を行いたい場合などには、その以前に撮影した顔画像の静止画像データを基準顔画像データとして選択することとなる。
その後、撮影カメラ4により生成されている動画像データから静止画像データが抽出され(ステップS102)、その静止画像データの各検出ラインL1〜L3における明度データに対して、明度平均化処理(ステップS103)、移動平均処理(ステップS104)及び明度正規化処理(ステップS105)が行われる。そして、上記のようにして明度データ処理が行われた後の明度データに基づいて、各検出ラインL1〜L3上における顔画像の輪郭との交点が検出エッジポイントPとして検出され(ステップS106)、それらの検出エッジポイントPが基準エッジポイントと比較される(ステップS107)。
比較の結果、各検出エッジポイントPが対応する基準エッジポイントと全て一致している場合には(ステップS107でYes)、操作者がキーボード22を用いてシャッター操作を行うことによって、撮影カメラ4により顔画像が撮影されて静止画像データが生成される(ステップS108)。このとき、撮影前に、「そのまま動かないで下さい。撮影します。」などといったように、顔の位置を停止させるための音声がスピーカ34から出力されるようになっていることが好ましい。なお、操作者によるシャッター操作に基づいて撮影が行われるような構成に限らず、自動的に撮影が行われるようになっていてもよい。
一方、比較の結果、各検出エッジポイントPのうち対応する基準エッジポイントと一致していない検出エッジポイントPがある場合には(ステップS107でNo)、図7及び図8を用いて説明したような態様で、各検出エッジポイントPの基準エッジポイントに対するずれ方向及びずれ量に応じた位置合わせ情報が生成され、その位置合わせ情報に基づく音声がスピーカ34から出力される(ステップS109)。
このとき、スピーカ34から出力される音声は、各検出エッジポイントPの基準エッジポイントに対するずれ方向及びずれ量に応じて異なるような構成であることが好ましい。例えば、顔の位置が左側に大きくずれていると判断された場合には、「右に移動して下さい。」という音声を出力し、右斜めに若干回転してずれている場合には、「もう少し左に起こして下さい。」という音声を出力するといったように、移動量の程度を表す情報を含む音声を位置合わせ情報として出力するようになっていてもよい。
位置合わせ情報を出力した場合には、その後に所定時間が経過した後(ステップS110でYes)、再び撮影カメラ4により生成されている動画像データから静止画像データが抽出され(ステップS102)、その静止画像データの各検出ラインL1〜L3における明度データに対して、ステップS103以降の処理が行われる。したがって、被撮影者は、位置合わせ情報の出力後、次の静止画像データが抽出されるまでの間に、その出力された位置情報に基づいて顔の位置合わせを行えばよい。
本実施形態では、2以上の検出ラインL1〜L3上における撮影(抽出)した顔画像の輪郭との交点を検出エッジポイントPとして検出し、それらの検出ラインL1〜L3上の基準エッジポイントと比較することによって、顔の位置合わせを行うことができる。
ここで、1つの検出ライン上における検出エッジポイントPについてのみ基準エッジポイントと比較するような構成の場合には、顔の位置が左右方向にずれているときと、顔の角度がずれているときとで、基準エッジポイントに対する検出エッジポイントPのずれ量が同一となる場合がある。これに対して、本発明のように2以上の検出ラインL1〜L3における検出エッジポイントPについて基準エッジポイントと比較するような構成によれば、顔の位置が左右方向にずれているときと、顔の角度がずれているときとを区別することができるので、より良好に顔の位置合わせを行うことができる。
また、本実施形態では、基準エッジポイント及び検出エッジポイントPの比較結果に基づいて顔の位置合わせ情報を出力し、その位置合わせ情報に基づいて顔の位置合わせを行うことができる。したがって、顔の位置をどのようにずらせばよいかが分かりやすいので、より良好に顔の位置合わせを行うことができる。
<第2実施形態>
第1実施形態では、動画像データから抽出された静止画像データの各検出ラインL1〜L3における明度データに基づいて、検出エッジポイントPが検出されるような構成について説明した。これに対して、第2実施形態では、動画像データから抽出された静止画像データを構成しているR(レッド)データ、G(グリーン)データ及びB(ブルー)データの各色データのうち、Rデータのみに基づいて検出エッジポイントPが検出されるようになっている点が異なっている。
第1実施形態では、動画像データから抽出された静止画像データの各検出ラインL1〜L3における明度データに基づいて、検出エッジポイントPが検出されるような構成について説明した。これに対して、第2実施形態では、動画像データから抽出された静止画像データを構成しているR(レッド)データ、G(グリーン)データ及びB(ブルー)データの各色データのうち、Rデータのみに基づいて検出エッジポイントPが検出されるようになっている点が異なっている。
図10は、本発明の第2実施形態に係る顔撮影装置Hにおける画像処理部36の一構成例を示した機能ブロック図である。本実施形態では、第1実施形態における明度データ処理部368の代わりにRデータ処理部368Aが備えられている点以外は、第1実施形態と同様の構成を有しているので、同様の構成については図に同一符号を付して説明を省略することとする。
Rデータ処理部368Aは、Rデータ平均化処理部362A、Rデータ移動平均処理部363A及びRデータ正規化処理部364Aなどにより構成され、顔画像抽出部361により抽出された静止画像データの各検出ラインL1〜L3におけるRデータに対する処理を行う。
Rデータ平均化処理部362Aは、各検出ラインL1〜L3のRデータについて、各検出ラインL1〜L3に平行な複数ラインにおけるRデータを平均化するRデータ平均化処理手段である。Rデータ移動平均処理部363Aは、各検出ラインL1〜L3のRデータについて移動平均処理を行うRデータ移動平均処理手段である。Rデータ正規化処理部364Aは、各検出ラインL1〜L3におけるRデータを、その最大値を基準とするRデータに変換することにより正規化するRデータ正規化処理手段である。
これらのRデータ平均化処理部362A、Rデータ移動平均処理部363A及びRデータ正規化処理部364Aによる処理は、第1実施形態における明度平均化処理部362、移動平均処理部363及び明度正規化処理部364による処理と同様な態様により行うことができる。そして、このようにしてRデータ処理部368Aによる処理が行われた後のRデータが、エッジポイント検出部365によって所定の閾値と比較されることにより、各検出ラインL1〜L3上における顔画像の輪郭との交点が検出エッジポイントPとして検出される。
本実施形態では、撮影(抽出)した顔画像のRデータのみに基づいて、検出エッジポイントPを良好に検出することができる。すなわち、顔の輪郭部分ではRGB各色データのうちRデータの変化量が比較的大きいため、このRデータに基づいて検出エッジポイントPを良好に検出することができる。
以上の実施形態では、動画像データから静止画像データを抽出するような構成について説明したが、このような構成に限らず、シャッター操作に基づく顔画像の撮影によって、動画像データよりも解像度の高い静止画像データを生成し、その静止画像データの各検出ラインL1〜L3における明度データ又はRデータに基づいて、検出エッジポイントPを検出するような構成であってもよい。
検出ラインL1〜L3は、それぞれ左右方向に延びるような構成に限らず、左右方向に対して所定角度だけ傾斜した方向に延びるような構成であってもよい。また、検出ラインは、中央検出ラインL1、上部検出ラインL2及び下部検出ラインL3の3つに限らず、2つであってもよいし、4つ以上であってもよい。
顔の位置合わせ情報は、スピーカ34から音声により出力されるような構成に限らず、モニター21に対する表示などの他の手段により出力されるような構成であってもよい。
以上の実施形態では、正面顔画像、右顔画像及び左顔画像を撮影することができるような顔撮影装置Hについて説明したが、本発明は、このような顔撮影装置Hに限らず、それらのうち少なくとも1つの顔画像を撮影することができるような顔撮影装置に適用することができる。
また、操作者がキーボード22を操作することにより撮影カメラ4のシャッター操作を行うような構成に限らず、被撮影者がシャッター操作を行うような構成であってもよい。この場合、スピーカ34から出力される位置合わせ情報に基づいて、被撮影者自身が顔の位置合わせを行った後、自らシャッター操作を行うことにより、顔画像を撮影することが可能である。
以上の実施形態では、筺体1とは別個に制御装置20が設けられ、当該制御装置20にモニター21及びキーボード22を備えた汎用のコンピュータが接続された構成について説明したが、このような構成に限らず、各構成要素が一体的に形成されたような構成であってもよい。
H 顔撮影装置
L1 中央検出ライン
L2 上部検出ライン
L3 下部検出ライン
4 撮影カメラ
20 制御装置
30 コントローラ
31 照明制御部
32 カメラ制御部
33 音声制御部
34 スピーカ
35 データ保存部
36 画像処理部
361 顔画像抽出部
362 明度平均化処理部
363 移動平均処理部
364 明度正規化処理部
365 エッジポイント検出部
366 エッジポイント比較部
367 位置合わせ情報出力部
L1 中央検出ライン
L2 上部検出ライン
L3 下部検出ライン
4 撮影カメラ
20 制御装置
30 コントローラ
31 照明制御部
32 カメラ制御部
33 音声制御部
34 スピーカ
35 データ保存部
36 画像処理部
361 顔画像抽出部
362 明度平均化処理部
363 移動平均処理部
364 明度正規化処理部
365 エッジポイント検出部
366 エッジポイント比較部
367 位置合わせ情報出力部
Claims (6)
- 基準顔画像に対する顔の位置合わせを行って顔画像を撮影する顔撮影装置であって、
予め定められた2以上の検出ライン上における上記基準顔画像の輪郭との交点を基準エッジポイントとして記憶する基準エッジポイント記憶手段と、
上記2以上の検出ライン上における撮影した顔画像の輪郭との交点を検出エッジポイントとして検出するエッジポイント検出手段と、
上記基準エッジポイント及び上記検出エッジポイントを比較するエッジポイント比較手段とを備えたことを特徴とする顔撮影装置。 - 上記エッジポイント比較手段による比較結果に基づいて、顔の位置合わせ情報を出力する位置合わせ情報出力手段を備えたことを特徴とする請求項1に記載の顔撮影装置。
- 上記エッジポイント検出手段が、撮影した顔画像の明度データに基づいて上記検出エッジポイントを検出することを特徴とする請求項1又は2に記載の顔撮影装置。
- 上記検出ラインに平行な複数ラインにおける撮影した顔画像の明度データを平均化する明度平均化処理手段を備え、
上記エッジポイント検出手段が、上記明度平均化処理手段により平均化された明度データに基づいて上記検出エッジポイントを検出することを特徴とする請求項3に記載の顔撮影装置。 - 上記検出ライン上における明度データを、その最大値を基準とする明度データに変換することにより正規化する明度正規化処理手段を備え、
上記エッジポイント検出手段が、上記明度正規化処理手段により正規化された明度データに基づいて上記検出エッジポイントを検出することを特徴とする請求項3又は4に記載の顔撮影装置。 - 上記エッジポイント検出手段が、撮影した顔画像のRGB各色データのうち、Rデータのみに基づいて上記検出エッジポイントを検出することを特徴とする請求項1又は2に記載の顔撮影装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007247428A JP2009081527A (ja) | 2007-09-25 | 2007-09-25 | 顔撮影装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007247428A JP2009081527A (ja) | 2007-09-25 | 2007-09-25 | 顔撮影装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009081527A true JP2009081527A (ja) | 2009-04-16 |
Family
ID=40655981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007247428A Withdrawn JP2009081527A (ja) | 2007-09-25 | 2007-09-25 | 顔撮影装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009081527A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109890245A (zh) * | 2016-10-24 | 2019-06-14 | 松下知识产权经营株式会社 | 图像处理装置、图像处理方法以及图像处理程序 |
CN112333418A (zh) * | 2020-04-30 | 2021-02-05 | 深圳Tcl新技术有限公司 | 智能开锁模式的确定方法、装置、智能门铃及存储介质 |
-
2007
- 2007-09-25 JP JP2007247428A patent/JP2009081527A/ja not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109890245A (zh) * | 2016-10-24 | 2019-06-14 | 松下知识产权经营株式会社 | 图像处理装置、图像处理方法以及图像处理程序 |
CN112333418A (zh) * | 2020-04-30 | 2021-02-05 | 深圳Tcl新技术有限公司 | 智能开锁模式的确定方法、装置、智能门铃及存储介质 |
CN112333418B (zh) * | 2020-04-30 | 2023-05-23 | 深圳Tcl新技术有限公司 | 智能开锁模式的确定方法、装置、智能门铃及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5530440B2 (ja) | 欠陥目を高精度で検知するインカメラに基づいた方法 | |
TWI389555B (zh) | 成像裝置,成像裝置之控制方法及電腦程式 | |
JP2011530911A5 (ja) | ||
JP2008293325A (ja) | 顔画像解析システム | |
JP2009000494A (ja) | ポルフィリン検出方法、ポルフィリンの表示方法、およびポルフィリン検出装置 | |
JP2003016434A (ja) | 個体認証装置 | |
JP2007094535A (ja) | 認証システム及び認証方法 | |
WO2022113995A1 (ja) | 歯列画像撮影システムおよび歯列画像撮影方法 | |
JP7477456B2 (ja) | 制御されていない環境において歯のシェードを評価する方法及びシステム | |
JP5319999B2 (ja) | 照明装置 | |
JP2009081527A (ja) | 顔撮影装置 | |
JP2009188528A (ja) | 顔撮影装置 | |
JP2010026858A (ja) | 認証用画像撮像装置 | |
JP5109779B2 (ja) | 撮影装置 | |
JP2009061178A (ja) | 顔撮影装置及び顔撮影方法 | |
JP2008161322A (ja) | 顔撮影装置 | |
JP2008161508A (ja) | 顔撮影装置 | |
JP2007328213A (ja) | 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム | |
JP2013026656A (ja) | 撮影装置、撮影方法、および撮影プログラム | |
JP2009009069A (ja) | 顔撮影装置 | |
JP5206190B2 (ja) | ドライバー監視装置 | |
JP2022028704A5 (ja) | ||
JP2008243119A (ja) | 顔撮影装置 | |
JP2008293327A (ja) | 顔画像表示システム | |
JP2009267467A (ja) | 撮影装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20101207 |