JP2010224775A - アイキャッチ合成装置及び方法 - Google Patents

アイキャッチ合成装置及び方法 Download PDF

Info

Publication number
JP2010224775A
JP2010224775A JP2009070226A JP2009070226A JP2010224775A JP 2010224775 A JP2010224775 A JP 2010224775A JP 2009070226 A JP2009070226 A JP 2009070226A JP 2009070226 A JP2009070226 A JP 2009070226A JP 2010224775 A JP2010224775 A JP 2010224775A
Authority
JP
Japan
Prior art keywords
eye
eye catch
catch
pupil
composition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009070226A
Other languages
English (en)
Inventor
Satoshi Tabata
聡 田端
Yasuhisa Matsuba
靖寿 松葉
Tetsutaro Ono
徹太郎 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2009070226A priority Critical patent/JP2010224775A/ja
Publication of JP2010224775A publication Critical patent/JP2010224775A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】被写体が撮影された写真データから自動的に該被写体の瞳を検出することができ,更にアイキャッチを高速に合成することのできるアイキャッチ合成装置を提供する。
【解決手段】デジタル証明写真機1は,両眼検出工程(S1)において,人物である被写体の写真データに含まれる顔領域を解析して両眼の位置座標を検出し,瞳検出工程(S2)において,眼の位置座標を基準とした瞳検出領域の二値化画像と円形テンプレートをテンプレートマッチングすることで特定される瞳領域を特定した後,瞳領域の輪郭線から瞳の中心座標及び半径を算出する。そして,アイキャッチ合成工程(S3)において,デジタル証明写真機1は,画像合成や階調補正を利用して撮影された瞳にアイキャッチを合成する。
【選択図】図4

Description

本発明は,証明写真機などで撮影された写真データにアイキャッチを自動で合成するための技術に関する。
街頭に設置される証明写真機で撮影される証明写真は,履歴書はもとより,パスポートや身分証明証などに利用されるため,証明写真機には,証明写真に撮影された人物をより好印象にすることが望まれている。
人物である被写体の写真を好印象にするためには,アイキャッチ(キャッチアイ,キャッチライトとも呼ばれる)を被写体の瞳が撮影された瞳画像に入れると,写真における被写体が生き生きとし,被写体の印象を良くすることが知られている。
古くからカタログなどのモデルの撮影時には,光源の光を反射させるレフ板を被写体の前に設置し,レフ板の角度を調整することで,モデル自身の瞳にアイキャッチを入れる手法が用いられている。また,レフ板を用いずに,ストロボを発光させ,ストロボ光を被写体自身の瞳に入れる手法も考案されている(例えば,特許文献1)。
また,瞳に光を入れることなく撮影した被写体の写真データを画像処理し,被写体の瞳にアイキャッチを合成する手法も考案されている。
例えば,特許文献2では,画像から抽出された瞳を、瞳の輪郭からの距離に応じて所定数のリング状領域に分割し,リング状領域毎に変換後の色が指定された色変換テーブルに基づき,リング状領域毎に瞳を補正することで、画像の瞳にアイキャッチ(キャッチライト)を合成する発明が開示されている。
また,特許文献3では,光の入射方向を判断し,判断した入射方向に基づいて、瞳にアイキャッチエリア(キャッチライトエリア)を設定し、アイキャッチエリア(キャッチライトエリア)の輝度を変更する補正を行うことで,画像の瞳にアイキャッチ(キャッチライト)を合成する発明が開示されている。
特許文献2,3で開示されている発明を応用すれば,証明写真機においてもアイキャッチを合成することが可能のように思われるかもしれないが,しかしながら,アイキャッチを自動的に合成する機能を証明写真機に適用することを想定した場合,従来技術では得られない新たな機能が必要になる。
証明写真にアイキャッチを合成するために証明写真機に要求される一つ目の機能は,アイキャッチを合成する瞳画像を自動的に検出できる機能である。証明写真機において証明写真は撮影がプリントアウトまでの工程すべてが自動で行われるため,特許文献2や特許文献3で開示されている発明のように,人手ではなく,被写体の写真データの中から瞳画像を自動的に検出し,自動的に検出した瞳画像にアイキャッチを合成機能が必要になる。
更に,二つ目の機能は,高速なアイキャッチの合成処理である。証明写真機においては,写真の現像サービスを実施しているDPE店(Development, Printing, Enlargement)とは異なり,撮影してからプリントアウトされるまでの時間は数分と短いため,アイキャッチを合成する処理に時間がかかるとユーザは不便性を感じてしまい,証明写真機を利用するユーザの数が減少してしまう可能性がある。
また,デジタルカメラを利用した証明写真機の場合,証明写真をプリントアウトする前に,プリントアウトする証明写真のプレビュー画像をディスプレイに表示する機能が備えられている機種もあるため,証明写真のプレビュー画像を表示する時点で,プレビュー画像にもアイキャッチが合成できていることが望ましい。
特開2001−91979号公報 特開2006−5 9 0 9 2号公報 特開2006−7 2 7 4 2号公報
そこで,本発明は,人物である被写体が撮影された写真データから自動的に該被写体の瞳を検出することができ,更に,該写真データにアイキャッチを高速に合成することのできるアイキャッチ合成装置及び方法,並びに,コンピュータプログラムを提供する。
上述した課題を解決する第1の発明は,人物である被写体の写真データにアイキャッチを合成する装置であって,前記写真データに含まれる顔領域を解析して得られる眼の位置座標から瞳検出領域を設定し,前記写真データの二値化画像における前記瞳検出領域内の画像と円形テンプレートをテンプレートマッチングすることで,前記被写体の瞳に該当する瞳領域を特定した後,前記瞳領域の輪郭線を抽出し,前記瞳領域の輪郭線を用いて該被写体の瞳の中心座標及び半径を算出する瞳検出手段と,前記瞳検出手段が検出した瞳の中心座標及び半径を利用して,前記写真データに撮影された被写体の瞳に所定のアイキャッチを合成するアイキャッチ合成手段を備えていることを特徴とするアイキャッチ合成装置である。
前記写真データの前記瞳検出領域には,目蓋,睫毛などによるノイズ画像を含まれているため,円形テンプレートを利用してテンプレートマッチングすることで,正確に前記瞳領域を特定することができるようになる。また,上述したノイズ画像の影響を受けて,前記瞳領域はいびつな形状になるため,前記瞳領域の輪郭線(例えば,左右方向の輪郭線)を利用して,円形である瞳の中心座標及び半径を求めることで,自動的に正確な瞳の中心座標及び半径を求めることができるようになる。
更に,第2の発明は,第1の発明に記載のアイキャッチ合成装置において,前記瞳検出手段は,前記瞳検出領域に含まれ,定められた階調の画素の高さ方向の最大長さを利用して,前記円形テンプレートの径を求めることを特徴とするアイキャッチ合成装置である。
前記被写体の瞳の大きさは,前記被写体の身体的特徴やカメラまでの距離によって変わるため,上述した第2の発明のように,前記瞳検出領域から前記円形テンプレートの径を求めることで,より正確に前記瞳検出領域を検出できるようになる。
更に,第3の発明は,第1の発明または第2の発明のいずれか一つに記載のアイキャッチ合成装置において,中心点を座標原点とし半径が基準長さの基準円上にアイキャッチを合成する領域であるアイキャッチ領域が定義され,更に,前記基準円上における前記アイキャッチ領域に含まれる画素の座標及び前記アイキャッチ領域に施すアイキャッチ合成処理が前記アイキャッチ領域毎に定義されたアイキャッチデータを前記アイキャッチ合成装置は記憶し,前記アイキャッチ合成手段は,アイキャッチを前記写真データに合成するとき,前記瞳検出手段が検出した瞳の半径に前記基準円の半径を合わせるように前記アイキャッチ領域をスケーリング処理したときの前記アイキャッチデータを生成した後,前記瞳検出手段が検出した瞳の中心座標に前記基準円の中心点を合わせる座標演算を実行し,座標演算後の前記アイキャッチデータで定義された前記アイキャッチ領域に対応する前記写真データの領域に,前記アイキャッチ領域に定義された前記アイキャッチ合成処理を実行することを特徴とするアイキャッチ合成装置である。
上述しているように,前記被写体の瞳の大きさは,前記被写体の身体的特徴などによって変わるため,前記基準円上においてアイキャッチを定義したアイキャッチデータを用意しておけば,前記被写体が変わっても,前記基準円上を前記被写体の瞳の大きさに合わせさせすれば,前記被写体用のアイキャッチデータを生成できるため,アイキャッチを合成する処理を高速化できるようになる。
更に,第4の発明は,第3の発明に記載のアイキャッチ合成装置において,アイキャッチの合成にアルファブレンドを利用する第1のアイキャッチ合成処理が前記アイキャッチ領域に定義付けられている場合,前記アイキャッチ合成手段は,該アイキャッチデータにおいて該アイキャッチ領域に関連付けて定義されている画素と,該画素に対応する前記写真データの画素をアルファブレンドする処理を実行することを特徴とするアイキャッチ合成装置である。
更に,第5の発明は,第3の発明または第4の発明に記載のアイキャッチ合成装置において,アイキャッチの合成に階調補正を利用する第2のアイキャッチ合成処理が前記アイキャッチ領域に定義付けられている場合,前記アイキャッチ合成手段は,該アイキャッチデータにおいて該アイキャッチ領域に関連付けられて定義されているトーンカーブを利用して,該アイキャッチ領域に対応する前記写真データの領域の階調を補正する処理を実行することを特徴とするアイキャッチ合成装置である。
更に,第6の発明は,第5の発明に記載のアイキャッチ合成装置において,前記トーンカーブ上の4点の値で前記トーンカーブは定義され,前記アイキャッチ合成手段は,該4点の値からトーンカーブの3次式を求め,該3次式を用いて前記写真データの画素の階調を補正することを特徴とするアイキャッチ合成装置である。
更に,第7の発明は,第6の発明に記載のアイキャッチ合成装置において,前記トーンカーブは,前記アイキャッチ領域に含まれる画素毎に定義され,前記アイキャッチ合成装置は,該アイキャッチ領域の画素毎に,該画素に定義されている前記トーンカーブを用いて,該アイキャッチ領域の画素毎に対応する前記写真データの画素の階調を補正する処理を実行することを特徴とするアイキャッチ合成装置である。
上述した第4の発明によれば,アイキャッチとなる白い点を前記被写体の瞳の画像に合成することができるようになる。また,実施にアイキャッチとなる光を前記被写体の瞳に入れて撮影した場合,前記被写体の瞳が扇型に明るくなることがあるため,第5の発明のように,瞳の画像に含まれる画素の階調を明るくするように補正することで,該扇型も前記被写体の瞳の画像に合成できるようになる。
また,第6の発明のように,前記トーンカーブ上の4点の値で前記トーンカーブを定義しておくと,前記トーンカーブの変更が用意になるばかりか,第7の発明のように,前記アイキャッチ領域に含まれる画素毎に前記トーンカーブを定義する場合,前記アイキャッチデータの容量を抑えることができる。また,第7の発明のように,前記アイキャッチ領域に含まれる画素毎に前記トーンカーブを定義しておくと,前記アイキャッチ領域に含まれる画素毎に階調の補正の内容を変更できる。
更に,第8の発明は,人物である被写体の写真データにアイキャッチを合成する方法であって,アイキャッチを合成する装置が,前記写真データに含まれる顔領域を解析して得られる眼の位置座標から瞳検出領域を設定するステップa1,前記写真データの二値化画像における前記瞳検出領域内の画像と円形テンプレートをテンプレートマッチングすることで,前記被写体の瞳に該当する瞳領域を特定するステップa2,特定した前記瞳領域の輪郭線を抽出し,前記瞳領域の輪郭線を用いて該被写体の瞳の中心座標及び半径を算出するステップa3が実行される工程aと,前記装置が,前記工程aで検出した瞳の中心座標及び半径を利用して,前記写真データに撮影された被写体の瞳に所定のアイキャッチを合成する工程bを含むことを特徴とするアイキャッチ合成方法である。
更に,第9の発明は,第8の発明に記載のアイキャッチ合成方法において,前記工程aの前記ステップa1において,前記装置は,前記瞳検出領域に含まれ,定められた階調の画素の高さ方向の最大長さを利用して,前記円形テンプレートを生成することを特徴とするアイキャッチ合成装置である。
更に,第10の発明は,第8の発明または第9の発明のいずれか一つに記載のアイキャッチ合成方法において,前記装置は,中心点を座標原点とし半径が基準長さの基準円上にアイキャッチを合成する領域であるアイキャッチ領域が定義され,更に,前記基準円上における前記アイキャッチ領域に含まれる画素の座標及び前記アイキャッチ領域に施すアイキャッチ合成処理が定義されたアイキャッチデータを記憶し,前記工程bにおいて,前記装置は,前記工程aで検出した瞳の半径に前記基準円の半径を合わせるように前記アイキャッチ領域をスケーリング処理したときの前記アイキャッチデータを生成するステップb1,前記工程aで検出した瞳の中心座標に前記基準円の中心点を合わせる座標演算を実行するステップb2,座標演算後の前記アイキャッチデータで定義された前記アイキャッチ領域に対応する前記写真データの領域に,前記アイキャッチ領域に定義された前記アイキャッチ合成処理を実行するステップb3が実行されることを特徴とするアイキャッチ合成方法である。
更に,第11の発明は,第10の発明に記載のアイキャッチ合成方法において,前記工程bの前記ステップb3において,前記装置は,アイキャッチの合成にアルファブレンドを利用する第1のアイキャッチ合成処理が前記アイキャッチ領域に定義付けられている場合,前記アイキャッチ合成手段は,該アイキャッチデータにおいて該アイキャッチ領域に関連付けて定義されている画素と,該画素に対応する前記写真データの画素をアルファブレンドする処理を実行することを特徴とするアイキャッチ合成方法である。
更に,第12の発明は,第10の発明または第11の発明に記載のアイキャッチ合成方法において,前記工程bの前記ステップb3において,前記装置は,アイキャッチの合成に階調補正を利用する第2のアイキャッチ合成処理が前記アイキャッチ領域に定義付けられている場合,前記アイキャッチ合成手段は,該アイキャッチデータにおいて該アイキャッチ領域に関連付けられて定義されているトーンカーブを利用して,該アイキャッチ領域に対応する前記写真データの領域の階調を補正する処理を実行することを特徴とするアイキャッチ合成方法である。
更に,第13の発明は,第12の発明に記載のアイキャッチ合成方法において,前記トーンカーブ上の4点の値で前記トーンカーブは定義され,前記工程bの前記ステップb3において,前記装置は,該4点の値からトーンカーブの3次式を求め,該3次式を用いて前記写真データの画素の階調を補正することを特徴とするアイキャッチ合成方法である。
更に,第14の発明は,第13の発明に記載のアイキャッチ合成方法において,前記トーンカーブは,前記トーンカーブ上の4点の値を用いて前記アイキャッチ領域の画素毎に定義付けられ,前記工程bの前記ステップb3において,前記装置は,該アイキャッチ領域の画素毎に,該画素に定義付けられている前記トーンカーブを用いて,該アイキャッチ領域の画素毎に対応する前記写真データの画素の階調を補正する処理を実行することを特徴とするアイキャッチ合成方法である。
更に,第15の発明は,コンピュータに第8の発明から第12の発明に記載のアイキャッチ合成方法を実行させるコンピュータプログラムである。
第8の発明から第14の発明は本発明の方法に係わる発明で,第15の発明は本発明のコンピュータプログラムに係わる発明である。
上述した本発明によれば,人物である被写体が撮影された写真データから自動的に該被写体の瞳を検出することができ,更に,該写真データにアイキャッチを高速に合成することのできるアイキャッチ合成装置及び方法,並びに,コンピュータプログラムを提供できる。
デジタル証明写真機の外観を説明する図。 デジタル証明写真機の回路ブロック図。 デジタル証明写真機の機能ブロック図。 アイキャッチを合成する工程を説明するフロー図。 両眼検出工程の詳細な手順を示したフロー図。 被写体の写真データ及び両眼の位置座標を説明する図。 瞳検出工程の詳細な手順を示したフロー図。 クロージング及びオープニング後の瞳検出領域の画像を説明する図。 円形テンプレートを生成する内容を説明する図。 円形テンプレートを用いたテンプレートマッチングを説明する図。 瞳領域の輪郭線を検出する処理の内容を説明する図。 瞳領域の輪郭線から求められる円のイメージ図。 瞳領域を特定するときのノイズ画像を説明する図。 撮影された被写体の瞳に合成されるアイキャッチを説明する図。 アイキャッチ領域が定義される基準円を説明する図。 アイキャッチデータを説明する図。 アイキャッチ合成工程の詳細な手順を示したフロー図。 アイキャッチ合成後の写真データのイメージ図。
ここから,本発明について図を参照しながら詳細に説明する。図1は,本発明に係わるアイキャッチ生成装置が適用されたデジタル証明写真機1の外観を説明する図である。
図1で図示したデジタル証明写真機1は,証明写真の撮影からプリントまでの工程を自動で行う装置で,被写体(ここで,人物)を撮影するデジタルカメラ11,撮影用の照明14と,被写体を撮影するときに自動的に発光するストロボ光源15,デジタル証明写真機1を操作するためのタッチパネル13,被写体が座る椅子16,撮影するときに外光を防ぐための遮光カーテン17,プリントされた写真の排出口18などが備えられている。
被写体が証明写真を撮影するとき,被写体は,被写体の目線がデジタルカメラ11に合うように,椅子16の高さを調整した後,タッチパネル13を操作して写真を撮影し,撮影された写真は数分後に排出口18からプリントアウトされる。
デジタル証明写真機1で撮影される証明写真は,履歴書はもとより,パスポートや身分証明証などに利用されるため,デジタル証明写真機1には,証明写真に撮影された人物をより好印象にすることが要求され,図1で図示したデジタル証明写真機1には,被写体をより好印象にするために,キャッチアイ,キャッチライトとも称されるアイキャッチを撮影された被写体の瞳に自動的に合成する機能が備えられている。
アイキャッチを被写体の瞳に入れる手法としては,ストロボなどを用いて,アイキャッチとなる光を被写体の瞳に入れる手法もあるが,図1で図示したデジタル証明写真機1には,画像処理技術を用いて,撮影された被写体の瞳にアイキャッチを合成する手法が用いられている。
図2は,デジタル証明写真機1の回路ブロック図である。デジタル証明写真機1には,CPU10a(Central Processing Unit),RAM10b,FeRAM10c,画像処理プロセッサ10dなどが実装された制御部10と,被写体を撮影するデジタルカメラ11と,被写体の写真をプリントする写真プリンタ12と,デジタル証明写真機1の操作になどに利用されるタッチパネル13が備えられている。
デジタルカメラ11は,デジタルスチルカメラ(Digital still Camera)で,デジタルカメラ11は,集光するためのレンズ,レンズによって集光した光を受光する受光素子(例えば,CCD),受光素子の受光時間を制御するシャッター,受光素子のアナログデータをデジタルデータに変換するA/Dコンバータなどを備え,A/Dコンバータへ変換されたデジタルデータは制御部10のRAM10bに一時的に記憶される。
制御部10の画像処理プロセッサ10dは,受光素子のアナログデータがA/D変換されたデジタルデータを画像処理(例えば,色空間補正)することで,RGBのカラー画像(例えば,24ビットのフルカラー画像)である写真データを生成する回路で,制御部10のFeRAM10cには,デジタル証明写真機1の一連の動作をCPU10aに実行させるためのコンピュータプログラムが記憶されている。
タッチパネル13は,液晶ディスプレイと透明電極パネルなどが組み合わされた装置で,写真撮影するための操作などの操作や,撮影された写真を表示するために利用される。
写真プリンタ12は,アイキャッチが瞳に入れられた被写体の写真データをプリントアウトする装置で,例えば,昇華転写型のプリンタである。
図3は,デジタル証明写真機1の機能ブロック図である。デジタル証明写真機1には,図2で図示したハードウェアを利用して実現される機能として,被写体の写真データを撮影する撮影手段100,撮影手段100が撮影したデータから写真データを生成する写真データ生成手段102,被写体の写真データをプリントアウトするプリント手段103,写真データなどを表示する表示手段104,デジタル証明写真機1を操作するための操作手段105など,一般的なデジタル証明写真機1に備えられる機能に加え,撮影された被写体の瞳にアイキャッチを合成するために,被写体の写真データから被写体の両眼目の位置座標を検出する両眼検出手段106,被写体の両眼の位置座標を利用して,被写体の瞳の中心座標及び半径を検出する瞳検出手段110,撮影された被写体の瞳にアイキャッチを合成するアイキャッチ合成手段120を備えている。
デジタル証明写真機1に備えられた撮影手段101はデジタルカメラ11の機能に対応し,写真データ生成手段102は制御部10のCPU10aや画像処理プロセッサ10dの機能に対応し,プリント手段103は写真プリンタの機能に対応し,表示手段104及び操作手段105はタッチパネル13の機能にそれぞれ対応する。
制御部100は,制御部10のCPU10aの機能に対応し,以下に述べる(1)から(5)の一連の手順を実行する手段である。
(1)撮影手段101を作動させ被写体を撮影する。
(2)写真データ生成手段102を作動させて写真データを生成する。
(3)両眼検出手段106,瞳検出手段110及びアイキャッチ合成手段120を作動させて,写真データにアイキャッチを合成する。
(4)表示手段104を作動させて,アイキャッチが合成された写真データを表示する。
(5)操作手段105でプリントが指示されると,プリント手段103を作動させてアイキャッチが合成された写真データをプリントし,操作手段105で再撮影が指示されると,(1)に戻る。
上述した工程において,(3)以外の工程は一般的なデジタル証明写真機と同じ内容であるため説明を省き,ここから,(3)の工程について詳細に説明する。
図4は,被写体が撮影された写真データにアイキャッチを合成する工程を説明するフロー図で,デジタル証明写真機1が,撮影された被写体の瞳にアイキャッチを合成するとき,まず,写真データ生成手段102が生成した写真データから,被写体の両眼の位置座標を検出する両眼検出工程(S1)が実行され,更に,両眼検出工程(S1)で検出された両眼の位置座標に基づき,円形状である瞳の中心座標及び半径を検出する瞳検出工程(S2)が実行される。そして,瞳検出工程(S2)で検出された瞳の中心座標及び半径を用いて,撮影された被写体の瞳にアイキャッチを合成するアイキャッチ合成工程(S3)が実行される。
デジタル証明写真機1の両眼検出手段106は,図4の両眼検出工程(S1)を実行する手段で,瞳検出手段110は,図4の瞳検出工程(S2)を実行する手段,アイキャッチ合成手段120は,図4のアイキャッチ合成工程(S3)を実行する手段で,デジタル証明写真機1の制御部10のFeRAM10cには,制御部10のCPU10aをそれぞれの手段として機能させるためのコンピュータプログラムが記憶されている。
ここから,デジタル証明写真機1に備えられた両眼検出手段106,瞳検出手段110及びアイキャッチ合成手段120によって実行される各工程についてそれぞれ詳細に説明する。
まず,デジタル証明写真機1に備えられた両眼検出手段106が実行する両眼検出工程(S1)について説明する。本発明は,被写体の写真データから両眼の位置座標を検出する手法に特徴を有するものではないが,本発明では,「特願2007-253367」で記載されている両眼位置検出方法に従い,被写体の写真データから両眼の位置座標を検出するものとする。
ここから,「特願2007-253367」で記載されている両眼位置検出方法について,要点のみを説明しておく。図5は,「特願2007-253367」で記載されている両眼位置検出方法を適用したときの両眼検出工程(S1)の詳細な手順を示したフロー図である。
写真データ生成手段102が生成した写真データが制御部10のRAM10bに格納されると,制御手段100は両眼検出手段106を作動させ,両眼検出手段106は,まず,該写真データから顔領域を検出する処理を実行する(S10)。
人物の顔が撮影された写真データの中から顔領域を検出する手法は一般的に利用される手法を用いることができ,該手法としては, Haar-like特徴を複数用いるブースティングアルゴリズムが有名である。
両眼検出手段106は,写真データから顔領域を検出すると,まず,写真データを所定のサイズにスケーリングする処理を実行し(S11),スケーリング処理後の顔領域の所定の複数の重畳位置に基準単眼画像を重畳し,それぞれの重畳位置における類似度の計算し(S12),類似度が閾値以上の重畳位置を抽出する(S13)。
そして,類似度が閾値以上の重畳位置について,顔領域上での水平方向に関する類似度の変動を調べ,類似度が極大値をとなっている類似度を抽出した後(S14),抽出した類似度が最大のものから順に偶数個(例えば,10個)の類似度を選択し,次の2つの条件を満たす関係にある一対の重畳位置を両眼の位置座標として検出し(S15),この手順を終了する。
(条件1)基準単眼画像を一対の重畳位置にそれぞれ配置したときに、両画像枠の「前記顔面画像を左右に二等分する縦方向に伸びる顔中心線に関する対称性」が所定の基準以上であること。
(条件2)基準単眼画像を一対の重畳位置にそれぞれ配置したときに、両画像枠が互いに重なり合わないこと。
図6は,デジタル証明写真機1で撮影される被写体の写真データ及び両眼の位置座標を説明する図で,図6(a)は被写体の写真データ2を説明する図で,図6(b)は,写真データ2から検出される両眼の位置座標を説明する図で,図6(b)では写真データ2の濃淡は省いている。
一般的に,撮影された被写体の顔方向は正面や横など様々な角度になるが,図6(a)の写真データ2のように,デジタル証明写真機1の場合,被写体の顔方向は正面になる。デジタル証明写真機1で生成される写真データはRGBのカラー画像(例えば,24ビットのフルカラー画像)で,デジタル証明写真機1は,写真データに含まれる各画素を,横方向にX軸、縦方向にY軸として定義される2次元座標P(x,y)で管理する。
図6(b)は,「特願2007-253367」で記載されている内容により検出される両眼の位置座標で,図6(b)では,両眼の位置座標はP1(x1,y1)及びP2(x2,y2)で図示され,「特願2007-253367」の段落番号37に記載されているように,検出される両眼の位置座標は,ほぼ,両眼の瞳の中になる。
ここから,デジタル証明写真機1に備えられた瞳検出手段110によって実行される瞳検出工程(S2)について説明する。図7は,瞳検出工程(S2)の詳細な手順を示したフロー図である。
デジタル証明写真機1の両眼検出手段106が両眼の位置座標を検出すると,制御手段100は瞳検出手段110を作動させ,瞳検出手段110は,両眼検出手段106が検出した両眼の位置座標を中心として所定サイズの領域を,瞳画像を検出する瞳検出領域に設定する(S20)。
瞳検出手段110は,瞳検出領域を写真データに設定すると,画像処理プロセッサ10dを利用し,先鋭化,グレースケース化,ヒストグラム均等化,二値化,クロージング,そして,オープニングを写真データに対して実行し,写真データの二値化画像を生成する(S21)。
ここで,先鋭化とは,写真データの高周波成分を強調することで写真データをシャープにする処理を意味する。また,グレースケース化とは,24ビットのフルカラー画像である写真データを256階調のモノクロ画像に変換する処理を意味する。
また,ヒストグラム均等化とは,該写真データを256階調のモノクロ画像に変換した際,階調の分布には偏りがあるため,階調の分布範囲を256階調とすることで,階調の分布を一様に分布させる処理を意味する。
更に,二値化とは,ヒストグラム均等化した後の写真データにおいて,定められた閾値(ここでは,階調の値が50)以下の階調を「1」に,該閾値を超えた階調を「0」にすることで,瞳の箇所が白になる2階調の二値化画像に瞳検出領域の画像を変換することを意味する。
更に,クロージングとは,二値化した後の写真データに含まれるそれぞれの画素を所定の連結数(例えば,4連結)で膨張させた後,該連結数で収縮させることで,写真データに含まれる点欠陥を無くす処理を意味する。
更に,オープニングとは,クロージングした後の写真データに含まれるそれぞれの画素を所定の連結数(例えば,4連結)で収縮させた後,該連結数で膨張させることで,写真データに含まれる点欠陥を無くす処理を意味する。
図8は,クロージング及びオープニング後の瞳検出領域の画像を説明する図で,図8(a)はグレースケール化後の画像,図8(b)はヒストグラム均等化後の画像,図8(c)は二値化後の画像,図8(d)はクロージング及びオープニング後の画像である。
図8(a)に図示したように,瞳検出領域の画像はグレースケール化することで256階調のモノクロ画像に変換され,ヒストグラム均等化することで,図(8b)に図示したように,256階調のモノクロ画像における階調の差は大きくなる。また,図8(c)に図示したように,ヒストグラム均等化後の画像を二値化することで,黒い瞳の箇所が白になる2階調の白黒画像が得られ,図8(d)に図示したように,クロージング及びオープニングすることで,白点及び黒点が画像から無くなる。
次に,デジタル証明写真機1の瞳検出手段110は,二値化後の瞳検出領域の画像を利用して,瞳画像を検出するために利用する円形テンプレートを生成する(S22)。
図9は,円形テンプレートを生成する内容を説明する図である。図9(a)で図示したように,デジタル証明写真機1の瞳検出手段110は,円形テンプレートを生成するために,図9の瞳検出領域3において,階調が「1」である白色画像30の最大高さ(Lmax)として,写真データのY軸方向で階調が「1」の画素が連続して並んでいる最大の画素数を検出する。
瞳検出手段110が白色画像30の最大高さ(Lmax)を検出すると,図9(b)に図示したように,白色画像30の最大高さ(Lmax)にレートを乗算することで,テンプレートの直径を計算し,該直径の内部が白色のテンプレート31を生成する。なお,該レートとしては1〜0.8程度がよい。
図7の説明に戻る。瞳検出手段110はテンプレート31を生成すると,テンプレート31を用いてパターンマッチングしたとき,パターンマッチングの指標が最も良好となるときの瞳検出領域3における位置座標を求め,該位置座標にテンプレートを配置したとき,テンプレートと重なり合う領域近傍を瞳領域とし特定する(S23)。
図10は,円形テンプレートを用いたテンプレートマッチングを説明する図である。瞳検出手段110は,円形テンプレートを用いたテンプレートマッチングを行うとき,テンプレート31の画像とテンプレート31と重なり合う瞳検出領域3の画像の差の指標としてSSD(差の2乗和)を求めながら,瞳検出領域3においてテンプレート31が収まるように,瞳検出領域3の左上端から水平方向に順次移動させ,SSDが最小となる瞳検出領域3における位置座標32を求め,位置座標32にテンプレート31を配置したとき,テンプレート31と重なり合う白色画像30の部分領域を瞳領域として特定する。
図7の説明に戻る。デジタル証明写真機1の瞳検出手段110は,円形テンプレートを用いたテンプレートマッチングを実行することで,瞳検出領域から瞳領域を特定すると,瞳領域の輪郭線を検出する処理を実行する(S24)。
図11は,瞳領域の輪郭線を検出する処理の内容を説明する図で,図11(a)から図11(c)は瞳検出領域の画像に発生するノイズ画像を説明する図,図11(d)は輪郭線検出処理の結果の例示を示した図で
図11(a)に図示したように,瞳検出領域3の白色画像30の上下には上下目蓋,睫毛または化粧品などによってノイズ画像34a,bが発生する。デジタル証明写真機1の瞳検出手段110は,テンプレートマッチングで得られる位置座標を参照し,例えば,位置座標よりもY軸方向に対して下で,かつ,X軸方向に対して左右の方向の瞳領域33の輪郭線を検出する。
デジタル証明写真機1の瞳検出手段110は,瞳領域33の輪郭線を検出するとき,画素の階調が「1」から「0」に最初に変化する画素を特定することで,図11(b)のような輪郭線35a,bを得る。
図7の説明に戻る。デジタル証明写真機1の瞳検出手段110は,瞳領域の輪郭線を検出すると,該輪郭線を用いて円のパラメータを算出する処理を実行することで,被写体の瞳の中心座標及び半径を算出(S25)し,図7で図示した手順は終了する。
なお,被写体の写真データには左右の瞳が含まれるため,デジタル証明写真機1の瞳検出手段110は,図7で図示した手順を右眼及び左眼についてそれぞれ実行することで,右眼及び左眼それぞれについて瞳の中心座標及び半径を検出する。
図12は,瞳領域の輪郭線から求められる円のイメージ図である。デジタル証明写真機1の瞳検出手段110は,瞳領域の輪郭線を検出する処理を実行すると,検出した輪郭線35a,bに含まれる画素の座標値を用いて最小二乗法を行うことで円36の式を求め,円36の中心座標(ここでは,P(x_eye,y_eye))と半径rhを求める。
ここで,円形テンプレートを用いてテンプレートマッチングを行うメッリットについて述べておく。テンプレートマッチングを行わなくとも,瞳検出領域に含まれる白色画像を抽出すればよいと思われるかもしれないが,目蓋,睫毛など以外のも様々なノイズ画像が発生するため,上述した内容に従いテンプレートマッチングを行うことで,ノイズ画像の影響を受けずに,瞳領域を特定することができるようになる。
図13は,瞳領域を特定するときのノイズ画像を説明する図で,図13(a)は,被写体の身体的特徴から発生するノイズ画像で,図13(b)は,メガネから発生するノイズ画像である。
被写体の下目蓋に膨らみなどがあると,図13(a)で図示した領域37aのように,この膨らみから発生する画像が瞳検出領域の画像に含まれてしまい,瞳領域を特定するときのノイズ画像になり得てしまう。
また,被写体がメガネをかけていると,図13(b)で図示した領域37bように,メガネから発生する画像が瞳検出領域の画像に含まれてしまい,瞳領域を特定するときのノイズ画像になり得てしまう。
上述した内容に従えば,然るべきサイズの円形テンプレートを用いてテンプレートマッチングを行うため,図13(a)及び(b)で図示した領域37a,bのようなノイズ画像の影響を受けずに,瞳領域を特定できる。
次に,デジタル証明写真機1に備えられたアイキャッチ合成手段120によって実行されるアイキャッチ生成工程(S3)について説明する。図14は,アイキャッチ合成手段120によって,撮影された被写体の瞳に合成されるアイキャッチを説明する図である。
図14に図示したように,アイキャッチ合成手段120は,レイヤ1のアイキャッチ4a,レイヤ2のアイキャッチ4b及びレイヤ3のアイキャッチ4cの3つを撮影された被写体の瞳40に合成し,図14において,レイヤ1及びレイヤ2のアイキャッチ4a,bは,アルファブレンドを利用してアイキャッチを合成する第1のアイキャッチ合成処理によって得られるアイキャッチで,レイヤ3のアイキャッチ4cは,画素を明るくするように補正するように設定されたトーンカーブに従い画素の階調を補正する第2のアイキャッチ合成処理で得られるアイキャッチである。
なお,図14は,アイキャッチを合成する一例を例示したにすぎず,アイキャッチの形状及び位置,並びに,アイキャッチ合成処理は任意でよい。
デジタル証明写真機1で撮影される被写体の瞳の大きさは,被写体の身体的特徴や着座姿勢によって変わるため,デジタル証明写真機1のアイキャッチ合成手段120には,半径が基準長さの基準円上にアイキャッチを合成する領域であるアイキャッチ領域と,アイキャッチ領域毎に,アイキャッチ領域に施すアイキャッチ合成処理を定義したアイキャッチデータを記憶し,瞳検出手段110が検出した瞳のサイズに合うように該基準円をスケーリング処理したときのアイキャッチデータを生成し,アイキャッチデータで定義された内容に従い写真データにアイキャッチを合成する。
図15は,アイキャッチ領域が定義される基準円を説明する図で,図16は,アイキャッチデータを説明する図で,図15で図示したアイキャッチデータはXML形式で記述されている。
図15で図示したように瞳画像の基準円5は,実際の写真データの2次元座標系P(x,y)の原点P(0,0)に設定され,瞳の基準円の半径Reの長さは50としている。
瞳の基準円5内には,アイキャッチを合成するアイキャッチ領域として,図14で図示したレイヤ1からレイヤ3のアイキャッチにそれぞれ対応する3つのアイキャッチ領域5a〜cが画素の集合として設定され,アイキャッチデータには,アイキャッチ領域5a〜c毎に,アイキャッチ領域内に含まれる座標,アイキャッチ合成処理の識別子及びパラメータが定義される。
図16に図示したアイキャッチデータ6において,<eye―catch>タグ60は一つのアイキャッチ領域の内容を定義する要素で,図16では,図15で図示したアイキャッチ領域5a〜cをそれぞれ定義する3つの<eye―catch>タグ60が記述されている。
<eye―catch>タグ60の子要素である<data>タグ61のtype属性によって,<eye―catch>タグ60で定義されるアイキャッチ領域に施すアイキャッチ合成処理が示され,name属性によって,<eye―catch>タグ60で定義されるアイキャッチ領域の名称が示される。図16において,第1のアイキャッチ合成処理に対応するtype属性の値は「A」で,第2のアイキャッチ合成処理に対応するtype属性の値は「B」である。
<eye―catch>タグ60の子要素である<point>タグ62は,アイキャッチ領域に含まれる1画素すなわち座標点毎に設けられる要素で,<point>タグ62間には,<point>タグ62で定義する座標点を定義する子要素と,アイキャッチ合成処理のパラメータを定義する子要素が記述される。
<point>タグ62の子要素である<x>タグ63a及び<y>タグ63bは,それぞれ座標点のex軸の値及びey軸の値を定義する要素である。
当然のことながら,画像処理の手法のパラメータを定義する子要素は, 画像処理の手法によって異なり,<data>タグ61のtype属性の値が「A」,すなわち,第1のアイキャッチ合成処理の場合,第1のアイキャッチ合成処理のパラメータを定義する子要素として,アイキャッチとなる画素のRGBの階調とアルファ値を表記する<r>タグ64a,<g>タグ64b,<b>タグ64c及び<a>タグ64dが記述される。
<r>タグ64a,<g>タグ64b及び<b>タグ64cは座標点におけるRGBの階調を定義する要素で,<r>タグ64aはR(赤)の階調で定義する要素で,<g>タグ64bはG(緑)の階調を定義する要素,<b>タグ64cはB(青)の階調で定義する要素で,<a>タグ64dは,アルファブレンドに利用するアルファ値を定義する要素である。各色の値及びアルファ値は任意であるが,図16に図示しているように,各色の階調は「230」,アルファ値としては「0.53」が良好である。なお,図16では,<a>タグ64dの値には,アルファ値が100倍された値(ここでは,「53」)を記述している。
また,<data>タグ61のtype属性の値が「B」,すなわち,第2のアイキャッチ合成処理の場合,第2のアイキャッチ合成処理のパラメータを定義する子要素として,<pt1>タグ65a,<pt2>タグ65b,<pt3>タグ65c及び<pt4>タグ65dが<point>タグ62毎に記述される。
<pt1>タグ65a,<pt2>タグ65b,<pt3>タグ65c及び<pt4>タグ65dは階調の変換に利用されるトーンカーブを定義する要素で, <pt1>タグ65a,<pt2>タグ65b,<pt3>タグ65c及び<pt4>タグ65dには,階調の入力値と出力値がカンマで区切って記述され,<pt1>タグ65a,<pt2>タグ65b,<pt3>タグ65c及び<pt4>タグ65dの値によってトーンカーブが一意に決定される。
なお,図16で図示したアイキャッチデータでは,<point>タグ62毎,すなわち,アイキャッチ領域に含まれる画素毎に,<pt1>タグ65a,<pt2>タグ65b,<pt3>タグ65c及び<pt4>タグ65dを用いてトーンカーブを定義しているが,アイキャッチ領域で共通となる一つのトーンカーブをアイキャッチデータで定義しすることもできる。
図17は,デジタル証明写真機1のアイキャッチ合成手段120が,アイキャッチ合成工程の詳細な手順を示したフロー図である。
デジタル証明写真機1の瞳検出手段110が瞳画像の中心及び半径を検出すると,制御手段100はアイキャッチ合成手段120を作動させる。アイキャッチ合成手段120は,アイキャッチを写真データに合成するとき,まず,FeRAM10cに記憶されているアイキャッチデータを瞳の半径に合わせるようにスケーリングする処理を実行する(S30)。
図15では,瞳の基準円5の半径は50しているため,検出した瞳の半径が50よりも大きければ,画素を増やす,すなわち,<point>タグ62を増やすように補間して,基準円5の半径を拡大させ瞳の半径に合うように基準円5をスケーリング処理したときのアイキャッチデータを生成する。また,検出した瞳の半径が50よりも小さければ,画素を減らす,すなわち,アイキャッチデータの<point>タグ62を減らすように補間して,基準円5の半径を縮小させ瞳の半径に合うように基準園5をスケーリング処理したときのアイキャッチデータを生成する。
デジタル証明写真機1のアイキャッチ合成手段120は,スケーリング処理後のアイキャッチデータを生成すると,スケーリング後のアイキャッチデータを座標演算する処理を実行する(S31)。
図15では,瞳の基準円5の中心点は2次元座標系P(x,y)の原点であるため,アイキャッチデータに含まれる<x>タグ63aそれぞれに,瞳の中心座標のX軸の値(x_eye)を加算し,更に,アイキャッチデータに含まれる<y>タグ63bそれぞれに,瞳の中心座標のY軸の値(y_eye)を加算する。
デジタル証明写真機1のアイキャッチ合成手段120は,スケーリング後のアイキャッチデータを瞳画像の中心に合うように座標演算すると,座標演算後のアイキャッチデータに含まれる<eye―catch>タグ60毎に実行されるループ処理Lを実行し,ループ処理Lが終了すると,この手順は終了する。
ループ処理Lにおいて,アイキャッチ合成手段120は,ループ処理L1の対象となる<eye―catch>タグ60に記述された<data>タグ61のtype属性の値を参照し,type属性の値に基づいて処理を分岐させる。
type属性の値が「A」の場合,アイキャッチ合成手段120は第1のアイキャッチ合成処理を選択し,また,type属性の値が「B」の場合,アイキャッチ合成手段120は第2のアイキャッチ合成処理を選択する。
アイキャッチ合成手段120が第1のアイキャッチ合成処理を選択したとき,対象となる<eye―catch>タグ60の子要素となっている<point>タグ62毎に,<point>タグ62で定義される画素を同じ<point>タグ62で定義される写真データの画素に数式1に従いアルファブレンドする処理を実行する。
<point>タグ62で定義される写真データの画素の座標は,座標演算後の<point>タグ62の子要素である<x>タグ63a及び<y>タグ63bの値で示され,<point>タグ62で定義される写真データの画素にアルファブレンドする画素のRGBの階調は,<point>タグ62の子要素である<r>タグ64a,<g>タグ64b及び<b>タグ64cの値で示され,更に,アルファブレンドするときのアルファ値は<a>タグ64dの値で示される。
アイキャッチ合成手段120が第2のアイキャッチ合成処理を実行するとき,対象となる<eye―catch>タグ60の子要素となっている<point>タグ62毎に,<point>タグ62で定義されている写真データの画素の階調を同じ<point>タグ62で定義されたトーンカーブに従い補正する処理を実行する。
<point>タグ62で定義される写真データの画素の座標は,座標演算後の<point>タグ62の子要素である<x>タグ63a及び<y>タグ63bの値で示され,階調の補正に利用するトーンカーブは,<point>タグ62の子要素である<pt1>タグ65a,<pt2>タグ65b,<pt3>タグ65c及び<pt4>タグ65dの4つの値から一意に決定される。
ラグランジュ補間によれば,4点を通るカーブ曲線は数式2の3次式で表すことができ,<pt1>タグ65a,<pt2>タグ65b,<pt3>タグ65c及び<pt4>タグ65dの4つの値を数式2の3次式に代入すると,数式3の連立方程式が得られ,数式3の連立方程式を解くことで,数式2の3次式の各係数(aからd)を求めることができる。
座標変換後の<point>タグ62の子要素である<x>タグ63a及び<y>タグ63bの値で特定される写真データの画素の階調を補正するとき,アイキャッチ合成手段120は,該画素のRGB座標系の値をYIQ座標系に変換し、Yの値に関して、数式1のTiに代入して得られるT0とする補正を行った後、RGB座標系への逆変換処理を行う。
なお,被写体の写真データには左右の瞳が含まれるため,デジタル証明写真機1のアイキャッチ合成手段120は,図17で図示した手順を右眼及び左眼についてそれぞれ実行することになる。
よって,デジタル証明写真機1のアイキャッチ合成手段120には右眼用のアイキャッチデータと左眼用のアイキャッチデータが記憶され,アイキャッチ合成手段120は,右眼の瞳にアイキャッチを合成するときは,右眼用のアイキャッチデータを利用し,左眼の瞳にアイキャッチを合成するときは,左眼用のアイキャッチデータを利用する。
右眼用のアイキャッチデータと左眼用のアイキャッチデータの内容は同一であっても異なっていてもよい。右眼用のアイキャッチデータと左眼用のアイキャッチデータの内容は同一の場合,右眼の瞳と左眼の瞳には同じ内容のアイキャッチが合成される。また,右眼用のアイキャッチデータと左眼用のアイキャッチデータの内容が異なる場合,右眼の瞳と左眼の瞳には異なる内容のアイキャッチ(例えば,左右対称)が合成される。
図18は,アイキャッチ合成後の写真データのイメージ図で,図18(a)はアイキャッチ合成前の写真データ5で,図18(b)はアイキャッチ合成後の写真データ5aである。これまで述べた手順が実行されることで,図18(a)で図示した写真データ5にアイキャッチが合成されて,図18(b)で図示した写真データ5bが生成される。
1 デジタル証明写真機
10 制御部
10a CPU,10b RAM,10c FeRAM,10d 画像処理プロセッサ
11 デジタルカメラ
12 写真プリンタ
13 タッチパネル
100 制御手段
106 両眼検出手段
110 瞳検出手段
120 アイキャッチ合成手段




Claims (15)

  1. 人物である被写体の写真データにアイキャッチを合成する装置であって,前記写真データに含まれる顔領域を解析して得られる眼の位置座標から瞳検出領域を設定し,前記写真データの二値化画像における前記瞳検出領域内の画像と円形テンプレートをテンプレートマッチングすることで,前記被写体の瞳に該当する瞳領域を特定した後,前記瞳領域の輪郭線を抽出し,前記瞳領域の輪郭線を用いて該被写体の瞳の中心座標及び半径を算出する瞳検出手段と,前記瞳検出手段が検出した瞳の中心座標及び半径を利用して,前記写真データに撮影された被写体の瞳に所定のアイキャッチを合成するアイキャッチ合成手段を備えていることを特徴とするアイキャッチ合成装置。
  2. 請求項1に記載のアイキャッチ合成装置において,前記瞳検出手段は,前記瞳検出領域に含まれ,定められた階調の画素の高さ方向の最大長さを利用して,前記円形テンプレートの径を求めることを特徴とするアイキャッチ合成装置。
  3. 請求項1または請求項2のいずれか一つに記載のアイキャッチ合成装置において,中心点を座標原点とし半径が基準長さの基準円上にアイキャッチを合成する領域であるアイキャッチ領域が定義され,更に,前記基準円上における前記アイキャッチ領域に含まれる画素の座標及び前記アイキャッチ領域に施すアイキャッチ合成処理が前記アイキャッチ領域毎に定義されたアイキャッチデータを前記アイキャッチ合成装置は記憶し,前記アイキャッチ合成手段は,アイキャッチを前記写真データに合成するとき,前記瞳検出手段が検出した瞳の半径に前記基準円の半径を合わせるように前記アイキャッチ領域をスケーリング処理したときの前記アイキャッチデータを生成した後,前記瞳検出手段が検出した瞳の中心座標に前記基準円の中心点を合わせる座標演算を実行し,座標演算後の前記アイキャッチデータで定義された前記アイキャッチ領域に対応する前記写真データの領域に,前記アイキャッチ領域に定義された前記アイキャッチ合成処理を実行することを特徴とするアイキャッチ合成装置。
  4. 請求項3に記載のアイキャッチ合成装置において,アイキャッチの合成にアルファブレンドを利用する第1のアイキャッチ合成処理が前記アイキャッチ領域に定義付けられている場合,前記アイキャッチ合成手段は,該アイキャッチデータにおいて該アイキャッチ領域に関連付けて定義されている画素と,該画素に対応する前記写真データの画素をアルファブレンドする処理を実行することを特徴とするアイキャッチ合成装置。
  5. 請求項3または請求項4に記載のアイキャッチ合成装置において,アイキャッチの合成に階調補正を利用する第2のアイキャッチ合成処理が前記アイキャッチ領域に定義付けられている場合,前記アイキャッチ合成手段は,該アイキャッチデータにおいて該アイキャッチ領域に関連付けられて定義されているトーンカーブを利用して,該アイキャッチ領域に対応する前記写真データの領域の階調を補正する処理を実行することを特徴とするアイキャッチ合成装置。
  6. 請求項5に記載のアイキャッチ合成装置において,前記トーンカーブ上の4点の値で前記トーンカーブは定義され,前記アイキャッチ合成手段は,該4点の値からトーンカーブの3次式を求め,該3次式を用いて前記写真データの画素の階調を補正することを特徴とするアイキャッチ合成装置。
  7. 請求項6に記載のアイキャッチ合成装置において,前記トーンカーブは,前記トーンカーブ上の4点の値を用いて前記アイキャッチ領域の画素毎に定義付けられ,前記アイキャッチ合成装置は,該アイキャッチ領域の画素毎に,該画素に定義されている前記トーンカーブを用いて,該アイキャッチ領域の画素毎に対応する前記写真データの画素の階調を補正する処理を実行することを特徴とするアイキャッチ合成装置。
  8. 人物である被写体の写真データにアイキャッチを合成する方法であって,アイキャッチを合成する装置が,前記写真データに含まれる顔領域を解析して得られる眼の位置座標から瞳検出領域を設定するステップa1,前記写真データの二値化画像における前記瞳検出領域内の画像と円形テンプレートをテンプレートマッチングすることで,前記被写体の瞳に該当する瞳領域を特定するステップa2,特定した前記瞳領域の輪郭線を抽出し,前記瞳領域の輪郭線を用いて該被写体の瞳の中心座標及び半径を算出するステップa3が実行される工程aと,前記装置が,前記工程aで検出した瞳の中心座標及び半径を利用して,前記写真データに撮影された被写体の瞳に所定のアイキャッチを合成する工程bを含むことを特徴とするアイキャッチ合成方法。
  9. 請求項8に記載のアイキャッチ合成方法において,前記工程aの前記ステップa1において,前記装置は,前記瞳検出領域に含まれ,定められた階調の画素の高さ方向の最大長さを利用して,前記円形テンプレートを生成することを特徴とするアイキャッチ合成装置。
  10. 請求項8または請求項9のいずれか一つに記載のアイキャッチ合成方法において,前記装置は,中心点を座標原点とし半径が基準長さの基準円上にアイキャッチを合成する領域であるアイキャッチ領域が定義され,更に,前記基準円上における前記アイキャッチ領域に含まれる画素の座標及び前記アイキャッチ領域に施すアイキャッチ合成処理が前記アイキャッチ領域毎に定義されたアイキャッチデータを記憶し,前記工程bにおいて,前記装置は,前記工程aで検出した瞳の半径に前記基準円の半径を合わせるように前記アイキャッチ領域をスケーリング処理したときの前記アイキャッチデータを生成するステップb1,前記工程aで検出した瞳の中心座標に前記基準円の中心点を合わせる座標演算を実行するステップb2,座標演算後の前記アイキャッチデータで定義された前記アイキャッチ領域に対応する前記写真データの領域に,前記アイキャッチ領域に定義された前記アイキャッチ合成処理を実行するステップb3が実行されることを特徴とするアイキャッチ合成方法。
  11. 請求項10に記載のアイキャッチ合成方法において,前記工程bの前記ステップb3において,前記装置は,アイキャッチの合成にアルファブレンドを利用する第1のアイキャッチ合成処理が前記アイキャッチ領域に定義付けられている場合,前記アイキャッチ合成手段は,該アイキャッチデータにおいて該アイキャッチ領域に関連付けて定義されている画素と,該画素に対応する前記写真データの画素をアルファブレンドする処理を実行することを特徴とするアイキャッチ合成方法。
  12. 請求項10または請求項11に記載のアイキャッチ合成方法において,前記工程bの前記ステップb3において,前記装置は,アイキャッチの合成に階調補正を利用する第2のアイキャッチ合成処理が前記アイキャッチ領域に定義付けられている場合,前記アイキャッチ合成手段は,該アイキャッチデータにおいて該アイキャッチ領域に関連付けられて定義されているトーンカーブを利用して,該アイキャッチ領域に対応する前記写真データの領域の階調を補正する処理を実行することを特徴とするアイキャッチ合成方法。
  13. 請求項12に記載のアイキャッチ合成方法において,前記トーンカーブ上の4点の値で前記トーンカーブは定義され,前記工程bの前記ステップb3において,前記装置は,該4点の値からトーンカーブの3次式を求め,該3次式を用いて前記写真データの画素の階調を補正することを特徴とするアイキャッチ合成方法。
  14. 請求項13に記載のアイキャッチ合成方法において,前記トーンカーブは,前記トーンカーブ上の4点の値を用いて前記アイキャッチ領域の画素毎に定義付けられ,前記工程bの前記ステップb3において,前記装置は,該アイキャッチ領域の画素毎に,該画素に定義付けられている前記トーンカーブを用いて,該アイキャッチ領域の画素毎に対応する前記写真データの画素の階調を補正する処理を実行することを特徴とするアイキャッチ合成方法。
  15. コンピュータに請求項8から請求項12に記載のアイキャッチ合成方法を実行させるコンピュータプログラム。
JP2009070226A 2009-03-23 2009-03-23 アイキャッチ合成装置及び方法 Pending JP2010224775A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009070226A JP2010224775A (ja) 2009-03-23 2009-03-23 アイキャッチ合成装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009070226A JP2010224775A (ja) 2009-03-23 2009-03-23 アイキャッチ合成装置及び方法

Publications (1)

Publication Number Publication Date
JP2010224775A true JP2010224775A (ja) 2010-10-07

Family

ID=43041907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009070226A Pending JP2010224775A (ja) 2009-03-23 2009-03-23 アイキャッチ合成装置及び方法

Country Status (1)

Country Link
JP (1) JP2010224775A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182673A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2014182761A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2014182672A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
WO2023276123A1 (ja) * 2021-07-01 2023-01-05 日本電気株式会社 学習システム、推定システム、学習方法、及びコンピュータプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005222152A (ja) * 2004-02-03 2005-08-18 Omron Corp 画像補正装置
JP2006163871A (ja) * 2004-12-08 2006-06-22 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2008041034A (ja) * 2006-08-10 2008-02-21 Matsushita Electric Ind Co Ltd 認証装置、登録装置、登録認証装置、認証方法、登録方法、認証プログラムおよび登録プログラム
JP2008077408A (ja) * 2006-09-21 2008-04-03 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2008084109A (ja) * 2006-09-28 2008-04-10 Sharp Corp 目開閉判定装置及び目開閉判定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005222152A (ja) * 2004-02-03 2005-08-18 Omron Corp 画像補正装置
JP2006163871A (ja) * 2004-12-08 2006-06-22 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2008041034A (ja) * 2006-08-10 2008-02-21 Matsushita Electric Ind Co Ltd 認証装置、登録装置、登録認証装置、認証方法、登録方法、認証プログラムおよび登録プログラム
JP2008077408A (ja) * 2006-09-21 2008-04-03 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2008084109A (ja) * 2006-09-28 2008-04-10 Sharp Corp 目開閉判定装置及び目開閉判定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNB201000100001; 昌達 慶仁 Keiji Shotatsu: 詳解 画像処理プログラミング 初版 ImageProcessing , 20080330, p46-47, ソフトバンククリエイティブ株式会社 *
JPN7012004122; 昌達 慶仁 Keiji Shotatsu: 詳解 画像処理プログラミング 初版 ImageProcessing , 20080330, p46-47, ソフトバンククリエイティブ株式会社 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182673A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2014182761A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2014182672A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
WO2023276123A1 (ja) * 2021-07-01 2023-01-05 日本電気株式会社 学習システム、推定システム、学習方法、及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
KR102362544B1 (ko) 이미지 처리를 위한 방법 및 장치, 및 컴퓨터 판독 가능 저장 매체
KR101446975B1 (ko) 얼굴 검출 기능을 사용한 얼굴 및 피부의 자동 미화
JP2006338377A (ja) 画像補正方法および装置並びにプログラム
JP2008234342A (ja) 画像処理装置及び画像処理方法
JP2004246456A (ja) 画像編集装置および画像編集方法
WO2012000800A1 (en) Eye beautification
JP2007087234A (ja) 画像処理方法および装置ならびにプログラム
JP2010211308A (ja) メイクアップアドバイス装置、メイクアップアドバイス方法及びプログラム
JP2007066199A (ja) 画像処理装置及び画像処理方法
JP2000261650A (ja) 画像処理装置
JP6111723B2 (ja) 画像生成装置、画像生成方法及びプログラム
US20090231628A1 (en) Image Processing Apparatus, Image Processing Method, Computer Program for Image Processing
JP2011060038A (ja) 画像処理装置
JP2007094623A (ja) 画像補正方法および装置並びにプログラム
US7212674B1 (en) Method, apparatus and recording medium for face extraction
JP2010224775A (ja) アイキャッチ合成装置及び方法
JP2018163648A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2007087123A (ja) 画像補正方法および装置並びにプログラム
US9092889B2 (en) Image processing apparatus, image processing method, and program storage medium
JP5545316B2 (ja) 印画物作製装置及び印画物作製方法
JP2017123015A (ja) 情報処理装置、画像処理方法およびプログラム
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
JP2009231879A (ja) 画像処理装置および画像処理方法
JP2009253324A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2009251634A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121009

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130305