JP4349019B2 - Image correction device - Google Patents

Image correction device Download PDF

Info

Publication number
JP4349019B2
JP4349019B2 JP2003196381A JP2003196381A JP4349019B2 JP 4349019 B2 JP4349019 B2 JP 4349019B2 JP 2003196381 A JP2003196381 A JP 2003196381A JP 2003196381 A JP2003196381 A JP 2003196381A JP 4349019 B2 JP4349019 B2 JP 4349019B2
Authority
JP
Japan
Prior art keywords
image
pupil
region
contour
pupil region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003196381A
Other languages
Japanese (ja)
Other versions
JP2005031990A (en
Inventor
えりな 瀧川
美希 松岡
美春 櫻木
陽子 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2003196381A priority Critical patent/JP4349019B2/en
Publication of JP2005031990A publication Critical patent/JP2005031990A/en
Application granted granted Critical
Publication of JP4349019B2 publication Critical patent/JP4349019B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、撮像された画像、特に人物を被写体とした画像に対する補正処理に技術に関する。
【0002】
【従来の技術】
一般的に、男女ともに、瞳の大きさが大きい方が相手に与えるかわいらしいという印象や親近感などが増すと言われている。例えば、赤ん坊は、顔の大きさに対して目の占める割り合いが大きく、その結果瞳の大きさが大きく感じられるため、相手に対しかわいらしい印象を与える。また、視覚的な効果として、瞳が大きいことにより顔が小顔に見えるようになるとも言われている。
【0003】
一方、従来の技術として、被写体の人物の顔画像に対して画像処理を施すことにより化粧をシミュレートする技術がある(特許文献1参照)。特許文献1には、人物の顔の部位(目,瞳,瞼,眉,口,鼻,頬,肌,髪など)を検出し、これらの部位の形状や大きさや色を変更する技術が記載されている。
【0004】
また、従来の技術として、被写体の瞳孔の大きさを画像から検出する技術(特許文献2参照)や、被写体の瞳の位置を画像から検出する技術(特許文献3,非特許文献1参照)などがある。
【0005】
【特許文献1】
特開2000−151985号公報
【特許文献2】
特開平09−028672号公報
【特許文献3】
特開2000−339476号公報
【非特許文献1】
湯浅真由美、福井和広,山口修、「パターンとエッジの統合エネルギー最小化に基づく高精度な瞳検出」、信学技報、2000年、Vol.100、No.134、p.79−84
【0006】
【発明が解決しようとする課題】
しかしながら、特許文献1,2のいずれにも、瞳の大きさを拡大して出力するための具体的な処理は記載されていない。例えば、特許文献2に記載の技術によって瞳孔や瞳の大きさが正確に検出されたとしても、単純にその大きさを拡大するのみでは出力される画像が不自然なものとなってしまう。
【0007】
このように、そもそも瞳の大きさを大きくするための画像補正に着目した具体的な技術はこれまで提案されていなかった。このため、特許文献1,2を単に適用するのみでは、瞳の大きさが拡大されかつ自然な顔の画像を得ることはできなかった。
【0008】
本発明では、このような問題を解決し、顔画像に含まれる瞳の大きさを自然に拡大し、画像を見る者に対し良い印象を抱かせる顔画像を生成する画像補正装置やプログラムなどを提供することを目的とする。
【0009】
【課題を解決するための手段】
上記問題を解決するため、本発明は以下のような構成をとる。本発明の第一の態様は、画像補正装置であって、瞳特定手段,輪郭特定手段,拡大手段,削除手段,及び合成手段を含む。
【0010】
瞳特定手段は、画像中の被写体である人物の瞳領域を特定する。
【0011】
輪郭特定手段は、画像中の被写体である人物の目の輪郭を特定する。目の輪郭とは、上瞼及び下瞼によって囲まれる領域の輪郭を示す。言い換えれば、眼の輪郭とは眼球を覆う眼瞼と、眼瞼に覆われていない眼球表面との境界を示す。
【0012】
拡大手段は、瞳特定手段によって特定された瞳領域の画像を拡大させる。
【0013】
削除手段は、拡大手段によって拡大された瞳領域の画像において、輪郭特定手段によって特定された輪郭からはみ出した部分を削除する。
【0014】
合成手段は、削除手段によって輪郭からはみ出した部分が削除された瞳領域の画像を用いて、瞳が拡大された画像を取得する。例えば、瞳領域を含む一部の画像が原画像から抜き出され拡大手段や削除手段の処理対象となる場合、合成手段は、削除手段から出力される画像を原画像の元の位置に合成する。
【0015】
本発明の第一の態様では、瞳特定手段によって特定された瞳領域の画像が、拡大手段によって所定の手順で拡大される。このままでは、瞳領域の画像が、被写体の眼瞼によって囲まれる眼の輪郭を越えている場合があるため、輪郭手段によって眼の輪郭が特定され、拡大された瞳領域の画像のうち、眼の輪郭からはみ出た部分が削除される。そして、この瞳領域の画像を用いて、補正後の画像が生成される。
【0016】
このため、本発明の第一の態様によれば、ユーザは、画像編集装置(画像編集ソフトがインストールされた情報処理装置も含む)のような手作業の介在する装置を操作することなく、自動的に瞳が自然に拡大された、見る者に対し良い印象を与える画像を取得することが可能となる。
【0017】
また、本発明の第一の態様における輪郭特定手段は、人物の目の領域を含む画像である目領域画像を抽出し、前記目領域画像から肌色領域をマスキングすることにより、目の輪郭を特定するように構成されても良い。
【0018】
また、本発明の第一の態様における拡大手段は、瞳領域に基づいて拡大領域を特定する拡大領域特定手段と、拡大領域に基づいて瞳領域の画像全体を所定の倍率で拡大変換する拡大変換手段とを含むように構成されても良い。
【0019】
本発明の第二の態様は、画像補正装置であって、瞳特定手段、輪郭抽出手段、輪郭操作手段、及び画素値付与手段を備える。
【0020】
瞳特定手段は、画像中の被写体である人物の瞳領域を特定する。輪郭特定手段は、画像中の被写体である人物の目の輪郭を特定する。輪郭抽出手段は、瞳領域の輪郭を抽出する。瞳領域の輪郭とは、黒目の領域と白目の領域との境界に相当する。輪郭操作手段は、輪郭抽出手段によって抽出される瞳領域の輪郭を操作することにより、瞳領域を広げる。画素値付与手段は、輪郭操作手段によって広げられた瞳領域の各画素に対し、瞳を示す画素値を与える。瞳を示す画素値とは、この人物の瞳領域における画素値と同じ又は類似した画素値である。
【0021】
このように構成された本発明の第二の態様では、広げられた瞳領域と広げられる前の瞳領域との差分領域の各画素に限定して新たな画素値を与えるように構成された場合、元の瞳領域の画像が操作されない。このため、原画像において瞳に写りこんでいた映像などが崩されること無く、自然に瞳が拡大された画像を得ることが可能となる。
【0022】
また、本発明の第二の態様における輪郭操作手段は、輪郭抽出手段によって抽出された瞳領域の輪郭のうち白目領域との境界に位置する輪郭が複数得られた場合に、各輪郭を互いに離間する方向に移動させることにより瞳領域の輪郭を広げるように構成されても良い。
【0023】
また、本発明の第二の態様における輪郭操作手段は、画像中の被写体である人物の左右の目それぞれの略中心に位置する2点を取得する目中心取得手段と、この2点を含む直線を移動軸として特定する移動軸特定手段とを含み、輪郭を移動軸に従って移動させるように構成されても良い。
【0024】
また、本発明の第二の態様における輪郭操作手段は、移動軸に平行に各輪郭を移動させるように構成されても良い。
【0025】
本発明の第三の態様は、画像補正装置であって、瞳特定手段、近似手段、図形拡大手段、及び画素値付与手段を含む。瞳特定手段は、画像中の被写体である人物の瞳領域を特定する。近似手段は、瞳特定手段によって特定された瞳領域を幾何学図形に近似する。図形拡大手段は、近似手段によって得られた幾何学図形を拡大することにより、近似された瞳領域を広げる。画素値付与手段は、図形拡大手段によって広げられた瞳領域の各画素に対し、瞳を示す画素値を与える。瞳を示す画素値とは、この人物の瞳領域における画素値と同じ又は類似した画素値である。
【0026】
このように構成された本発明の第三の態様では、瞳領域の画像が幾何学図形に基づいて拡大される。このため、拡大後の瞳領域は整った輪郭として得られ、見る者に対しより良い印象を与える画像を得ることが可能となる。
【0027】
また、このように構成された本発明の第三の態様では、広げられた瞳領域と広げられる前の瞳領域との差分領域の各画素に限定して新たな画素値を与えるように画素値付与手段が構成された場合、元の瞳領域の画像が操作されない。このため、原画像において瞳に写りこんでいた映像が崩されることなどが無く、自然に瞳が拡大された画像を得ることが可能となる。
【0028】
また、本発明の第三の態様における近似手段は、軸を取得する軸取得手段と、瞳領域のうち、軸方向の幅が最も大きい部分の中点位置を円の中心として取得する円中心取得手段と、円の中心が取得された際に軸方向の幅の半分の値を円の半径として取得する半径取得手段とを含むように構成されても良い。
【0029】
また、本発明の第三の態様における図形拡大手段は、中心と取得された半径よりも長い半径とを用いて円を描くように構成されても良い。
【0030】
また、本発明の第三の態様における図形拡大手段は、中心と取得された半径が軸からの角度に応じて延長された半径とを用いて軌跡を描くように構成されても良い。
【0031】
また、本発明の第二の態様及び第三の態様における画素値付与手段は、瞳領域から画素値をサンプリングし、サンプリングされた画素値を、瞳を示す画素値として与えるように構成されても良い。
【0032】
また、本発明の第一の態様、第二の態様、及び第三の態様は、拡大された瞳領域の略境界に対しぼかし処理を施すぼかし手段をさらに備えるように構成されても良い。
【0033】
本発明の第四の態様は、画像中の被写体である人物の瞳領域を特定するステップと、画像中の被写体である人物の目の輪郭を特定するステップと、特定された瞳領域の画像を拡大させる拡大ステップと、拡大ステップにおいて拡大された瞳領域の画像において、特定された輪郭からはみ出した部分を削除するステップと、輪郭からはみ出した部分が削除された瞳領域の画像を用いて、瞳が拡大された画像を取得するステップとを情報処理装置に実行させるプログラムである。
【0034】
また、本発明の第四の態様における拡大ステップは、瞳領域に基づいて拡大領域を特定するステップと、拡大領域に基づいて瞳領域の画像全体を所定の倍率で拡大変換するステップとを含むように構成されても良い。
【0035】
また、本発明の第五の態様は、画像中の被写体である人物の瞳領域を特定するステップと、画像中の被写体である人物の目の輪郭を特定するステップと、瞳領域の輪郭を抽出するステップと、瞳領域の輪郭を操作することにより瞳領域を広げるステップと、広げられた瞳領域の各画素に対し、瞳を示す画素値を与えるステップと、画素値が与えられた瞳領域の画像を用いて、瞳が拡大された画像を取得するステップと、を情報処理装置に実行させるプログラムである。
【0036】
また、本発明の第五の態様における拡大ステップは、瞳領域を幾何学図形に近似するステップと、得られた幾何学図形を拡大することにより、近似された瞳領域を広げるステップと、広げられた瞳領域の各画素に対し、瞳を示す画素値を与えるステップとを含むように構成されても良い。
【0037】
【発明の実施の形態】
〔〔第一実施形態〕〕
次に、図を用いて画像補正装置の第一実施形態である、画像補正装置1aについて説明する。以下の説明において、人物画像とは、少なくとも瞳を含む人物の顔の一部または全部の画像を含む画像である。従って、人物画像とは、人物全体の画像を含んでも良いし、人物の顔だけや上半身だけの画像を含んでも良い。また、複数の人物についての画像を含んでも良い。さらに、背景に人物以外の風景(背景:被写体として注目された物も含む)や模様などのいかなるパターンが含まれても良い。
【0038】
なお、画像補正装置1aについての以下の説明は例示であり、その構成は以下の説明に限定されない。
【0039】
〔システム構成〕
画像補正装置1aは、ハードウェア的には、バスを介して接続されたCPU(中央演算処理装置),主記憶装置(RAM),補助記憶装置などを備える。補助記憶装置は、不揮発性記憶装置を用いて構成される。ここで言う不揮発性記憶装置とは、いわゆるROM(Read-Only Memory:EPROM(Erasable Programmable Read-Only Memory),EEPROM(Electrically Erasable Programmable Read-Only Memory),マスクROM等を含む),FRAM(Ferroelectric RAM),ハードディスク等を指す。
【0040】
図1は、画像補正装置1aの機能ブロックを示す図である。画像補正装置1aは、補助記憶装置に記憶された各種のプログラム(OS,アプリケーション等)が主記憶装置にロードされCPUにより実行されることによって、入力部2,記憶部3,領域検出部4,補正処理部5a,及び出力部6等を含む装置として機能する。領域検出部4及び補正処理部5aは、画像補正プログラムがCPUによって実行されることにより実現される。
【0041】
図2は、画像補正装置1aの各機能部によって実行される主な処理とその流れを示す図である。以下、図1,2を用いて、画像補正装置1aの各機能部について説明する。
【0042】
〈入力部〉
入力部2は、人物画像の原画像7のデータ(以下、「原画像7のデータ」と呼ぶ)を画像補正装置1aへ入力するためのインタフェースとして機能する。入力部2によって、画像補正装置1aの外部から原画像7のデータが画像補正装置1aへ入力される(S1)。入力部2は、画像補正装置1aへ原画像7のデータを入力するためのどのような既存技術を用いて構成されても良い。
【0043】
例えば、ネットワーク(例えばローカル・エリア・ネットワークやインターネット)を介して人物画像のデータが画像補正装置1aへ入力されても良い。また、デジタルカメラやパーソナルコンピュータ等から人物画像のデータが画像補正装置1aへ入力されても良い。また、記録装置や記録媒体(例えば各種フラッシュメモリやフロッピー(登録商標)ディスクやCD(Compact Disk)やDVD(Digital Versatile Disc、Digital Video Disc))に記録された人物画像のデータが画像補正装置1aへ入力されても良い。また、画像補正装置1aがデジタルカメラ等の撮像装置又はデジタルカメラ等の撮像装置を備える各種装置(例えばPDA(Personal Digital Assistant)や携帯電話機)の内部に含まれ、撮像された人物画像がデータとして保存される前又は後に画像補正装置1aへ入力されても良い。また、画像補正装置1aが、プリンタやディスプレイ等の画像出力装置の内部に含まれ、出力データとしてこの画像出力装置に入力された人物画像のデータが画像補正装置1aへ入力されても良い。
【0044】
入力部2は、上記されたそれぞれの場合に応じて構成される。入力部2は、上記された複数の場合に応じることが可能となるように構成されても良い。
【0045】
〈記憶部〉
記憶部3は、いわゆるRAMを用いて構成される。記憶部3は、領域検出部4又は補正処理部5aによって各処理が実行される際に利用される。例えば、記憶部3には、処理対象となる原画像7のデータや、中間生成データとしての目領域画像8のデータや、出力データとしての瞳拡大画像9のデータ等が読み書きされる。ここで、目領域画像8とは、原画像7に含まれる画像であって、被写体の人物の目及びその周囲を含む画像を指す。また、瞳拡大画像9とは、画像補正装置1aから出力される画像であり、原画像7中の人物の瞳が画像補正によって拡大された画像を指す。このため、原画像7と瞳拡大画像9とは、基本的に、瞳及びその周囲以外の画像は同じ画像となる。
【0046】
〈領域検出部〉
領域検出部4は、領域検出処理を実行する。以下、領域検出処理について説明する。
【0047】
領域検出処理では、画像処理が実施される目領域画像8のデータが、原画像7のデータから取得される。また、補正処理部5aにおいて拡大などの処理の対象となる瞳領域が目領域画像8から検出される。
【0048】
図3は、領域検出処理を説明するための図である。次に、領域検出処理の具体的な流れについて説明する。
【0049】
まず、領域検出処理では、原画像7から人物の顔を含む領域(以後「顔領域」と呼ぶ)が検出される(S2:図2参照)。そして、検出された顔領域を含む矩形(以下「顔矩形」と呼ぶ:図3(b)の内側の矩形に相当)の座標が得られる。この顔矩形の座標により、原画像7における被写体となった人物の顔領域の位置や大きさが特定される。
【0050】
顔領域の検出は、既存のどのような技術を適用することにより実現されても良い。例えば、顔全体の輪郭に対応した基準テンプレートを用いたテンプレートマッチングによって顔矩形の座標が得られても良い。また、顔の構成要素(目,鼻,耳など)に基づくテンプレートマッチングによって顔矩形の座標が得られても良い。また、クロマキー処理によって頭髪の頂点が検出され、この頂点に基づいて顔矩形の座標が得られても良い。
【0051】
領域検出処理では、次に、顔領域の画像から、目領域画像8が取得される(S3)。目領域画像8の取得は、既存のどのような技術を適用することにより実現されても良い。
【0052】
例えば、まず人物の目又は瞳の中心位置が検出され(図3(c)のクロスマーク(×印)に相当)、検出された位置を元に目領域画像8の領域(図3(d)の最も内側に位置する二つの矩形に相当)が決定され、目領域画像8が取得される。このとき、人物の目又は瞳の中心位置の検出には、既存のどのような技術が適用されても良い。
【0053】
例えば、特許文献3や非特許文献1に記載された技術によって、人物の目又は瞳の中心位置が検出される。また、検出された位置を元に目領域画像8が取得される際に、どのような方法によって取得されても良い。例えば、検出された位置を中心にした特定の矩形によって囲まれた画像が目領域画像8として取得される。このとき、特定の矩形は、例えば人物の顔幅や左右の目の中心位置の距離などを元にその大きさが決定される。
【0054】
領域検出処理では、次に、取得された目領域画像8から瞳領域が検出される(図2のS4)。瞳領域の検出は、既存のどのような技術を適用することにより実現されても良い。以下にその例を示す。
【0055】
図4は、瞳領域の検出が実施される際の処理の流れを示すフローチャートである。図5は、瞳領域の検出が実施される前の目領域画像8(図5(a))及び瞳領域の抽出が実施された後の目領域画像8(図5(b))を示す図である。
【0056】
まず、目領域画像8から、非瞳領域として肌色の領域が抽出される。そして、抽出された肌色の領域についてマスキングが施される(S4a)。この処理は、例えばLab空間法によって実施される。このマスキングにより、目領域画像8から肌色の領域が除去され、白目の領域と瞳領域を含む目の輪郭が特定される。
【0057】
次に、S4aの処理が実施された目領域画像8から、非瞳領域として白目の領域(即ち白色の領域)が抽出される。そして、抽出された白目の領域についてマスキングが施される(S4b)。この処理は、例えばRGB空間法によって実施される。このマスクキングにより、白目の領域が除去され、瞳領域の画像が取得される。
【0058】
S4a及びS4bの処理の実施結果として得られる目領域画像8(図5の(b)に相当)には、拡大などの処理の対象となる瞳領域の画像が残る(S4c)。このようにして、瞳領域の抽出が実施される(S4)。
【0059】
〈補正処理部〉
補正処理部5aは、補正処理を実施する。以下、補正処理について説明する。補正処理では、目の領域内、即ち上瞼と下瞼との間の領域内で、領域検出処理によって検出された瞳領域を拡大する画像補正処理が実施される(S5:図2参照)。
【0060】
図6は、補正処理の具体的な流れを示すフローチャートである。図7は、補正処理部5aの構成例を示す機能ブロック図である。補正処理部5aは、領域指定部10,拡大処理部11,ぼかし処理部12,及び領域補正部13を備える。
【0061】
まず、目領域画像8において、検出された瞳領域が拡大される(S5a)。ここで、補正処理部5aによって実施される瞳領域の拡大処理の具体的な流れを説明する。まず、検出された瞳領域のうちx軸方向の最大値又は最小値を有する点を通りx軸に垂直な線と、y軸方向の最大値又は最小値を通りy軸に垂直な線とによって囲まれる矩形が取得される。この矩形の取得は、領域指定部10によって実行される。そして、この矩形の中心を基準点として、瞳領域の画像が特定の倍率(例:110%,120%)に従って拡大される。この拡大は、拡大処理部11によって実行される。
【0062】
特定の倍率は、あらかじめユーザによって設定されても良いし、動的に決定されても良い。特定の倍率を動的に決定する方法には、例えば目領域と瞳領域との大きさの比(例えば画素数の比)によって決定する方法や、目領域と瞳領域との横幅の比によって決定する方法などがある。
【0063】
他の方法に基づいた瞳領域の拡大を実現する処理については、第二実施形態及び第三実施形態の欄で説明する。
【0064】
次に、S5aの処理によって拡大された瞳領域の境界部分に対し、ぼかし処理が実施される。この処理はぼかし処理部12によって実行される。この境界部分は、拡大された瞳領域の面積や縦幅・横幅の値などから一定の基準に従って求められる。例えば、拡大された瞳領域をさらに特定の倍率(例:98%)で縮小し、拡大された瞳領域と縮小された瞳領域との差分部分が境界部分とみなされる。縮小処理を省略するために、拡大する前の瞳領域を縮小された瞳領域として使用することにより境界部分が獲得されても良い。また、瞳領域の面積や縦幅・横幅などが、予め設定された閾値よりも小さい場合にはぼかし処理を実行しないように構成されても良い。
【0065】
また、境界部分に対するぼかし処理には、拡大された瞳領域と白目の部分との境界の不自然さを解消するために実施される補正であれば、既存のどのような補正方法が適用されても良い。例えば、境界部分の内側から外側へ向けて、瞳領域の画素値から白目領域の画素値まで線形に色を変化させることによりぼかし処理が実施されても良い。または、境界部分に対し、移動平均フィルタ等を用いたぼかし処理が実施されても良い。
【0066】
次に、S5bの処理によって画像処理された瞳領域の画像のうち、上瞼及び下瞼からはみ出た部分が削除される(S5c)。この処理は、領域補正部13によって実行される。この処理は、例えば領域検出処理において作成された肌色の領域のマスクを用いることによって実現される。
【0067】
そして、S5cの処理によってはみ出した部分が削除された瞳領域の画像が、原画像7の該当位置に合成され、瞳拡大画像9が生成される(S5d)。
【0068】
〈出力部〉
出力部6は、補正処理によって作成された瞳拡大画像9のデータを外部へ出力するためのインタフェースとして機能する。出力部6によって出力されるデータの使用方法は、出力部6を介してこのデータを取得する装置に依存する。例えば、画像補正装置1aがディスプレイを備える場合、又はディスプレイに接続される場合、このディスプレイに対し出力部6によるデータ出力が実施され、瞳拡大画像9が表示されるように構成される。また、例えば、画像補正装置1aがデジタルカメラ又はデジタルカメラを備える各種装置の内部に含まれる場合、デジタルカメラは出力部6から出力される瞳拡大画像9のデータを保存するように構成される。また、例えば、画像補正装置1aが他の画像補正装置の内部に含まれる場合、他の画像補正装置は、この瞳拡大画像9のデータに対しさらに補正処理を実行するように、又はこの瞳拡大画像9のデータを生成物として記録又は出力するように構成される。
【0069】
〔作用/効果〕
画像補正装置1aでは、領域検出処理の実行により、原画像7から瞳領域が検出される。次に、検出された瞳領域の画像が拡大され、拡大された瞳領域の画像のうち、上瞼及び下瞼(即ち目の領域)からはみ出た部分の画像が削除される。そして、はみ出た部分が削除された目領域の画像が、原画像7の該当する部分に合成され、瞳拡大画像9が生成される。
【0070】
図8は、瞳領域が拡大された画像の例を示す図である。図9は、瞳が拡大される前の画像の例(入力画像の例:(a))と、瞳が拡大された後の画像の例(出力画像の例:(b))とを示す図である。
【0071】
図8(a)は、拡大された瞳領域に対しぼかし処理(S5b)及びはみ出た瞳領域の削除(S5c)が実行されない場合の画像の例を示す図である。このように、抽出された瞳領域の画像が単純に拡大処理されたのみでは、特に瞳領域の上端側及び下端側が瞼の上にはみ出してしまう。このため、拡大後の画像が不自然な画像となってしまう。一方、図8(b)は、拡大された瞳領域に対しぼかし処理(S5b)及びはみ出た瞳領域の削除(S5c)が実行された場合の画像の例を示す図である。即ち、図8(b)は、画像補正装置1aによって生成される瞳拡大画像9である。画像補正装置1aによれば、図8(b)に示されるように瞳領域の画像が上下の瞼にはみ出すことなく拡大される。このため、このように生成された瞳領域の画像がS5dの処理において用いられることにより、画像補正装置1aに入力された画像(図9(a))に比べて、自然に瞳が拡大された、見る者に良い印象と与える人物画像(図9(b))を自動的に取得することが可能となる。
【0072】
従って、熟練の技能を要する画像編集ソフト等を用いた手動の処理を行うことなく、他人に対する印象が良い写真(図9(b))を得たいというユーザ等の願望に対し応えることが可能となる。
【0073】
また、最近ではカメラ付き携帯端末(例:携帯電話機,PDA)が広く普及している。このような装置で人物画像が撮像された場合、あらかじめ装置に備えられている通信機能による他の装置への送信処理や、装置に備えられている表示部への表示により、撮像された画像が直接的に他人の目に触れる機会が多い。言い換えれば、このような装置で撮像された画像については、他人の目に触れるまでの間に、パーソナルコンピュータやフォトレタッチ専用装置などを用いての画像編集を行う機会が少ない。また、このような携帯端末に備えられた表示部の大きさや入力インタフェース等は非常に限られているため、携帯端末の装置上で画像処理を人間の手によって行うことは、非常に困難でありユーザにとって煩わしい処理となる。
【0074】
一方、画像補正装置1aがこのようなカメラ付き携帯端末に搭載されることにより、撮像された人物画像の瞳が上述の処理によって自然に拡大されるため、ユーザは簡易に他人に対し印象の良い画像を得ることが可能となる。
【0075】
また、画像補正装置1aでは、瞳領域の境界部分、即ち瞳の領域と白目の領域との境界部分に対し、ぼかし処理が実施される。このため、瞳部分が浮き出して見える等の違和感をユーザに与えない自然な瞳拡大画像9を取得することが可能となる。
【0076】
〔変形例〕
上記説明では、領域検出処理において、目領域画像8が取得されることにより、記憶部3に目領域画像8が一時的に記憶され、瞳の拡大に関する処理が目領域画像8に対して実行された。そして、この目領域画像8が原画像7の該当部分に合成されることにより、瞳拡大画像9が取得された。しかし、目領域画像8が取得されること無く、瞳の拡大に関する処理が直接的に原画像7について実施されても良い。
【0077】
また、S4aの処理において、白目が充血していることを考慮し、さらに赤色の領域についても抽出及びマスキングが実施されても良い。このようなマスキング処理は、RGB空間法やLab空間法など、どのような方法によって行われても良い。
【0078】
また、S5bの処理とS5cの処理とは、実行される順序が逆であっても良い。即ち、瞳領域のうち瞼にはみ出た領域が削除された後にぼかし処理が実行されるように構成されても良い。
【0079】
また、S5bの処理、即ちぼかし処理は必ずしも実行される必要はなく、ユーザや設計者によって実行するか否かを選択するように構成されても良い。同様に、ぼかし処理が実行されないように構成されても良い。
【0080】
〔〔第二実施形態〕〕
〔システム構成〕
次に、図を用いて画像補正装置の第二実施形態である、画像補正装置1bについて、画像補正装置1aと異なる点について説明する。
【0081】
画像補正装置1bは、補正処理部5aの代わりに補正処理部5bを備える点で画像補正装置1aと異なる。補正処理部5bは、瞳領域を拡大する処理(図6のS5aを参照)の内容が、補正処理部5aと異なる。
【0082】
図10は、画像補正装置1bの補正処理部5bによる補正処理を示すフローチャートである。図11は、補正処理部5bの構成例を示す機能ブロック図である。補正処理部5bは、ぼかし処理部12,領域補正部13,移動軸取得部14,境界線抽出部15,境界線処理部16,及び色決定部17を備える。以下、図10,11を用いて、画像補正装置1bの補正処理部5bにおける補正処理の流れについて説明する。
【0083】
まず、移動軸18が取得される(S5a−1a)。この処理は移動軸取得部14によって実行される。図12は、移動軸18の例を示す図である。移動軸18の使用方法については後述する。移動軸18は、領域検出処理において検出される左右の瞳の中心位置(図12のクロスマーク(×印)に相当)を含む直線として得られる。
【0084】
次に、瞳領域と白目との境界線が抽出される(S5a−2a)。この処理は、境界線抽出部15によって実行される。図13は、瞳領域と白目との境界線を示す図である。図13において、瞳領域と白目との境界線は、太線によって示される。このような境界線は、例えば一般的なエッジ抽出処理によって抽出される。
【0085】
次に、抽出された境界線が、取得された移動軸18に従って平行移動される(S5a−3a)。この処理は、境界線処理部16によって実行される。図14は、抽出された境界線が移動軸18に従って平行移動される様子を示す画像である。図14に示される様に、抽出された境界線は、瞳の中心位置から離れる方向へ平行移動される。移動距離は、適宜設定されて良い。移動距離は、例えば、領域検出処理において検出された顔の横幅や、検出された瞳領域の横幅などの値を元に決定される。
【0086】
次に、瞳領域の各画素に対して色が与えられる(S5a−4a)。この処理は色決定部17によって実行される。補正処理部5bの境界線処理部16による処理(図10のS5a−3a)では、瞳の拡大処理として境界線が移動されるだけであるため、拡大後と拡大前との差分領域には瞳としての画素値が与えられていない。このため、S5a−4aの処理により、このような差分領域に対し画素値が与えられる。また、差分領域のみならず、拡大された後の瞳領域の全画素に対して新たに画素値が与えられても良い。
【0087】
上記の差分領域に対し、どのように画素値が与えられても良い。拡大前の瞳領域からサンプリングされた画素値を用いて、上記の差分領域に対して画素値が与えられても良い。具体的には、例えば、拡大前の瞳領域の最も外側に位置する画素の画素値が、この画素から移動軸18上に位置する全ての差分領域に対して与えられても良い。また、例えば、拡大前の瞳領域から複数の画素値がサンプリングされ、サンプリングされた複数の画素値から、差分領域毎に画素値がランダムに選択されても良い。
【0088】
補正処理部5bによる補正処理では、S5a−4aの処理の後、S5b以降の処理(図6参照)が補正処理部5aと同様に実施される。
【0089】
〔作用/効果〕
画像補正装置1bによれば、瞳領域の画像そのものを拡大させることなく瞳領域を拡大することが可能となる。このため、差分領域のみに新たに画素値を与えるように構成されることにより、瞳に映りこんだ映像が変形されることなく、瞳拡大画像9を得ることが可能となる。従って、より自然に瞳が拡大された画像を得ることが可能となる。
【0090】
〔変形例〕
画像補正装置1bでは、拡大前の瞳領域が下瞼又は上瞼に交わらない場合、移動軸18に従って境界線が平行移動されると、瞳領域が閉じた領域でなくなってしまう。即ち、瞳領域を形成する境界線の一部が開いてしまい、瞳領域を特定することができなくなる。このような場合には、第一実施形態又は第三実施形態に示される方法(所定の基準を原点にした倍率(スケーリング)処理)が採用されることにより、瞳拡大画像9が得られるように構成されても良い。
【0091】
また、拡大前の瞳領域が下瞼又は上瞼に交わっていたとしても、平行移動されると交わらなくなってしまい、瞳領域が閉じた領域でなくなってしまう場合がある。このような場合、第一実施形態又は第三実施形態に示される方法が採用されることにより、瞳拡大画像9が得られるように構成されても良い。また、抽出された境界線及び上瞼又は下瞼の境界線が曲線(例:ベジエ曲線,円の弧)に近似され、数学的に境界線同士の交点が算出され、閉じた空間が生成されても良い。
【0092】
また、第二実施形態では、S5cの処理(図6参照)、即ち拡大処理によってはみ出てしまった瞳領域を削除する処理を実行しないように構成されても良い。第二実施形態では境界線が移動軸に平行に移動されるため、拡大後の瞳領域はほとんど瞼に対してはみ出てしまうことが無い。このため、特に境界線の移動量が小さい場合は、このような削除処理を実行しなくとも、自然に瞳が拡大された瞳拡大画像9を得ることが可能である。
【0093】
〔〔第三実施形態〕〕
〔システム構成〕
次に、図を用いて画像補正装置の第三実施形態である、画像補正装置1cについて、画像補正装置1bと異なる点について説明する。
【0094】
画像補正装置1cは、補正処理部5bの代わりに補正処理部5cを備える点で画像補正装置1bと異なる。
【0095】
図15は、画像補正装置1cの補正処理部5cによる補正処理を示すフローチャートである。図16は、補正処理部5cの構成例を示す機能ブロック図である。補正処理部5cは、瞳領域を拡大する処理(図6のS5a)の内容が、補正処理部5bと異なる。構成としては、補正処理部5cは、中心検出部19及び円拡大部20を備える点で補正処理部5bと異なる。補正処理部5cは、ぼかし処理部12,領域補正部13,移動軸取得部14,色決定部17,中心検出部19,及び円拡大部20を備える。以下、図15,16を用いて、画像補正装置1cの補正処理部5cにおける補正処理の流れについて説明する。
【0096】
まず、瞳の中心点が検出される。この処理は、移動軸取得部14及び中心検出部19によって実行される。領域検出処理において瞳の中心が検出されるが、改めて瞳の中心が検出される。
【0097】
次に、領域検出処理において検出される左右の瞳の中心位置を含む直線(第二実施形態における移動軸18に相当)がx軸として取得される(図15のS5a−1b)。次に、瞳領域のうちx軸方向の幅が最大となる部分を検出する。そして、このときの瞳領域のx軸方向の中点が瞳の中心として検出される。また、このときの幅の半分の長さが、半径として取得される(S5a−2b)。
【0098】
次に、瞳の中心位置をもとに、瞳領域の範囲が広げられる。この処理は、円拡大部20によって実行される。具体的には、中心検出部19によって得られた中心点と半径とを用いて円などの領域が定義され、この領域が新たな瞳領域として設定される(S5a−3b)。
【0099】
例えば、瞳の中心位置と、所定の倍率で大きくされた半径とを用いて円が定義されても良い。また、例えば、瞳の中心位置と半径とを用い、半径に対してx軸からの角度に応じた重みを乗じることによって、円に似た領域が定義されても良い。図17は、新たな瞳の領域の定義方法のうち後者の方法を示す図である。半径に対するx軸からの角度とは、図17においては(θ+π/2)で表現される。そして、図17における点線による曲線が、新たに定義される瞳領域を示す。
【0100】
次に、瞳領域(補正処理部5bによる処理S5a−4aにおける差分領域に相当)の各画素に対して色が与えられる(S5a−4b)。この処理では、補正処理部5bによる処理S5a−4aと同様の処理によって、差分領域の各画素に対し画素値が与えられる。
【0101】
補正処理部5cによる補正処理では、S5a−4bの処理の後、S5b以降の処理(図6参照)が補正処理部5bと同様に実施される。
【0102】
〔作用/効果〕
画像補正装置1cによれば、補正後の瞳領域、即ち瞳拡大画像9における瞳領域は、円などの整った形に補正される。このため、きれいな形の瞳領域を有する瞳拡大画像9を提供することが可能となる。
【0103】
〔変形例〕
第三実施形態では、S5cの処理(図6参照)、即ち拡大処理によってはみ出てしまった瞳領域を削除する処理を実行しないように構成されても良い。第三実施形態では近似された半径と中心とに応じて改めて瞳領域を定義する。このため、拡大後の瞳領域はほとんど瞼に対してはみ出てしまうことが無い。従って、特に半径の拡大量が小さい場合は、このような削除処理を実行しなくとも、自然に瞳が拡大された瞳拡大画像9を得ることが可能である。
【0104】
【発明の効果】
本発明によれば、画像編集装置(画像編集ソフトがインストールされた情報処理装置も含む)をユーザが操作することなく、瞳が自然に拡大された画像を簡易に取得することが可能となる。このため、瞳が自然に拡大された画像を取得する際に、ユーザは熟練の技術を要求されない。
【図面の簡単な説明】
【図1】画像補正装置の機能ブロックを示す図である。
【図2】画像補正装置の各機能ブロックの主な処理を示す図である。
【図3】領域検出処理における目領域画像の取得の処理を示す図である。
【図4】瞳領域の検出処理の流れを示すフローチャートである。
【図5】目領域画像における瞳領域の検出の処理を示す図である。
【図6】補正処理の流れを示すフローチャートである。
【図7】第一実施形態における補正処理部の機能ブロックを示す図である。
【図8】瞳領域が拡大された画像の例を示す図である。
【図9】瞳領域が拡大される前の画像と拡大された後の画像の例を示す図である。
【図10】第二実施形態における瞳領域の拡大処理を示すフローチャートである。
【図11】第二実施形態における補正処理部の機能ブロックを示す図である。
【図12】移動軸取得の処理を示す図である。
【図13】境界線抽出の処理を示す図である。
【図14】境界線の移動処理を示す図である。
【図15】第三実施形態における瞳領域の拡大処理を示すフローチャートである。
【図16】第三実施形態における補正処理部の機能ブロックを示す図である。
【図17】第三実施形態における瞳領域の拡大処理を示す図である。
【符号の説明】
1a,1b,1c 画像補正装置
2 入力部
3 記憶部
4 領域検出部
5a,5b,5c 補正処理部
6 出力部
7 原画像
8 目領域画像
9 瞳拡大画像
10 領域指定部
11 拡大処理部
12 ぼかし処理部
13 領域補正部
14 移動軸取得部
15 境界線抽出部
16 境界線処理部
17 色決定部
18 移動軸
19 中心検出部
20 円拡大部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for correcting a captured image, particularly an image having a person as a subject.
[0002]
[Prior art]
In general, it is said that both men and women increase the impression that the larger pupil size gives them to the other person and the sense of familiarity. For example, a baby gives a cute impression to the other person because the proportion of the eyes to the face size is large, and as a result, the size of the pupil feels large. In addition, as a visual effect, it is said that the face appears to be a small face when the pupil is large.
[0003]
On the other hand, as a conventional technique, there is a technique for simulating makeup by performing image processing on a face image of a subject person (see Patent Document 1). Patent Document 1 describes a technique for detecting human face parts (eyes, pupils, eyelids, eyebrows, mouth, nose, cheeks, skin, hair, etc.) and changing the shape, size, and color of these parts. Has been.
[0004]
Further, as conventional techniques, a technique for detecting the size of a pupil of a subject from an image (see Patent Document 2), a technique for detecting the position of a pupil of a subject from an image (see Patent Document 3 and Non-Patent Document 1), etc. There is.
[0005]
[Patent Document 1]
JP 2000-151985
[Patent Document 2]
JP 09-028672 A
[Patent Document 3]
JP 2000-339476 A
[Non-Patent Document 1]
Mayumi Yuasa, Kazuhiro Fukui, Osamu Yamaguchi, “Highly accurate pupil detection based on minimizing the integrated energy of patterns and edges”, IEICE Technical Report, 2000, Vol. 100, no. 134, p. 79-84
[0006]
[Problems to be solved by the invention]
However, neither of Patent Documents 1 and 2 describes a specific process for enlarging and outputting the pupil size. For example, even if the pupil and the size of the pupil are accurately detected by the technique described in Patent Document 2, the output image becomes unnatural simply by enlarging the size.
[0007]
In this way, no specific technique has been proposed so far, focusing on image correction for increasing the size of the pupil. For this reason, simply applying Patent Documents 1 and 2 cannot enlarge the size of the pupil and obtain a natural face image.
[0008]
In the present invention, an image correction apparatus or program that solves such problems, naturally expands the size of the pupil included in the face image, and generates a face image that gives a good impression to the viewer of the image is provided. The purpose is to provide.
[0009]
[Means for Solving the Problems]
In order to solve the above problems, the present invention has the following configuration. A first aspect of the present invention is an image correction apparatus that includes a pupil specifying unit, a contour specifying unit, an enlarging unit, a deleting unit, and a combining unit.
[0010]
The pupil specifying means specifies a pupil region of a person who is a subject in the image.
[0011]
The contour specifying means specifies the contours of the eyes of the person who is the subject in the image. The outline of the eye indicates the outline of the area surrounded by the upper eyelid and the lower eyelid. In other words, the eye outline indicates the boundary between the eyelid covering the eyeball and the eyeball surface not covered by the eyelid.
[0012]
The enlarging means enlarges the image of the pupil area specified by the pupil specifying means.
[0013]
The deletion unit deletes a portion that protrudes from the contour specified by the contour specifying unit in the image of the pupil region enlarged by the expansion unit.
[0014]
The synthesizing unit obtains an image in which the pupil is enlarged, using the image of the pupil region in which the portion protruding from the outline is deleted by the deleting unit. For example, when a part of the image including the pupil region is extracted from the original image and becomes a processing target of the enlargement unit or the deletion unit, the synthesis unit combines the image output from the deletion unit with the original position of the original image. .
[0015]
In the first aspect of the present invention, the image of the pupil region specified by the pupil specifying means is enlarged by a predetermined procedure by the enlargement means. In this state, the image of the pupil region may exceed the contour of the eye surrounded by the eyelid of the subject. Therefore, the contour of the eye is specified by the contour means, and the eye contour of the enlarged pupil region image is identified. The part that protrudes is deleted. And the image after correction | amendment is produced | generated using the image of this pupil area | region.
[0016]
For this reason, according to the first aspect of the present invention, the user can automatically operate without manually operating a device such as an image editing device (including an information processing device in which image editing software is installed). Therefore, it is possible to acquire an image that gives a good impression to the viewer with a naturally enlarged pupil.
[0017]
Further, the contour specifying means in the first aspect of the present invention extracts the eye region image that is an image including the human eye region, and specifies the eye contour by masking the skin color region from the eye region image. It may be configured to.
[0018]
The enlargement means in the first aspect of the present invention includes an enlargement area specifying means for specifying an enlargement area based on the pupil area, and an enlargement conversion for enlarging and converting the entire image of the pupil area at a predetermined magnification based on the enlargement area. Means may be included.
[0019]
A second aspect of the present invention is an image correction apparatus that includes a pupil specifying unit, a contour extracting unit, a contour operating unit, and a pixel value providing unit.
[0020]
The pupil specifying means specifies a pupil region of a person who is a subject in the image. The contour specifying means specifies the contours of the eyes of the person who is the subject in the image. The contour extracting means extracts the contour of the pupil region. The outline of the pupil region corresponds to the boundary between the black eye region and the white eye region. The contour operating means expands the pupil area by manipulating the contour of the pupil area extracted by the contour extracting means. The pixel value giving means gives a pixel value indicating the pupil to each pixel in the pupil area expanded by the contour operation means. The pixel value indicating the pupil is a pixel value that is the same as or similar to the pixel value in the human pupil region.
[0021]
In the second aspect of the present invention configured as described above, when the pixel area is limited to each pixel in the difference area between the expanded pupil area and the unextended pupil area, a new pixel value is given. The original pupil region image is not manipulated. For this reason, it is possible to obtain an image in which the pupil is naturally enlarged without destroying the video image or the like reflected in the pupil in the original image.
[0022]
Further, the contour operating means in the second aspect of the present invention separates the contours from each other when a plurality of contours located at the boundary with the white-eye region among the contours of the pupil region extracted by the contour extracting means are obtained. The outline of the pupil region may be widened by moving in the direction of movement.
[0023]
In addition, the contour operation means in the second aspect of the present invention includes eye center acquisition means for acquiring two points located at substantially the center of each of the left and right eyes of a person who is a subject in an image, and a straight line including the two points. Movement axis specifying means for specifying as a movement axis, and the contour may be moved according to the movement axis.
[0024]
Further, the contour operating means in the second aspect of the present invention may be configured to move each contour parallel to the movement axis.
[0025]
A third aspect of the present invention is an image correction apparatus, which includes pupil specifying means, approximation means, figure enlargement means, and pixel value provision means. The pupil specifying means specifies a pupil region of a person who is a subject in the image. The approximating means approximates the pupil area specified by the pupil specifying means to a geometric figure. The figure enlarging means enlarges the approximated pupil region by enlarging the geometric figure obtained by the approximating means. The pixel value giving means gives a pixel value indicating the pupil to each pixel in the pupil area expanded by the figure enlarging means. The pixel value indicating the pupil is a pixel value that is the same as or similar to the pixel value in the human pupil region.
[0026]
In the third aspect of the present invention configured as described above, the image of the pupil region is enlarged based on the geometric figure. For this reason, the enlarged pupil region is obtained as a well-defined contour, and an image that gives a better impression to the viewer can be obtained.
[0027]
Further, in the third aspect of the present invention configured as described above, the pixel value is set so as to give a new pixel value limited to each pixel in the difference region between the expanded pupil region and the pupil region before being expanded. When the providing means is configured, the original pupil region image is not operated. For this reason, the image that is reflected in the pupil in the original image is not destroyed, and an image in which the pupil is naturally enlarged can be obtained.
[0028]
Further, the approximation means in the third aspect of the present invention includes an axis acquisition means for acquiring an axis, and a circle center acquisition for acquiring a midpoint position of a portion having the largest axial width as a center of the circle in the pupil region. It may be configured to include means and radius acquisition means for acquiring a half value of the axial width as the radius of the circle when the center of the circle is acquired.
[0029]
The graphic enlarging means in the third aspect of the present invention may be configured to draw a circle using the center and a radius longer than the acquired radius.
[0030]
Further, the graphic enlarging means in the third aspect of the present invention may be configured to draw a trajectory using the center and the radius obtained by extending the acquired radius according to the angle from the axis.
[0031]
Further, the pixel value providing means in the second and third aspects of the present invention may be configured to sample a pixel value from the pupil region and to give the sampled pixel value as a pixel value indicating the pupil. good.
[0032]
Further, the first aspect, the second aspect, and the third aspect of the present invention may be configured to further include a blurring unit that performs a blurring process on a substantially boundary of the enlarged pupil region.
[0033]
According to a fourth aspect of the present invention, a step of specifying a pupil region of a person who is a subject in an image, a step of specifying an outline of a human eye that is a subject in the image, and an image of the specified pupil region Using the enlargement step to enlarge, the step of deleting the portion that protrudes from the specified contour in the image of the pupil region enlarged in the enlargement step, and the image of the pupil region from which the portion that protrudes from the contour is deleted, Is a program that causes the information processing apparatus to execute the step of acquiring an enlarged image.
[0034]
Further, the enlargement step in the fourth aspect of the present invention includes a step of specifying the enlargement region based on the pupil region, and a step of enlarging and converting the entire image of the pupil region based on the enlargement region at a predetermined magnification. It may be configured.
[0035]
Further, the fifth aspect of the present invention is a step of specifying a pupil region of a person who is a subject in the image, a step of specifying a contour of a human eye which is a subject in the image, and extracting a contour of the pupil region A step of expanding the pupil region by manipulating the contour of the pupil region, a step of providing a pixel value indicating the pupil for each pixel of the expanded pupil region, and a step of A program for causing an information processing apparatus to execute an image using an image and obtaining an image with an enlarged pupil.
[0036]
Further, the enlargement step in the fifth aspect of the present invention includes a step of approximating the pupil region to a geometric figure, a step of widening the approximated pupil region by enlarging the obtained geometric figure, and Providing a pixel value indicating the pupil for each pixel in the pupil region.
[0037]
DETAILED DESCRIPTION OF THE INVENTION
[[First Embodiment]]
Next, the image correction apparatus 1a which is the first embodiment of the image correction apparatus will be described with reference to the drawings. In the following description, the person image is an image including at least a part or all of the face of the person including the pupil. Therefore, the person image may include an image of the entire person, or may include an image of only the face of the person or only the upper body. Moreover, you may include the image about a several person. Furthermore, the background may include any pattern such as a scenery (background: including objects that have attracted attention as a subject) or a pattern other than a person.
[0038]
In addition, the following description about the image correction apparatus 1a is an illustration, The structure is not limited to the following description.
[0039]
〔System configuration〕
The image correction apparatus 1a includes a CPU (Central Processing Unit), a main storage device (RAM), an auxiliary storage device, and the like connected via a bus in terms of hardware. The auxiliary storage device is configured using a nonvolatile storage device. The nonvolatile storage device referred to here is a so-called ROM (Read-Only Memory: including EEPROM (Erasable Programmable Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), mask ROM, etc.), FRAM (Ferroelectric RAM). ), Hard disk, etc.
[0040]
FIG. 1 is a diagram illustrating functional blocks of the image correction apparatus 1a. The image correction apparatus 1a is loaded with various programs (OS, applications, etc.) stored in the auxiliary storage device and executed by the CPU, whereby the input unit 2, storage unit 3, area detection unit 4, It functions as a device including the correction processing unit 5a, the output unit 6, and the like. The area detection unit 4 and the correction processing unit 5a are realized by executing an image correction program by the CPU.
[0041]
FIG. 2 is a diagram showing a main process executed by each functional unit of the image correction apparatus 1a and its flow. Hereinafter, the functional units of the image correction apparatus 1a will be described with reference to FIGS.
[0042]
<Input section>
The input unit 2 functions as an interface for inputting data of the original image 7 of the human image (hereinafter referred to as “data of the original image 7”) to the image correction apparatus 1a. The input unit 2 inputs data of the original image 7 from the outside of the image correction apparatus 1a to the image correction apparatus 1a (S1). The input unit 2 may be configured using any existing technique for inputting data of the original image 7 to the image correction apparatus 1a.
[0043]
For example, person image data may be input to the image correction apparatus 1a via a network (for example, a local area network or the Internet). Further, human image data may be input to the image correction apparatus 1a from a digital camera, a personal computer, or the like. Further, human image data recorded on a recording device or a recording medium (for example, various flash memories, a floppy (registered trademark) disk, a CD (Compact Disk), or a DVD (Digital Versatile Disc, Digital Video Disc)) is stored in the image correction apparatus 1a. May be entered. The image correction device 1a is included in various devices (for example, a PDA (Personal Digital Assistant) or a mobile phone) including an imaging device such as a digital camera or an imaging device such as a digital camera. The image may be input to the image correction apparatus 1a before or after being stored. The image correction apparatus 1a may be included in an image output apparatus such as a printer or a display, and human image data input to the image output apparatus as output data may be input to the image correction apparatus 1a.
[0044]
The input unit 2 is configured according to each case described above. The input unit 2 may be configured to be able to respond to a plurality of cases described above.
[0045]
<Storage unit>
The storage unit 3 is configured using a so-called RAM. The storage unit 3 is used when each process is executed by the region detection unit 4 or the correction processing unit 5a. For example, data of the original image 7 to be processed, data of the eye area image 8 as intermediate generation data, data of the pupil enlarged image 9 as output data, and the like are read and written in the storage unit 3. Here, the eye region image 8 is an image included in the original image 7 and includes an image including the eyes of the subject person and the periphery thereof. The enlarged pupil image 9 is an image output from the image correction apparatus 1a, and refers to an image in which the pupil of the person in the original image 7 is enlarged by image correction. For this reason, the original image 7 and the enlarged pupil image 9 are basically the same image except for the pupil and its surroundings.
[0046]
<Area detection unit>
The area detection unit 4 executes area detection processing. Hereinafter, the area detection process will be described.
[0047]
In the region detection process, the data of the eye region image 8 on which the image processing is performed is acquired from the data of the original image 7. In addition, a pupil region to be subjected to processing such as enlargement is detected from the eye region image 8 in the correction processing unit 5a.
[0048]
FIG. 3 is a diagram for explaining the region detection processing. Next, a specific flow of the area detection process will be described.
[0049]
First, in the area detection process, an area including a person's face (hereinafter referred to as “face area”) is detected from the original image 7 (S2: see FIG. 2). Then, the coordinates of a rectangle including the detected face area (hereinafter referred to as “face rectangle”: corresponding to the inner rectangle in FIG. 3B) are obtained. The position and size of the face area of the person who is the subject in the original image 7 are specified by the coordinates of the face rectangle.
[0050]
The detection of the face area may be realized by applying any existing technique. For example, the coordinates of the face rectangle may be obtained by template matching using a reference template corresponding to the outline of the entire face. Further, the coordinates of the face rectangle may be obtained by template matching based on face components (eyes, nose, ears, etc.). Further, the vertex of the hair may be detected by chroma key processing, and the coordinates of the face rectangle may be obtained based on this vertex.
[0051]
In the area detection processing, next, an eye area image 8 is acquired from the face area image (S3). The acquisition of the eye area image 8 may be realized by applying any existing technique.
[0052]
For example, first, the center position of a person's eyes or pupils is detected (corresponding to the cross mark (x mark) in FIG. 3C), and the area of the eye region image 8 based on the detected position (FIG. 3D). Corresponding to the two innermost rectangles) is determined, and the eye region image 8 is acquired. At this time, any existing technique may be applied to the detection of the center position of the person's eyes or pupils.
[0053]
For example, the center position of a human eye or pupil is detected by the techniques described in Patent Document 3 and Non-Patent Document 1. Further, when the eye area image 8 is acquired based on the detected position, it may be acquired by any method. For example, an image surrounded by a specific rectangle centered on the detected position is acquired as the eye region image 8. At this time, the size of the specific rectangle is determined based on, for example, the face width of the person or the distance between the center positions of the left and right eyes.
[0054]
In the region detection process, next, a pupil region is detected from the acquired eye region image 8 (S4 in FIG. 2). The detection of the pupil region may be realized by applying any existing technique. An example is shown below.
[0055]
FIG. 4 is a flowchart showing a flow of processing when detection of a pupil region is performed. FIG. 5 is a diagram showing an eye region image 8 (FIG. 5A) before the pupil region detection is performed and an eye region image 8 (FIG. 5B) after the pupil region extraction is performed. It is.
[0056]
First, a skin color region is extracted from the eye region image 8 as a non-pupil region. Then, the extracted skin color region is masked (S4a). This process is performed by, for example, the Lab space method. By this masking, the skin color area is removed from the eye area image 8, and the outline of the eye including the white eye area and the pupil area is specified.
[0057]
Next, a white-eye region (that is, a white region) is extracted as a non-pupil region from the eye region image 8 subjected to the processing of S4a. Then, masking is performed on the extracted white-eye region (S4b). This process is performed by, for example, the RGB space method. By this masking, the white eye region is removed, and an image of the pupil region is acquired.
[0058]
In the eye area image 8 (corresponding to (b) of FIG. 5) obtained as a result of the execution of the processes of S4a and S4b, an image of the pupil area to be processed such as enlargement remains (S4c). In this way, the pupil region is extracted (S4).
[0059]
<Correction processor>
The correction processing unit 5a performs correction processing. Hereinafter, the correction process will be described. In the correction process, an image correction process for enlarging the pupil area detected by the area detection process is performed in the eye area, that is, in the area between the upper eyelid and the lower eyelid (S5: see FIG. 2).
[0060]
FIG. 6 is a flowchart showing a specific flow of the correction process. FIG. 7 is a functional block diagram illustrating a configuration example of the correction processing unit 5a. The correction processing unit 5 a includes a region specifying unit 10, an enlargement processing unit 11, a blur processing unit 12, and a region correction unit 13.
[0061]
First, in the eye area image 8, the detected pupil area is enlarged (S5a). Here, a specific flow of the pupil region enlargement process performed by the correction processing unit 5a will be described. First, among the detected pupil regions, a line that passes through the point having the maximum value or minimum value in the x-axis direction and is perpendicular to the x-axis, and a line that passes through the maximum value or minimum value in the y-axis direction and is perpendicular to the y-axis. The enclosed rectangle is obtained. The acquisition of the rectangle is executed by the area specifying unit 10. Then, using the center of the rectangle as a reference point, the image of the pupil region is enlarged according to a specific magnification (eg, 110%, 120%). This enlargement is executed by the enlargement processing unit 11.
[0062]
The specific magnification may be set in advance by the user or may be determined dynamically. The specific magnification can be dynamically determined by, for example, a method of determining the size of the eye area and the pupil area (for example, a ratio of the number of pixels) or a ratio of the lateral width of the eye area and the pupil area. There are ways to do it.
[0063]
Processing for realizing enlargement of the pupil region based on another method will be described in the columns of the second embodiment and the third embodiment.
[0064]
Next, the blurring process is performed on the boundary portion of the pupil area enlarged by the process of S5a. This process is executed by the blurring processing unit 12. This boundary portion is obtained in accordance with a certain standard from the area of the enlarged pupil region and the values of the vertical and horizontal widths. For example, the enlarged pupil region is further reduced at a specific magnification (eg, 98%), and a difference portion between the enlarged pupil region and the reduced pupil region is regarded as a boundary portion. In order to omit the reduction process, the boundary portion may be obtained by using the pupil region before enlargement as the reduced pupil region. Further, the blur processing may not be executed when the area of the pupil region, the vertical width, the horizontal width, or the like is smaller than a preset threshold value.
[0065]
In addition, in the blurring process for the boundary portion, any existing correction method is applied as long as the correction is performed to eliminate the unnaturalness of the boundary between the enlarged pupil region and the white eye portion. Also good. For example, the blurring process may be performed by linearly changing the color from the pixel value of the pupil region to the pixel value of the white eye region from the inside to the outside of the boundary portion. Alternatively, a blurring process using a moving average filter or the like may be performed on the boundary portion.
[0066]
Next, the portion of the pupil region image that has been subjected to image processing by the processing of S5b is removed from the upper eyelid and the lower eyelid (S5c). This process is executed by the area correction unit 13. This process is realized, for example, by using a skin color area mask created in the area detection process.
[0067]
Then, the image of the pupil region from which the portion protruding from the process of S5c has been deleted is synthesized at the corresponding position of the original image 7, and the pupil enlarged image 9 is generated (S5d).
[0068]
<Output section>
The output unit 6 functions as an interface for outputting the data of the enlarged pupil image 9 created by the correction process to the outside. The method of using the data output by the output unit 6 depends on the device that acquires this data via the output unit 6. For example, when the image correction apparatus 1a includes a display or is connected to a display, data output by the output unit 6 is performed on the display, and the pupil enlarged image 9 is displayed. For example, when the image correction apparatus 1a is included in a digital camera or various apparatuses including a digital camera, the digital camera is configured to store the data of the enlarged pupil image 9 output from the output unit 6. Further, for example, when the image correction apparatus 1a is included in another image correction apparatus, the other image correction apparatus performs a correction process on the data of the pupil enlarged image 9 or this pupil enlargement. It is configured to record or output the data of the image 9 as a product.
[0069]
[Action / Effect]
In the image correction apparatus 1a, the pupil region is detected from the original image 7 by executing the region detection process. Next, the image of the detected pupil region is enlarged, and the image of the portion that protrudes from the upper eyelid and the lower eyelid (that is, the eye region) is deleted from the enlarged pupil region image. Then, the image of the eye region from which the protruding portion is deleted is combined with the corresponding portion of the original image 7 to generate the enlarged pupil image 9.
[0070]
FIG. 8 is a diagram illustrating an example of an image in which a pupil region is enlarged. FIG. 9 is a diagram illustrating an example of an image before the pupil is enlarged (example of input image: (a)) and an example of an image after the pupil is enlarged (example of output image: (b)). It is.
[0071]
FIG. 8A is a diagram illustrating an example of an image when the blurring process (S5b) and the deletion of the protruding pupil area (S5c) are not performed on the enlarged pupil area. As described above, when the extracted image of the pupil region is simply enlarged, the upper end side and the lower end side of the pupil region particularly protrude beyond the eyelids. For this reason, the enlarged image becomes an unnatural image. On the other hand, FIG. 8B is a diagram illustrating an example of an image when the blurring process (S5b) and the removal of the protruding pupil region (S5c) are performed on the enlarged pupil region. That is, FIG. 8B is an enlarged pupil image 9 generated by the image correction apparatus 1a. According to the image correction apparatus 1a, as shown in FIG. 8B, the image of the pupil region is enlarged without protruding from the upper and lower eyelids. For this reason, the pupil region image generated in this way is used in the processing of S5d, so that the pupil is naturally enlarged as compared with the image (FIG. 9A) input to the image correction apparatus 1a. Thus, it is possible to automatically acquire a person image (FIG. 9B) that gives a good impression to the viewer.
[0072]
Therefore, it is possible to respond to a user's desire to obtain a photograph (FIG. 9B) that gives a good impression to others without performing manual processing using image editing software or the like that requires skilled skills. Become.
[0073]
In addition, recently, camera-equipped mobile terminals (eg, mobile phones, PDAs) have become widespread. When a human image is captured by such a device, the captured image is obtained by transmission processing to another device using a communication function provided in advance in the device, or display on a display unit provided in the device. There are many opportunities to see others directly. In other words, the image captured by such an apparatus has few opportunities to perform image editing using a personal computer, a photo retouch dedicated apparatus, or the like before being touched by another person's eyes. In addition, since the size of the display unit and the input interface provided in such a portable terminal are very limited, it is very difficult to perform image processing on the portable terminal device by human hands. This is a troublesome process for the user.
[0074]
On the other hand, since the image correction apparatus 1a is mounted on such a portable terminal with a camera, the pupil of the captured human image is naturally enlarged by the above-described processing, so that the user can easily make an impression on others. An image can be obtained.
[0075]
In the image correction apparatus 1a, the blurring process is performed on the boundary portion of the pupil region, that is, the boundary portion between the pupil region and the white eye region. For this reason, it becomes possible to acquire the natural enlarged pupil image 9 that does not give the user a sense of incongruity such as the appearance of the pupil being raised.
[0076]
[Modification]
In the above description, when the eye area image 8 is acquired in the area detection process, the eye area image 8 is temporarily stored in the storage unit 3, and the process related to pupil enlargement is performed on the eye area image 8. It was. Then, the eye region image 8 is synthesized with the corresponding part of the original image 7, thereby obtaining the pupil enlarged image 9. However, the processing related to pupil enlargement may be performed directly on the original image 7 without acquiring the eye region image 8.
[0077]
In addition, in the process of S4a, extraction and masking may be performed on the red region in consideration of the white eye being full of blood. Such masking processing may be performed by any method such as RGB space method or Lab space method.
[0078]
Further, the order of execution of the process of S5b and the process of S5c may be reversed. In other words, the blur processing may be executed after the area that protrudes from the eyelid in the pupil area is deleted.
[0079]
Further, the process of S5b, that is, the blurring process is not necessarily executed, and it may be configured to select whether or not to be executed by the user or the designer. Similarly, it may be configured not to execute the blurring process.
[0080]
[[Second Embodiment]]
〔System configuration〕
Next, differences between the image correction apparatus 1b, which is the second embodiment of the image correction apparatus, and the image correction apparatus 1a will be described with reference to the drawings.
[0081]
The image correction apparatus 1b differs from the image correction apparatus 1a in that a correction processing unit 5b is provided instead of the correction processing unit 5a. The correction processing unit 5b differs from the correction processing unit 5a in the content of the process of enlarging the pupil region (see S5a in FIG. 6).
[0082]
FIG. 10 is a flowchart showing the correction processing by the correction processing unit 5b of the image correction apparatus 1b. FIG. 11 is a functional block diagram illustrating a configuration example of the correction processing unit 5b. The correction processing unit 5 b includes a blur processing unit 12, a region correction unit 13, a movement axis acquisition unit 14, a boundary line extraction unit 15, a boundary line processing unit 16, and a color determination unit 17. Hereinafter, the flow of the correction process in the correction processing unit 5b of the image correction apparatus 1b will be described with reference to FIGS.
[0083]
First, the movement axis 18 is acquired (S5a-1a). This process is executed by the movement axis acquisition unit 14. FIG. 12 is a diagram illustrating an example of the moving shaft 18. A method of using the moving shaft 18 will be described later. The moving axis 18 is obtained as a straight line including the center positions of the left and right pupils (corresponding to the cross mark (x mark) in FIG. 12) detected in the area detection process.
[0084]
Next, a boundary line between the pupil region and the white eye is extracted (S5a-2a). This process is executed by the boundary line extraction unit 15. FIG. 13 is a diagram illustrating a boundary line between a pupil region and a white eye. In FIG. 13, the boundary line between the pupil region and the white eye is indicated by a bold line. Such a boundary line is extracted by, for example, a general edge extraction process.
[0085]
Next, the extracted boundary line is translated according to the acquired movement axis 18 (S5a-3a). This process is executed by the boundary line processing unit 16. FIG. 14 is an image showing how the extracted boundary line is translated along the movement axis 18. As shown in FIG. 14, the extracted boundary line is translated in a direction away from the center position of the pupil. The moving distance may be set as appropriate. The moving distance is determined based on values such as the width of the face detected in the area detection process and the width of the detected pupil area, for example.
[0086]
Next, a color is given to each pixel in the pupil region (S5a-4a). This process is executed by the color determination unit 17. In the process by the boundary line processing unit 16 of the correction processing unit 5b (S5a-3a in FIG. 10), the boundary line is only moved as the pupil enlargement process. No pixel value is given. For this reason, a pixel value is given to such a difference area by the process of S5a-4a. Further, not only the difference area but also a new pixel value may be given to all pixels in the enlarged pupil area.
[0087]
Any pixel value may be given to the difference area. A pixel value may be given to the above-described difference region using a pixel value sampled from the pupil region before enlargement. Specifically, for example, the pixel value of the pixel located on the outermost side of the pupil region before enlargement may be given to all the difference regions located on the movement axis 18 from this pixel. Further, for example, a plurality of pixel values may be sampled from the pupil region before enlargement, and pixel values may be selected at random for each difference region from the sampled pixel values.
[0088]
In the correction processing by the correction processing unit 5b, the processing after S5b (see FIG. 6) is performed in the same manner as the correction processing unit 5a after the processing of S5a-4a.
[0089]
[Action / Effect]
According to the image correction apparatus 1b, the pupil region can be enlarged without enlarging the image of the pupil region itself. For this reason, it is possible to obtain the enlarged pupil image 9 without deforming the image reflected in the pupil by newly providing a pixel value only to the difference region. Therefore, it is possible to obtain an image in which the pupil is enlarged more naturally.
[0090]
[Modification]
In the image correction apparatus 1b, when the pupil region before enlargement does not cross the lower eyelid or the upper eyelid, when the boundary line is translated according to the movement axis 18, the pupil region is not a closed region. That is, a part of the boundary line forming the pupil region is opened, and the pupil region cannot be specified. In such a case, the method shown in the first embodiment or the third embodiment (magnification (scaling) processing with a predetermined reference as the origin) is adopted so that the enlarged pupil image 9 is obtained. It may be configured.
[0091]
Further, even if the pupil region before enlargement intersects the lower eyelid or the upper eyelid, they may not intersect if translated, and the pupil region may not be a closed region. In such a case, the enlarged pupil image 9 may be obtained by adopting the method shown in the first embodiment or the third embodiment. Also, the extracted boundary line and the upper or lower boundary are approximated by a curve (eg, Bezier curve, circle arc), the intersection of the boundary lines is calculated mathematically, and a closed space is generated. May be.
[0092]
The second embodiment may be configured not to execute the process of S5c (see FIG. 6), that is, the process of deleting the pupil region that has protruded due to the enlargement process. In the second embodiment, since the boundary line is moved in parallel with the movement axis, the enlarged pupil region hardly protrudes from the eyelid. For this reason, particularly when the amount of movement of the boundary line is small, it is possible to obtain the pupil enlarged image 9 in which the pupil is naturally enlarged without performing such deletion processing.
[0093]
[[Third embodiment]]
〔System configuration〕
Next, the difference between the image correction apparatus 1c, which is the third embodiment of the image correction apparatus, and the image correction apparatus 1b will be described with reference to the drawings.
[0094]
The image correction apparatus 1c is different from the image correction apparatus 1b in that a correction processing unit 5c is provided instead of the correction processing unit 5b.
[0095]
FIG. 15 is a flowchart showing the correction processing by the correction processing unit 5c of the image correction apparatus 1c. FIG. 16 is a functional block diagram illustrating a configuration example of the correction processing unit 5c. The correction processing unit 5c differs from the correction processing unit 5b in the content of the process of enlarging the pupil region (S5a in FIG. 6). As a configuration, the correction processing unit 5 c is different from the correction processing unit 5 b in that it includes a center detection unit 19 and a circle enlargement unit 20. The correction processing unit 5 c includes a blur processing unit 12, a region correction unit 13, a movement axis acquisition unit 14, a color determination unit 17, a center detection unit 19, and a circle enlargement unit 20. Hereinafter, the flow of correction processing in the correction processing unit 5c of the image correction apparatus 1c will be described with reference to FIGS.
[0096]
First, the center point of the pupil is detected. This process is executed by the movement axis acquisition unit 14 and the center detection unit 19. In the area detection process, the center of the pupil is detected, but the center of the pupil is detected again.
[0097]
Next, a straight line (corresponding to the movement axis 18 in the second embodiment) including the center positions of the left and right pupils detected in the region detection process is acquired as the x-axis (S5a-1b in FIG. 15). Next, a portion in the pupil region where the width in the x-axis direction is maximum is detected. Then, the midpoint of the pupil region at this time in the x-axis direction is detected as the center of the pupil. In addition, a half length of the width at this time is acquired as a radius (S5a-2b).
[0098]
Next, the range of the pupil area is expanded based on the center position of the pupil. This process is executed by the circle enlargement unit 20. Specifically, a region such as a circle is defined using the center point and the radius obtained by the center detection unit 19, and this region is set as a new pupil region (S5a-3b).
[0099]
For example, the circle may be defined using the center position of the pupil and the radius increased by a predetermined magnification. Further, for example, a region similar to a circle may be defined by using the center position and radius of the pupil and multiplying the radius by a weight corresponding to the angle from the x-axis. FIG. 17 is a diagram illustrating the latter method among the methods for defining a new pupil region. The angle from the x axis with respect to the radius is represented by (θ + π / 2) in FIG. A curved line with a dotted line in FIG. 17 indicates a newly defined pupil region.
[0100]
Next, a color is given to each pixel in the pupil region (corresponding to the difference region in the processing S5a-4a by the correction processing unit 5b) (S5a-4b). In this process, a pixel value is given to each pixel in the difference area by the same process as the process S5a-4a by the correction processing unit 5b.
[0101]
In the correction processing by the correction processing unit 5c, after S5a-4b, the processing after S5b (see FIG. 6) is performed in the same manner as the correction processing unit 5b.
[0102]
[Action / Effect]
According to the image correction apparatus 1c, the corrected pupil region, that is, the pupil region in the enlarged pupil image 9, is corrected into a regular shape such as a circle. For this reason, it is possible to provide the pupil enlarged image 9 having a clean pupil region.
[0103]
[Modification]
The third embodiment may be configured not to execute the process of S5c (see FIG. 6), that is, the process of deleting the pupil region that has protruded due to the enlargement process. In the third embodiment, the pupil region is newly defined according to the approximated radius and center. For this reason, the enlarged pupil region hardly protrudes from the eyelids. Therefore, particularly when the amount of enlargement of the radius is small, it is possible to obtain the enlarged pupil image 9 in which the pupil is naturally enlarged without performing such deletion processing.
[0104]
【The invention's effect】
According to the present invention, it is possible to easily obtain an image in which the pupil is naturally enlarged without the user operating an image editing device (including an information processing device in which image editing software is installed). For this reason, when acquiring an image in which the pupil is naturally enlarged, the user is not required to have a skilled technique.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of an image correction apparatus.
FIG. 2 is a diagram illustrating main processing of each functional block of the image correction apparatus.
FIG. 3 is a diagram illustrating an eye area image acquisition process in an area detection process;
FIG. 4 is a flowchart showing a flow of pupil area detection processing;
FIG. 5 is a diagram illustrating processing for detecting a pupil region in an eye region image.
FIG. 6 is a flowchart showing a flow of correction processing.
FIG. 7 is a diagram showing functional blocks of a correction processing unit in the first embodiment.
FIG. 8 is a diagram illustrating an example of an image in which a pupil region is enlarged.
FIG. 9 is a diagram illustrating an example of an image before the pupil region is enlarged and an image after the pupil region is enlarged.
FIG. 10 is a flowchart showing pupil area enlargement processing in the second embodiment.
FIG. 11 is a diagram illustrating functional blocks of a correction processing unit in the second embodiment.
FIG. 12 is a diagram illustrating processing for acquiring a movement axis.
FIG. 13 is a diagram illustrating boundary line extraction processing;
FIG. 14 is a diagram illustrating boundary line movement processing;
FIG. 15 is a flowchart showing pupil area enlargement processing in the third embodiment.
FIG. 16 is a diagram showing functional blocks of a correction processing unit in the third embodiment.
FIG. 17 is a diagram illustrating pupil area enlargement processing in the third embodiment;
[Explanation of symbols]
1a, 1b, 1c Image correction device
2 Input section
3 storage unit
4 area detector
5a, 5b, 5c Correction processing unit
6 Output section
7 Original image
8 eye area image
9 Eye magnified image
10 Area specification part
11 Enlargement processing section
12 Blur processing part
13 Area correction unit
14 Moving axis acquisition unit
15 Boundary line extraction unit
16 Boundary line processing part
17 color decision part
18 Movement axis
19 Center detector
20 yen expansion

Claims (4)

画像中の被写体である人物の瞳領域を特定する瞳特定手段と、
前記瞳領域の輪郭を抽出する輪郭抽出手段と、
前記瞳領域の輪郭を操作することにより瞳領域を広げる輪郭操作手段と、
前記輪郭操作手段によって広げられた瞳領域の各画素に対し、瞳を示す画素値を与える画素値付与手段と、
を含む画像補正装置において、
前記輪郭操作手段は、
画像中の被写体である人物の左右の目それぞれの略中心に位置する2点を取得する目中心取得手段と、前記2点を含む直線を移動軸として特定する移動軸特定手段とを含み、
前記輪郭抽出手段によって瞳領域と白目領域の境界に位置する輪郭が複数得られた場合に、各輪郭を前記移動軸に従って互いに離間する方向に移動させることにより瞳領域の輪郭を広げる
画像補正装置
A pupil identifying means for identifying a pupil region of a person who is a subject in an image;
Contour extracting means for extracting the contour of the pupil region;
Contour operating means for expanding the pupil region by operating the contour of the pupil region;
A pixel value giving means for giving a pixel value indicating a pupil to each pixel of the pupil region expanded by the contour operating means;
In the image correction apparatus comprising,
The contour operating means includes
Eye center acquisition means for acquiring two points located at approximately the center of each of the left and right eyes of a person who is a subject in the image, and movement axis specifying means for specifying a straight line including the two points as a movement axis,
When a plurality of contours located at the boundary between the pupil region and the white eye region are obtained by the contour extraction means, the contour of the pupil region is expanded by moving each contour in a direction away from each other according to the movement axis.
Image correction device .
前記画素値付与手段は、前記瞳領域から画素値をサンプリングし、サンプリングされた画素値を、瞳を示す画素値として与える請求項に記載の画像補正装置。The image correction apparatus according to claim 1 , wherein the pixel value providing unit samples a pixel value from the pupil region, and provides the sampled pixel value as a pixel value indicating a pupil. 大された瞳領域の略境界に対しぼかし処理を施すぼかし手段をさらに備える請求項1または2に記載の画像補正装置。The image correction apparatus according to claim 1 or 2 further comprising a blurring unit that performs blurring processing on substantially boundaries expanded pupil area. 画像中の被写体である人物の瞳領域を特定するステップと、
前記瞳領域の輪郭を抽出するステップと、
前記瞳領域の輪郭を操作することにより瞳領域を広げるステップと、
広げられた瞳領域の各画素に対し、瞳を示す画素値を与えるステップと、
を情報処理装置に実行させるプログラムであって、
前記瞳領域を広げるステップでは、
画像中の被写体である人物の左右の目それぞれの略中心に位置する2点を取得し、
前記2点を含む直線を移動軸として特定し、
前記輪郭を抽出するステップにより瞳領域と白目領域の境界に位置する輪郭が複数得られた場合に、各輪郭を前記移動軸に従って互いに離間する方向に移動させることにより瞳領域の輪郭を広げる
プログラム
Identifying a human pupil region that is a subject in the image;
Extracting a contour of the pupil region;
Expanding the pupil region by manipulating the contour of the pupil region;
Providing a pixel value indicating a pupil for each pixel in the expanded pupil region;
Is a program that causes an information processing apparatus to execute
In the step of expanding the pupil region,
Obtain two points located at the approximate center of each of the left and right eyes of the person in the image,
Specify a straight line including the two points as a movement axis,
When a plurality of contours located at the boundary between the pupil region and the white eye region are obtained by the step of extracting the contour, the contour of the pupil region is expanded by moving each contour in a direction away from each other according to the movement axis.
Program .
JP2003196381A 2003-07-14 2003-07-14 Image correction device Expired - Fee Related JP4349019B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003196381A JP4349019B2 (en) 2003-07-14 2003-07-14 Image correction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003196381A JP4349019B2 (en) 2003-07-14 2003-07-14 Image correction device

Publications (2)

Publication Number Publication Date
JP2005031990A JP2005031990A (en) 2005-02-03
JP4349019B2 true JP4349019B2 (en) 2009-10-21

Family

ID=34206895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003196381A Expired - Fee Related JP4349019B2 (en) 2003-07-14 2003-07-14 Image correction device

Country Status (1)

Country Link
JP (1) JP4349019B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5423743B2 (en) * 2011-08-31 2014-02-19 フリュー株式会社 Photo seal machine, photo seal machine processing method, and program thereof
JP6354118B2 (en) * 2013-03-21 2018-07-11 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP6260094B2 (en) * 2013-03-21 2018-01-17 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP2021043797A (en) * 2019-09-12 2021-03-18 フリュー株式会社 Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2005031990A (en) 2005-02-03

Similar Documents

Publication Publication Date Title
CN108229278B (en) Face image processing method and device and electronic equipment
WO2018188534A1 (en) Face image processing method and device, and electronic device
US10438329B2 (en) Image processing method and image processing apparatus
EP1596573B1 (en) Image correction apparatus
JP2004303193A (en) Image processor
JPH1115947A (en) Image processor
CN107194869B (en) Image processing method and terminal, computer storage medium and computer equipment
JP6111723B2 (en) Image generating apparatus, image generating method, and program
WO2006033178A1 (en) Image processing device, method, and program
CN112384928A (en) Method and apparatus for performing object illumination manipulation on an image
JP4349019B2 (en) Image correction device
JP5966657B2 (en) Image generating apparatus, image generating method, and program
US20240013358A1 (en) Method and device for processing portrait image, electronic equipment, and storage medium
JP2005242535A (en) Image correction device
WO2022258013A1 (en) Image processing method and apparatus, electronic device and readable storage medium
CN114998115A (en) Image beautification processing method and device and electronic equipment
JP2005208760A (en) Person image extraction device and computer program
CN113379623A (en) Image processing method, image processing device, electronic equipment and storage medium
KR20010102873A (en) Method and system for generating an avatar of real-picture using finite image templates
US9563940B2 (en) Smart image enhancements
JP2003030684A (en) Face three-dimensional computer graphic generation method and device, face three-dimensional computer graphic generation program and storage medium storing face three-dimensional computer graphic generation program
WO2023276271A1 (en) Information processing device, information processing method, and recording medium
Chou et al. Simulation of face/hairstyle swapping in photographs with skin texture synthesis
JP6376673B2 (en) Image processing device
JP6326808B2 (en) Face image processing apparatus, projection system, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090630

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090713

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4349019

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130731

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees