JP2009237627A - 画像処理方法、画像処理装置、画像処理プログラムおよび印刷装置 - Google Patents
画像処理方法、画像処理装置、画像処理プログラムおよび印刷装置 Download PDFInfo
- Publication number
- JP2009237627A JP2009237627A JP2008079354A JP2008079354A JP2009237627A JP 2009237627 A JP2009237627 A JP 2009237627A JP 2008079354 A JP2008079354 A JP 2008079354A JP 2008079354 A JP2008079354 A JP 2008079354A JP 2009237627 A JP2009237627 A JP 2009237627A
- Authority
- JP
- Japan
- Prior art keywords
- face image
- feature point
- target face
- image data
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】わざとらしくない顔補正を行う。
【解決手段】画像に含まれる顔画像についての画像処理方法において、まず補正対象の顔画像を対象顔画像として取得する(ステップS100)。次に、補正目標とする顔画像を目標顔画像として取得する(ステップS110)。さらに、前記対象顔画像に含まれる各特徴点の位置が、前記目標顔画像に含まれる各対応特徴点の位置に近づくように補正する(ステップS210)にあたり、各対応特徴点の位置に近づける程度を各特徴点ごとに異ならせる(ステップS190)。
【選択図】図3
【解決手段】画像に含まれる顔画像についての画像処理方法において、まず補正対象の顔画像を対象顔画像として取得する(ステップS100)。次に、補正目標とする顔画像を目標顔画像として取得する(ステップS110)。さらに、前記対象顔画像に含まれる各特徴点の位置が、前記目標顔画像に含まれる各対応特徴点の位置に近づくように補正する(ステップS210)にあたり、各対応特徴点の位置に近づける程度を各特徴点ごとに異ならせる(ステップS190)。
【選択図】図3
Description
本発明は、画像処理方法、画像処理装置、画像処理プログラムおよび印刷装置に関し、特に画像に含まれる顔画像についての画像処理方法、画像処理装置、画像処理プログラムおよび印刷装置に関する。
顔画像を補正する際に具体的な補正方針をユーザーが指示することは困難であることにかんがみて、あいまいな概念による補正指示に基づいて顔画像を補正することが可能な画像処理方法が提案されている(特許文献1、2、参照。)これらの文献においては、具体的な補正方針があいまいな概念による補正指示に対応付けられており、あいまいな概念による補正指示に基づいて具体的な補正方針を呼び出し、当該補正方針に基づいて顔画像を補正することとしている。
特開2004−326280号公報
特開2007−173730号公報
しかしながら、あいまいな概念による補正指示をするにあたっても、各ユーザーが捉えるあいまいな概念には個人差が生じる場合があり、ユーザーの希望が補正指示に反映されないこともあった。例えば、『かわいい』という概念がユーザーによって異なっており、『かわいい』という補正指示をしたにも拘わらず、あるユーザーにとっては『かわいい』とは感じられない補正結果となるような場合も考えられる。すなわち、言葉から生じる概念が各ユーザーで異なるため、補正方針を言葉で指示する以上は、ユーザー間で補正結果の満足度にはらつきが生じることは避けられないという問題があった。これに対して、理想的な顔画像を指定し、その顔画像に近づくように対象の顔画像を補正するようにすれば、理想的な顔画像をそのまま補正目標とすることができる。しなしながら、単に理想的な顔画像を補正目標とすると、補正結果が理想的な顔画像に全体的に似ることとなり、補正目標があからさまに特定されてしまうという問題があった。すなわち、理想的な顔画像に全体的に似せることにより、補正対象の顔よりも補正目標の顔らしくなってしまうという問題があった。
本発明は、前記課題にかんがみてなされたもので、わざとらしくない顔補正を行う画像処理方法、画像処理装置、画像処理プログラムおよび印刷装置の提供を目的とする。
上記課題を解決するために、本発明は、まず補正対象の顔画像を対象顔画像として取得するとともに、補正目標とする顔画像を目標顔画像として取得する。そして、前記対象顔画像に含まれる各特徴点の位置が、前記目標顔画像に含まれる各対応特徴点の位置に近づくように補正する。このようにすることにより、前記対象顔画像を前記目標顔画像に似せることができ、前記目標顔画像に近い補正結果を得ることができる。当該補正において、前記目標顔画像の各対応特徴点の位置に近づける程度を各特徴点ごとに決定する。このようにすることにより、前記対象顔画像の各特徴点が一様に前記目標顔画像の各対応特徴点に近づくことが防止でき、前記目標顔画像に似せようとする補正がわざとらしくなることが防止できる。
さらに、前記目標顔画像に含まれる各特徴点の位置と補正前の各対応特徴点の位置の類似性を各特徴点について判定し、この類似性に応じて各対応特徴点の位置に近づける程度を各特徴点ごとに異ならせるようにしてもよい。すなわち、各特徴点の位置が、もともと前記目標顔画像の各対応特徴点の位置に似ているか否かによって、前記対象顔画像の各特徴点の位置を前記目標顔画像の各対応特徴点の位置に近づける程度を異ならせる。各特徴点の位置の類似性は、各特徴点によって異なるため、各特徴点が一様に前記目標顔画像の各対応特徴点に近づくことが防止できる。
特に、前記類似性が高い特徴点ほど前記対応特徴点の位置に近づける程度を大きくすることにより、もともと類似していた特徴点を確実に前記対応特徴点に近づけることができる。さらに、前記類似性が所定の閾値よりも大きい特徴点に限り、前記対応特徴点の位置に近づけるようにしてもよい。このようにすれば、前記類似性が低い特徴点を前記対応特徴点の位置に無理に近づけることが防止できるため、わざとらしくない補正を実現することができる。
以上とは反対に、前記類似性が低い特徴点ほど前記対応特徴点の位置に近づける程度を大きくするようにしてもよい。このようにすることにより、もともと似ていない特徴点の位置を、重点的に前記目標顔画像の各対応特徴点の位置に近づくようにすることができる。従って、補正結果の前記目標顔画像への類似性を高くすることができる。その反面、わざとらしい補正結果となるが、わざとらしい補正結果を望む場合もあるため、このようなモードを選択できるようにしてもよい。
さらに、本発明の技術的思想は、具体的な画像処理方法にて具現化されるのみならず、当該方法を画像処理装置において具現化することもできる。すなわち、上述した画像処理方法が行う各工程に対応する手段を有する画像処理装置としても本発明を特定することができる。むろん、上述した画像処理装置がプログラムを読み込んで上述した各手段を実現する場合には、当該各手段に対応する機能を実行させるプログラムや当該プログラムを記録した各種記録媒体においても本発明の技術的思想が具現化できることは言うまでもない。なお、本発明の画像処理装置は、単一の装置のみならず、複数の装置によって分散して存在可能であることはいうまでもない。また、プリンタ等の印刷装置やデジタルスチルカメラ等の画像入力装置において本発明の画像処理方法を実現するようにしてもよい。
以下、下記の順序に従って本発明の実施形態を説明する。
1.画像処理装置の構成:
2.画像処理の流れ:
3.まとめおよび変形例:
3−1.変形例1:
3−2.変形例2:
1.画像処理装置の構成:
2.画像処理の流れ:
3.まとめおよび変形例:
3−1.変形例1:
3−2.変形例2:
1.画像処理装置の構成
図1は、本発明の一実施形態にかかる画像処理装置を具体的に実現するコンピュータの構成を示している。同図において、コンピュータ10はCPU11とRAM12とROM13とハードディスクドライブ(HDD)14と汎用インターフェイス(GIF)15とビデオインターフェイス(VIF)16と入力インターフェイス(IIF)17とバス18とから構成されている。バス18は、コンピュータ10を構成する各要素11〜17の間でのデータ通信を実現するものであり、図示しないチップセット等によって通信が制御されている。HDD14には、オペレーティングシステム(OS)を含む各種プログラムを実行するためのプログラムデータ14aが記憶されており、当該プログラムデータ14aをRAM12に展開しながらCPU11が当該プログラムデータ14aに準じた演算を実行する。
図1は、本発明の一実施形態にかかる画像処理装置を具体的に実現するコンピュータの構成を示している。同図において、コンピュータ10はCPU11とRAM12とROM13とハードディスクドライブ(HDD)14と汎用インターフェイス(GIF)15とビデオインターフェイス(VIF)16と入力インターフェイス(IIF)17とバス18とから構成されている。バス18は、コンピュータ10を構成する各要素11〜17の間でのデータ通信を実現するものであり、図示しないチップセット等によって通信が制御されている。HDD14には、オペレーティングシステム(OS)を含む各種プログラムを実行するためのプログラムデータ14aが記憶されており、当該プログラムデータ14aをRAM12に展開しながらCPU11が当該プログラムデータ14aに準じた演算を実行する。
また、HDD14には、デジタルスチルカメラやスキャナによって画像入力された画像データ14bが記憶されている。GIF15は、例えばUSB規格に準じたインターフェイスを提供するものであり、外部のプリンタ20をコンピュータ10に接続させている。VIF16はコンピュータ10を外部のディスプレイ40に接続し、ディスプレイ40に画像を表示するためのインターフェイスを提供する。IIF17はコンピュータ10を外部のキーボード50aとマウス50bに接続し、キーボード50aとマウス50bからの入力信号をコンピュータ10が取得するためのインターフェイスを提供する。
図2は、コンピュータ10において実行されるプログラムのソフトウェア構成を示している。同図において、オペレーティングシステム(OS)PG1と画像処理アプリケーションPG2とプリンタドライバPG3が実行されている。OS P1は各プログラム間のインターフェイスを提供し、プリンタドライバPG3はプリンタ20を制御するための処理を実行する。画像処理アプリケーションPG2は、補正対象取得部PG2aと補正目標取得部PG2bと顔画像抽出部PG2cと特徴点抽出部PG2dと類否判定部PG2eと補正部PG2fとから構成されている。画像処理アプリケーションPG2を構成する各モジュールPG2a〜PG2fが実行する処理の詳細については後述する画像処理の流れとともに説明する。
2.画像処理の流れ
図3は、本実施例にかかる画像処理の流れを示している。ステップS100においては、補正対象取得部PG2aが所定のUI画面をディスプレイ40に表示させるとともに、キーボード50aとマウス50bから操作を受け付ける。それにより、HDD14等に記憶された複数の画像データ14bのなかからユーザーが補正したい顔画像を含む画像データ14bを取得し、さらに当該画像データ14bからユーザーが補正したい顔画像が含まれる領域を取得する。同様にステップS110においては、補正目標取得部PG2bがHDD14等に記憶された複数の画像データ14bのなかからユーザーが補正の目標としたい顔画像を含む画像データ14bを取得し、さらに当該画像データ14bからユーザーが補正の目標としたい顔画像が含まれる領域を取得する。
図3は、本実施例にかかる画像処理の流れを示している。ステップS100においては、補正対象取得部PG2aが所定のUI画面をディスプレイ40に表示させるとともに、キーボード50aとマウス50bから操作を受け付ける。それにより、HDD14等に記憶された複数の画像データ14bのなかからユーザーが補正したい顔画像を含む画像データ14bを取得し、さらに当該画像データ14bからユーザーが補正したい顔画像が含まれる領域を取得する。同様にステップS110においては、補正目標取得部PG2bがHDD14等に記憶された複数の画像データ14bのなかからユーザーが補正の目標としたい顔画像を含む画像データ14bを取得し、さらに当該画像データ14bからユーザーが補正の目標としたい顔画像が含まれる領域を取得する。
図4は、ステップS100,S110において表示されるUI画面の一例を示している。当該UI画面においては、補正したい顔画像を指定するための対象指定領域A1と、補正の目標としたい顔画像を指定するための目標指定領域A2が設けられている。対象指定領域A1においては、単一の画像データ14bのファイルを指定するためのファイル指定領域と、指定された画像データ14bのサムネイルを表示させるプレビュー領域が設けられている。これにより、ユーザーが所望の画像データ14bが指定できたか否かを確認することができる。さらに、前記サムネイルにてマウス50bをドラッグ/ドロップさせることによって、所望の顔画像が含まれる矩形領域を指定することが可能となっている。ステップS100では、補正対象取得部PG2aが当該矩形領域内の画像データを対象顔画像データMFとして取得する。
一方、目標指定領域A2においても、画像データ14bのファイルを指定するためのファイル指定領域と、指定された画像データ14bのサムネイルを表示させるプレビュー領域が設けられている。目標指定領域A2では、複数の画像データ14bを追加指定できるように、追加ボタン設けられている。このようにすることにより、複数または同一の画像データ14bから複数の顔画像を矩形領域によって指定することができる。補正目標取得部PG2bは、各プレビュー領域にて指定された矩形領域内の画像データを目標候補顔画像データTFとして取得する。なお、本実施形態では5個の目標候補顔画像データTF1〜TF5が取得されたものとする。
以上のようにして、対象顔画像データMFと目標候補顔画像データTF1〜TF5が取得できると、ステップS130では顔画像抽出部PG2cが、画像データMFと目標候補顔画像データTF1〜TF5を解析して、人物の顔が写っている部分を抽出する処理を行う。顔が写っている部分を抽出する方法には、種々の方法が提案されているが、大まかには次のようにして抽出することができる。
まず、画像データの中から、写っている物体の輪郭部分を抽出する。輪郭の抽出に際しては、メディアンフィルタなどの二次元フィルタを用いてノイズを除去したり、コントラストやエッジを強調した後、二値化を行い、得られた二値化像の境界部分を物体の輪郭として抽出する。次いで、抽出した輪郭の中で、明らかに人物の顔ではないと思われるものを除外する処理を行う。例えば、抽出した輪郭の中で直線の割合が大きい物体については、いわゆる人工物である可能性が高く、人物の顔である可能性はほとんどない。このように、明らかに人物の顔ではないと判断できる物体を除外しておき、残った物体について、輪郭の形状から「目」、「口」、「鼻」などと思われる物体を抽出していく。
もし、これらの物体が本当に「目」、「口」、「鼻」などであれば、互いに所定の位置関係にあるはずである。例えば、「口」と思わしき物体が抽出されたとき、上方に「目」や「鼻」と思われる物体(あるいは明らかに「目」または「鼻」であると判断できる物体)が存在していれば、抽出された物体は「口」であると判断することができる。同様に「目」と思わしき物体についても、本当に「目」であれば、多くの場合、近くに同じ向きの「目」らしき物体が存在しているはずである。このようにして、輪郭から「目」、「口」、「鼻」などと思われる物体を抽出し、抽出した物体の中から、互いの位置関係を考慮することによって「目」、「口」、「鼻」などを特定することができる。そして最後に、一組ずつの「目」、「口」、「鼻」などを包含する顔の輪郭部分を抽出すれば、対象顔画像データMFと目標候補顔画像データTF1〜TF5において人物の顔が写っている部分(顔画像)を抽出することが可能となる。
図5は、このようにして画像中で人物の顔が写っている部分が抽出された様子を示している。図中に破線で示した矩形の領域が、人物の顔面が写っている領域となる。なお、対象顔画像データMFと目標候補顔画像データTF1〜TF5は、もともとユーザーによって顔画像が含まれる領域を指定したものであるが、ステップS130を実行することにより、厳密に顔画像の領域のみを抽出した対象顔画像データMFと目標候補顔画像データTF1〜TF5に加工することができる。なお、ステップS130においてはそれぞれ解像度変換を行うことにより、対象顔画像データMFと目標候補顔画像データTF1〜TF5の大きさを揃えている。従って、対象顔画像データMFと目標候補顔画像データTF1〜TF5に含まれる顔画像の大きさも一様となっている。以上のようにして顔画像を抽出したら、抽出した顔画像を構成している目や、唇、眉毛、頬などの所定の顔器官の特徴点の位置を検出する処理を特徴点抽出部PG2dが開始する(ステップS140)。もちろん、顔画像を構成する他の部分(例えば、頬骨や、額、あごなど)を、顔器官として検出することとしても良い。
図6は、抽出した顔面の中から所定の特徴点(対応特徴点)を検出している様子を示す説明図である。まず、左右の目の位置(中心位置)P1,P2の中点の位置P3を検出し、この位置を鼻の付け根の位置とする。そして、鼻の付け根の位置P3から、その鉛直下方(y方向)にある鼻の先端の位置P4を検出し、さらにその鉛直下方向(y方向)を探索することにより、口の位置(中心位置)P5を検出する。次いで、鼻の先端の位置P4から左右水平方向(x方向)に探索して顔の輪郭の位置P6,P7を検出する。さらに、鼻の先端の位置P4の鉛直下方(y方向)において、あごの最下点の位置P8を検出する。各位置Piが本発明の特徴点の位置に相当し、特に目標候補顔画像データTF1〜TF5の各特徴点が本発明の対応特徴点に相当する。対象顔画像データMFと目標候補顔画像データTF1〜TF5のそれぞれについて特徴点(対応特徴点)の位置Pi(i=1〜8)が検出できると、ステップS150において特徴点(対応特徴点)の位置Pi(i=1〜8)を正規化された座標に変換する。
図7は、特徴点(対応特徴点)の位置Pi(i=1〜8)を変換する様子を示している。同図において、鼻の付け根の位置P3(x P3,y P3)を基準位置P3とする。そして、基準位置P3とあごの最下点の位置P8との距離を鉛直基準距離vsdとして算出する。さらに、左右の顔の輪郭の位置P6,P7との距離を水平基準距離hsdとして算出する。そして、各特徴点(対応特徴点)の位置Piの座標を鉛直基準距離vsdと水平基準距離hsdによって各方向について正規化するとともに、基準位置P3(x P3,y P3)を原点(0,0)とした座標に変換する。変換前の任意の特徴点(対応特徴点)の位置をPi(xPi,yPi)と表し、変換後の各特徴点(対応特徴点)の位置pi(xpi,ypi)と表すものとする。変換後の各特徴点(対応特徴点)の位置pi(xpi,ypi)は下記の(1)式によって表される。
次のステップS160にて、対象顔画像データMFの各特徴点の位置pi(xpi,ypi)と、目標候補顔画像データTF1〜TF5の各対応特徴点の位置pi(xpi,ypi)との距離Di(ユークリッド距離)を算出する。なお、対象顔画像データMFの各特徴点の位置pi(xpi,ypi)を特に位置pmi(xpmi,ypmi)と表記し、これら対応する目標候補顔画像データTF1〜TF5の各対応特徴点の位置pi(xpi,ypi)を特に位置pti(xpti,ypti)と表記するものとする。
なお、鼻の付け根の位置p3(x p3,y p3)は常に原点(0,0)であり、あごの最下点の位置p8(x p8,y p8)は(0,1)となるように座標が変換されているため、D3=D9=0となる。ステップS170においては、各目標候補顔画像データTF1〜TF5について、下記の(3)式によって類否評価値Eを算出する。
上記の(3)式において、wiは各特徴点(対応特徴点)についての重み係数である。類否評価値Eは、各目標候補顔画像データTF1〜TF5の各対応特徴点の位置ptiと対象顔画像データMFの各特徴点の位置pmiが近いほど大きくなる性質を有し、類否評価値Eが大きいほど目標候補顔画像データTF1〜TF5と対象顔画像データMFが示す顔画像が互いに類似性が高いと判定することができる。なお、本実施形態では、重み係数がw1,w2>w3〜w8とされており、類否評価値Eにて目の位置p1,p2についての距離D1,D2が他のものより重視されるように設定されている。
上記の(3)式において、wiは各特徴点(対応特徴点)についての重み係数である。類否評価値Eは、各目標候補顔画像データTF1〜TF5の各対応特徴点の位置ptiと対象顔画像データMFの各特徴点の位置pmiが近いほど大きくなる性質を有し、類否評価値Eが大きいほど目標候補顔画像データTF1〜TF5と対象顔画像データMFが示す顔画像が互いに類似性が高いと判定することができる。なお、本実施形態では、重み係数がw1,w2>w3〜w8とされており、類否評価値Eにて目の位置p1,p2についての距離D1,D2が他のものより重視されるように設定されている。
ステップS180においては、類否判定部PG2eが各目標候補顔画像データTF1〜TF5のうち類否評価値Eが最も大きいものを目標顔画像データTTFとして特定する。すなわち、補正目標とする顔画像の候補から各特徴点の位置pmiと各対応特徴点の位置ptiが最も類似するものを、最終的に補正目標とする顔画像を示す目標顔画像データTTFとして特定する。目標顔画像データTTFが特定できると、補正部PG2fがステップS190にて対象顔画像データMFの各特徴点Piを移動させる移動量割合miを決定する。
図8は、特徴点の移動量割合miと距離Diとの関係を示している。同図において、横軸にある特徴点についての距離Diを示し、縦軸に当該特徴点についての移動量割合miを示している。移動量割合miは、距離Diが0のとき1となり、距離Diの増加とともに単調的に減少する。そして、距離Diが所定の閾値Thを超えたとき、移動量割合miが0となる。なお、D3=D8=0であるため、これらの特徴点については移動量割合miも0となる。以上のようにして、各特徴点について移動量割合miを決定すると、ステップS200にて対象顔画像データMFの特徴点の移動量、移動方向を決定する。
図9は、特徴点の移動量を決定する様子を示している。同図において、対象顔画像データMFと目標顔画像データTTFが鼻の付け根の位置に対応する基準位置P3(x P3,y P3)を合わせるように重ね合わせられた様子が図示されている(目標顔画像データTTFについては各対応特徴点の位置を示す●のみ図示。)。なお、ここで示す各特徴点の位置Pi(i=1〜8)は、鉛直基準距離vsdと水平基準距離hsdによって正規化したものでなく、現実のxy平面における位置を示している。対象顔画像データMFの各特徴点の位置Pi(×で図示。)と目標顔画像データTTFの対応特徴点の位置Piとの間にはそれぞれ現実の距離di(正規化平面での距離Diとは異なる。)が存在している。ステップS200では、各特徴点の現実の距離diにステップS190にて決定した移動量割合miを乗算することにより、各特徴点の移動量を決定する。移動方向は、対象顔画像データMFの特徴点の位置から目標顔画像データTTFについては各対応特徴点の位置に向かう方向とする。以上のようにして対象顔画像データMFの特徴点の移動量と移動方向が決定できると、実際に対象顔画像データMFの特徴点の位置を移動させる(ステップS210)。
図10は、ステップS210にて対象顔画像データMFの特徴点の位置を移動させる様子を示している。同図において、対象顔画像データMFの特徴点の位置を移動させるにあたり、まず対象顔画像データMFにおいて移動前の特徴点の位置P1,P2,P4,P5,P6,P7を中心として複数のブロックB1,B2,B4,B5,B6,B7を形成する。ブロックB1,B2,B4,B5,B6,B7は互いに重ならないように設定されており、それぞれの大きさは中心に有する顔器官の妥当な大きさに基づいて設定されている。なお、ブロックB1,B2,B4,B5,B6,B7が特徴点の移動の影響範囲と考えることができる。
図11は、移動前の目の位置P1を中心としたブロックB1内の各画素が移動する様子を説明している。同図において、矩形状のブロックB1が移動前の目の位置(中心位置)P1を通過する鉛直・水平線によって4個の矩形状の小ブロックB1a,B1b,B1c,B1dに分割されている。さらに、各小ブロックB1a,B1b,B1c,B1dが重心Ga,Gb,Gc,Gdを一頂点とする4個の三角ブロックB1a1〜B1a4,B1b1〜B1b4,B1c1〜B1c4,B1d1〜B1d4に分割されている。まず、ステップS200にて決定された移動量および移動方向にしたがって目の位置P1を移動させる。それにともなって、小ブロックB1a,B1b,B1c,B1dの形状が歪み、これらの重心Ga,Gb,Gc,Gdも移動することとなる。さらに、重心Ga,Gb,Gc,Gdが移動することによって、重心Ga,Gb,Gc,Gdを一頂点として有する三角ブロックB1a1〜B1a4,B1b1〜B1b4,B1c1〜B1c4,B1d1〜B1d4の形状も歪むこととなる。以上のようにして、三角ブロックB1a1〜B1a4,B1b1〜B1b4,B1c1〜B1c4,B1d1〜B1d4の頂点を移動させると、次に、これらの内部の画素を移動させる。
図12は、三角ブロックB1a4内の画素を移動させる様子を説明している。三角ブロックB1a4は、目の位置P1および重心Gaを頂点とする三角形であり、目の位置P1および重心Gaがそれぞれ位置P1’および重心Ga’に移動することにより、形状が歪むこととなる。ここで、三角ブロックB1a4の頂点のうち目の位置P1と重心Ga以外の移動しない頂点Sと表すと、三角ブロックB1a4内の任意の点QのまでのベクトルSQはベクトルSP1,SGaを用いて下記の(4)式で表すことができる。
上記の(4)式において、αとβによるベクトルSP1,SGaの結合比および大きさ(α+β≦1)を変更することによって、三角ブロックB1a4内の任意の点QのまでのベクトルSQを表現することができる。ここで、下記の(5)式が成り立つように、任意の点Qを移動させる。
上記の(5)式において、目の位置P1および重心Gaが位置P1’および重心Ga’に移動するのにともなって、任意の点Qが点Q’に移動するものとする。
上記の(4)式において、αとβによるベクトルSP1,SGaの結合比および大きさ(α+β≦1)を変更することによって、三角ブロックB1a4内の任意の点QのまでのベクトルSQを表現することができる。ここで、下記の(5)式が成り立つように、任意の点Qを移動させる。
上記の(5)式において、目の位置P1および重心Gaが位置P1’および重心Ga’に移動するのにともなって、任意の点Qが点Q’に移動するものとする。
このようにすることにより、各頂点の相対的な位置関係を維持しつつ三角ブロックB1a4内の任意の点Qを移動させることができる。以上においては、三角ブロックB1a4内の任意の点Qを移動させることを例示したが、他の三角ブロックB1a1〜B1a4,B1b1〜B1b4,B1c1〜B1c4,B1d1〜B1d4についても同様に移動を行う。なお、三角ブロックB1a1〜B1a4,B1b1〜B1b4,B1c1〜B1c4,B1d1〜B1d4の位置によっては、一頂点のみが移動することとなるが、その場合も同様の手法で移動させることができる。さらに、他の顔器官についてのブロックB2,B4,B5,B6についても同様に移動させることができる。ブロックB1,B2,B4,B5,B6内の画素を上述した手法によって移動させると、画素密度に疎密が生じるが、疎となる領域ではキュービック法等の補間によって画素を内挿し、密となる領域では間引きを行うことにより、移動前と同様の均一な画素配列とする。なお、各ブロックB1,B2,B4,B5,B6の外辺上の画素は移動しないため、各ブロックB1,B2,B4,B5,B6の境界で段差が生じることが防止できる。
以上のようにして移動(補正)が完了すると、ステップS220にて補正が完了した対象顔画像データMFをプリンタドライバP3出力する。すると、プリンタドライバP3は、対象顔画像データMFに対して解像度変換処理と色変換処理とハーフトーン処理とラスタライズ処理を順次実行させ、プリンタ20に補正後の対象顔画像データMFに対応する画像の印刷を実行させる。
3.まとめおよび変形例
以上説明したように、上述した実施形態では、対象顔画像データMFをユーザーの好みに補正するにあたり、まず目標候補顔画像データTF1〜TF5の指定を受け付けることとしている(ステップS100,S110)。このようにすることにより、目標候補顔画像データTF1〜TF5の印象そのものを補正目標とすることができ、言葉などの概念を介すことによりユーザーの真の意図が歪められることが防止できる。さらに、目標候補顔画像データTF1〜TF5のなかから最も対象顔画像データMFに似ているものを最終的な目標顔画像データTTFとするようにしている。このようにすることにより、わざとらしくない自然な補正を実現することができる。
以上説明したように、上述した実施形態では、対象顔画像データMFをユーザーの好みに補正するにあたり、まず目標候補顔画像データTF1〜TF5の指定を受け付けることとしている(ステップS100,S110)。このようにすることにより、目標候補顔画像データTF1〜TF5の印象そのものを補正目標とすることができ、言葉などの概念を介すことによりユーザーの真の意図が歪められることが防止できる。さらに、目標候補顔画像データTF1〜TF5のなかから最も対象顔画像データMFに似ているものを最終的な目標顔画像データTTFとするようにしている。このようにすることにより、わざとらしくない自然な補正を実現することができる。
目標候補顔画像データTF1〜TF5のなかから最も対象顔画像データMFに似ているもの特定するにあたり、顔器官(特徴点)ごとに異なる重み係数wiを設定するため、一部の特徴点を特に重視して類否判定することができる。なお、重み係数wiがユーザーによって設定できるようにしてもよい。例えば、指定した目標候補顔画像データTF1〜TF5の目が特に気に入っている場合には、重み係数w1,w2を大きくするように指定することも可能となる。さらに、特徴点の位置Piを鉛直基準距離vsdと水平基準距離hsdによって正規化した上で、対象顔画像データMFの特徴点と目標候補顔画像データTF1〜TF5の対応特徴点との距離Diを算出し、当該距離Diに基づいて対象顔画像データMFに対する各目標候補顔画像データTF1〜TF5の類否判定を行うようにしている(ステップS150,S160)。このようにすることにより、各特徴点の絶対的な位置だけでなく、基準位置P3からあごの最下点の位置P8までの鉛直基準距離vsdに対する各特徴点のy方向の相対的位置を評価することができる。例えば、基準位置P3と口の位置P5とのy方向の絶対距離が同じであっても、基準位置P3からあごの最下点の位置P8までの距離が異なれば、印象が全く異なったものとなる。このような場合でも、鉛直基準距離vsdで正規化しておくことにより、類似しないと判定することができる。
また、特徴点の移動量割合miを0〜1の間で設定する(ステップS190)ことにより、目標顔画像データTTFの対応特徴点へ完全に近づけることを防止することができ、わざとらしい補正を防止することができる。移動量割合miは、対象顔画像データMFの特徴点の位置と、目標顔画像データTTFの対応特徴点の位置との距離Diが0のとき1となり、距離Diの増加とともに単調的に減少するため、類似している特徴点ほど目標顔画像データTTFに近づく程度を強くすることができる。これにより、もともと目標顔画像データTTFに類似していない特徴点を無理に対応特徴点に近づけるような補正を防止することができ、自然な補正を実現することができる。さらに、距離Diが所定の閾値Thを超えたときには移動量割合miを0としているため、原形を留めないような補正を防止することができる。この移動量割合miの設定は、各特徴点ごとに行われるため、各特徴点ごとの類似性に応じた補正を実現することができる。すべての特徴点について一様な移動が行われないため、補正目標が誰の顔の目標顔画像データTTFであったとあからさまに分かるような補正となることが防止できる。
3−1.変形例1
図13は、変形例にかかる特徴点の移動量割合miと距離Diとの関係を示している。本変形例において、移動量割合miは、距離Diが距離Diの合計値ΣDiと等しいとき1となり、距離Diの減少とともに単調的に減少する。そして、距離Diが所定の閾値Thをよりも小さくなったとき、移動量割合miが0となる。これにより、もともと目標顔画像データTTFに類似していない特徴点については特に対応特徴点に近づけるような補正を行うことができる。上述した実施形態とは逆に、わざとらしい補正を実現させることができる。このように、補正をわざとらしくさせるか自然にさせるかは、対象顔画像データMFの用途に応じて設定されるべきであり、例えばユーザーが指定することによって、本変形例のモードと上述した実施形態のモードとが切り替えられるようにしてもよい。
図13は、変形例にかかる特徴点の移動量割合miと距離Diとの関係を示している。本変形例において、移動量割合miは、距離Diが距離Diの合計値ΣDiと等しいとき1となり、距離Diの減少とともに単調的に減少する。そして、距離Diが所定の閾値Thをよりも小さくなったとき、移動量割合miが0となる。これにより、もともと目標顔画像データTTFに類似していない特徴点については特に対応特徴点に近づけるような補正を行うことができる。上述した実施形態とは逆に、わざとらしい補正を実現させることができる。このように、補正をわざとらしくさせるか自然にさせるかは、対象顔画像データMFの用途に応じて設定されるべきであり、例えばユーザーが指定することによって、本変形例のモードと上述した実施形態のモードとが切り替えられるようにしてもよい。
3−2.変形例2
上述した実施形態においては、最も類否評価値Eが大きいものを目標顔画像データTTFとして特定するようにしたが、他の手法によって目標顔画像データTTFを特定するようにしてもよい。本変形例においては、まずステップS180において、類否判定部PG2eが各目標候補顔画像データTF1〜TF5のうち類否評価値Eが上位3位以内のものを選択する。そして、当該選択した目標候補顔画像データTF1〜TF5の平均的な顔画像を目標顔画像データTTFとして特定する。
上述した実施形態においては、最も類否評価値Eが大きいものを目標顔画像データTTFとして特定するようにしたが、他の手法によって目標顔画像データTTFを特定するようにしてもよい。本変形例においては、まずステップS180において、類否判定部PG2eが各目標候補顔画像データTF1〜TF5のうち類否評価値Eが上位3位以内のものを選択する。そして、当該選択した目標候補顔画像データTF1〜TF5の平均的な顔画像を目標顔画像データTTFとして特定する。
図14は、類否評価値Eが上位3個位以内の目標候補顔画像データTF1〜TF5に基づいて、これらの平均的なものを目標顔画像データTTFとして特定する様子を説明している。同図においては、3個の目標候補顔画像データTF1〜TF3が有する各特徴点の位置Piがそれぞれ◎,●,○で示されている。ステップS180においては、各特徴点の位置Piの平均値を、目標顔画像データTTFの特徴点の位置Pi(△で図示。)として算出する。そして、対象顔画像データMFの特徴点の位置が目標顔画像データTTFの対応特徴点の位置Pi(△で図示。)に近づくようにステップS210にて移動が行われる。このようにすることにより、目標候補顔画像データTF1〜TF3のいずれかが有する突飛な対応特徴点に対象顔画像データMFの特徴点が近づくことが防止でき、あたりさわりのない補正結果を得ることができる。また、平均的な顔画像は比較的バランスのよい顔画像であるということができ、ユーザーが目標とする複数の目標候補顔画像データTF1〜TF3に基づいて、さらにバランスのよい顔画像を生成し、補正の目標とすることができる。なお、以上においては、顔器官を全体的に移動させるものを例示したが、顔器官の複数の部分を検出し、顔器官の形状を目標顔画像データTTFに近づけるようにしてもよい。例えば、上まぶたと下まぶたの頂点を検出し、これらの距離に基づいて目標顔画像データTTFと同様の目の大きさとなるように補正を行うようにしてもよい。
なお、以上においては、本発明の画像処理方法が、コンピュータ上で実行されるものを例示したが、例えばプリンタやデジタルスチルカメラやスキャナ等の画像機器にて実行されてもよい。プリンタのファームウェアにて本発明の画像処理方法を行えば、印刷の際に理想的な顔画像に近づく画像処理を実行することができる。また、デジタルスチルカメラにて本発明の画像処理方法を行えば、理想的な顔画像となった撮影結果を得ることができる。
10…コンピュータ、11…CPU、12…RAM、13…ROM、14…HDD、14a…プログラムデータ、14b…画像データ、15…GIF、16…VIF、17…IIF、18…バス、20…プリンタ、40…ディスプレイ、50a…キーボード、50b…マウス、PG1…OS、PG2…画像処理アプリケーション、PG2a…補正対象取得部、PG2b…補正目標取得部、PG2c…顔画像抽出部、PG2d…特徴点抽出部、PG2e…類否判定部、PG2f…補正部、PG3…プリンタドライバ。
Claims (8)
- 画像に含まれる顔画像についての画像処理方法であって、
補正対象の顔画像を対象顔画像として取得し、
補正目標とする顔画像を目標顔画像として取得し、
前記対象顔画像に含まれる各特徴点の位置が、前記目標顔画像に含まれる各対応特徴点の位置に近づくように補正するにあたり、各対応特徴点の位置に近づける程度を各特徴点ごとに決定することを特徴とする画像処理方法。 - 前記目標顔画像に含まれる各特徴点の位置と補正前の各対応特徴点の位置の類似性を各特徴点について判定し、当該類似性に応じて各対応特徴点の位置に近づける程度を決定することを特徴とする請求項1に記載の画像処理方法。
- 前記類似性が高い特徴点ほど前記対応特徴点の位置に近づける程度を大きくすることを特徴とする請求項2に記載の画像処理方法。
- 前記類似性が所定の閾値よりも大きい特徴点に限り、前記対応特徴点の位置に近づけることを特徴とする請求項3に記載の画像処理方法。
- 前記類似性が低い特徴点ほど前記対応特徴点の位置に近づける程度を大きくすることを特徴とする請求項2に記載の画像処理方法。
- 画像に含まれる顔画像についての画像処理装置であって、
補正対象の顔画像を対象顔画像として取得する対象顔画像取得手段と、
補正目標とする顔画像を目標顔画像として取得する目標顔画像取得手段と、
前記対象顔画像に含まれる各特徴点の位置が、前記目標顔画像に含まれる各対応特徴点の位置に近づくように補正するにあたり、各対応特徴点の位置に近づける程度を各特徴点ごとに決定する補正手段とを具備することを特徴とする画像処理装置。 - 画像に含まれる顔画像についての機能をコンピュータに実行させるためのコンピュータ読み取り可能な画像処理プログラムであって、
補正対象の顔画像を対象顔画像として取得する対象顔画像取得機能と、
補正目標とする顔画像を目標顔画像として取得する目標顔画像取得機能と、
前記対象顔画像に含まれる各特徴点の位置が、前記目標顔画像に含まれる各対応特徴点の位置に近づくように補正するにあたり、各対応特徴点の位置に近づける程度を各特徴点ごとに決定する補正機能とをコンピュータに実行させるためのコンピュータ読み取り可能な画像処理プログラム。 - 画像に含まれる顔画像を補正して当該画像を印刷させる印刷装置であって、
補正対象の顔画像を対象顔画像として取得する対象顔画像取得手段と、
補正目標とする顔画像を目標顔画像として取得する目標顔画像取得手段と、
前記対象顔画像に含まれる各特徴点の位置が、前記目標顔画像に含まれる各対応特徴点の位置に近づくように補正するにあたり、各対応特徴点の位置に近づける程度を各特徴点ごとに決定する補正手段と、
前記補正を行った画像を印刷する印刷手段とを具備することを特徴とする印刷装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008079354A JP2009237627A (ja) | 2008-03-25 | 2008-03-25 | 画像処理方法、画像処理装置、画像処理プログラムおよび印刷装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008079354A JP2009237627A (ja) | 2008-03-25 | 2008-03-25 | 画像処理方法、画像処理装置、画像処理プログラムおよび印刷装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009237627A true JP2009237627A (ja) | 2009-10-15 |
Family
ID=41251542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008079354A Pending JP2009237627A (ja) | 2008-03-25 | 2008-03-25 | 画像処理方法、画像処理装置、画像処理プログラムおよび印刷装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009237627A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013161383A1 (ja) * | 2012-04-27 | 2013-10-31 | 楽天株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
CN104346779A (zh) * | 2013-08-01 | 2015-02-11 | Cjcgv株式会社 | 利用创建特征点的图像校正方法和装置 |
KR20150107580A (ko) * | 2014-03-13 | 2015-09-23 | 오므론 가부시키가이샤 | 화상 처리 장치 및 화상 처리 방법 |
JP2015185876A (ja) * | 2014-03-20 | 2015-10-22 | フリュー株式会社 | 管理装置および管理装置の制御方法、写真シール作成装置、並びに、端末装置、制御プログラムおよび記録媒体 |
JP2015185878A (ja) * | 2014-03-20 | 2015-10-22 | フリュー株式会社 | 情報提供装置、画像分析システム、サーバ、情報提供装置の制御方法、サーバの制御方法、画像分析方法、制御プログラム、および記録媒体 |
KR20240057806A (ko) * | 2022-10-25 | 2024-05-03 | 에스케이텔레콤 주식회사 | 개인화 얼굴 보정 방법 및 얼굴보정장치 |
-
2008
- 2008-03-25 JP JP2008079354A patent/JP2009237627A/ja active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9449215B2 (en) | 2012-04-27 | 2016-09-20 | Rakuten, Inc. | Information processing apparatus, information processing method and information processing program |
JP2013232093A (ja) * | 2012-04-27 | 2013-11-14 | Rakuten Inc | 情報処理装置、情報処理方法及び情報処理プログラム |
WO2013161383A1 (ja) * | 2012-04-27 | 2013-10-31 | 楽天株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
CN104346779B (zh) * | 2013-08-01 | 2017-05-03 | Cj Cgv 株式会社 | 利用创建特征点的图像校正方法和装置 |
JP2015032313A (ja) * | 2013-08-01 | 2015-02-16 | シゼイ シジブイ カンパニー リミテッド | 特徴点の生成を用いたイメージの補正方法及び装置 |
CN104346779A (zh) * | 2013-08-01 | 2015-02-11 | Cjcgv株式会社 | 利用创建特征点的图像校正方法和装置 |
US10043094B2 (en) | 2013-08-01 | 2018-08-07 | Cj Cgv Co., Ltd. | Image correction method and apparatus using creation of feature points |
KR20150107580A (ko) * | 2014-03-13 | 2015-09-23 | 오므론 가부시키가이샤 | 화상 처리 장치 및 화상 처리 방법 |
KR101597915B1 (ko) | 2014-03-13 | 2016-02-25 | 오므론 가부시키가이샤 | 화상 처리 장치 및 화상 처리 방법 |
JP2015185876A (ja) * | 2014-03-20 | 2015-10-22 | フリュー株式会社 | 管理装置および管理装置の制御方法、写真シール作成装置、並びに、端末装置、制御プログラムおよび記録媒体 |
JP2015185878A (ja) * | 2014-03-20 | 2015-10-22 | フリュー株式会社 | 情報提供装置、画像分析システム、サーバ、情報提供装置の制御方法、サーバの制御方法、画像分析方法、制御プログラム、および記録媒体 |
KR20240057806A (ko) * | 2022-10-25 | 2024-05-03 | 에스케이텔레콤 주식회사 | 개인화 얼굴 보정 방법 및 얼굴보정장치 |
KR102705685B1 (ko) * | 2022-10-25 | 2024-09-11 | 에스케이텔레콤 주식회사 | 개인화 얼굴 보정 방법 및 얼굴보정장치 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10304164B2 (en) | Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data | |
JP6864449B2 (ja) | イメージの明るさを調整する方法及び装置 | |
EP1596573B1 (en) | Image correction apparatus | |
JP5538909B2 (ja) | 検出装置およびその方法 | |
US9542755B2 (en) | Image processor and image processing method | |
US9135726B2 (en) | Image generation apparatus, image generation method, and recording medium | |
US20120020568A1 (en) | Image processor and image processing method | |
JP6111723B2 (ja) | 画像生成装置、画像生成方法及びプログラム | |
JP2009237627A (ja) | 画像処理方法、画像処理装置、画像処理プログラムおよび印刷装置 | |
JP5949030B2 (ja) | 画像生成装置、画像生成方法及びプログラム | |
KR20180088862A (ko) | 배경 제거 | |
JP2007241424A (ja) | 画像処理装置および画像処理方法 | |
JP2005165984A (ja) | 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム | |
WO2023273247A1 (zh) | 人脸图像处理方法及装置、计算机可读存储介质、终端 | |
JP2006133990A (ja) | 画像処理装置 | |
JP4957607B2 (ja) | 画像における顔領域の検出 | |
JP2006018467A (ja) | 画像処理装置及び方法 | |
JP6098133B2 (ja) | 顔構成部抽出装置、顔構成部抽出方法及びプログラム | |
US10096153B2 (en) | Image processing apparatus, image processing system, image processing method, and non-transitory computer readable medium | |
JP2018128950A (ja) | 画像処理装置及びプログラム | |
JP2009237626A (ja) | 画像処理方法、画像処理装置、画像処理プログラムおよび印刷装置 | |
JP2006113658A (ja) | 画像処理装置及び方法、及びプログラムを記録した記憶媒体 | |
JP2015184701A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2005165983A (ja) | 人物顔のあご検出方法及びあご検出システム並びにあご検出プログラム | |
JP2009217799A (ja) | 輪郭検出方法、輪郭検出装置および輪郭検出プログラム |