JP5463866B2 - 画像処理装置および画像処理方法、並びにプログラム - Google Patents

画像処理装置および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP5463866B2
JP5463866B2 JP2009260850A JP2009260850A JP5463866B2 JP 5463866 B2 JP5463866 B2 JP 5463866B2 JP 2009260850 A JP2009260850 A JP 2009260850A JP 2009260850 A JP2009260850 A JP 2009260850A JP 5463866 B2 JP5463866 B2 JP 5463866B2
Authority
JP
Japan
Prior art keywords
image
face
feature point
feature points
additional feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009260850A
Other languages
English (en)
Other versions
JP2011107877A (ja
JP2011107877A5 (ja
Inventor
大介 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009260850A priority Critical patent/JP5463866B2/ja
Priority to US12/891,124 priority patent/US8698796B2/en
Priority to CN201010537933.6A priority patent/CN102074040B/zh
Publication of JP2011107877A publication Critical patent/JP2011107877A/ja
Publication of JP2011107877A5 publication Critical patent/JP2011107877A5/ja
Application granted granted Critical
Publication of JP5463866B2 publication Critical patent/JP5463866B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Description

本発明は、画像処理装置および画像処理方法、並びにプログラムに関し、特に、顔形状に正確に貼り付けることができるテクスチャ画像を生成することができるようにした画像処理装置および画像処理方法、並びにプログラムに関する。
従来、ゲームや映画などのコンピュータグラフィックによる映像の制作には、三次元の顔モデルが利用されている。
三次元の顔モデルは、例えば、図1に示すように、顔の形状を三次元的に表現する形状データに基づく顔形状と、その顔形状の表面に貼られるテクスチャ画像から構成されている。また、テクスチャ画像は、立体的な曲面の形状を展開したものであるので、一般的に、通常の撮像装置で正面を向く顔を撮像した画像とは異なり、歪んだ形により顔を表現した画像となっている。
例えば、特許文献1には、顔形状とテクスチャ画像とを同時に取得する方法が開示されている。このように顔形状とテクスチャ画像とを同時に取得することで、テクスチャ画像を取得した方向から顔形状にテクスチャ画像を貼り付けることで、顔形状にテクスチャ画像を正確に貼り付けることができる。
特開2006−107145号公報
ところで、予めモデリングされている顔形状に、任意の顔のテクスチャ画像を貼り付ける場合には、顔の形状とテクスチャ画像の顔パーツとが一致していないため、顔形状にテクスチャ画像を正確に貼り付けることは困難であった。
本発明は、このような状況に鑑みてなされたものであり、顔形状に正確に貼り付けることができるテクスチャ画像を生成することができるようにするものである。
本発明の一側面の画像処理装置は、顔が写された画像における顔の特徴的な点である特徴点として、前記画像における目および口の両端を示す前記特徴点を少なくとも取得する特徴点取得手段と、前記特徴点取得手段により取得された前記特徴点に基づいて、前記画像における少なくとも目および口の近傍の所定箇所に追加特徴点を算出する追加特徴点算出手段と、前記特徴点および前記追加特徴点を利用して、所定の三次元的な顔形状の表面を平面に展開した展開画像の顔における前記特徴点および前記追加特徴点に対応する箇所に一致するように前記画像を変形する変形手段とを備える。
本発明の一側面の画像処理方法またはプログラムは、顔が写された画像における顔の特徴的な点である特徴点として、前記画像における目および口の両端を示す前記特徴点を少なくとも取得し、前記特徴点に基づいて、前記画像における少なくとも目および口の近傍の所定箇所に追加特徴点を算出し、前記特徴点および前記追加特徴点を利用して、所定の三次元的な顔形状の表面を平面に展開した展開画像の顔における前記特徴点および前記追加特徴点に対応する箇所に一致するように前記画像を変形するステップを含む。
本発明の一側面においては、顔が写された画像における顔の特徴的な点である特徴点として、画像における目および口の両端を示す特徴点が少なくとも取得され、特徴点に基づいて、画像における少なくとも目および口の近傍の所定箇所に追加特徴点が算出され、特徴点および追加特徴点を利用して、所定の三次元的な顔形状の表面を平面に展開した展開画像の顔における特徴点および追加特徴点に対応する箇所に一致するように画像が変形される。
本発明の一側面によれば、顔形状に正確に貼り付けることができるテクスチャ画像を生成することができる。
三次元の顔モデルの構成について説明する図である。 本発明を適用した画像処理システムの一実施の形態の構成例を示すブロック図である。 ユーザの顔を撮像して顔モデルを表示する処理を説明するフローチャートである。 変形画像を生成する処理について説明する図である。 顔領域に設定される特徴点について説明する図である。 顔領域に設定される追加特徴点について説明する図である。 変形画像生成処理を説明するフローチャートである。 立体的な顔形状を示す図である。 顔形状の表面が平面になるように展開されたテクスチャ画像を示す図である。 テクスチャ画像を複数の三角形の領域に分割する処理について説明する図である。 三角形の領域を変形する処理について説明する図である。 画像変形処理を説明するフローチャートである。 特徴点だけに基づく処理と、特徴点および追加特徴点に基づく処理との結果を比較する図である。 肌色抽出領域の一例を示す図である。 マスクを施す処理について説明する図である。 肌色マスク処理を説明するフローチャートである。 マスクデータを生成する処理を説明するフローチャートである。 マスクデータを生成する処理について説明する図である。 顔モデルを表示する表示画面の例を示す図である。 髪の三次元形状を組み合わせた顔モデルの例を示す図である。 帽子の三次元形状を組み合わせた顔モデルの例を示す図である。 異なるユーザの顔が反映された顔モデルを説明する図である。 異なるユーザの顔が反映された顔モデルを説明する図である。 異なるユーザの顔が反映された顔モデルを説明する図である。 フェイスペインティングを演出した顔モデルを示す図である。 隈取の化粧が施された顔モデルを示す図である。 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
図2は、本発明を適用した画像処理システムの一実施の形態の構成例を示すブロック図である。なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
図2において、画像処理システムは、画像処理装置11に、撮像装置12、入力装置13、および表示装置14が接続されて構成されている。
撮像装置12は、レンズおよび絞りなどからなる光学系と、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)センサなどの撮像部とを備えて構成される。撮像装置12は、撮像部の受光面に光学系を介して結像された光学的な被写体の画像を撮像し、その結果得られる画像のデータを画像処理装置11に供給する。
入力装置13は、ボタン、スイッチ、または表示装置14に重ねて設けられるタッチパネルなどからなり、ユーザの操作に応じた信号を画像処理装置11に供給する。
表示装置14は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイなどからなり、画像処理装置11から供給される画像のデータに従って、各種の画像を表示する。
画像処理装置11は、記憶部21、変形画像生成部22、肌色マスク処理部23、三次元処理部24、および制御部25を備えて構成される。
記憶部21は、撮像装置12により撮像された画像のデータや、変形画像生成部22および肌色マスク処理部23により生成されるテクスチャ画像のデータなどを記憶する。また、記憶部21には、画像処理装置11において画像処理を行うのに必要な様々なデータ、例えば、顔の形状を三次元的に表現する形状データなどが予め記憶されている。
変形画像生成部22は、制御部25の制御に従って、記憶部21に記憶されている画像のデータを読み出し、その画像に写されている顔を、テクスチャ画像における顔の構成に合わせて変形させた変形画像を生成する変形画像生成処理を行う。
変形画像生成部22は、特徴点検出部31、追加特徴点算出部32、および画像変形処理部33を備えて構成されている。特徴点検出部31は、図5を参照して後述するように、画像に写されている顔から特徴点を検出し、追加特徴点算出部32は、図6を参照して後述するように、画像に写されている顔から追加特徴点を算出する。画像変形処理部33は、図8乃至11を参照して後述するように、特徴点および追加特徴点を利用して、画像に写されている顔を変形する画像変形処理を行って変形画像を生成する。
肌色マスク処理部23は、制御部25の制御に従って、変形画像生成部22により生成された変形画像における背景(顔の輪郭より外側の部分)を、画像中の顔から抽出した肌色に置き換える肌色マスク処理を行う。このように、変形画像に肌色マスク処理が施されることにより、ユーザの顔が写された画像からテクスチャ画像が生成され、肌色マスク処理部23は、テクスチャ画像のデータを記憶部21に記憶させる。
肌色マスク処理部23は、肌色抽出部41、マスク処理部42、マスクデータ生成部43を備えて構成されている。肌色抽出部41は、図14を参照して後述するように、追加特徴点により定義される所定の領域から肌色を抽出する。マスク処理部42は、図15および16を参照して後述するように、変形画像の一部を肌色に置き換えるマスク処理を施す。マスクデータ生成部43は、図17および18を参照して後述するように、マスク処理部42がマスク処理に使用するマスクデータを生成する。
三次元処理部24は、制御部25の制御に従って、変形画像生成部22および肌色マスク処理部23により生成されたテクスチャ画像を、記憶部21に記憶されている形状データに基づく顔形状に貼り付けて顔モデルを生成する処理を行う。また、三次元処理部24は、三次元的な形状で表現されている顔モデルを、表示装置14に表示するための二次元的な画像に変換する処理を行い、その処理の結果得られる画像のデータを表示装置14に供給して、顔モデルを表示させる。
制御部25は、CPU(Central Processing Unit)や、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ(例えば、EEPROM(Electronically Erasable and Programmable Read Only Memory))などを備えて構成されている。そして、制御部25は、CPUがROMまたはフラッシュメモリに記憶されているプログラムをRAMにロードして実行することで、画像処理装置11の各部を制御する。
次に、図3は、図2の画像処理システムが、ユーザの顔を撮像して顔モデルを表示する処理を説明するフローチャートである。
例えば、ユーザが撮像装置12に正対した状態で、自身の正面の顔を撮像するように入力装置13を操作すると処理が開始され、ステップS11において、撮像装置12は、ユーザの操作に応じたタイミングで撮像した画像を画像処理装置11に供給する。
ステップS11の処理後、処理はステップS12に進み、変形画像生成部22は、ステップS11で撮像装置12により撮像された画像を処理の対象として、変形画像を生成する変形画像生成処理(後述の図7)を行う。変形画像生成処理では、処理の対象となる画像(以下、適宜、原画像と称する)に写されている顔の領域が、テクスチャ画像における顔の構成に合わせて変形されて変形画像が生成される。変形画像生成部22は、変形画像生成処理において生成した変形画像を肌色マスク処理部23に供給し、処理はステップS13に進む。
ステップS13において、肌色マスク処理部23は、変形画像生成部22から供給された変形画像における背景を、原画像に写されている顔から抽出された肌色に置き換える肌色マスク処理(後述の図16)を行い、テクスチャ画像を生成する。肌色マスク処理部23は、肌色マスク処理により生成したテクスチャ画像を記憶部21に記憶させ、処理はステップS14に進む。
ステップS14において、三次元処理部24は、記憶部21に記憶されている顔形状およびテクスチャ画像を読み出し、顔形状にテクスチャ画像を貼り付けて顔モデルを生成する。三次元処理部24は、生成した顔モデルを表示装置14に表示するための二次元的な画像に変換し、その結果得られる画像のデータを表示装置14に供給して、処理はステップS15に進む。
ステップS15において、表示装置14は、ステップS14で三次元処理部24から供給されたデータに基づく画像、即ち、ユーザの顔が写された画像から生成されたテクスチャ画像により表現された顔モデルの画像を表示し、処理は終了する。
次に、図4を参照して、変形画像生成部22が変形画像を生成する処理について説明する。
例えば、変形画像生成部22の特徴点検出部31は、ユーザの顔が写された原画像61から、その顔の特徴的な点である特徴点を検出する。さらに、追加特徴点算出部32は、特徴点検出部31により検出された特徴点を基に追加特徴点を算出する。これにより、画像62に示すように、原画像61に対して丸印(○)で示される特徴点と、三角印(△)で示される追加特徴点が設定される。
その後、変形画像生成部22の画像変形処理部33は、原画像61から検出および算出された特徴点および追加特徴点が、テクスチャ画像を貼り付ける対象となる立体的な顔形状の表面を展開したテクスチャ画像(後述の図9)に設定されている特徴点および追加特徴点に、それぞれ一致するように原画像61を変形する画像変形処理を行い、変形画像63が生成される。
次に、図5および図6を参照して、原画像から検出および算出される特徴点および追加特徴点について説明する。
図5には、原画像において顔が写っている領域として認識された矩形の顔領域が示されており、その顔領域上に特徴点が丸印で示されている。
一般的に、顔の輪郭、眉の位置、目の境界、鼻の境界、口の境界において色の変化が大きくなる傾向があり、特徴点検出部31は、原画像の色の変化に基づいて、色の変化が大きな点を網羅するように特徴点を検出する。そして、特徴点検出部31は、図5に示すように、55箇所の特徴点P0乃至P54を顔領域に対して設定する。
例えば、特徴点検出部31は、特徴点P0乃至P11を顔の輪郭に設定し、特徴点P12乃至P14を右眉に設定し、特徴点P15乃至P23を右目に設定する。また、特徴点抽出部31は、特徴点P24乃至P26を左眉に設定し、特徴点P27乃至P35を左目に設定し、特徴点P36乃至P40を鼻に設定し、特徴点P41乃至P54を口に設定する。
なお、特徴点抽出部31が特徴点を検出する技術は一般に公開されており、その技術を利用して特徴点を自動的に設定する他、例えば、ユーザが、表示装置14に表示された顔領域に対して、入力装置13を操作して対話的に特徴点を入力し、その入力された特徴点を特徴点抽出部31が取得して顔領域に設定してもよい。
次に、図6には、図5に示された特徴点に加えて、追加特徴点算出部32が設定する12箇所の追加特徴点Px0乃至Px11が示されている。
追加特徴点算出部32は、特徴点抽出部31により設定された特徴点P0乃至P54のうちの、所定の特徴点を基に追加特徴点を算出して顔領域に設定する。図6の例では、追加特徴点算出部32は、目尻の横に追加特徴点Px0およびPx6を設定し、頬内の目の下に追加特徴点Px1,Px2,Px8,Px7を設定し、頬内の口角の上に追加特徴点Px3およびPx9を設定し、頬内の口角の横に追加特徴点Px4およびPx10を設定し、頬内の口角の下に追加特徴点Px5およびPx11を設定している。
例えば、追加特徴点算出部32は、右目の目尻の横に設定される追加特徴点Px0を、右目の右端の特徴点P15および右目の左端の特徴点P19から算出する。特徴点および追加特徴点は、顔領域の左上を原点(0,0)として正規化された値で求められる。例えば、追加特徴点Px0のXY座標Px0(X,Y)は、特徴点P15のXY座標をP15(X,Y)とし、特徴点P19のXY座標をP19(X,Y)とすると、Px0(X,Y)=P15(X,Y)+(P15(X,Y)−P19(X,Y))/2により算出される。このように、追加特徴点Px0は、右目の横幅の半分の長さだけ、右目の右端から外側(輪郭側)に向かって延ばした位置に定義されている。
また、追加特徴点算出部32は、頬内の目の下に設定される追加特徴点Px1を、右目の右端の特徴点P15および口の右端の特徴点P41から算出する。即ち、追加特徴点Px1のXY座標Px1(X,Y)は、特徴点P15のXY座標をP15(X,Y)とし、特徴点P41のXY座標をP41(X,Y)とすると、Px1(X,Y)=P15(X,Y)+(P41(X,Y)−P15(X,Y))×1/4により算出される。このように、追加特徴点Px1は、右目の右端と口の右端との間の長さの1/4の長さだけ、右目の右端から口の右端側に向かう位置に定義されている。
以下、同様に、追加特徴点Px2は、右目の左端と口の右端との間の長さの1/4の長さだけ、右目の左端から口の右端側に向かう位置に定義されている。追加特徴点Px3は、右目の横幅の中央の点と口の右端との間の長さの3/4の長さだけ、右目の横幅の中央の点から口の右端側に向かう位置に定義されている。また、追加特徴点Px4は、口の両端の長さの1/4の長さだけ、口の右端から外側(口の左端に対して反対側)に向かって伸ばした位置に定義されている。また、追加特徴点Px5は、右目の左端と口の右端との間の長さの1/4の長さだけ、口の右端から、右目の左端の反対側に向かって伸ばした位置に定義されている。
また、追加特徴点Px6乃至Px11は、顔の右側に設定されている追加特徴点Px0乃至5に対してそれぞれ左右対象となるように、顔の左側に定義されている。
このように、追加特徴点Px0乃至Px11が定義されている位置は、顔領域上で色の変化が小さい位置であるため、特徴点のように、色の変化に基づいて自動的に検出することは困難である。また、ユーザが入力装置13を操作して追加特徴点を設定するとしても、顔領域から追加特徴点の位置を判断することが困難であり、追加特徴点を確実に設定することは難しい。これに対し、画像処理装置11では、追加特徴点算出部32が、特徴点から追加特徴点を算出するので、色の変化が小さい位置であっても、追加特徴点を確実に定義することができる。
次に、図7は、図3のステップS12における変形画像生成処理を説明するフローチャートである。
ステップS21において、変形画像生成部22では、図3のステップS11で撮像装置12から供給された原画像に対して顔認識処理が行われ、ユーザの顔が映されている領域である顔領域が認識される。そして、特徴点検出部31は、図5を参照して説明したように、顔領域から特徴点P0乃至P54を検出し、処理はステップS22に進む。
ステップS22において、追加特徴点算出部32は、ステップS21で特徴点検出部31が検出した特徴点P0乃至P54を基に、図6を参照して説明したように、追加特徴点Px0乃至Px11を算出する。
ステップS22の処理後、処理はステップS23に進み、画像変形処理部33は、特徴点P0乃至P54および追加特徴点Px0乃至Px11を利用して、原画像の顔を変形する画像変形処理(後述の図12)を行う。
ステップS24において、変形画像生成部22は、ステップS23の画像変形処理で画像変形処理部33により生成された変形画像を出力し、制御部25は、変形画像生成部22から出力された変形画像を記憶部21に記憶させ、処理は終了する。
次に、図8乃至図12を参照して、画像変形処理部33による画像変形処理について説明する。
図8には、ユーザの顔が写された画像から生成されたテクスチャ画像を貼り付ける対象となる立体的な顔形状が示されている。
図8において、顔形状71は、三次元的な形状の表面を規定する複数の曲線により表されている。顔形状71では、目や口などの形状が複雑な部分に各曲線が交差する点である頂点が多く設定されており、複雑な部分の形状が、実際の顔の形状に近くなるように設計(モデリング)されている。
また、図8に示すように、顔形状71には、正面から見たときに、図5で説明した特徴点に対応する箇所に丸印(○)が示されており、図6で説明した追加特徴点に対応する箇所に三角印(△)が示されている。ここで、顔形状71の正面方向から特徴点および追加特徴点が設定されているのは、本実施の形態において、原画像に正面の顔が写っていることを想定して、特徴点および追加特徴点を定義しているからである。例えば、横顔が写っている原画像に対して処理を行う場合には、その横顔に合わせて、横顔に対する特徴点および追加特徴点を定義し、顔形状71を横から見たときの特徴点および追加特徴点を定義する必要がある。
図9には、顔形状71の表面(曲面)が平面になるように展開されたテクスチャ画像(展開画像)が示されている。
テクスチャ画像72は、立体的な曲面を平面に展開したものであるので、ユーザの顔を正面から撮像した画像と比較して歪んだように表現される。また、テクスチャ画像72には、顔形状71に示されていた特徴点および追加特徴点にそれぞれ対応する箇所に、丸印(○)および三角印(△)が示されている。
ここで、ユーザの顔が写された原画像からテクスチャ画像を生成するには、原画像上の各点が、テクスチャ画像72上の対応する各点に一致するように、原画像を変形する(各点を写像する)処理を行うことになる。即ち、ユーザの顔が写された画像から生成されるテクスチャ画像を貼り付ける対象となる三次元的な顔形状71の表面が平面に展開されたテクスチャ画像72は、原画像を変形するためのテンプレート的なテクスチャ画像である。従って、テクスチャ画像72上の特徴点および追加特徴点は、画像変形処理において、原画像に設定された特徴点および追加特徴点を移動させる際の目標となる点である。なお、図9に示すようなテクスチャ画像72そのものが必要になるのではなく、少なくとも、原画像の特徴点および追加特徴点の移動の目標となる点(テクスチャ画像72上の特徴点および追加特徴点)が定義されていれば画像変形処理を行うことができる。
以下、適宜、テンプレートとなるテクスチャ画像72を目標として、原画像を変形する画像変形処理において、原画像から検出および算出された特徴点および追加特徴点を変形対象点と称し、テクスチャ画像72上の特徴点および追加特徴点を目標点と称する。
また、画像変形処理部33は、画像変形処理において、目標点を頂点としてテクスチャ画像72を複数の三角形の領域に分割するとともに、変形対象点を頂点として原画像の顔領域を複数の三角形の領域に分割し、それぞれ対応する三角形の領域ごとに変形を行う。
次に、図10を参照して、画像変形処理部33が、テクスチャ画像72を複数の三角形の領域に分割する処理について説明する。
画像73には、図9のテクスチャ画像72に設定されている目標点が示されている。ここで、目標点は、特徴点および追加特徴点と同様に67箇所(図4および図5参照)に設定されている。画像変形処理部33は、これらの67箇所の目標点に、テクスチャ画像72の四隅の点を加えた71箇所の点を、テクスチャ画像72を分割する三角形の頂点になる点として特定する。
そして、画像変形処理部33は、画像74に示すように、全ての頂点の間をそれぞれ結ぶ線分を求め、それらの線分を短い順に選択して、選択した線分を三角形の辺として使用するか否かを判定する。
例えば、画像変形処理部33は、選択した線分が他の線分と交差している場合、その選択した線分を、三角形の辺として使用しないと判定する。一方、画像変形処理部33は、選択した線分が他の線分と交差していない場合、その選択した線分を、三角形の辺として使用すると判定する。また、画像変形処理部33は、選択した線分が他の線分と交差していても、選択した線分に交差している線分が三角形の辺として使用しないと既に判定されている場合、その選択した線分を、三角形の辺として使用すると判定する。
画像変形処理部33は、このような判定を全ての線分に対して行い、全ての頂点(目標点および四隅の点)を結ぶ線分のうちの三角形の辺として使用する線分を決定する。これにより、画像75に示すような複数の三角形の領域でテクスチャ画像72が分割される。
また、画像変形処理部33は、原画像の顔領域上の変形対象点および顔領域の四隅の点により、テクスチャ画像72を分割した複数の三角形に対応させて、原画像の顔領域を複数の三角形の領域で分割する。即ち、例えば、テクスチャ画像72において特徴点P7,P8,P41を頂点とした三角形が形成された場合、画像変形処理部33は、原画像の顔領域における特徴点P7,P8,P41を頂点とした三角形を形成する。
なお、テクスチャ画像を複数の三角形で分割する方法は、このような方法に限られるものではなく、他の方法(アルゴリズム)を利用してテクスチャ画像を複数の三角形で分割してもよい。また、テクスチャ画像(図9)は、顔形状上の特徴点および追加特徴点に基づいて目標点が予め決められているので、複数の三角形の辺となる線分を示す情報(三角形の集合の情報)を求め、目標点を示す情報とともに記憶部21に記憶させておくようにしてもよい。
次に、画像変形処理部33は、原画像の顔領域における三角形の領域を、それぞれ対応するテクスチャ画像72における三角形の領域に変形する処理を行う。図11を参照して、三角形の領域を変形する処理について説明する。
図11には、テクスチャ画像72上の目標点A,B,Cを頂点とした三角形ABCと、原画像の顔領域上の変形対象点A’,B’,C’を頂点とした三角形A’B’C’が示されている。
まず、目標点Aから目標点Bを指すベクトルをベクトルVABとし、目標点Aから目標点Cを指すベクトルをベクトルVACとすると、三角形ABC上の任意の点Pは、P=A+α×VAB+β×VACで表現される。但し、ベクトルVABの割合を示す変数αは、α=(点PのY座標×ベクトルVACのX成分−点PのX座標×ベクトルVACのY成分)/(ベクトルVACのX成分×ベクトルVABのY成分−ベクトルVACのY成分×ベクトルVABのX成分)で求められる。また、ベクトルVACの割合を示す変数βは、β=(点PのX座標×ベクトルVABのY成分−点PのY座標×ベクトルVABのX成分)/(ベクトルVACのX成分×ベクトルVABのY成分−ベクトルVACのY成分×ベクトルVABのX成分)で求められる。
同様に、変形対象点A’から変形対象点B’を指すベクトルをベクトルVA'B'とし、変形対象点A’から変形対象点C’を指すベクトルをベクトルVA'C'とすると、三角形A’B’C’上の任意の点P’は、P’=A’+α’×VA'B'+β’×VA'C'で表現される。
ここで、目標点A,B,Cおよび点Pの関係と、変形対象点A’,B’,C’および点P’の関係とを同一にするために、α’=αかつβ’=βとする。これにより、点Pに対する点P’の座標が求められるため、三角形ABC内の全ての点Pに対して、三角形A’B’C’内のそれぞれ対応する点P’の画素を参照することで、三角形A’B’C’の領域が三角形ABCの領域に変形される。
このように三角形の領域を変換する処理を、原画像の顔領域上の全ての三角形の領域に対して行うことで、変形対象点を目標点に写像するように、原画像の顔領域が変形される。
次に、図12は、図7のステップS23における画像変形処理を説明するフローチャートである。
ステップS31において、画像変形処理部33は、図10の画像73に示したように、特徴点および追加特徴点に四隅を加えた71箇所の点を、原画像を分割する三角形の頂点になる点として特定する。
ステップS31の処理後、処理はステップS32に進み、画像変形処理部33は、図10の画像74に示したように、全ての頂点の間をそれぞれ結ぶ線分を求め、処理はステップS33に進む。
ステップS33において、画像変形処理部33は、ステップS32で求めた線分を短い順にソートし、三角形の辺として使用するか否かの判定を行っていない線分を、短い順に選択して、処理はステップS34に進む。
ステップS34において、画像変形処理部33は、ステップS33で選択した線分を、原画像を分割する三角形の辺として使用するか否かを判定する。
ステップS34において、画像変形処理部33が、対象の線分を三角形の辺として使用すると判定した場合、処理はステップS35に進み、画像変形処理部33は、その線分を三角形の辺の対象として設定する(線分を残す)。一方、ステップS34において、画像変形処理部33が、対象の線分を三角形の辺として使用しないと判定した場合、処理はステップS36に進み、画像変形処理部33は、その線分を三角形の辺の対象から除外する(線分を削除する)。
ステップS35またはS36の処理後、処理はステップS37に進み、画像変形処理部33は、ステップS32で求めた全ての線分に対して、三角形の辺として使用するか否かの判定を行ったか否かを判定する。
ステップS37において、画像変形処理部33が、全ての線分に対して三角形の辺として使用するか否かの判定を行っていないと判定した場合、処理はステップS33に戻り、次の長さの線分が選択され、以下、同様の処理が繰り返される。
一方、ステップS37において、画像変形処理部33が、全ての線分に対して三角形の辺として使用するか否かの判定を行ったと判定した場合、処理はステップS38に進む。即ち、この場合、図10の画像75に示すような複数の三角形で原画像が分割されている。
ステップS38において、画像変形処理部33は、図11を参照して説明したように、三角形の領域単位で原画像を変形し、処理は終了する。
以上のように、変形画像生成部22では、顔の特徴的な点である特徴点を検出し、特徴点を元に特徴追加点を算出して、特徴点および追加特徴点を利用して画像を変換する処理が行われる。これにより、形状が複雑な部分と簡単な部分とが異なる三角形の領域で分割されるので、テクスチャ画像を顔形状に貼り付ける際に、形状に対して画像がずれることを抑制し、テクスチャ画像を顔形状に正確に貼り付けることができる。即ち、顔形状の各部分と、テクスチャ画像の顔パーツとを一致させることができる。
つまり、一般的に、三次元的に表現される顔形状においては、目や口などの形状が複雑な部分には頂点が密に割り当てられるのに対し、頬や顎などの形状が単純な部分には頂点が疎に割り当てられている。例えば、図8の顔形状71に示されているように、形状が複雑な部分では、形状が単純な部分よりも曲線の交点(頂点)が多く設定されている。
上述したように、三角形の領域ごとに画像を変形する処理では、三角形の内部においては、頂点の疎密にかかわらず線形変換が行われるので、三角形内部において頂点の密度が偏っている場合には、頂点の密度が高い部分が、頂点の密度の低い部分に伸びるように変形が行われる。従って、例えば、特徴点だけで三角形の領域に分割した場合には、頂点の密度が高い部分が、頂点の密度の低い部分に伸びるような変形による影響が大きく現れる。
これに対し、変形画像生成部22では、複雑な形状である目や口の近傍に追加特徴点を設定することで、特徴点および追加特徴点で三角形の領域に分割することにより、口や目の近傍において、頂点の密度が高い領域を含み、かつ、頂点の密度が低い領域を含まないように三角形による分割を行うことができる。これにより、頂点の密度が高い部分が、頂点の密度の低い部分に伸びるような変形による影響が現れるのを抑制することができる。
例えば、図13を参照して、特徴点だけに基づく処理と、特徴点および追加特徴点に基づく処理との結果を比較して、効果を説明する。
図13Aには、特徴点だけが設定されたテクスチャ画像と、特徴点を頂点とした三角形の領域ごとの変形により生成されたテクスチャ画像を顔形状に貼り付けた顔モデルとが示されている。図13Bには、特徴点および追加特徴点が設定されたテクスチャ画像と、特徴点および追加特徴点を頂点とした三角形の領域ごとの変形により生成されたテクスチャ画像を顔形状に貼り付けた顔モデルとが示されている。
例えば、図13Aのテクスチャ画像では、口の端から輪郭までの領域が1つの三角形で分割されており、この三角形の領域内では、口に近いほど頂点の密度が高くなるように、密度の分布に偏りが生じている。従って、顔モデルの画像に示すように、口元の画像が輪郭側に引き伸ばされるように、テクスチャ画像が顔モデルに貼り付けられてしまう。また、目元についても、同様に、目元の画像が輪郭側に引き伸ばされて、テクスチャ画像が顔モデルに貼り付けられてしまう。
これに対し、図13Bのテクスチャ画像では、口の端から輪郭までの領域が3つの三角形で分割されており、頂点の密度が高い口の近傍の領域と、頂点の密度が低い頬の領域とが異なる三角形により分割されている。従って、顔モデルの画像に示すように、口元の画像が輪郭側に引き伸ばされることがなく、テクスチャ画像が顔モデルに貼り付けられている。また、目元についても、同様である。
このように、変形画像生成部22では、画像変形処理部33が、頂点の密度が高い部分が頂点の密度の低い部分に伸びるような変形による影響が現れることを抑制した変形画像を生成することができる。換言すれば、変形画像生成部22では、追加特徴点算出部32が、頂点の密度が高い部分と、頂点の密度の低い部分とを分別することができるように、追加特徴点を設定することができる。
ところで、図4に示したように、原画像60には、ユーザの顔だけでなく背景も写し込まれており、ユーザの顔の輪郭よりも外側の部分に背景が写り込んだ変形画像63が生成される。このように背景が写り込んだ変形画像63を顔形状に貼り付けた場合、顔の輪郭よりも外側の部分に背景が貼り付けられた顔モデルが生成されてしまう。
そこで、画像処理装置11では、肌色マスク処理部23が、変形画像生成部22が生成した変形画像に対して、顔の輪郭よりも外側の部分が肌色となるような肌色マスク処理を行う。肌色マスク処理部23では、肌色抽出部41が、変形画像生成部22により生成された変形画像において、追加特徴点算出部32により算出された追加特徴点に基づいて設定される肌色抽出領域から肌色を抽出する。
図14には、肌色抽出部41に設定されている肌色抽出領域の一例が示されている。
図14のテクスチャ画像に示すように、肌色抽出部41には、追加特徴点Px1乃至Px3で囲われた三角形の領域と、追加特徴点Px7乃至Px9で囲われた三角形の領域とが、肌色抽出領域として設定されている。そして、肌色抽出部41は、この2つの三角形の領域内の色の平均値を算出することで、肌色マスク処理で使用する肌色を求める。なお、図14には、テクスチャ画像において追加特徴点により定義される肌色抽出領域が示されているが、追加特徴点算出部32は原画像に対して追加特徴点を設定しており、肌色抽出部41は、図14に示されている追加特徴点に対応する原画像上の追加特徴点により定義される肌色抽出領域から肌色を求める。即ち、肌色抽出部41は、原画像の肌色抽出領域から肌色を抽出する。
図14に示すような追加特徴点に基づいて肌色抽出領域を設定することで、目や、鼻、口などの顔パーツが含まれないとともに、髭や髪なども含まれない領域から肌色を抽出することができる。例えば、肌色抽出領域に顔パーツや、髭、髪などが含まれている場合には、肌色抽出領域内の色の平均値を算出したときに、顔パーツの影や、髭、髪の色が含まれる色が抽出されてしまう。
これに対し、追加特徴点Px1乃至Px3で囲われた三角形の領域と、追加特徴点Px7乃至Px9で囲われた三角形の領域を肌色抽出領域と設定することで、ユーザの肌の色に近い肌色を安定的に抽出することができる。
ここで、例えば、特開2001−109907号公報には、肌色を抽出するために、顔輪郭の少し内側の両頬あたりの領域を固定的に定義し、あらゆる顔に対しても共有してその領域から肌色を抽出する技術が開示されている。つまり、目や、鼻、口などの顔パーツの位置は個人ごとに異なるため、どのような顔においても顔パーツが含まれないようにするためには、それぞれの顔パーツから比較的に離れている領域、即ち、顔輪郭の少し内側の頬周辺の領域に肌色抽出領域を設定することになるが、この領域は髭の影響を受ける可能性があり、安定して肌色を抽出することは困難である。
これに対し、肌色抽出部41が肌色を抽出する肌色抽出領域は、髭の影響を受け難い部分であり、かつ、目や、鼻、口などの顔パーツが含まれない部分である。即ち、本実施の形態では、追加特徴点に基づいて肌色抽出領域を設定しているので、それぞれの顔パーツが含まれないような肌色抽出領域を確実に設定することができる。従って、追加特徴点Px1乃至Px3で囲われた三角形の領域と、追加特徴点Px7乃至Px9で囲われた三角形の領域を肌色抽出領域と設定することで、従来よりも、髭や顔パーツの影響を受けることなく、肌色を確実に抽出することができる。
なお、図14に示したような追加特徴点Px1乃至Px3で囲われた三角形の領域と、追加特徴点Px7乃至Px9で囲われた三角形の領域を肌色抽出領域と設定するのは一例であり、これらの追加特徴点とは別の特徴点または追加特徴点により結ばれる領域を肌色抽出領域と設定してもよい。
そして、肌色マスク処理部23では、マスク処理部42が、肌色抽出部41により抽出された肌色で、変形画像生成部22が生成した変形画像の顔の輪郭よりも外側の部分にマスクを施す処理を行う。
図15を参照して、マスク処理部42がマスクを施す処理について説明する。
図15の上側には、変形画像生成部22が生成した変形画像、マスク処理で用いられるマスクデータ、および、肌色抽出部41により抽出された肌色抽出結果が示されており、図15の下側には、マスク処理を施した結果得られるテクスチャ画像が示されている。
マスクデータは、変形画像生成部22により生成された変形画像において、その変形画像の画素値を使用する度合いを0.0〜1.0の連続した値で表現したデータである。マスクデータの値が1.0に設定されている画素では、マスク処理の対象とされる変形画像の画素値がそのまま使用され、マスクデータの値が0.0に設定されている画素では、マスク処理の対象とされる変形画像の画素値は使用されず、肌色抽出結果の画素値に置き換えられる。図14のマスクデータでは、マスクデータの値0.0が黒色で表現され、マスクデータの値1.0が白色で表現されている。
また、マスクデータの黒色の領域と白色の領域との境界では、テクスチャ画像の顔の輪郭から外側に向かって徐々に肌色に置き換えられるように、マスクデータの値が徐々に変化している。
なお、肌色マスク処理で使用されるマスクデータは、事前に用意されているものを使用してもよいし、後述するようにマスクデータ生成部43が生成したものを使用してもよい。
また、マスクデータは、顔形状に基づいたテクスチャ画像72(図9)の座標系において定義されているので、テクスチャ画像72をテンプレートとして画像を変形して生成される変形画像であれば、どのような顔が写された画像から生成された変形画像であっても、マスクデータを共通して使用することができる。即ち、変形画像生成部22により生成される変形画像であれば、輪郭上の特徴点は、テクスチャ画像72の輪郭上の目標点に写像されているので、どのような顔が写された画像から生成された変形画像であっても、図15に示すようなマスクデータにより、輪郭より外側の部分を、肌色に確実に置き換えることができる。
このようなマスクデータを用いて変形画像にマスク処理を施すことで、変形画像における背景の部分が肌色抽出結果の色に置き換えられて、図15の下側に示すようなテクスチャ画像が得られる。
次に、図16は、図3のステップS13の肌色マスク処理を説明するフローチャートである。
ステップS41において、肌色抽出部41は、制御部25を介して記憶部21に記憶されている原画像を読み出すとともに、図7のステップS22で追加特徴点算出部32が原画像に設定した追加特徴点のうちの、肌色抽出領域を定義する追加特徴点(図14参照)を取得して、その追加特徴点により定義される原画像における肌色抽出領域内の色の平均値を算出して肌色を抽出する。
ステップS42において、マスク処理部42は、制御部25を介して記憶部21に記憶されているマスクデータを読み出し、そのマスクデータに従って、背景の部分を肌色に置き換えるマスク処理を行って、テクスチャ画像を生成する。
マスク処理において、マスク処理部42は、変形画像上の全ての画素に対して、p’=p×m+s×(1−m)の演算を行い、テクスチャ画像上の全ての画素値を算出する。但し、この式において、pは、変形画像の画素値であり、p’は、テクスチャ画像の画素値であり、sは、肌色抽出結果の画素値であり、mは、マスクデータの値である。
ステップS43において、マスク処理部42は、ステップS42のマスク処理の結果得られるテクスチャ画像を出力して、制御部25を介して記憶部21に記憶させ、処理は終了する。
以上のように、肌色マスク処理では、顔の輪郭よりも外側の部分(背景)を、顔から抽出した肌色に置き換えることができる。
なお、肌色マスク処理で使用されるマスクデータは、事前に用意してあるものを使用する他、マスクデータ生成部43が生成したものを使用してもよい。
マスクデータ生成部43は、例えば、図9に示したようなテクスチャ画像からマスクデータを自動的に生成することができる。マスクデータを自動的に生成する方法のひとつとして、テクスチャ画像に設定されている輪郭を規定する特徴点を結んだ閉領域を定義し、閉領域の内側(非マスク領域)の値に1.0を割り当て、閉領域の外側(マスク領域)の値に0.0を割り当てる方法がある。しかしながら、この方法では、マスク領域と非マスク領域との境界で急激に色が変化するマスクデータが生成されるため、そのようなマスクデータを用いた場合には不自然なテクスチャ画像となることがある。即ち、図15のマスクデータに示したように、マスク領域と非マスク領域との境界においてなだらかに値が変化するようなマスクデータが好ましい。
そこで、例えば、マスク領域の値に0.0を割り当て、非マスク領域の値に1.0を割り当てることにより得られたマスクに対しボカシを加えることで、マスク領域と非マスク領域との境界においてなだらかに値が変化するようなマスクデータを得ることができる。ところが、このようにして得られたマスクデータでは、マスク領域と非マスク領域の境界からマスク領域に向かっても値がなだらかに変化するので、顔の輪郭の近くにある背景が、テクスチャ画像に反映されることになる。
即ち、マスク領域と非マスク領域の境界よりもマスク領域側では値を0.0にして、確実にマスクが施され、その境界から非マスク領域側に向かって、徐々に値が1.0になるようなマスクデータが望ましい。
そこで、図17および図18を参照して、マスクデータ生成部43が、上述のようなマスクデータを生成する処理について説明する。
ステップS51において、マスクデータ生成部43は、所定の目標点を結んだ閉領域を、基準となるマスク領域として決定する。例えば、マスクデータ生成部43は、図18に示すテクスチャ画像81に示すように、顔の輪郭に対応する目標点を結んだ閉領域の外側をマスク領域とする。そして、マスクデータ生成部43は、マスク領域の値を0.0に割り当て、非マスク領域の値を1.0に割り当てる。これにより、基準マスクデータ82に示すようなデータが生成される。
ステップS52において、マスクデータ生成部43は、基準マスクデータ82に対してマスク領域を拡張する(非マスク領域に向かって拡げる)処理を行う。
まず、マスクデータ生成部43は、例えば、距離変換を利用する方法によりマスク領域を拡張する。距離変換とは、2値(0または1)で表される画像中の各画素に対して、それぞれの画素の位置から値が0である画素の位置までの最短の距離を、各画素の距離値とする変換方法である。このような距離変換により、基準マスクデータ82に示されている各画素の値は、距離変換データ83に示すような値となる。距離変換データ83では、距離値の小さな部分が黒色で表され、距離値の大きな部分が白色で現されている。
そして、例えば、マスク領域を10ピクセルだけ拡張させる場合には、マスクデータ生成部43は、距離変換データ83を閾値10で2値化し、距離値が10より大きな部分の値に1.0を割り当て、距離値が10以下の部分に0.0を割り当てる。このように閾値10で2値化することで、拡張マスクデータ84が生成される。拡張マスクデータ84は、距離変換の定義より、基準マスクデータ82のマスク領域を10ピクセルだけ拡張したデータとなる。
なお、マスク領域を拡張する方法としては、距離変換を利用する方法に限られるものではなく、例えば、モルフォロジー変換を利用する方法などを用いることができる。
ステップS53において、マスクデータ生成部43は、マスク領域と非マスク領域との境界をぼかすために、拡張マスクデータ84に対して拡張した量を半径とするボカシ処理を行い、処理は終了する。ボカシ処理には、単純な平滑化フィルタやガウシアンフィルタなどを用いることができる。これにより、マスク領域と非マスク領域との境界がぼかされたマスクデータ85が生成される。
例えば、拡張マスクデータ84は、基準マスクデータ82に対して10ピクセルで拡張したものなので、マスクデータ生成部43は半径10のボカシを行う。このようにボカシを行う半径を設定することで、マスクデータ85は、基準マスクデータ82での境界までは到達しないとともに、基準マスクデータ82でマスク領域と設定した領域は確実にマスクされ、かつ、マスク領域から非マスク領域に向かって徐々に値が1.0になるようなデータとなる。
このようにして生成されたマスクデータ85を使用して、マスク処理部42がマスク処理を行うことで、顔の輪郭よりも外側では確実に肌色のマスクが施され、顔の輪郭から内側に向かって徐々に顔の画像となるようなテクスチャ画像を生成することができる。
以上のようにして画像処理装置11では、ユーザの顔が写された画像からテクスチャ画像が生成され、そのテクスチャ画像により表現された顔モデルが生成されて、表示装置14に顔モデルが表示される。
図19には、表示装置14に顔モデルを表示する表示画面の例が示されている。
図19に示されている表示画面91では、撮像装置12により撮像された画像92が左下に表示され、その画像を原画像として生成されたテクスチャ画像93が画像92の上側に表示される。そして、そのテクスチャ画像93が貼り付けられた顔モデル94を表示する顔モデル表示領域95が、表示画面90の中央から右側の約2/3の領域に設けられている。
また、画像処理装置11では、髪の毛のパーツや、帽子やメガネなどの様々なアクセサリのパーツなどの三次元的な形状データが、顔形状の形状データとは別に記憶部21に記憶されている。そして、三次元処理部24は、生成した顔モデルに対して、髪の毛やアクセサリなどのパーツを組み合わせた画像を生成することができる。
例えば、図20には、図19の表示画面91の顔モデル表示領域95に表示されていた顔モデル94に、髪の三次元形状を組み合わせた顔モデル94Aが表示されている。また、図21には、図19の表示画面91の顔モデル表示領域95に表示されていた顔モデル94に、帽子の三次元形状を組み合わせた顔モデル94Bが表示されている。
また、画像処理装置11では、例えば、異なるユーザの顔が写された画像を使用することで、それぞれ異なる顔モデルを生成することができる。即ち、画像処理装置11では、同一の顔形状に対してテクスチャ画像を置き換えるだけで、様々な顔モデルを容易に生成することができる。
図22乃至図24には、それぞれ異なるユーザの顔が写された画像から生成されたテクスチャ画像を、同一の顔形状に貼り付けて生成される顔モデルが示されている。図22乃至図24では、上から順に、各ユーザの顔が写された画像(原画像)、それらの画像から生成したテクスチャ画像、それぞれのテクスチャ画像が貼り付けられた顔モデルが示されている。
図22には、髭を生やしたユーザの顔が写された原画像から、そのユーザの顔の特徴が反映された顔モデルが生成され、髭を生やした顔モデルが示されている。図23には、眉の釣り上がったユーザの顔の特徴が反映された眉の釣り上がった顔モデルが示されており、図24には、眉の垂れ下がったユーザの顔の特徴が反映された眉の垂れ下がった顔モデルが示されている。このように、同一の顔形状を使用しても、それぞれユーザの顔の特徴が顔モデルに反映される。
画像処理装置11では、テクスチャ画像を貼り付ける対象となる顔形状の表面を展開したテクスチャ画像に合うように原画像を変形するので、原画像に写されている人物が異なっていても、それぞれの原画像から生成されたテクスチャ画像の各パーツが、顔形状の各パーツに合わされるように、テクスチャ画像を顔形状に貼り付けることができる。即ち、単一の顔形状に対して、テクスチャ画像を容易に置き換えることができる。
従って、図22乃至図24に示すように、単一の顔形状に対して、テクスチャ画像を切り替えて使用することで、それぞれのユーザの顔が反映された顔モデルを表示することができる。
また、画像処理装置11では、変形画像生成部22および肌色マスク処理部23により生成されたテクスチャ画像上に、任意の図形を描画した画像を貼り付けて生成される新たなテクスチャ画像を、顔形状に貼り付けることができる。これにより、顔モデルの表面に、その図形を貼り付けたような効果を演出することができる。
図25には、両目の下側にラインを引き、左頬に日の丸を配置したフェイスペインティングを演出した顔モデルが示されている。
図25のフェイスペイント画像101には、ラインおよび日の丸が描かれており、ラインおよび日の丸が描かれている領域以外は透過領域とされている。例えば、ラインおよび日の丸は、テクスチャ画像に設定されている特徴点および追加特徴点に基づいて、ペインティングされる対象の領域に配置されるように位置が決定されて描かれている。
このようなフェイスペイント画像101を、変形画像生成部22および肌色マスク処理部23により生成されたテクスチャ画像102の上に重ね合わされるように合成すること(ブレンド処理)で、フェイスペイントされたテクスチャ画像103が生成される。そして、三次元処理部24が、フェイスペイントされたテクスチャ画像103を顔形状に貼り付ける処理を行うことで、フェイスペインティングされた効果が得られる顔モデル104が生成される。
また、画像処理装置11では、フェイスペイント画像101以外にも、様々なデザインが描かれたフェイスペイント画像を用意することで、ユーザは、好みのデザインのフェイスペイント画像を選択して、自身の顔が写された画像から生成されたテクスチャ画像に重ね合わせ、好みのデザインでフェイスペインティングされた顔モデルを生成することができる。また、それぞれ異なるユーザの顔が写された画像から生成されたテクスチャ画像に対しても、それぞれ様々なデザインのフェイスペイント画像を適用して、フェイスペイント画像を使いまわすことができる。
例えば、図26には、隈取の化粧が描かれたフェイスペイント画像が適用された顔モデルが示されている。
図26において、フェイスペイント画像110には、隈取の化粧が描かれており、その化粧が描かれている領域以外は透過領域とされている。そして、フェイスペイント画像110を、テクスチャ画像112の上に重ね合わせるように合成することで隈取の化粧が施されテクスチャ画像113が生成され、テクスチャ画像113が顔形状に貼り付けられて、隈取の化粧が施された効果が得られる顔モデル114が生成される。このように、フェイスペイント画像を切り替えることで、顔モデルに対して様々なデザインのフェイスペイントを演出することができる。
また、顔モデル104では、フェイスペイント画像101および110のように、ペイント部分と透過部分とがはっきりと区別されているため、ペンキや絵の具でペイントしたような効果が現れるが、ペイント部分が半透明に設定されたフェイスペイント画像を用いてもよい。例えば、半透過に設定された赤色が唇部分に描かれたフェイスペイント画像をテクスチャ画像に合成することで、口紅の効果を得ることができる。また、口紅の他にも、チークやアイシャドウなどが描かれた半透明の画像がテクスチャ画像に重ね合わされるように合成ことで、顔に化粧を施す効果を得ることができる。
また、本実施の形態においては、テクスチャ画像を生成するために撮像装置12により撮像された画像を処理の対象として行われる処理について説明したが、例えば、既に撮像済みで記憶部21に記憶されている画像や、撮像装置12により撮像される動画像中の1つのフレームを処理の対象としてもよい。
さらに、特徴点検出部31および追加特徴点算出部32は、撮像装置12により撮像される動画像の各フレームの顔領域から特徴点および追加特徴点を検出および算出する処理を行い、検出結果の良好であったフレームを原画像として選択してもよい。
例えば、目、鼻、口に特徴点が定義されているとき、目、鼻、口の位置関係に基づいて、画像に写される顔が正面を向いているか否かを判定することができる。そして、正面を向いた顔が写された画像を処理の対象として想定している場合に、この判定結果に基づいて、正面を向いていない顔が写された画像は、処理の対象に用いないと判断することができる。そして、この場合、例えば、ユーザに対して顔の向きを指示すること、具体的には、「もっと右を向いてください」や、「もっと左を向いてください」などというメッセージを提示(表示または音声出力)し、顔が正面を向くように誘導することができる。
また、特徴点検出部31により自動的に特徴点を検出することができたとしても、検出された特徴点の位置が、必ずしも、所望の位置で正確に検出されない場合がある。そのような場合を考慮して、特徴点の互いの位置関係(既知の情報)に基づいて、例えば、目の特徴点は口の特徴点よりも上側の位置にあるという位置関係や、目、鼻、口などの顔パーツの特徴点は、輪郭の特徴点を結ぶ閉領域の内側にあるという位置関係などに基づいて、検出された特徴点の検出結果が良好であるか否かを判定することができる。
以上のように、画像処理装置11では、顔が写されている画像から検出および算出された特徴点および追加特徴点を利用して画像を変形してテクスチャ画像を生成するので、予め作成されている顔形状に対して正確に貼り付けることができるテクスチャ画像を生成することができる。これにより、例えば、既存の顔形状を修正することなく、ユーザの顔の画像から作成されたテクスチャ画像が貼り付けられた顔モデルを生成することができる。また、任意のユーザの顔を反映させた顔モデルを生成することができる。
例えば、近年、ゲームや映画などの様々な分野で顔モデルが利用されており、画像処理装置11では、そのような既に作成されている顔モデルに対してユーザの顔を反映させることができる。即ち、ゲームや映画の中の人物の顔だけを、ユーザの顔に置き換えることができる。これにより、例えば、ユーザは、自分の顔が反映されたキャラクタのゲームをプレイすることができ、ゲームに感情移入し易くなる。また、既存の顔形状に対して、テクスチャを切り替える処理をより容易に行うことができる。
また、例えば、多数のアバタが同時に表示されるようなアバタコミュニケーションスペースなどを運営する処理において、三次元的な顔形状を個人ごとに用意すると、画像処理やデータ量などの観念から処理が困難になることが予想される。このようなアバタコミュニケーションスペースにおいて、共通の顔形状を使用し、テクスチャ画像だけユーザごとに用意することで、処理を容易に行うことができる。また、数種類の顔形状を用意しておき、ユーザに顔形状を選択させたり、ユーザの顔画像から類似する顔形状を自動的に選択したりしてもよい。このようにすることで、ユーザごとに顔形状を用意する場合よりも、処理を容易に行うことができる。
なお、本実施の形態では、顔形状の表面が平面になるように展開されたテクスチャ画像を用いた説明を行っているが、例えば、テクスチャ画像の生成方法によっては、ユーザの顔を正面から撮像した画像と比較して歪んでいないテクスチャ画像を生成することができる。そのような歪んでいないテクスチャ画像に対しても、個人ごとに顔パーツそれぞれの位置が異なるため、テクスチャ画像の目や口などが、三次元的な顔形状の目や口などの位置に正確に配置されるようにするためには、本発明を適用した画像処理装置11による処理が有効となる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図27は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207、ハードディスクや不揮発性のメモリなどよりなる記憶部208、ネットワークインタフェースなどよりなる通信部209、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア211を駆動するドライブ210が接続されている。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア211に記録して、あるいは、ローカルエリアネットワーク、インタネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 画像処理装置, 12 撮像装置, 13 入力装置, 14 表示装置, 21 記憶部, 22 変形画像生成部, 23 肌色マスク処理部, 24 三次元処理部, 25 制御部, 31 特徴点検出部, 32 追加特徴点算出部, 33 画像変形処理部, 41 肌色抽出部, 42 マスク処理部, 43 マスクデータ生成部

Claims (8)

  1. 顔が写された画像における顔の特徴的な点である特徴点として、前記画像における目および口の両端を示す前記特徴点を少なくとも取得する特徴点取得手段と、
    前記特徴点取得手段により取得された前記特徴点に基づいて、前記画像における少なくとも目および口の近傍の所定箇所に追加特徴点を算出する追加特徴点算出手段と、
    前記特徴点および前記追加特徴点を利用して、所定の三次元的な顔形状の表面を平面に展開した展開画像の顔における前記特徴点および前記追加特徴点に対応する箇所に一致するように前記画像を変形する変形手段と
    を備える画像処理装置。
  2. 記追加特徴点算出手段は、前記画像における目の輪郭側の端から輪郭に向かって所定距離で離れた位置にある点、および、目の両端から口に対して近づく方向に所定距離で離れた位置にある点を、追加特徴点として算出する
    請求項1に記載の画像処理装置。
  3. 記追加特徴点算出手段は、前記画像における口の両端から目に対して近づく方向に所定距離で離れた位置にある点、前記画像における口の両端から目に対して遠ざかる方向に所定距離で離れた位置にある点、および、前記画像における口の一方の端から他方の端に対して反対側に所定距離で離れた位置にある点を、追加特徴点として算出する
    請求項1に記載の画像処理装置。
  4. 前記特徴点取得手段は、前記画像における顔の輪郭を少なくとも特徴点として取得し、
    前記特徴点に基づいて、前記変形手段により変形された画像における前記顔の輪郭よりも外側の部分を肌色に置き換えてテクスチャ画像を生成する肌色置換手段
    をさらに備える請求項1に記載の画像処理装置。
  5. 前記特徴点および前記追加特徴点のいずれかにより定義される所定の領域から、前記画像に写されている顔の肌色を抽出する肌色抽出手段
    をさらに備え、
    前記肌色置換手段は、前記肌色抽出手段により抽出された肌色で、前記顔の輪郭よりも外側の部分を置き換える
    請求項4に記載の画像処理装置。
  6. 前記テクスチャ画像を、所定の顔形状に貼り付けた顔モデルを生成する顔モデル生成手段を
    さらに備え、
    前記顔モデル生成手段は、前記テクスチャ画像に所定の画像を合成して得られる新たなテクスチャ画像を前記顔形状に貼り付ける
    請求項4に記載の画像処理装置。
  7. 画像処理装置が、
    顔が写された画像における顔の特徴的な点である特徴点として、前記画像における目および口の両端を示す前記特徴点を少なくとも取得し、
    前記特徴点に基づいて、前記画像における少なくとも目および口の近傍の所定箇所に追加特徴点を算出し、
    前記特徴点および前記追加特徴点を利用して、所定の三次元的な顔形状の表面を平面に展開した展開画像の顔における前記特徴点および前記追加特徴点に対応する箇所に一致するように前記画像を変形する
    ステップを含む画像処理方法。
  8. 画像処理装置のコンピュータが実行するプログラムにおいて、
    顔が写された画像における顔の特徴的な点である特徴点として、前記画像における目および口の両端を示す前記特徴点を少なくとも取得し、
    前記特徴点に基づいて、前記画像における少なくとも目および口の近傍の所定箇所に追加特徴点を算出し、
    前記特徴点および前記追加特徴点を利用して、所定の三次元的な顔形状の表面を平面に展開した展開画像の顔における前記特徴点および前記追加特徴点に対応する箇所に一致するように前記画像を変形する
    ステップを含むプログラム。
JP2009260850A 2009-11-16 2009-11-16 画像処理装置および画像処理方法、並びにプログラム Expired - Fee Related JP5463866B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009260850A JP5463866B2 (ja) 2009-11-16 2009-11-16 画像処理装置および画像処理方法、並びにプログラム
US12/891,124 US8698796B2 (en) 2009-11-16 2010-09-27 Image processing apparatus, image processing method, and program
CN201010537933.6A CN102074040B (zh) 2009-11-16 2010-11-04 图像处理设备、图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009260850A JP5463866B2 (ja) 2009-11-16 2009-11-16 画像処理装置および画像処理方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2011107877A JP2011107877A (ja) 2011-06-02
JP2011107877A5 JP2011107877A5 (ja) 2012-12-20
JP5463866B2 true JP5463866B2 (ja) 2014-04-09

Family

ID=44010987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009260850A Expired - Fee Related JP5463866B2 (ja) 2009-11-16 2009-11-16 画像処理装置および画像処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8698796B2 (ja)
JP (1) JP5463866B2 (ja)
CN (1) CN102074040B (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8891869B2 (en) * 2011-03-31 2014-11-18 Sony Corporation System and method for effectively performing an integrated segmentation procedure
WO2013086137A1 (en) 2011-12-06 2013-06-13 1-800 Contacts, Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
JP5840528B2 (ja) * 2012-02-21 2016-01-06 花王株式会社 顔画像合成装置及び顔画像合成方法
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9235929B2 (en) 2012-05-23 2016-01-12 Glasses.Com Inc. Systems and methods for efficiently processing virtual 3-D data
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
JP6088260B2 (ja) * 2013-01-24 2017-03-01 株式会社リコー 処理装置、処理システム、処理方法及びプログラム
CN105407799B (zh) * 2013-07-31 2017-12-26 松下电器(美国)知识产权公司 皮肤分析方法、皮肤分析装置、皮肤分析装置的控制方法以及记录介质
US9256950B1 (en) * 2014-03-06 2016-02-09 Google Inc. Detecting and modifying facial features of persons in images
US10165199B2 (en) * 2015-09-01 2018-12-25 Samsung Electronics Co., Ltd. Image capturing apparatus for photographing object according to 3D virtual object
US9864901B2 (en) 2015-09-15 2018-01-09 Google Llc Feature detection and masking in images based on color distributions
US9547908B1 (en) 2015-09-28 2017-01-17 Google Inc. Feature mask determination for images
WO2017127784A1 (en) * 2016-01-21 2017-07-27 Skwarek Alison M Virtual hair consultation
JP6872742B2 (ja) * 2016-06-30 2021-05-19 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
CN108108651B (zh) * 2016-11-25 2022-02-11 广东亿迅科技有限公司 基于视频人脸分析的驾驶员非专心驾驶检测方法及系统
CN109241810B (zh) * 2017-07-10 2022-01-28 腾讯科技(深圳)有限公司 虚拟角色图像的构建方法及装置、存储介质
CN109508581A (zh) * 2017-09-15 2019-03-22 丽宝大数据股份有限公司 身体信息分析装置及其腮红分析方法
CN109952594B (zh) * 2017-10-18 2022-01-07 腾讯科技(深圳)有限公司 图像处理方法、装置、终端及存储介质
CN107977934B (zh) * 2017-11-10 2022-04-01 北京小米移动软件有限公司 图像处理方法及装置
CN107895343B (zh) * 2017-12-31 2021-02-23 广州二元科技有限公司 一种基于五官定位快速简单上腮红的图像处理方法
JP7073817B2 (ja) * 2018-03-19 2022-05-24 セイコーエプソン株式会社 投写装置および投写方法
KR102109818B1 (ko) * 2018-07-09 2020-05-13 에스케이텔레콤 주식회사 얼굴 영상 처리 방법 및 장치
CN109409274B (zh) * 2018-10-18 2020-09-04 四川云从天府人工智能科技有限公司 一种基于人脸三维重建和人脸对齐的人脸图像变换方法
CN109658420A (zh) * 2018-11-21 2019-04-19 深圳艺达文化传媒有限公司 短视频的换脸方法及相关产品
CN109376698B (zh) * 2018-11-29 2022-02-01 北京市商汤科技开发有限公司 人脸建模方法和装置、电子设备、存储介质、产品
CN110111417B (zh) 2019-05-15 2021-04-27 浙江商汤科技开发有限公司 三维局部人体模型的生成方法、装置及设备
CN110119733B (zh) * 2019-05-15 2022-10-28 广东小天才科技有限公司 书页识别方法及装置、终端设备、计算机可读存储介质
CN111754415B (zh) * 2019-08-28 2022-09-27 北京市商汤科技开发有限公司 人脸图像处理方法及装置、图像设备及存储介质
CN110930298A (zh) * 2019-11-29 2020-03-27 北京市商汤科技开发有限公司 图像处理方法及装置、图像处理设备及存储介质
CN111489311B (zh) * 2020-04-09 2023-08-08 北京百度网讯科技有限公司 一种人脸美化方法、装置、电子设备及存储介质
JP7174803B2 (ja) 2020-08-20 2022-11-17 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 画像処理方法、装置、電子機器及び記憶媒体
CN112102153B (zh) 2020-08-20 2023-08-01 北京百度网讯科技有限公司 图像的卡通化处理方法、装置、电子设备和存储介质
WO2022072404A1 (en) 2020-09-30 2022-04-07 Snap Inc. Procedurally generating augmented reality content generators
JP7086362B1 (ja) 2021-03-29 2022-06-20 株式会社セルシス 情報処理システム、情報処理方法および情報処理プログラム
CN113205568B (zh) * 2021-04-30 2024-03-19 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU3139295A (en) * 1994-07-22 1996-02-22 Apple Computer, Inc. Method and system for the placement of texture on three-dimensional objects
JPH09305798A (ja) * 1996-05-10 1997-11-28 Oki Electric Ind Co Ltd 画像表示装置
JP3639475B2 (ja) * 1999-10-04 2005-04-20 シャープ株式会社 3次元モデル生成装置および3次元モデル生成方法ならびに3次元モデル生成プログラムを記録した記録媒体
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
US6664956B1 (en) * 2000-10-12 2003-12-16 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret A. S. Method for generating a personalized 3-D face model
JP2002269546A (ja) * 2001-03-14 2002-09-20 Atr Onsei Gengo Tsushin Kenkyusho:Kk 自動顔トラッキングシステムおよび自動顔トラッキング方法
JP2003216978A (ja) * 2002-01-23 2003-07-31 Sanyo Electric Co Ltd 顔特徴を表す三角パッチの生成装置および生成方法ならびに顔特徴を表す三角パッチの生成処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004265267A (ja) * 2003-03-04 2004-09-24 Sharp Corp 顔認証方法、および顔認証装置。
US7218774B2 (en) * 2003-08-08 2007-05-15 Microsoft Corp. System and method for modeling three dimensional objects from a single image
JP4474546B2 (ja) * 2004-10-05 2010-06-09 国立大学法人東京農工大学 顔形状モデリングシステムおよび顔形状モデリング方法
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
CN100538745C (zh) * 2008-01-04 2009-09-09 西北工业大学 颅骨三维模型构建方法
JP5089453B2 (ja) * 2008-03-24 2012-12-05 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法及びプログラム
CN101324961B (zh) * 2008-07-25 2011-07-13 上海久游网络科技有限公司 计算机虚拟世界中人脸部三维贴图方法
CN101404091B (zh) * 2008-11-07 2011-08-31 重庆邮电大学 基于两步形状建模的三维人脸重建方法和系统

Also Published As

Publication number Publication date
CN102074040B (zh) 2013-06-19
US20110115786A1 (en) 2011-05-19
US8698796B2 (en) 2014-04-15
JP2011107877A (ja) 2011-06-02
CN102074040A (zh) 2011-05-25

Similar Documents

Publication Publication Date Title
JP5463866B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP6864449B2 (ja) イメージの明るさを調整する方法及び装置
CN110650368B (zh) 视频处理方法、装置和电子设备
JP6876941B2 (ja) バーチャルメイクアップ装置、バーチャルメイクアップ方法及びバーチャルメイクアッププログラム
JP4760349B2 (ja) 画像処理装置および画像処理方法、並びに、プログラム
CN110490896B (zh) 一种视频帧图像处理方法和装置
WO2018221092A1 (ja) 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
CN107851299B (zh) 信息处理装置、信息处理方法以及程序
US20100189357A1 (en) Method and device for the virtual simulation of a sequence of video images
JP5949331B2 (ja) 画像生成装置、画像生成方法及びプログラム
CN108682050B (zh) 基于三维模型的美颜方法和装置
JP6111723B2 (ja) 画像生成装置、画像生成方法及びプログラム
US20160140411A1 (en) Image processing apparatus for converting image in characteristic region of original image into image of brushstroke patterns
KR102353556B1 (ko) 사용자 얼굴기반 표정 및 포즈 재현 아바타 생성장치
CN109242760B (zh) 人脸图像的处理方法、装置和电子设备
US10803677B2 (en) Method and system of automated facial morphing for eyebrow hair and face color detection
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
JP4323910B2 (ja) 画像合成装置及び方法
KR100422470B1 (ko) 3차원 동화상 모델 얼굴 대체 방법 및 장치
KR20010084996A (ko) 단일 이미지를 이용한 3차원 아바타 제작 방법 및 이를이용한 자판기
CN114155569B (zh) 一种化妆进度检测方法、装置、设备及存储介质
JP2014174855A (ja) 画像処理装置、画像処理方法及びプログラム
Zhao 3D Human Face Reconstruction and 2D Appearance Synthesis
JPH10105673A (ja) 似顔絵画像作成装置およびその方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140106

LAPS Cancellation because of no payment of annual fees