JP6661780B2 - 顔モデル編集方法及び装置 - Google Patents
顔モデル編集方法及び装置 Download PDFInfo
- Publication number
- JP6661780B2 JP6661780B2 JP2018545644A JP2018545644A JP6661780B2 JP 6661780 B2 JP6661780 B2 JP 6661780B2 JP 2018545644 A JP2018545644 A JP 2018545644A JP 2018545644 A JP2018545644 A JP 2018545644A JP 6661780 B2 JP6661780 B2 JP 6661780B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- editing
- pixel
- face model
- color value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 96
- 238000001514 detection method Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 description 22
- 230000001815 facial effect Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 238000013507 mapping Methods 0.000 description 10
- 210000004709 eyebrow Anatomy 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 210000003205 muscle Anatomy 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000009966 trimming Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/22—Cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Description
この出願は、2016年3月10日に中国特許庁に出願された「FACIAL MODEL EDITING METHOD AND APPARATUS」という名称の中国特許出願第201610136300.1号の優先権を主張し、その全内容を参照により援用する。
この出願は、コンピュータ分野に関し、特に顔モデル編集方法及び装置に関する。
表示された顔モデルにおけるカーソルの位置を検出するステップであり、表示された顔モデルは複数の顔の部位を含む、ステップと、
位置に従って、複数の顔の部位のうち操作対象の顔の部位を決定するステップと、
操作対象の顔の部位に対する選択操作を検出するステップと、
操作対象の顔の部位に対する取得された編集操作に応じて、操作対象の顔の部位を編集するステップと、
顔モデルにおいて編集された操作対象の顔の部位を表示するステップと
を含む。
表示された顔モデルにおけるカーソルの位置を検出するように構成された第1の検出ユニットであり、表示された顔モデルは複数の顔の部位を含む、第1の検出ユニットと、
位置に従って、複数の顔の部位のうち操作対象の顔の部位を決定するように構成された決定ユニットと、
操作対象の顔の部位に対する選択操作を検出するように構成された第2の検出ユニットと、
操作対象の顔の部位に対する取得された編集操作に応じて、操作対象の顔の部位を編集するように構成された編集ユニットと、
顔モデルにおいて編集された操作対象の顔の部位を表示するように構成された第1の表示ユニットと
を含む。
位置における画素のカラー値を取得し、
カラー値に対応する、複数の顔の部位のうち操作対象の顔の部位を決定することを含む。
float4 maskColor = tex2D(FacialMaskSampler,param.uv0);
float maskR = maskColor.r*255.0f;
float alpha = 0;
if(IsValEqual(SelectedAreaColor, maskR))
{
alpha += FacialMaskParams.y;
}
float4 finalColor = float4(0,2,5,alpha*2.5f*maskColor.b);
ここで、maskColor.rは赤チャネルを示すために使用され、maskColor.bは青チャネルを示すために使用される。
result.color0=tex2D(FacialMaskSampler,param.uv0);
result.color0.gb=param.uv0.xy;
floatdepth=EncodeFloatToRGBA8(param.homoDepth.x/param.homoDepth.y);
result.color1=float4(1.0f, 1.0f, 0, depth);//magic code marking for facial model map
画面上に表示された顔モデルは、以下のコードを使用することにより取得される。
tex2D(FacialMaskSampler,param.uv0);
result.color1=float4(1.0f, 1.0f, 0, depth)
1つの検証コードが画面内の画素毎に設定され、画素が顔モデルに属するか否かは、検証コードを使用することにより検証される。検証コードに一致する画素((1.0,1.0,0)に等しい)のみが顔モデルに従って処理される。
If(maskCode.r==0xff &&
maskCode.g==0xff &&
maskCode.b==0)
{
mDepthSelted=maskCode.a;
mIsPickingVaild=true;
}
画面上のカーソルの位置と、画面の現在の解像度とを検出することにより、カーソルの位置におけるユーザにより選択された画素が計算される。
位置における画素のカラー値を取得し、
カラー値に対応する、複数の顔の部位のうち操作対象の顔の部位を決定することを含む。
マスクマップにおいて、位置に対応する画素のカラー値を取得し、マスクマップは顔モデル上で貼り合わされ、マスクマップは複数の顔の部位と1対1に対応する複数のマスク領域を含み、各マスク領域は1つの顔の部位に対応し、
画素のカラー値は以下のもの、すなわち、画素の赤カラー値、画素の緑カラー値及び画素の青カラー値のうち1つを含むことを含む。
すなわち、顔モデルに対応するマスクマップは、マッピング関係における画素のカラー値に従って描画されてもよく、マスクマップは顔モデル上で貼り合わされ、マスクマップに含まれる複数のマスク領域は、複数の顔の部位と1対1に対応する。
顔モデルと生成されたマスクマップとを表示し、マスクマップは顔モデル上で貼り合わされるように設定されることを更に含む。
顔モデルにおいて操作対象の顔の部位をハイライトすることを更に含む。
操作対象の顔の部位を移動すること、
操作対象の顔の部位を回転すること、
操作対象の顔の部位を拡大すること、及び
操作対象の顔の部位を縮小すること
のうち少なくとも1つを含む。
表示された顔モデルにおけるカーソルの位置を検出するように構成された第1の検出ユニット702であり、表示された顔モデルは複数の顔の部位を含む、第1の検出ユニット702と、
位置に従って、複数の顔の部位のうち操作対象の顔の部位を決定するように構成された決定ユニット704と、
操作対象の顔の部位に対する選択操作を検出するように構成された第2の検出ユニット706と、
操作対象の顔の部位に対する取得された編集操作に応じて、操作対象の顔の部位を編集するように構成された編集ユニット708と、
顔モデルにおいて編集された操作対象の顔の部位を表示するように構成された第1の表示ユニット710と
を含む。
位置における画素のカラー値を取得し、
カラー値に対応する、複数の顔の部位のうち操作対象の顔の部位を決定することを含む。
result.color0=tex2D(FacialMaskSampler,param.uv0);
result.color0.gb=param.uv0.xy;
floatdepth=EncodeFloatToRGBA8(param.homoDepth.x/param.homoDepth.y);
result.color1=float4(1.0f, 1.0f, 0, depth);//magic code marking for facial model map
画面上に表示された顔モデルは、以下のコードを使用することにより取得される。
tex2D(FacialMaskSampler,param.uv0);
result.color1=float4(1.0f, 1.0f, 0, depth)
1つの検証コードが画面内の画素毎に設定され、画素が顔モデルに属するか否かは、検証コードを使用することにより検証される。検証コードに一致する画素((1.0,1.0,0)に等しい)のみが顔モデルに従って処理される。
If(maskCode.r==0xff &&
maskCode.g==0xff &&
maskCode.b==0)
{
mDepthSelted=maskCode.a;
mIsPickingVaild=true;
}
画面上のカーソルの位置と、画面の現在の解像度とを検出することにより、カーソルの位置におけるユーザにより選択された画素が計算される。
位置における画素のカラー値を取得するように構成された取得モジュールと、
カラー値に対応する、複数の顔の部位のうち操作対象の顔の部位を決定するように構成された決定モジュールと
を含む。
マスクマップにおいて、位置に対応する画素のカラー値を取得するように構成された取得サブモジュールであり、マスクマップは顔モデル上で貼り合わされ、マスクマップは複数の顔の部位と1対1に対応する複数のマスク領域を含み、各マスク領域は1つの顔の部位に対応する、取得サブモジュールを含み、
画素のカラー値は以下のもの、すなわち、画素の赤カラー値、画素の緑カラー値及び画素の青カラー値のうち1つを含む。
表示された顔モデルにおけるカーソルの位置が検出される前に、顔モデルと生成されたマスクマップとを表示するように構成された第2の表示ユニットであり、マスクマップは顔モデル上で貼り合わされるように設定される、第2の表示ユニットを更に含む。
操作対象の顔の部位に対する選択操作が検出されたときに、顔モデルにおいて操作対象の顔の部位をハイライトするように構成された第3の表示ユニットを更に含む。
操作対象の顔の部位を移動するように構成された第1の編集モジュール、
操作対象の顔の部位を回転するように構成された第2の編集モジュール、
操作対象の顔の部位を拡大するように構成された第1の編集モジュール、及び
操作対象の顔の部位を縮小するように構成された第1の編集モジュール
のうち少なくとも1つを含む。
顔モデルを取得するように構成された通信インタフェース802であり、顔モデルは複数の顔の部位を含む、通信インタフェース802と、
通信インタフェース802に接続され、顔モデルを記憶するように構成されたメモリ804と、
通信インタフェース802及びメモリ804に接続され、表示された顔モデルにおけるカーソルの位置を検出するように構成され、位置に従って、複数の顔の部位のうち操作対象の顔の部位を決定するように更に構成され、操作対象の顔の部位に対する選択操作を検出するように更に構成され、操作対象の顔の部位に対する取得された編集操作に応じて、操作対象の顔の部位を編集するように更に構成され、顔モデルにおいて編集された操作対象の顔の部位を表示するように更に構成されたプロセッサ806と
を含む。
レジストリ構成:
mMakeupID=”171”(メイクアップの見た目の美術リソースID)
<mTexSizeBias v="512"/> <mTexSizeBias v=”128”/> (トリミングのマップサイズ)
<mTexSizeBias v=”512” <mTexSizeBias v=”436”(元のサイズのマップ内のマップのインデックス位置)
レジストリ構成は、具体的には以下の通りでもよい。
<mFacialMakeupParts mMakeupID=”171” mMakeupID=”EMP_Eyebrow” mSexualType=”1” mDiffuseFilePath=”F_Eyebrow_0001_D.dds” mSpecFilePath=”F_Eyebrow_0001_S.dds” mNormalFilePath=”F_Eyebrow_0001_N.dds” mIconImage=”F_Eyebrow_0001”>
<mTexSizeBias IsStaticArray=”1” ArrayCount=”4” [XlsProp]=”0”>
<mTexSizeBias v =”512”/>
<mTexSizeBias v =”128”/>
<mTexSizeBias v =”512”/>
<mTexSizeBias v =”436”/>
</mTexSizeBias>
</mFacialMakeupParts>
例えば、図10に示すように、トリミングされたオブジェクトが目の部分の部位(眉毛等)として選択された後に、DiffuseMap、SpecularMap及びNormalMap内の対応するコンテンツがトリミングされ、元のサイズが1024*1024であるコンテンツは、トリミングサイズが512*128であるコンテンツにトリミングされる。
表示された顔モデルにおけるカーソルの位置を検出するステップであり、表示された顔モデルは複数の顔の部位を含む、ステップと、
位置に従って、複数の顔の部位のうち操作対象の顔の部位を決定するステップと、
操作対象の顔の部位に対する選択操作を検出するステップと、
操作対象の顔の部位に対する取得された編集操作に応じて、操作対象の顔の部位を編集するステップと、
顔モデルにおいて編集された操作対象の顔の部位を表示するステップと
を実行するために使用されるプログラムコードを記憶するように構成される。
Claims (10)
- 顔モデル編集方法であって、
表示された顔モデルにおけるカーソルの位置を検出するステップであり、前記表示された顔モデルは複数の顔の部位を含む、ステップと、
前記位置に従って、前記複数の顔の部位のうち操作対象の顔の部位を決定するステップと、
前記操作対象の顔の部位に対する選択操作を検出するステップと、
前記操作対象の顔の部位に対する取得された編集操作に応じて、前記操作対象の顔の部位を編集するステップと、
前記顔モデルにおいて前記編集された操作対象の顔の部位を表示するステップと
を含み、
前記位置に従って、前記複数の顔の部位のうち操作対象の顔の部位を決定するステップは、
前記位置における画素のカラー値を取得するステップと、
前記カラー値に対応する、前記複数の顔の部位のうち前記操作対象の顔の部位を決定するステップと
を含む、方法。 - 前記位置における画素のカラー値を取得するステップは、
マスクマップにおいて、前記位置に対応する前記画素の前記カラー値を取得するステップであり、前記マスクマップは前記顔モデル上で貼り合わされ、前記マスクマップは前記複数の顔の部位と1対1に対応する複数のマスク領域を含み、各マスク領域は1つの顔の部位に対応し、前記画素の前記カラー値は以下のもの、すなわち、前記画素の赤カラー値、前記画素の緑カラー値及び前記画素の青カラー値のうち1つを含む、ステップを含む、請求項1に記載の方法。 - 表示された顔モデルにおけるカーソルの位置を検出する前に、前記方法は、
前記顔モデルと生成されたマスクマップとを表示するステップであり、前記マスクマップは前記顔モデル上で貼り合わされるように設定される、ステップを更に含む、請求項2に記載の方法。 - 前記操作対象の顔の部位に対する前記選択操作が検出されたときに、前記方法は、
前記顔モデルにおいて前記操作対象の顔の部位をハイライトするステップを更に含む、請求項1に記載の方法。 - 前記操作対象の顔の部位に対する取得された編集操作に応じて、前記操作対象の顔の部位を編集するステップは、以下のもの、すなわち、
前記操作対象の顔の部位を移動するステップ、
前記操作対象の顔の部位を回転するステップ、
前記操作対象の顔の部位を拡大するステップ、及び
前記操作対象の顔の部位を縮小するステップ
のうち少なくとも1つを含む、請求項1乃至4のうちいずれか1項に記載の方法。 - 顔モデル編集装置であって、
表示された顔モデルにおけるカーソルの位置を検出するように構成された第1の検出ユニットであり、前記表示された顔モデルは複数の顔の部位を含む、第1の検出ユニットと、
前記位置に従って、前記複数の顔の部位のうち操作対象の顔の部位を決定するように構成された決定ユニットと、
前記操作対象の顔の部位に対する選択操作を検出するように構成された第2の検出ユニットと、
前記操作対象の顔の部位に対する取得された編集操作に応じて、前記操作対象の顔の部位を編集するように構成された編集ユニットと、
前記顔モデルにおいて前記編集された操作対象の顔の部位を表示するように構成された第1の表示ユニットと
を含み、
前記決定ユニットは、
前記位置における画素のカラー値を取得するように構成された取得モジュールと、
前記カラー値に対応する、前記複数の顔の部位のうち前記操作対象の顔の部位を決定するように構成された決定モジュールと
を含む、装置。 - 前記取得モジュールは、
マスクマップにおいて、前記位置に対応する前記画素の前記カラー値を取得するように構成された取得サブモジュールであり、前記マスクマップは前記顔モデル上で貼り合わされ、前記マスクマップは前記複数の顔の部位と1対1に対応する複数のマスク領域を含み、各マスク領域は1つの顔の部位に対応し、前記画素の前記カラー値は以下のもの、すなわち、前記画素の赤カラー値、前記画素の緑カラー値及び前記画素の青カラー値のうち1つを含む、取得サブモジュールを含む、請求項6に記載の装置。 - 表示された顔モデルにおける前記カーソルの前記位置が検出される前に、前記顔モデルと生成されたマスクマップとを表示するように構成された第2の表示ユニットであり、前記マスクマップは前記顔モデル上で貼り合わされるように設定される、第2の表示ユニットを更に含む、請求項7に記載の装置。
- 前記操作対象の顔の部位に対する前記選択操作が検出されたときに、前記顔モデルにおいて前記操作対象の顔の部位をハイライトするように構成された第3の表示ユニットを更に含む、請求項6に記載の装置。
- 前記編集ユニットは、以下のもの、すなわち、
前記操作対象の顔の部位を移動するように構成された第1の編集モジュール、
前記操作対象の顔の部位を回転するように構成された第2の編集モジュール、
前記操作対象の顔の部位を拡大するように構成された第3の編集モジュール、及び
前記操作対象の顔の部位を縮小するように構成された第4の編集モジュール
のうち少なくとも1つを含む、請求項6乃至9のうちいずれか1項に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610136300.1A CN107180453B (zh) | 2016-03-10 | 2016-03-10 | 人物面部模型的编辑方法及装置 |
CN201610136300.1 | 2016-03-10 | ||
PCT/CN2017/076029 WO2017152848A1 (zh) | 2016-03-10 | 2017-03-09 | 人物面部模型的编辑方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019512141A JP2019512141A (ja) | 2019-05-09 |
JP6661780B2 true JP6661780B2 (ja) | 2020-03-11 |
Family
ID=59788998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018545644A Active JP6661780B2 (ja) | 2016-03-10 | 2017-03-09 | 顔モデル編集方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10628984B2 (ja) |
JP (1) | JP6661780B2 (ja) |
KR (1) | KR102089473B1 (ja) |
CN (1) | CN107180453B (ja) |
WO (1) | WO2017152848A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108579091B (zh) * | 2018-04-27 | 2022-08-05 | 网易(杭州)网络有限公司 | 虚拟场景生成方法、装置、存储介质及电子设备 |
CN109285209B (zh) * | 2018-09-14 | 2023-05-26 | 网易(杭州)网络有限公司 | 游戏角色的面部模型的处理方法、装置、处理器及终端 |
CN110111417B (zh) * | 2019-05-15 | 2021-04-27 | 浙江商汤科技开发有限公司 | 三维局部人体模型的生成方法、装置及设备 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5687259A (en) | 1995-03-17 | 1997-11-11 | Virtual Eyes, Incorporated | Aesthetic imaging system |
US6362829B1 (en) * | 1996-03-07 | 2002-03-26 | Agfa Corporation | Method for modifying a digital image |
KR20010056965A (ko) * | 1999-12-17 | 2001-07-04 | 박희완 | 부분 이미지 합성에 의한 인물 캐릭터 생성 방법 |
CN1296872C (zh) * | 2003-11-11 | 2007-01-24 | 易连科技股份有限公司 | 快速建立人脸影像平面模型的方法 |
US7593603B1 (en) * | 2004-11-30 | 2009-09-22 | Adobe Systems Incorporated | Multi-behavior image correction tool |
WO2007128117A1 (en) * | 2006-05-05 | 2007-11-15 | Parham Aarabi | Method. system and computer program product for automatic and semi-automatic modification of digital images of faces |
CN101021943A (zh) * | 2007-04-06 | 2007-08-22 | 北京中星微电子有限公司 | 一种图像调整的方法和系统 |
US20090231356A1 (en) * | 2008-03-17 | 2009-09-17 | Photometria, Inc. | Graphical user interface for selection of options from option groups and methods relating to same |
WO2011120206A1 (en) * | 2010-04-02 | 2011-10-06 | Nokia Corporation | Methods and apparatuses for face detection |
JP2012004719A (ja) * | 2010-06-15 | 2012-01-05 | Nikon Corp | 画像処理装置及びプログラム、並びに電子カメラ |
US20120221297A1 (en) * | 2011-02-24 | 2012-08-30 | Siemens Product Lifecycle Management Software, Inc. | Global Deformation for a Modeled Object |
CN103207745B (zh) * | 2012-01-16 | 2016-04-13 | 上海那里信息科技有限公司 | 虚拟化身交互系统和方法 |
CN102999929A (zh) * | 2012-11-08 | 2013-03-27 | 大连理工大学 | 一种基于三角网格化的人物图像瘦脸处理方法 |
US9747716B1 (en) * | 2013-03-15 | 2017-08-29 | Lucasfilm Entertainment Company Ltd. | Facial animation models |
CN104103090A (zh) * | 2013-04-03 | 2014-10-15 | 北京三星通信技术研究有限公司 | 图像处理方法、个性化人体显示方法及其图像处理系统 |
US9603437B2 (en) * | 2013-04-08 | 2017-03-28 | Panasonic Intellectual Property Corporation Of America | Image processing device, image processing method, and program, capable of virtual reproduction of makeup application state |
JP6171635B2 (ja) * | 2013-07-04 | 2017-08-02 | ティアック株式会社 | 編集処理装置及び編集処理プログラム |
CN104156912B (zh) * | 2014-08-18 | 2018-11-06 | 厦门美图之家科技有限公司 | 一种人像增高的图像处理的方法 |
KR20170046140A (ko) * | 2014-08-29 | 2017-04-28 | 톰슨 라이센싱 | 얼굴 이미지 편집 방법 및 디바이스 |
CN105389835B (zh) * | 2014-09-03 | 2019-07-12 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置及终端 |
CN104616330A (zh) * | 2015-02-10 | 2015-05-13 | 广州视源电子科技股份有限公司 | 一种图片的生成方法和装置 |
CN107924579A (zh) * | 2015-08-14 | 2018-04-17 | 麦特尔有限公司 | 生成个性化3d头部模型或3d身体模型的方法 |
US10417738B2 (en) * | 2017-01-05 | 2019-09-17 | Perfect Corp. | System and method for displaying graphical effects based on determined facial positions |
-
2016
- 2016-03-10 CN CN201610136300.1A patent/CN107180453B/zh active Active
-
2017
- 2017-03-09 KR KR1020187025694A patent/KR102089473B1/ko active IP Right Grant
- 2017-03-09 WO PCT/CN2017/076029 patent/WO2017152848A1/zh active Application Filing
- 2017-03-09 JP JP2018545644A patent/JP6661780B2/ja active Active
-
2018
- 2018-08-24 US US16/111,922 patent/US10628984B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN107180453A (zh) | 2017-09-19 |
CN107180453B (zh) | 2019-08-16 |
KR20180108799A (ko) | 2018-10-04 |
JP2019512141A (ja) | 2019-05-09 |
KR102089473B1 (ko) | 2020-03-16 |
US10628984B2 (en) | 2020-04-21 |
US20180365878A1 (en) | 2018-12-20 |
WO2017152848A1 (zh) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11412292B2 (en) | Video processing method, video processing device, and storage medium | |
US10854017B2 (en) | Three-dimensional virtual image display method and apparatus, terminal, and storage medium | |
KR102169918B1 (ko) | 인물 얼굴 모델의 표정 애니메이션 생성 방법 및 장치 | |
CN106570822B (zh) | 一种人脸贴图方法及装置 | |
US20200020173A1 (en) | Methods and systems for constructing an animated 3d facial model from a 2d facial image | |
WO2020215792A1 (zh) | 游戏视角控制方法及装置 | |
KR20150038518A (ko) | 사진을 이용한 운영체제 색상 세팅 | |
CN110072046B (zh) | 图像合成方法和装置 | |
WO2020134558A1 (zh) | 图像处理方法、装置、电子设备及存储介质 | |
JP6661780B2 (ja) | 顔モデル編集方法及び装置 | |
US8675014B1 (en) | Efficiently detecting graphics objects near a selected point | |
CN106447756B (zh) | 用于生成用户定制的计算机生成动画的方法和系统 | |
US20220230379A1 (en) | Three-dimensional avatar generation and manipulation using shaders | |
JP2022545598A (ja) | 仮想対象の調整方法、装置、電子機器、コンピュータ記憶媒体及びプログラム | |
CN112965681B (zh) | 图像处理方法、装置、设备、及存储介质 | |
WO2023045941A1 (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN111583379A (zh) | 虚拟模型的渲染方法、装置、存储介质与电子设备 | |
US10120539B2 (en) | Method and device for setting user interface | |
JP5767371B1 (ja) | 仮想空間平面上に配置したオブジェクトを表示制御するゲーム・プログラム | |
WO2020173222A1 (zh) | 物品虚拟化处理方法、装置、电子设备及存储介质 | |
US11127218B2 (en) | Method and apparatus for creating augmented reality content | |
CN112370786A (zh) | 游戏中的妆容绘制方法、装置和电子设备 | |
US11928757B2 (en) | Partially texturizing color images for color accessibility | |
JP2016016319A (ja) | 仮想空間平面上に配置したオブジェクトを表示制御するゲーム・プログラム | |
TWI799012B (zh) | 呈現立體空間模型的電子裝置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191001 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6661780 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |