JP7168694B2 - ヒューマンフェースによる3d特殊効果生成方法、装置および電子装置 - Google Patents

ヒューマンフェースによる3d特殊効果生成方法、装置および電子装置 Download PDF

Info

Publication number
JP7168694B2
JP7168694B2 JP2020571659A JP2020571659A JP7168694B2 JP 7168694 B2 JP7168694 B2 JP 7168694B2 JP 2020571659 A JP2020571659 A JP 2020571659A JP 2020571659 A JP2020571659 A JP 2020571659A JP 7168694 B2 JP7168694 B2 JP 7168694B2
Authority
JP
Japan
Prior art keywords
special effect
human face
face image
model
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020571659A
Other languages
English (en)
Other versions
JP2021528770A (ja
Inventor
王晶
林▲しん▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Microlive Vision Technology Co Ltd
Original Assignee
Beijing Microlive Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Microlive Vision Technology Co Ltd filed Critical Beijing Microlive Vision Technology Co Ltd
Publication of JP2021528770A publication Critical patent/JP2021528770A/ja
Application granted granted Critical
Publication of JP7168694B2 publication Critical patent/JP7168694B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

(関連出願の引用)
本願は、2018年07月27日に出願し、発明の名称が「ヒューマンフェースによる3D特殊効果生成方法、装置および電子装置」であり、出願番号が201810838414.Xである中国特許出願を引用し、その出願の全文を本願に組み込む。
本発明は、画像処理技術分野に属し、特に、ヒューマンフェース(human face)による3D特殊効果(special effects)生成方法、装置、ハードウェア装置およびコンピュータ読み取り可能な記憶媒体に関するものである。
コンピュータ技術の発展に伴い、インテリジェント端末(intelligent terminal)の応用範囲はますます広くなっている。例えば、インテリジェント端末により、音楽を聞き、ゲームをし、オンラインチャットをし、写真を撮ることができる。インテリジェント端末のカメラ技術の発展に伴い、そのピクセルは千万以上になり、高いアーティキュレーションを獲得し、プロフェッショナルカメラに匹敵する撮影の品質を獲得することができる。
従来のインテリジェント端末のカメラで写真または動画を撮るとき、出荷時インテリジェント端末にインストールされる撮影ソフトにより一般の写真または動画を獲得することができ、かつインターネットからダウンロードしたアプリケーション(Application、APPと略称)により写真または動画の品質を更に向上させることができる。
従来の特殊効果を製作するAPPには予め特殊効果が予め設定されているので、APPにより特殊効果を容易に編集することができず、前記特殊効果を画像の固定位置にしか位置させることができない。
本発明の実施例においてヒューマンフェースによる3D特殊効果生成方法を提供する。前記ヒューマンフェースによる3D特殊効果生成方法は、標準ヒューマンフェース画像を表示するステップと、3D特効果を創建するステップであって、前記3D特効果は少なくとも3D模型を配置するか或いは3D模型の材質を配置することにより創建され、前記3D特殊効果は前記標準ヒューマンフェース画像上に位置するステップと、前記3D特効果により特効果パラメーターを形成するステップと、画像センサーにより認識される第一ヒューマンフェース画像を獲得するステップと、特殊効果パラメーターにより第一ヒューマンフェース画像上に3D特殊効果を形成するステップとを含む。
本発明の実施例において、前記3D模型を配置することは、前記3D模型を獲得した後、それを標準ヒューマンフェース画像上に表示するステップと、前記3D模型の位置とサイズを配置するステップとを含む。
本発明の実施例において、前記3D模型の材質を配置することは前記材質を選択するしかつ前記材質のパラメーターを調節するステップを含み、前記材質のパラメーターは、リゾート混合モードのパラメーター、デプステスティングの起動の有無のパラメーター、デプスディスクリプションの起動の有無のパラメーター、取り除きの起動の有無のパラメーターのうちいずれか1個または複数個を含む。
本発明の実施例において、前記3D特効果を創建するステップはランプを配置するステップを更に含み、前記ランプは、点光源、パラレルライトおよびスポットライトのうちいずれか一種である。
本発明の実施例において、前記ランプを配置するステップは、ランプの位置、方向、カラーおよび強度を配置することを含む。
本発明の実施例において、前記3D特効果を創建するステップは前記3D模型の模様を配置するステップを更に含み、前記3D模型の模様を配置するステップは、前記模様のステッカーを獲得するステップと、模様のサラウンドモードを配置するステップとを含む。
本発明の実施例において、前記標準ヒューマンフェース画像にはヒューマンフェース特徴ポイントが含まれ、前記標準ヒューマンフェース画像を表示するステップが実施された後、参考点選択命令を受信しかつ少なくとも1つの特徴ポイントを選択して参考点とするステップを更に含み、特殊効果パラメーターにより第一ヒューマンフェース画像上に3D特殊効果を形成するステップは前記特殊効果パラメーターと前記参考点により第一ヒューマンフェース画像上に前記3D特殊効果を形成するステップを含む。
本発明の他の実施例において、ヒューマンフェースによる3D特殊効果生成装置を提供する。前記ヒューマンフェースによる3D特殊効果生成装置は、標準ヒューマンフェース画像を表示する表示モジュールと、3D特殊効果を創建する3D特殊効果創建モジュールであって、前記3D特殊効果は少なくとも3D模型を配置するか或いは3D模型の材質を配置することにより創建される3D特殊効果形成モジュールと、前記3D特殊効果により特殊効果パラメーターを形成する特殊効果パラメーター生成モジュールと、画像センサーにより認識される第一ヒューマンフェース画像を獲得するヒューマンフェース画像獲得モジュールと、特殊効果パラメーターにより第一ヒューマンフェース画像上に3D特殊効果を形成する3D特殊効果形成モジュールとを含む。
本発明の実施例において、前記3D模型を配置することは、前記3D模型を獲得した後、それを標準ヒューマンフェース画像上に表示するステップと、前記3D模型の位置とサイズを配置するステップとを含む。
本発明の実施例において、前記3D模型の材質を配置することは前記材質を選択するしかつ前記材質のパラメーターを調節するステップを含み、前記材質のパラメーターは、リゾート混合モードのパラメーター、デプステスティングの起動の有無のパラメーター、デプスディスクリプションの起動の有無のパラメーター、取り除きの起動の有無のパラメーターのうちいずれか1個または複数個を含む。
本発明の実施例において、前記3D特殊効果創建モジュールはランプを配置することにも用いられ、前記ランプは、点光源、パラレルライトおよびスポットライトのうちいずれか一種である。
本発明の実施例において、前記ランプを配置することは、ランプの位置、方向、カラーおよび強度を配置することを含む。
本発明の実施例において、前記3D特殊効果創建モジュールは前記3D模型の模様を配置することにも用いられ、前記3D模型の模様を配置することは、前記模様のステッカーを獲得するステップと、模様のサラウンドモードを配置するステップとを含む。
本発明の実施例において、前記標準ヒューマンフェース画像にはヒューマンフェース特徴ポイントが含まれている。前記ヒューマンフェースによる3D特殊効果生成装置は、参考点選択命令を受信しかつ少なくとも1つの特徴ポイントを選択して参考点とする参考点選択モジュールを更に含む。前記3D特殊効果形成モジュールは前記特殊効果パラメーターと前記参考点により第一ヒューマンフェース画像上に前記3D特殊効果を形成することにも用いられる。
本発明の他の実施例において電子装置を提供する。前記電子装置は記憶装置と処理装置を含み、記憶装置には非過渡性コンピュータ読み取り可能な指令が記憶され、処理装置は前記コンピュータ読み取り可能な指令を実行することにより前記いずれか1つのヒューマンフェースによる3D特殊効果生成方法の各ステップを実施する。
本発明の実施例において、コンピュータ読み取り可能な記憶媒体を提供する。前記コンピュータ読み取り可能な記憶媒体には非過渡性コンピュータ読み取り可能な指令が記憶され、前記非過渡性コンピュータ読み取り可能な指令がコンピュータに実行されることにより前記いずれか1つのヒューマンフェースによる3D特殊効果生成方法中の各ステップを実施する。
本発明の実施例において、ヒューマンフェースによる3D特殊効果生成方法、装置、電子装置およびコンピュータ読み取り可能な記憶媒体を提供する。前記ヒューマンフェースによる3D特殊効果生成方法は、標準ヒューマンフェース画像を表示するステップと、3D特効果を創建するステップであって、前記3D特効果は少なくとも3D模型を配置するか或いは3D模型の材質を配置することにより創建され、前記3D特殊効果は前記標準ヒューマンフェース画像上に位置するステップと、前記3D特効果により特効果パラメーターを形成するステップと、画像センサーにより認識される第一ヒューマンフェース画像を獲得するステップと、特殊効果パラメーターにより第一ヒューマンフェース画像上に3D特殊効果を形成するステップとを含む。本発明の実施例において、使用者は3D特殊効果を創建する方法により3D特殊効果を容易に配置するとともに編集することができ、かつ3D特殊効果パラメーターを形成することにより、3D特殊効果形成計算方法において3D特殊効果パラメーターを用いることにより随時に採集されるヒューマンフェース画像上に3D特殊効果を形成することができる。従来の技術と比較してみると、本発明は、3D特殊効果を編集する難易度と編集する時間を大幅に低減し、かつ3D特殊効果を随時に採集されるいずれかのヒューマンフェース画像上に形成することにより使用者の体験を向上させることができる。
以上、本発明の技術事項の概要を説明してきた。本発明の技術的手段をより詳細に理解し、この明細書の内容により本発明を充分に実施し、かつ本発明の前記目的、特徴および発明の効果をより容易に理解してもらうため、以下、好適な実施例と図面により本発明を詳細に説明する。
本発明の実施例に係るヒューマンフェースによる3D特殊効果生成方法を示す流れ図である。 本発明の他の実施例に係るヒューマンフェースによる3D特殊効果生成方法を示す流れ図である。 本発明の実施例に係るヒューマンフェースによる3D特殊効果生成装置を示す流れ図である。 本発明の他の実施例に係るヒューマンフェースによる3D特殊効果生成装置を示す流れ図である。 本発明の実施例に係る電子装置の構造を示す図である。 本発明の実施例に係るコンピュータ読み取り可能な記憶媒体の構造を示す図である。 本発明の実施例に係るヒューマンフェースによる3D特殊効果生成端末の構造を示す図である。
以下、特定の具体的な実施例により本発明の実施形態を説明し、この技術分野の技術者はその明細書が公開する事項により本発明の利点と効果を容易に理解することができる。注意されたいことは、下記実施例は本発明の一部分の実施例を示すものであり、本発明のすべての実施例を示すものでない。この明細書に記載されていない他の具体的な実施形態により本発明を実施するか或いは応用することもできる。観点と応用が異なる場合、本発明の要旨を逸脱しない範囲において本発明の各細部に対していろいろな変更または改良をすることができる。注意されたいことは、矛盾がない場合、下記実施例と実施例中の特徴を組み合わせることができる。本発明の実施例において、本技術分野の技術者は創造的な研究をしなくても他の実施例を想到することができ、それらがあっても本発明に含まれることは勿論である。
注意されたいことは、下記明細書において特許請求の範囲に係る実施例の各事項を説明する。周知のように、この明細書において説明する事項をいろいろな方面に応用することができ、この明細書において説明する任意の特徴と/或いは機能は本発明の例示にしか過ぎないものである。本技術分野の技術者は本発明の事項により本発明の各実施例を独自に実施するか或いは複数の実施例において2つまたは2つ以上を組み合わせて実施することができる。例えば、本発明の任意の数量の実施例に係る装置と/或いは実施方法を自由に採用することができる。本発明において説明する1個または複数個の実施例にのみ限定されるものでなく、他の構造と/或いは機能を採用することにより本発明の装置と/或いは実施方法を実施することもできる。
注意されたいことは、本発明の実施例において提供する図面は本発明の基本的構成のみを示すものであり、図面には本発明の実施例に係るモジュールが示されているが、それらは本発明を実際に実施するときのモジュールの数量、形態およびサイズを示すものでない。本発明を実際に実施するとき、各モジュールの形態、数量および比例を自由に変化させ、各モジュールの配置もより複雑になることができる。
下記実施例において提供する具体的な細部は本発明を徹底的に理解してもらうための実例である。本技術分野の技術者は下記具体的な細部がなくても本発明を実施することができる。
使用者の体験を向上させようとする技術的課題を解決するため、本発明の実施例においてヒューマンフェースによる3D特殊効果生成方法を提供する。図1に示すとおり、前記ヒューマンフェースによる3D特殊効果生成方法はステップS1~ステップS5を含む。
ステップS1において、標準ヒューマンフェース画像を表示する。
表示装置に標準ヒューマンフェース画像を表示し、前記標準ヒューマンフェース画像は予め設定されるヒューマンフェース画像であり、前記ヒューマンフェース画像は通常、正面のヒューマンフェース画像である。前記標準ヒューマンフェース画像は予め設定される特徴ポイントを含み、前記特徴ポイントの数量を設定することができる。すなわち使用者は需要により前記特徴ポイントの数量を自由に設定することができる。画像の特徴ポイントは、画像において鮮明な特徴を有しており、画像の本質の特徴を有効に示し、かつ画像中の目標物を示すことができるポイントを意味する。前記目標物がヒューマンフェースである場合、ヒューマンフェースのキーポイントを検出する必要があり、前記目標物が建物である場合、建物のキーポイントを検出する必要がある。ヒューマンフェースのキーポイントを検出する方法において、ヒューマンフェースの輪郭は、主として、眉毛、目、鼻、口および顔等の5個の部分を含むが、瞳孔と鼻孔を更に含むこともできる。ヒューマンフェースの輪郭を完璧に説明する場合、約60個のキーポイントを検出する必要があるが、ヒューマンフェースの基本的な構造を説明する場合、ヒューマンフェースの各部位の細部を詳細に説明する必要がないか或いは顔を説明する必要がないので、キーポイントの数量を適当に低減することができる。瞳孔、鼻孔を説明する必要があるか或いは五官の特徴を詳細に説明する必要がある場合、キーポイントの数量を適当に増加させることができる。画像においてヒューマンフェースのキーポイントを検出することは、各ヒューマンフェースの輪郭のキーポイントが標準ヒューマンフェース画像に位置している座標を検出することに相当する。すなわちキーポイントの位置を検出することに相当する。その過程においてキーポイントに対応する特徴により検出を実施する。キーポイントを明確に示すことができる画像特徴を獲得した後、その特徴により画像中の特徴を検索し、かつ画像中のキーポイントの位置を明確に検出する。特徴ポイントが画像を占める面積は非常に小さい(通常、数個ないし数十個画素の大きさに対応する)。すなわち特徴ポイントに対応する特徴が画像を占める区域は非常に小さいので、特徴を獲得する方法は以下の2種がある。(1)輪郭の垂直方向に沿う1D範囲において画像特徴を検出する。(2)特徴ポイントの長方形区域の2D範囲内において画像特徴を検出する。前記2種の方法を実施する方法はいろいろがある。例えばASMとAAM類方法、エネルギー統計函数類方法、回帰分析方法、進度学習方法、分類方法、大量獲得方法等がある。前記いろいろな実施方法に使用されるキーポイントの個数、正確度および速度は異なっているので、いろいろな分野に応用されることができる。
ステップS2において、3D特効果を創建する。前記3D特効果は少なくとも3D模型を配置するか或いは3D模型の材質を配置することにより創建され、前記3D特殊効果は前記標準ヒューマンフェース画像上に位置する。
本実施例において、3D特効果を創建する必要がある。本発明の好適な実施例において、前記3D特効果は3Dステッカーであることができる。3D特効果を創建するとき、外部のソフトウェアにより制作される3D模型を用いることができる。前記3D模型には、カラー情報、デプス情報、材質情報、模様情報等のいずれかの情報も含まれていない。3D模型を導入した後、3D模型のパラメーターを配置することができる。例えば3D模型がパネルに位置する位置または標準ヒューマンフェース上に位置する位置を配置することができる。3D模型のサイズと回転角度を配置することができ、前記3D模型のサイズは3D模型のドラッグ区域を調節することにより設定するか或いはドラッグ区域のサイズを直接に入力することにより設定することができる。前記回転角度は、x軸、y軸、z軸上の回転角度を含み、ドラッグ区域を調節することにより前記回転角度を設定するか或いはドラッグ区域のサイズを直接に入力することにより前記回転角度を設定することができる。
3D模型を導入した後、3D模型の材質を配置する必要がある。3D模型の材質を配置するとき、まず材質を創建し、次に前記材質のパラメーターを調節する。前記材質のパラメーターは、リゾート混合モード、デプステスティングの起動の有無、デプスディスクリプション(depth description)の起動の有無、取り除きの起動の有無のうちいずれか1個または複数個を含む。前記材質のパラメーターは、物体の表面に照射される光線のRGB分量の反射率を更に含む。具体的に、周囲光線、拡散光線、鏡面光線、自発光線等のいろいろな光線、カラーが異なる分量の光線の反射程度を含む。
具体的に、前記リゾート混合とは2種のカラーを一体に混合させることをいう。具体的に、ある1つの画素位置のカラーとまもなくかくカラーを一体に混合させることにより特殊効果を獲得することをいう。リゾート混合モードとは混合に用いられる方法を指し、混合方法は通常、ソースカラーとデスティネーションカラーを計算することにより混合後のカラーを獲得することを指す。実際の応用において、ソースカラーにソースファクターをかけて得た結果とデスティネーションカラーにデスティネーションファクターをかけて得た結果とを計算することにより混合後のカラーを獲得することができる。例えば、前記計算の結果はプラスである場合、BLENDcolor = SRC_color * SCR_factor + DST_color * DST_factorであり、その式において、0≦SCR_factor≦1、0≦DST_factor≦1である。前記計算公式において、ソースカラーの4つの分量(赤色、緑色、青色、alpha値)は(Rs、Gs、Bs、As)であり、デスティネーションカラーの4つの分量は(Rd、Gd、Bd、Ad)であり、ソースファクターは(Sr、Sg、Sb、Sa)であり、デスティネーションファクターは(Dr、Dg、Db、Da)であると仮定する。混合により形成される新しいカラーは(Rs * Sr + Rd * Dr、Gs * Sg + Gd * Dg、Bs * Sb + Bd * Db、As * Sa + Ad * Da)であり、前記式においてalpha値は透明度を示し、0≦alpha≦1である。前記混合方法は本発明の例示にしか過ぎないものであり、実際の応用において、前記混合方法を変化させるか或いは他の混合方法を選択することができる。前記計算は、加、減、乗、除、2つの数値において大きい数値を選択すること、2つの数値において小さい数値を選択すること、ロジック演算(And, or, different, etc等)であることができる。前記混合方法は本発明の例示にしか過ぎないものであり、実際の応用において、前記混合方法を変化させるか或いは他の混合方法を選択することができる。前記計算は、加、減、乗、除、2つの数値において大きい数値を選択すること、2つの数値において小さい数値を選択すること、ロジック演算(And, or, different, etc等)であることができる。
前記デプステスティングとはデプスバッファを設定することをいう。前記デプスバッファはカラーバッファに対応し、デプスバッファには画素のデプス情報が記憶され、カラーバッファには画素のカラー情報が記憶されている。1つの物体の表面をかくことを決定するとき、まず表面の所定の画素のデプス値とデプスバッファに記憶されている値を比較し、前者がデプスバッファに記憶されている値より大きいか或いは等しいとき、その部分を廃棄する。逆の場合、前記画素に対応するデプス値とカラー値によりデプスバッファとカラーバッファを更新する。その過程をデプステスティング(Depth Testing)という。シナリオを形成する前、カラーバッファを除去するとき、デプスバッファを除去する。デプスバッファを除去するときデプスバッファの値を1に設定し、それは最大のデプス値を意味する。デプス値は「0、1」の間に位置し、デプス値が小さければ小さいほど、観察者に近づいていることを意味し、デプス値が大きければ大きいほど、観察者から離れていることを意味する。デプステスティングを始めるとき、デプステスティングの比較函数を設定する必要がある。常用する比較函数はDF_ ALWAYSであり、テストをいつもパスさせる。そのときはデプステスティングを起動させないときと同様であり、現在の画素のデプス値とカラー値によりデプスバッファとカラーバッファを更新する。DF_NEVERであるとき、テストをいつもパスさせない。そのときデプスバッファとカラーバッファ中の値を維持し、いずれかの画素はパネルに表示されない。DF_ LESSであるとき、現在のデプス値<記憶されているデプス値であると、テストをパスさせる。DF_ EQUALであるとき、現在のデプス値=記憶されているデプス値であると、テストをパスさせる。DF_LEQUALであるとき、現在のデプス値≦記憶されているデプス値であると、テストをパスさせる。DF_GREATERであるとき、現在のデプス値>記憶されているデプス値であると、テストをパスさせる。DF_NOTEQUALであるとき、現在のデプス値≠記憶されているデプス値であると、テストをパスさせる。DF_GEQUALであるとき、現在のデプス値≧記憶されているデプス値であると、テストをパスさせる。前記デプスディスクリプションとデプステスティングは係っており、デプステスティングが起動し、かつデプステスティングの結果によりデプスバッファの値を更新するとき、デプスディスクリプションは起動させる必要がある。それによりデプスバッファの値を更新することができる。以下、デプステスティングとデプスディスクリプションを起動させることにより画像をかく過程を例として本発明を説明する。2つのカラーをかく必要があると仮定する。2つのカラーは赤色と黄色である。リゾートの隊列において、赤色は前に位置し、黄色は後に位置し、赤色のデプス値は0.5であり、黄色のデプス値は0.2であり、デプステスティングの比較函数はDF_LEQUALである。そのとき、まずデプスバッファに0.5を入力し、カラーバッファに赤色を入力する。次に黄色をリゾートするとき、比較函数により0.2<0.5を獲得し、テストをパスさせる。それによりデプスバッファの値を0.2に更新し、カラーバッファを黄色に更新する。すなわち黄色のデプスが薄いので、デプスが深い赤色で覆う必要がある。
前記取り除きは、3D空間において、1つの多辺形は2面を有しているが、使用者が背面の多辺形を見ることができない。多辺形の一部分の表面は正面であるが、他の多辺形に遮られるおそれがある。見ることができない多辺形と見ることができる多辺形を同様に処理する場合、画像を処理する効率が低下するおそれがある。その場合、不必要である面を取り除くことができる。取り除き工程により不必要である面を取り除くことができる。例えば背面と/或いは正面を取り除くことができる。
本実施例において、材質が各光線を反射させる反射率を設定し、各光線のカラーウエートにより反射率を設定することができる。例えば自然光線の場合、その自然光線の各カラーウエートは、赤色、黄色、青色であり、赤色の反射率を0.5に設定し、黄色の反射率を0.1に設定し、青色の反射率を0.2に設定することができる。その場合、自然光線により3D模型の表面には一種のカラーと光沢が形成され、異なる光線による各材質の反射属性を示すことができる。
本発明の実施例において、3D特効果を創建するステップはランプを配置するステップを更に含む。前記ランプは、点光源、パラレルライト(Parallel light)およびスポットライトのうちいずれか一種であることができる。前記3種の光源はいずれも、ランプの位置、ランプの方向、ランプのカラーおよびランプの強度を配置する必要がある。ランプを配置した後、ランプを前に配置される3D模型に対応させる。ランプを3D材質の光線の反射率に対応させることにより3D模型の表面に異なるカラーを形成することができる。点光源とスポットライトにランプのフォールオフ半径(Falloff radius)を更に設定することにより実際のランプを真似ることができる。スポットライトである場合、ランプの出射角度とフォールオフ半径を更に設定することができる。ここでそれらを1つずつ説明しない。周知のように、ランプは前記ランプの種類にのみ限定されず、本発明の技術的事項に用いることができるものであればいずれも本発明に導入することができる。
本発明の実施例において、前記3D特効果を創建するステップは前記3D模型の模様を配置するステップを更に含む。具体的に、前記模様のステッカーを獲得するステップと、模様のサラウンドモード(Surround Mode)を配置するステップとを含む。本実施例において、まず模様を示すステッカーを獲得する。通常、導入方法により模様ステッカーを導入することができる。次に模様のサラウンドモードを配置することができる。前記サラウンドモードは3D模型が模様ステッカーより大きいとき模様を処理するモードである。模様を処理するモードにおいて最も簡単なモードは、REPEATモードであり、3D模型が模様ステッカーに完全に覆われるまでに模様ステッカーを貼り付け、そのモードは常用するモードである。他のモードはCLAMP切取りモードであり、模様ステッカーで3D模型を覆うことができない部分は模様ステッカーの辺縁部のカラーで覆う。
ステップS3において、前記3D特効果により特効果パラメーターを形成する。
本発明の実施例において、前記特効果パラメーターはステップS2において3D特効果を創建した後に配置される特効果パラメーターである。前記特効果パラメーターにより3D特効果制作用パラメーターベースを形成し、それを3D特効果を形成するとき用いることができる。そのステップの目的は、3D特効果計算方法に用いられるパラメーターベースを提供し、他のヒューマンフェース画像上に前記3D特効果を付加することにある。
ステップS4において、画像センサーにより認識される第一ヒューマンフェース画像を獲得する。
前記ステップにおいて、カメラにより認識されるヒューマンフェース画像を獲得する。前記ヒューマンフェース画像は実際のヒューマンフェースを認識して獲得するヒューマンフェースであるか或いはカメラで撮影するヒューマンフェースの画像または動画を認識して獲得するヒューマンフェースであることができるが、本発明はそれを限定しない。標準ヒューマンフェース画像と異なっているヒューマンフェース画像であればいずれもよい。
ヒューマンフェース画像を認識するとき、主として、画像においてヒューマンフェースを検出する。ヒューマンフェース検出は、任意の1つの画像または一組の画像の序列において所定の手段によりそれらを検索することにより、すべてのヒューマンフェースの位置と区域を確定する過程であり、かついろいろな画像または画像の序列にヒューマンフェースが存在するかを判断し、かつヒューマンフェースの数量と空間中の分布を確定する過程である。ヒューマンフェースを検出する方法は通常、下記4種がある。(1)知識による方法:典型のヒューマンフェースが含まれる規則ベースを形成し、規則ベース内のヒューマンフェースに番号をつけ、ヒューマンフェースの間の関係によりヒューマンフェースの位置を決める。(2)特徴不変方法:その方法の目的は、姿勢、視角または光線が変化している環境において安定している特徴を検出し、かつその特徴によりヒューマンフェースを確定することにある。(3)テンプレートマッチング方法:いろいろな標準ヒューマンフェースモードが記憶されていることによりいろいろなヒューマンフェースと面部の特徴をそれぞれ示し、入力される画像と記憶されるモードとの間の関係によりヒューマンフェースを検出する。(4)外観による方法:その方法はテンプレートマッチング方法と反対であり、訓練画像ベースにおいて学習をすることによりテンプレートを獲得し、かつそのテンプレートによりヒューマンフェースを検出する。以下、前記4種の方法のうちいずれか1つの方法によりヒューマンフェースを検出する過程を説明する。まず特徴を検出することによりテンプレートを形成する。本実施例において、Haar特徴をヒューマンフェースの検出に用いられるキーポイントとする。Haar特徴は、簡単である矩形の特徴であり、検出の速度が速いという特徴をしている。Haar特徴の計算に用いられる特徴テンプレートは簡単である矩形の組合せを採用し、その矩形の組合せは2個または複数個の同様の矩形で組み合わせられる。特徴テンプレートには黒色の矩形と白色の矩形を含む二種の矩形が含まれている。AdaBoost計算方法により大量のHaar特徴においてキーポイントになることができる一部分の特徴を検出し、その特徴により分類手段を形成する。形成される分類手段により画像中のヒューマンフェースを検出することができる。本実施例の画像は1個または複数個のヒューマンフェースを含むことができる。
前記複数のヒューマンフェース検出計算方法は、いろいろな利点を有しており、適用の範囲も異なっている。異なっている複数の検出計算方法を採用する場合、異なる環境により異なる検出計算方法を採用することができる。例えば、背景の環境が簡単である画像において、検出正確率が高くないが、計算速度が速い計算方法を採用し、背景の環境が複雑である画像において、検出正確率が高いが、計算速度が遅い計算方法を採用することができる。同一の画像において、多種の計算方法により複数回の検出をすることにより検出の正確率を向上させることができる。
ステップS5において、特殊効果パラメーターにより第一ヒューマンフェース画像上に3D特殊効果を形成する。
前記ステップにおいて、ステップS4において形成される特殊効果パラメーターにより、カメラにより認識される第一ヒューマンフェース画像上に標準ヒューマンフェース画像と同様である3D特殊効果を形成し、かつ前記3D特殊効果が第一ヒューマンフェース画像上に位置する位置と標準ヒューマンフェース画像上に位置する位置が一致するようにする。具体的に、前記特殊効果パラメーターはステップS2において3D特殊効果を創建するとき設定するパラメーターを含むことができる。パラメーター中の3D模型の位置により3D特殊効果が第一ヒューマンフェース画像上に位置する位置を確定し、他のパラメーターにより3D特殊効果の属性を確定し、そのパラメーターを3D特殊効果生成計算方法に付加することにより第一ヒューマンフェース画像上に前記3D特殊効果を自動に生成することができる。
画像において複数個のヒューマンフェースを認識して検出するとき、使用者は3D特殊効果を創建する必要がある1個または複数個のヒューマンフェースを選択し、複数個のヒューマンフェースについて同様の処理または異なる処理をすることができる。例えば、3D特殊効果を創建するとき、標準ヒューマンフェースに番号、例えばID1とID2等をつけることができる。その後、ID1とID2標準ヒューマンフェース画像に3D特殊効果をそれぞれ設定することができる。前記3D特殊効果は同様であるか或いは異なることができる。カメラにより複数個のヒューマンフェース画像が認識されるとき、認識の順番により前記複数個のヒューマンフェース画像に3D特殊効果を付加することができる。例えば1号ヒューマンフェースが先に認識されると、1号ヒューマンフェース上にID1標準ヒューマンフェース画像の3D特殊効果を付加し、その後2号ヒューマンフェースが認識されると、2号ヒューマンフェース上にID2標準ヒューマンフェース画像の3D特殊効果を付加することができる。ID1標準ヒューマンフェース画像の3D特殊効果しか創建されていない場合、1号と2号ヒューマンフェース画像上にID1標準ヒューマンフェース画像の3D特殊効果をそれぞれ付加するか或いは1号ヒューマンフェース画像上にのみ3D特殊効果を付加することができる。前記複数個のヒューマンフェース画像は異なる動作により3D特殊効果を獲得することができる。例えば2号ヒューマンフェースが頭を振る動作をするとき、ID2標準ヒューマンフェース画像の3D特殊効果を1号ヒューマンフェース画像上に付加することができる。本発明は動作の種類を限定しない。
本発明の実施例において、前記標準ヒューマンフェース画像上に3D特殊効果を創建し、3D特殊効果を配置することにより3D特殊効果パラメーターを形成することができる。次に、3D特殊効果パラメーターにより実際のヒューマンフェース画像上の3D特殊効果を形成する。従来の技術において、外部の手段により3D特殊効果を形成する必要があるので、使用上の利便性がよくなく、特殊効果を随時に配置することができず、かつ既有の画像または動画にしか位置させることができないので、随時に採集されるヒューマンフェース画像上に3D特殊効果を形成することができない。本発明の実施例において、使用者は3D特殊効果を創建する方法により3D特殊効果を容易に配置するとともに編集することができ、かつ3D特殊効果パラメーターを創建することにより、3D特殊効果形成計算方法において3D特殊効果パラメーターを用いることにより随時に採集されるヒューマンフェース画像上に3D特殊効果を形成することができる。従来の技術と比較してみると、本発明は、3D特殊効果を編集する難易度と編集する時間を大幅に低減し、かつ3D特殊効果を随時に採集されるいずれかのヒューマンフェース画像上に形成することにより使用者の体験を向上させることができる。
他の実施例において、標準ヒューマンフェース画像上にはヒューマンフェース特徴ポイントが含まれている。図2に示すとおり、標準ヒューマンフェース画像を表示するステップS1が実施された後に実施される下記ステップを更に含む。
ステップS11において、参考点選択命令を受信しかつ少なくとも1つの特徴ポイントを選択して参考点とする。
殊効果パラメーターにより第一ヒューマンフェース画像上に3D特殊効果を形成する前記ステップS5は具体的に、前記特殊効果パラメーターと前記参考点により第一ヒューマンフェース画像上に前記3D特殊効果を形成するステップS12を含む。
標準ヒューマンフェース画像の3D特殊効果を画像センサーにより採集される第一ヒューマンフェース画像の3D特殊効果に変換させるとき、マッピング関係を用いる必要がある。マッピング関係が異なることにより追跡方法は固定式3D特殊効果と追跡式3D特殊効果を含む。本発明の実施例において固定式3D特殊効果を用いる。固定式3D特殊効果は、簡単であり、3D特殊効果が画像センサー中に位置する絶対的位置のみを設定すればできる。本実施例において、表示装置と画像センサーの画像採集窓口の画素を1つずつ対応させ、3D特殊効果が表示装置に位置している位置を判断することができる。次に、画像センサーの画像採集窓口により採集される画像の所定の位置に対して3D特殊効果処理をする。そのような3D特殊効果処理方法は、操作が簡単であり、その方法に用いられるパラメーターはいずれも画像採集窓口の位置に係っている。他の実施例において、3D特殊効果画像を形成するとき、まずステップS1において標準ヒューマンフェース画像の特徴ポイントを獲得し、前記特徴ポイントにより前記3D特殊効果がヒューマンフェース画像に位置している位置を確定する。画像センサーにより採集される画像において標準ヒューマンフェース画像に対応する第一ヒューマンフェース画像を検出する。標準ヒューマンフェース画像において確定した位置を第一ヒューマンフェース画像にマッピングさせる。第一ヒューマンフェース画像に対して3D特殊効果処理をすることにより3D特殊効果画像を形成する。本実施例において、3D特殊効果が第一ヒューマンフェース画像に位置している相対的位置を確定する。第一ヒューマンフェース画像が移動するか或いは変化しても、前記3D特殊効果はいつも前記相対的位置に位置していることにより3D特殊効果を追跡する目的を達成することができる。本発明の好適な実施例において、前記標準ヒューマンフェース画像は三角断面を通過し、106個の特徴ポイントを含み、3D特殊効果と特徴ポイントの相対的位置によりヒューマンフェース画像中の相対的位置を確定する。カメラにより採集されるヒューマンフェース画像も三角断面を通過する。カメラ中のヒューマンフェースが移動するか或いは回転するとき、前記3D特殊効果はいつもヒューマンフェースの相対的位置に位置していることにより3D特殊効果を追跡する目的を達成することができる。
前記参考点は相対的な位置を確定する作用を奏し、第一ヒューマンフェース画像上には標準ヒューマンフェース画像上の参考点に対応する特徴ポイントが存在し、前記参考点と第一ヒューマンフェース画像上の特徴ポイントによりマッピング関係が形成される。マッピング関係により3D特効果を第一ヒューマンフェース画像上の所定の位置上に形成することができる。
本実施例において、3D特殊効果は一定の条件を満たすときのみ触発されるとともに表示される。前記触発の条件は使用者の動作、表情、音声または端末装置のパラメーター等であることができる。前記動作は、面部の動作、例えば目を瞬くこと、口を大きく開けること、頭を振ること、うなずくこと、眉毛を動くこと等であることができる。3D特殊効果がメガネの3Dステッカーである場合、それを触発させる条件は目を迅速に2回瞬くことであることができる。その場合、使用者が目を迅速に2回瞬くことが検出されると、使用者の目にメガネの3Dステッカーを表示することができる。前記表情は、愉快、気落ち、憤怒等の表情であることができる。例えば3D特殊効果は涙の3Dステッカーであることができる。その場合、触発条件は気落ちの表情であり、使用者が気落ちの表情をしていることが検出されると、使用者の目の下方に涙の3Dステッカーを表示することができる。触発条件が音声である場合、使用者の音声または周囲の音声が検出されると、所定の3D特殊効果を触発させることができる。前記触発条件が端末装置のパラメーターであるとき、端末装置の各部品のパラメーターを検出することができる。例えば端末装置の姿勢、揺れ等を検出することができる。前記姿勢または揺れにより触発される3D特殊効果についてここで詳細に説明しない。前記触発条件は従来の技術に記載されているいずれかの触発条件であることができる。触発条件は1個または複数個であることができるが、本発明はそれを限定しない。前記触発条件は触発の開始または触発の消失であることができる。触発の開始が触発条件であるとき、所定の3D特殊効果が形成され、触発の開始が触発条件であるとき、所定の3D特殊効果が形成され、触発の消失が触発条件であるとき、所定の3D特殊効果が消える。前記触発条件は触発された後の持続時間を更に含むことができる。すなわち触発条件が形成されかつ所定の時間過ぎると、3D特殊効果が形成されるか或いは消える。
上において、前記順序により前記ヒューマンフェースによる3D特殊効果生成方法の各ステップを説明してきたが、周知のように、前記各ステップの実施順序は前記順序にのみ限定されるものでない。本技術分野の技術者は、前記方法の各ステップを他の順序、並行、交差方式に実施することもできる。前記ヒューマンフェースによる3D特殊効果生成方法は前記ステップのみを含むものでない。本技術分野の技術者は他のステップを追加するか或いは所定のステップを変更させるか或いは取り替えることができ、それらがあっても本発明に含まれることは勿論である。
以下、本発明の実施例に係るヒューマンフェースによる3D特殊効果生成装置を説明する。その装置により前記ヒューマンフェースによる3D特殊効果生成方法中の各ステップを実施することができる。説明を簡単にするため、以下、本発明の実施例に係る部分のみを説明し、説明しない具体的な事項は前記ヒューマンフェースによる3D特殊効果生成方法の実施例を参照することができる。
本発明の実施例においてヒューマンフェースによる3D特殊効果生成装置を提供する。その装置により前記実施例に係るヒューマンフェースによる3D特殊効果生成方法中のいずれかのステップを実施することができる。図3に示すとおり、前記ヒューマンフェースによる3D特殊効果生成装置は、主として、表示モジュール31、3D特殊効果創建モジュール32、特殊効果パラメーター生成モジュール33、ヒューマンフェース画像獲得モジュール34および3D特殊効果形成モジュール35を含む。表示モジュール31は標準ヒューマンフェース画像を表示し、3D特殊効果創建モジュール32は3D特殊効果を形成する。前記3D特殊効果は少なくとも3D模型を配置するか或いは3D模型の材質を配置することにより創建され、前記3D特殊効果は前記標準ヒューマンフェース画像上に位置する。特殊効果パラメーター生成モジュール33は前記3D特殊効果により特殊効果パラメーターを形成し、ヒューマンフェース画像獲得モジュール34は画像センサーにより認識される第一ヒューマンフェース画像を獲得し、3D特殊効果形成モジュール35は特殊効果パラメーターにより第一ヒューマンフェース画像上に3D特殊効果を形成する。
前記ヒューマンフェースによる3D特殊効果生成装置は図1の実施例のヒューマンフェースによる3D特殊効果方法に対応し、前記ヒューマンフェースによる3D特殊効果生成装置の具体的な事項はヒューマンフェースによる3D特殊効果方法の説明を参照することができるので、ここで再び説明しない。
図4に示すとおり、本発明の実施例において、前記ヒューマンフェースによる3D特殊効果生成装置は参考点選択命令を受信しかつ少なくとも1つの特徴ポイントを選択して参考点とする参考点選択モジュール36を更に含むことができる。
前記3D特殊効果形成モジュール35は前記特殊効果パラメーターと前記参考点により前記第一ヒューマンフェース画像上に前記3D特殊効果を形成する。
前記ヒューマンフェースによる3D特殊効果生成装置は図2の実施例のヒューマンフェースによる3D特殊効果方法に対応し、前記ヒューマンフェースによる3D特殊効果生成装置の具体的な事項はヒューマンフェースによる3D特殊効果方法の説明を参照することができるので、ここで再び説明しない。
本発明の実施例において、前記標準ヒューマンフェース画像上に3D特殊効果を創建し、3D特殊効果を配置することにより3D特殊効果パラメーターを形成することができる。次に、3D特殊効果パラメーターにより実際のヒューマンフェース画像上の3D特殊効果を形成する。従来の技術において、外部の手段により3D特殊効果を形成する必要があるので、使用上の利便性がよくなく、特殊効果を随時に配置することができず、かつ既有の画像または動画にしか位置させることができないので、随時に採集されるヒューマンフェース画像上に3D特殊効果を形成することができない。本発明の実施例において、使用者は3D特殊効果を創建する方法により3D特殊効果を容易に配置するとともに編集することができ、かつ3D特殊効果パラメーターを形成することにより、3D特殊効果形成計算方法において3D特殊効果パラメーターを用いることにより随時に採集されるヒューマンフェース画像上に3D特殊効果を形成することができる。従来の技術と比較してみると、本発明は、3D特殊効果を編集する難易度と編集する時間を大幅に低減し、かつ3D特殊効果を随時に採集されるいずれかのヒューマンフェース画像上に形成することにより使用者の体験を向上させることができる。
図5は本発明の実施例に係る電子装置を示すブロックダイアグラムである。図5に示すとおり、本発明の実施例に係る電子装置50は記憶装置51と処理装置52を含む。
前記記憶装置51は非過渡性コンピュータ読み取り可能な指令を記憶させる。具体的に、記憶装置51は1個または複数個のコンピュータープログラムを含み、前記コンピュータープログラムはいろいろな形態のコンピュータ読み取り可能な記憶媒体、例えば揮発性メモリーと/或いは不揮発性メモリーに記憶されることができる。前記揮発性メモリーは例えば、ランダムアクセスメモリー(RAM)と/或いはキャッシュメモリー(cache)等を含むことができる。前記不揮発性メモリーは例えば、リードオンリーメモリー(ROM)、ハードディスク、フラッシュメモリー等を含むことができる。
前記処理装置52は、中央処理ユニット(CPU)であるか或いはデータ処理機能と/或いは指令実行機能を有している他の形態の処理ユニットであり、電子装置50中の他のモジュールが所望の機能を実行することを制御することができる。本発明の実施例において、前記処理装置52は、前記記憶装置51に記憶されている前記コンピュータ読み取り可能な指令を実行することにより、前記電子装置50が本発明の実施例のヒューマンフェースによる3D特殊効果生成方法のすべてまたは一部分のステップを実施するようにすることができる。
本技術分野の技術者が知っているとおり、使用者の使用体験を向上させる技術的問題を解決するため、本実施例の電子装置は、通信バス、インターフェース等の周知の構造を更に含むことができ、前記周知の構造が本発明の特許請求の範囲に含まれることは勿論である。
本実施例に対する詳細な説明は前記各実施例中の所定の説明を参照することができるので、ここで再び説明しない。
図6は本発明の実施例に係るコンピュータ読み取り可能な記憶媒体を示す図である。図6に示すとおり、本発明の実施例に係るコンピュータ読み取り可能な記憶媒体60は非過渡性コンピュータ読み取り可能な指令61を記憶させる。処理装置で前記非過渡性コンピュータ読み取り可能な指令61を実行することにより、本発明の実施例に係るヒューマンフェースによる3D特殊効果生成方法のすべてまたは一部分のステップを実施することができる。
前記コンピュータ読み取り可能な記憶媒体60は、光記憶媒体(例えばCD-ROMとDVD)、光磁気記録媒体(例えばMO)、磁気記録媒体(例えばテープまたはポータブルハードドライブ)、内部に設けられる書き換え可能な不揮発性メモリーを具備する媒体(例えばメモリーカード)、内部にROMが設けられる媒体(例えばROM装置)を含むことができるが、本発明はそれらにのみ限定されるものでない。
本実施例に対する詳細な説明は前記各実施例中の所定の説明を参照することができるので、ここで再び説明しない。
図7は本発明の実施例に係る端末装置のハードウェアを示す構造図である。図7に示すとおり、前記ヒューマンフェースによる3D特殊効果を生成する端末装置70は前記実施例のヒューマンフェースによる3D特殊効果生成方法を含む。
前記端末装置はいろいろな形態により実施されることができる。本発明の端末装置は、例えば携帯電話、スマートフォン、ノートパソコン、デジタル放送受信装置、PDA(携帯情報端末)、PAD(タブレット)、PMP(ポータブルメディアプレーヤー)、ナビゲーション、車用端末装置、車用表示端末、車用電子ミラー等の携帯式端末装置と、例えばデジタルTV、デスクトップコンピュータ等の非携帯式端末装置を含むことができるが、本発明はそれらにのみ限定されるものでない。
他の実施例において、前記端末装置は他のモジュールを更に含むことができる。図7に示すとおり、前記画像特殊効果の処理に用いられる端末装置70は、電源ユニット71、無線通信ユニット72、A/V(オーディオ/ビデオ)入力ユニット73、使用者入力ユニット74、検出ユニット75、接続ユニット76、制御装置77、出力ユニット78および記憶ユニット79等を含むことができる。注意されたいことは、図7には各モジュールを具備する端末が示されているが、本発明は、示されているすべてのモジュールを含まなくてもよく、一部分のモジュールを取り替えるか或いはより少ないモジュールを含むことができる。
無線通信ユニット72は端末装置70と無線通信システムまたはインターネットとの間の無線通信を実施する。A/V入力ユニット73はオーディオまたはビデオ信号を受信する。使用者入力ユニット74は使用者が入力する命令によりキーボード入力データを形成しかつそれにより端末装置の各操作を制御する。検出ユニット75は端末装置70の現在の状態、端末装置70の位置、使用者が端末装置70をタッチすることの有無、端末装置70の傾向、端末装置70の加速移動または減速移動と方向等を検出し、端末装置70を制御して操作する指令または信号を形成する。接続ユニット76は少なくとも1個の外部装置と端末装置70を接続させるインターフェースになることができる。出力ユニット78は視覚、オーディオと/或いは触覚形態の出力信号を出力するように構成される。記憶ユニット79は制御装置77により実行されかつ処理と制御操作に関するソフトウェアプログラムを記憶させるか或いは既に出力されるか或いは間もなく出力されるデータを暫時記憶させることができる。記憶ユニット79は少なくとも1つの類型の記憶媒体を含むことができる。端末装置70はネットワークにより記憶ユニット79に接続されかつ記憶ユニット79の記憶機能を採用するネットワーク記憶装置と協力することができる。制御装置77は通常、端末装置の全体の操作を制御する。制御装置77は、マルチメディアデータの再生またはプレーバックを制御するマルチメディアモジュールを含むことができる。制御装置77はモード認識処理をすることにより、タッチパネルに入力したハンドライティングインプットまたはドローイングインプットを認識してキャラクターまたは画像を形成することができる。電源ユニット71は制御装置77の制御により外部電力または内部電力を受信しかつそれを各部品とモジュールに提供する電力を供給する。
本発明に係るヒューマンフェースによる3D特殊効果生成方法の各実施例は例えば、コンピュータのソフトウェア、ハードウェア、任意に組み立てられるコンピュータ読み取り可能な記憶媒体がにより実施されることができる。本発明において提供するヒューマンフェースによる3D特殊効果生成方法の各実施例は、アプリケーション固有集積回路(Application Specific Integrated Circuit、ASIC)、デジタルシグナルプロセッサ(DSP)、デジタル信号処理装置(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、処理装置、制御装置、マイクロコントローラ、マイクロプロセッサ、本発明の機能を実施できる電子ユニットのうち少なくとも一種により実施されることができる。他の実施例において、本発明に係るヒューマンフェースによる3D特殊効果生成方法の各実施例は制御装置77により実施されることができる。ソフトウェアにより実施する場合、本発明に係るヒューマンフェースによる3D特殊効果生成方法の各実施例は少なくとも一種の機能または操作をする1つのソフトウェアモジュールにより実施されることができる。ソフトウェアコードは適合なプログラミングランゲージにより編集されるソフトウェアアプリケーション(プログラム)により実施されることができ、フトウェアコードは記憶ユニット79に記憶されかつ制御装置77により実施されることができる。
本実施例に対する詳細な説明は前記各実施例中の所定の説明を参照することができるので、ここで再び説明しない。
以上、具体的な実施例により本発明の基本的な原理を説明してきたが、注意されたいことは、上で公開した本発明の利点、優勢、効果等は、本発明の例示にしか過ぎないものであり、かつ本発明を限定するものでないため、本発明の各実施例は前記利点、優勢、効果等を必ず具備する必要はない。また、上で公開した前記具体的な細部は、本発明の例示にしか過ぎないものであり、かつ本発明を理解させるためのものであるが、本発明を限定するものでない。前記細部が公開されているが、本発明は前記細部のみにより実施されるものでない。
本発明の部品、装置、設備、システムを示すブロックダイアグラムは本発明の例示にしか過ぎないものであり、本発明の部品、装置、設備、システムをブロックダイアグラムの順にのみ連結、位置、配置させる意図は全然ない。本技術分野の技術者は常識により本発明の前記部品、装置、設備、システムを自由に連結、位置、配置させることができる。本発明中の「含む」、「包含する」、「具備する」という用語は開放的な用語であるので、「複数の事項を具備しているが、それらにのみ限定されるものでない」ということを意味し、その用語を交換して用いることができる。本発明において用いる「或いは」および「と」という用語は「と/或いは」ということを意味し、その用語を交換して用いることができる。特別な説明がない限り、「或いは」および「と」という用語は「と/或いは」ということを意味する。本発明において用いる「例えば」という用語は「複数の事項を具備しているが、それらにのみ限定されるものでない」ということを意味し、その事項を交換して用いることができる。
本発明において用いる「少なくとも1つ」という用語は、含まれる事項が選択可能な状態(例えば或いは、または等)に列挙されていることを意味する。例えば、「A、BまたはCのうち少なくとも1つ」という用語は、AまたはBまたはCを意味するか或いは、ABまたはABまたはBCを意味するか或いは、ABC(すなわちAとBとC)を意味することができる。また、「例示的」という用語は、それが好適な実施例または他の実施例よりよいことを意味するものでない。
注意されたいことは、本発明のシステムと方法において、各部品または各ステップを分解と/或いは再び組み合わせることができる。前記分解と/或いは再び組み合わせるシステムと方法により本発明と同様な効果を獲得することができる。
本発明の特許請求の範囲が定めた技術的範囲を逸脱しない範囲において、本発明の技術的事項を変更、交換、改良することができる。本発明の特許請求の範囲が定めた技術的範囲は、前記処理、装置、製造、事項の組合せ、手段、方法および動作に係る具体的な実施例にのみ限定されるものでない。本発明の所定の事項により同様の機能を実現するか或いは同様の結果による現在の存在を獲得するか或いは後で処理する処理、装置、製造、事件の組合せ、手段、方法および動作をすることができる。すなわち、本発明の特許請求の範囲が定めた技術的範囲内において、前記処理、装置、製造、事件の組合せ、手段、方法および動作をすることができる。
本発明が公開する前記事項により本技術分野の技術者は本発明を実施するか或いは本発明を用いることができる。本発明が定めた技術的範囲を逸脱しない限り、本技術分野の技術者は本発明が公開する事項により本発明を容易に変更し、本発明が定めた一般的な原理を他の実施例に採用することができる。本発明は、前記具体的な実施例にのみ限定されるものでなく、本発明の原理と新規の特徴が含まれるあらゆる実施例を含むことができる。
以上、本発明を説明するため前記実施例により本発明を説明してきたが、前記実施例は本発明の例示にしか過ぎないものであるため、本発明は前記実施例の構成にのみ限定されるものでない。以上、本発明の複数の例示と実施例を説明してきたが、本技術分野の技術者は本発明の要旨を逸脱しない範囲において、変更、修正、改良、添加および組合せをすることができる。

Claims (9)

  1. 標準ヒューマンフェース画像を表示するステップと、
    3D特効果を創建するステップであって、前記3D特効果は少なくとも3D模型を配置するか或いは3D模型の材質を配置することにより創建され、前記3D特殊効果は前記標準ヒューマンフェース画像上に位置するステップと、
    前記3D特効果により特効果パラメーターを形成するステップと、
    画像センサーにより認識される第一ヒューマンフェース画像を獲得するステップと、
    殊効果パラメーターにより第一ヒューマンフェース画像上に3D特殊効果を形成するステップとを含み、
    前記3D模型の材質を配置することは前記材質を創建しかつ前記材質のパラメーターを調節するステップを含み、
    前記材質のパラメーターは、リゾート混合モードのパラメーター、デプステスティングの起動の有無のパラメーター、デプスディスクリプションの起動の有無のパラメーター、取り除きの起動の有無のパラメーターのうちいずれか1個または複数個を含むことを特徴とするヒューマンフェースによる3D特殊効果生成方法。
  2. 前記3D模型を配置することは、
    前記3D模型を獲得した後、それを標準ヒューマンフェース画像上に表示するステップと、
    前記3D模型の位置とサイズを配置するステップとを含むことを特徴とする請求項1に記載のヒューマンフェースによる3D特殊効果生成方法。
  3. 前記3D特効果を創建するステップはランプを配置するステップを更に含み、前記ランプは、点光源、パラレルライトおよびスポットライトのうちいずれか一種であることを特徴とする請求項1に記載のヒューマンフェースによる3D特殊効果生成方法。
  4. 前記ランプを配置するステップは、ランプの位置、方向、カラーおよび強度を配置することを含むことを特徴とする請求項に記載のヒューマンフェースによる3D特殊効果生成方法。
  5. 前記3D特効果を創建するステップは前記3D模型の模様を配置するステップを更に含み、
    前記3D模型の模様を配置するステップは、前記模様のステッカーを獲得するステップと、模様のサラウンドモードを配置するステップとを含むことを特徴とする請求項1に記載のヒューマンフェースによる3D特殊効果生成方法。
  6. 前記標準ヒューマンフェース画像にはヒューマンフェース特徴ポイントが含まれ、前記標準ヒューマンフェース画像を表示するステップが実施された後、参考点選択命令を受信しかつ少なくとも1つの特徴ポイントを選択して参考点とするステップを更に含み、
    殊効果パラメーターにより第一ヒューマンフェース画像上に3D特殊効果を形成するステップは前記特殊効果パラメーターと参考点により第一ヒューマンフェース画像上に前記3D特殊効果を形成するステップを含むことを特徴とする請求項1に記載のヒューマンフェースによる3D特殊効果生成方法。
  7. 標準ヒューマンフェース画像を表示する表示モジュールと、
    3D特殊効果を創建する3D特殊効果形成モジュールであって、前記3D特殊効果は少なくとも3D模型を配置するか或いは3D模型の材質を配置することにより創建され、前記3D特殊効果は前記標準ヒューマンフェース画像上に位置する3D特殊効果形成モジュールと、
    前記3D特殊効果により特殊効果パラメーターを形成する特殊効果パラメーター生成モジュールと、
    画像センサーにより認識される第一ヒューマンフェース画像を獲得するヒューマンフェース画像獲得モジュールと、
    殊効果パラメーターにより第一ヒューマンフェース画像上に3D特殊効果を形成する3D特殊効果形成モジュールとを含み、
    前記3D模型の材質を配置することは前記材質を創建しかつ前記材質のパラメーターを調節するステップを含み、
    前記材質のパラメーターは、リゾート混合モードのパラメーター、デプステスティングの起動の有無のパラメーター、デプスディスクリプションの起動の有無のパラメーター、取り除きの起動の有無のパラメーターのうちいずれか1個または複数個を含むことを特徴とするヒューマンフェースによる3D特殊効果生成装置。
  8. 少なくとも1つの処理装置と前記少なくとも1つの処理装置に通信可能に連結される記憶装置とを含み、
    前記少なくとも1つの処理装置には前記少なくとも1つの処理装置により実行される指令が記憶されており、前記指令が前記少なくとも1つの処理装置により実行されることにより前記処理装置は前記請求項1~のいずれか一項に記載のヒューマンフェースによる3D特殊効果生成方法を実施することを特徴とする電子装置。
  9. コンピュータ指令が記憶されており、コンピュータで前記コンピュータ指令を実行することにより前記請求項1~のいずれか一項に記載のヒューマンフェースによる3D特殊効果生成方法を実施することを特徴とする非過渡性コンピュータ読み取り可能な記憶媒体。
JP2020571659A 2018-07-27 2018-12-25 ヒューマンフェースによる3d特殊効果生成方法、装置および電子装置 Active JP7168694B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810838414.X 2018-07-27
CN201810838414.XA CN109147023A (zh) 2018-07-27 2018-07-27 基于人脸的三维特效生成方法、装置和电子设备
PCT/CN2018/123641 WO2020019665A1 (zh) 2018-07-27 2018-12-25 基于人脸的三维特效生成方法、装置和电子设备

Publications (2)

Publication Number Publication Date
JP2021528770A JP2021528770A (ja) 2021-10-21
JP7168694B2 true JP7168694B2 (ja) 2022-11-09

Family

ID=64798161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020571659A Active JP7168694B2 (ja) 2018-07-27 2018-12-25 ヒューマンフェースによる3d特殊効果生成方法、装置および電子装置

Country Status (5)

Country Link
US (1) US11276238B2 (ja)
JP (1) JP7168694B2 (ja)
CN (1) CN109147023A (ja)
GB (1) GB2589505B (ja)
WO (1) WO2020019665A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903375B (zh) * 2019-02-21 2023-06-06 Oppo广东移动通信有限公司 模型生成方法、装置、存储介质及电子设备
CN110401801A (zh) * 2019-07-22 2019-11-01 北京达佳互联信息技术有限公司 视频生成方法、装置、电子设备及存储介质
CN110570505B (zh) * 2019-09-11 2020-11-17 腾讯科技(深圳)有限公司 一种图像渲染方法、装置、设备及存储介质
CN111242881B (zh) * 2020-01-07 2021-01-12 北京字节跳动网络技术有限公司 显示特效的方法、装置、存储介质及电子设备
CN111428665B (zh) * 2020-03-30 2024-04-12 咪咕视讯科技有限公司 一种信息确定方法、设备及计算机可读存储介质
CN111833461B (zh) * 2020-07-10 2022-07-01 北京字节跳动网络技术有限公司 一种图像特效的实现方法、装置、电子设备及存储介质
CN113096225B (zh) * 2021-03-19 2023-11-21 北京达佳互联信息技术有限公司 一种图像特效的生成方法、装置、电子设备及存储介质
CN114494556A (zh) * 2022-01-30 2022-05-13 北京大甜绵白糖科技有限公司 一种特效渲染方法、装置、设备及存储介质
CN116188640B (zh) * 2022-12-09 2023-09-08 北京百度网讯科技有限公司 三维虚拟形象的生成方法、装置、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077410A (ja) 2006-09-21 2008-04-03 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2009053981A (ja) 2007-08-28 2009-03-12 Kao Corp 化粧シミュレーション装置
JP2015185176A (ja) 2014-03-25 2015-10-22 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 現実環境の視野におけるバーチャルオブジェクトを表現方法及びシステム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003295586B2 (en) * 2002-11-15 2009-05-07 Warner Bros. Entertainment Inc. Method for digitally rendering skin or like materials
US7324117B1 (en) * 2004-03-29 2008-01-29 Nvidia Corporation Method and apparatus for using non-power of two dimension texture maps
KR100873638B1 (ko) * 2007-01-16 2008-12-12 삼성전자주식회사 영상 처리 방법 및 장치
CN101452582B (zh) * 2008-12-18 2013-09-18 北京中星微电子有限公司 一种实现三维视频特效的方法和装置
JP6258923B2 (ja) * 2012-05-02 2018-01-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3d映像を処理するための品質メトリク
CN102800130B (zh) 2012-07-04 2014-08-20 哈尔滨工程大学 一种近水面飞行器机动飞行视景仿真方法
US9245358B2 (en) * 2014-05-30 2016-01-26 Apple Inc. Systems and methods for generating refined, high fidelity normal maps for 2D and 3D textures
US9817248B2 (en) * 2014-12-23 2017-11-14 Multimedia Image Solution Limited Method of virtually trying on eyeglasses
CN105354872B (zh) * 2015-11-04 2018-02-27 深圳墨麟科技股份有限公司 一种基于3d网页游戏的渲染引擎、实现方法及制作工具
CN106341720B (zh) * 2016-08-18 2019-07-26 北京奇虎科技有限公司 一种在视频直播中添加脸部特效的方法及装置
CN108073669A (zh) 2017-01-12 2018-05-25 北京市商汤科技开发有限公司 业务对象展示方法、装置和电子设备
CN108062791A (zh) 2018-01-12 2018-05-22 北京奇虎科技有限公司 一种重建人脸三维模型的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077410A (ja) 2006-09-21 2008-04-03 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2009053981A (ja) 2007-08-28 2009-03-12 Kao Corp 化粧シミュレーション装置
JP2015185176A (ja) 2014-03-25 2015-10-22 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 現実環境の視野におけるバーチャルオブジェクトを表現方法及びシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
仲 祥平 Syohei Naka,Augmented Mirror:鏡の中の拡張現実感 Augmented Mirror:Augmented Reality in the Mirror World,ヒューマンインタフェース学会研究報告集 Vol.3 No.2 Correspondences on Human Interface,日本,ヒューマンインタフェース学会 Human Interface Society,2001年06月11日,第3巻

Also Published As

Publication number Publication date
GB2589505A (en) 2021-06-02
CN109147023A (zh) 2019-01-04
US20210035369A1 (en) 2021-02-04
WO2020019665A1 (zh) 2020-01-30
GB2589505B (en) 2023-01-18
US11276238B2 (en) 2022-03-15
GB202100222D0 (en) 2021-02-24
JP2021528770A (ja) 2021-10-21

Similar Documents

Publication Publication Date Title
JP7168694B2 (ja) ヒューマンフェースによる3d特殊効果生成方法、装置および電子装置
US11354825B2 (en) Method, apparatus for generating special effect based on face, and electronic device
US12045925B2 (en) Computing images of head mounted display wearer
JP7137804B2 (ja) ジェスチャベースインタラクションのための方法およびシステム
US10394334B2 (en) Gesture-based control system
US8692830B2 (en) Automatic avatar creation
JP7268071B2 (ja) バーチャルアバターの生成方法及び生成装置
US11670027B2 (en) Automated dance animation
US8976182B2 (en) Facial sketch creation device, configuration information generation device, configuration information generation method, and storage medium
US20240013467A1 (en) Management of pseudorandom animation system
CN109064387A (zh) 图像特效生成方法、装置和电子设备
Maynes-Aminzade et al. Eyepatch: prototyping camera-based interaction through examples
WO2020019664A1 (zh) 基于人脸的形变图像生成方法和装置
CN109064388A (zh) 人脸图像效果生成方法、装置和电子设备
WO2023250361A1 (en) Generating user interfaces displaying augmented reality graphics
US10825258B1 (en) Systems and methods for graph-based design of augmented-reality effects
Taraghi et al. Object detection using Google Glass
Bai Mobile augmented reality: Free-hand gesture-based interaction
US20240171782A1 (en) Live streaming method and system based on virtual image
US20240282058A1 (en) Generating user interfaces displaying augmented reality graphics
Malerczyk Gestural interaction using feature classification
Khurana et al. Gesture Recognition
CN113542598A (zh) 图像处理方法、装置、电子设备及可读存储介质
CN112822396A (zh) 一种拍摄参数的确定方法、装置、设备及存储介质
Comite Computer Vision and Human-Computer Interaction: artificial vision techniques and use cases with creating interfaces and interaction models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221027

R150 Certificate of patent or registration of utility model

Ref document number: 7168694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150