JP7483940B2 - 顔イメージ生成方法、装置、電子機器及び可読記憶媒体 - Google Patents

顔イメージ生成方法、装置、電子機器及び可読記憶媒体 Download PDF

Info

Publication number
JP7483940B2
JP7483940B2 JP2022567137A JP2022567137A JP7483940B2 JP 7483940 B2 JP7483940 B2 JP 7483940B2 JP 2022567137 A JP2022567137 A JP 2022567137A JP 2022567137 A JP2022567137 A JP 2022567137A JP 7483940 B2 JP7483940 B2 JP 7483940B2
Authority
JP
Japan
Prior art keywords
facial
target user
target
image
facial expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022567137A
Other languages
English (en)
Other versions
JP2023524119A (ja
Inventor
靈趨 歐陽
迪凡 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Publication of JP2023524119A publication Critical patent/JP2023524119A/ja
Application granted granted Critical
Publication of JP7483940B2 publication Critical patent/JP7483940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

(関連出願の相互参照)
本出願は、2020年5月9日に中国で提出された中国特許出願番号No.202010386661.8の優先権を主張しており、同出願の内容のすべては、参照によりここに組み込まれている。
本出願の実施例は、通信分野に関し、具体的には、顔イメージ生成方法、装置、電子機器及び可読記憶媒体に関する。
従来の拡張現実(Augmented Reality、AR)技術を利用してインタラクションを行うシーンにおいて、ユーザはARデバイスを着用する必要があり、このARデバイスがユーザの顔を隠すことによってユーザの顔が見えなくなり、互いの身分を見分けにくくなる。現在の処理方式として、予め録画された仮想イメージ及びユーザ動作に対するキャプチャによってユーザイメージの入れ替えを行うが、予め設定される仮想イメージは、相対的に固定されており、また、顔は、簡単な発話動作しか備えておらず、表情を出すことができないので、ユーザのARインタラクション体験は、比較的に悪くなる。
本出願の実施例の目的は、従来のARインタラクションシーンにおいて、ユーザの顔イメージを示すことができないため、ARインタラクション体験が比較的に悪いという問題を解決することができる顔イメージ生成方法、装置、電子機器及び可読記憶媒体を提供することである。
上記技術問題を解決するために、本出願は、以下のように実現される。
第一の態様によれば、本出願の実施例は、電子機器に用いられる顔イメージ生成方法を提供する。前記方法は、
ARデバイスを着用しているターゲットユーザの顔輪郭を取得することと、
前記顔輪郭に基づいて前記ターゲットユーザの、前記ターゲットユーザの顔向きと前記電子機器との間の角度を含む顔角度を決定することと、
ターゲット顔表情を取得することと、
前記ターゲット顔表情と前記顔角度に基づき、前記ターゲットユーザの顔イメージを生成することとを含む。
第二の態様によれば、本出願の実施例は、電子機器に用いられる顔イメージ生成装置を提供する。前記顔イメージ生成装置は、
ARデバイスを着用しているターゲットユーザの顔輪郭を取得するための第一の取得モジュールと、
前記顔輪郭に基づいて前記ターゲットユーザの、前記ターゲットユーザの顔向きと前記電子機器との間の角度を含む顔角度を決定するための決定モジュールと、
ターゲット顔表情を取得するための第二の取得モジュールと、
前記ターゲット顔表情と前記顔角度に基づき、前記ターゲットユーザの顔イメージを生成するための生成モジュールとを含む。
第三の態様によれば、本出願の実施例は、電子機器を提供する。前記電子機器は、プロセッサと、メモリと、前記メモリに記憶され且つ前記プロセッサ上で運行できるプログラム又は命令とを含み、前記プログラム又は命令が前記プロセッサにより実行される時、第一の態様に記載の顔イメージ生成方法のステップを実現する。
第四の態様によれば、本出願の実施例は、可読記憶媒体を提供する。前記可読記憶媒体には、プログラム又は命令が記憶され、前記プログラム又は命令がプロセッサにより実行される時、第一の態様に記載の顔イメージ生成方法のステップを実現する。
第五の態様によれば、本出願の実施例は、チップを提供する。前記チップは、プロセッサと通信インターフェースとを含み、前記通信インターフェースは、前記プロセッサと結合され、前記プロセッサは、プログラム又は命令を運行し、第一の態様に記載の方法を実現するために用いられる。
第六の態様によれば、本出願の実施例は、コンピュータソフトウェア製品を提供する。前記コンピュータソフトウェア製品は、不揮発性の記憶媒体に記憶され、前記ソフトウェア製品は、少なくとも一つのプロセッサによって実行されて第一の態様に記載の顔イメージ生成方法のステップを実現するように構成される。
第七の態様によれば、本出願の実施例は、顔イメージ生成装置を提供する。前記顔イメージ生成装置は、第一の態様に記載の顔イメージ生成方法を実行するために用いられるように構成される。
本発明の実施例では、ARデバイスを着用しているターゲットユーザの顔輪郭に基づき、このターゲットユーザの顔角度を決定し、ターゲットユーザの顔角度と取得されたターゲット顔表情に基づいてこのターゲットユーザの顔イメージを生成する。このようにARインタラクションを行う場合、ユーザの顔イメージを示すことができ、且つ異なるターゲット顔表情に基づき、ユーザが異なる表情で表現し、ARインタラクション体験を向上させることができる。
本出願の実施例による顔イメージ生成方法のフローチャートである。 本出願の実施例による応用シーン概略図のその一である。 本出願の実施例による応用シーン概略図のその二である。 本出願の実施例による顔イメージ生成装置の構造概略図である。 本出願の実施例による電子機器の構造概略図である。
以下は、本出願の実施例における図面を結び付けながら、本出願の実施例における技術案を明瞭且つ完全に記述する。明らかに、記述された実施例は、本発明の一部の実施例であり、すべての実施例ではない。本発明における実施例に基づき、当業者が創造的な労力を払わない前提で得られたすべての他の実施例は、いずれも本発明の保護範囲に属する。
本出願の明細書と特許請求の範囲における用語である「第一の」、「第二の」などは、類似している対象を区別するために用いられ、特定の順序又は前後手順を記述するためのものではない。理解すべきこととして、このように使用されるデータは、適切な場合に交換可能であり、それにより本出願の実施例は、ここで図示又は記述されたもの以外の順序で実施されることが可能である。なお、明細書及び請求項における「及び/又は」は、接続される対象のうちの少なくとも一つを表し、文字である「/」は、一般的には前後関連対象が「又は」の関係にあることを表す。
以下では、図面を結び付けながら、具体的な実施例及びその応用シーンによって本出願の実施例による顔イメージ生成方法を詳細に説明する。
本出願の実施例では、ARインタラクションシーンは、ARに基づく会議であってもよく、即ち参加者は、ARデバイスを着用することで会議の討論とインタラクションを行い、又はARインタラクションシーンは、リモートなロールプレイングゲーム、又は別の場所にいる子供に物語を話すなどのカジュアルなシーンであってもよい。
本出願の実施例では、電子機器に用いられる顔イメージ生成方法を提供する。
上記電子機器は、カメラを有する機器であり、カメラで取得した画像に基づき、AR技術を結びつけてARインタラクションを行い、この電子機器は、ARデバイス、例えばAR眼鏡などであってもよく、この電子機器は、携帯電話、コンピュータなどであってもよく、本出願の実施例は、電子機器の具体的なタイプに対して限定しない。
図1を参照すると、この方法は、以下のステップを含む。
ステップ101:ARデバイスを着用しているターゲットユーザの顔輪郭を取得する。
本出願の実施例では、ターゲットユーザとは、ARインタラクションを行う対象であり、例えば、AR会議では、ターゲットユーザは、ARデバイスを着用している発言者であってもよい。具体的には、ターゲットユーザの顔輪郭を取得する方式は、様々含んでもよく、例えば、カメラ付きのARデバイスによって取得されてもよく、又はカメラ付きの携帯電話、コンピュータなどの機器によって取得されてもよく、又は一つのカメラを個別に設置することによってターゲットユーザの顔輪郭を録画してから、録画された画像を表示のための装置に伝送してもよい。
いくつかの実施の形態では、ARデバイスを着用しているターゲットユーザの顔輪郭を取得することは、具体的に、
カメラによってターゲットユーザの顔イメージを取得し、カメラとターゲットユーザの顔との最近接点から、この最近接点に予め設定される距離を加えた被写界深度の範囲内に、複数回の異なる被写界深度の輪郭撮像を行ってから、得られた複数の輪郭画像を重ねてこのターゲットユーザの顔輪郭を得ることを含む。
本出願の実施例では、顔の最近接点とは、カメラによってターゲットユーザの顔イメージを取得する際に、ターゲットユーザの顔がカメラに最も近い点を指し、例えば、ターゲットユーザの顔がカメラに正対する場合、顔の最近接点は、ターゲットユーザの鼻先の位置に対応する。上記予め設定される距離は、ターゲットユーザのヘッド幅の距離に対応し、このヘッド幅の距離は、人の平均的なヘッド幅に基づいて設定されてもよい。
顔の最近接点から顔の最近接点にヘッド幅を加える被写界深度の範囲内で、複数の異なる被写界深度における輪郭画像をそれぞれ取得してから、異なる被写界深度における輪郭画像に基づいて重ねて合成し、このように相対的に正確なターゲットユーザの顔輪郭を得ることができ、この顔輪郭は、ターゲットユーザの顔形状、及び顔向き角度を表現することができる。
ステップ102:顔輪郭に基づいてターゲットユーザの顔角度を決定する。
本出願の実施例では、顔角度は、ターゲットユーザの顔向きと電子機器との間の角度を含む。顔角度は、ターゲットユーザの顔の電子機器に対する顔姿勢を反映するために用いられ、例えば、ターゲットユーザの顔輪郭に基づき、ターゲットユーザの顔向きが電子機器の正対方向に対して30度上がったと決定した場合、このときのターゲットユーザの顔姿勢が30度の仰向けであることを反映させることができる。さらに、より複雑な顔角度について、例えば、ターゲットユーザの顔が斜めに傾っている場合、ターゲットユーザの顔向きの電子機器に対する複数の方向(例えば水平と垂直方向)での偏向角度によって、従来の空間角度アルゴリズムに基づいてターゲットユーザの顔角度を計算することができる。
いくつかの実施の形態では、顔輪郭に基づいてターゲットユーザの顔角度を決定することは、具体的に、顔輪郭データベースで顔輪郭に対応する顔角度を照合することを含む。ここで、顔輪郭データベースには、複数の顔角度から予め録画されたターゲットユーザの顔輪郭が含まれる。
本出願の実施例では、複数の角度からターゲットユーザの顔輪郭を予め録画することができ、録画された顔輪郭に基づいて一つの顔輪郭データベースを生成し、この顔輪郭データベースにおいて異なる顔輪郭が異なる顔角度にそれぞれ対応し、このようにターゲットユーザの顔輪郭を取得した後、顔輪郭データベースにおいて対応する顔角度を直接照合することができる。
ステップ103:ターゲット顔表情を取得する。
本出願の実施例では、ターゲット顔表情とは、ターゲットユーザの顔イメージを生成するための顔表情を指し、このターゲット顔表情は、ターゲットユーザの表情であってもよく、他のユーザの表情であってもよく、ネットワークからいくつかのアニメイメージを取得する表情であってもよい。
ステップ104:ターゲット顔表情と顔角度に基づき、ターゲットユーザの顔イメージを生成する。
本出願の実施例では、選ばれたターゲット顔表情を決定された顔角度に応じてターゲットユーザの顔イメージを生成し、このように生成された顔イメージの角度とターゲットユーザの現在の顔角度との一致性を保つことができ、顔イメージをターゲットユーザの顔により近づけることができる。
本発明の実施例では、ARデバイスを着用しているターゲットユーザの顔輪郭に基づき、このターゲットユーザの顔角度を決定し、ターゲットユーザの顔角度と取得されたターゲット顔表情に基づいてこのターゲットユーザの顔イメージを生成する。このようにARインタラクションを行う場合、ユーザの顔イメージを示すことができ、且つ異なるターゲット顔表情に基づき、ユーザが異なる表情で表現できるようにし、ARインタラクション体験を向上させることができる。
選択的に、いくつかの実施の形態では、上記ターゲット顔表情を取得することは、具体的に、ARデバイスによって録画されたターゲットユーザの顔表情を取得することを含む。
本出願の実施例では、ターゲットユーザが着用しているARデバイス自体が画像取得機能を有し、例えば、このARデバイスがカメラ付きのAR眼鏡である場合、ターゲットユーザが着用しているARデバイスにより、ターゲットユーザの顔表情へのリアルタイムな記録走査を直接実行し、録画された顔表情をターゲット顔表情として、ターゲットユーザの顔イメージを生成するために用いられることができる。
選択的に、いくつかの実施の形態では、上述した、ターゲット顔表情を取得することは、具体的に、ターゲットユーザの入力情報を取得し、入力情報の文脈に基づき、顔表情データベースから文脈に対応する顔表情を照合することを含む。ここで、顔表情データベースには、複数の顔角度での様々な顔表情が含まれる。
本出願の実施例では、ターゲットユーザが着用しているARデバイス自体が画像取得機能を有しない場合、ターゲットユーザの様々な角度での様々な表情、例えば、無表情、怒り、楽しさ、憂鬱、悲しさ、真面目、疑問などの表情を予め録画し、それに応じて表情ごとに対応するラベルを設定することができる。
ARインタラクションを行う場合、ターゲットユーザの入力情報を取得し、この入力情報は、ターゲットユーザにより入力された文字であってもよく、ターゲットユーザにより入力されたボイスであってもよく、入力情報に基づいて文脈識別を行ってから、文脈に応じて顔表情データベースから対応するラベルを選び、対応する顔表情を照合してもよい。例えば、ターゲットユーザが「今日は楽しかった」と言った場合、文脈識別に基づき、このときの文脈は楽しいというラベルに該当するものとし、すると、顔表情データベースから楽しいラベル付きの顔表情を選ぶ。
理解できるように、顔表情データベースには、いくつかの他の対象の複数の顔角度での様々な顔表情、例えば猫、犬などの動物、スーパーマン、アイアンマンなどのキャラクターがさらに記憶されてもよく、このように、リモートなロールプレイングゲーム、又は別の場所にいる子供に物語を話すなどのカジュアルなシーンにおいて、ターゲットユーザの顔イメージをアニメイメージに入れ替えて、ARインタラクション効果を向上させることができる。
さらに、本方法は、ターゲット顔表情と顔角度に基づき、ターゲットユーザの顔イメージを生成する前に、以下の少なくとも一つをさらに含む。
(1)ターゲットユーザの口の状態を取得し、ターゲットユーザの口の状態に基づいてターゲット顔表情の口の状態を調整する。
本出願の実施例では、ターゲットユーザの口の状態は、ターゲットユーザの口の動作、例えば口を開けること、口を閉じること、口をすぼめること、口を横に傾けることなどを反映するために用いられ、ターゲットユーザの口の状態によってターゲット顔表情の口の状態を調整し、ターゲット顔表情をターゲットユーザの微妙な表情動作を正確に同期させて示し、顔表情をより豊かにすることができる。
(2)ターゲットユーザの音声ピッチを取得し、音声ピッチに基づいてターゲット顔表情の表情幅を調整する。
本出願の実施例では、ターゲットユーザの音声ピッチは、ターゲットユーザの気分状態を反映させるために用いられ、さらにターゲット表情の幅を決定するために用いられてもよく、例えば、1-10程度に分けて表情を無表情から楽しい表情までの10の瞬間をそれぞれ対応して録画することができ、ターゲットユーザの音声ピッチが高ければ高いほど、使用される表情は、後ろにランクする。このように、音声ピッチによってターゲット顔表情の表情幅を調整することで、ターゲット顔表情をターゲットユーザの気分状態を正確に示し、顔表情をより豊かにすることができる。
選択的に、いくつかの実施の形態では、ARデバイスを着用しているターゲットユーザは、複数人であり、且つ顔イメージ生成が必要となる。そうすると、これらのターゲットユーザは、予め設定されるジェスチャー動作によって顔イメージ生成機能にバインディングすることができ、例えばARデバイスは、例えば、グー、チョキ、パーのような一組のジェスチャーをランダムに生成し、顔イメージ生成機能にバインディングする必要のある人は、このときに手を挙げて、指定された順でジェスチャーをして確認する。このように、ARインタラクションプロセスにおける顔イメージ生成をより柔軟にすることができる。
選択的に、いくつかの実施の形態では、ターゲットユーザが他の事務をしばらく処理する必要があり、AR会議を行う他のユーザに影響を与えないように、ターゲットユーザは、自分の現在の顔イメージをロックすることによって、他の事務を処理する時に、顔イメージが変わって他人に影響を与えることを回避することができる。例えば、AR会議のシーンにおいて、そのうちの一人の参加者が他の事務をしばらく処理する必要がある場合、彼は、他の事務を処理する時に、顔イメージの変化により、当人が意見を発表していると他の参加者から誤解されないように自分の顔イメージをロックすることができる。
選択的に、いくつかの実施の形態では、本方法は、ターゲットユーザの第一の入力を受信することと、第一の入力に応答して、ターゲットユーザの顔イメージを予め設定される画像に入れ替えることとをさらに含む。この予め設定される画像は、アニメ表情画像と、ターゲットユーザの入力情報に対応する画像とのうちの少なくとも一つを含み、この入力情報に対応する画像は、アイコンの形式を採用してもよい。
本出願の実施例では、ターゲットユーザは、顔イメージを予め設定される画像に入れ替えることができ、例えば、図2aを参照すると、顔イメージをアニメ表情画像、例えば絵文字(emoji)、ネットワークではやっているスタンプなどに入れ替えることによって、大げさな表情効果を達成し、AR会議の面白さを向上させる。また例えば、図2bを参照すると、投票時に結果を顔イメージに入れ替え、即ち「チェックマーク」又は「フォーク」のアイコンを採用して顔イメージに入れ替える。
説明すべきこととして、本出願の実施例による顔イメージ生成方法において、実行本体は、顔イメージ生成装置、又はこの顔イメージ生成装置における顔イメージ生成方法のロードを実行するための制御モジュールであってもよい。本出願の実施例において、顔イメージ生成装置が顔イメージ生成方法のロードを実行することを例にして、本出願の実施例による顔イメージ生成を説明する。
図3を参照すると、本出願の実施例は、電子機器に用いられる顔イメージ生成装置300を提供し、この顔イメージ生成装置300は、
ARデバイスを着用しているターゲットユーザの顔輪郭を取得するための第一の取得モジュール301と、
前記顔輪郭に基づいて前記ターゲットユーザの、前記ターゲットユーザの顔向きと前記電子機器との間の角度を含む顔角度を決定するための決定モジュール302と、
ターゲット顔表情を取得するための第二の取得モジュール303と、
前記ターゲット顔表情と前記顔角度に基づき、前記ターゲットユーザの顔イメージを生成するための生成モジュール304とを含む。
選択的に、前記第一の取得モジュール301は、
顔輪郭データベースで前記顔輪郭に対応する顔角度を照合するための第一の照合ユニットを含み、
ここで、前記顔輪郭データベースには、複数の顔角度から予め録画された前記ターゲットユーザの顔輪郭が含まれる。
選択的に、前記第二の取得モジュール303は、
前記ARデバイスによって録画された前記ターゲットユーザの顔表情を取得するための第一の取得ユニットと、
前記ターゲットユーザの入力情報を取得するための第二の取得ユニットと、
前記入力情報の文脈に基づき、顔表情データベースから前記文脈に対応する顔表情を照合するための第二の照合ユニットとを含み、
ここで、前記顔表情データベースには、複数の顔角度での様々な顔表情が含まれる。
選択的に、前記装置300は、
前記ターゲットユーザの口の状態を取得するための第三の取得モジュールと、
前記ターゲットユーザの口の状態に基づいて前記ターゲット顔表情の口の状態を調整するための第一の調整モジュールと、
前記ターゲットユーザの音声ピッチを取得するための第四の取得モジュールと、
前記音声ピッチに基づいて前記ターゲット顔表情の表情幅を調整するための第一の調整モジュールとをさらに含む。
選択的に、前記装置300は、
前記ターゲットユーザの第一の入力を受信するための受信モジュールと、
前記第一の入力に応答して、前記ターゲットユーザの顔イメージを予め設定される画像に入れ替えるための入れ替えモジュールとをさらに含む。
前記予め設定される画像は、
アニメ表情画像と、
前記ターゲットユーザの入力情報に対応する画像とのうちの少なくとも一つを含む。
本発明の実施例では、ARデバイスを着用しているターゲットユーザの顔輪郭に基づき、このターゲットユーザの顔角度を決定し、ターゲットユーザの顔角度と取得されたターゲット顔表情に基づいてこのターゲットユーザの顔イメージを生成する。このようにARインタラクションを行う場合、ユーザの顔イメージを示すことができ、且つ異なるターゲット顔表情に基づき、ユーザが異なる表情で表現できるようにし、ARインタラクション体験を向上させる。
本出願の実施例における顔イメージ生成装置は、装置であってもよく、端末における部品、集積回路、又はチップであってもよい。この装置は、移動電子機器であってもよく、非移動電子機器であってもよい。例示的には、移動電子機器は、携帯電話、タブレットパソコン、ノートパソコン、パームトップコンピュータ、車載電子機器、ウェアラブルデバイス、ウルトラモバイルパーソナルコンピュータ(ultra-mobile personal computer、UMPC)、ネットブック又はパーソナルデジタルアシスタント(personal digital assistant、PDA)などであってもよく、非移動電子機器は、サーバ、ネットワーク付属メモリ(Network Attached Storage、NAS)、パーソナルコンピュータ(personal computer、PC)、テレビ(television、TV)、預入支払機又はセルフサービス機などであってもよく、本出願の実施例において、具体的に限定されない。
本出願の実施例における顔イメージ生成装置は、オペレーティングシステムを有する装置であってもよい。このオペレーティングシステムは、アンドロイド(Android)オペレーティングシステムであってもよく、iosオペレーティングシステムであってもよく、他の可能なオペレーティングシステムであってもよく、本出願の実施例において、具体的に限定されない。
本出願の実施例による顔イメージ生成装置は、図1から図2bの方法の実施例における顔イメージ生成装置によって実現される各プロセスを実現することができ、説明の繰り返しを回避するために、ここではこれ以上説明しない。
選択的に、本出願の実施例は、電子機器をさらに提供する。この電子機器は、プロセッサ410と、メモリ409と、メモリ409に記憶されており、且つ前記プロセッサ410上で運行できるプログラム又は命令とを含む。このプログラム又は命令がプロセッサ410により実行される時、上記顔イメージ生成実施例の各プロセスを実現し、且つ同じ技術的効果を達成することができる。説明の繰り返しを回避するために、ここではこれ以上説明しない。
注意すべきこととして、本出願の実施例における電子機器は、上記に記載の移動電子機器と非移動電子機器とを含む。
図4は、本出願の実施例を実現する電子機器のハードウェア構造概略図である。
この電子機器400は、無線周波数ユニット401、ネットワークモジュール402、オーディオ出力ユニット403、入力ユニット404、センサ405、表示ユニット406、ユーザ入力ユニット407、インターフェースユニット408、メモリ409、及びプロセッサ410などの部材を含むが、それらに限らない。
当業者であれば理解できるように、電子機器400は、各部材に給電する電源(例えば、電池)をさらに含んでもよく、電源は、電源管理システムによってプロセッサ410に論理的に接続することによって、電源管理システムによって充放電管理及び消費電力管理などの機能を実現することができる。図4に示す電子機器構造は、電子機器に対する限定を構成せず、電子機器は、図示された部材の数よりも多いか又は少ない部材、又はいくつかの部材の組み合わせ、又は異なる部材の配置を含んでもよく、ここではこれ以上説明しない。
ここで、入力ユニット404は、ARデバイスを着用しているターゲットユーザの顔輪郭を取得するためのカメラであってもよい。
プロセッサ410は、前記顔輪郭に基づいて前記ターゲットユーザの、前記ターゲットユーザの顔向きと前記電子機器との間の角度を含む顔角度を決定するために用いられる。
入力ユニット404は、ターゲット顔表情を取得するためにさらに用いられる。
プロセッサ410は、前記ターゲット顔表情と前記顔角度に基づき、前記ターゲットユーザの顔イメージを生成するためにさらに用いられる。
本発明の実施例では、ARデバイスを着用しているターゲットユーザの顔輪郭に基づき、このターゲットユーザの顔角度を決定し、ターゲットユーザの顔角度と取得されたターゲット顔表情に基づいてこのターゲットユーザの顔イメージを生成する。このようにARインタラクションを行う場合、ユーザの顔イメージを示すことができ、且つ異なるターゲット顔表情に基づき、ユーザが異なる表情で表現できるようにし、ARインタラクション体験を向上させる。
選択的に、プロセッサ410は、顔輪郭データベースで前記顔輪郭に対応する顔角度を照合するためにさらに用いられる。
ここで、前記顔輪郭データベースには、複数の顔角度から予め録画された前記ターゲットユーザの顔輪郭が含まれる。
選択的に、入力ユニット404は、前記ARデバイスによって録画された前記ターゲットユーザの顔表情を取得し、又は、前記ターゲットユーザの入力情報を取得し、前記入力情報の文脈に基づき、顔表情データベースから前記文脈に対応する顔表情を照合するためにさらに用いられる。ここで、前記顔表情データベースには、複数の顔角度での様々な顔表情が含まれる。
選択的に、入力ユニット404は、前記ターゲットユーザの口の状態を取得し、前記ターゲットユーザの口の状態に基づいて前記ターゲット顔表情の口の状態を調整するためにさらに用いられ、
入力ユニット404は、前記ターゲットユーザの音声ピッチを取得し、前記音声ピッチに基づいて前記ターゲット顔表情の表情幅を調整するためにさらに用いられる。
選択的に、ユーザ入力ユニット407は、前記ターゲットユーザの第一の入力を受信するために用いられ、
プロセッサ410は、前記第一の入力に応答し、前記ターゲットユーザの顔イメージを予め設定される画像に入れ替えるためにさらに用いられ、前記予め設定される画像は、アニメ表情画像と、前記ターゲットユーザの入力情報に対応する画像とのうちの少なくとも一つを含む。
本出願の実施例は、可読記憶媒体をさらに提供する。前記可読記憶媒体には、プログラム又は命令が記憶されており、このプログラム又は命令がプロセッサにより実行される時、上記顔イメージ生成方法の実施例の各プロセスを実現し、且つ同じ技術的効果を達成することができる。説明の繰り返しを回避するために、ここではこれ以上説明しない。
ここで、前記プロセッサは、上記実施例に記載の電子機器におけるプロセッサである。前記可読記憶媒体は、コンピュータ可読記憶媒体、例えばコンピュータリードオンリーメモリ(Read-Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスク又は光ディスクなどを含む。
本出願の実施例はまた、チップを提供する。前記チップは、プロセッサと通信インターフェースとを含み、前記通信インターフェースは、前記プロセッサと結合され、前記プロセッサは、プログラム又は命令を運行し、上記顔イメージ生成方法の実施例の各プロセスを実現するために用いられ、且つ同じ技術的効果を達成することができる。説明の繰り返しを回避するために、ここではこれ以上説明しない。
理解すべきこととして、本出願の実施例に言及されたチップは、システムレベルチップ、システムチップ、チップシステム又はシステムオンチップなどと呼ばれてもよい。
説明すべきこととして、本明細書では、用語である「包括」、「包含」又はその他の任意の変形は、非排他的な「含む」を意図的にカバーするものであり、それによって一連の要素を含むプロセス、方法、物品又は装置は、それらの要素を含むだけではなく、明確にリストアップされていない他の要素も含み、又はこのようなプロセス、方法、物品又は装置に固有の要素も含む。それ以上の制限がない場合に、「・・・を1つ含む」という文章で限定された要素について、この要素を含むプロセス、方法、物品又は装置には他の同じ要素も存在することが排除されるものではない。なお、指摘すべきこととして、本出願の実施の形態における方法と装置の範囲は、図示又は討論された順序で機能を実行することに限らず、関わる機能に基づいて基本的に同時である方式又は逆の順序で機能を実行することを含んでもよく、例えば記述されたものとは異なる手順で記述された方法を実行することができるとともに、様々なステップを追加、省略又は組み合わせることができる。また、いくつかの例を参照しての記述された特徴は、他の例で組み合わせられることができる。
当業者であれば認識できるように、本明細書に開示された実施例を結びつけて記述された様々な例のユニット及びアルゴリズムステップは、電子ハードウェア、又はコンピュータソフトウェアと電子ハードウェアとの組み合わせで実現されることができる。これらの機能は、ハードウェアそれともソフトウェア方式で実行されるかは、技術案の特定の応用と設計約束条件によるものである。当業者は、各特定の応用に対して異なる方法を使用して、記述された機能を実現することができるが、このような実現は、本開示の範囲を超えると考えられるべきではない。
当業者であればはっきりと分かるように、記述の利便性及び簡潔性のために、以上に記述されたシステム、装置とユニットの具体的な作動プロセスは、前記方法の実施例における対応するプロセスを参照してもよく、ここではこれ以上説明しない。
前記分離された部材として説明されるユニットは、物理的に分離されてもよく、又は物理的に分離されなくてもよく、ユニットとして示される部品は、物理的なユニットであってもよく、又は、物理的なユニットでなくてもよい。即ち、一つの場所に位置してもよく、又は複数のネットワークユニットに分布されてもよい。実際の必要に応じて、そのうちの一部又は全てのユニットを選択して、本実施例の方案の目的を実現することができる。
また、本開示の各実施例における各機能ユニットは、一つの処理ユニットに統合されてもよく、各ユニットが単独に物理的に存在してもよく、二つ又は二つ以上のユニットが一つのユニットに統合されてもよい。
以上の実施の形態の記述によって、当業者であればはっきりと分かるように、上記実施例の方法は、ソフトウェアと必要な汎用ハードウェアプラットフォームの形態によって実現されることができる。無論、ハードウェアによって実現されてもよいが、多くの場合、前者は、より好適な実施の形態である。このような理解を踏まえて、本出願の技術案は、実質には又は従来の技術に寄与した部分がソフトウェア製品の形式によって具現化されてもよい。このコンピュータソフトウェア製品は、一つの記憶媒体(例えばROM/RAM、磁気ディスク、光ディスク)に記憶され、一台の端末(携帯電話、コンピュータ、サーバ、エアコン、又はネットワーク機器などであってもよい)に本出願の各実施例に記載の方法を実行させるための若干の命令を含む。
当業者であれば理解できるように、上記実施例の方法における全部又は一部のフローを実現することは、コンピュータプログラムによって関連ハードウェアを制御することによって完了されてもよい。前記プログラムは、コンピュータ可読記憶媒体に記憶されてもよい。このプログラムが実行される時、上記各方法の実施例のようなフローを含んでもよい。ここで、前記記憶媒体は、磁気ディスク、光ディスク、リードオンリーメモリ(Read-Only Memory、ROM)又はランダムアクセスメモリ(Random Access Memory、RAM)などであってもよい。
理解できるように、本開示の実施例に記述されたこれらの実施例は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はそれらの組み合わせで実現されてもよい。ハードウェアによる実現に対し、モジュール、ユニット、サブユニットは、一つ又は複数の特定用途向け集積回路(Application Specific Integrated Circuits、ASIC)、デジタルシグナルプロセッサ(Digital Signal Processor、DSP)、デジタルシグナルプロセッシングデバイス(DSP Device、DSPD)、プログラマブル論理デバイス(Programmable Logic Device、PLD)、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array、FPGA)、汎用プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、本開示に記載の機能を実行するための他の電子ユニット又はその組み合わせに実現されてもよい。
ソフトウェアの実現に対し、本開示の実施例に記載の機能を実行するモジュール(例えばプロセス、関数など)によって本開示の実施例に記載の技術を実現してもよい。ソフトウェアコードは、メモリに記憶され、プロセッサを介して実行されてもよい。メモリは、プロセッサ内又はプロセッサ外部で実現されてもよい。
以上は、図面を結び付けながら、本出願の実施例を記述したが、本出願は、上記の具体的な実施の形態に限らない。上記の具体的な実施の形態は、例示的なものに過ぎず、制限性のあるものではない。当業者は、本出願の示唆で、本出願の趣旨と請求項が保護する範囲から逸脱することなく、多くの形態が可能であり、これらはすべて本出願の保護範囲に属する。

Claims (12)

  1. 電子機器に用いられる顔イメージ生成方法であって、
    拡張現実ARデバイスを着用しているターゲットユーザの顔輪郭を取得することと、
    前記顔輪郭に基づいて前記ターゲットユーザの、前記ターゲットユーザの顔が向いている方向と前記電子機器の正対方向との間でなす角度である顔角度を決定することと、
    ターゲット顔表情を取得することと、
    前記ターゲット顔表情と前記顔角度に基づき、前記ターゲットユーザの顔イメージを生成することとを含む、顔イメージ生成方法。
  2. 前記顔輪郭に基づいて前記ターゲットユーザの顔角度を決定することは、
    顔輪郭データベースで前記顔輪郭に対応する顔角度を照合することを含み、
    前記顔輪郭データベースには、複数の顔角度から予め録画された前記ターゲットユーザの顔輪郭が含まれる、請求項1に記載の顔イメージ生成方法。
  3. ターゲット顔表情を取得することは、
    前記拡張現実ARデバイスによって録画された前記ターゲットユーザの顔表情を取得すること、
    又は、
    前記ターゲットユーザの入力情報を取得し、前記入力情報の文脈に基づき、顔表情データベースから前記文脈に対応する顔表情を照合することを含み、
    前記顔表情データベースには、複数の顔角度での様々な顔表情が含まれる、請求項1に記載の顔イメージ生成方法。
  4. 前記ターゲット顔表情と前記顔角度に基づき、前記ターゲットユーザの顔イメージを生成する前に、前記顔イメージ生成方法は、
    前記ターゲットユーザの口の状態を取得し、前記ターゲットユーザの口の状態に基づいて前記ターゲット顔表情の口の状態を調整することと、
    前記ターゲットユーザの音声ピッチを取得し、前記音声ピッチに基づいて前記ターゲット顔表情の表情幅を調整することとのうちの少なくとも一つをさらに含む、請求項1に記載の顔イメージ生成方法。
  5. 前記ターゲットユーザの第一の入力を受信することと、
    前記第一の入力に応答して、前記ターゲットユーザの顔イメージを予め設定される画像に入れ替えることとをさらに含み、
    前記予め設定される画像は、
    アニメ表情画像と、
    前記ターゲットユーザの入力情報に対応する画像とのうちの少なくとも一つを含む、
    請求項1に記載の顔イメージ生成方法。
  6. 電子機器に用いられる顔イメージ生成装置であって、
    拡張現実ARデバイスを着用しているターゲットユーザの顔輪郭を取得するための第一の取得モジュールと、
    前記顔輪郭に基づいて前記ターゲットユーザの、前記ターゲットユーザの顔が向いている方向と前記電子機器の正対方向との間でなす角度である顔角度を決定するための決定モジュールと、
    ターゲット顔表情を取得するための第二の取得モジュールと、
    前記ターゲット顔表情と前記顔角度に基づき、前記ターゲットユーザの顔イメージを生成するための生成モジュールとを含む、顔イメージ生成装置。
  7. 前記第一の取得モジュールは、
    顔輪郭データベースで前記顔輪郭に対応する顔角度を照合するための第一の照合ユニットを含み、
    前記顔輪郭データベースには、複数の顔角度から予め録画された前記ターゲットユーザの顔輪郭が含まれる、請求項6に記載の顔イメージ生成装置。
  8. 前記第二の取得モジュールは、
    前記拡張現実ARデバイスによって録画された前記ターゲットユーザの顔表情を取得するための第一の取得ユニットと、
    前記ターゲットユーザの入力情報を取得するための第二の取得ユニットと、
    前記入力情報の文脈に基づき、顔表情データベースから前記文脈に対応する顔表情を照合するための第二の照合ユニットとを含み、
    前記顔表情データベースには、複数の顔角度での様々な顔表情が含まれる、請求項6に記載の顔イメージ生成装置。
  9. 前記ターゲットユーザの口の状態を取得するための第三の取得モジュールと、
    前記ターゲットユーザの口の状態に基づいて前記ターゲット顔表情の口の状態を調整するための第一の調整モジュールと、
    前記ターゲットユーザの音声ピッチを取得するための第四の取得モジュールと、
    前記音声ピッチに基づいて前記ターゲット顔表情の表情幅を調整するための第一の調整モジュールとをさらに含む、請求項6に記載の顔イメージ生成装置。
  10. 前記ターゲットユーザの第一の入力を受信するための受信モジュールと、
    前記第一の入力に応答して、前記ターゲットユーザの顔イメージを予め設定される画像に入れ替えるための入れ替えモジュールとをさらに含み、
    前記予め設定される画像は、
    アニメ表情画像と、
    前記ターゲットユーザの入力情報に対応する画像とのうちの少なくとも一つを含む、請求項6に記載の顔イメージ生成装置。
  11. 電子機器であって、プロセッサと、メモリと、前記メモリに記憶され且つ前記プロセッサ上で運行できるプログラム又は命令とを含み、前記プログラム又は命令が前記プロセッサにより実行される時、請求項1から5のいずれか1項に記載の顔イメージ生成方法のステップを実現する、電子機器。
  12. プロセッサにより実行される時、請求項1から5のいずれか1項に記載の顔イメージ生成方法のステップを実現するプログラム又は命令が記憶された、可読記憶媒体。
JP2022567137A 2020-05-09 2021-05-06 顔イメージ生成方法、装置、電子機器及び可読記憶媒体 Active JP7483940B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010386661.8A CN111583355B (zh) 2020-05-09 2020-05-09 面部形象生成方法、装置、电子设备及可读存储介质
CN202010386661.8 2020-05-09
PCT/CN2021/091859 WO2021227916A1 (zh) 2020-05-09 2021-05-06 面部形象生成方法、装置、电子设备及可读存储介质

Publications (2)

Publication Number Publication Date
JP2023524119A JP2023524119A (ja) 2023-06-08
JP7483940B2 true JP7483940B2 (ja) 2024-05-15

Family

ID=72124806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022567137A Active JP7483940B2 (ja) 2020-05-09 2021-05-06 顔イメージ生成方法、装置、電子機器及び可読記憶媒体

Country Status (6)

Country Link
US (1) US20230085099A1 (ja)
EP (1) EP4148677A4 (ja)
JP (1) JP7483940B2 (ja)
KR (1) KR20230006009A (ja)
CN (1) CN111583355B (ja)
WO (1) WO2021227916A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111583355B (zh) * 2020-05-09 2024-01-23 维沃移动通信有限公司 面部形象生成方法、装置、电子设备及可读存储介质
US11670059B2 (en) 2021-09-01 2023-06-06 Snap Inc. Controlling interactive fashion based on body gestures
US11983826B2 (en) * 2021-09-30 2024-05-14 Snap Inc. 3D upper garment tracking
CN114067407A (zh) * 2021-11-19 2022-02-18 北京奇艺世纪科技有限公司 一种表情驱动方法、装置、电子设备及存储介质
CN114779948B (zh) * 2022-06-20 2022-10-11 广东咏声动漫股份有限公司 基于面部识别的动画人物即时交互控制方法、装置及设备
CN115359166B (zh) * 2022-10-20 2023-03-24 北京百度网讯科技有限公司 一种图像生成方法、装置、电子设备和介质
CN115946150B (zh) * 2022-12-13 2023-11-14 深圳无芯科技有限公司 具有面部表情的头部结构及具有其的机器人

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170891A (ja) 2000-08-30 2011-09-01 Microsoft Corp 顔画像処理方法およびシステム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
JP5276854B2 (ja) * 2008-02-13 2013-08-28 株式会社日立ハイテクノロジーズ パターン生成装置およびパターン形状評価装置
TW201039251A (en) * 2009-04-30 2010-11-01 Novatek Microelectronics Corp Facial expression recognition apparatus and facial expression recognition method thereof
CN103698884A (zh) * 2013-12-12 2014-04-02 京东方科技集团股份有限公司 开放式头戴显示装置及其显示方法
KR101714349B1 (ko) * 2014-12-29 2017-03-09 주식회사 슈프리마 생체 인증 장치와 그 생체 영상 출력제어 방법
KR102507567B1 (ko) * 2015-06-09 2023-03-09 삼성전자주식회사 이미지를 처리하는 전자 장치 및 그 제어 방법
CN107491165A (zh) * 2016-06-12 2017-12-19 张翔宇 一种vr眼镜面部3d图像、平面图像捕获与手势捕获系统
KR101810190B1 (ko) * 2016-07-14 2017-12-18 김용상 얼굴 인식을 이용한 사용자 인증 방법 및 그 장치
CN107767438A (zh) * 2016-08-16 2018-03-06 上海掌门科技有限公司 一种基于虚拟对象进行用户交互的方法与设备
KR102582665B1 (ko) * 2016-10-07 2023-09-25 삼성전자주식회사 집적 회로의 패턴들을 평가하는 시스템 및 방법
CN108241434B (zh) * 2018-01-03 2020-01-14 Oppo广东移动通信有限公司 基于景深信息的人机交互方法、装置、介质及移动终端
US10706577B2 (en) * 2018-03-06 2020-07-07 Fotonation Limited Facial features tracker with advanced training for natural rendering of human faces in real-time
CN108614638B (zh) * 2018-04-23 2020-07-07 太平洋未来科技(深圳)有限公司 Ar成像方法和装置
WO2019217177A1 (en) * 2018-05-07 2019-11-14 Google Llc Puppeteering a remote avatar by facial expressions
CN108875633B (zh) * 2018-06-19 2022-02-08 北京旷视科技有限公司 表情检测与表情驱动方法、装置和系统及存储介质
CN109166164B (zh) * 2018-07-25 2023-04-07 维沃移动通信有限公司 一种表情图片的生成方法及终端
CN109101953A (zh) * 2018-09-07 2018-12-28 大连东锐软件有限公司 基于人类面部表情的分区要素化的表情动作生成方法
US20200090392A1 (en) * 2018-09-19 2020-03-19 XRSpace CO., LTD. Method of Facial Expression Generation with Data Fusion
CN111583355B (zh) * 2020-05-09 2024-01-23 维沃移动通信有限公司 面部形象生成方法、装置、电子设备及可读存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170891A (ja) 2000-08-30 2011-09-01 Microsoft Corp 顔画像処理方法およびシステム

Also Published As

Publication number Publication date
KR20230006009A (ko) 2023-01-10
CN111583355B (zh) 2024-01-23
WO2021227916A1 (zh) 2021-11-18
EP4148677A4 (en) 2023-11-15
US20230085099A1 (en) 2023-03-16
EP4148677A1 (en) 2023-03-15
JP2023524119A (ja) 2023-06-08
CN111583355A (zh) 2020-08-25

Similar Documents

Publication Publication Date Title
JP7483940B2 (ja) 顔イメージ生成方法、装置、電子機器及び可読記憶媒体
US20240187361A1 (en) Avatar integration with multiple applications
US11895391B2 (en) Capturing and displaying images with multiple focal planes
CN109981908B (zh) 用于增强的用户交互的图像数据
KR102315413B1 (ko) 크리에이티브 카메라
JP2019145108A (ja) 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
JP7464682B2 (ja) 複数のアプリケーションとのアバターの統合
CN113508361A (zh) 用于呈现计算机生成现实文件的设备、方法和计算机可读介质
US20220165013A1 (en) Artificial Reality Communications
CN111045511B (zh) 基于手势的操控方法及终端设备
CN113544634A (zh) 用于构成cgr文件的设备、方法和图形用户界面
EP4315005A1 (en) Interface with haptic and audio feedback response
WO2022212175A1 (en) Interface with haptic and audio feedback response
EP4268056A1 (en) Conversation interface on an eyewear device
JPWO2019155735A1 (ja) 情報処理装置、情報処理方法及びプログラム
KR102400085B1 (ko) 크리에이티브 카메라
US12105283B2 (en) Conversation interface on an eyewear device
KR102357342B1 (ko) 크리에이티브 카메라
US20230254448A1 (en) Camera-less representation of users during communication sessions
US20220197027A1 (en) Conversation interface on an eyewear device
CN117555412A (zh) 交互方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240501

R150 Certificate of patent or registration of utility model

Ref document number: 7483940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150