JP2014522528A - 仮想イメージで自動的に表情を再生する方法及び装置 - Google Patents

仮想イメージで自動的に表情を再生する方法及び装置 Download PDF

Info

Publication number
JP2014522528A
JP2014522528A JP2014513910A JP2014513910A JP2014522528A JP 2014522528 A JP2014522528 A JP 2014522528A JP 2014513910 A JP2014513910 A JP 2014513910A JP 2014513910 A JP2014513910 A JP 2014513910A JP 2014522528 A JP2014522528 A JP 2014522528A
Authority
JP
Japan
Prior art keywords
facial
motion trajectory
extracted
game player
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014513910A
Other languages
English (en)
Other versions
JP5736601B2 (ja
Inventor
棟 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2014522528A publication Critical patent/JP2014522528A/ja
Application granted granted Critical
Publication of JP5736601B2 publication Critical patent/JP5736601B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression

Abstract

本発明は仮想イメージで自動的に表情を再生する方法及び装置を提供する。該方法は、ゲーム過程においてゲームプレイヤーと関連するビデオ画像を収集し、該収集されたビデオ画像がゲームプレイヤーの顔画像であるかどうかを判断し、YESである場合、ステップBを実行し、NOである場合、ステップAに戻るステップAと、該顔画像における顔特徴を抽出し、該抽出した顔特徴の運動方向を連続してN回(Nは2以上)収集することによって該顔特徴の運動軌跡を取得するステップBと、ステップBによって得られた顔特徴の運動軌跡に基づいて対応する顔表情を確定し、前記ゲームプレイヤーの仮想イメージで自動的に該確定された顔表情を再生するステップCとを含む。
【選択図】図1

Description

関連出願の相互参照
本出願は、2012年04月06日、中国特許局に提出した出願番号が201210098817.8号、発明の名称が「仮想イメージで自動的に表情を再生する方法及び装置」である中国特許出願の優先権を要求し、その全ての内容は引用により本出願に取込まれる。
本発明はコンピュータ技術に関し、特に仮想イメージで自動的に表情を再生する方法及び装置に関する。
現有のゲームでは、ゲームプレイヤーはすべて仮想の個人的なイメージを持って個人的な扮装する。該ゲームプレイヤーの仮想の個人的なイメージはAvatarと略称される。ゲーム過程において、ゲームプレイヤーは予め定義された表情機能から最も現在の気分状態を体現する表情をクリック選択し、自分のAvatarに再生し、他のゲームプレイヤーに自分の気分状態を知るようにする。例えば、ゲームで勝利した時、ゲームプレイヤーは予め定義された表情機能から喜びを表現する表情をクリック選択し、自分のAvatarに再生する。
従来のゲームでは、ゲームプレイヤーが能動的に表情をクリック選択するのが必要であるが、通常は実際のゲーム過程においては、ゲームプレイヤーは能動的に表情をクリック選択する暇がなくて、ゲームプレイヤーのAvatarは制限されて表情を再生できないことが分かる。従って、より良いアプローチは、ゲームプレイヤーのAvatarで表情を自動的に再生することであるが、従来の技術では、ゲームプレイヤーのAvatarで表情を自動的に再生することを実現する方法はまだない。
本発明の実施形態は仮想イメージで自動的に表情を再生する方法及び装置を提供して、ゲームプレイヤーの仮想イメージで自動的に表情を再生することを実現する。
本発明の実施形態に係る技術案は、以下を含む。
仮想イメージで自動的に表情を再生する方法であって、
ゲーム過程におけるゲームプレイヤーと関連するビデオ画像を収集し、該収集されたビデオ画像がゲームプレイヤーの顔画像であるかどうかを判断し、YESである場合、ステップBを実行し、NOである場合、ステップAに戻るステップAと、
該顔画像における顔特徴を抽出し、該顔特徴の運動方向を連続してN回(Nは2以上)収集することによって該顔特徴の運動軌跡を取得するステップBと、
ステップBによって得られた顔特徴の運動軌跡に基づいて対応する顔表情を確定し、前記ゲームプレイヤーの仮想イメージで自動的に該確定された顔表情を再生するステップCとを含む仮想イメージで自動的に表情を再生させる方法。
自動的に仮想イメージで表情を再生する装置であって、
ゲーム過程におけるゲームプレイヤーと関連するビデオ画像を収集し、該収集されたビデオ画像がゲームプレイヤーの顔画像であるかどうかを判断し、YESである場合、軌跡確定ユニットに通知を送信し、NOである場合、ゲーム過程におけるゲームプレイヤーと関連するビデオ画像を継続して収集するための収集ユニットと、
前記収集ユニットが送信した通知を受信した後、該顔画像における顔特徴を抽出し、該抽出された顔特徴の運動方向を連続してN回(Nは2以上)収集することによって該顔特徴の運動軌跡を取得するための軌跡確定ユニットと、
前記軌跡確定ユニットから得られた顔特徴の運動軌跡に基づいて対応する顔表情を確定し、前記ゲームプレイヤーの仮想イメージで自動的に該確定された顔表情を再生するための表情再生ユニットとを備える自動的に仮想イメージで表情を再生させる装置。
以上の技術案から分かるように、本発明の実施形態において、ゲームプレイヤーのゲーム過程における顔表情を収集し、顔画像から顔特徴を抽出し、その後連続してN回収集することによって該顔特徴の運動軌跡を取得し、該顔運動軌跡を利用して顔表情を確定し、顔表情を自動再生させる。これは従来技術におけるゲームプレイヤーが能動的に表情をクリック選択することに比べて、ゲームプレイヤーのAvatarなどの仮想イメージで自動的に表情を再生することを実現できる一方、ゲームプレイヤーを解放し、ゲームプレイヤーが能動的に表情をクリック再生させる必要がなく、ゲームプレイヤーの時間を節約する。
本発明の実施形態に係る方法のフローチャートである。 本発明の実施形態に係る顔特徴の模式図である。 本発明の実施形態に係るステップ103の実現フローチャートである。 本発明の実施形態に係る装置構造図である。
本発明の目的、技術案及びメリットをさらに明確にするために、以下、図面と具体的な実施形態を参照しながら本発明を詳細に説明する。
本発明に係る方法は図1に示す流れを含む。
図1を参照すると、図1は本発明の実施形態に係る方法のフローチャートである。図1に示すように、該流れは以下のステップ101〜103を含んでもよい。
ステップ101において、ゲーム過程におけるゲームプレイヤーと関連するビデオ画像を収集し、該収集されたビデオ画像がゲームプレイヤーの顔画像であるかどうかを判断し、YESである場合、ステップ102を実行し、NOである場合、ステップ101に戻る。
ビデオ画像はフレームを単位として伝送され、これに基づいて、本ステップ101では、1フレーム画像を収集するたびに、該収集されたフレーム画像がゲームプレイヤーの顔画像であるかどうかを判断し、YESである場合、ステップ102を実行し、NOである場合、次のフレーム画像を収集し続ける。
ステップ102において、該顔画像における顔特徴を抽出し、該抽出された顔特徴の運動方向を連続してN回収集することによって該顔特徴の運動軌跡を取得する。
そのうち、Nは2以上である。
ただし、本ステップ102における収集、及びステップ101における収集はビデオキャプチャ技術によって実現される。
なお、本ステップ102における抽出は顔認識技術によって実現される。
ステップ103において、ステップ102によって得られた顔特徴の運動軌跡に基づいて対応する顔表情を確定し、前記ゲームプレイヤーの仮想イメージで自動的に該確定された顔表情を再生する。
ステップ101〜103から分かるように、本発明において、ビデオキャプチャ技術によってゲームプレイヤーのゲーム過程における顔画像を収集し、顔認識技術によって顔画像から顔特徴を抽出し、その後連続するN回の収集によって該顔特徴の運動軌跡を取得し、該顔運動軌跡を利用して顔表情を確定して、顔表情を自動再生させる。これは従来技術におけるゲームプレイヤーが能動的に表情をクリック選択することに比べて、ゲームプレイヤーのAvatarなどの仮想イメージで自動的に表情を再生することを実現できる一方、ゲームプレイヤーを解放し、ゲームプレイヤーが能動的に表情をクリック再生させる必要がなく、ゲームプレイヤーの時間を節約する。
また、好ましくは、本発明において、ステップ102で抽出された顔特徴は少なくともゲームプレイヤーの顔の五官の部位を含み、そのうち、該五官の部位は両眉、両目、鼻、両頬(すなわちほっぺた)及び唇でもよい。且つ、各顔部位は複数の特徴ベクトルからなり、具体的には図2に示す通りである。例えば、図2において、眉は5つの特徴点が連結されてなる5つの特徴ベクトルからなる。
さらに、ステップ102において、該抽出された顔特徴の運動方向を連続してN回収集することによって該顔特徴の運動軌跡を取得することは、
抽出された各顔部位に対して、該顔部位を構成する各特徴ベクトルを連続してN回収集すること、N回収集された該顔部位を構成する各特徴ベクトルを利用して該顔部位の運動軌跡を確定することを含んでもよい。顔部位が鼻であることを例にすると、該鼻を構成する各特徴ベクトル、即ちベクトル47〜ベクトル57を連続してN回収集し、N回収集された該ベクトル47〜ベクトル57を利用して該顔部位の運動軌跡を確定する。そのうち、N回収集されたベクトル47〜ベクトル57を利用して該顔部位の運動軌跡を確定することは、従来のベクトルによる軌跡の確定方式に従って実行してもよく、本発明は重点的に説明しない。
ステップ102に対する説明に基づいて、ステップ103は具体的に図3に示す流れを含んでもよい。
図3を参照すると、図3は本発明の実施形態に係るステップ103の実現フローチャートである。図3に示すように、該流れは以下のステップ301〜303を含んでもよい。
ステップ301では、事前訓練から得られた共通性顔運動軌跡と顔表情との間の対応関係集合において該抽出された各顔部位の運動軌跡をマッチングし、前記対応関係集合に以下の対応関係、即ち、該対応関係の共通性顔運動軌跡に、該抽出された各顔部位の運動軌跡と関連する運動軌跡が存在するという対応関係がある場合、ステップ302を実行し、さもないと、ステップ303を実行する。
好ましくは、ステップ301において、該対応関係の共通性顔運動軌跡に、該抽出された各顔部位の運動軌跡と関連する運動軌跡が存在することは、
抽出された各顔部位の運動軌跡に対して、該対応関係の共通性顔運動軌跡に、該抽出された顔部位の運動軌跡とのマッチング率が該抽出された顔部位に対応するマッチング数値以上である顔部位の運動軌跡が存在することを含んでもよい。そのうち、異なる顔部位に対応するマッチング数値は同一又は異なっていてもよく、本発明は具体的に限定しない。
なお、ステップ301において、事前訓練から得られた共通性顔運動軌跡と顔表情との間の対応関係集合は、
ある特定の顔表情、例えば微笑、泣き、口尖らし、眉ひそめなどの行為に対して、
複数回の収集によって顔各部位の特定の顔表情における運動軌跡を確定するステップと、
各顔部位に対して、確定された該部位の該特定の顔表情における運動軌跡から共通性運動軌跡を抽出するステップと、
各顔部位の共通性運動軌跡を該特定の顔表情とバインドし、共通性顔運動軌跡と顔表情との間の対応関係を形成するステップと、を通じて実現される。
ステップ302において、前記ゲームプレイヤーの仮想イメージで自動的に該存在する対応関係における顔表情を再生する。
ステップ303において、ステップ101における収集に戻る。
こうように、前記ステップ301〜ステップ303を通じて前記ステップ103が実現される。
ここまで、本発明に係る方法の説明を完了する。以下は本発明に係る装置を説明する。
図4を参照すると、図4は本発明の実施形態に係る装置構造図である。該装置は仮想イメージで自動的に表情を再生し、収集ユニット、軌跡確定ユニット及び表情再生ユニットを備える。
そのうち、収集ユニットは、ゲーム過程におけるゲームプレイヤーと関連するビデオ画像を収集し、該収集されたビデオ画像がゲームプレイヤーの顔画像であるかどうかを判断し、YESである場合、軌跡確定ユニットに通知を送信し、NOである場合、ゲーム過程においてゲームプレイヤーと関連するビデオ画像を継続して収集する。
軌跡確定ユニットは、前記収集ユニットが送信した通知を受信した後、該顔画像における顔特徴を抽出し、該抽出された顔特徴の運動方向を連続してN回(Nは2以上)収集することによって該顔特徴の運動軌跡を取得する。
表情再生ユニットは、前記軌跡確定ユニットから得られた顔特徴の運動軌跡に基づいて対応する顔表情を確定し、前記ゲームプレイヤーの仮想イメージで自動的に該確定された顔表情を再生する。
好ましくは、図4に示すように、前記軌跡確定ユニットは、特徴抽出モジュール
と軌跡確定モジュールを備えてもよい。
そのうち、特徴抽出モジュールは、前記収集ユニットが収集した顔画像における顔特徴を抽出する。前記抽出された顔特徴は少なくともゲームプレイヤーの顔の五官の部位を含み、各顔部位は複数の特徴ベクトルからなる。
軌跡確定モジュールは、前記特徴抽出モジュールが抽出した各顔部位に対して、該顔部位を構成する各特徴ベクトルを連続してN回収集し、N回収集された該顔部位を構成する各特徴ベクトルを利用して該顔部位の運動軌跡を確定する。
好ましくは、図4に示すように、前記表情再生ユニットは、マッチングモジュールと表情再生モジュールを備えてもよい。
そのうち、マッチングモジュールは、事前訓練から得られた共通性顔運動軌跡と顔表情との間の対応関係集合において該抽出された各顔部位の運動軌跡をマッチングし、前記対応関係集合に以下の対応関係、即ち、該対応関係の共通性顔運動軌跡に、該抽出された各顔部位の運動軌跡と関連する運動軌跡が存在するという対応関係がある場合、再生通知を表情再生モジュールに送信する。
そのうち、前記対応関係の共通性顔運動軌跡に、該抽出された各顔部位の運動軌跡と関連する運動軌跡が存在することは、
抽出された各顔部位の運動軌跡に対して、該対応関係の共通性顔運動軌跡に、該抽出された顔部位の運動軌跡とのマッチング率が該抽出された顔部位に対応するマッチング数値以上である顔部位の運動軌跡が存在することを含んでもよい。
さらに、好ましくは、前記マッチングモジュールは前記対応関係が存在しない時に、前記収集ユニットをトリガーしてゲーム過程におけるゲームプレイヤーと関連するビデオ画像を継続して収集できる。
表情再生モジュールは再生通知を受信した後、前記ゲームプレイヤーの仮想イメージで自動的に該存在する対応関係における顔表情を再生する。
ここまで、本発明に係る装置の説明を完了する。
以上の技術案から分かるように、本発明において、ゲームプレイヤーのゲーム過程における顔画像を収集し、顔画像から顔特徴を抽出し、その後連続するN回の収集によって該顔特徴の運動軌跡を取得し、該顔運動軌跡を利用して顔表情を確定し、顔表情を自動再生させる。これは従来技術におけるゲームプレイヤーが能動的に表情をクリック選択することに比べて、ゲームプレイヤーのAvatarなどの仮想イメージで自動的に表情を再生することを実現できる一方、ゲームプレイヤーを解放し、ゲームプレイヤーが能動的に表情をクリック再生する必要がなく、ゲームプレイヤーの時間を節約する。
本発明の実施形態はさらに、命令セットが記憶され、該命令セットが実行される時、該機器に前記実施形態のいずれかに記載の方法を実行させる機器可読媒体を提供する。該機器可読媒体はコンピュータのフロッピーディスク、ハードディスク又は光ディスクなどであってもよく、該機器は携帯電話、パソコン、サーバ又はネットワークデバイスなどであってもよい。
前記記述は本発明の好ましい実施形態に過ぎず、本発明を限定するものではなく、本発明の趣旨と原則を逸脱せずに行う任意の変更、等価置換、改良等は、いずれも本発明の保護範囲に含まれる。
なお、前記の各方法の実施形態に対して、簡単に説明するために、それを一連の動作の組み合わせとして説明したが、当業者が知るべきことは、本発明に基づいて、あるステップは他の順序を採用するか、または同時に行うことが可能であるため、本発明は説明された動作順序に制限されない。次に、当業者が知るべきことは、明細書で説明した実施形態はすべて好ましい実施形態であり、関わる動作とモジュールは必ずしも本発明に必要なものではない。
前記実施形態において、各実施形態に対する説明はそれぞれの重点があり、ある実施形態で詳しく説明されていない部分は、他の実施形態の関連する説明を参照してもよい。
一般の当業者は、前記方法を実現する全部或は一部のステップがプログラム命令に関連するハードウェアによって完成でき前記プログラムがコンピューターの可読記憶媒体に記憶でき、該プログラムが実行される時、前記方法の実施形態を含むステップを実行し、前記記憶媒体は、ROM、RAM、磁気ディスク或は光ディスク等の各種のプログラムコードを記憶可能な媒体を含むと理解可能である。
最後に説明すべきなのは、前記実施形態は単に本発明の技術案を説明するためのものに過ぎず、それを限定するものではなく、前記実施形態を参照して本発明を詳しく説明したが、一般の当業者が理解すべきことは、依然として前記各実施形態に記載の技術案を変更、又は一部の技術特徴を等価置換することができ、これらの変更又は置換は、相応する技術案の本質を本発明各実施形態の技術案の趣旨と範囲から逸脱させることはない。

Claims (11)

  1. 仮想イメージで自動的に表情を再生する方法であって、
    ゲーム過程におけるゲームプレイヤーと関連するビデオ画像を収集し、該収集されたビデオ画像がゲームプレイヤーの顔画像であるかどうかを判断し、YESである場合、ステップBを実行し、NOである場合、ステップAに戻るステップAと、
    該顔画像における顔特徴を抽出し、該顔特徴の運動方向を連続してN回(Nは2以上)収集することによって該顔特徴の運動軌跡を取得するステップBと、
    ステップBによって得られた顔特徴の運動軌跡に基づいて対応する顔表情を確定し、前記ゲームプレイヤーの仮想イメージで自動的に該確定された顔表情を再生するステップCと、を含むことを特徴とする仮想イメージで自動的に表情を再生する方法。
  2. ステップBで抽出された顔特徴は少なくともゲームプレイヤーの顔の五官の部位を含み、各顔部位は複数の特徴ベクトルからなり、
    ステップBにおいて、顔特徴の運動方向を連続してN回収集することによって顔特徴の運動軌跡を取得することは、
    抽出された各顔部位に対して、該顔部位を構成する各特徴ベクトルを連続してN回収集することと、
    N回収集された該顔部位を構成する各特徴ベクトルを利用して該顔部位の運動軌跡を確定することと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記ステップCは、
    事前訓練から得られた共通性顔運動軌跡と顔表情との対応関係集合において該抽出された各顔部位の運動軌跡をマッチングし、前記対応関係集合に以下の対応関係、即ち、該対応関係の共通性顔運動軌跡に、抽出された各顔部位の運動軌跡と関連する運動軌跡が存在するという対応関係が存在する場合、ステップC2を実行するステップC1と、
    前記ゲームプレイヤーの仮想イメージで自動的に該存在する対応関係における顔表情を再生するステップC2と、を含むことを特徴とする請求項2に記載の方法。
  4. 前記ステップC1において、該対応関係の共通性顔運動軌跡に、該抽出された各顔部位の運動軌跡と関連する運動軌跡が存在することは、
    抽出された各顔部位の運動軌跡に対して、該対応関係の共通性顔運動軌跡に、該抽出された顔部位の運動軌跡とのマッチング率が該抽出された顔部位に対応するマッチング数値以上である顔部位運動軌跡が存在すること、を含むことを特徴とする請求項3に記載の方法。
  5. 前記ステップC1において、前記対応関係集合に前記対応関係が存在しない場合、該方法は、
    ステップAにおける収集に戻ることをさらに含むことを特徴とする請求項3に記載の方法。
  6. 仮想イメージで自動的に表情を再生する装置であって、
    ゲーム過程におけるゲームプレイヤーと関連するビデオ画像を収集し、該収集されたビデオ画像がゲームプレイヤーの顔画像であるかどうかを判断し、YESである場合、軌跡確定ユニットに通知を送信し、NOである場合、ゲーム過程においてゲームプレイヤーと関連するビデオ画像を継続して収集するための収集ユニットと、
    前記収集ユニットが送信した通知を受信した後、該顔画像における顔特徴を抽出し、該抽出された顔特徴の運動方向を連続してN回(Nは2以上)収集することによって該顔特徴の運動軌跡を取得するための軌跡確定ユニットと、
    前記軌跡確定ユニットから得られた顔特徴の運動軌跡に基づいて対応する顔表情を確定し、前記ゲームプレイヤーの仮想イメージで自動的に該確定された顔表情を再生するための表情再生ユニットとを含むことを特徴とする仮想イメージで自動的に表情を再生する装置。
  7. 前記軌跡確定ユニットは、
    前記収集ユニットが収集した顔画像における顔特徴を抽出することに用いられ、前記抽出された顔特徴は少なくともゲームプレイヤーの顔の五官の部位を含み、各顔部位は複数の特徴ベクトルからなる特徴抽出モジュールと、
    前記特徴抽出モジュールが抽出した各顔部位に対して、該顔部位を構成する各特徴ベクトルを連続してN回収集し、N回収集された該顔部位を構成する各特徴ベクトルを利用して該顔部位の運動軌跡を確定する軌跡確定モジュールと、を含むことを特徴とする請求項6に記載の装置。
  8. 前記表情再生ユニットは、
    事前訓練から得られた共通性顔運動軌跡と顔表情との対応関係集合において該抽出された各顔部位の運動軌跡をマッチングし、前記対応関係集合において、以下の対応関係、即ち、該対応関係の共通性顔運動軌跡に、該抽出された各顔部位の運動軌跡と関連する運動軌跡が存在するという対応関係が存在する場合、再生通知を表情再生モジュールに送信するためのマッチングモジュールと、
    再生通知を受信した後、前記ゲームプレイヤーの仮想イメージで自動的に該存在する対応関係における顔表情を再生するための表情再生モジュールとを含むことを特徴とする請求項7に記載の装置。
  9. 前記対応関係の共通性顔運動軌跡に、該抽出された各顔部位の運動軌跡と関連する運動軌跡が存在することは、
    抽出された各顔部位の運動軌跡に対して、該対応関係の共通性顔運動軌跡に、該抽出された顔部位の運動軌跡とのマッチング率が該抽出された顔部位に対応するマッチング数値以上である顔部位運動軌跡が存在すること、を含むことを特徴とする請求項8に記載の装置。
  10. 前記マッチングモジュールは、さらに、前記対応関係集合に前記対応関係が存在しない時に、前記収集ユニットをトリガーしてゲーム過程におけるゲームプレイヤーと関連するビデオ画像を継続して収集するために用いられることを特徴とする請求項8に記載の装置。
  11. 命令セットが記憶され、該命令セットが実行される時、請求項1〜5のいずれかに記載の方法を実行させることを特徴とする機器可読媒体。
JP2014513910A 2012-04-06 2013-03-25 仮想イメージで自動的に表情を再生する方法及び装置 Active JP5736601B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201210098817.8 2012-04-06
CN201210098817.8A CN103366782B (zh) 2012-04-06 2012-04-06 在虚拟形象上自动播放表情的方法和装置
PCT/CN2013/073131 WO2013149556A1 (zh) 2012-04-06 2013-03-25 在虚拟形象上自动播放表情的方法和装置

Publications (2)

Publication Number Publication Date
JP2014522528A true JP2014522528A (ja) 2014-09-04
JP5736601B2 JP5736601B2 (ja) 2015-06-17

Family

ID=49299985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014513910A Active JP5736601B2 (ja) 2012-04-06 2013-03-25 仮想イメージで自動的に表情を再生する方法及び装置

Country Status (8)

Country Link
US (1) US9457265B2 (ja)
EP (1) EP2835736A4 (ja)
JP (1) JP5736601B2 (ja)
KR (1) KR101612199B1 (ja)
CN (1) CN103366782B (ja)
BR (1) BR112014000988B1 (ja)
MX (1) MX2014000589A (ja)
WO (1) WO2013149556A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9746990B2 (en) * 2012-09-28 2017-08-29 Intel Corporation Selectively augmenting communications transmitted by a communication device
CN111523395B (zh) 2014-09-24 2024-01-23 英特尔公司 面部动作驱动的动画通信系统
WO2016070354A1 (en) * 2014-11-05 2016-05-12 Intel Corporation Avatar video apparatus and method
CN107206281A (zh) * 2014-11-21 2017-09-26 索尼互动娱乐股份有限公司 程序及信息处理设备
CN106204698A (zh) * 2015-05-06 2016-12-07 北京蓝犀时空科技有限公司 为自由组合创作的虚拟形象生成及使用表情的方法和系统
CN105224910B (zh) * 2015-08-28 2017-07-18 华中师范大学 一种训练共同注意力的系统及方法
CN107551551B (zh) * 2017-08-09 2021-03-26 Oppo广东移动通信有限公司 游戏效果构建方法及装置
US10870056B2 (en) * 2017-11-01 2020-12-22 Sony Interactive Entertainment Inc. Emoji-based communications derived from facial features during game play
CN109260710B (zh) * 2018-09-14 2021-10-01 北京智明星通科技股份有限公司 一种基于心情的游戏app优化方法、装置及终端设备
CN109636898B (zh) * 2018-11-29 2023-08-22 维沃移动通信有限公司 3d模型生成方法及终端
CN113705280A (zh) * 2020-05-21 2021-11-26 北京聚匠艺传媒有限公司 一种基于面部特征的人机交互方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216955A (ja) * 2002-01-23 2003-07-31 Sharp Corp ジェスチャ認識方法、ジェスチャ認識装置、対話装置及びジェスチャ認識プログラムを記録した記録媒体
JP2007026088A (ja) * 2005-07-15 2007-02-01 Oki Electric Ind Co Ltd モデル生成装置
JP2008003673A (ja) * 2006-06-20 2008-01-10 Oki Electric Ind Co Ltd アニメーション作成システムおよび方法
JP2011018362A (ja) * 2003-07-18 2011-01-27 Canon Inc 画像処理装置、撮像装置、画像処理方法
JP2011151598A (ja) * 2010-01-21 2011-08-04 Konami Digital Entertainment Co Ltd 画像表示装置、画像加工方法、および、プログラム
WO2011153078A2 (en) * 2010-06-02 2011-12-08 Microsoft Corporation Limiting avatar gesture display
WO2011156115A2 (en) * 2010-06-09 2011-12-15 Microsoft Corporation Real-time animation of facial expressions

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6121953A (en) 1997-02-06 2000-09-19 Modern Cartoons, Ltd. Virtual reality system for sensing facial movements
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US7827488B2 (en) * 2000-11-27 2010-11-02 Sitrick David H Image tracking and substitution system and methodology for audio-visual presentations
JP4743823B2 (ja) 2003-07-18 2011-08-10 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法
US7454388B2 (en) * 2005-05-07 2008-11-18 Thaler Stephen L Device for the autonomous bootstrapping of useful information
US7809722B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for enabling search and retrieval from image files based on recognized information
US7783135B2 (en) * 2005-05-09 2010-08-24 Like.Com System and method for providing objectified image renderings using recognition information from images
US7519200B2 (en) * 2005-05-09 2009-04-14 Like.Com System and method for enabling the use of captured images through recognition
US8963926B2 (en) * 2006-07-11 2015-02-24 Pandoodle Corporation User customized animated video and method for making the same
CN100397410C (zh) * 2005-12-31 2008-06-25 北京中星微电子有限公司 基于视频的面部表情识别方法及装置
AU2006352758A1 (en) * 2006-04-10 2008-12-24 Avaworks Incorporated Talking Head Creation System and Method
CN101393599B (zh) * 2007-09-19 2012-02-08 中国科学院自动化研究所 一种基于人脸表情的游戏角色控制方法
EP2263190A2 (en) * 2008-02-13 2010-12-22 Ubisoft Entertainment S.A. Live-action image capture
US8259163B2 (en) * 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US20110292181A1 (en) * 2008-04-16 2011-12-01 Canesta, Inc. Methods and systems using three-dimensional sensing for user interaction with applications
US20120081282A1 (en) * 2008-05-17 2012-04-05 Chin David H Access of an application of an electronic device based on a facial gesture
CN101732055B (zh) * 2009-02-11 2012-04-18 北京智安邦科技有限公司 驾驶员疲劳检测方法及系统
CN101944163A (zh) * 2010-09-25 2011-01-12 德信互动科技(北京)有限公司 通过捕捉人脸表情实现游戏角色表情同步的方法
US8489529B2 (en) * 2011-03-31 2013-07-16 Microsoft Corporation Deep convex network with joint use of nonlinear random projection, Restricted Boltzmann Machine and batch-based parallelizable optimization

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216955A (ja) * 2002-01-23 2003-07-31 Sharp Corp ジェスチャ認識方法、ジェスチャ認識装置、対話装置及びジェスチャ認識プログラムを記録した記録媒体
JP2011018362A (ja) * 2003-07-18 2011-01-27 Canon Inc 画像処理装置、撮像装置、画像処理方法
JP2007026088A (ja) * 2005-07-15 2007-02-01 Oki Electric Ind Co Ltd モデル生成装置
JP2008003673A (ja) * 2006-06-20 2008-01-10 Oki Electric Ind Co Ltd アニメーション作成システムおよび方法
JP2011151598A (ja) * 2010-01-21 2011-08-04 Konami Digital Entertainment Co Ltd 画像表示装置、画像加工方法、および、プログラム
WO2011153078A2 (en) * 2010-06-02 2011-12-08 Microsoft Corporation Limiting avatar gesture display
WO2011156115A2 (en) * 2010-06-09 2011-12-15 Microsoft Corporation Real-time animation of facial expressions

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
森博章, 外4名: ""表情と韻律情報に基づくベイジアンネットワークを用いたグループ感情の推定手法"", 情報処理学会研究報告 平成22年度▲5▼ [CD−ROM], JPN6014050365, 15 February 2011 (2011-02-15), JP, ISSN: 0002951936 *

Also Published As

Publication number Publication date
KR20140023437A (ko) 2014-02-26
EP2835736A4 (en) 2016-11-02
US20150038222A1 (en) 2015-02-05
WO2013149556A1 (zh) 2013-10-10
JP5736601B2 (ja) 2015-06-17
CN103366782B (zh) 2014-09-10
MX2014000589A (es) 2014-05-01
KR101612199B1 (ko) 2016-04-12
EP2835736A1 (en) 2015-02-11
BR112014000988A2 (pt) 2017-02-21
US9457265B2 (en) 2016-10-04
CN103366782A (zh) 2013-10-23
BR112014000988B1 (pt) 2021-06-08

Similar Documents

Publication Publication Date Title
JP5736601B2 (ja) 仮想イメージで自動的に表情を再生する方法及び装置
Zhu et al. A comprehensive study of deep video action recognition
US10987596B2 (en) Spectator audio analysis in online gaming environments
US11052321B2 (en) Applying participant metrics in game environments
US10860345B2 (en) System for user sentiment tracking
JP5770918B1 (ja) 情報処理プログラム、及び情報処理方法
CN110062271A (zh) 场景切换方法、装置、终端及存储介质
US10864447B1 (en) Highlight presentation interface in a game spectating system
US9848106B2 (en) Intelligent gameplay photo capture
US11783007B2 (en) Apparatus and method for generating a recording
US10363488B1 (en) Determining highlights in a game spectating system
CN111586466B (zh) 一种视频数据处理方法、装置及存储介质
CN110505521B (zh) 一种直播比赛互动方法、电子设备、存储介质及系统
CN101807393A (zh) Ktv系统及其实现方法、电视机
CN105451837B (zh) 骨骼动画的用户生成记录
CN112619130B (zh) 一种游戏的多场景回放方法及装置
CN112528936B (zh) 视频序列编排方法、装置、电子设备及存储介质
JP2018525675A (ja) 過去のブロードキャストテキストを用いてライブテキストブロードキャストコンテンツを生成する方法およびデバイス
CN113487709A (zh) 一种特效展示方法、装置、计算机设备以及存储介质
CN111741325A (zh) 视频播放方法、装置、电子设备及计算机可读存储介质
CN109039851B (zh) 交互数据处理方法、装置、计算机设备和存储介质
CN105797375A (zh) 一种跟随用户脸部表情改变角色模型表情的方法和终端
WO2022198971A1 (zh) 一种虚拟角色的动作切换方法、装置及存储介质
CN115379290A (zh) 视频处理方法、装置、设备及存储介质
JP6947407B2 (ja) 再生システム、再生方法、プログラム、および記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150330

R150 Certificate of patent or registration of utility model

Ref document number: 5736601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250