JPWO2020129959A1 - コンピュータプログラム、サーバ装置、端末装置及び表示方法 - Google Patents
コンピュータプログラム、サーバ装置、端末装置及び表示方法 Download PDFInfo
- Publication number
- JPWO2020129959A1 JPWO2020129959A1 JP2020561452A JP2020561452A JPWO2020129959A1 JP WO2020129959 A1 JPWO2020129959 A1 JP WO2020129959A1 JP 2020561452 A JP2020561452 A JP 2020561452A JP 2020561452 A JP2020561452 A JP 2020561452A JP WO2020129959 A1 JPWO2020129959 A1 JP WO2020129959A1
- Authority
- JP
- Japan
- Prior art keywords
- data
- facial expression
- specific facial
- classifier
- performer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000004590 computer program Methods 0.000 title claims abstract description 33
- 230000008921 facial expression Effects 0.000 claims abstract description 433
- 238000004891 communication Methods 0.000 claims description 70
- 238000012545 processing Methods 0.000 claims description 42
- 230000006870 function Effects 0.000 claims description 38
- 230000008451 emotion Effects 0.000 claims description 30
- 230000014509 gene expression Effects 0.000 claims description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 8
- 238000000513 principal component analysis Methods 0.000 claims description 7
- 239000003086 colorant Substances 0.000 claims description 6
- 238000013515 script Methods 0.000 claims description 4
- 238000003058 natural language processing Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract description 25
- 230000008569 process Effects 0.000 description 43
- 238000011156 evaluation Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 10
- 238000013500 data storage Methods 0.000 description 9
- 230000002996 emotional effect Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 206010022998 Irritability Diseases 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
- A63F13/655—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
- A63F13/2145—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/424—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/426—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
図1は、一実施形態に係る通信システムの構成の一例を示すブロック図である。図1に示すように、通信システム1は、通信網10に接続される1又はそれ以上の端末装置20と、通信網10に接続される1又はそれ以上のサーバ装置30と、を含むことができる。なお、図1には、端末装置20の例として、3つの端末装置20A〜20Cが例示され、サーバ装置30の例として、3つのサーバ装置30A〜30Cが例示されているが、端末装置20として、これら以外の1又はそれ以上の端末装置20が通信網10に接続され得るし、サーバ装置30として、これら以外の1又はそれ以上のサーバ装置30が通信網10に接続され得る。
次に、端末装置20及びサーバ装置30の各々が有するハードウェア構成の一例について説明する。
2−1.端末装置20のハードウェア構成
各端末装置20のハードウェア構成例について図2を参照して説明する。図2は、図1に示した端末装置20(サーバ装置30)のハードウェア構成の一例を模式的に示すブロック図である(なお、図2において、括弧内の参照符号は、後述するように各サーバ装置30に関連して記載されたものである。)
各サーバ装置30のハードウェア構成例について同じく図2を参照して説明する。各サーバ装置30のハードウェア構成としては、例えば、上述した各端末装置20のハードウェア構成と同一のものを用いることが可能である。したがって、各サーバ装置30が有する構成要素に対する参照符号は、図2において括弧内に示されている。
スタジオユニット40は、パーソナルコンピュータ等の情報処理装置により実装可能なものであって、図示はされていないが、上述した端末装置20及びサーバ装置30と同様に、主に、中央処理装置と、主記憶装置と、入出力インタフェイス装置と、入力装置と、補助記憶装置と、出力装置と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
次に、端末装置20及びサーバ装置30の各々が有する機能の一例について説明する。
3−1.端末装置20の機能
端末装置20の機能の一例について図3を参照して説明する。図3は、図1に示した端末装置20(サーバ装置30)の機能の一例を模式的に示すブロック図である(なお、図3において、括弧内の参照符号は、後述するようにサーバ装置30に関連して記載されたものである。)。
取得部100は、演者の顔に関するデータを取得する1又はそれ以上の第1のセンサ102と、演者により発せられた発話及び/又は歌唱に関する音声データを取得する1又はそれ以上の第2のセンサ104と、を含むことができる。
(A)赤外線レーザーにより放射され演者の顔に反射した赤外線を検出するカメラ
(B)可視光線を撮像する複数のRGBカメラ
(C)可視光線を撮像する単一のカメラ。
上記(A)の場合には、取得部100は、上述したものと同様の手法により、演者の顔における各特徴点について深度を算出することができる。上記(B)の場合には、取得部100は、複数のRGBカメラにより撮像された複数の画像を用いて、演者の顔における各特徴点について奥行(深度)を計算することができる。上記(C)の場合には、取得部100は、単一のカメラにより撮像された画像から、演者の顔における各特徴点の奥行(深度)を、ディープラーニング等を利用して算出することができる。また、上記(C)の場合には、取得部100は、単一のカメラにより撮像された画像に対する分析処理(画像処理等)により、演者の顔における各特徴点の奥行(深度)を算出してもよい。
処理部110は、取得部100により取得された演者の顔に関するデータに基づいて第1のデータを生成することができる。また、処理部110は、取得部100により取得された演者により発せられた発話及び/又は歌唱に関する音声データに基づいて第2のデータを生成することができる。
表情制御部120は、図3に示すように、主に、分類器121と、表情選択部122と、マニュアル入力部123と、教師データ記憶部124と、ユーザ設定調整部125と、ユーザプロファイル記憶部126と、を含むことができる。
動画生成部130は、表情選択部122からの最終的に選択された特定の表情を示すデータ(「最終指定データ」)、及び、取得部100からの、演者の顔に関するデータ、及び/又は、演者により発せられた発話及び/又は歌唱に関する音声データ等、に基づいて、仮想的なキャラクターの動画を生成することができる。仮想的なキャラクターの動画自体については、動画生成部130は、図示しないキャラクターデータ記憶部に記憶された様々な情報(例えば、ジオメトリ情報、ボーン情報、テクスチャ情報、シェーダ情報及びブレンドシェイプ情報等)を用いて、図示しないレンダリング部にレンダリングを実行させることにより、仮想的なキャラクターの動画を生成することができる。なお、キャラクターデータ記憶部及びレンダリング部は、動画生成部130に含まれていてもよいし、動画生成部130の外部にあってもよい。
一方、表情選択部122からの「最終指定データ」がその他の表情を指定している場合には、動画生成部130は、取得部100からの演者の顔に関するデータ(演者の顔における各特徴点の深度に関するデータ)を用いて仮想的なキャラクターの表情を変化させた動画(例えば、仮想的なキャラクターの表情が演者の口及び両目の動きに同期して変化した動画、すなわち、仮想的なキャラクターの表情が演者の顔に対してリップシンク及び視線追従して変化した動画)を生成することができる。
サーバ装置30の機能の具体例について同じく図3を参照して説明する。サーバ装置30の機能としては、例えば、上述した端末装置20の機能の一部を用いることが可能である。したがって、サーバ装置30が有する構成要素に対する参照符号は、図3において括弧内に示されている。
スタジオユニットは、図3に示した端末装置20又はサーバ装置30と同様の構成を有することにより、端末装置20又はサーバ装置30と同様の動作を行うことが可能である。但し、通信部160(260)は、動画生成部130(230)により生成され記憶部140(240)に記憶された動画を、通信網10を介してサーバ装置30に送信することができる。
次に、端末装置20に設けられた分類器121(又はサーバ装置30に設けられた分類器221)により分類され得る予め定められた複数の特定の表情の具体例について説明する。
喜怒哀楽を含む感情を表現する表情は、感情の内容及び感情の強弱に応じて変化し得るものである。喜怒哀楽を含む感情を表現する表情の具体例が、後述する図6F、図6G、図6I、図6J、図6M及び図6N等に示されている。
顔の形状が非現実的に変形した表情は、顔の一部が現実的にはあり得ない態様で(例えば漫画のように)変形した表情を含むものであり、その一例が図7(の「変形顔」)に示されている。
顔に記号、図形及び/又は色が付加された表情は、例えば(1)「#」及び「><」等の記号、(2)汗、星及び青筋等を模した図形、(3)赤らみを示す赤色等が、顔に付加された表情を含むものであり、その具体例が、図6C、図6D、図6E、図6G、図6H及び図6J等に示されている。
次に、端末装置20における表情選択部122(サーバ装置30における表情選択部222)により用いられるアルゴリズムの一例について説明する。
第1の処理は、例えば、仮想的なキャラクターの表情に顔の赤らみといったような生理現象を模倣させるために、仮想的なキャラクターの顔のベースカラーを設定する処理である。
具体的には、演者の生体情報に基づいて演者の情動を示す情動情報を生成する技術としては、「人間の感情を考慮したバイオメトリクス 情報学ワークショップ2004、平成26年9月」(本文献は引用によりその全体が本明細書に組み入れられる)に記載された技術を利用することが可能である。ここで、生体情報センサにより検出される演者の生体情報には、体温、呼吸数、脈拍、眼球運動、血中の酸素濃度、筋電(筋肉で発生する電位)及びこれら以外の生体に関して検出可能な情報が含まれ得る。
また、例えば特開平3−252775号公報(本文献は引用によりその全体が本明細書に組み入れられる)に開示された技術を用いることにより、カメラによって撮像された顔画像から演者の情動を推定することもできる。具体的には、情動(喜び、怒り、哀しみ、楽しさ)に対応付けて記憶されている表情パターンの中から、カメラで撮影した演者の顔画像に類似する画像を有する表情パターンを検索し、この表情パターンに対応付けられた情動を取得することにより、演者の情動を推定することができる。
さらにまた、例えば「WebSocketを用いたスマートフォン上でのエンタテイメントコンテンツ閲覧時のリアルタイム行動分析」(エンターテインメントコンピューティングシンポジウム(EC2013),2013年10月)(本文献は引用によりその全体が本明細書に組み入れられる)に開示されているように、演者が保持しているスマートフォンに内蔵されている加速度センサにより検出された3軸の加速度の二乗和平方根を算出し、この算出された二乗和平方根が所定値(例えば、0.2[G]や0.1[G])以上であるときに演者が笑っていることを検出することができる。
第2の処理は、予め定められた複数の特定の表情のうち、分類器121により分類された特定の表情ではなく、演者により直接指定された特定の表情を、動画に表示すべき表情として選択する処理である。
第3の処理は、所定のイベントが発生した場合に、そのイベントに対して定められた表情を、動画に表示すべき表情として選択する処理である。
第4の処理及び第5の処理は、ともに分類器121から受信する特定表情データにより特定される表情を選択する処理である。
次に、上述した構成を有する通信システム1の動作の具体例について、図5を参照して説明する。図5は、図1に示した通信システム1において行われる動作の一例を示すフロー図である。
次に、各ユーザの端末装置20(又はサーバ装置30)が生成した学習モデルを他のユーザの端末装置20と共有する特徴に対する拡張について説明する。
一実施形態では、表示部150(250)が、特定の表情を表示したものの、演者の意図とは異なる表情を表示した場合には、すぐに元の表情(演者の実際の表情をキャプチャーして反映された自然な表情等)に戻すことを演者が指示することができるように、ユーザインタフェイスが設定されていてもよい。この場合、例えば、演者は、その端末装置20等(サーバ装置30又はスタジオユニット40であってもよい)の表示部に表示されている特定のアイコン・オブジェクト等をタップすること、その端末装置20等の表示部を所定の方向にフリックすること、及び/又は、その端末装置20等の所定のボタン及びキーボード等を押圧すること等により、表情選択部122(222)により分類器121(221)からの特定表示データに従って選択された特定の表情を「使用したくない」旨を指定することができる。これに従い、表示部150(250)は、仮想的なキャラクターの表情が演者の顔に対してリップシンク及び視線追従して変化した動画を表示することができる。これを実現するためには、図3を参照すると、表情選択部122(222)が、自然な表情を指定するデータ(「特定表情指定データ」)をマニュアル入力部123(223)から入力して、上記「5.(4)」において説明した第5の処理を優先的に実行することができる。なお、このようなユーザインタフェイスは、動画視聴用のアプリケーション等を介して動画の配信を受ける端末装置20(演者の端末装置20以外の端末装置20)の表示部150には表示されない。
これにより、例えば、表示部150(250)が、仮想的なキャラクターが図6Kに例示したような「キス顔」を表現した動画を表示したにも関わらず、演者は、この顔を使用したくない場合には、その旨を指定すべく上述した操作を行うことができる。これにより、表示部150(250)は、仮想的なキャラクターが単に口を尖らせた表情を表現した動画を表示することができる。この場合には、分類器121(221)は、「キス顔」に対してマイナスの報酬を設定すること等により、学習モデルを生成(更新)することができる。なお、「キス顔」に対してマイナスの報酬を設定することは、「キス顔」を特定の表情として決定する要因となった、第1のデータ、第2のデータ、演者の顔に関するデータ(MPEGファイル及びTSVファイル等)、演者により発せられた発話及び/又は歌唱に関する音声データ(MPEGファイル等)、及び/又は、特定表情指定データと、演者による選択された特定の表情を「使用したくない」旨を示す情報等とを用いて、行われる。
例えば、第1の例では、サーバ装置30は、このサーバ装置30の通信量を監視して処理負荷が低いタイミングを検出し、このように検出したタイミングで上記学習を実行することができる。第2の例では、サーバ装置30は、予め定められた時間帯において上記学習を実行することができる。上記予め定められた時間帯は、その通信量が他の時間帯の通信量に比べて低いとサーバ装置30又は他の装置により判断された時間帯であってもよい。また、上記予め定められた時間帯は、人間により設定された時間帯であってもよい。
これを実現するためには、サーバ装置30は、端末装置20から、第1のデータ、第2のデータ、演者の顔に関するデータ(MPEGファイル及びTSVファイル等)、演者により発せられた発話及び/又は歌唱に関する音声データ(MPEGファイル等)、特定表情指定データ、及び/又は、選択された特定の表情を「使用したくない」旨を示す情報等を受信することが必要である。
次に、分類器121の具体的な構成の一例について説明する。
TrueDepthから獲得できる例えば52点のfloat値の最新の値が、 f[0][0]〜f[0][51]として取得され、一つ前のフレームの最新の値(通常は60FPS程度で高速)が f[1][0]〜f[1][51]として保持されたと仮定する。この場合、フレーム間の距離は、 d[n] = sqrt (( f[0][n] ‐ f[1][n] )^2 ) (n = 0〜51) として取得されることができる。ある表情を演者が表した時のサンプルにおいてフレーム間の距離を時間方向に総和したものを Σd[n] とする。Σd[n] の大きさに応じてΣd[n]がソートされる。これにより、特殊表情を分類する上で最も大きく変動した上位から下位寄与を持つ特徴点のインデックス nが獲得されることができる。この順序は具体的には眉毛近傍、広角、上唇、下唇など表出する表情によって異なる(演者によっても異なるがこの傾向は大きく相違しない)。
EA(t) = a[0] * f[0][0] + a[1] * f[0][1] + …a[n] * f[0][n] + a[51] * f[0][51]
ここで t は現在のフレームを意味する(時間)。
この評価関数が、あるフレーム tにおいてEA(t), EB(t), EC(t) といった表情A、B、Cのそれぞれに存在する。これらの評価関数はコントローラブルに扱うことができる。例えば、ある表情に対する評価関数が、所定条件を満たすと仮定する。所定条件は、すべての表情に対する評価関数の中において最も高い値を出力し、かつ、閾値以上(例えば0.9以上)であるという条件である。この所定条件を満たした評価関数に対応する表情が演者により表現されたと判定する処理が実行されれば、評価関数はコントローラブルに扱われているといえる。評価関数をコントローラブルに扱う手法は上記方法に限定されない。
本件出願に開示された技術は、例えば、次のような分野において適用することが可能なものである。
(1)仮想的なキャラクターが登場するライブ動画を配信するアプリケーション・サービス
(2)文字及びアバター(仮想的なキャラクター)を用いてコミュニケーションすることができるアプリケーション・サービス(チャットアプリケーション、メッセンジャー、メールアプリケーション等)
(3)表情を変化させることが可能な仮想的なキャラクターを操作するゲーム・サービス(シューティングゲーム、恋愛ゲーム及びロールプレイングゲーム等)
10 通信網
20(20A〜20C) 端末装置
30(30A〜30C) サーバ装置
40(40A、40B) スタジオユニット
100(200) 取得部
102(202) 第1のセンサ
104(204) 第2のセンサ
110(210) 処理部
120(220) 表情制御部
121(221) 分類器
122(222) 表情選択部
123(223) マニュアル入力部
124(224) 教師データ記憶部
125(225) ユーザ設定調整部
126(226) ユーザプロファイル記憶部
130(230) 動画生成部
140(240) 記憶部
150(250) 表示部
160(260) 通信部
Claims (29)
- コンピュータプログラムであって、
プロセッサにより実行されることにより、
第1のセンサから演者の顔に関するデータを取得し、
前記データに基づいて生成された第1のデータを分類器に入力して、前記第1のデータに基づいて予め定められた複数の特定の表情のうちの1つの特定の表情を示す特定表情データを前記分類器から出力させ、
前記分類器から出力された前記特定表情データに対応する特定の表情を、表示すべき特定の表情として選択する、
ように前記プロセッサを機能させる、ことを特徴とするコンピュータプログラム。 - 前記第1のデータが、前記演者の顔における特定の点の移動量に関するデータを含む、請求項1に記載のコンピュータプログラム。
- 前記プロセッサが、
第2のセンサから演者により発せられた発話及び/又は歌唱に関する音声データを取得し、
前記音声データに基づいて生成された第2のデータを前記第1のデータとともに前記分類器に入力して、前記第1のデータ及び前記第2のデータに基づいて前記特定表情データを前記分類器から出力させる、請求項2に記載のコンピュータプログラム。 - 前記第2のデータが、前記演者により発せられた音声のラウドネス、音圧、話速、及び/又は、フォルマントに関するデータを含む、請求項3に記載のコンピュータプログラム。
- 前記第2のデータが、前記音声データに対して自然言語処理を実行することにより得られた、単語、語尾及び/又は感嘆語に関するデータを含む、請求項3に記載のコンピュータプログラム。
- 前記プロセッサは、
前記第1のデータ及び/又は前記第2のデータに対応して前記分類器から前記特定表情データが出力された場合であっても、前記第1のデータ及び/又は前記第2のデータに対応して前記演者からユーザインタフェイスを介して前記複数の特定の表情のうちの1つの特定の表情を指定する特定表情指定データを入力した場合には、該特定表情指定データに対応する特定の表情を、表示すべき特定の表情として選択する、というアルゴリズムに従って動作する、請求項3に記載のコンピュータプログラム。 - 前記プロセッサが、該特定表情指定データを前記第1のデータ及び/又は前記第2のデータに対する教師データとして前記分類器に提供する、請求項6に記載のコンピュータプログラム。
- 前記分類器が、前記第1のデータ及び/又は前記第2のデータに対して主成分分析を実行して学習モデルを生成する、請求項3に記載のコンピュータプログラム。
- 前記プロセッサが、前記第1のデータ及び/又は前記第2のデータに対応して前記演者からユーザインタフェイスを介して前記複数の特定の表情のうちの1つの特定の表情を指定する特定表情指定データを入力した場合には、
前記分類器は、前記第1のデータ及び/又は前記第2のデータに加えて前記特定表情指定データに対して主成分分析を実行して学習モデルを生成する、請求項8に記載のコンピュータプログラム。 - 前記特定表情指定データは、タッチパネルに対する前記演者によるスワイプ操作の方向及び移動量に従って生成される、請求項6に記載のコンピュータプログラム。
- 前記プロセッサが、
前記複数の特定の表情のうちのいずれか1つの特定の表情に関連する表情を表現する旨を前記演者に指示するスクリプトを表示部に表示させ、
前記スクリプトに対応付けて前記第1のデータ及び/又は前記第2のデータに対する教師データとして、前記1つの特定の表情を示すデータを前記分類器に提供する、請求項2に記載のコンピュータプログラム。 - 前記プロセッサが、
通信回線を介してサーバ装置から学習モデルを受信し、
受信した前記学習モデルを前記分類器に提供する、請求項1に記載のコンピュータプログラム。 - 前記プロセッサが、
前記分類器により生成された学習モデルを前記演者に対応付けて記憶部に記憶する、請求項1に記載のコンピュータプログラム。 - 前記プロセッサが、
前記データを、通信回線を介してサーバ装置に送信する、請求項1に記載のコンピュータプログラム。 - 前記複数の特定の表情が、喜怒哀楽を含む感情を表現する表情、顔の形状が非現実的に変形した表情、及び/又は、顔に記号、図形及び/又は色が付加された表情を含む、請求項1に記載のコンピュータプログラム。
- 前記喜怒哀楽を含む感情を表現する表情は、プルチックの感情の輪を含む、言語及び文化に依存しない心理空間にマッピングされたユーザインタフェイスに基づいて表現されるものである、請求項15に記載のコンピュータプログラム。
- 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項1に記載のコンピュータプログラム。
- 前記プロセッサが、スマートフォン、タブレット、携帯電話又はパーソナルコンピュータに搭載される、請求項1に記載のコンピュータプログラム。
- コンピュータにより読み取り可能な命令を実行するプロセッサにより実行される表示方法であって、
該プロセッサが、前記命令を実行することにより、
第1のセンサから演者の顔に関するデータを取得し、
前記データに基づいて生成された第1のデータを分類器に入力して、前記第1のデータに基づいて予め定められた複数の特定の表情のうちの1つの特定の表情を示す特定表情データを前記分類器から出力させ、
前記分類器から出力された前記特定表情データに対応する特定の表情を、表示すべき特定の表情として選択する、ことを特徴とする表示方法。 - 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項19に記載の表示方法。
- 前記プロセッサが、スマートフォン、タブレット、携帯電話又はパーソナルコンピュータに搭載される、請求項19に記載の表示方法。
- プロセッサを具備し、
該プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、
第1のセンサから演者の顔に関するデータを取得し、
前記データに基づいて生成された第1のデータを分類器に入力して、前記第1のデータに基づいて予め定められた複数の特定の表情のうちの1つの特定の表情を示す特定表情データを前記分類器から出力させ、
前記分類器から出力された前記特定表情データに対応する特定の表情を、表示すべき特定の表情として選択する、ことを特徴とする端末装置。 - 前記プロセッサが、中央処理装置(CPU)、マイクロプロセッサ又はグラフィックスプロセッシングユニット(GPU)である、請求項22に記載の端末装置。
- スマートフォン、タブレット、携帯電話又はパーソナルコンピュータである、請求項22に記載の端末装置。
- プロセッサを具備し、
該プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、
第1のセンサから演者の顔に関するデータを受信し、
前記データに基づいて生成された第1のデータを分類器に入力して、前記第1のデータに基づいて予め定められた複数の特定の表情のうちの1つの特定の表情を示す特定表情データを前記分類器から出力させ、
前記分類器から出力された前記特定表情データに対応する特定の表情を、表示すべき特定の表情として選択する、ことを特徴とするサーバ装置。 - コンピュータプログラムであって、
プロセッサにより実行されることにより、
第2のセンサから演者により発せられた発話及び/又は歌唱に関する音声データを取得し、
前記音声データに基づいて生成された第2のデータを分類器に入力して、前記第2のデータに基づいて予め定められた複数の特定の表情のうちの1つの特定の表情を示す特定表情データを前記分類器から出力させ、
前記分類器から出力された前記特定表情データに対応する特定の表情を、表示すべき特定の表情として選択する、
ように前記プロセッサを機能させる、ことを特徴とするコンピュータプログラム。 - プロセッサを具備し、
該プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、
第2のセンサから演者により発せられた発話及び/又は歌唱に関する音声データを取得し、
前記音声データに基づいて生成された第2のデータを分類器に入力して、前記第2のデータに基づいて予め定められた複数の特定の表情のうちの1つの特定の表情を示す特定表情データを前記分類器から出力させ、
前記分類器から出力された前記特定表情データに対応する特定の表情を、表示すべき特定の表情として選択する、ことを特徴とするサーバ装置。 - プロセッサを具備し、
該プロセッサが、コンピュータにより読み取り可能な命令を実行することにより、
第2のセンサから演者により発せられた発話及び/又は歌唱に関する音声データを取得し、
前記音声データに基づいて生成された第2のデータを分類器に入力して、前記第2のデータに基づいて予め定められた複数の特定の表情のうちの1つの特定の表情を示す特定表情データを前記分類器から出力させ、
前記分類器から出力された前記特定表情データに対応する特定の表情を、表示すべき特定の表情として選択する、ことを特徴とする端末装置。 - コンピュータにより読み取り可能な命令を実行するプロセッサにより実行される表示方法であって、
該プロセッサが、前記命令を実行することにより、
第2のセンサから演者により発せられた発話及び/又は歌唱に関する音声データを取得し、
前記音声データに基づいて生成された第2のデータを分類器に入力して、前記第2のデータに基づいて予め定められた複数の特定の表情のうちの1つの特定の表情を示す特定表情データを前記分類器から出力させ、
前記分類器から出力された前記特定表情データに対応する特定の表情を、表示すべき特定の表情として選択する、ことを特徴とする表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023077309A JP2023103335A (ja) | 2018-12-18 | 2023-05-09 | コンピュータプログラム、サーバ装置、端末装置及び表示方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018236543 | 2018-12-18 | ||
JP2018236543 | 2018-12-18 | ||
PCT/JP2019/049342 WO2020129959A1 (ja) | 2018-12-18 | 2019-12-17 | コンピュータプログラム、サーバ装置、端末装置及び表示方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023077309A Division JP2023103335A (ja) | 2018-12-18 | 2023-05-09 | コンピュータプログラム、サーバ装置、端末装置及び表示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020129959A1 true JPWO2020129959A1 (ja) | 2021-11-04 |
JP7278307B2 JP7278307B2 (ja) | 2023-05-19 |
Family
ID=71100379
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020561452A Active JP7278307B2 (ja) | 2018-12-18 | 2019-12-17 | コンピュータプログラム、サーバ装置、端末装置及び表示方法 |
JP2023077309A Pending JP2023103335A (ja) | 2018-12-18 | 2023-05-09 | コンピュータプログラム、サーバ装置、端末装置及び表示方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023077309A Pending JP2023103335A (ja) | 2018-12-18 | 2023-05-09 | コンピュータプログラム、サーバ装置、端末装置及び表示方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210312167A1 (ja) |
JP (2) | JP7278307B2 (ja) |
WO (1) | WO2020129959A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7234187B2 (ja) * | 2020-06-29 | 2023-03-07 | グリー株式会社 | 情報処理プログラム、情報処理方法、情報処理装置 |
WO2023199582A1 (ja) * | 2022-04-12 | 2023-10-19 | 株式会社Nttドコモ | 情報提供装置 |
CN114879877B (zh) * | 2022-05-23 | 2023-03-28 | 北京新唐思创教育科技有限公司 | 状态数据同步方法、装置、设备及存储介质 |
CN116597063B (zh) * | 2023-07-19 | 2023-12-05 | 腾讯科技(深圳)有限公司 | 图片渲染方法、装置、设备和介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004145625A (ja) * | 2002-10-24 | 2004-05-20 | Mitsubishi Electric Corp | 似顔絵の作成装置 |
JP2005044330A (ja) * | 2003-07-24 | 2005-02-17 | Univ Of California San Diego | 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置 |
JP2006185393A (ja) * | 2004-12-28 | 2006-07-13 | Oki Electric Ind Co Ltd | 情報端末装置 |
JP2009153692A (ja) * | 2007-12-26 | 2009-07-16 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像表示制御装置 |
JP2010176224A (ja) * | 2009-01-27 | 2010-08-12 | Nikon Corp | 画像処理装置およびデジタルカメラ |
US20130242031A1 (en) * | 2012-03-14 | 2013-09-19 | Frank Petterson | Modifying an appearance of a participant during a video conference |
JP2014211719A (ja) * | 2013-04-17 | 2014-11-13 | キヤノン株式会社 | 情報処理装置およびその方法 |
US20160247309A1 (en) * | 2014-09-24 | 2016-08-25 | Intel Corporation | User gesture driven avatar apparatus and method |
US20170069124A1 (en) * | 2015-04-07 | 2017-03-09 | Intel Corporation | Avatar generation and animations |
JP2018045350A (ja) * | 2016-09-13 | 2018-03-22 | Kddi株式会社 | 所定対象のうちの特定対象における状態を識別する装置、プログラム及び方法 |
JP2018092635A (ja) * | 2017-12-15 | 2018-06-14 | 株式会社コロプラ | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3485508B2 (ja) * | 1999-10-26 | 2004-01-13 | 株式会社国際電気通信基礎技術研究所 | 顔画像伝送方法およびシステムならびに当該システムで用いられる顔画像送信装置および顔画像再生装置 |
WO2005031654A1 (en) * | 2003-09-30 | 2005-04-07 | Koninklijke Philips Electronics, N.V. | System and method for audio-visual content synthesis |
US20080301557A1 (en) * | 2007-06-04 | 2008-12-04 | Igor Kotlyar | Systems, methods and software products for online dating |
WO2010074786A2 (en) * | 2008-12-04 | 2010-07-01 | Total Immersion Software, Inc. | System and methods for dynamically injecting expression information into an animated facial mesh |
TWI430185B (zh) * | 2010-06-17 | 2014-03-11 | Inst Information Industry | 臉部表情辨識系統及其辨識方法及其電腦程式產品 |
US9350951B1 (en) * | 2011-11-22 | 2016-05-24 | Scott Dallas Rowe | Method for interactive training and analysis |
US9747495B2 (en) * | 2012-03-06 | 2017-08-29 | Adobe Systems Incorporated | Systems and methods for creating and distributing modifiable animated video messages |
GB2516965B (en) * | 2013-08-08 | 2018-01-31 | Toshiba Res Europe Limited | Synthetic audiovisual storyteller |
US10042548B2 (en) * | 2015-06-02 | 2018-08-07 | Facebook, Inc. | Methods and systems for providing user feedback using an emotion scale |
JP6617053B2 (ja) * | 2016-02-29 | 2019-12-04 | Kddi株式会社 | 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法 |
US9812151B1 (en) * | 2016-11-18 | 2017-11-07 | IPsoft Incorporated | Generating communicative behaviors for anthropomorphic virtual agents based on user's affect |
JP2018116589A (ja) * | 2017-01-20 | 2018-07-26 | Kddi株式会社 | 対象画像の変更画像群を用いる状態識別装置、プログラム及び方法 |
KR101966384B1 (ko) * | 2017-06-29 | 2019-08-13 | 라인 가부시키가이샤 | 영상 처리 방법 및 시스템 |
US10586368B2 (en) * | 2017-10-26 | 2020-03-10 | Snap Inc. | Joint audio-video facial animation system |
US10375354B2 (en) * | 2018-01-05 | 2019-08-06 | Facebook, Inc. | Video communication using subtractive filtering |
US10719968B2 (en) * | 2018-04-18 | 2020-07-21 | Snap Inc. | Augmented expression system |
US10789753B2 (en) * | 2018-04-23 | 2020-09-29 | Magic Leap, Inc. | Avatar facial expression representation in multidimensional space |
US11722764B2 (en) * | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
US11379261B2 (en) * | 2019-11-12 | 2022-07-05 | Tata Consultancy Services Limited | Systems and methods for automatically creating an image processing pipeline |
-
2019
- 2019-12-17 JP JP2020561452A patent/JP7278307B2/ja active Active
- 2019-12-17 WO PCT/JP2019/049342 patent/WO2020129959A1/ja active Application Filing
-
2021
- 2021-06-18 US US17/351,252 patent/US20210312167A1/en active Pending
-
2023
- 2023-05-09 JP JP2023077309A patent/JP2023103335A/ja active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004145625A (ja) * | 2002-10-24 | 2004-05-20 | Mitsubishi Electric Corp | 似顔絵の作成装置 |
JP2005044330A (ja) * | 2003-07-24 | 2005-02-17 | Univ Of California San Diego | 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置 |
JP2006185393A (ja) * | 2004-12-28 | 2006-07-13 | Oki Electric Ind Co Ltd | 情報端末装置 |
JP2009153692A (ja) * | 2007-12-26 | 2009-07-16 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像表示制御装置 |
JP2010176224A (ja) * | 2009-01-27 | 2010-08-12 | Nikon Corp | 画像処理装置およびデジタルカメラ |
US20130242031A1 (en) * | 2012-03-14 | 2013-09-19 | Frank Petterson | Modifying an appearance of a participant during a video conference |
JP2014211719A (ja) * | 2013-04-17 | 2014-11-13 | キヤノン株式会社 | 情報処理装置およびその方法 |
US20160247309A1 (en) * | 2014-09-24 | 2016-08-25 | Intel Corporation | User gesture driven avatar apparatus and method |
US20170069124A1 (en) * | 2015-04-07 | 2017-03-09 | Intel Corporation | Avatar generation and animations |
JP2018045350A (ja) * | 2016-09-13 | 2018-03-22 | Kddi株式会社 | 所定対象のうちの特定対象における状態を識別する装置、プログラム及び方法 |
JP2018092635A (ja) * | 2017-12-15 | 2018-06-14 | 株式会社コロプラ | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Non-Patent Citations (1)
Title |
---|
中村 勝則 KATSUNORI NAKAMURA, 第81回(2019年)全国大会講演論文集(4) インタフェース コンピュータと人間社会, JPN6022028266, ISSN: 0004904714 * |
Also Published As
Publication number | Publication date |
---|---|
JP2023103335A (ja) | 2023-07-26 |
US20210312167A1 (en) | 2021-10-07 |
JP7278307B2 (ja) | 2023-05-19 |
WO2020129959A1 (ja) | 2020-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3381175B1 (en) | Apparatus and method for operating personal agent | |
JP7278307B2 (ja) | コンピュータプログラム、サーバ装置、端末装置及び表示方法 | |
JP6945375B2 (ja) | 画像生成装置及びプログラム | |
JP5859456B2 (ja) | プレゼンテーション用カメラ・ナビゲーション | |
JP4395687B2 (ja) | 情報処理装置 | |
CN112199002B (zh) | 基于虚拟角色的交互方法及装置、存储介质、计算机设备 | |
KR101306221B1 (ko) | 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법 | |
US11017551B2 (en) | System and method for identifying a point of interest based on intersecting visual trajectories | |
US20090128567A1 (en) | Multi-instance, multi-user animation with coordinated chat | |
CN109086860B (zh) | 一种基于虚拟人的交互方法及系统 | |
WO2007098560A1 (en) | An emotion recognition system and method | |
US20220215678A1 (en) | System and method for reconstructing unoccupied 3d space | |
US10785489B2 (en) | System and method for visual rendering based on sparse samples with predicted motion | |
CN107480766B (zh) | 多模态虚拟机器人的内容生成的方法和系统 | |
US20190251350A1 (en) | System and method for inferring scenes based on visual context-free grammar model | |
US20230173683A1 (en) | Behavior control device, behavior control method, and program | |
JP7479618B2 (ja) | 情報処理プログラム、情報処理方法、情報処理装置 | |
CN110176044B (zh) | 信息处理方法、装置、存储介质和计算机设备 | |
CN114025854A (zh) | 程序、方法以及终端装置 | |
EP4382182A1 (en) | Device and method for controlling a virtual avatar on an electronic device | |
US20240193838A1 (en) | Computer-implemented method for controlling a virtual avatar | |
WO2024080135A1 (ja) | 表示制御装置、表示制御方法および表示制御プログラム | |
KR102590988B1 (ko) | 아바타와 함께 운동하는 메타버스 서비스 제공 장치, 방법 및 프로그램 | |
CN116760942B (zh) | 一种全息互动远程会议方法及系统 | |
KR102396004B1 (ko) | 인공지능 예술 튜터링 시스템 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210622 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220906 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7278307 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |