JP2021009669A - 三次元仮想ポートレートの口形の変化を制御する方法および装置 - Google Patents
三次元仮想ポートレートの口形の変化を制御する方法および装置 Download PDFInfo
- Publication number
- JP2021009669A JP2021009669A JP2019227956A JP2019227956A JP2021009669A JP 2021009669 A JP2021009669 A JP 2021009669A JP 2019227956 A JP2019227956 A JP 2019227956A JP 2019227956 A JP2019227956 A JP 2019227956A JP 2021009669 A JP2021009669 A JP 2021009669A
- Authority
- JP
- Japan
- Prior art keywords
- mouth shape
- voice
- sequence
- control parameter
- mouth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000008859 change Effects 0.000 title claims abstract description 37
- 239000011159 matrix material Substances 0.000 claims description 60
- 239000013598 vector Substances 0.000 claims description 21
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 230000000306 recurrent effect Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 11
- 230000006403 short-term memory Effects 0.000 claims description 8
- 230000007787 long-term memory Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000015654 memory Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 239000000835 fiber Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
- G10L2021/105—Synthesis of the lips movements from speech, e.g. for talking heads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
Claims (16)
- 再生対象の音声を取得するステップと、
少なくとも1つの音声セグメントを取得するために、前記再生対象の音声において所定の時間窓をプリセットステップサイズでスライドさせるステップと、
前記少なくとも1つの音声セグメントに基づいて、前記再生対象の音声に対応する口形制御パラメータシーケンスを生成するステップと、
前記再生対象の音声を再生する場合、前記口形制御パラメータシーケンスに基づいて、予め設定された三次元仮想ポートレートの口形の変化を制御するステップと、を含む、
三次元仮想ポートレートの口形の変化を制御する方法。 - 前記少なくとも1つの音声セグメントに基づいて、前記再生対象の音声に対応する口形制御パラメータシーケンスを生成する前記ステップは、
前記少なくとも1つの音声セグメントに基づいて、二次元特徴マトリックスシーケンスを生成するステップと、
前記二次元特徴マトリックスシーケンスを二次元特徴マトリックスと口形制御パラメータとの対応関係を特徴付ける、事前に確立された畳み込みニューラルネットワークに入力し、口形制御パラメータシーケンスを取得するステップと、を含む、
請求項1に記載の方法。 - 前記少なくとも1つの音声セグメントに基づいて、二次元特徴マトリックスシーケンスを生成する前記ステップは、
前記少なくとも1つの音声セグメントにおける音声セグメントに対して、この音声セグメントに対応する二次元特徴マトリックスを生成するステップと、
前記再生対象の音声における前記少なくとも1つの音声セグメントの優先順位に従って、生成された少なくとも1つの二次元特徴マトリックスを接合して二次元特徴マトリックスシーケンスを生成するステップと、を含む、
請求項2に記載の方法。 - 前記少なくとも1つの音声セグメントにおける音声セグメントに対して、この音声セグメントに対応する二次元特徴マトリックスを生成する前記ステップは、
この音声セグメントを隣接する2つの音声サブセグメントが部分的に重なる所定数の音声サブセグメントに分割するステップと、
前記所定数の音声サブセグメントにおける音声サブセグメントに対して、この音声サブセグメントの特徴を抽出し、この音声サブセグメントに対応する音声特徴ベクトルを取得するステップと、
取得された所定数の音声特徴ベクトルに基づいて、この音声セグメントに対応する二次元特徴マトリックスを生成するステップと、を含む、
請求項3に記載の方法。 - 前記少なくとも1つの音声セグメントに基づいて、前記再生対象の音声に対応する口形制御パラメータシーケンスを生成する前記ステップは、
前記少なくとも1つの音声セグメントにおける音声セグメントに対して、この音声セグメントの音素シーケンスを生成し、この音素シーケンスを符号化して音素情報を取得するステップと、
少なくとも1本の音素情報からなる音素情報シーケンスを音素情報シーケンスと口形キーポイント情報シーケンスとの対応関係を特徴付ける、事前に確立された口形キーポイント予測モデルに入力し、少なくとも1本の口形キーポイント情報からなる口形キーポイント情報シーケンスを取得するステップと、
前記口形キーポイント情報シーケンスに基づいて、口形制御パラメータシーケンスを生成するステップと、を含む、
請求項1に記載の方法。 - 前記口形キーポイント情報シーケンスに基づいて、口形制御パラメータシーケンスを生成する前記ステップは、
前記口形キーポイント情報シーケンス内の口形キーポイント情報に対して、事前に確立されたサンプル口形キーポイント情報とサンプル口形制御パラメータとの対応関係に基づいて、この口形キーポイント情報に対応する口形制御パラメータを取得するステップと、
取得された少なくとも1つの口形制御パラメータに基づいて、口形制御パラメータシーケンスを生成するステップと、を含む、
請求項5に記載の方法。 - 前記口形キーポイント予測モデルは、ループ本体が長期/短期記憶ネットワークであるリカレントニューラルネットワークである、
請求項5に記載の方法。 - 再生対象の音声を取得するように構成された取得ユニットと、
少なくとも1つの音声セグメントを取得するために、前記再生対象の音声において所定の時間窓をプリセットステップサイズでスライドさせるように構成されたスライドユニットと、
前記少なくとも1つの音声セグメントに基づいて、前記再生対象の音声に対応する口形制御パラメータシーケンスを生成するように構成された生成ユニットと、
前記再生対象の音声を再生する場合、前記口形制御パラメータシーケンスに基づいて、予め設定された三次元仮想ポートレートの口形の変化を制御するように構成された制御ユニットと、を含む、
三次元仮想ポートレートの口形の変化を制御する装置。 - 前記生成ユニットは、
前記少なくとも1つの音声セグメントに基づいて、二次元特徴マトリックスシーケンスを生成するように構成された第一生成サブユニットと、
前記二次元特徴マトリックスシーケンスを二次元特徴マトリックスと口形制御パラメータとの対応関係を特徴付ける、事前に確立された畳み込みニューラルネットワークに入力し、口形制御パラメータシーケンスを取得するように構成された第二生成サブユニットと、を含む、
請求項8に記載の装置。 - 前記第一生成サブユニットは、
前記少なくとも1つの音声セグメントにおける音声セグメントに対して、この音声セグメントに対応する二次元特徴マトリックスを生成するように構成された第一生成モジュールと、
前記再生対象の音声における前記少なくとも1つの音声セグメントの優先順位に従って、生成された少なくとも1つの二次元特徴マトリックスを接合して二次元特徴マトリックスシーケンスを生成するように構成された第二生成モジュールと、を含む、
請求項9に記載の装置。 - 前記第一生成モジュールは、さらに、
この音声セグメントを隣接する2つの音声サブセグメントが部分的に重なる所定数の音声サブセグメントに分割し、
前記所定数の音声サブセグメントにおける音声サブセグメントに対して、この音声サブセグメントの特徴を抽出し、この音声サブセグメントに対応する音声特徴ベクトルを取得し、
取得された所定数の音声特徴ベクトルに基づいて、この音声セグメントに対応する二次元特徴マトリックスを生成する
ように構成されている、請求項10に記載の装置。 - 前記生成ユニットは、
前記少なくとも1つの音声セグメントにおける音声セグメントに対して、この音声セグメントの音素シーケンスを生成し、この音素シーケンスを符号化して音素情報を取得するように構成された情報生成ユニットと、
少なくとも1本の音素情報からなる音素情報シーケンスを音素情報シーケンスと口形キーポイント情報シーケンスとの対応関係を特徴付ける、事前に確立された口形キーポイント予測モデルに入力し、少なくとも1本の口形キーポイント情報からなる口形キーポイント情報シーケンスを取得するように構成された情報シーケンス生成ユニットと、
前記口形キーポイント情報シーケンスに基づいて、口形制御パラメータシーケンスを生成するように構成されたパラメータシーケンス生成ユニットと、を含む、
請求項8に記載の装置。 - 前記パラメータシーケンス生成ユニットは、さらに、
前記口形キーポイント情報シーケンス内の口形キーポイント情報に対して、事前に確立されたサンプル口形キーポイント情報とサンプル口形制御パラメータとの対応関係に基づいて、この口形キーポイント情報に対応する口形制御パラメータを取得し、
取得された少なくとも1つの口形制御パラメータに基づいて、口形制御パラメータシーケンスを生成する
ように構成されている、請求項12に記載の装置。 - 前記口形キーポイント予測モデルは、ループ本体が長期/短期記憶ネットワークであるリカレントニューラルネットワークである、請求項12に記載の装置。
- 1つまたは複数のプロセッサと、
1つまたは複数のプログラムを記憶した記憶装置と、を含み、
前記1つまたは複数のプログラムが、前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサが請求項1〜7のいずれか一項に記載の方法を実行させる、端末装置。 - コンピュータプログラムを記憶したコンピュータ可読媒体であって、
前記コンピュータプログラムがプロセッサによって実行されると、請求項1〜7のいずれか一項に記載の方法を実行させるコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910573170.1A CN110288682B (zh) | 2019-06-28 | 2019-06-28 | 用于控制三维虚拟人像口型变化的方法和装置 |
CN201910573170.1 | 2019-06-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021009669A true JP2021009669A (ja) | 2021-01-28 |
JP6936298B2 JP6936298B2 (ja) | 2021-09-15 |
Family
ID=68019899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019227956A Active JP6936298B2 (ja) | 2019-06-28 | 2019-12-18 | 三次元仮想ポートレートの口形の変化を制御する方法および装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11308671B2 (ja) |
JP (1) | JP6936298B2 (ja) |
KR (1) | KR102346046B1 (ja) |
CN (1) | CN110288682B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022530726A (ja) * | 2020-03-31 | 2022-07-01 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | インタラクティブ対象駆動方法、装置、デバイス、及び記録媒体 |
WO2022158342A1 (ja) | 2021-01-25 | 2022-07-28 | 三菱重工サーマルシステムズ株式会社 | 光照射ユニット、及び車両用空調装置 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110716634A (zh) * | 2019-08-28 | 2020-01-21 | 北京市商汤科技开发有限公司 | 交互方法、装置、设备以及显示设备 |
CN110531860B (zh) * | 2019-09-02 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的动画形象驱动方法和装置 |
CN110930481B (zh) * | 2019-12-11 | 2024-06-04 | 北京慧夜科技有限公司 | 一种口型控制参数的预测方法和系统 |
CN111294665B (zh) * | 2020-02-12 | 2021-07-20 | 百度在线网络技术(北京)有限公司 | 视频的生成方法、装置、电子设备及可读存储介质 |
CN111459452B (zh) * | 2020-03-31 | 2023-07-18 | 北京市商汤科技开发有限公司 | 交互对象的驱动方法、装置、设备以及存储介质 |
CN111698552A (zh) * | 2020-05-15 | 2020-09-22 | 完美世界(北京)软件科技发展有限公司 | 一种视频资源的生成方法和装置 |
CN111652165B (zh) * | 2020-06-08 | 2022-05-17 | 北京世纪好未来教育科技有限公司 | 口型评测方法、设备及计算机存储介质 |
CN112333179B (zh) * | 2020-10-30 | 2023-11-10 | 腾讯科技(深圳)有限公司 | 虚拟视频的直播方法、装置、设备及可读存储介质 |
CN112991006A (zh) * | 2021-03-01 | 2021-06-18 | 深圳市改购时尚科技有限公司 | 基于试衣机的智能试衣方法、装置、设备及存储介质 |
CN115222856B (zh) * | 2022-05-20 | 2023-09-26 | 一点灵犀信息技术(广州)有限公司 | 表情动画生成方法及电子设备 |
KR102649818B1 (ko) * | 2022-05-26 | 2024-03-21 | 주식회사 딥브레인에이아이 | 3d 립싱크 비디오 생성 장치 및 방법 |
WO2024128356A1 (ko) * | 2022-12-15 | 2024-06-20 | 엘지전자 주식회사 | 인공 지능 장치 및 그의 3차원 에이전시 생성 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008052628A (ja) * | 2006-08-28 | 2008-03-06 | Advanced Telecommunication Research Institute International | アニメーションデータ作成装置及びアニメーションデータ作成プログラム |
JP2018513399A (ja) * | 2015-11-25 | 2018-05-24 | バイドゥ ユーエスエー エルエルシーBaidu USA LLC | 配置されたエンドツーエンド音声認識 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7388586B2 (en) * | 2005-03-31 | 2008-06-17 | Intel Corporation | Method and apparatus for animation of a human speaker |
KR100813034B1 (ko) * | 2006-12-07 | 2008-03-14 | 한국전자통신연구원 | 캐릭터 형성방법 |
JP6518134B2 (ja) * | 2015-05-27 | 2019-05-22 | 株式会社ソニー・インタラクティブエンタテインメント | 眼前装着型表示装置 |
CN106356052B (zh) * | 2016-10-17 | 2019-03-15 | 腾讯科技(深圳)有限公司 | 语音合成方法及装置 |
KR20180071029A (ko) * | 2016-12-19 | 2018-06-27 | 삼성전자주식회사 | 음성 인식 방법 및 장치 |
CN106920547B (zh) * | 2017-02-21 | 2021-11-02 | 腾讯科技(上海)有限公司 | 语音转换方法和装置 |
US10586368B2 (en) * | 2017-10-26 | 2020-03-10 | Snap Inc. | Joint audio-video facial animation system |
CN108447474B (zh) * | 2018-03-12 | 2020-10-16 | 北京灵伴未来科技有限公司 | 一种虚拟人物语音与口型同步的建模与控制方法 |
CN108763190B (zh) * | 2018-04-12 | 2019-04-02 | 平安科技(深圳)有限公司 | 基于语音的口型动画合成装置、方法及可读存储介质 |
CN108831463B (zh) * | 2018-06-28 | 2021-11-12 | 广州方硅信息技术有限公司 | 唇语合成方法、装置、电子设备及存储介质 |
CN109308731B (zh) * | 2018-08-24 | 2023-04-25 | 浙江大学 | 级联卷积lstm的语音驱动唇形同步人脸视频合成算法 |
CN109377539B (zh) * | 2018-11-06 | 2023-04-11 | 北京百度网讯科技有限公司 | 用于生成动画的方法和装置 |
CN109599113A (zh) * | 2019-01-22 | 2019-04-09 | 北京百度网讯科技有限公司 | 用于处理信息的方法和装置 |
-
2019
- 2019-06-28 CN CN201910573170.1A patent/CN110288682B/zh active Active
- 2019-12-13 KR KR1020190167247A patent/KR102346046B1/ko active IP Right Grant
- 2019-12-18 JP JP2019227956A patent/JP6936298B2/ja active Active
- 2019-12-19 US US16/721,772 patent/US11308671B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008052628A (ja) * | 2006-08-28 | 2008-03-06 | Advanced Telecommunication Research Institute International | アニメーションデータ作成装置及びアニメーションデータ作成プログラム |
JP2018513399A (ja) * | 2015-11-25 | 2018-05-24 | バイドゥ ユーエスエー エルエルシーBaidu USA LLC | 配置されたエンドツーエンド音声認識 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022530726A (ja) * | 2020-03-31 | 2022-07-01 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | インタラクティブ対象駆動方法、装置、デバイス、及び記録媒体 |
WO2022158342A1 (ja) | 2021-01-25 | 2022-07-28 | 三菱重工サーマルシステムズ株式会社 | 光照射ユニット、及び車両用空調装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110288682A (zh) | 2019-09-27 |
US20200410731A1 (en) | 2020-12-31 |
JP6936298B2 (ja) | 2021-09-15 |
KR20210001859A (ko) | 2021-01-06 |
KR102346046B1 (ko) | 2021-12-30 |
US11308671B2 (en) | 2022-04-19 |
CN110288682B (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6936298B2 (ja) | 三次元仮想ポートレートの口形の変化を制御する方法および装置 | |
US11158102B2 (en) | Method and apparatus for processing information | |
JP7104683B2 (ja) | 情報を生成する方法および装置 | |
JP7208952B2 (ja) | 対話モデルを生成するための方法及び装置 | |
CN111599343B (zh) | 用于生成音频的方法、装置、设备和介质 | |
CN111916039B (zh) | 音乐文件的处理方法、装置、终端及存储介质 | |
US20230215068A1 (en) | Method for outputting blend shape value, storage medium, and electronic device | |
JP2023525173A (ja) | レンダリングされたグラフィカル出力を利用する会話型aiプラットフォーム | |
JP2021170313A (ja) | ビデオを生成する方法および装置 | |
JP7473676B2 (ja) | オーディオ処理方法、装置、可読媒体及び電子機器 | |
CN110047121B (zh) | 端到端的动画生成方法、装置及电子设备 | |
JP2023552854A (ja) | ヒューマンコンピュータインタラクション方法、装置、システム、電子機器、コンピュータ可読媒体及びプログラム | |
CN110534085B (zh) | 用于生成信息的方法和装置 | |
CN113704390A (zh) | 虚拟对象的交互方法、装置、计算机可读介质及电子设备 | |
JP6949931B2 (ja) | 情報を生成するための方法および装置 | |
CN112381926B (zh) | 用于生成视频的方法和装置 | |
CN112383721B (zh) | 用于生成视频的方法、装置、设备和介质 | |
CN113282791A (zh) | 视频生成方法和装置 | |
CN116564272A (zh) | 提供语音内容的方法及电子设备 | |
CN114401439B (zh) | 一种舞蹈视频生成方法、设备及存储介质 | |
CN117935323A (zh) | 人脸驱动模型的训练方法、视频生成方法及装置 | |
US12033619B2 (en) | Intelligent media transcription | |
CA3108116A1 (en) | Real-time lip synchronization animation | |
CN112383722B (zh) | 用于生成视频的方法和装置 | |
KR102663162B1 (ko) | 음성 합성 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200529 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200529 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210316 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210702 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210826 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6936298 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |