JP2022531855A - テキストに基づくアバターの行動制御方法、デバイス及びコンピュータプログラム - Google Patents
テキストに基づくアバターの行動制御方法、デバイス及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022531855A JP2022531855A JP2021564427A JP2021564427A JP2022531855A JP 2022531855 A JP2022531855 A JP 2022531855A JP 2021564427 A JP2021564427 A JP 2021564427A JP 2021564427 A JP2021564427 A JP 2021564427A JP 2022531855 A JP2022531855 A JP 2022531855A
- Authority
- JP
- Japan
- Prior art keywords
- action
- text
- network
- coded
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 114
- 238000004590 computer program Methods 0.000 title claims 3
- 230000009471 action Effects 0.000 claims abstract description 272
- 239000013598 vector Substances 0.000 claims abstract description 171
- 230000008921 facial expression Effects 0.000 claims description 111
- 230000006399 behavior Effects 0.000 claims description 91
- 238000013507 mapping Methods 0.000 claims description 60
- 230000008451 emotion Effects 0.000 claims description 29
- 230000003542 behavioural effect Effects 0.000 claims description 21
- 230000008859 change Effects 0.000 claims description 12
- 230000001960 triggered effect Effects 0.000 claims description 9
- 230000002996 emotional effect Effects 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 description 128
- 230000033001 locomotion Effects 0.000 description 55
- 239000010410 layer Substances 0.000 description 52
- 230000008569 process Effects 0.000 description 46
- 238000012549 training Methods 0.000 description 15
- 230000007246 mechanism Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000013473 artificial intelligence Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 238000003058 natural language processing Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 3
- 230000014759 maintenance of location Effects 0.000 description 3
- 206010048232 Yawning Diseases 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000005562 fading Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 210000004205 output neuron Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241000556720 Manga Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/43—Editing text-bitmaps, e.g. alignment, spacing; Semantic analysis of bitmaps of text without OCR
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
Description
本出願は、2019年9月23日に「テキストに基づくアバターの行動制御方法、デバイス及び媒体」との発明の名称で中国特許庁に提出された中国特許出願第201910898521.6号の優先権を主張し、その全ての内容は参照により本出願に援用される。
本開示は、人工知能の技術分野に関し、より具体的には、テキストに基づくアバターの行動制御方法、デバイス及び媒体に関する。
プロセッサと、
前記プロセッサに接続されたメモリとを含み、前記メモリには、機械可読命令が格納され、前記機械可読命令がプロセッサによって実行されると、前記プロセッサは、上記の方法を実行するコンピュータデバイスを開示する。
(外1)
は、行動のカテゴリ数と同じ次元の行動予測ベクトルであり、各要素は、前記テキストが相応的な行動カテゴリに対応する確率値を表す。
(外2)
に基づいて、行動カテゴリを決定する。具体的には、hCLSを入力ベクトルとして第1の分類ネットワークに提供し、第1の分類ネットワークは、テキストが各行動カテゴリに対応する確率値を出力することができる。
(外3)
のうちの最大の確率値に対応するカテゴリiは、テキストが属する行動カテゴリである。図4には、5番目の要素が最大の確率値を有する場合、すなわち、i=5の場合が示されている。
(外4)
が所定の閾値よりも小さい場合、第1の分類ネットワークから出力された行動予測結果の信頼度は低いと考えられる。この場合、第1の分類ネットワークの予測結果を採用する代わりに、テキストが属する行動カテゴリを前記最大の確率値に対応する行動カテゴリとは異なる特定のカテゴリとして決定する。例えば、前記特定のカテゴリはニュートラルカテゴリであってもよい。一方、最大の確率値
(外5)
が所定の閾値よりも大きい場合、第1の分類ネットワークから出力された行動予測結果の信頼度は高いと考えられる。この場合、第1の分類ネットワークの予測結果を採用する。
0,0.5 /*0秒~0.5秒待ってから表情を作る*/,
0.3,0.5 /*0.3秒から0.5秒以内に表情をフェードインさせる(無から有へ)*/,
0.75,1 /*作られた表情の係数に対する表情の最終的な度合いの割合は0.75~1である*/,
0.5,1 /*表情の保持時間は0.5秒~1秒である*/,
0.3,0.5 /*0.15秒から0.3秒以内に表情をフェードアウトさせる(有から無へ)*/,
0.1,0.25 /*作られた表情の係数に対する表情の回復度合いの割合は0.1~0.3である*/,
2,4 /*次のマイクロエクスプレッション(存在する場合)が現れるまでの保持時間は2秒~4秒である*/
};
private static readonly double [] BlinkEyesDefaultRandomRanges = {
0,0.5 /*0秒~0.5秒待ってから表情を作る*/,
0.167,0.167 /*表情のフェードイン(無から有へ)時間は0.167秒間である*/,
1,1 /*表情のフェードインレベルは100%である*/,
0,0 /*表情を保持しない*/,
0.167,0.167 /*表情のフェードアウト(有から無へ)時間は0.167秒間である*/,
0,0 /*表情が完全に消えるまでフェードアウトする*/,
2,4 /*次のマイクロエクスプレッション(存在する場合)が現れるまでの保持時間は2秒~4秒である*/
};
Claims (15)
- 電子デバイスによって実行される、テキストに基づくアバターの行動制御方法であって、
テキストに特定のシンボルを挿入し、前記特定のシンボル及びテキストにおける各要素に対応する複数の入力ベクトルを生成するステップであって、前記特定のシンボルは、テキストの分類を表すものであるステップと、
前記複数の入力ベクトルの各々を少なくとも1層のネットワークノードを含む第1の符号化ネットワークに入力し、前記特定のシンボルに対応するネットワークノードのアテンションベクトルに基づいて、前記テキストにおける行動トリガー位置を決定するステップであって、前記アテンションベクトルにおける各要素は、前記特定のシンボルに対応するネットワークノードから該ネットワークノードと同じ層にある各ネットワークノードまでのアテンション重みをそれぞれ示すものであるステップと、
前記第1の符号化ネットワークから出力された、前記特定のシンボルに対応する第1の符号化ベクトルに基づいて、行動内容を決定するステップと、
前記テキストに対応する音声を再生し、前記行動トリガー位置まで再生されると、前記行動内容を提示するように前記アバターを制御するステップと、を含む方法。 - 前記特定のシンボルに対応するネットワークノードのアテンションベクトルに基づいて、前記テキストにおける行動トリガー位置を決定する前記ステップは、
前記第1の符号化ネットワークの各層における前記特定のシンボルに対応するネットワークノードのアテンションベクトルを計算し、全ての層におけるアテンションベクトルの平均値を決定して、平均アテンションベクトルを取得するステップと、
前記平均アテンションベクトルにおける最大値を持つ要素のインデックス位置に基づいて、前記行動トリガー位置を決定するステップと、を含む請求項1に記載の方法。 - 前記第1の符号化ネットワークは、各入力ベクトルに対応し、かつコンテキストの各要素のセマンティクスを統合した複数の第1の符号化ベクトルを出力し、
前記第1の符号化ネットワークから出力された、前記特定のシンボルに対応する第1の符号化ベクトルに基づいて、行動内容を決定する前記ステップは、
前記第1の符号化ネットワークから出力された、前記特定のシンボルに対応する第1の符号化ベクトルを第1の分類ネットワークに入力するステップと、
前記第1の分類ネットワークの出力に基づいて、前記テキストに対応する行動カテゴリを決定するステップと、
少なくとも前記行動カテゴリに基づいて、特定の行動マッピングによって前記行動内容を決定するステップと、を含む請求項1又は2に記載の方法。 - 前記特定の行動マッピングは、行動マッピングテーブルを含み、
少なくとも前記行動カテゴリに基づいて、特定の行動マッピングによって前記行動内容を決定する前記ステップは、
前記行動マッピングテーブルにおいて、前記行動カテゴリに対応する行動内容を検索して、それを前記行動内容として決定するステップをさらに含む、請求項3に記載の方法。 - 前記特定の行動マッピングは、前記アバターの適用場面によって異なる、請求項3に記載の方法。
- 前記第1の分類ネットワークの出力は、行動予測ベクトルであり、前記行動予測ベクトルの次元は、行動カテゴリの数と同じであり、前記行動予測ベクトルの各要素は、前記テキストが相応的な行動カテゴリに対応する確率値を表す、請求項3に記載の方法。
- 前記第1の分類ネットワークの出力に基づいて、前記テキストに対応する行動カテゴリを決定する前記ステップは、
前記行動予測ベクトルのうちの最大の確率値を決定するステップと、
前記最大の確率値が所定の閾値よりも大きい場合、前記最大の確率値に対応する行動カテゴリを前記テキストに対応する行動カテゴリとし、そうでない場合、前記最大の確率値に対応する行動カテゴリとは異なる特定のカテゴリを前記テキストに対応する行動カテゴリとして決定するステップと、を含む請求項6に記載の方法。 - 前記複数の入力ベクトルをそれぞれ第2の符号化ネットワークに入力するステップと、
前記第2の符号化ネットワークから出力された、前記特定のシンボルに対応する第2の符号化ベクトルを第2の分類ネットワークに入力するステップと、
前記第2の分類ネットワークの出力に基づいて、前記テキストに対応する感情カテゴリを決定するステップと、をさらに含み、
少なくとも前記行動カテゴリに基づいて、特定の行動マッピングによって前記行動内容を決定する前記ステップは、
前記行動カテゴリ及び前記感情カテゴリに基づいて、特定の行動マッピングによって前記行動内容を決定するステップをさらに含む、請求項3に記載の方法。 - 前記行動内容は、動作内容及び表情内容のうちの少なくとも1つを含む、請求項1から8のいずれか一項に記載の方法。
- 前記行動内容が動作内容と表情内容の両方を含む場合、前記第1の符号化ネットワークは、第3の符号化サブネットワークと第4の符号化サブネットワークとを含み、
前記複数の入力ベクトルの各々を第1の符号化ネットワークに入力し、前記特定のシンボルに対応するネットワークノードのアテンションベクトルに基づいて、前記テキストにおける行動トリガー位置を決定する前記ステップは、
前記複数の入力ベクトルの各々を少なくとも1層のネットワークノードを含む第3の符号化サブネットワークに入力し、前記特定のシンボルに対応する、前記第3の符号化サブネットワークにおけるネットワークノードのアテンションベクトルに基づいて、前記テキストにおける動作トリガー位置を決定するステップと、
前記複数の入力ベクトルの各々を少なくとも1層のネットワークノードを含む第4の符号化サブネットワークに入力し、前記特定のシンボルに対応する、前記第4の符号化サブネットワークにおけるネットワークノードのアテンションベクトルに基づいて、前記テキストにおける表情トリガー位置を決定するステップと、をさらに含む請求項9に記載の方法。 - 前記行動内容を提示するように前記アバターを制御する前記ステップは、
前記行動内容に基づいて、前記アバターが行動内容を提示しない状態から前記行動内容を提示する状態に一貫して変化するように、前記アバターの行動変化パラメーターを調整するステップをさらに含む、請求項1から10のいずれか一項に記載の方法。 - 前記行動変化パラメーターは、行動出現時間、行動終了時間及び行動変化係数のうちの少なくとも1つを含む、請求項11に記載の方法。
- テキストに特定のシンボルを挿入し、前記特定のシンボル及びテキストにおける各要素に対応する複数の入力ベクトルを生成するためのベクトル化装置であって、前記特定のシンボルは、テキストの分類を表すものである、前記ベクトル化装置と、
前記複数の入力ベクトルの各々を少なくとも1層のネットワークノードを含む第1の符号化ネットワークに入力し、前記特定のシンボルに対応するネットワークノードのアテンションベクトルに基づいて、前記テキストにおける行動トリガー位置を決定するための行動トリガー位置決定装置であって、前記アテンションベクトルにおける各要素は、前記特定のシンボルに対応するネットワークノードから該ネットワークノードと同じ層にある各ネットワークノードまでのアテンション重みをそれぞれ示すものである、前記行動トリガー位置決定装置と、
前記第1の符号化ネットワークから出力された、前記特定のシンボルに対応する第1の符号化ベクトルに基づいて、行動内容を決定するための行動内容決定装置と、
前記テキストに対応する音声を再生し、前記行動トリガー位置まで再生されると、前記行動内容を提示するようにアバターを制御するための行動提示装置と、を含むテキストに基づくアバターの行動制御デバイス。 - プロセッサと、
前記プロセッサに接続されたメモリとを含み、前記メモリには、機械可読命令が格納され、前記機械可読命令がプロセッサによって実行されると、前記プロセッサは、請求項1から12のいずれか一項に記載の方法を実行する、コンピュータデバイス。 - コンピュータプログラムであって、前記コンピュータプログラムがプロセッサによって実行されると、前記プロセッサは、請求項1から12のいずれか一項に記載の方法を実行する、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910898521.6A CN110598671B (zh) | 2019-09-23 | 2019-09-23 | 基于文本的虚拟形象行为控制方法、设备和介质 |
CN201910898521.6 | 2019-09-23 | ||
PCT/CN2020/113147 WO2021057424A1 (zh) | 2019-09-23 | 2020-09-03 | 基于文本的虚拟形象行为控制方法、设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022531855A true JP2022531855A (ja) | 2022-07-12 |
JP7210774B2 JP7210774B2 (ja) | 2023-01-23 |
Family
ID=68862313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021564427A Active JP7210774B2 (ja) | 2019-09-23 | 2020-09-03 | テキストに基づくアバターの行動制御方法、デバイス及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11714879B2 (ja) |
EP (1) | EP3926525A4 (ja) |
JP (1) | JP7210774B2 (ja) |
CN (1) | CN110598671B (ja) |
WO (1) | WO2021057424A1 (ja) |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
DE212014000045U1 (de) | 2013-02-07 | 2015-09-24 | Apple Inc. | Sprach-Trigger für einen digitalen Assistenten |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
WO2015184186A1 (en) | 2014-05-30 | 2015-12-03 | Apple Inc. | Multi-command single utterance input method |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
CN110598671B (zh) * | 2019-09-23 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 基于文本的虚拟形象行为控制方法、设备和介质 |
US11593984B2 (en) | 2020-02-07 | 2023-02-28 | Apple Inc. | Using text for avatar animation |
US11183193B1 (en) | 2020-05-11 | 2021-11-23 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN113194350B (zh) * | 2021-04-30 | 2022-08-19 | 百度在线网络技术(北京)有限公司 | 推送待播报数据、播报数据的方法和装置 |
CN114936283B (zh) * | 2022-05-18 | 2023-12-26 | 电子科技大学 | 一种基于Bert的网络舆情分析方法 |
CN116168134B (zh) * | 2022-12-28 | 2024-01-02 | 北京百度网讯科技有限公司 | 数字人的控制方法、装置、电子设备以及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006048379A (ja) * | 2004-08-04 | 2006-02-16 | Ntt Docomo Hokuriku Inc | コンテンツ生成装置 |
US20120280974A1 (en) * | 2011-05-03 | 2012-11-08 | Microsoft Corporation | Photo-realistic synthesis of three dimensional animation with facial features synchronized with speech |
US20160300379A1 (en) * | 2014-11-05 | 2016-10-13 | Intel Corporation | Avatar video apparatus and method |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4726065A (en) * | 1984-01-26 | 1988-02-16 | Horst Froessl | Image manipulation by speech signals |
US5151998A (en) * | 1988-12-30 | 1992-09-29 | Macromedia, Inc. | sound editing system using control line for altering specified characteristic of adjacent segment of the stored waveform |
CA2115210C (en) * | 1993-04-21 | 1997-09-23 | Joseph C. Andreshak | Interactive computer system recognizing spoken commands |
US5832428A (en) * | 1995-10-04 | 1998-11-03 | Apple Computer, Inc. | Search engine for phrase recognition based on prefix/body/suffix architecture |
GB9602701D0 (en) * | 1996-02-09 | 1996-04-10 | Canon Kk | Image manipulation |
GB9602691D0 (en) * | 1996-02-09 | 1996-04-10 | Canon Kk | Word model generation |
JP2000167244A (ja) * | 1998-12-11 | 2000-06-20 | Konami Computer Entertainment Osaka:Kk | ビデオゲーム装置、ビデオキャラクタに対する疑似チームへの入部勧誘処理制御方法及びビデオキャラクタに対する疑似チームへの入部勧誘処理制御プログラムを記録した可読記録媒体 |
US8676937B2 (en) * | 2011-05-12 | 2014-03-18 | Jeffrey Alan Rapaport | Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging |
TWI453628B (zh) * | 2012-01-12 | 2014-09-21 | Amtran Technology Co Ltd | 適應性調整虛擬按鍵尺寸的方法及其顯示裝置 |
CN102737397B (zh) * | 2012-05-25 | 2015-10-07 | 北京工业大学 | 基于运动偏移映射的有韵律头部运动合成方法 |
US9691296B2 (en) * | 2013-06-03 | 2017-06-27 | Massachusetts Institute Of Technology | Methods and apparatus for conversation coach |
CN103761963A (zh) * | 2014-02-18 | 2014-04-30 | 大陆汽车投资(上海)有限公司 | 包含情感类信息的文本的处理方法 |
CN104866101B (zh) * | 2015-05-27 | 2018-04-27 | 世优(北京)科技有限公司 | 虚拟对象的实时互动控制方法及装置 |
US10546015B2 (en) * | 2015-12-01 | 2020-01-28 | Facebook, Inc. | Determining and utilizing contextual meaning of digital standardized image characters |
US11314951B2 (en) * | 2016-11-28 | 2022-04-26 | Samsung Electronics Co., Ltd. | Electronic device for performing translation by sharing context of utterance and operation method therefor |
CN106653052B (zh) * | 2016-12-29 | 2020-10-16 | Tcl科技集团股份有限公司 | 虚拟人脸动画的生成方法及装置 |
US20180315415A1 (en) * | 2017-04-26 | 2018-11-01 | Soundhound, Inc. | Virtual assistant with error identification |
CN107329990A (zh) * | 2017-06-06 | 2017-11-07 | 北京光年无限科技有限公司 | 一种用于虚拟机器人的情绪输出方法以及对话交互系统 |
WO2019011968A1 (en) * | 2017-07-11 | 2019-01-17 | Deepmind Technologies Limited | LEARNING VISUAL CONCEPTS THROUGH NEURONAL NETWORKS |
CN108304388B (zh) * | 2017-09-12 | 2020-07-07 | 腾讯科技(深圳)有限公司 | 机器翻译方法及装置 |
US20190220474A1 (en) * | 2018-01-16 | 2019-07-18 | Entigenlogic Llc | Utilizing multiple knowledge bases to form a query response |
CN109885842B (zh) * | 2018-02-22 | 2023-06-20 | 谷歌有限责任公司 | 处理文本神经网络 |
US10642939B2 (en) * | 2018-02-24 | 2020-05-05 | Twenty Lane Media, LLC | Systems and methods for generating jokes |
US10878817B2 (en) * | 2018-02-24 | 2020-12-29 | Twenty Lane Media, LLC | Systems and methods for generating comedy |
CN108595590A (zh) * | 2018-04-19 | 2018-09-28 | 中国科学院电子学研究所苏州研究院 | 一种基于融合注意力模型的中文文本分类方法 |
CN108595601A (zh) * | 2018-04-20 | 2018-09-28 | 福州大学 | 一种融入Attention机制的长文本情感分析方法 |
CN109118562A (zh) * | 2018-08-31 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | 虚拟形象的讲解视频制作方法、装置以及终端 |
US20210365643A1 (en) * | 2018-09-27 | 2021-11-25 | Oracle International Corporation | Natural language outputs for path prescriber model simulation for nodes in a time-series network |
CN109377797A (zh) * | 2018-11-08 | 2019-02-22 | 北京葡萄智学科技有限公司 | 虚拟人物教学方法及装置 |
CN109783641A (zh) * | 2019-01-08 | 2019-05-21 | 中山大学 | 一种基于双向-gru和改进的注意力机制的实体关系分类方法 |
CN109859760A (zh) * | 2019-02-19 | 2019-06-07 | 成都富王科技有限公司 | 基于深度学习的电话机器人语音识别结果校正方法 |
US11790171B2 (en) * | 2019-04-16 | 2023-10-17 | Covera Health | Computer-implemented natural language understanding of medical reports |
CN110013671B (zh) * | 2019-05-05 | 2020-07-28 | 腾讯科技(深圳)有限公司 | 动作执行方法和装置、存储介质及电子装置 |
US11170774B2 (en) * | 2019-05-21 | 2021-11-09 | Qualcomm Incorproated | Virtual assistant device |
US11604981B2 (en) * | 2019-07-01 | 2023-03-14 | Adobe Inc. | Training digital content classification models utilizing batchwise weighted loss functions and scaled padding based on source density |
CN112487182B (zh) * | 2019-09-12 | 2024-04-12 | 华为技术有限公司 | 文本处理模型的训练方法、文本处理方法及装置 |
CN110598671B (zh) * | 2019-09-23 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 基于文本的虚拟形象行为控制方法、设备和介质 |
US20210304736A1 (en) * | 2020-03-30 | 2021-09-30 | Nvidia Corporation | Media engagement through deep learning |
US20210344798A1 (en) * | 2020-05-01 | 2021-11-04 | Walla Technologies Llc | Insurance information systems |
US11023688B1 (en) * | 2020-05-27 | 2021-06-01 | Roblox Corporation | Generation of text tags from game communication transcripts |
US11386625B2 (en) * | 2020-09-30 | 2022-07-12 | Snap Inc. | 3D graphic interaction based on scan |
US11620829B2 (en) * | 2020-09-30 | 2023-04-04 | Snap Inc. | Visual matching with a messaging application |
US11077367B1 (en) * | 2020-10-09 | 2021-08-03 | Mythical, Inc. | Systems and methods for using natural language processing (NLP) to control automated gameplay |
TWI746214B (zh) * | 2020-10-19 | 2021-11-11 | 財團法人資訊工業策進會 | 機器閱讀理解方法、機器閱讀理解裝置及非暫態電腦可讀取媒體 |
-
2019
- 2019-09-23 CN CN201910898521.6A patent/CN110598671B/zh active Active
-
2020
- 2020-09-03 JP JP2021564427A patent/JP7210774B2/ja active Active
- 2020-09-03 WO PCT/CN2020/113147 patent/WO2021057424A1/zh unknown
- 2020-09-03 EP EP20867870.6A patent/EP3926525A4/en active Pending
-
2021
- 2021-09-20 US US17/480,112 patent/US11714879B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006048379A (ja) * | 2004-08-04 | 2006-02-16 | Ntt Docomo Hokuriku Inc | コンテンツ生成装置 |
US20120280974A1 (en) * | 2011-05-03 | 2012-11-08 | Microsoft Corporation | Photo-realistic synthesis of three dimensional animation with facial features synchronized with speech |
US20160300379A1 (en) * | 2014-11-05 | 2016-10-13 | Intel Corporation | Avatar video apparatus and method |
Also Published As
Publication number | Publication date |
---|---|
CN110598671B (zh) | 2022-09-27 |
JP7210774B2 (ja) | 2023-01-23 |
CN110598671A (zh) | 2019-12-20 |
WO2021057424A1 (zh) | 2021-04-01 |
EP3926525A1 (en) | 2021-12-22 |
US11714879B2 (en) | 2023-08-01 |
EP3926525A4 (en) | 2022-06-29 |
US20220004825A1 (en) | 2022-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7210774B2 (ja) | テキストに基づくアバターの行動制御方法、デバイス及びコンピュータプログラム | |
CN112487182B (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
Chiu et al. | How to train your avatar: A data driven approach to gesture generation | |
CN106653052A (zh) | 虚拟人脸动画的生成方法及装置 | |
Nyatsanga et al. | A Comprehensive Review of Data‐Driven Co‐Speech Gesture Generation | |
CN111831798A (zh) | 信息处理方法、装置、电子设备及计算机可读存储介质 | |
WO2021174898A1 (zh) | 合成虚拟对象的动作序列的方法及设备 | |
WO2023284435A1 (zh) | 生成动画的方法及装置 | |
CN110069611B (zh) | 一种主题增强的聊天机器人回复生成方法及装置 | |
CN115293132B (zh) | 虚拟场景的对话处理方法、装置、电子设备及存储介质 | |
CN112819933A (zh) | 一种数据处理方法、装置、电子设备及存储介质 | |
CN112163560A (zh) | 一种视频信息处理方法、装置、电子设备及存储介质 | |
CN116958342A (zh) | 虚拟形象的动作生成方法、动作库的构建方法及装置 | |
CN117216234A (zh) | 基于人工智能的话术改写方法、装置、设备及存储介质 | |
CN113779224A (zh) | 一种基于用户对话历史的个性化对话生成方法与系统 | |
CN114298031A (zh) | 文本处理方法、计算机设备及存储介质 | |
Huang et al. | Recent advances in artificial intelligence for video production system | |
CN114743056A (zh) | 一种基于动态早退的图像描述生成模型及模型训练方法 | |
Zhao et al. | Generating Diverse Gestures from Speech Using Memory Networks as Dynamic Dictionaries | |
Teshima et al. | Integration of gesture generation system using gesture library with DIY robot design kit | |
Pari et al. | SLatAR-A Sign Language Translating Augmented Reality Application | |
WO2024066549A1 (zh) | 一种数据处理方法及相关设备 | |
KR102370993B1 (ko) | 신경망 기반의 실시간 수어 통역 및 대화를 지원하는 인공지능 시스템 | |
Yu | A Novel Framework and Design Methodologies for Optimal Animation Production Using Deep Learning | |
CN111783455B (zh) | 文本生成模型的训练方法及装置、文本生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211104 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221226 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7210774 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |