JP7313558B2 - 対話応答生成システムのためのシステムおよび方法 - Google Patents
対話応答生成システムのためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7313558B2 JP7313558B2 JP2022528410A JP2022528410A JP7313558B2 JP 7313558 B2 JP7313558 B2 JP 7313558B2 JP 2022528410 A JP2022528410 A JP 2022528410A JP 2022528410 A JP2022528410 A JP 2022528410A JP 7313558 B2 JP7313558 B2 JP 7313558B2
- Authority
- JP
- Japan
- Prior art keywords
- encoder decoder
- multimodal
- multimodal encoder
- decoder
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004044 response Effects 0.000 title claims description 55
- 238000000034 method Methods 0.000 title claims description 50
- 238000012549 training Methods 0.000 claims description 42
- 239000013598 vector Substances 0.000 claims description 40
- 230000006870 function Effects 0.000 claims description 18
- 238000005457 optimization Methods 0.000 claims description 9
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 16
- 230000004927 fusion Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000003278 mimic effect Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000009118 appropriate response Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 235000019987 cider Nutrition 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/041—Abduction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Electrically Operated Instructional Devices (AREA)
Description
訓練方法
訓練システム
推論システム
AVSDシステム
Claims (12)
- 対話応答生成システムを訓練するためのコンピュータ実施方法であって、
映像訓練解説を用いて音声映像データセットを訓練することによって、第1のマルチモーダルエンコーダデコーダを予め訓練するステップと、
第1の入力および第1の出力を含む前記第1のマルチモーダルエンコーダデコーダを配置するステップを含み、
第2の入力および第2の出力を含む第2のマルチモーダルエンコーダデコーダを配置するステップと、
対応する第1の解説文を含む第1の音声映像データセットを前記第1のマルチモーダルエンコーダデコーダの前記第1の入力に提供するステップとを含み、アテンションベースの前記第1のマルチモーダルエンコーダデコーダは、前記対応する第1の解説文を含む前記第1の音声映像データセットに基づいて、第1の出力値を生成し、
前記対応する第1の解説文を除く前記第1の音声映像データセットを前記第2のマルチモーダルエンコーダデコーダに提供するステップを含み、前記第2のマルチモーダルエンコーダデコーダは、前記対応する第1の解説文を含まない前記第1の音声映像データセットに基づいて、第2の出力値を生成し、最適化モジュールは、前記第1の出力値と前記第2の出力値との間の誤差が所定の範囲に低減するまで、前記第2のマルチモーダルエンコーダデコーダのネットワークパラメータを更新し、前記誤差は、損失関数に基づいて計算される、コンピュータ実施方法。 - 前記損失関数は、クロスエントロピー損失関数である、請求項1に記載のコンピュータ実施方法。
- 前記損失関数は、前記第1のマルチモーダルエンコーダデコーダのコンテキストベクトルと前記第2のマルチモーダルエンコーダデコーダのコンテキストベクトルとの間の平均二乗誤差を取り入れる、請求項2に記載のコンピュータ実施方法。
- 前記第1のマルチモーダルエンコーダデコーダのパラメータは、更新されない、請求項1に記載のコンピュータ実施方法。
- 前記最適化モジュールは、クロスエントロピー損失関数に基づいて、前記第1のマルチモーダルエンコーダデコーダのパラメータを更新する、請求項1に記載のコンピュータ実施方法。
- 前記最適化モジュールは、逆伝搬法を用いて、前記第2のマルチモーダルエンコーダデコーダの前記ネットワークパラメータを更新する、請求項1に記載のコンピュータ実施方法。
- 対話応答生成システムを訓練するためのシステムであって、
1つ以上のプロセッサによって実行される命令を記憶するためのメモリおよび1つ以上の記憶装置と、
前記メモリおよび前記1つ以上の記憶装置に接続された前記1つ以上のプロセッサとを備え、前記メモリおよび前記1つ以上の記憶装置は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに以下のステップを含む動作を実行させることが可能であり、前記ステップは、
映像訓練解説を用いて音声映像データセットを訓練することによって、第1のマルチモーダルエンコーダデコーダを予め訓練するステップと、
第1の入力および第1の出力を含む前記第1のマルチモーダルエンコーダデコーダを配置するステップを含み、
第2の入力および第2の出力を含む第2のマルチモーダルエンコーダデコーダを配置するステップと、
対応する第1の解説文を含む第1の音声映像データセットを前記第1のマルチモーダルエンコーダデコーダの前記第1の入力に提供するステップとを含み、アテンションベースの前記第1のマルチモーダルエンコーダデコーダは、前記対応する第1の解説文を含む前記第1の音声映像データセットに基づいて、第1の出力値を生成し、
前記対応する第1の解説文を除く前記第1の音声映像データセットを前記第2のマルチモーダルエンコーダデコーダに提供するステップを含み、前記第2のマルチモーダルエンコーダデコーダは、前記対応する第1の解説文を含まない前記第1の音声映像データセットに基づいて、第2の出力値を生成し、最適化モジュールは、前記第1の出力値と前記第2の出力値との間の誤差が所定の範囲に低減するまで、前記第2のマルチモーダルエンコーダデコーダのネットワークパラメータを更新し、前記誤差は、損失関数に基づいて計算される、システム。 - 前記損失関数は、クロスエントロピー損失関数である、請求項7に記載のシステム。
- 前記損失関数は、前記第1のマルチモーダルエンコーダデコーダのコンテキストベクトルと前記第2のマルチモーダルエンコーダデコーダのコンテキストベクトルとの間の平均二乗誤差を取り入れる、請求項8に記載のシステム。
- 前記第1のマルチモーダルエンコーダデコーダのパラメータは、更新されない、請求項7に記載のシステム。
- 前記最適化モジュールは、クロスエントロピー損失関数に基づいて、前記第1のマルチモーダルエンコーダデコーダのパラメータを更新する、請求項7に記載のシステム。
- 前記最適化モジュールは、逆伝搬法を用いて、前記第2のマルチモーダルエンコーダデコーダの前記ネットワークパラメータを更新する、請求項7に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/569,679 | 2019-09-13 | ||
US16/569,679 US11264009B2 (en) | 2019-09-13 | 2019-09-13 | System and method for a dialogue response generation system |
PCT/JP2020/029373 WO2021049199A1 (en) | 2019-09-13 | 2020-07-22 | System and method for a dialogue response generation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022539620A JP2022539620A (ja) | 2022-09-12 |
JP7313558B2 true JP7313558B2 (ja) | 2023-07-24 |
Family
ID=72322507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022528410A Active JP7313558B2 (ja) | 2019-09-13 | 2020-07-22 | 対話応答生成システムのためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11264009B2 (ja) |
EP (1) | EP3857459B1 (ja) |
JP (1) | JP7313558B2 (ja) |
CN (1) | CN114365121A (ja) |
WO (1) | WO2021049199A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200104678A1 (en) * | 2018-09-27 | 2020-04-02 | Google Llc | Training optimizer neural networks |
JP7442631B2 (ja) * | 2019-10-18 | 2024-03-04 | グーグル エルエルシー | エンドツーエンドのマルチスピーカ視聴覚自動音声認識 |
US11157554B2 (en) * | 2019-11-05 | 2021-10-26 | International Business Machines Corporation | Video response generation and modification |
US11562147B2 (en) * | 2020-01-23 | 2023-01-24 | Salesforce.Com, Inc. | Unified vision and dialogue transformer with BERT |
US11461681B2 (en) * | 2020-10-14 | 2022-10-04 | Openstream Inc. | System and method for multi-modality soft-agent for query population and information mining |
US11601830B2 (en) * | 2020-11-23 | 2023-03-07 | Verizon Patent And Licensing Inc. | Systems and methods for autonomous network management using deep reinforcement learning |
KR20220086342A (ko) * | 2020-12-16 | 2022-06-23 | 삼성전자주식회사 | 음성 입력의 응답 제공 방법 및 이를 지원하는 전자 장치 |
CN113868395B (zh) * | 2021-10-11 | 2024-08-02 | 北京明略软件系统有限公司 | 多轮对话生成式模型建立方法、系统、电子设备及介质 |
CN114357968A (zh) * | 2021-11-29 | 2022-04-15 | 阿里巴巴达摩院(杭州)科技有限公司 | 对话方法以及装置 |
US20230352002A1 (en) * | 2022-04-28 | 2023-11-02 | Dell Products L.P. | Automatically extracting information from conversation text data using machine learning techniques |
CN115098765A (zh) * | 2022-05-20 | 2022-09-23 | 青岛海尔电冰箱有限公司 | 基于深度学习的信息推送方法、装置、设备及存储介质 |
CN115495568B (zh) * | 2022-11-17 | 2023-08-22 | 苏州浪潮智能科技有限公司 | 一种对话模型的训练方法及装置、对话响应方法及装置 |
CN116091773B (zh) * | 2023-02-02 | 2024-04-05 | 北京百度网讯科技有限公司 | 图像分割模型的训练方法、图像分割方法和装置 |
CN116721221B (zh) * | 2023-08-08 | 2024-01-12 | 浪潮电子信息产业股份有限公司 | 基于多模态的三维内容生成方法、装置、设备及存储介质 |
CN117290461B (zh) * | 2023-11-24 | 2024-02-06 | 湖南君安科技有限公司 | 融合aspp模块与跨模态交互的多模态对话生成方法 |
CN118248132B (zh) * | 2024-05-27 | 2024-07-19 | 云南师范大学 | 一种基于自适应音频上下文注意力的教学场景语音识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017534956A (ja) | 2015-05-21 | 2017-11-24 | バイドゥ ユーエスエイ エルエルシーBaidu USA LLC | 多言語画像質問応答 |
WO2018051841A1 (ja) | 2016-09-16 | 2018-03-22 | 日本電信電話株式会社 | モデル学習装置、その方法、及びプログラム |
WO2018124309A1 (en) | 2016-12-30 | 2018-07-05 | Mitsubishi Electric Corporation | Method and system for multi-modal fusion model |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11568627B2 (en) * | 2015-11-18 | 2023-01-31 | Adobe Inc. | Utilizing interactive deep learning to select objects in digital visual media |
CN109804383B (zh) * | 2016-08-04 | 2024-03-26 | 谷歌有限责任公司 | 使用神经网络编码和重构输入 |
US10762425B2 (en) * | 2017-09-26 | 2020-09-01 | Nvidia Corporation | Learning affinity via a spatial propagation neural network |
US20190341025A1 (en) * | 2018-04-18 | 2019-11-07 | Sony Interactive Entertainment Inc. | Integrated understanding of user characteristics by multimodal processing |
KR102265703B1 (ko) * | 2018-04-18 | 2021-06-17 | 모빌아이 비젼 테크놀로지스 엘티디. | 카메라를 이용한 차량 환경 모델링 |
US10861483B2 (en) * | 2018-11-29 | 2020-12-08 | i2x GmbH | Processing video and audio data to produce a probability distribution of mismatch-based emotional states of a person |
US20200226675A1 (en) * | 2019-01-15 | 2020-07-16 | Adobe Inc. | Utilizing machine learning to generate parametric distributions for digital bids in a real-time digital bidding environment |
-
2019
- 2019-09-13 US US16/569,679 patent/US11264009B2/en active Active
-
2020
- 2020-07-22 EP EP20765105.0A patent/EP3857459B1/en active Active
- 2020-07-22 JP JP2022528410A patent/JP7313558B2/ja active Active
- 2020-07-22 CN CN202080063045.7A patent/CN114365121A/zh active Pending
- 2020-07-22 WO PCT/JP2020/029373 patent/WO2021049199A1/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017534956A (ja) | 2015-05-21 | 2017-11-24 | バイドゥ ユーエスエイ エルエルシーBaidu USA LLC | 多言語画像質問応答 |
WO2018051841A1 (ja) | 2016-09-16 | 2018-03-22 | 日本電信電話株式会社 | モデル学習装置、その方法、及びプログラム |
WO2018124309A1 (en) | 2016-12-30 | 2018-07-05 | Mitsubishi Electric Corporation | Method and system for multi-modal fusion model |
JP2019535063A (ja) | 2016-12-30 | 2019-12-05 | 三菱電機株式会社 | マルチモーダルフュージョンモデルのための方法及びシステム |
Non-Patent Citations (2)
Title |
---|
ALAMRI, H et al.,"Audio-Visual Scene-Aware Dialog",arXiv.org [online],2019年05月,pp. 1-15,[retrieved on 2023.02.03], Retrieved from the Internet: <URL: https://arxiv.org/abs/1901.09107v2>,<DOI: 10.48550/arXiv.1901.09107> |
HORI, C et al.,"End-to-end Audio Visual Scene-aware Dialog Using Multimodal Attention-based Video Features",ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) [online],IEEE,2019年05月,pp. 2352-2356,[retrieved on 2023.02.03], Retrieved from the Internet: <URL: https://ieeexplore.ieee.org/document/8682583>,<DOI: 10.1109/ICASSP.2019.8682583> |
Also Published As
Publication number | Publication date |
---|---|
WO2021049199A1 (en) | 2021-03-18 |
JP2022539620A (ja) | 2022-09-12 |
EP3857459B1 (en) | 2023-01-11 |
EP3857459A1 (en) | 2021-08-04 |
CN114365121A (zh) | 2022-04-15 |
US20210082398A1 (en) | 2021-03-18 |
US11264009B2 (en) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7313558B2 (ja) | 対話応答生成システムのためのシステムおよび方法 | |
US10388284B2 (en) | Speech recognition apparatus and method | |
JP6719663B2 (ja) | マルチモーダルフュージョンモデルのための方法及びシステム | |
JP7066349B2 (ja) | 翻訳方法、翻訳装置及びコンピュータプログラム | |
US11200467B2 (en) | Artificial intelligence apparatus and method for recognizing object included in image data | |
JP7170920B2 (ja) | トリガードアテンションを用いたエンドツーエンド音声認識のためのシステムおよび方法 | |
KR102331675B1 (ko) | 사용자의 음성을 인식하는 인공 지능 장치 및 그 방법 | |
WO2022134894A1 (zh) | 语音识别方法、装置、计算机设备及存储介质 | |
KR20210047173A (ko) | 오인식된 단어를 바로잡아 음성을 인식하는 인공 지능 장치 및 그 방법 | |
KR102281600B1 (ko) | 합성 음성에 대한 보정을 수행하는 인공 지능 장치 및 그 방법 | |
US11355101B2 (en) | Artificial intelligence apparatus for training acoustic model | |
JP2005003926A (ja) | 情報処理装置および方法、並びにプログラム | |
KR20190113693A (ko) | 단어 사용 빈도를 고려하여 사용자의 음성을 인식하는 인공 지능 장치 및 그 방법 | |
KR102408308B1 (ko) | 센서 변환 집중 네트워크 모델 | |
US11468247B2 (en) | Artificial intelligence apparatus for learning natural language understanding models | |
KR20240068704A (ko) | 준지도 스피치 인식을 위한 대조 샴 네트워크 | |
CN111161724B (zh) | 中文视听结合语音识别方法、系统、设备及介质 | |
CN117877125B (zh) | 动作识别及其模型训练方法、装置、电子设备、存储介质 | |
US20240104311A1 (en) | Hybrid language translation on mobile devices | |
US20240265911A1 (en) | Adaptive visual speech recognition | |
Zhu | English Pronunciation Standards Based on Multimodal Acoustic Sensors | |
CN116978362A (zh) | 槽位预测模型的训练与预测方法、装置、设备及存储介质 | |
KR20240058737A (ko) | 수어를 음성 신호로 변환하는 장치 및 방법 | |
WO2024129789A1 (en) | Semi-supervised training scheme for speech recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220107 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230711 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7313558 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |