JP7190017B2 - 言語モデルのトレーニング方法、装置、及び電子機器 - Google Patents
言語モデルのトレーニング方法、装置、及び電子機器 Download PDFInfo
- Publication number
- JP7190017B2 JP7190017B2 JP2021174059A JP2021174059A JP7190017B2 JP 7190017 B2 JP7190017 B2 JP 7190017B2 JP 2021174059 A JP2021174059 A JP 2021174059A JP 2021174059 A JP2021174059 A JP 2021174059A JP 7190017 B2 JP7190017 B2 JP 7190017B2
- Authority
- JP
- Japan
- Prior art keywords
- syntax
- slot
- weight
- diagram
- count
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 86
- 238000000034 method Methods 0.000 title claims description 58
- 238000010586 diagram Methods 0.000 claims description 131
- 238000004364 calculation method Methods 0.000 claims description 20
- 230000015654 memory Effects 0.000 claims description 19
- 238000004458 analytical method Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 9
- 230000009467 reduction Effects 0.000 claims description 6
- 238000002347 injection Methods 0.000 claims description 2
- 239000007924 injection Substances 0.000 claims description 2
- 238000011946 reduction process Methods 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 80
- 230000003993 interaction Effects 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 239000000243 solution Substances 0.000 description 6
- 238000009499 grossing Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 235000006810 Caesalpinia ciliata Nutrition 0.000 description 1
- 241000059739 Caesalpinia ciliata Species 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000001994 activation Methods 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- RJMUSRYZPJIFPJ-UHFFFAOYSA-N niclosamide Chemical compound OC1=CC=C(Cl)C=C1C(=O)NC1=CC=C([N+]([O-])=O)C=C1Cl RJMUSRYZPJIFPJ-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/5443—Sum of products
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computational Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Machine Translation (AREA)
Description
第5の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータに本願の第1の態様に記載の言語モデルのトレーニング方法を実行させる。
(日本語で「明日、杭州の天気はどうであるか」)の場合、サンプルテキスト3に対応する中国語の構文は、「時間」+「場所」+「の」+「天気」+「どうであるか」であり、中国語の構文には、「時間」、「場所」、「の」、「天気」、及び「どうであるか」の5つのスロットが順に含まれ、サンプルテキスト3に対応する中国語の構文における「時間」のスロットに対応するスロット値は明日であり、「場所」のスロットに対応するスロット値は杭州であることが分かる。
本願の実施例によれば、本願は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本願によって提供される言語モデルのトレーニング方法を実行させる。
Claims (17)
- 言語モデルのトレーニング方法であって、
セマンティック解析モジュールを使用して、サンプルテキストに対応する構文及び前記構文におけるスロットに対応するスロット値を取得するステップと、
前記構文及び前記構文における前記スロットに対応するスロット値に基づいて、前記構文に対応する構文図を生成するステップと、
前記サンプルテキストに基づいて、前記構文図における前記構文の重み、前記スロットの重み及び前記スロット値の重みを取得するステップと、
前記構文図における前記構文の重み、前記スロットの重み及び前記スロット値の重みに基づいて、異なる次数の構文カウントを計算するステップと、
前記構文カウントに基づいて、言語モデルのトレーニングを行うステップと、を含む、
ことを特徴とする言語モデルのトレーニング方法。 - 前記セマンティック解析モジュールは、自然言語理解セマンティック解析モジュールである、
ことを特徴とする請求項1に記載のトレーニング方法。 - 前記サンプルテキストに基づいて、前記構文図における前記構文の重み、前記スロットの重み及び前記スロット値の重みを取得するステップは、
前記サンプルテキストを前記構文図に注入し、前記構文図におけるアクティブ化されたパスを記録するステップと、
前記構文図におけるアクティブ化されたパスに基づいて、前記構文図における前記構文の重み、前記スロットの重み及び前記スロット値の重みを取得するステップと、を含む、
ことを特徴とする請求項1に記載のトレーニング方法。 - 前記構文及び前記構文における前記スロットに対応するスロット値に基づいて、前記構文に対応する構文図を生成するステップは、
前記構文における前記スロットを順に有向に接続するステップと、
前記スロットに対応するスロット値に基づいて、前記スロットを拡張して、前記構文に対応する構文図を取得するステップと、を含む、
ことを特徴とする請求項1に記載のトレーニング方法。 - 前記構文図における前記構文の重み、前記スロットの重み及び前記スロット値の重みに基づいて、異なる次数の構文カウントを計算するステップは、
少なくとも1つの前記構文図における前記構文の重み、前記スロットの重み及び前記スロット値の重みに基づいて、隣接するN個の前記スロットのスロット値が固定されている場合の構文カウントを計算して、N次の構文カウントを取得するステップを含む、
ことを特徴とする請求項1に記載のトレーニング方法。 - 前記少なくとも1つの前記構文図における前記構文の重み、前記スロットの重み及び前記スロット値の重みに基づいて、隣接するN個の前記スロットのスロット値が固定されている場合の構文カウントを計算して、N次の構文カウントを取得するステップは、
前記構文図における前記隣接するN個の前記スロットのスロット値に対応する重みの積を計算して、第1の積値を取得するステップと、
前記第1の積値と前記構文図における前記隣接するN個の前記スロット以外の他のスロットの重みとの積を計算して、第2の積値を取得するステップと、
前記第2の積値と前記構文図における前記構文の重みとの積を計算して、第3の積値を取得するステップと、
異なる構文図に対応する前記第3の積値の合計値を計算して、前記N次の構文カウントを取得するステップと、を含む、
ことを特徴とする請求項5に記載のトレーニング方法。 - 前記構文カウントに基づいて、言語モデルのトレーニングを行うステップは、
予め設定されたカウント閾値を超えた前記構文カウントに対してカウント低減処理を行うステップと、
カウント低減処理された前記構文カウントに基づいて、言語モデルのトレーニングを行うステップと、を含む、
ことを特徴とする請求項1に記載のトレーニング方法。 - 言語モデルのトレーニング装置であって、
サンプルテキストに対応する構文及び前記構文におけるスロットに対応するスロット値を取得するためのセマンティック解析モジュールと、
前記構文及び前記構文における前記スロットに対応するスロット値に基づいて、前記構文に対応する構文図を生成するための生成モジュールと、
前記サンプルテキストに基づいて、前記構文図における前記構文の重み、前記スロットの重み及び前記スロット値の重みを取得するための第2の取得モジュールと、
前記構文図における前記構文の重み、前記スロットの重み及び前記スロット値の重みに基づいて、異なる次数の構文カウントを計算するための計算モジュールと、
前記構文カウントに基づいて、言語モデルのトレーニングを行うためのトレーニングモジュールと、を含む、
ことを特徴とする言語モデルのトレーニング装置。 - 前記セマンティック解析モジュールは、自然言語理解セマンティック解析モジュールである、
ことを特徴とする請求項8に記載のトレーニング装置。 - 前記第2の取得モジュールが、
前記サンプルテキストを前記構文図に注入し、前記構文図におけるアクティブ化されたパスを記録するための注入ユニットと、
前記構文図におけるアクティブ化されたパスに基づいて、前記構文図における前記構文の重み、前記スロットの重み及び前記スロット値の重みを取得するための取得ユニットと、を含む、
ことを特徴とする請求項8に記載のトレーニング装置。 - 前記生成モジュールが、
前記構文における前記スロットを順に有向に接続するための接続ユニットと、
前記スロットに対応するスロット値に基づいて、前記スロットを拡張して、前記構文に対応する構文図を取得するための拡張ユニットと、を含む、
ことを特徴とする請求項8に記載のトレーニング装置。 - 前記計算モジュールが、さらに、
少なくとも1つの前記構文図における前記構文の重み、前記スロットの重み及び前記スロット値の重みに基づいて、隣接するN個の前記スロットのスロット値が固定されている場合の構文カウントを計算して、N次の構文カウントを取得する、
ことを特徴とする請求項8に記載のトレーニング装置。 - 前記計算モジュールが、
前記構文図における前記隣接するN個の前記スロットのスロット値に対応する重みの積を計算して、第1の積値を取得するための第1の計算ユニットと、
前記第1の積値と前記構文図における前記隣接するN個の前記スロット以外の他のスロットの重みとの積を計算して、第2の積値を取得するための第2の計算ユニットと、
前記第2の積値と前記構文図における前記構文の重みとの積を計算して、第3の積値を取得するための第3の計算ユニットと、
異なる構文図に対応する前記第3の積値の合計値を計算して、前記N次の構文カウントを取得するための第4の計算ユニットと、を含む、
ことを特徴とする請求項12に記載のトレーニング装置。 - 前記トレーニングモジュールが、
予め設定されたカウント閾値を超えた前記構文カウントに対してカウント低減処理を行うためのカウント低減ユニットと、
カウント低減処理された前記構文カウントに基づいて、言語モデルのトレーニングを行うためのトレーニングユニットと、を含む、
ことを特徴とする請求項8に記載のトレーニング装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行される命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~7のいずれかに記載の言語モデルのトレーニング方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1~7のいずれかに記載の言語モデルのトレーニング方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムは、コンピュータに1~7のいずれかに記載の言語モデルのトレーニング方法を実行させる、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011165544.5A CN112466292B (zh) | 2020-10-27 | 2020-10-27 | 语言模型的训练方法、装置和电子设备 |
CN202011165544.5 | 2020-10-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022006183A JP2022006183A (ja) | 2022-01-12 |
JP7190017B2 true JP7190017B2 (ja) | 2022-12-14 |
Family
ID=74835957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021174059A Active JP7190017B2 (ja) | 2020-10-27 | 2021-10-25 | 言語モデルのトレーニング方法、装置、及び電子機器 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11900918B2 (ja) |
JP (1) | JP7190017B2 (ja) |
KR (1) | KR20210116366A (ja) |
CN (1) | CN112466292B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240070404A1 (en) * | 2022-08-26 | 2024-02-29 | International Business Machines Corporation | Reinforced generation: reinforcement learning for text and knowledge graph bi-directional generation using pretrained language models |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002268676A (ja) | 2001-03-07 | 2002-09-20 | Atr Onsei Gengo Tsushin Kenkyusho:Kk | 言語モデル生成装置及び音声認識装置 |
JP2004334193A (ja) | 2003-05-01 | 2004-11-25 | Microsoft Corp | 音声認識および自然言語理解のための複合統計/ルール・ベース文法モデルを有するシステム |
WO2008118905A2 (en) | 2007-03-26 | 2008-10-02 | Google Inc. | Large language models in machine translation |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU5451800A (en) * | 1999-05-28 | 2000-12-18 | Sehda, Inc. | Phrase-based dialogue modeling with particular application to creating recognition grammars for voice-controlled user interfaces |
DE10014337A1 (de) * | 2000-03-24 | 2001-09-27 | Philips Corp Intellectual Pty | Verfahren zum Erzeugen eines Sprachmodells und eines akustischen Modells für ein Spracherkennungssystem |
EP1320086A1 (en) | 2001-12-13 | 2003-06-18 | Sony International (Europe) GmbH | Method for generating and/or adapting language models |
US7792846B1 (en) * | 2007-07-27 | 2010-09-07 | Sonicwall, Inc. | Training procedure for N-gram-based statistical content classification |
JP5766152B2 (ja) * | 2012-06-18 | 2015-08-19 | 日本電信電話株式会社 | 言語モデル生成装置、その方法及びプログラム |
US9330659B2 (en) * | 2013-02-25 | 2016-05-03 | Microsoft Technology Licensing, Llc | Facilitating development of a spoken natural language interface |
US9886950B2 (en) * | 2013-09-08 | 2018-02-06 | Intel Corporation | Automatic generation of domain models for virtual personal assistants |
US9336772B1 (en) * | 2014-03-06 | 2016-05-10 | Amazon Technologies, Inc. | Predictive natural language processing models |
US9286892B2 (en) * | 2014-04-01 | 2016-03-15 | Google Inc. | Language modeling in speech recognition |
US9997157B2 (en) * | 2014-05-16 | 2018-06-12 | Microsoft Technology Licensing, Llc | Knowledge source personalization to improve language models |
US20160371250A1 (en) * | 2015-06-16 | 2016-12-22 | Microsoft Technology Licensing, Llc | Text suggestion using a predictive grammar model |
CN105161095B (zh) * | 2015-07-29 | 2017-03-22 | 百度在线网络技术(北京)有限公司 | 语音识别语法树的构图方法及装置 |
US20170193291A1 (en) * | 2015-12-30 | 2017-07-06 | Ryan Anthony Lucchese | System and Methods for Determining Language Classification of Text Content in Documents |
RU2628431C1 (ru) * | 2016-04-12 | 2017-08-16 | Общество с ограниченной ответственностью "Аби Продакшн" | Подбор параметров текстового классификатора на основе семантических признаков |
RU2628436C1 (ru) * | 2016-04-12 | 2017-08-16 | Общество с ограниченной ответственностью "Аби Продакшн" | Классификация текстов на естественном языке на основе семантических признаков |
US9911413B1 (en) * | 2016-12-28 | 2018-03-06 | Amazon Technologies, Inc. | Neural latent variable model for spoken language understanding |
US10170107B1 (en) * | 2016-12-29 | 2019-01-01 | Amazon Technologies, Inc. | Extendable label recognition of linguistic input |
CN111611793B (zh) * | 2019-02-22 | 2023-06-13 | 北京猎户星空科技有限公司 | 数据处理方法、装置、设备及存储介质 |
CN111475658B (zh) * | 2020-06-12 | 2020-12-25 | 北京百度网讯科技有限公司 | 知识表示学习方法、装置、设备以及存储介质 |
CN111680129B (zh) * | 2020-06-16 | 2022-07-12 | 思必驰科技股份有限公司 | 语义理解系统的训练方法及系统 |
-
2020
- 2020-10-27 CN CN202011165544.5A patent/CN112466292B/zh active Active
-
2021
- 2021-09-02 KR KR1020210116872A patent/KR20210116366A/ko unknown
- 2021-10-19 US US17/451,380 patent/US11900918B2/en active Active
- 2021-10-25 JP JP2021174059A patent/JP7190017B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002268676A (ja) | 2001-03-07 | 2002-09-20 | Atr Onsei Gengo Tsushin Kenkyusho:Kk | 言語モデル生成装置及び音声認識装置 |
JP2004334193A (ja) | 2003-05-01 | 2004-11-25 | Microsoft Corp | 音声認識および自然言語理解のための複合統計/ルール・ベース文法モデルを有するシステム |
WO2008118905A2 (en) | 2007-03-26 | 2008-10-02 | Google Inc. | Large language models in machine translation |
Also Published As
Publication number | Publication date |
---|---|
US20220036880A1 (en) | 2022-02-03 |
US11900918B2 (en) | 2024-02-13 |
JP2022006183A (ja) | 2022-01-12 |
CN112466292A (zh) | 2021-03-09 |
KR20210116366A (ko) | 2021-09-27 |
CN112466292B (zh) | 2023-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102484617B1 (ko) | 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
JP7194150B2 (ja) | ドキュメントのベクトル化表現方法、ドキュメントのベクトル化表現装置及びコンピュータ機器 | |
JP7283009B2 (ja) | 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 | |
JP7264866B2 (ja) | イベント関係の生成方法、装置、電子機器及び記憶媒体 | |
JP7269913B2 (ja) | ナレッジグラフ構築方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
JP2021157802A (ja) | テキスト生成モデルのトレーニング方法、装置及び電子機器 | |
KR102521765B1 (ko) | 인과 관계의 판별 방법, 장치, 전자 기기 및 저장 매체 | |
JP7309798B2 (ja) | 対話意図の認識方法及び装置、電子機器並びに記憶媒体 | |
JP7106802B2 (ja) | リソースソート方法、ソートモデルをトレーニングする方法及び対応する装置 | |
JP2021120863A (ja) | 情報を生成するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム | |
US20220092252A1 (en) | Method for generating summary, electronic device and storage medium thereof | |
KR102565673B1 (ko) | 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체 | |
JP7235817B2 (ja) | 機械翻訳モデルのトレーニング方法、装置及び電子機器 | |
JP7395553B2 (ja) | 文章翻訳方法、装置、電子機器及び記憶媒体 | |
JP2021128327A (ja) | 口形特徴予測方法、装置及び電子機器 | |
KR102682781B1 (ko) | 대화 생성 방법, 장치, 전자 기기 및 기록 매체 | |
KR102561951B1 (ko) | 모델링 매개 변수의 설정 방법, 장치, 전자 기기 및 기록 매체 | |
KR20210139152A (ko) | 의미적 유사성 모델의 훈련 방법, 장치, 전자 기기 및 기록 매체 | |
JP2021192283A (ja) | 情報照会方法、装置及び電子機器 | |
JP7190017B2 (ja) | 言語モデルのトレーニング方法、装置、及び電子機器 | |
KR20220061060A (ko) | 데이터 처리 모델의 트레이닝 방법, 장치, 전자 기기 및 저장 매체 | |
JP7212714B2 (ja) | 関係ネットワーク生成方法、装置、電子設備、記憶媒体、及びプログラム | |
JP7146986B2 (ja) | 情報抽出方法、情報抽出装置及び電子機器 | |
JP2022020062A (ja) | 特徴情報のマイニング方法、装置及び電子機器 | |
CN103136190B (zh) | Cjk姓名检测 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7190017 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |