JP7395553B2 - 文章翻訳方法、装置、電子機器及び記憶媒体 - Google Patents
文章翻訳方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP7395553B2 JP7395553B2 JP2021194225A JP2021194225A JP7395553B2 JP 7395553 B2 JP7395553 B2 JP 7395553B2 JP 2021194225 A JP2021194225 A JP 2021194225A JP 2021194225 A JP2021194225 A JP 2021194225A JP 7395553 B2 JP7395553 B2 JP 7395553B2
- Authority
- JP
- Japan
- Prior art keywords
- semantic unit
- vector representation
- translation
- global
- word segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013519 translation Methods 0.000 title claims description 208
- 238000000034 method Methods 0.000 title claims description 60
- 230000011218 segmentation Effects 0.000 claims description 79
- 238000004590 computer program Methods 0.000 claims description 20
- 230000015654 memory Effects 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 5
- 230000014616 translation Effects 0.000 description 157
- 238000005516 engineering process Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000003993 interaction Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/34—Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Description
翻訳対象の文章を取得するステップと、
前記翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、前記文章翻訳モデルによって前記翻訳対象の文章を複数のセマンティックユニットに分割し、現在のセマンティックユニットの前のN個のセマンティックユニットをローカルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットの前のM個のセマンティックユニットをグローバルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットと前記グローバルコンテキストセマンティックユニットとに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するステップであって、前記Nは整数であり、前記Mは整数であるステップと、を含む。
第6態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムがプロセッサによって実行される場合、本出願の第1態様に記載の文章翻訳方法が実現される。
である場合、現在のセマンティックユニット
の前の2つのセマンティックユニットをローカルコンテキストセマンティックユニットとして決定し、即ち、
をローカルコンテキストセマンティックユニットとして決定でき、ローカルコンテキストセマンティックユニットの前の4つのセマンティックユニットをグローバルコンテキストセマンティックユニットとして決定し、即ち、
をグローバルコンテキストセマンティックユニットとして決定でき、上記決定されたローカルコンテキストセマンティックユニットとグローバルコンテキストセマンティックユニットとに基づいて、現在のセマンティックユニット
の翻訳結果を生成する。当該実施例では、Nは2であり、Mは4である。
である場合、現在のセマンティックユニット
は、翻訳対象の文章の1番目のセマンティックユニットであり、この時ローカルコンテキストセマンティックユニット及びグローバルコンテキストセマンティックユニットが存在せず、即ち、N=0で、M=0である。
であり、ローカルセマンティックユニットが
を含む場合、対応するローカル翻訳結果は、「Today’s introduction is mainly divided into」である。
であり、ローカルセマンティックユニットが
を含む場合、対応するローカル翻訳結果は「Today’s introduction is mainly divided into」であり、その後ローカルセマンティックユニット
の翻訳結果「Today’s introduction」を取得でき、上記ローカル翻訳結果「Today’s introduction is mainly divided into」から「Today’s introduction」を除去して、現在のセマンティックユニット
の翻訳結果である「is mainly divided into」を取得することができる。
qs=fs(ht)
dt=MutiHeadAttention(qs、Si)(1≦i≦M)
λt=σ(Wht+Udt)
ht ’
=λtht+(1-λt)dt
であり、ローカルコンテキストセマンティックユニットが
であり、グローバルコンテキストセマンティックユニットが
である。現在のセマンティックユニット
を
という4つの単語セグメンテーションに分割でき、そのうちの任意の1つの単語セグメンテーションのベクトル表現htに対して線性変換を行って、セマンティックユニットレベルの単語セグメンテーションのセマンティックユニットベクトル表現qsを生成し、そして単語セグメンテーションのセマンティックユニットベクトル表現qsに基づいて、グローバルコンテキストセマンティックユニットのベクトル表現Si(1≦i≦4)に対して特徴抽出を行って、グローバル特徴ベクトルdtを生成し、その後グローバル特徴ベクトルdtと単語セグメンテーションのベクトル表現htとを融合させて、単語セグメンテーションのグローバル融合ベクトル表現ht ’を生成することができる。なお、本実施例では、S1はセマンティックユニット
に対応するベクトル表現であり、S2はセマンティックユニット
に対応するベクトル表現であり、S3はセマンティックユニット
に対応するベクトル表現であり、S4はセマンティックユニット
に対応するベクトル表現である。
本出願の実施例によれば、本出願は、コンピュータプログラムを提供し、コンピュータプログラムがプロセッサによって実行される場合、本出願によって提供される文章翻訳方法が実現される。
Claims (11)
- コンピュータによって実行される文章翻訳方法であって、
翻訳対象の文章を取得するステップと、
前記翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、前記文章翻訳モデルによって前記翻訳対象の文章を複数のセマンティックユニットに分割し、前記複数のセマンティックユニットの前記翻訳対象の文章における前後順に従って現在のセマンティックユニットを順次選択し、現在のセマンティックユニットの前のすでに翻訳されているN個のセマンティックユニットをローカルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットの前のM個のセマンティックユニットをグローバルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットと前記グローバルコンテキストセマンティックユニットとに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するステップであって、前記Nは整数であり、前記Mは整数であるステップと、を含み、
前記ローカルコンテキストセマンティックユニットと前記グローバルコンテキストセマンティックユニットとに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するステップが、
前記グローバルコンテキストセマンティックユニットのベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するステップと、
前記現在のセマンティックユニットのベクトル表現と前記ローカルコンテキストセマンティックユニットのベクトル表現とに基づいて、前記現在のセマンティックユニットと前記ローカルコンテキストセマンティックユニットに対応するローカル翻訳結果を生成するステップと、
前記ローカルコンテキストセマンティックユニットの翻訳結果を取得し、前記ローカル翻訳結果と前記ローカルコンテキストセマンティックユニットの翻訳結果とに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するステップと、を含み、
前記ローカル翻訳結果と前記ローカルコンテキストセマンティックユニットの翻訳結果とに基づいて、前記現在のセマンティックユニットの翻訳結果を生成することは、
前記ローカル翻訳結果から前記ローカルコンテキストセマンティックユニットの翻訳結果を除去して、前記現在のセマンティックユニットの翻訳結果を取得することを含み、
前記グローバルコンテキストセマンティックユニットのベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するステップが、
前記現在のセマンティックユニットを少なくとも1つの単語セグメンテーションに分割するステップと、
前記単語セグメンテーションのベクトル表現と前記グローバルコンテキストセマンティックユニットのベクトル表現とに基づいて、前記単語セグメンテーションのグローバル融合ベクトル表現を生成するステップと、
前記単語セグメンテーションのグローバル融合ベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するステップと、を含む、
ことを特徴とする文章翻訳方法。 - 前記単語セグメンテーションのベクトル表現と前記グローバルコンテキストセマンティックユニットのベクトル表現とに基づいて、前記単語セグメンテーションのグローバル融合ベクトル表現を生成するステップは、
前記単語セグメンテーションのベクトル表現に対して線性変換を行って、セマンティックユニットレベルの前記単語セグメンテーションのセマンティックユニットベクトル表現を生成するステップと、
前記単語セグメンテーションのセマンティックユニットベクトル表現に基づいて、前記グローバルコンテキストセマンティックユニットのベクトル表現に対して特徴抽出を行って、グローバル特徴ベクトルを生成するステップと、
前記グローバル特徴ベクトルと前記単語セグメンテーションのベクトル表現とを融合させて、前記単語セグメンテーションのグローバル融合ベクトル表現を生成するステップと、を含む、
ことを特徴とする請求項1に記載の文章翻訳方法。 - 前記単語セグメンテーションのグローバル融合ベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するステップは、
前記単語セグメンテーションのグローバル融合ベクトル表現に対応する重みを決定するステップと、
前記単語セグメンテーションのグローバル融合ベクトル表現と対応する重みとに基づいて、前記現在のセマンティックユニットのベクトル表現を算出するステップと、を含む、
ことを特徴とする請求項1に記載の文章翻訳方法。 - サンプル文章と前記サンプル文章に対応するサンプル翻訳結果とを取得するステップと、
前記サンプル文章と前記サンプル翻訳結果とに基づいて、トレーニング対象の文章翻訳モデルをトレーニングして、前記トレーニング済みの文章翻訳モデルを取得するステップと、をさらに含む、
ことを特徴とする請求項1に記載の文章翻訳方法。 - 文章翻訳装置であって、
翻訳対象の文章を取得するための取得モジュールと、
前記翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、前記文章翻訳モデルによって前記翻訳対象の文章を複数のセマンティックユニットに分割し、前記複数のセマンティックユニットの前記翻訳対象の文章における前後順に従って現在のセマンティックユニットを順次選択し、現在のセマンティックユニットの前のすでに翻訳されているN個のセマンティックユニットをローカルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットの前のM個のセマンティックユニットをグローバルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットと前記グローバルコンテキストセマンティックユニットとに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するための入力モジュールであって、前記Nは整数であり、前記Mは整数である入力モジュールと、を含み、
前記入力モジュールが、
前記グローバルコンテキストセマンティックユニットのベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するための第1生成ユニットと、
前記現在のセマンティックユニットのベクトル表現と前記ローカルコンテキストセマンティックユニットのベクトル表現とに基づいて、前記現在のセマンティックユニットと前記ローカルコンテキストセマンティックユニットに対応するローカル翻訳結果を生成するための第2生成ユニットと、
前記ローカルコンテキストセマンティックユニットの翻訳結果を取得し、前記ローカル翻訳結果と前記ローカルコンテキストセマンティックユニットの翻訳結果とに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するための第3生成ユニットと、を含み、
前記ローカル翻訳結果と前記ローカルコンテキストセマンティックユニットの翻訳結果とに基づいて、前記現在のセマンティックユニットの翻訳結果を生成することは、
前記ローカル翻訳結果から前記ローカルコンテキストセマンティックユニットの翻訳結果を除去して、前記現在のセマンティックユニットの翻訳結果を取得することを含み、
前記第1生成ユニットが、
前記現在のセマンティックユニットを少なくとも1つの単語セグメンテーションに分割するための分割サブユニットと、
前記単語セグメンテーションのベクトル表現と前記グローバルコンテキストセマンティックユニットのベクトル表現とに基づいて、前記単語セグメンテーションのグローバル融合ベクトル表現を生成するための第1生成サブユニットと、
前記単語セグメンテーションのグローバル融合ベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するための第2生成サブユニットと、を含む、
ことを特徴とする文章翻訳装置。 - 前記第1生成サブユニットが、
前記単語セグメンテーションのベクトル表現に対して線性変換を行って、セマンティックユニットレベルの前記単語セグメンテーションのセマンティックユニットベクトル表現を生成し、
前記単語セグメンテーションのセマンティックユニットベクトル表現に基づいて、前記グローバルコンテキストセマンティックユニットのベクトル表現に対して特徴抽出を行って、グローバル特徴ベクトルを生成し、
前記グローバル特徴ベクトルと前記単語セグメンテーションのベクトル表現とを融合させて、前記単語セグメンテーションのグローバル融合ベクトル表現を生成する、
ことを特徴とする請求項5に記載の文章翻訳装置。 - 前記第2生成サブユニットが、
前記単語セグメンテーションのグローバル融合ベクトル表現に対応する重みを決定し、
前記単語セグメンテーションのグローバル融合ベクトル表現と対応する重みとに基づいて、前記現在のセマンティックユニットのベクトル表現を算出する、
ことを特徴とする請求項5に記載の文章翻訳装置。 - 前記装置は、トレーニングモジュールをさらに含み、
前記トレーニングモジュールが、
サンプル文章と前記サンプル文章に対応するサンプル翻訳結果とを取得するための取得ユニットと、
前記サンプル文章と前記サンプル翻訳結果とに基づいて、トレーニング対象の文章翻訳モデルをトレーニングして、前記トレーニング済みの文章翻訳モデルを取得するためのトレーニングユニットと、を含む、
ことを特徴とする請求項5に記載の文章翻訳装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~4のいずれかに記載の文章翻訳方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1~4のいずれかに記載の文章翻訳方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサによって実行される場合、請求項1~4のいずれかに記載の文章翻訳方法が実現される、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011556253.9 | 2020-12-25 | ||
CN202011556253.9A CN112287698B (zh) | 2020-12-25 | 2020-12-25 | 篇章翻译方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022028897A JP2022028897A (ja) | 2022-02-16 |
JP7395553B2 true JP7395553B2 (ja) | 2023-12-11 |
Family
ID=74426318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021194225A Active JP7395553B2 (ja) | 2020-12-25 | 2021-11-30 | 文章翻訳方法、装置、電子機器及び記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210326538A1 (ja) |
JP (1) | JP7395553B2 (ja) |
CN (1) | CN112287698B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114580439B (zh) * | 2022-02-22 | 2023-04-18 | 北京百度网讯科技有限公司 | 翻译模型训练方法、翻译方法、装置、设备以及存储介质 |
CN115392216B (zh) * | 2022-10-27 | 2023-03-14 | 科大讯飞股份有限公司 | 一种虚拟形象生成方法、装置、电子设备及存储介质 |
CN116089586B (zh) * | 2023-02-10 | 2023-11-14 | 百度在线网络技术(北京)有限公司 | 基于文本的问题生成方法及问题生成模型的训练方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006107353A (ja) | 2004-10-08 | 2006-04-20 | Sony Corp | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2013122599A (ja) | 2005-12-08 | 2013-06-20 | Nuance Communications Austria Gmbh | コンテキストの動的作成のための方法及びシステム |
JP2018528458A (ja) | 2015-12-04 | 2018-09-27 | 三菱電機株式会社 | 発話を処理する方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101685441A (zh) * | 2008-09-24 | 2010-03-31 | 中国科学院自动化研究所 | 一种基于非连续短语的泛化重排序统计翻译方法及装置 |
US9558743B2 (en) * | 2013-03-15 | 2017-01-31 | Google Inc. | Integration of semantic context information |
CN106547735B (zh) * | 2016-10-25 | 2020-07-07 | 复旦大学 | 基于深度学习的上下文感知的动态词或字向量的构建及使用方法 |
US10817650B2 (en) * | 2017-05-19 | 2020-10-27 | Salesforce.Com, Inc. | Natural language processing using context specific word vectors |
US11170287B2 (en) * | 2017-10-27 | 2021-11-09 | Salesforce.Com, Inc. | Generating dual sequence inferences using a neural network model |
US10984780B2 (en) * | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US11520900B2 (en) * | 2018-08-22 | 2022-12-06 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for a text mining approach for predicting exploitation of vulnerabilities |
US11036940B2 (en) * | 2018-08-30 | 2021-06-15 | Mmt Srl | Translation system and method |
CN110059324B (zh) * | 2019-04-26 | 2022-12-13 | 广州大学 | 基于依存信息监督的神经网络机器翻译方法及装置 |
CN111967277B (zh) * | 2020-08-14 | 2022-07-19 | 厦门大学 | 基于多模态机器翻译模型的翻译方法 |
CN112069813B (zh) * | 2020-09-10 | 2023-10-13 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、设备及计算机可读存储介质 |
-
2020
- 2020-12-25 CN CN202011556253.9A patent/CN112287698B/zh active Active
-
2021
- 2021-06-29 US US17/362,628 patent/US20210326538A1/en not_active Abandoned
- 2021-11-30 JP JP2021194225A patent/JP7395553B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006107353A (ja) | 2004-10-08 | 2006-04-20 | Sony Corp | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2013122599A (ja) | 2005-12-08 | 2013-06-20 | Nuance Communications Austria Gmbh | コンテキストの動的作成のための方法及びシステム |
JP2018528458A (ja) | 2015-12-04 | 2018-09-27 | 三菱電機株式会社 | 発話を処理する方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2022028897A (ja) | 2022-02-16 |
US20210326538A1 (en) | 2021-10-21 |
CN112287698B (zh) | 2021-06-01 |
CN112287698A (zh) | 2021-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7317791B2 (ja) | エンティティ・リンキング方法、装置、機器、及び記憶媒体 | |
JP7366984B2 (ja) | テキスト誤り訂正処理方法、装置、電子機器及び記憶媒体 | |
US11769480B2 (en) | Method and apparatus for training model, method and apparatus for synthesizing speech, device and storage medium | |
JP7395553B2 (ja) | 文章翻訳方法、装置、電子機器及び記憶媒体 | |
JP7228662B2 (ja) | イベント抽出方法、装置、電子機器及び記憶媒体 | |
JP7194150B2 (ja) | ドキュメントのベクトル化表現方法、ドキュメントのベクトル化表現装置及びコンピュータ機器 | |
JP7108675B2 (ja) | 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN112365880B (zh) | 语音合成方法、装置、电子设备及存储介质 | |
JP7358698B2 (ja) | 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体 | |
KR20190073525A (ko) | 기계 학습 작업의 암시적 브리징 | |
JP2021157802A (ja) | テキスト生成モデルのトレーニング方法、装置及び電子機器 | |
JP7235817B2 (ja) | 機械翻訳モデルのトレーニング方法、装置及び電子機器 | |
JP2021120863A (ja) | 情報を生成するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム | |
KR102565673B1 (ko) | 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체 | |
JP7309798B2 (ja) | 対話意図の認識方法及び装置、電子機器並びに記憶媒体 | |
JP7413630B2 (ja) | 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 | |
KR102538467B1 (ko) | 모델의 증류 방법, 장치, 전자기기 및 저장매체 | |
JP7269972B2 (ja) | 事前トレーニングのセマンティックモデルに基づくモデル改良方法及び装置 | |
JP7335300B2 (ja) | 知識事前訓練モデルの訓練方法、装置及び電子機器 | |
JP2023012493A (ja) | 言語モデルの事前トレーニング方法、装置、デバイスおよび記憶媒体 | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
JP2021099798A (ja) | 構造化処理方法、装置、コンピュータ機器及び媒体 | |
CN109408834A (zh) | 辅助机器翻译方法、装置、设备及存储介质 | |
JP2022028889A (ja) | 対話生成方法、装置、電子機器及び記憶媒体 | |
JP2022017173A (ja) | 情報を出力するための方法および装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230921 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7395553 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |