JP7395553B2 - 文章翻訳方法、装置、電子機器及び記憶媒体 - Google Patents

文章翻訳方法、装置、電子機器及び記憶媒体 Download PDF

Info

Publication number
JP7395553B2
JP7395553B2 JP2021194225A JP2021194225A JP7395553B2 JP 7395553 B2 JP7395553 B2 JP 7395553B2 JP 2021194225 A JP2021194225 A JP 2021194225A JP 2021194225 A JP2021194225 A JP 2021194225A JP 7395553 B2 JP7395553 B2 JP 7395553B2
Authority
JP
Japan
Prior art keywords
semantic unit
vector representation
translation
global
word segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021194225A
Other languages
English (en)
Other versions
JP2022028897A (ja
Inventor
▲伝強▼ ▲張▼
睿卿 ▲張▼
芝 李
中▲軍▼ 何
▲華▼ ▲呉▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022028897A publication Critical patent/JP2022028897A/ja
Application granted granted Critical
Publication of JP7395553B2 publication Critical patent/JP7395553B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/34Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Description

本出願は、コンピュータ技術の分野における音声、自然言語処理、深層学習技術の分野に関し、特に文章翻訳方法、装置、電子機器、記憶媒体及びコンピュータープログラム製品に関する。
現在、人工知能、自然言語処理などの技術の発展に伴い、音声翻訳技術は同時通訳、外国語教育などのシナリオで広く応用されておる。例えば、同時通訳シナリオでは、音声翻訳技術により、話者の言語タイプを異なる言語タイプに同期的に変換できるため、人々のコミュニケーションを容易にする。しかしながら、関連技術における音声翻訳方法は、翻訳結果に翻訳の一貫性がない、コンテキストの翻訳が一致しないなどの問題を引き起こしやすい。
文章翻訳方法、装置、電子機器、記憶媒体及びコンピュータプログラム製品を提供する。
第1態様によれば、文章翻訳方法を提供し、
翻訳対象の文章を取得するステップと、
前記翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、前記文章翻訳モデルによって前記翻訳対象の文章を複数のセマンティックユニットに分割し、現在のセマンティックユニットの前のN個のセマンティックユニットをローカルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットの前のM個のセマンティックユニットをグローバルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットと前記グローバルコンテキストセマンティックユニットとに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するステップであって、前記Nは整数であり、前記Mは整数であるステップと、を含む。
第2態様によれば、文章翻訳装置を提供し、翻訳対象の文章を取得するための取得モジュールと、前記翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、前記文章翻訳モデルによって前記翻訳対象の文章を複数のセマンティックユニットに分割し、現在のセマンティックユニットの前のN個のセマンティックユニットをローカルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットの前のM個のセマンティックユニットをグローバルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットと前記グローバルコンテキストセマンティックユニットとに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するための入力モジュールであって、前記Nは整数であり、前記Mは整数である入力モジュールと、を含む。
第3態様によれば、電子機器を提供し、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが本出願の第1態様に記載の文章翻訳方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
第4態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、コンピュータに本出願の第1態様に記載の文章翻訳方法を実行させる。
第5態様によれば、コンピュータプログラムが含まれるコンピュータプログラム製品を提供し、前記コンピュータプログラムがプロセッサによって実行される場合、本出願の第1態様に記載の文章翻訳方法が実現される。
第6態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムがプロセッサによって実行される場合、本出願の第1態様に記載の文章翻訳方法が実現される。
なお、この部分に記載されている内容は、本出願の実施例の肝心または重要な特徴を特定することを意図しておらず、本開示の範囲を限定することも意図していない。本開示の他の特徴は、以下の説明を通して容易に理解される。
図面は、本技術案をよりよく理解するために使用され、本出願を限定するものではない。
本出願の第1実施例に係る文章翻訳方法の概略フローチャートである。 本出願の第2実施例に係る文章翻訳方法における現在のセマンティックユニットの翻訳結果を生成することの概略フローチャートである。 本出願の第3実施例に係る文章翻訳方法における現在のセマンティックユニットのベクトル表現を生成することの概略フローチャートである。 本出願の第4実施例に係る文章翻訳方法における単語セグメンテーションのグローバル融合ベクトル表現を生成することの概略図である。 本出願の第1実施例に係る文章翻訳装置のブロック図である。 本出願の第2実施例に係る文章翻訳装置のブロック図である。 本出願の実施例に係る文章翻訳方法を実現するための電子機器のブロック図である。
以下、図面と組み合わせて本出願の例示的な実施例を説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項を含んでおり、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを認識されたい。同様に、明確及び簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
音声は、音声認識、音声インタラクションなどの技術分野を含むことができ、人工知能の分野の重要な方向の1つである。
音声認識(Voice Recognition)は、機器に認識と理解のプロセスを通じて音声信号を対応するテキストまたは命令に変換させる技術であり、主に特徴抽出技術、モードマッチング基準及びモデルトレーニング技術の3つの側面を含む。
音声インタラクション(Voice Interaction)は、機械とユーザが音声を情報媒体としてインタラクション、コミュニケーション、情報交換などのインタラクション動作を行う技術であり、従来のヒューマンマシンインタラクションと比較して、便利で迅速で、ユーザの快適性が高いという利点がある。
自然言語処理(Natural Language Processing、NLU)は、自然言語通信を効果的に実現できるコンピュータシステム、特にその中のソフトウェアシステムを研究する科学であり、コンピュータ科学の分野と人工知能の分野の重要な方向の1つである。
深層学習(Deep Learning、DL)は、機械学習(Machine Learning、ML)分野における新しい研究方向であり、サンプルデータの固有規則と表示レベルを学習することで、機械が人間のように分析と学習能力を有し、文字、画像及び音声などのデータを認識できるようにする科学であり、音声と画像認識に広く応用されておる。
図1は、本出願の第1実施例に係る文章翻訳方法の概略フローチャートである。
図1に示すように、本出願の第1実施例に係る文章翻訳方法は、以下のステップ101~102を含む。
ステップ101において、翻訳対象の文章を取得する。
なお、本出願の実施例に係る文章翻訳方法の実行主体はデータ情報処理能力を有すハードウェア機器及び/又は当該ハードウェア機器の動作を駆動するために必要なソフトウェアであってもよい。選択的に、実行主体は、ワークステーション、サーバ、コンピュータ、ユーザ端末及び他のデバイスを含むことができる。ここで、ユーザ端末は、携帯電話、コンピュータ、インテリジェント音声インタラクティブデバイス、インテリジェント家電、車載端末などを含むが、これらに限定されない。
本出願の実施例では、翻訳対象の文章を取得することができる。なお、翻訳対象の文章は、複数の文で構成されてもよい。
選択的に、翻訳対象の文章は、録画、ネットワーク伝送などの方式によって取得されることができる。
例えば、録画の方式を用いて翻訳対象の文章を取得する場合、デバイス上に音声収集装置があり、音声収集装置はマイクロフォン(Microphone)、マイクロフォンアレイ(Microphone Array)などであってもよい。または、ネットワーク伝送の方式を用いて翻訳対象の文章を取得する場合、デバイス上にネットワーク装置があり、ネットワーク装置を介して他のデバイスまたはサーバとネットワーク伝送を行うことができる。
なお、翻訳対象の文章は、オーディオ、テキストなどの形式であってもよく、ここではあまり限定されない。
なお、本出願の実施例では、翻訳対象の文章の言語タイプも翻訳結果の言語タイプも限定されない。
ステップ102において、翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、文章翻訳モデルによって翻訳対象の文章を複数のセマンティックユニットに分割し、現在のセマンティックユニットの前のN個のセマンティックユニットをローカルコンテキストセマンティックユニットとして決定し、ローカルコンテキストセマンティックユニットの前のM個のセマンティックユニットをグローバルコンテキストセマンティックユニットとして決定し、ローカルコンテキストセマンティックユニットとグローバルコンテキストセマンティックユニットとに基づいて、現在のセマンティックユニットの翻訳結果を生成し、Nは整数であり、Mは整数である。
関連技術では、文レベルのバイリンガル文のペアに基づいて翻訳モデルをトレーニングし、翻訳モデルの翻訳結果が柔軟でない。例えば、文章翻訳シナリオに対して、翻訳対象のテキストは複数の文で構成される文章であり、この時翻訳モデルの翻訳結果には翻訳の一貫性がなく、コンテキストの翻訳が一致しないという問題がある。例えば、文章翻訳シナリオがアニメーションレンダリングというテーマ講演である場合、翻訳対象のテキストが「It starts with modeling」である場合、この時翻訳モデルの翻訳結果は「造形から始まる」であるが、この時翻訳対象のテキストの「modeling」について、コンテキストと組合わせてそのセマンティックが造形ではなく、モデリングを意味し、翻訳結果が「モデリングから始まる」であることは話者の本当の意図により一致している。
この問題を解決するために、本出願では、翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、文章翻訳モデルによって翻訳対象の文章を複数のセマンティックユニットに分割し、現在のセマンティックユニットの前のN個のセマンティックユニットをローカルコンテキストセマンティックユニットとして決定し、ローカルコンテキストセマンティックユニットの前のM個のセマンティックユニットをグローバルコンテキストセマンティックユニットとして決定し、ローカルコンテキストセマンティックユニットとグローバルコンテキストセマンティックユニットとに基づいて、現在のセマンティックユニットの翻訳結果を生成でき、Nは整数であり、Mは整数である。
なお、文章翻訳モデルは、翻訳対象の文章を複数のセマンティックユニットに分割し、ローカルコンテキストセマンティックユニットとグローバルコンテキストセマンティックユニットとに基づいて、現在のセマンティックユニットの翻訳結果を生成することができ、関連技術における翻訳に一貫性がなく、コンテキストの翻訳が一致しないという問題を解決でき、同時通訳シナリオなどの文章翻訳シナリオに適応する。
選択的に、N、Mはいずれも実際の状況に応じて設定されてもよい。
本出願の一実施例では、現在のセマンティックユニットの前に合計で(N+M)個のセマンティックユニットがあり、この時に決定されたローカルコンテキストセマンティックユニットとグローバルコンテキストセマンティックユニットとが現在のセマンティックユニットの前のすべてのセマンティックユニットを構成し、この時現在のセマンティックユニットの前のすべてのセマンティックユニットを使用して現在のセマンティックユニットの翻訳結果を生成することができる。
本出願の一実施例では、現在のセマンティックユニットが翻訳対象の文章の1番目のセマンティックユニットである場合、即ち現在のセマンティックユニットの前に他のセマンティックユニットが存在しない場合、N=0で、M=0である。
例えば、翻訳対象の文章が
Figure 0007395553000001
である場合、上記翻訳対象の文章を、
Figure 0007395553000002
などの複数のセマンティックユニットに分割することができる。
現在のセマンティックユニットが
Figure 0007395553000003
である場合、現在のセマンティックユニット
Figure 0007395553000004
の前の2つのセマンティックユニットをローカルコンテキストセマンティックユニットとして決定し、即ち、
Figure 0007395553000005
をローカルコンテキストセマンティックユニットとして決定でき、ローカルコンテキストセマンティックユニットの前の4つのセマンティックユニットをグローバルコンテキストセマンティックユニットとして決定し、即ち、
Figure 0007395553000006
をグローバルコンテキストセマンティックユニットとして決定でき、上記決定されたローカルコンテキストセマンティックユニットとグローバルコンテキストセマンティックユニットとに基づいて、現在のセマンティックユニット
Figure 0007395553000007
の翻訳結果を生成する。当該実施例では、Nは2であり、Mは4である。
または、現在のセマンティックユニットが
Figure 0007395553000008
である場合、現在のセマンティックユニット
Figure 0007395553000009
は、翻訳対象の文章の1番目のセマンティックユニットであり、この時ローカルコンテキストセマンティックユニット及びグローバルコンテキストセマンティックユニットが存在せず、即ち、N=0で、M=0である。
以上のように、本出願の実施例に係る文章翻訳方法によれば、翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、ローカルコンテキストセマンティックユニットとグローバルコンテキストセマンティックユニットとに基づいて現在のセマンティックユニットの翻訳結果を生成することで、関連技術における翻訳に一貫性がなく、コンテキストの翻訳が一致しないという問題を解決でき、翻訳結果の精度を向上させ、文章翻訳シナリオに適応する。
上記任意の実施例に基づいて、図2に示すように、ステップ102におけるローカルコンテキストセマンティックユニットとグローバルコンテキストセマンティックユニットとに基づいて、現在のセマンティックユニットの翻訳結果を生成するステップは、以下のステップ201~203を含むことができる。
ステップ201において、グローバルコンテキストセマンティックユニットのベクトル表現に基づいて、現在のセマンティックユニットのベクトル表現を生成する。
本出願の実施例では、各セマンティックユニットが1つのベクトル表現に対応することができる。
なお、まず、グローバルコンテキストセマンティックユニットのベクトル表現を取得し、グローバルコンテキストセマンティックユニットのベクトル表現がローカルコンテキストセマンティックユニットの前のM個のセマンティックユニットのベクトル表現を含み、そしてグローバルコンテキストセマンティックユニットのベクトル表現に基づいて、現在のセマンティックユニットのベクトル表現を生成することができる。
ステップ202において、現在のセマンティックユニットのベクトル表現とローカルコンテキストセマンティックユニットのベクトル表現とに基づいて、現在のセマンティックユニットとローカルコンテキストセマンティックユニットに対応するローカル翻訳結果を生成する。
なお、まず、ローカルコンテキストセマンティックユニットのベクトル表現を取得し、ローカルコンテキストセマンティックユニットのベクトル表現が現在のセマンティックユニットの前のN個のセマンティックユニットのベクトル表現を含み、そして現在のセマンティックユニットのベクトル表現とローカルコンテキストセマンティックユニットのベクトル表現とに基づいて、現在のセマンティックユニットとローカルコンテキストセマンティックユニットに対応するローカル翻訳結果を生成することができる。
例えば、現在のセマンティックユニットが
Figure 0007395553000010
であり、ローカルセマンティックユニットが
Figure 0007395553000011
を含む場合、対応するローカル翻訳結果は、「Today’s introduction is mainly divided into」である。
ステップ203において、ローカル翻訳結果とローカルコンテキストセマンティックユニットの翻訳結果とに基づいて、現在のセマンティックユニットの翻訳結果を生成する。
本出願の実施例では、ローカル翻訳結果とローカルコンテキストセマンティックユニットの翻訳結果とに基づいて、現在のセマンティックユニットの翻訳結果を生成するステップは、ローカルコンテキストセマンティックユニットの翻訳結果を取得し、ローカル翻訳結果からローカルコンテキストセマンティックユニットの翻訳結果を除去して、現在のセマンティックユニットの翻訳結果を取得するステップを含むことができる。
なお、現在のセマンティックユニットとローカルコンテキストセマンティックユニットに対応するローカル翻訳結果は、現在のセマンティックユニットの翻訳結果とローカルコンテキストセマンティックユニットの翻訳結果で構成される。
例えば、現在のセマンティックユニットが
Figure 0007395553000012
であり、ローカルセマンティックユニットが
Figure 0007395553000013
を含む場合、対応するローカル翻訳結果は「Today’s introduction is mainly divided into」であり、その後ローカルセマンティックユニット
Figure 0007395553000014
の翻訳結果「Today’s introduction」を取得でき、上記ローカル翻訳結果「Today’s introduction is mainly divided into」から「Today’s introduction」を除去して、現在のセマンティックユニット
Figure 0007395553000015
の翻訳結果である「is mainly divided into」を取得することができる。
これによって、当該方法は、グローバルコンテキストセマンティックユニットのベクトル表現に基づいて現在のセマンティックユニットのベクトル表現を生成し、その後現在のセマンティックユニットのベクトル表現とローカルコンテキストセマンティックユニットのベクトル表現とに基づいて、現在のセマンティックユニットとローカルコンテキストセマンティックユニットに対応するローカル翻訳結果を生成し、ローカル翻訳結果とローカルコンテキストセマンティックユニットの翻訳結果とに基づいて、現在のセマンティックユニットの翻訳結果を生成することができる。
上記任意の実施例に基づいて、図3に示すように、ステップ201におけるグローバルコンテキストセマンティックユニットのベクトル表現に基づいて、現在のセマンティックユニットのベクトル表現を生成するステップは、以下のステップ301~303を含む。
ステップ301において、現在のセマンティックユニットを少なくとも1つの単語セグメンテーションに分割する。
なお、各セマンティックユニットに少なくとも1つの単語セグメンテーションが含まれる場合、現在のセマンティックユニットを少なくとも1つの単語セグメンテーションに分割することができる。
選択的に、予め設定された単語セグメンテーション単位に従って、現在のセマンティックユニットを少なくとも1つの単語セグメンテーションに分割できる。ここで、単語セグメンテーション単位には字、文字、単語、語句などが含まれるが、これに限定されない。
例えば、現在のセマンティックユニットが
Figure 0007395553000016
であり、単語セグメンテーション単位が字である場合、
Figure 0007395553000017
という4つの単語セグメンテーションに分割されてもよい。
ステップ302において、単語セグメンテーションのベクトル表現とグローバルコンテキストセマンティックユニットのベクトル表現とに基づいて、単語セグメンテーションのグローバル融合ベクトル表現を生成する。
なお、各単語セグメンテーションが1つのベクトル表現に対応する場合、単語セグメンテーションのベクトル表現とグローバルコンテキストセマンティックユニットのベクトル表現とに基づいて、単語セグメンテーションのグローバル融合ベクトル表現を生成することができる。
選択的に、単語セグメンテーションのベクトル表現とグローバルコンテキストセマンティックユニットのベクトル表現とに基づいて、単語セグメンテーションのグローバル融合ベクトル表現を生成するステップは、単語セグメンテーションのベクトル表現に対して線性変換を行って、セマンティックユニットレベルの単語セグメンテーションのセマンティックユニットベクトル表現を生成し、単語セグメンテーションのセマンティックユニットベクトル表現に基づいて、グローバルコンテキストセマンティックユニットのベクトル表現に対して特徴抽出を行って、グローバル特徴ベクトルを生成し、グローバル特徴ベクトルと単語セグメンテーションのベクトル表現とを融合させて、単語セグメンテーションのグローバル融合ベクトル表現を生成することを含むことができる。
選択的に、上記単語セグメンテーションのグローバル融合ベクトル表現を生成するプロセスは、以下の式によって実現することができる。
=f(h
=MutiHeadAttention(q、S)(1≦i≦M)
λ=σ(Wh+Ud

=λ+(1-λ)d
ここで、hは、単語セグメンテーションのベクトル表現であり、f(.)は、線性変換関数であり、qは、単語セグメンテーションのセマンティックユニットベクトル表現であり、MutiHeadAttention(.)は、注意力関数であり、dは、グローバル特徴ベクトルであり、h は、単語セグメンテーションのグローバル融合ベクトル表現である。
ここで、S(1≦i≦M)は、グローバルコンテキストセマンティックユニットのベクトル表現であり、Sは、グローバルコンテキストセマンティックユニットの1番目のセマンティックユニットのベクトル表現であり、Sは、グローバルコンテキストセマンティックユニットの2番目のセマンティックユニットのベクトル表現であり、このように類推して、Sは、グローバルコンテキストセマンティックユニットのM番目のセマンティックユニットのベクトル表現である。
ここで、W、U、σはいずれも係数であり、実際の状況に応じて設定されてもよい。
例えば、図4に示すように、現在のセマンティックユニットが
Figure 0007395553000018
であり、ローカルコンテキストセマンティックユニットが
Figure 0007395553000019
であり、グローバルコンテキストセマンティックユニットが
Figure 0007395553000020
である。現在のセマンティックユニット
Figure 0007395553000021

Figure 0007395553000022
という4つの単語セグメンテーションに分割でき、そのうちの任意の1つの単語セグメンテーションのベクトル表現hに対して線性変換を行って、セマンティックユニットレベルの単語セグメンテーションのセマンティックユニットベクトル表現qを生成し、そして単語セグメンテーションのセマンティックユニットベクトル表現qに基づいて、グローバルコンテキストセマンティックユニットのベクトル表現S(1≦i≦4)に対して特徴抽出を行って、グローバル特徴ベクトルdを生成し、その後グローバル特徴ベクトルdと単語セグメンテーションのベクトル表現hとを融合させて、単語セグメンテーションのグローバル融合ベクトル表現h を生成することができる。なお、本実施例では、Sはセマンティックユニット
Figure 0007395553000023
に対応するベクトル表現であり、Sはセマンティックユニット
Figure 0007395553000024
に対応するベクトル表現であり、Sはセマンティックユニット
Figure 0007395553000025
に対応するベクトル表現であり、Sはセマンティックユニット
Figure 0007395553000026
に対応するベクトル表現である。
なお、当該方法は、グローバルコンテキストセマンティックユニットのベクトル表現に対して特徴抽出を行って、グローバル特徴ベクトルを生成し、その後グローバル特徴ベクトルと単語セグメンテーションのベクトル表現とを融合させて、単語セグメンテーションのグローバル融合ベクトル表現を生成することができ、グローバル融合ベクトル表現は、グローバルコンテキストセマンティックユニットのベクトル表現の特徴を学習できる。
ステップ303において、単語セグメンテーションのグローバル融合ベクトル表現に基づいて、現在のセマンティックユニットのベクトル表現を生成する。
なお、現在のセマンティックユニットは少なくとも1つの単語セグメンテーションに分割されてもよく、各単語セグメンテーションが1つのグローバル融合ベクトル表現に対応する場合、現在のセマンティックユニットから分割されたすべての単語セグメンテーションのグローバル融合ベクトル表現に基づいて、現在のセマンティックユニットのベクトル表現を生成することができる。
選択的に、単語セグメンテーションのグローバル融合ベクトル表現に基づいて、現在のセマンティックユニットのベクトル表現を生成するステップは、単語セグメンテーションのグローバル融合ベクトル表現に対応する重みを決定し、単語セグメンテーションのグローバル融合ベクトル表現と対応する重みとに基づいて、現在のセマンティックユニットのベクトル表現を算出することを含むことができる。当該方法は、加重平均法を用いて現在のセマンティックユニットのベクトル表現を取得することができる。
これにより、当該方法は、現在のセマンティックユニットを少なくとも1つの単語セグメンテーションに分割し、その後単語セグメンテーションのベクトル表現とグローバルコンテキストセマンティックユニットのベクトル表現とに基づいて、単語セグメンテーションのグローバル融合ベクトル表現を生成し、単語セグメンテーションのグローバル融合ベクトル表現に基づいて、現在のセマンティックユニットのベクトル表現を生成することができる。
上記任意の実施例に基づいて、ステップ102におけるトレーニング済みの文章翻訳モデルの取得は、サンプル文章とサンプル文章に対応するサンプル翻訳結果とを取得し、サンプル文章とサンプル翻訳結果とに基づいて、トレーニング対象の文章翻訳モデルをトレーニングして、トレーニング済みの文章翻訳モデルを取得することを含むことができる。
なお、文章翻訳モデルの性能を向上させるために、大量のサンプル文章とサンプル文章に対応するサンプル翻訳結果とを取得する。
具体的な実施では、サンプル文章をトレーニング対象の文章翻訳モデルに入力して、トレーニング対象の文章翻訳モデルから出力された第1サンプル翻訳結果を取得し、第1サンプル翻訳結果とサンプル翻訳結果との間に大きな誤差がある可能性があり、第1サンプル翻訳結果とサンプル翻訳結果との間の誤差に基づいて、トレーニング対象の文章翻訳モデルを、トレーニング対象の文章翻訳モデルが収束するか、または反復回数が予め設定された反復回数閾値に達するか、またはモデル精度が予め設定された精度閾値に達するまでトレーニングし、モデルのトレーニングを終了し、最後のトレーニングによって取得された文章翻訳モデルをトレーニング済みの文章翻訳モデルとすることができる。ここで、反復回数閾値、精度閾値は実際の状況に応じて設定されてもよい。
これにより、当該方法は、サンプル文章とサンプル翻訳結果とに基づいて、トレーニング対象の文章翻訳モデルをトレーニングして、トレーニング済みの文章翻訳モデルを取得することができる。
図5は、本出願の第1実施例に係る文章翻訳装置のブロック図である。
図5に示すように、本出願の実施例に係る文章翻訳装置500は、取得モジュール501と入力モジュール502とを含む。
取得モジュール501は、翻訳対象の文章を取得する。
入力モジュール502は、前記翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、前記文章翻訳モデルによって前記翻訳対象の文章を複数のセマンティックユニットに分割し、現在のセマンティックユニットの前のN個のセマンティックユニットをローカルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットの前のM個のセマンティックユニットをグローバルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットと前記グローバルコンテキストセマンティックユニットとに基づいて、前記現在のセマンティックユニットの翻訳結果を生成し、前記Nは整数であり、前記Mは整数である。
以上のように、本出願の実施例に係る文章翻訳装置は、翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、ローカルコンテキストセマンティックユニットとグローバルコンテキストセマンティックユニットとに基づいて、現在のセマンティックユニットの翻訳結果を生成することで、関連技術における翻訳に一貫性がなく、コンテキストの翻訳が一致しないという問題を解決でき、翻訳結果の精度を向上させ、文章翻訳シナリオに適応する。
図6は、本出願の第2実施例に係る文章翻訳装置のブロック図である。
図6に示すように、本出願の実施例に係る文章翻訳装置600は、取得モジュール601、入力モジュール602及びトレーニングモジュール603を含む。
ここで、取得モジュール601は、取得モジュール501と同じ機能及び構造を有する。
本出願の一実施例では、前記入力モジュール602は、前記グローバルコンテキストセマンティックユニットのベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するための第1生成ユニット6021と、前記現在のセマンティックユニットのベクトル表現と前記ローカルコンテキストセマンティックユニットのベクトル表現とに基づいて、前記現在のセマンティックユニットと前記ローカルコンテキストセマンティックユニットに対応するローカル翻訳結果を生成するための第2生成ユニット6022と、前記ローカル翻訳結果と前記ローカルコンテキストセマンティックユニットの翻訳結果とに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するための第3生成ユニット6023と、を含む。
本出願の一実施例では、前記第1生成ユニット6021は、前記現在のセマンティックユニットを少なくとも1つの単語セグメンテーションに分割するための分割サブユニットと、前記単語セグメンテーションのベクトル表現と前記グローバルコンテキストセマンティックユニットのベクトル表現とに基づいて、前記単語セグメンテーションのグローバル融合ベクトル表現を生成するための第1生成サブユニットと、前記単語セグメンテーションのグローバル融合ベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するための第2生成サブユニットと、を含む。
本出願の一実施例では、前記第1生成サブユニットは、前記単語セグメンテーションのベクトル表現に対して線性変換を行って、セマンティックユニットレベルの前記単語セグメンテーションのセマンティックユニットベクトル表現を生成し、前記単語セグメンテーションのセマンティックユニットベクトル表現に基づいて、前記グローバルコンテキストセマンティックユニットのベクトル表現に対して特徴抽出を行って、グローバル特徴ベクトルを生成し、前記グローバル特徴ベクトルと前記単語セグメンテーションのベクトル表現とを融合させて、前記単語セグメンテーションのグローバル融合ベクトル表現を生成する。
本出願の一実施例では、前記第2生成サブユニットは、前記単語セグメンテーションのグローバル融合ベクトル表現に対応する重みを決定し、前記単語セグメンテーションのグローバル融合ベクトル表現と対応する重みとに基づいて、前記現在のセマンティックユニットのベクトル表現を算出する。
本出願の一実施例では、前記トレーニングモジュール603は、サンプル文章と前記サンプル文章に対応するサンプル翻訳結果とを取得するための取得ユニット6031と、前記サンプル文章と前記サンプル翻訳結果とに基づいて、トレーニング対象の文章翻訳モデルをトレーニングして、前記トレーニング済みの文章翻訳モデルを取得するためのトレーニングユニット6032と、を含む。
以上のように、本出願の実施例に係る文章翻訳装置は、翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、ローカルコンテキストセマンティックユニットとグローバルコンテキストセマンティックユニットとに基づいて、現在のセマンティックユニットの翻訳結果を生成することで、関連技術における翻訳に一貫性がなく、コンテキストの翻訳が一致しないという問題を解決でき、翻訳結果の精度を向上させ、文章翻訳シナリオに適応する。
本出願の実施例によれば、本出願は、電子機器、読み取り可能な記憶媒体及びコンピュータプログラム製品をさらに提供する。
本出願の実施例によれば、本出願は、コンピュータプログラムを提供し、コンピュータプログラムがプロセッサによって実行される場合、本出願によって提供される文章翻訳方法が実現される。
図7に示すように、それは本出願の実施例に係る文章翻訳方法の電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、インテリジェント音声インタラクティブデバイス、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の同様のコンピューティングデバイスなどの様々な形式のモバイル装置を表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は、単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限することを意図したものではない。
図7示すように、当該電子機器は、1つ又は複数のプロセッサ701と、メモリ702と、高速インターフェースと低速インターフェースを含む各コンポーネントを接続するためのインターフェースと、を含む。各コンポーネントは、異なるバスで相互に接続され、共通のマザーボードに取り付けられてもよいし、又は必要に応じて他の方式で取り付けられてもよい。プロセッサ701は、外部入力/出力装置(インターフェースに結合されたディスプレイデバイスなど)にGUIの図形情報をディスプレイするためにメモリに記憶されている命令を含む、電子機器内に実行される命令を処理することができる。他の実施形態では、必要であれば、複数のプロセッサ及び/又は複数のバスを、複数のメモリと複数のメモリとともに使用することができる。同様に、複数の電子機器を接続することができ、各電子機器は、部分的な必要な操作(例えば、サーバアレイ、ブレードサーバ、又はマルチプロセッサシステムとする)を提供する。図7では、1つのプロセッサ701を例とする。
メモリ702は、本出願により提供される非一時的なコンピュータ読み取り可能な記憶媒体である。その中、前記メモリには、少なくとも1つのプロセッサによって実行される命令を記憶して、前記少なくとも1つのプロセッサが本出願により提供される文章翻訳方法を実行することができるようにする。本出願の非一時的なコンピュータ読み取り可能な記憶媒体には、コンピュータに本出願により提供される文章翻訳方法を実行させるためのコンピュータ命令が記憶されている。
メモリ702は、非一時的なコンピュータ読み取り可能な記憶媒体として、本出願の実施例における文章翻訳方法に対応するプログラム命令/モジュール(例えば、図5に示す取得モジュール501及び入力モジュール502)のような、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶する。プロセッサ701は、メモリ702に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アプリケーション及びデータ処理を実行し、即ち上記の方法の実施例における文章翻訳方法を実現する。
メモリ702は、プログラムストレージ領域とデータストレージ領域とを含むことができ、その中、プログラムストレージ領域は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションを記憶することができ、データストレージ領域は、文章翻訳方法の電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ702は、高速ランダムアクセスメモリを含むことができ、不揮発性メモリ、例えば少なくとも1つの磁気ディスクストレージデバイス、フラッシュメモリデバイス、又は他の非一時的なソリッドステートストレージデバイスをさらに含むことができる。いくつかの実施例では、メモリ702は、プロセッサ701に対して遠隔に設定されたメモリを選択的に含むことができ、これらの遠隔メモリは、ネットワークを介して文章翻訳方法の電子機器に接続されることができる。上記ネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク及びそれらの組み合わせを含むが、これらに限定されない。
文章翻訳方法の電子機器は、入力装置703と出力装置704とをさらに含むことができる。プロセッサ701、メモリ702、入力装置703、及び出力装置704は、バス又は他の方式を介して接続することができ、図7では、バスを介して接続することを例とする。
入力装置703は、入力された数字又は文字情報を受信することができ、文章翻訳方法の電子機器のユーザ設定及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、指示杆、1つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置704は、ディスプレイデバイス、補助照明デバイス(例えば、LED)、及び触覚フィードバックデバイス(例えば、振動モータ)などを含むことができる。当該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施形態では、ディスプレイデバイスは、タッチスクリーンであってもよい。
本明細書で説明されるシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、高レベルのプロセス及び/又は対象指向プログラミング言語、及び/又はアセンブリ/機械言語でこれらのコンピューティングプログラムを実施することができる。 本明細書に使用されるような、「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、コンピュータ上でここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続されることができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、かつ互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバーはクラウドサーバであっても良く、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムにおける1つのホスト製品であり、従来の物理ホストとVPSサービス(「Virtual Private Server」,または「VPS」と省略する)に存在する管理の難しさ、業務拡張性の弱いという欠陥を解決した。サーバーは分散システムのサーバであってもよく、またはブロックチェーンと組合わせたサーバであってもよい。
本出願の実施例によれば、本出願は、コンピュータプログラムが含まれるコンピュータプログラム製品を提供し、前記コンピュータプログラムがプロセッサによって実行される場合、本出願の上記実施例の文章翻訳方法が実現される。
本出願の実施例の技術案によれば、翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、ローカルコンテキストセマンティックユニットとグローバルコンテキストセマンティックユニットとに基づいて、現在のセマンティックユニットの翻訳結果を生成することで、関連技術における翻訳に一貫性がなく、コンテキストの翻訳が一致しないという問題を解決でき、翻訳結果の精度を向上させ、文章翻訳シナリオに適応する。
なお、上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本出願に記載されている各ステップは、並列に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよいが、本出願で開示されている技術案が所望の結果を実現することができれば、本明細書では限定されない。
上記具体的な実施形態は、本出願の保護範囲を制限するものではない。当業者は、設計要求と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。任意の本出願の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本出願の保護範囲内に含まれるべきである。

Claims (11)

  1. コンピュータによって実行される文章翻訳方法であって、
    翻訳対象の文章を取得するステップと、
    前記翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、前記文章翻訳モデルによって前記翻訳対象の文章を複数のセマンティックユニットに分割し、前記複数のセマンティックユニットの前記翻訳対象の文章における前後順に従って現在のセマンティックユニットを順次選択し、現在のセマンティックユニットの前のすでに翻訳されているN個のセマンティックユニットをローカルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットの前のM個のセマンティックユニットをグローバルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットと前記グローバルコンテキストセマンティックユニットとに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するステップであって、前記Nは整数であり、前記Mは整数であるステップと、を含み、
    前記ローカルコンテキストセマンティックユニットと前記グローバルコンテキストセマンティックユニットとに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するステップが、
    前記グローバルコンテキストセマンティックユニットのベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するステップと、
    前記現在のセマンティックユニットのベクトル表現と前記ローカルコンテキストセマンティックユニットのベクトル表現とに基づいて、前記現在のセマンティックユニットと前記ローカルコンテキストセマンティックユニットに対応するローカル翻訳結果を生成するステップと、
    前記ローカルコンテキストセマンティックユニットの翻訳結果を取得し、前記ローカル翻訳結果と前記ローカルコンテキストセマンティックユニットの翻訳結果とに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するステップと、を含み、
    前記ローカル翻訳結果と前記ローカルコンテキストセマンティックユニットの翻訳結果とに基づいて、前記現在のセマンティックユニットの翻訳結果を生成することは、
    前記ローカル翻訳結果から前記ローカルコンテキストセマンティックユニットの翻訳結果を除去して、前記現在のセマンティックユニットの翻訳結果を取得することを含み、
    前記グローバルコンテキストセマンティックユニットのベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するステップが、
    前記現在のセマンティックユニットを少なくとも1つの単語セグメンテーションに分割するステップと、
    前記単語セグメンテーションのベクトル表現と前記グローバルコンテキストセマンティックユニットのベクトル表現とに基づいて、前記単語セグメンテーションのグローバル融合ベクトル表現を生成するステップと、
    前記単語セグメンテーションのグローバル融合ベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するステップと、を含む、
    ことを特徴とする文章翻訳方法。
  2. 前記単語セグメンテーションのベクトル表現と前記グローバルコンテキストセマンティックユニットのベクトル表現とに基づいて、前記単語セグメンテーションのグローバル融合ベクトル表現を生成するステップは、
    前記単語セグメンテーションのベクトル表現に対して線性変換を行って、セマンティックユニットレベルの前記単語セグメンテーションのセマンティックユニットベクトル表現を生成するステップと、
    前記単語セグメンテーションのセマンティックユニットベクトル表現に基づいて、前記グローバルコンテキストセマンティックユニットのベクトル表現に対して特徴抽出を行って、グローバル特徴ベクトルを生成するステップと、
    前記グローバル特徴ベクトルと前記単語セグメンテーションのベクトル表現とを融合させて、前記単語セグメンテーションのグローバル融合ベクトル表現を生成するステップと、を含む、
    ことを特徴とする請求項1に記載の文章翻訳方法。
  3. 前記単語セグメンテーションのグローバル融合ベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するステップは、
    前記単語セグメンテーションのグローバル融合ベクトル表現に対応する重みを決定するステップと、
    前記単語セグメンテーションのグローバル融合ベクトル表現と対応する重みとに基づいて、前記現在のセマンティックユニットのベクトル表現を算出するステップと、を含む、
    ことを特徴とする請求項1に記載の文章翻訳方法。
  4. サンプル文章と前記サンプル文章に対応するサンプル翻訳結果とを取得するステップと、
    前記サンプル文章と前記サンプル翻訳結果とに基づいて、トレーニング対象の文章翻訳モデルをトレーニングして、前記トレーニング済みの文章翻訳モデルを取得するステップと、をさらに含む、
    ことを特徴とする請求項1に記載の文章翻訳方法。
  5. 文章翻訳装置であって、
    翻訳対象の文章を取得するための取得モジュールと、
    前記翻訳対象の文章をトレーニング済みの文章翻訳モデルに入力し、前記文章翻訳モデルによって前記翻訳対象の文章を複数のセマンティックユニットに分割し、前記複数のセマンティックユニットの前記翻訳対象の文章における前後順に従って現在のセマンティックユニットを順次選択し、現在のセマンティックユニットの前のすでに翻訳されているN個のセマンティックユニットをローカルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットの前のM個のセマンティックユニットをグローバルコンテキストセマンティックユニットとして決定し、前記ローカルコンテキストセマンティックユニットと前記グローバルコンテキストセマンティックユニットとに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するための入力モジュールであって、前記Nは整数であり、前記Mは整数である入力モジュールと、を含み、
    前記入力モジュールが、
    前記グローバルコンテキストセマンティックユニットのベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するための第1生成ユニットと、
    前記現在のセマンティックユニットのベクトル表現と前記ローカルコンテキストセマンティックユニットのベクトル表現とに基づいて、前記現在のセマンティックユニットと前記ローカルコンテキストセマンティックユニットに対応するローカル翻訳結果を生成するための第2生成ユニットと、
    前記ローカルコンテキストセマンティックユニットの翻訳結果を取得し、前記ローカル翻訳結果と前記ローカルコンテキストセマンティックユニットの翻訳結果とに基づいて、前記現在のセマンティックユニットの翻訳結果を生成するための第3生成ユニットと、を含み、
    前記ローカル翻訳結果と前記ローカルコンテキストセマンティックユニットの翻訳結果とに基づいて、前記現在のセマンティックユニットの翻訳結果を生成することは、
    前記ローカル翻訳結果から前記ローカルコンテキストセマンティックユニットの翻訳結果を除去して、前記現在のセマンティックユニットの翻訳結果を取得することを含み、
    前記第1生成ユニットが、
    前記現在のセマンティックユニットを少なくとも1つの単語セグメンテーションに分割するための分割サブユニットと、
    前記単語セグメンテーションのベクトル表現と前記グローバルコンテキストセマンティックユニットのベクトル表現とに基づいて、前記単語セグメンテーションのグローバル融合ベクトル表現を生成するための第1生成サブユニットと、
    前記単語セグメンテーションのグローバル融合ベクトル表現に基づいて、前記現在のセマンティックユニットのベクトル表現を生成するための第2生成サブユニットと、を含む、
    ことを特徴とする文章翻訳装置。
  6. 前記第1生成サブユニットが、
    前記単語セグメンテーションのベクトル表現に対して線性変換を行って、セマンティックユニットレベルの前記単語セグメンテーションのセマンティックユニットベクトル表現を生成し、
    前記単語セグメンテーションのセマンティックユニットベクトル表現に基づいて、前記グローバルコンテキストセマンティックユニットのベクトル表現に対して特徴抽出を行って、グローバル特徴ベクトルを生成し、
    前記グローバル特徴ベクトルと前記単語セグメンテーションのベクトル表現とを融合させて、前記単語セグメンテーションのグローバル融合ベクトル表現を生成する、
    ことを特徴とする請求項5に記載の文章翻訳装置。
  7. 前記第2生成サブユニットが、
    前記単語セグメンテーションのグローバル融合ベクトル表現に対応する重みを決定し、
    前記単語セグメンテーションのグローバル融合ベクトル表現と対応する重みとに基づいて、前記現在のセマンティックユニットのベクトル表現を算出する、
    ことを特徴とする請求項5に記載の文章翻訳装置。
  8. 前記装置は、トレーニングモジュールをさらに含み、
    前記トレーニングモジュールが、
    サンプル文章と前記サンプル文章に対応するサンプル翻訳結果とを取得するための取得ユニットと、
    前記サンプル文章と前記サンプル翻訳結果とに基づいて、トレーニング対象の文章翻訳モデルをトレーニングして、前記トレーニング済みの文章翻訳モデルを取得するためのトレーニングユニットと、を含む、
    ことを特徴とする請求項5に記載の文章翻訳装置。
  9. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~4のいずれかに記載の文章翻訳方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
    ことを特徴とする電子機器。
  10. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令は、コンピュータに請求項1~4のいずれかに記載の文章翻訳方法を実行させる、
    ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
  11. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサによって実行される場合、請求項1~4のいずれかに記載の文章翻訳方法が実現される、
    ことを特徴とするコンピュータプログラム。
JP2021194225A 2020-12-25 2021-11-30 文章翻訳方法、装置、電子機器及び記憶媒体 Active JP7395553B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011556253.9 2020-12-25
CN202011556253.9A CN112287698B (zh) 2020-12-25 2020-12-25 篇章翻译方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
JP2022028897A JP2022028897A (ja) 2022-02-16
JP7395553B2 true JP7395553B2 (ja) 2023-12-11

Family

ID=74426318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021194225A Active JP7395553B2 (ja) 2020-12-25 2021-11-30 文章翻訳方法、装置、電子機器及び記憶媒体

Country Status (3)

Country Link
US (1) US20210326538A1 (ja)
JP (1) JP7395553B2 (ja)
CN (1) CN112287698B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114580439B (zh) * 2022-02-22 2023-04-18 北京百度网讯科技有限公司 翻译模型训练方法、翻译方法、装置、设备以及存储介质
CN115392216B (zh) * 2022-10-27 2023-03-14 科大讯飞股份有限公司 一种虚拟形象生成方法、装置、电子设备及存储介质
CN116089586B (zh) * 2023-02-10 2023-11-14 百度在线网络技术(北京)有限公司 基于文本的问题生成方法及问题生成模型的训练方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107353A (ja) 2004-10-08 2006-04-20 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2013122599A (ja) 2005-12-08 2013-06-20 Nuance Communications Austria Gmbh コンテキストの動的作成のための方法及びシステム
JP2018528458A (ja) 2015-12-04 2018-09-27 三菱電機株式会社 発話を処理する方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101685441A (zh) * 2008-09-24 2010-03-31 中国科学院自动化研究所 一种基于非连续短语的泛化重排序统计翻译方法及装置
US9558743B2 (en) * 2013-03-15 2017-01-31 Google Inc. Integration of semantic context information
CN106547735B (zh) * 2016-10-25 2020-07-07 复旦大学 基于深度学习的上下文感知的动态词或字向量的构建及使用方法
US10817650B2 (en) * 2017-05-19 2020-10-27 Salesforce.Com, Inc. Natural language processing using context specific word vectors
US11170287B2 (en) * 2017-10-27 2021-11-09 Salesforce.Com, Inc. Generating dual sequence inferences using a neural network model
US10984780B2 (en) * 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US11520900B2 (en) * 2018-08-22 2022-12-06 Arizona Board Of Regents On Behalf Of Arizona State University Systems and methods for a text mining approach for predicting exploitation of vulnerabilities
US11036940B2 (en) * 2018-08-30 2021-06-15 Mmt Srl Translation system and method
CN110059324B (zh) * 2019-04-26 2022-12-13 广州大学 基于依存信息监督的神经网络机器翻译方法及装置
CN111967277B (zh) * 2020-08-14 2022-07-19 厦门大学 基于多模态机器翻译模型的翻译方法
CN112069813B (zh) * 2020-09-10 2023-10-13 腾讯科技(深圳)有限公司 文本处理方法、装置、设备及计算机可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107353A (ja) 2004-10-08 2006-04-20 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2013122599A (ja) 2005-12-08 2013-06-20 Nuance Communications Austria Gmbh コンテキストの動的作成のための方法及びシステム
JP2018528458A (ja) 2015-12-04 2018-09-27 三菱電機株式会社 発話を処理する方法

Also Published As

Publication number Publication date
JP2022028897A (ja) 2022-02-16
US20210326538A1 (en) 2021-10-21
CN112287698B (zh) 2021-06-01
CN112287698A (zh) 2021-01-29

Similar Documents

Publication Publication Date Title
JP7317791B2 (ja) エンティティ・リンキング方法、装置、機器、及び記憶媒体
JP7366984B2 (ja) テキスト誤り訂正処理方法、装置、電子機器及び記憶媒体
US11769480B2 (en) Method and apparatus for training model, method and apparatus for synthesizing speech, device and storage medium
JP7395553B2 (ja) 文章翻訳方法、装置、電子機器及び記憶媒体
JP7228662B2 (ja) イベント抽出方法、装置、電子機器及び記憶媒体
JP7194150B2 (ja) ドキュメントのベクトル化表現方法、ドキュメントのベクトル化表現装置及びコンピュータ機器
JP7108675B2 (ja) 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム
CN112365880B (zh) 语音合成方法、装置、电子设备及存储介质
JP7358698B2 (ja) 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体
KR20190073525A (ko) 기계 학습 작업의 암시적 브리징
JP2021157802A (ja) テキスト生成モデルのトレーニング方法、装置及び電子機器
JP7235817B2 (ja) 機械翻訳モデルのトレーニング方法、装置及び電子機器
JP2021120863A (ja) 情報を生成するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
KR102565673B1 (ko) 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체
JP7309798B2 (ja) 対話意図の認識方法及び装置、電子機器並びに記憶媒体
JP7413630B2 (ja) 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体
KR102538467B1 (ko) 모델의 증류 방법, 장치, 전자기기 및 저장매체
JP7269972B2 (ja) 事前トレーニングのセマンティックモデルに基づくモデル改良方法及び装置
JP7335300B2 (ja) 知識事前訓練モデルの訓練方法、装置及び電子機器
JP2023012493A (ja) 言語モデルの事前トレーニング方法、装置、デバイスおよび記憶媒体
CN111241838B (zh) 文本实体的语义关系处理方法、装置及设备
JP2021099798A (ja) 構造化処理方法、装置、コンピュータ機器及び媒体
CN109408834A (zh) 辅助机器翻译方法、装置、设备及存储介质
JP2022028889A (ja) 対話生成方法、装置、電子機器及び記憶媒体
JP2022017173A (ja) 情報を出力するための方法および装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230921

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231129

R150 Certificate of patent or registration of utility model

Ref document number: 7395553

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150