WO2021144901A1 - 音声認識装置、方法及びプログラム - Google Patents

音声認識装置、方法及びプログラム Download PDF

Info

Publication number
WO2021144901A1
WO2021144901A1 PCT/JP2020/001152 JP2020001152W WO2021144901A1 WO 2021144901 A1 WO2021144901 A1 WO 2021144901A1 JP 2020001152 W JP2020001152 W JP 2020001152W WO 2021144901 A1 WO2021144901 A1 WO 2021144901A1
Authority
WO
WIPO (PCT)
Prior art keywords
score
information
unit
hypothesis
sequence
Prior art date
Application number
PCT/JP2020/001152
Other languages
English (en)
French (fr)
Inventor
崇史 森谷
雄介 篠原
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2020/001152 priority Critical patent/WO2021144901A1/ja
Priority to JP2021570552A priority patent/JP7294458B2/ja
Priority to US17/793,000 priority patent/US20230050795A1/en
Publication of WO2021144901A1 publication Critical patent/WO2021144901A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/197Probabilistic grammars, e.g. word n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units

Definitions

  • the present invention relates to a voice recognition technique.
  • Non-Patent Document 1 the technique described in Non-Patent Document 1 is known.
  • Non-Patent Document 1 the conversion process of "acoustic feature amount ⁇ phoneme series" is performed as the first stage processing, and the conversion processing of "phoneme series ⁇ word series” is performed as the second stage processing.
  • Non-Patent Document 1 the conversion process of "acoustic feature amount ⁇ phoneme sequence" in the first stage and the conversion process of "phoneme series ⁇ word sequence” in the second stage were performed independently. In other words, the conversion process of "acoustic features ⁇ phoneme sequence" in the first stage did not consider the conversion process of "phoneme series ⁇ word series” in the second stage.
  • An object of the present invention is to provide a voice recognition device, method and program having higher voice recognition performance than conventional ones.
  • B, C are predetermined positive integers
  • the hypothesis HypSet (b) is series l of the first information from the index 1 to index n-1 one before the index n that is currently the target processing 1: and n-1 b, a series of first information l 1: n-1 b
  • the first information of the index n-1 in hypothesis b l n-1 b The character feature calculation unit that calculates the character feature L n-1 b , the intermediate feature, and the character feature L n-1
  • the output probability distribution calculation unit that calculates the output probability distribution Y n b in which the output probabilities corresponding to each first information are arranged using b, and the cth highest output probability in the output probability distribution Y n b.
  • first information l n b, and c and scores score (l n b, c) a first information extraction unit for extracting an output probability corresponding to the first information l n b, c, a series of first information l 1: n-1 b and the first information l n b, a series of first information by combining the c l 1: n b, and c, sequence l 1 of the first information: n b, the likelihood of c
  • a hypothesis creation unit that creates a score Score (l 1: n b, c ) to represent, and a sequence of first information l 1: n b, c using a predetermined model, a sequence of second information w 1: o b was converted to c, sequence w 1 of the second information: o b, the score represents the likelihood of c score (w 1: o b , c) a first conversion section for obtaining a score score (l 1: n b
  • HypSet (1) ..., HypSet (B)
  • Hypothesis selection part intermediate feature amount calculation part, character feature amount calculation part, output probability distribution calculation part, first information extraction part, hypothesis creation part, first conversion part
  • the control unit that repeats the processing of the score integration unit and the hypothesis selection unit until the predetermined end condition is satisfied, and when the predetermined end condition is satisfied, at least the highest score Score (l 1: n 1 ) It is provided with a second conversion unit that converts the first information sequence l 1: n 1 corresponding to the second information sequence w 1: o 1 using a predetermined model.
  • Speech recognition with higher performance than before by considering the conversion process of "first information series ⁇ second information series" in the first stage "acoustic feature amount ⁇ first information series” can be realized. More specifically, by extracting the first information based on the new score Score (l 1: n b ) that takes into account the score Score (w 1: ob , c ), the voice has higher performance than before. Recognition can be realized.
  • FIG. 1 is a diagram showing an example of a functional configuration of a voice recognition device.
  • FIG. 2 is a diagram showing an example of a processing procedure of the voice recognition method.
  • FIG. 3 is a diagram showing an example of a functional configuration of a computer.
  • the voice recognition device includes an intermediate feature amount calculation unit 1, a character feature amount calculation unit 2, an output probability distribution calculation unit 3, a first information extraction unit 4, a hypothesis creation unit 5, and a first conversion unit 6. , A score integration unit 7, a hypothesis selection unit 8, a control unit 9, and a second conversion unit 10, for example.
  • the voice recognition method is realized, for example, by each component of the voice recognition device performing the processes of steps S1 to S10 described below and shown in FIG.
  • the intermediate feature amount calculation unit 1 calculates the intermediate feature amount H by inputting the input acoustic feature amount X into a predetermined neural network (step S1).
  • the intermediate feature amount H corresponding to each calculated first information is output to the output probability distribution calculation unit 3.
  • the information expressed in the first expression format is referred to as the first information
  • the information expressed in the second expression format is referred to as the second information.
  • first information is a phoneme or grapheme.
  • second information is a word.
  • words are represented by alphabets, numbers, and symbols in the case of English, and by hiragana, katakana, kanji, alphabets, numbers, and symbols in the case of Japanese.
  • the language corresponding to the first information and the second information may be a language other than English and Japanese.
  • the first information may be a kana series
  • the second information may be a kana-kanji mixed series.
  • the predetermined neural network is a multi-stage neural network.
  • the intermediate feature amount is defined by, for example, the equation (1) of Reference 1.
  • Reference 1 Geoffrey Hinton, Li Deng, Dong Yu, George E. Dahl, Abdel-rahman Mohamed, Navdeep Jaitly, Andrew Senior, Vincent Vanhoucke, Patric Nguyen, Tara N. Sainath and Brian Kingsbury, “Deep Neural Networks for Acoustic” Modeling in Speech Recognition, ”IEEE Signal Processing Magazine, Vol. 29, No 6, pp.82-97, 2012.
  • Character feature quantity calculation section 2 calculates a character feature quantity L n-1 b corresponding to the first information l n-1 b of index n-1 in the hypothesis b (step S2).
  • the calculated character feature amount L n-1 b is output to the output probability distribution calculation unit 3.
  • the character feature amount calculation unit 2 uses, for example, a predetermined parameter matrix for the vector corresponding to the first information l n-1 b.
  • the character feature L n-1 b is calculated by multiplying by.
  • the output probability distribution calculation unit 3 calculates an output probability distribution Y n b in which the output probabilities corresponding to each first information are arranged by using the intermediate feature amount H and the character feature amount L n-1 b (step). S3).
  • the calculated output probability distribution Y n b is output to the first information extraction unit 4.
  • the output probability distribution calculation unit 3 arranges the output probabilities corresponding to each unit of the output layer by inputting the intermediate feature amount H and the character feature amount L n-1 b into the output layer of a predetermined neural network model. Calculate the output probability distribution Y n b.
  • the output probability is, for example, a logarithmic probability.
  • the output probability distribution is defined by, for example, the equation (2) in Reference 1.
  • First information extraction unit 4 The output probability distribution Y n b calculated by the output probability distribution calculation unit 3 is input to the first information extraction unit 4.
  • the first information extraction unit 4 an output probability distribution Y output probability c th in n b is high first information l n b, and c, which is the output probability corresponding to the first information l n b, c Score Score (l n b, c ) and are extracted (step S4).
  • the extracted first information l n b, c and the score Score (l n b, c ) are output to the hypothesis creation unit 5.
  • the first information l n b, c and the score Score (l n b, c ) extracted by the first information extraction unit 4 are input to the hypothesis creation unit 5. Further, the hypothesis creation unit 5 includes a sequence of first information l 1: n-1 b selected by the hypothesis selection unit 8 up to the index n-1 immediately before the index n, and a sequence of the first information. l 1: score represents the likelihood of the n-1 b score (l 1 : n-1 b) and are input.
  • Hypothesis creation unit 5 sequence l 1 of the first information: n-1 b and the first information l n b, a series of first information by combining the c l 1: n b, and c, a series of first information l 1: n b, the score represents the likelihood of c score (l 1: n b , c) and to create a (step S5).
  • the sequence l 1: n b, c of the first information is output to the first conversion unit 6 and the hypothesis selection unit 8.
  • the score Score (l 1: n b, c ) is output to the score integration unit 7.
  • First converting unit 6 line l 1 of the first information: n b, a series of second information using a predetermined model c w 1: o b, converted to c, the sequence of the second information w 1: o b, the score represents the likelihood of c score (w 1: o b , c) obtaining the (step S6).
  • the score Score (w 1: ob , c ) is output to the score integration unit 7.
  • o is a positive integer and is the number of second pieces of information.
  • a predetermined model for example, an Attention-based model similar to the sequence conversion of acoustic features ⁇ phoneme sequence can be used. Further, as a predetermined model, the statistical / neural transliteration model described in Reference 2 (for example, the "kana series” which is the series of the first information is converted into the "series of kana-kanji mixed” which is the series of the second information. Model) can be used. [Reference 2] L. Haizhou et.al, “A Joint Source-Channel Model for Machine Transliteration,” ACL, 2004
  • ⁇ Score integration department 7> The score Score (l 1: n b, c ) created by the hypothesis creation unit 5 and the score Score (w 1: ob , c ) obtained by the first conversion unit 6 are input to the score integration unit 7.
  • the score integration unit 7 finds a new score Score (l 1: n b, c ) that integrates the score Score (l 1: n b, c ) and the score Score (w 1: o b, c ) (step). S7).
  • the obtained new score Score (l 1: n b, c ) is output to the hypothesis selection unit 8.
  • the score integration unit 7 obtains a new score Score (l 1: n b, c) defined by the following equation.
  • is a predetermined real number. For example, 0 ⁇ ⁇ 1.
  • Score (l 1: n b, c ) Score (l 1: n b, c ) + ⁇ ⁇ Score (w 1: o b, c )
  • B 1, ..., B
  • the processes of steps S2 to S7 described below are performed for each b.
  • the processes of steps S4 to S7 are performed for each c.
  • ⁇ Hypothesis selection unit 8> The new score Score (l 1: n b, c ) obtained by the score integration unit 7 is input to the hypothesis selection unit 8. Further, the hypothesis selection unit 8 is input with the series l 1: n b, c of the first information created by the hypothesis creation unit 5.
  • the hypothesis selection unit 8 selects and selects B new scores having a high new score Score (l 1: n b, c ) based on the new score Score (l 1: n b, c). Generate a new hypothesis containing each new score and the sequence of first information corresponding to each new score, and use it in the index n + 1 one after the index n currently being processed. Let us assume that the new hypotheses HypSet (1), ..., HypSet (B) are (step S8).
  • the generated new hypothesis HypSet (b) is output to the hypothesis creation unit 5 and the second conversion unit 10. Further, the first information l n b in the series l 1: n b of the first information included in the created hypothesis HypSet (b) is output to the character feature calculation unit 2.
  • sequence of the first information corresponding to the new score Score (l 1: n b, c ) is the sequence of the first information l 1: n b, c .
  • New score Score (l 1: n b, c ) is high
  • the b-th new score is written as score Score (l 1: n b ), and the new score Score (l 1: n b, c ) is high.
  • the new hypothesis HypSet (b) is the score Score ( Contains l 1: n b ) and the sequence of first information l 1: n b .
  • HypSet (b) (l 1: n b , Score (l 1: n b )) increments n by 1 at index n + 1 after index n currently being processed.
  • HypSet (b) (l 1: n-1 b , Score (l 1: n-1 b )). Therefore, in FIG. 1, the input of the hypothesis creation unit 5 is expressed as l 1: n-1 b , Score (l 1: n-1 b ), and the input of the character feature calculation unit 2 is l n-1 b. It is written as.
  • the control unit 9 includes an intermediate feature amount calculation unit 1, a character feature amount calculation unit 2, an output probability distribution calculation unit 3, a first information extraction unit 4, a hypothesis creation unit 5, a first conversion unit 6, a score integration unit 7, and a hypothesis.
  • the process of the selection unit 8 is repeated until a predetermined end condition is satisfied (step S9).
  • NMAX is the number of second pieces of information to be output and is a predetermined positive integer.
  • ⁇ eos> is a sentence end symbol.
  • the second conversion unit 10 determines at least a sequence of first information l 1: n 1 corresponding to the score Score (l 1: n 1 ) having the largest value. Using the model, the second information sequence w 1: o 1 is converted (step S10).
  • the converted second information sequence w 1: o 1 is output from the voice recognition device.
  • the predetermined model is, for example, the same model as the predetermined model of the first conversion unit 6.
  • the score integration unit 7 integrates the score Score (l 1: n b, c ) and the score Score (w 1: ob , c ) into a new score Score (l 1). : n b, c ) is required.
  • the new score Score (l 1: n b, c) in the hypothesis selector 8 score Score (l 1: n b) become. Therefore, it can be said that the score Score (l 1: n b ) considers the score Score (w 1: ob , c).
  • data may be exchanged directly between the constituent parts of the voice recognition device, or may be performed via a storage unit (not shown).
  • the program that describes this processing content can be recorded on a computer-readable recording medium.
  • the computer-readable recording medium may be, for example, a magnetic recording device, an optical disk, a photomagnetic recording medium, a semiconductor memory, or the like.
  • the distribution of this program is carried out, for example, by selling, transferring, or renting a portable recording medium such as a DVD or CD-ROM on which the program is recorded.
  • the program may be stored in the storage device of the server computer, and the program may be distributed by transferring the program from the server computer to another computer via a network.
  • a computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. Then, when the process is executed, the computer reads the program stored in its own storage device and executes the process according to the read program. Further, as another execution form of this program, a computer may read the program directly from a portable recording medium and execute processing according to the program, and further, the program is transferred from the server computer to this computer. Each time, the processing according to the received program may be executed sequentially. In addition, the above processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition without transferring the program from the server computer to this computer. May be.
  • the program in this embodiment includes information to be used for processing by a computer and equivalent to the program (data that is not a direct command to the computer but has a property of defining the processing of the computer, etc.).
  • the present device is configured by executing a predetermined program on the computer, but at least a part of these processing contents may be realized by hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

スコア統合部7は、スコアScore(l1:n b,c)とスコアScore(w1:o b,c)とを統合した新たなスコアScore(l1:n b,c)を求める。この新たなスコアScore(l1:n b,c)は、仮説選択部8においてスコアScore(l1:n b)となる。このため、スコアScore(l1:n b)は、スコアScore(w1:o b,c)を考慮していると言える。音声認識装置では、スコアScore(w1:o b,c)を考慮したスコアScore(l1:n b)に基づいて第一情報の抽出が行われる。これにより、従来よりも性能が高い音声認識を実現することができる。

Description

音声認識装置、方法及びプログラム
 本発明は、音声認識技術に関する。
 近年のニューラルネットワークを用いた音声認識システムでは音声特徴量から単語系列を直接出力することが可能である。この音響特徴量から直接単語系列を出力する音声認識システムの学習方法として、例えば非特許文献1に記載された技術が知られている。
 非特許文献1の技術では、前段の処理として「音響特徴量⇒音素系列」の変換処理が行われており、後段の処理として「音素系列⇒単語系列」の変換処理が行われている。
 非特許文献1の技術では、前段の「音響特徴量⇒音素系列」の変換処理と、後段の「音素系列⇒単語系列」の変換処理とが独立に行われていた。言い換えれば、前段の「音響特徴量⇒音素系列」の変換処理では、後段の「音素系列⇒単語系列」の変換処理が考慮されていなかった。
 本発明は、従来よりも音声認識の性能が高い音声認識装置、方法及びプログラムを提供することを目的とする。
 この発明の一態様による音声認識装置は、B,Cは所定の正の整数であり、b=1,…,Bであり、c=1,…,Cであり、仮説HypSet(b)は、インデックス1から現在処理の対象となっているインデックスnの1つ前のインデックスn-1までの第一情報の系列l1:n-1 bと、第一情報の系列l1:n-1 bの尤もらしさを表すスコアScore(l1:n-1 b)とを含んでおり、入力された音響特徴量を所定のニューラルネットワークに入力することにより中間特徴量を計算する中間特徴量計算部と、仮説bにおけるインデックスn-1の第一情報ln-1 bに対応する文字特徴量Ln-1 bを計算する文字特徴量計算部と、中間特徴量と、文字特徴量Ln-1 bとを用いて、各第一情報に対応する出力確率を並べた出力確率分布Yn bを計算する出力確率分布計算部と、出力確率分布Yn bの中でc番目に出力確率が高い第一情報ln b,cと、第一情報ln b,cに対応する出力確率であるスコアScore(ln b,c)とを抽出する第一情報抽出部と、第一情報の系列l1:n-1 bと第一情報ln b,cとを結合した第一情報の系列l1:n b,cと、第一情報の系列l1:n b,cの尤もらしさを表すスコアScore(l1:n b,c)とを作成する仮説作成部と、第一情報の系列l1:n b,cを所定のモデルを用いて第二情報の系列w1:o b,cに変換し、第二情報の系列w1:o b,cの尤もらしさを表すスコアScore(w1:o b,c)を求める第一変換部と、スコアScore(l1:n b,c)とスコアScore(w1:o b,c)とを統合した新たなスコアScore(l1:n b,c)を求めるスコア統合部と、新たなスコアScore(l1:n b,c)に基づいて、新たなスコアScore(l1:n b,c)が高いB個の新たなスコアを選択し、選択された各新たなスコアと、各新たなスコアに対応する第一情報の系列とを含む新たな仮説を生成し、現在処理の対象となっているインデックスnの1つ後のインデックスn+1で用いられる新たな仮説HypSet(1),…,HypSet(B)とする仮説選択部と、中間特徴量計算部、文字特徴量計算部、出力確率分布計算部、第一情報抽出部、仮説作成部、第一変換部、スコア統合部及び仮説選択部の処理を所定の終了条件を満たすまで繰り返す制御部と、所定の終了条件が満たされた場合には、少なくとも、最も値が大きいスコアScore(l1:n 1)に対応する第一情報の系列l1:n 1を所定のモデルを用いて第二情報の系列w1:o 1に変換する第二変換部と、を備えている。
 前段の「音響特徴量⇒第一情報の系列」の変換処理で、後段の「第一情報の系列⇒第二情報の系列」の変換処理を考慮することで、従来よりも性能が高い音声認識を実現することができる。より詳細には、スコアScore(w1:o b,c)を考慮した新たなスコアScore(l1:n b)に基づいて第一情報の抽出を行うことで、従来よりも性能が高い音声認識を実現することができる。
図1は、音声認識装置の機能構成の例を示す図である。 図2は、音声認識方法の処理手続きの例を示す図である。 図3は、コンピュータの機能構成例を示す図である。
 以下、図面を参照して、音声認識装置及び方法の一実施形態を説明する。
 [音声認識装置及び方法]
 音声認識装置は、図1に示すように、中間特徴量計算部1、文字特徴量計算部2、出力確率分布計算部3、第一情報抽出部4、仮説作成部5、第一変換部6、スコア統合部7及び仮説選択部8、制御部9及び第二変換部10を例えば備えている。
 音声認識方法は、音声認識装置の各構成部が、以下に説明する及び図2に示すステップS1からステップS10の処理を行うことにより例えば実現される。
 以下、音声認識装置の各構成部について説明する。
 <中間特徴量計算部1>
 中間特徴量計算部1は、音響特徴量Xが入力される。
 中間特徴量計算部1は、入力された音響特徴量Xを所定のニューラルネットワークに入力することにより中間特徴量Hを計算する(ステップS1)。
 計算された各第一情報に対応する中間特徴量Hは、出力確率分布計算部3に出力される。
 以下の説明では、第一の表現形式で表現された情報を第一情報とし、第二の表現形式で表現された情報を第二情報とする。
 第一情報の例は、音素又は書記素である。第二情報の例は、単語である。ここで、単語は、英語の場合には、アルファベット、数字、記号により表現され、日本語の場合には、ひらがな、カタカナ、漢字、アルファベット、数字、記号により表現される。第一情報及び第二情報に対応する言語は、英語、日本語以外の言語であってもよい。
 第一情報はかな系列であり、第二の情報はかな漢字交じりの系列であってもよい。
 所定のニューラルネットワークは、多段のニューラルネットワークである。
 中間特徴量は、例えば参考文献1の式(1)により定義されるものである。
 〔参考文献1〕Geoffrey Hinton, Li Deng, Dong Yu, George E. Dahl, Abdel-rahman Mohamed, Navdeep Jaitly, Andrew Senior, Vincent Vanhoucke, Patric Nguyen, Tara N. Sainath and Brian Kingsbury, “Deep Neural Networks for Acoustic Modeling in Speech Recognition,” IEEE Signal Processing Magazine, Vol. 29, No 6, pp.82-97, 2012.
 一般に音声認識では様々な仮説の候補をビーム幅の数Bだけ残しながら認識することが主流である。そこで、b=1,…,Bとして、各bについて、以下に説明するステップS2からステップS7の処理が行われる。Bは、所定の正の数である。
 <文字特徴量計算部2>
 文字特徴量計算部2には、仮説bにおけるインデックスn-1の第一情報ln-1 bが入力される。
 文字特徴量計算部2は、仮説bにおけるインデックスn-1の第一情報ln-1 bに対応する文字特徴量Ln-1 bを計算する(ステップS2)。
 計算された文字特徴量Ln-1 bは、出力確率分布計算部3に出力される。
 第一情報ln-1 bがワンホットベクトル等のベクトルで表現される場合には、文字特徴量計算部2は、例えば、第一情報ln-1 bに対応するベクトルに所定のパラメタ行列を乗算することで、文字特徴量Ln-1 bを計算する。
 なお、b=1,…,Bとして、l0 b=<sos>とする。ここで、<sos>は、文頭記号である。
 <出力確率分布計算部3>
 出力確率分布計算部3には、中間特徴量計算部1により計算された中間特徴量Hと、文字特徴量計算部2により計算された文字特徴量Ln-1 bとが入力される。
 出力確率分布計算部3は、中間特徴量Hと、文字特徴量Ln-1 bとを用いて、各第一情報に対応する出力確率を並べた出力確率分布Yn bを計算する(ステップS3)。
 計算された出力確率分布Yn bは、第一情報抽出部4に出力される。
 出力確率分布計算部3は、中間特徴量Hと、文字特徴量Ln-1 bとを所定のニューラルネットワークモデルの出力層に入力することにより、出力層の各ユニットに対応する出力確率を並べた出力確率分布Yn bを計算する。出力確率は、例えば対数確率である。出力確率分布は、例えば参考文献1の式(2)により定義されるものである。
 与えられたbに対して、c=1,…,Cとして、各cについて、以下に説明するステップS4からステップS7の処理が行われる。Cは、所定の正の整数である。CはBと同じ値の整数であってもよい。
 <第一情報抽出部4>
 第一情報抽出部4には、出力確率分布計算部3が計算した出力確率分布Yn bが入力される。
 第一情報抽出部4は、出力確率分布Yn bの中でc番目に出力確率が高い第一情報ln b,cと、第一情報ln b,cに対応する出力確率であるスコアScore(ln b,c)とを抽出する(ステップS4)。
 抽出された第一情報ln b,c及びスコアScore(ln b,c)は、仮説作成部5に出力される。
 <仮説作成部5>
 仮説作成部5には、第一情報抽出部4が抽出した第一情報ln b,c及びスコアScore(ln b,c)が入力される。また、仮説作成部5には、仮説選択部8で選択された、インデックスnの1つ前のインデックスn-1までの第一情報の系列l1:n-1 bと、第一情報の系列l1:n-1 bの尤もらしさを表すスコアScore(l1:n-1 b)とが入力される。
 仮説作成部5は、第一情報の系列l1:n-1 bと第一情報ln b,cとを結合した第一情報の系列l1:n b,cと、第一情報の系列l1:n b,cの尤もらしさを表すスコアScore(l1:n b,c)とを作成する(ステップS5)。
 第一情報の系列l1:n b,cは、第一変換部6及び仮説選択部8に出力される。スコアScore(l1:n b,c)は、スコア統合部7に出力される。
 仮説作成部5は、例えば以下の式により定義されるスコアScore(l1:n b,c)を作成する。
 Score(l1:n b,c)=Score(l1:n-1 b)+Score(ln b,c)
 <第一変換部6>
 第一変換部6には、第一情報の系列l1:n b,cが入力される。
 第一変換部6は、第一情報の系列l1:n b,cを所定のモデルを用いて第二情報の系列w1:o b,cに変換し、第二情報の系列w1:o b,cの尤もらしさを表すスコアScore(w1:o b,c)を求める(ステップS6)。
 スコアScore(w1:o b,c)は、スコア統合部7に出力される。oは、正の整数であり、第二情報の個数である。
 所定のモデルとして、例えば、音響特徴量⇒音素系列の系列変換と同様のAttention-based modelを用いることができる。また、所定のモデルとして、参考文献2に記載された、統計/ニューラル翻字モデル(例えば第一情報の系列である「かな系列」を第二情報の系列である「かな漢字交じりの系列」に変換するモデル)を用いることができる。
 〔参考文献2〕L. Haizhou et.al, “A Joint Source-Channel Model for Machine Transliteration,” ACL, 2004
 <スコア統合部7>
 スコア統合部7には、仮説作成部5が作成したスコアScore(l1:n b,c)及び第一変換部6が求めたスコアScore(w1:o b,c)が入力される。
 スコア統合部7は、スコアScore(l1:n b,c)とスコアScore(w1:o b,c)とを統合した新たなスコアScore(l1:n b,c)を求める(ステップS7)。
 求まった新たなスコアScore(l1:n b,c)は、仮説選択部8に出力される。
 例えば、スコア統合部7は、以下の式により定義される新たなスコアScore(l1:n b,c)を求める。ここで、λは所定の実数である。例えば、0<λ<1である。
 Score(l1:n b,c)=Score(l1:n b,c)+λ・Score(w1:o b,c)
 先に述べたように、B=1,…,Bとして、各bについて、以下に説明するステップS2からステップS7の処理が行われる。また、c=1,…,Cとして、各cについて、ステップS4からステップS7の処理が行われる。これにより、b=1,…,B, c=1,…,Cとして、B×C個の、b,cの組(b,c)のそれぞれに対応する新たなスコアScore(l1:n b,c)が求まる。
 <仮説選択部8>
 仮説選択部8には、スコア統合部7で求まった新たなスコアScore(l1:n b,c)が入力される。また、仮説選択部8には、仮説作成部5が作成した第一情報の系列l1:n b,cが入力される。
 仮説選択部8は、新たなスコアScore(l1:n b,c)に基づいて、新たなスコアScore(l1:n b,c)が高いB個の新たなスコアを選択し、選択された各新たなスコアと、各新たなスコアに対応する第一情報の系列とを含む新たな仮説を生成し、現在処理の対象となっているインデックスnの1つ後のインデックスn+1で用いられる新たな仮説HypSet(1),…,HypSet(B)とする(ステップS8)。
 生成された新たな仮説HypSet(b)は、仮説作成部5及び第二変換部10に出力される。また、作成された仮説HypSet(b)に含まれる第一情報の系列l1:n bの中の第一情報ln bが文字特徴量計算部2に出力される。
 ここで、新たなスコアScore(l1:n b,c)に対応する第一情報の系列とは、第一情報の系列l1:n b,cである。
 新たなスコアScore(l1:n b,c)が高いb番目の新たなスコアをスコアScore(l1:n b)と表記し、新たなスコアScore(l1:n b,c)が高いb番目の新たなスコアに対応する第一情報の系列を第一情報の系列l1:n bと表記すると、b=1,…,Bとして、新たな仮説HypSet(b)は、スコアScore(l1:n b)と、第一情報の系列l1:n bとを含む。b=1,…,Bとして、HypSet(b)=(l1:n b, Score(l1:n b))と表記することができる。
 HypSet(b)=(l1:n b, Score(l1:n b))は、現在処理の対象となっているインデックスnの1つ後のインデックスn+1においては、nが1だけインクリメントされることに起因して、HypSet(b)=(l1:n-1 b, Score(l1:n-1 b))となる。このため、図1では、仮説作成部5の入力をl1:n-1 b, Score(l1:n-1 b)と表記し、文字特徴量計算部2の入力をln-1 bと表記している。
 <制御部9>
 制御部9は、中間特徴量計算部1、文字特徴量計算部2、出力確率分布計算部3、第一情報抽出部4、仮説作成部5、第一変換部6、スコア統合部7及び仮説選択部8の処理を所定の終了条件を満たすまで繰り返す(ステップS9)。
 所定の終了条件とは、n=NMAX+1である。NMAXは、出力する第二情報の個数あり、所定の正の整数である。この場合、制御部9は、仮説選択部8の処理が終わった後に、nを1だけインクリメントする。そして、制御部9は、n=NMAX+1であるか判定し、n=NMAX+1である場合には、音声認識装置の処理を終了させる。n=NMAX+1でない場合には、制御部9は、ステップS2の処理に戻るように制御を行う。
 また、所定の終了条件は、ln-1 b=<eos>であってもよい。ここで、<eos>は、文末記号である。
 <第二変換部10>
 第二変換部10には、仮説選択部8で生成された新たな仮説HypSet(1),…,HypSet(B)が入力される。
 第二変換部10は、所定の終了条件が満たされた場合には、少なくとも、最も値が大きいスコアScore(l1:n 1)に対応する第一情報の系列l1:n 1を所定のモデルを用いて第二情報の系列w1:o 1に変換する(ステップS10)。
 変換された第二情報の系列w1:o 1は、音声認識装置から出力される。
 所定のモデルは、例えば第一変換部6の所定のモデルと同じモデルである。
 このように、前段の「音響特徴量⇒第一情報の系列」の変換処理で、後段の「第一情報の系列⇒第二情報の系列」の変換処理を考慮することで、従来よりも性能が高い音声認識を実現することができる。
 より詳細には、本実施形態では、スコア統合部7において、スコアScore(l1:n b,c)とスコアScore(w1:o b,c)とを統合した新たなスコアScore(l1:n b,c)が求められている。この新たなスコアScore(l1:n b,c)は、仮説選択部8においてスコアScore(l1:n b)となる。このため、スコアScore(l1:n b)は、スコアScore(w1:o b,c)を考慮していると言える。このスコアScore(w1:o b,c)を考慮したスコアScore(l1:n b)に基づいて第一情報の抽出を行うことで、従来よりも性能が高い音声認識を実現することができる。
 [変形例]
 以上、本発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、本発明に含まれることはいうまでもない。
 実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
 例えば、音声認識装置の構成部間のデータのやり取りは直接行われてもよいし、図示していない記憶部を介して行われてもよい。
 [プログラム、記録媒体]
 上記説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。例えば、上述の各種の処理は、図3に示すコンピュータの記録部2020に、実行させるプログラムを読み込ませ、制御部2010、入力部2030、出力部2040などに動作させることで実施できる。
 この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
 また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
 このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
 また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
1     中間特徴量計算部
2     文字特徴量計算部
3     出力確率分布計算部
4     第一情報抽出部
5     仮説作成部
6     第一変換部
7     スコア統合部
8     仮説選択部
9     制御部
10   第二変換部

Claims (3)

  1.  B,Cは所定の正の整数であり、b=1,…,Bであり、c=1,…,Cであり、仮説HypSet(b)は、インデックス1から現在処理の対象となっているインデックスnの1つ前のインデックスn-1までの第一情報の系列l1:n-1 bと、前記第一情報の系列l1:n-1 bの尤もらしさを表すスコアScore(l1:n-1 b)とを含んでおり、
     入力された音響特徴量を所定のニューラルネットワークに入力することにより中間特徴量を計算する中間特徴量計算部と、
     仮説bにおけるインデックスn-1の第一情報ln-1 bに対応する文字特徴量Ln-1 bを計算する文字特徴量計算部と、
     前記中間特徴量と、前記文字特徴量Ln-1 bとを用いて、各第一情報に対応する出力確率を並べた出力確率分布Yn bを計算する出力確率分布計算部と、
     前記出力確率分布Yn bの中でc番目に出力確率が高い第一情報ln b,cと、前記第一情報ln b,cに対応する出力確率であるスコアScore(ln b,c)とを抽出する第一情報抽出部と、
     前記第一情報の系列l1:n-1 bと前記第一情報ln b,cとを結合した第一情報の系列l1:n b,cと、前記第一情報の系列l1:n b,cの尤もらしさを表すスコアScore(l1:n b,c)とを作成する仮説作成部と、
     前記第一情報の系列l1:n b,cを所定のモデルを用いて第二情報の系列w1:o b,cに変換し、前記第二情報の系列w1:o b,cの尤もらしさを表すスコアScore(w1:o b,c)を求める第一変換部と、
     前記スコアScore(l1:n b,c)と前記スコアScore(w1:o b,c)とを統合した新たなスコアScore(l1:n b,c)を求めるスコア統合部と、
     前記新たなスコアScore(l1:n b,c)に基づいて、前記新たなスコアScore(l1:n b,c)が高いB個の新たなスコアを選択し、選択された各新たなスコアと、前記各新たなスコアに対応する第一情報の系列とを含む新たな仮説を生成し、現在処理の対象となっているインデックスnの1つ後のインデックスn+1で用いられる新たな仮説HypSet(1),…,HypSet(B)とする仮説選択部と、
     前記中間特徴量計算部、前記文字特徴量計算部、前記出力確率分布計算部、前記第一情報抽出部、前記仮説作成部、前記第一変換部、前記スコア統合部及び前記仮説選択部の処理を所定の終了条件を満たすまで繰り返す制御部と、
     前記所定の終了条件が満たされた場合には、少なくとも、最も値が大きいスコアScore(l1:n 1)に対応する第一情報の系列l1:n 1を所定のモデルを用いて第二情報の系列w1:o 1に変換する第二変換部と、
     を含む音声認識装置。
  2.  B,Cは所定の正の整数であり、b=1,…,Bであり、c=1,…,Cであり、仮説HypSet(b)は、インデックス1から現在処理の対象となっているインデックスnの1つ前のインデックスn-1までの第一情報の系列l1:n-1 bと、前記第一情報の系列l1:n-1 bの尤もらしさを表すスコアScore(l1:n-1 b)とを含んでおり、
     中間特徴量計算部が、入力された音響特徴量を所定のニューラルネットワークに入力することにより中間特徴量を計算する中間特徴量計算ステップと、
     文字特徴量計算部が、仮説bにおけるインデックスn-1の第一情報ln-1 bに対応する文字特徴量Ln-1 bを計算する文字特徴量計算ステップと、
     出力確率分布計算部が、前記中間特徴量と、前記文字特徴量Ln-1 bとを用いて、各第一情報に対応する出力確率を並べた出力確率分布Yn bを計算する出力確率分布計算ステップと、
     第一情報抽出部が、前記出力確率分布Yn bの中でc番目に出力確率が高い第一情報ln b,cと、前記第一情報ln b,cに対応する出力確率であるスコアScore(ln b,c)とを抽出する第一情報抽出ステップと、
     仮説作成部が、前記第一情報の系列l1:n-1 bと前記第一情報ln b,cとを結合した第一情報の系列l1:n b,cと、前記第一情報の系列l1:n b,cの尤もらしさを表すスコアScore(l1:n b,c)とを作成する仮説作成ステップと、
     第一変換部が、前記第一情報の系列l1:n b,cを所定のモデルを用いて第二情報の系列w1:o b,cに変換し、前記第二情報の系列w1:o b,cの尤もらしさを表すスコアScore(w1:o b,c)を求める第一変換ステップと、
     スコア統合部が、前記スコアScore(l1:n b,c)と前記スコアScore(w1:o b,c)とを統合した新たなスコアScore(l1:n b,c)を求めるスコア統合ステップと、
     仮説選択部が、前記新たなスコアScore(l1:n b,c)に基づいて、前記新たなスコアScore(l1:n b,c)が高いB個の新たなスコアを選択し、選択された各新たなスコアと、前記各新たなスコアに対応する第一情報の系列とを含む新たな仮説を生成し、現在処理の対象となっているインデックスnの1つ後のインデックスn+1で用いられる新たな仮説HypSet(1),…,HypSet(B)とする仮説選択ステップと、
     制御部が、前記中間特徴量計算部、前記文字特徴量計算部、前記出力確率分布計算部、前記第一情報抽出部、前記仮説作成部、前記第一変換部、前記スコア統合部及び前記仮説選択部の処理を所定の終了条件を満たすまで繰り返す制御ステップと、
     第二変換部が、前記所定の終了条件が満たされた場合には、少なくとも、最も値が大きいスコアScore(l1:n 1)に対応する第一情報の系列l1:n 1を所定のモデルを用いて第二情報の系列w1:o 1に変換する第二変換ステップと、
     を含む音声認識方法。
  3.  請求項1の音声認識装置の各部としてコンピュータを機能させるためのプログラム。
PCT/JP2020/001152 2020-01-16 2020-01-16 音声認識装置、方法及びプログラム WO2021144901A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/001152 WO2021144901A1 (ja) 2020-01-16 2020-01-16 音声認識装置、方法及びプログラム
JP2021570552A JP7294458B2 (ja) 2020-01-16 2020-01-16 音声認識装置、方法及びプログラム
US17/793,000 US20230050795A1 (en) 2020-01-16 2020-01-16 Speech recognition apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/001152 WO2021144901A1 (ja) 2020-01-16 2020-01-16 音声認識装置、方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2021144901A1 true WO2021144901A1 (ja) 2021-07-22

Family

ID=76864567

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/001152 WO2021144901A1 (ja) 2020-01-16 2020-01-16 音声認識装置、方法及びプログラム

Country Status (3)

Country Link
US (1) US20230050795A1 (ja)
JP (1) JP7294458B2 (ja)
WO (1) WO2021144901A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220020362A1 (en) * 2020-07-17 2022-01-20 Samsung Electronics Co., Ltd. Speech signal processing method and apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000029495A (ja) * 1998-05-07 2000-01-28 Cselt Spa (Cent Stud E Lab Telecomun) ニュ―ラルネットワ―クとマルコフモデル認識技術を用いた音声認識の方法及び装置
US20170154258A1 (en) * 2015-11-30 2017-06-01 National Institute Of Information And Communications Technology Joint estimation method and method of training sequence-to-sequence model therefor
JP2017126051A (ja) * 2016-01-07 2017-07-20 日本電気株式会社 テンプレート生成装置、テンプレート生成方法、テンプレート生成プログラムおよびフレーズ検知システム
JP2018060047A (ja) * 2016-10-05 2018-04-12 国立研究開発法人情報通信研究機構 音響モデルの学習装置及びそのためのコンピュータプログラム
JP2018523156A (ja) * 2015-06-29 2018-08-16 アマゾン テクノロジーズ インコーポレイテッド 言語モデルスピーチエンドポインティング
JP2019095599A (ja) * 2017-11-22 2019-06-20 日本電信電話株式会社 音響モデル学習装置、音声認識装置、それらの方法、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000029495A (ja) * 1998-05-07 2000-01-28 Cselt Spa (Cent Stud E Lab Telecomun) ニュ―ラルネットワ―クとマルコフモデル認識技術を用いた音声認識の方法及び装置
JP2018523156A (ja) * 2015-06-29 2018-08-16 アマゾン テクノロジーズ インコーポレイテッド 言語モデルスピーチエンドポインティング
US20170154258A1 (en) * 2015-11-30 2017-06-01 National Institute Of Information And Communications Technology Joint estimation method and method of training sequence-to-sequence model therefor
JP2017126051A (ja) * 2016-01-07 2017-07-20 日本電気株式会社 テンプレート生成装置、テンプレート生成方法、テンプレート生成プログラムおよびフレーズ検知システム
JP2018060047A (ja) * 2016-10-05 2018-04-12 国立研究開発法人情報通信研究機構 音響モデルの学習装置及びそのためのコンピュータプログラム
JP2019095599A (ja) * 2017-11-22 2019-06-20 日本電信電話株式会社 音響モデル学習装置、音声認識装置、それらの方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220020362A1 (en) * 2020-07-17 2022-01-20 Samsung Electronics Co., Ltd. Speech signal processing method and apparatus
US11670290B2 (en) * 2020-07-17 2023-06-06 Samsung Electronics Co., Ltd. Speech signal processing method and apparatus

Also Published As

Publication number Publication date
JPWO2021144901A1 (ja) 2021-07-22
US20230050795A1 (en) 2023-02-16
JP7294458B2 (ja) 2023-06-20

Similar Documents

Publication Publication Date Title
US11106714B2 (en) Summary generating apparatus, summary generating method and computer program
KR102540774B1 (ko) 서브워드 임베딩 및 스킵서트 기반 문장 임베딩 방법 및 장치
JP5128629B2 (ja) 品詞タグ付けシステム、品詞タグ付けモデルのトレーニング装置および方法
JP5071373B2 (ja) 言語処理装置、言語処理方法および言語処理用プログラム
KR101544690B1 (ko) 단어 분할 장치, 단어 분할 방법 및 단어 분할 프로그램
JP2006243728A (ja) 音素をテキストに変換する方法、そのコンピュータシステム、及びコンピュータプログラム
JP6599219B2 (ja) 読み付与装置、読み付与方法、およびプログラム
JP6551968B2 (ja) 含意ペア拡張装置、そのためのコンピュータプログラム、及び質問応答システム
JP2006301446A (ja) 読み生成装置、読み生成方法及びコンピュータプログラム
CN112185361B (zh) 一种语音识别模型训练方法、装置、电子设备及存储介质
CN110633456B (zh) 语种识别方法、装置、服务器及存储介质
WO2021144901A1 (ja) 音声認識装置、方法及びプログラム
JP2010134922A (ja) 類似語決定方法およびシステム
JP2009251292A (ja) 学習コンテンツ生成装置、学習コンテンツの生成方法、学習コンテンツ生成装置としてコンピュータを機能させるためのプログラム、および当該プログラムを格納したコンピュータ読み取り可能な記録媒体
JP6605997B2 (ja) 学習装置、学習方法及びプログラム
CN112686059B (zh) 文本翻译方法、装置、电子设备和存储介质
JP2004046775A (ja) 固有表現抽出装置及び方法並びに固有表現抽出プログラム
CN110413779B (zh) 一种针对电力行业的词向量训练方法及其系统、介质
WO2020250279A1 (ja) モデル学習装置、方法及びプログラム
KR102146625B1 (ko) 오토마타 기반 증분적 중위 확률 계산 장치 및 방법
KR102476104B1 (ko) 사전학습 언어모델 구축장치 및 사전학습 언어모델의 어휘 확장 방법
CN112686060A (zh) 文本翻译方法、装置、电子设备和存储介质
JP5458640B2 (ja) 規則処理方法及び装置
JP2009103962A (ja) 音素モデルをクラスタリングする装置、方法およびプログラム
KR101543024B1 (ko) 발음 기반의 번역 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20913928

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021570552

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20913928

Country of ref document: EP

Kind code of ref document: A1