JP2020024277A - データ・セグメンテーション装置 - Google Patents

データ・セグメンテーション装置 Download PDF

Info

Publication number
JP2020024277A
JP2020024277A JP2018148249A JP2018148249A JP2020024277A JP 2020024277 A JP2020024277 A JP 2020024277A JP 2018148249 A JP2018148249 A JP 2018148249A JP 2018148249 A JP2018148249 A JP 2018148249A JP 2020024277 A JP2020024277 A JP 2020024277A
Authority
JP
Japan
Prior art keywords
data
unit
sentence
boundary
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018148249A
Other languages
English (en)
Other versions
JP7113474B2 (ja
Inventor
シャオリン ワン
Xiaolin Wang
シャオリン ワン
将夫 内山
Masao Uchiyama
将夫 内山
隅田 英一郎
Eiichiro Sumida
英一郎 隅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2018148249A priority Critical patent/JP7113474B2/ja
Publication of JP2020024277A publication Critical patent/JP2020024277A/ja
Application granted granted Critical
Publication of JP7113474B2 publication Critical patent/JP7113474B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】シーケンスデータを構成する単位データ数に関係なく、リアルタイムでシーケンスデータ分割処理を実行することができるデータ・セグメンテーション装置を実現する。【解決手段】文章分割装置100では、単位データである語データを入力とし、シーケンスデータの境界である文章境界が存在する位置および確率を示すベクトルを出力とするニューラルネットワークによるモデルを用いて学習処理を行い、学習済みモデルを取得する。そして、文章分割装置100では、上記の学習済みモデルを用いて、文章境界を検出する処理を行う。つまり、文章分割装置100では、各要素が文章の境界位置である確率を示すデータであるm個(m:自然数)の要素の値を調べることで、文章境界が存在する位置を、容易かつ適切に検出することができる。【選択図】図1

Description

本発明は、時系列に連続するシーケンスデータを分割する方法に関し、例えば、文章分割方法(センテンス・セグメンテーション)についての技術に関する。
機械により同時通訳(リアルタイム通訳)を実現するためには、音声認識と機械翻訳とを実行する必要がある。つまり、自動同時通訳を実現するためには、自動音声認識と機械翻訳とを統合する必要がある。
自動音声認識により、取得されるデータ(文章データ)には、文章の区切り(セグメンテーション)が存在しない。一方、機械翻訳では、文章単位に区切られた文章(文章のデータ)が入力される必要がある。
近年、自動音声認識と機械翻訳とを統合するために、自動音声認識により取得されたデータ(文章データ)をリアルタイムで文章単位に分割し、文章単位に区切られた文章(文章のデータ)を取得するための技術が開発されている。
例えば、n−gram言語モデルを用いて会話音声の文章分割(センテンス・セグメンテーション)を自動で実行する技術がある(例えば、非特許文献1を参照)。
このようなn−gram言語モデルを用いた手法では、文章の境界(区切り位置)を入力される単語間において発生する隠れイベント(hidden event)とみなす。そして、n−gram言語モデルを用いた手法では、文章の境界(区切り位置)が存在するとみなしたときと、文章の境界(区切り位置)が存在しないとみなしたときとの入力単語の尤度を計算する。具体的には、n−gram言語モデルを用いた手法では、入力される単語(単語データ)を、・・・,wt−1,w,wt+1,・・・とし、次の2つの(仮定1)、(仮定2)を設定する。
(仮定1):
単語wの後の位置に文章の境界(区切り位置)は存在せず、入力データは、・・・,wt−1,w,wt+1,・・・のままであるものとする。
(仮定2):
単語wの後の位置に文章の境界(区切り位置)が存在し、入力データは、・・・,wt−1,w,</s>,<s>,wt+1,・・・であるものとする。なお、「</s>」は、文章の終端位置を示し、「<s>」は、文章の開始位置を示している。
n−gram言語モデルを用いた手法では、上記(仮定1)の確率と(仮定2)の確率とを比較することにより、文章の境界(区切り位置)を予測する。例えば、n−gram言語モデルを用いた手法では、下記数式により規定される単語wの後に文章の境界が存在する信頼度sに基づいて、文章の境界(区切り位置)を予測する。
Figure 2020024277

o:n−gram言語モデルのオーダー(order)
なお、例えば、「p(</s>|wt−o+2 )」は、wt−o+2,・・・,wt−1,wの後に、</s>が存在する確率を示している。他の表記についても同様である。
Andreas Stolcke and Elizabeth Shriberg. 1996. Automatic linguistic segmentation of conversational speech. In Spoken Language, 1996. ICSLP 96. Proceedings., Fourth International Conference on, volume 2, pages 1005-1008. IEEE.
しかしながら、上記のn−gram言語モデルを用いた手法では、以下の2つの問題点がある。
第1に、n−gram言語モデルを用いた手法では、長い文章の依存性を把握することができない。文章は、通常、n−gramのオーダーよりも長いので、n単語より多い数の単語により構成される文章について、n−gram言語モデルを用いた手法では、当該文章の依存性を適切に判断することができず、その結果、文章の境界を適切に検出することができない。
第2に、n−gram言語モデルを用いた手法では、2つのシーケンス(上記(仮定1)および(仮定2))の同時確率(generative probability)を比較することで、文章の境界(区切り位置)を予測するが、同時確率(generative probability)を用いたモデル(生成モデル(generative model))の検出精度(例えば、文章の境界の検出精度)は、条件付き確率を用いたモデル(識別モデル(discriminative model))の検出精度よりも劣る。
そこで、本発明は、上記課題に鑑み、シーケンスデータ(例えば、文章)を構成する単位データ数(例えば、単語数)に関係なく、リアルタイムでシーケンスデータ分割処理(例えば、文章分割処理)を実行することができるデータ・セグメンテーション装置を実現することを目的とする。
上記課題を解決するための第1の発明は、ニューラルネットワーク部と、境界検出部と、を備えるデータ・セグメンテーション装置である。
ニューラルネットワーク部は、時系列に連続するデータであるシーケンスデータ(例えば、文章)を構成する単位データ(例えば、語データ)を入力し、各要素がシーケンスデータ(例えば、文章)の境界位置である確率を示すデータであるm個(m:自然数)の要素と、もう1つの要素との合計m+1個の要素からなるm+1次元ベクトルデータを出力する。
境界検出部は、ニューラルネットワーク部から出力されるm+1次元ベクトルデータに基づいて、シーケンスデータ(例えば、文章)の境界位置を決定する。
このデータ・セグメンテーション装置では、例えば、語データ(例えば、単語データ)を入力とし、文章境界が存在する位置および確率を示すベクトルを出力とするニューラルネットワークによるモデルを用いて学習処理を行い、学習済みモデルを取得する。そして、このセンテンス・セグメンテーション装置では、上記の学習済みモデルを用いて、例えば、文章境界を検出する処理を行う。つまり、このセンテンス・セグメンテーション装置では、各要素が文章の境界位置である確率を示すデータであるm個(m:自然数)の要素の値を調べることで、文章境界が存在する位置を、容易かつ適切に検出することができる。また、このデータ・セグメンテーション装置では、m+1次元ベクトルデータを出力するので、例えば、「もう1つの要素」をm+1次元ベクトルの各要素の総和が、例えば「1」になるように設定することができる。これにより、例えば、ニューラルネットワーク部の出力層をソフトマックス層(活性化関数をSoftmax関数とする出力層)として扱うことが容易となる。
第2の発明は、第1の発明であって、ニューラルネットワーク部は、再帰型ニューラルネットワークを含む。
これにより、このデータ・セグメンテーション装置では、例えば、長い文章の依存性も考慮することができ、文章を構成する単語数に関係なく、精度の高い文章境界検出処理、センテンス・セグメンテーション処理を実行することができる。
第3の発明は、第1または第2の発明であって、m次元の閾値ベクトルを設定する閾値ベクトル設定部をさらに備える。
境界検出部は、m次元の閾値ベクトルとm+1次元ベクトルデータとに基づいて、シーケンスデータ(例えば、文章)の境界位置を決定する。
第4の発明は、第3の発明であって、境界検出部は、m次元の閾値ベクトルのm個の要素と、m+1次元ベクトルデータのシーケンスデータ(例えば、文章)の境界位置である確率を示すデータであるm個の要素とを、それぞれ、比較することにより、シーケンスデータ(例えば、文章)の境界位置を決定する。
これにより、このデータ・セグメンテーション装置では、簡単な比較処理を行うだけで、適切に文章の境界位置を決定(検出)することができる。
第5の発明は、第4の発明であって、境界検出部は、m次元の閾値ベクトルのm個の要素と、m+1次元ベクトルデータのシーケンスデータ(例えば、文章)の境界位置である確率を示すデータであるm個の要素とを、検出する対象のシーケンスデータ(例えば、文章)の境界位置が現時刻から時間的に近い順に、比較することでシーケンスデータ(例えば、文章)の境界位置を決定する処理を行い、シーケンスデータ(例えば、文章)の境界位置が決定されたとき、以降の比較処理を行わない。
これにより、このデータ・セグメンテーション装置では、現時刻tに時間的に近い方から順番に、例えば、ニューラルネットワーク部に入力された単語の後に文章境界があるか否かを判定することができる。そして、このセンテンス・セグメンテーション装置では、閾値ベクトルθを用いて比較処理により、文章境界を検出したら即文章境界検出処理を終了させる。従って、このセンテンス・セグメンテーション装置では、ユーザの発話開始からあまり時間を経過しない間に文章境界検出処理を行うことができるため、リアルタイムで文章分割処理を実行することができる。
第6の発明は、第3から第5のいずれかの発明であって、閾値ベクトル設定部は、値F
=2×Precision×Recall/(Precision+Recall)
Precision:正しいと予測したデータのうち、実際に正しいデータであった割合
Recall:実際に正しいデータであるもののうち、正しいと予測されたデータの割合
とし、
評価値scoreを
score=F−α×latency
latency:遅延時間(遅延量)
α:係数
としたとき、
閾値ベクトルθをチューニングするために用いるデータセットにおいて、評価値scoreが所定の値よりも大きな値となるように、閾値ベクトルθを設定する。
このデータ・セグメンテーション装置では、上記によりチューニングされた閾値ベクトルθを用いてデータ・セグメンテーション処理を行うことができる。上記によりチューニングされた閾値ベクトルθは、データ・セグメンテーションの正確さ(accuracy)と遅延時間(latency)とを考慮した評価値に基づいて、最適化されているため、データ・セグメンテーションを実行するときの閾値処理に用いる閾値ベクトルθとして適切である。
つまり、このデータ・セグメンテーション装置では、上記のようにしてチューニングされた閾値ベクトルθを用いて、例えば、文章境界検出処理、センテンス・セグメンテーション処理を実行することで、高精度かつ低遅延の文章境界検出処理、センテンス・セグメンテーション処理を実現することができる。
なお、閾値ベクトルθをチューニングするために用いるデータセットにおいて、評価値scoreが最大となるように、閾値ベクトルθを設定してもよい。
本発明によれば、シーケンスデータ(例えば、文章)を構成する単位データ数(例えば、単語数)に関係なく、リアルタイムでシーケンスデータ分割処理(例えば、文章分割処理)を実行することができるシーケンスデータ分割方法(例えば、文章分割方法)、データ・セグメンテーション装置を実現することができる。また、当該文章分割方法、センテンス・セグメンテーション装置を利用することで、リアルタイムで精度の高い機械翻訳を行うことができ、さらに、機械によるリアルタイムでの同時通訳を実現することができる。
第1実施形態に係る同時通訳システム1000の概略構成図。 第1実施形態に係る文章分割装置100のセンテンス分割部2の概略構成図。 学習時における文章分割装置100のニューラルネットワーク部22の各層のデータ入出力関係を時系列に展開した図。 予測時(実行時)における文章分割装置100のニューラルネットワーク部22の各層のデータ入出力関係を時系列に展開した図。 文章境界検出処理のフローチャートである。 閾値ベクトルθをチューニングするためのアルゴリズムの疑似コード 第2実施形態に係る話者識別システム2000の概略構成図。 第2実施形態に係る話者識別システム2000のデータ分割装置100Aのデータ分割部2Aの概略構成図。 第3実施形態に係る映像識別システム3000の概略構成図。 第3実施形態に係る映像識別システム3000のデータ分割装置100Bのデータ分割部2Bの概略構成図。 第3実施形態の第1変形例に係る映像識別システム3000Aの概略構成図。 第3実施形態の第2変形例に係る映像識別システム3000Bの概略構成図。 第1実施形態を実現するコンピュータの内部構成を示すブロック図。
[第1実施形態]
第1実施形態について、図面を参照しながら、以下説明する。
<1.1:同時通訳システムの構成>
図1は、第1実施形態に係る同時通訳システム1000の概略構成図である。
図2は、第1実施形態に係る文章分割装置100のセンテンス分割部2の概略構成図である。
同時通訳システム1000は、図1に示すように、音声認識部Aud1と、文章分割装置100(データ・セグメンテーション装置)と、機械翻訳部MT1とを備える。
音声認識部Aud1は、例えば、マイク等の音声入力装置により取得された音声データDinを入力する。そして、音声認識部Aud1は、例えば、音響モデル、言語モデル、辞書のデータベースを有しており、音声データDinに対して、音響モデル、言語モデル、辞書を用いて、音声認識処理を実行し、音声データDinに対応する文章データD1を取得する。そして、音声認識部Aud1は、取得した文章データD1を文章分割装置100に出力する。
文章分割装置100は、図1に示すように、閾値ベクトル設定部1と、センテンス分割部2とを備える。
閾値ベクトル設定部1は、所定のデータセットを用いて、学習することにより、閾値ベクトルθを取得する。そして、閾値ベクトル設定部1は、取得した閾値ベクトルθをセンテンス分割部2に出力する。
センテンス分割部2は、図2に示すように、単語取得部21と、ニューラルネットワーク部22と、文章境界検出部23と、センテンス取得部24とを備える。
単語取得部21は、音声認識部Aud1から出力される文章データD1を入力する。単語取得部21は、入力された文章データD1から単語データxを取得し、取得した単語データxをニューラルネットワーク部22に出力する。
ニューラルネットワーク部22は、複数のRNN層(RNN:Recurrent Neural Network)を有するニューラルネットワークにより構成されている。ニューラルネットワーク部22は、図2に示すように、埋込層221と、第1RNN層222と、第2RNN層223と、第3RNN層224と、出力マッピング層225と、ソフトマックス層226とを備える。
ニューラルネットワーク部22は、単語取得部21から出力される単語データxを入力し、単語データxを用いて、ニューラルネットワークによる処理を実行し、センテンス・セグメンテーション判定用データyを取得する。そして、ニューラルネットワーク部22は、取得したセンテンス・セグメンテーション判定用データyを文章境界検出部23に出力する。
埋込層221は、単語データxに対して、埋め込み処理を行うための行列を用いて、行列変換することで、分散表現データに変換し、取得した分散表現データを第1RNN層222に出力する。
第1RNN層222、第2RNN層223および第3RNN層224は、RNNにより構成されている。第1RNN層222は、時刻tにおいて埋込層221から出力される分散表現データxoemb(t)と、時刻t−1において第1RNN層222から出力されたデータxoRNN1(t−1)とを入力する。そして、第1RNN層222は、時刻tにおいて埋込層221から出力される分散表現データと、時刻t−1において第1RNN層222から出力されたデータとを用いて、RNNによる処理を実行する。つまり、第1RNN層222は、
xoRNN1(t)=Wrec×xoRNN1(t−1)+W×xoemb(t)
rec:重み行列
:重み行列
に相当する処理を実行し、時刻tの第1RNN層の出力データxoRNN1(t)を取得し、当該データを第2RNN層223に出力する。
第2RNN層223は、時刻tにおいて第1RNN層222から出力されるデータと、時刻t−1において第2RNN層223から出力されたデータとを入力する。そして、第2RNN層223は、時刻tにおいて第1RNN層222から出力されるデータxoRNN1(t)と、時刻t−1において第2RNN層223から出力されたデータxoRNN2(t−1)とを用いて、RNNによる処理を実行する。つまり、第2RNN層223は、
xoRNN2(t)=Wrec2×xoRNN2(t−1)+W×xoRNN1(t)
rec2:重み行列
:重み行列
に相当する処理を実行し、時刻tの第2RNN層の出力データxoRNN2(t)を取得し、当該データを第3RNN層224に出力する。
第3RNN層224は、時刻tにおいて第2RNN層223から出力されるデータと、時刻t−1において第3RNN層224から出力されたデータとを入力する。そして、第3RNN層224は、時刻tにおいて第2RNN層223から出力されるデータxoRNN2(t)と、時刻t−1において第3RNN層224から出力されたデータxoRNN3(t−1)とを用いて、RNNによる処理を実行する。つまり、第3RNN層224は、
xoRNN3(t)=Wrec3×xoRNN3(t−1)+W×xoRNN2(t)
rec3:重み行列
:重み行列
に相当する処理を実行し、時刻tの第3RNN層の出力データxoRNN3(t)を取得し、当該データを出力マッピング層225に出力する。
出力マッピング層225は、例えば、ニューラルネットワークにより構成されている。出力マッピング層225は、第3RNN層224から出力されたデータを入力する。出力マッピング層225は、第3RNN層224の各ノードから出力されるデータに対して重み付けを行い、重み付け後のデータを加算し、さらに、当該加算結果に対して、活性化関数による処理(例えば、tanh(x)による処理)を実行し、ソフトマックス層226のノード数と同じ次元のデータを取得する。そして、出力マッピング層225は、取得したデータをソフトマックス層226に出力する。
ソフトマックス層226は、例えば、活性化関数をSoftmax関数として、m+1次元(m:自然数)のベクトルを出力データとして出力する。ソフトマックス層226は、出力マッピング層225から出力されるデータに対して、活性化関数を用いた処理を実行し、m+1次元のベクトルデータを取得する。例えば、ソフトマックス層226のi番目(i:自然数、1≦i≦m+1)のノードの出力値y(i)は、下記の数式(Softmax関数)により算出される。
Figure 2020024277

ソフトマックス層226は、各ノードに対応する出力値y(i)を要素とするm+1次元のベクトルデータを取得し、取得したm+1次元のベクトルデータを出力データy(センテンス・セグメンテーション判定用データy)として文章境界検出部23に出力する。
文章境界検出部23は、ニューラルネットワーク部22から出力されるセンテンス・セグメンテーション判定用データyと、閾値ベクトル設定部1から出力される閾値ベクトルθとを入力する。文章境界検出部23は、センテンス・セグメンテーション判定用データyと、閾値ベクトルθとに基づいて、文章境界を検出する処理を実行し、当該処理の検出結果データδを取得する。そして、文章境界検出部23は、取得した検出結果データδをセンテンス取得部24に出力する。
センテンス取得部24は、音声認識部Aud1から出力される文章データD1と、文章境界検出部23から出力される検出結果データδとを入力する。センテンス取得部24は、検出結果データδに基づいて、文章データD1を文章単位に分割する。つまり、センテンス取得部24は、検出結果データδに基づいて、文章データD1の文章の境界を示すデータ(例えば<EOS>の記号)を付与したデータをデータD2として取得し、取得したデータD2を機械翻訳部MT1に出力する。
図1を参照して、機械翻訳部MT1は、文章分割装置100から出力されるデータD2を入力する。機械翻訳部MT1は、データD2に対して、機械翻訳処理を実行し、機械翻訳処理後のデータDoutを取得する。
<1.2:同時通訳システムの動作>
以上のように構成された同時通訳システム1000の動作について説明する。
(1.2.1:学習処理)
まず、同時通訳システム1000において、文章分割装置100のニューラルネットワーク部22のニューラルネットワークの学習処理について、説明する。
文章のシーケンスSをS=(S,S,・・・)とする。つまり、センテンスSi+1は、センテンスSに続くセンテンスであるものとする。そして、1つの学習用サンプル(X,n)が(S,Si+1)から抽出されるものとする。そして、
=(w ,w ,・・・,wni
であり、
(1)1≦t≦nの場合、
=w
であり、
(2)n+1≦t≦n+mの場合、
=wt−ni i+1
とする。なお、X=(x,x,・・・,xni+m)であり、Xは、入力単語のシーケンスである。
データyが教師データ(理想データ)であるとき、yは、以下のように定義される。
<k>=1 if 1≦t≦n、k=m+1
<k>=1 if n+1≦t≦n+m、k=t−n
<k>=0 otherwise(上記以外の場合)
したがって、実データy(訓練用データを入力したときの出力データy)と教師データとのクロスエントロピーE(S)を最小にするために、以下の基準を採用する。
Figure 2020024277

文章分割装置100のニューラルネットワーク部22では、訓練用データを入力し、出力データyを取得する。そして、取得したデータyについて、上記クロスエントロピーE(S)が所定の基準を満たすように、ニューラルネットワーク部22のニューラルネットワークのパラメータ(各シナプス間の重み付け)を決定する。そして、決定したパラメータ(各シナプス間の重み付け)を用いて、ニューラルネットワーク部22のニューラルネットワークにおいて、学習済みモデルを構築する。
例えば、文章データD1が「i‘d like some strawberries how much does it cost」である場合について、図3を用いて説明する。
図3は、学習時における文章分割装置100のニューラルネットワーク部22の各層のデータ入出力関係を時系列に展開した図である。
図3に示すように、ニューラルネットワーク部22には、文章データD1から出力した以下の単語データxが入力される。なお、m=3とする。
=「i」
=「‘d」
=「like」
=「some」
=「strawberries」
=「how」
=「much」
=「does」
そして、ニューラルネットワーク部22の出力は、m+1次元のベクトルである。時刻tのニューラルネットワーク部22の出力は、yであり、
=(y <1>,y <2>,・・・,y <m>,y <m+1>
<1>:単語wt−1(入力データxt−1)の後に文章の境界(区切り)がある確率
<2>:単語wt−2(入力データxt−2)の後に文章の境界(区切り)がある確率
・・・
<m>:単語wt−m(入力データxt−m)の後に文章の境界(区切り)がある確率
<m+1>:yの全ての要素の加算値を「1」とするための値
<m+1>は、以下の数式を満たす。
Figure 2020024277

上記の場合、図3に示すように、「strawberries」の後に文章の境界があるので、教師データyを以下のデータとして、学習を行う。
=y=y=y=y=(0,0,0,1)
=(1,0,0,0)
=(0,1,0,0)
=(0,0,1,0)
上記以外の訓練用データについても同様にして学習を行う。つまり、上記クロスエントロピーE(S)が所定の基準を満たすように、ニューラルネットワーク部22のニューラルネットワークのパラメータ(各シナプス間の重み付け)を決定する。そして、決定したパラメータ(各シナプス間の重み付け)を用いて、ニューラルネットワーク部22のニューラルネットワークにおいて、学習済みモデルを構築する。
(1.2.2:予測処理)
次に、同時通訳システム1000において、上記学習処理により取得した学習済みモデルを用いた予測処理、すなわち、同時通訳処理について説明する。
以下では、説明便宜のため、学習用の文章データD1が「i‘d like some strawberries how much does it cost」である場合について、説明する。
図4は、予測時(実行時)における文章分割装置100のニューラルネットワーク部22の各層のデータ入出力関係を時系列に展開した図である。
図4に示すように、ニューラルネットワーク部22には、文章データD1から出力した以下の単語データxが入力される。なお、m=3とする。
単語取得部21は、音声認識部Aud1から入力された文章データD1から単語データx(時刻tにおける単語データx)を取得する。具体的には、単語取得部21は、t=1〜8(1≦t≦8)において、文章データD1から以下の単語データxを取得し、ニューラルネットワーク部22の埋込層221に入力する。
=「i」
=「‘d」
=「like」
=「some」
=「strawberries」
=「how」
=「much」
=「does」
埋込層221では、入力された単語データxに対応する分散表現データが取得される。取得された分散表現データは、第1RNN層222に入力される。
第1RNN層222は、時刻tにおいて埋込層221から出力される分散表現データxoemb(t)と、時刻t−1において第1RNN層222から出力されたデータxoRNN1(t−1)とを用いて、RNNによる処理を実行する。つまり、第1RNN層222は、
xoRNN1(t)=Wrec×xoRNN1(t−1)+W×xoemb(t)
rec:重み行列
:重み行列
に相当する処理を実行し、時刻tの第1RNN層の出力データxoRNN1(t)を取得し、当該データを第2RNN層223に出力する。
第2RNN層223は、時刻tにおいて第1RNN層222から出力されるデータxoRNN1(t)と、時刻t−1において第2RNN層223から出力されたデータxoRNN2(t−1)とを用いて、RNNによる処理を実行する。つまり、第2RNN層223は、
xoRNN2(t)=Wrec2×xoRNN2(t−1)+W×xoRNN1(t)
rec2:重み行列
:重み行列
に相当する処理を実行し、時刻tの第2RNN層の出力データxoRNN2(t)を取得し、当該データを第3RNN層224に出力する。
第3RNN層224は、時刻tにおいて第2RNN層223から出力されるデータxoRNN2(t)と、時刻t−1において第3RNN層224から出力されたデータxoRNN3(t−1)とを用いて、RNNによる処理を実行する。つまり、第3RNN層224は、
xoRNN3(t)=Wrec3×xoRNN3(t−1)+W×xoRNN2(t)
rec3:重み行列
:重み行列
に相当する処理を実行し、時刻tの第3RNN層の出力データxoRNN3(t)を取得し、当該データを出力マッピング層225に出力する。
出力マッピング層225は、第3RNN層224の各ノードから出力されるデータに対して重み付けを行い、重み付け後のデータを加算し、さらに、当該加算結果に対して、活性化関数による処理(例えば、tanh(x)による処理)を実行し、ソフトマックス層226のノード数と同じ次元のデータを取得する。そして、出力マッピング層225は、取得したデータをソフトマックス層226に出力する。
ソフトマックス層226は、出力マッピング層225から出力されるデータに対して、活性化関数を用いた処理を実行し、m+1次元のベクトルデータを取得する。例えば、ソフトマックス層226のi番目(i:自然数、1≦i≦m+1)のノードの出力値y(i)は、下記の数式(Softmax関数)により算出される。
Figure 2020024277

ソフトマックス層226は、各ノードに対応する出力値y(i)を要素とするm+1次元のベクトルデータを取得し、取得したm+1次元のベクトルデータを出力データy(センテンス・セグメンテーション判定用データy)として文章境界検出部23に出力する。
図4の場合、y〜yは、以下のデータとして取得されたものとする。
=(y <1>,y <2>,y <3>,y <4>
=(0.15,0.21,0.18,0.46)
=(y <1>,y <2>,y <3>,y <4>
=(0.13,0.24,0.21,0.42)
=(y <1>,y <2>,y <3>,y <4>
=(0.25,0.11,0.22,0.42)
=(y <1>,y <2>,y <3>,y <4>
=(0.36,0.24,0.21,0.19)
=(y <1>,y <2>,y <3>,y <4>
=(0.17,0.19,0.13,0.51)
=(y <1>,y <2>,y <3>,y <4>
=(0.33,0.24,0.21,0.22)
=(y <1>,y <2>,y <3>,y <4>
=(0.15,0.51,0.12,0.22)
=(y <1>,y <2>,y <3>,y <4>
=(0.13,0.24,0.61,0.02)
また、閾値ベクトル設定部1は、所定のデータセットを用いて学習した閾値ベクトルθをセンテンス分割部2に出力する。なお、ここでは、閾値ベクトルθは、
θ=(θ<1>,θ<2>,θ<3>)=(0.4,0.5,0.6)
であるものとする。
文章境界検出部23は、ニューラルネットワーク部22から出力されるセンテンス・セグメンテーション判定用データyと、閾値ベクトルθとに基づいて、文章境界を検出する処理を実行する。この処理について、図5のフローチャートを用いて説明する。
図5は、文章境界検出処理のフローチャートである。
(ステップS1):
ステップS1において、文章境界検出部23は、i=1に設定する処理を行う。
(ステップS2):
ステップS2において、文章境界検出部23は、センテンス・セグメンテーション判定用データyのi番目の要素y <i>と、閾値ベクトルθのi番目の要素θ<i>との比較処理を行う。そして、y <i>>θ<i>である場合、処理をステップS3に進め、y <i>>θ<i>ではない場合、処理をステップS4に進める。
(ステップS3):
ステップS3において、文章境界検出部23は、文章境界決定処理を行う。具体的には、文章境界検出部23は、y <i>>θ<i>であるので、文章境界(文章の区切り位置)が時刻t−iにニューラルネットワーク部22に入力された単語xt−iの後であると判定する。そして、文章境界検出部23は、当該判定結果を含むデータをセンテンス取得部24に出力する。具体的には、文章境界検出部23は、時刻tにおいて、ニューラルネットワーク部22に入力された単語xの後に文章境界があると判定した場合、δ=1とし、ニューラルネットワーク部22に入力された単語xの後に文章境界がないと判定した場合、δ=0とする。そして、δを含むデータをセンテンス取得部24に出力する。
例えば、図4の場合、y <2>>θ<2>(0.51>0.5)であるので、δ=1(5=7−2)となり、文章境界検出部23は、x(「strawberries」)の後に、文章境界があると判定する。
(ステップS4):
ステップS4において、文章境界検出部23は、値iと値mとを比較し、i>mである場合、処理を終了させ、i>mではない場合、処理をステップS5に進める。
ステップS5では、値iを1だけインクリメントし、処理をステップS2に戻す。
文章境界検出部23では、上記のようにして、文章境界検出処理が実行される。
上記の通り、文章境界検出部23では、現時刻tに時間的に近い方から順番に、ニューラルネットワーク部22に入力された単語の後に文章境界があるか否かを判定する。そして、文章境界検出部23は、センテンス・セグメンテーション判定用データyと、閾値ベクトルθとの比較処理により、文章境界があると判定したら、即座に文章境界を出力し処理を終了させる。したがって、文章境界検出部23では、高速に文章境界を検出することができる。また、文章境界検出部23では、上記の通り、現時刻tから1〜mステップ前の時刻(t−1〜t−m)までのm個のデータについてのみ、文章境界検出処理を行うので、文章境界が検出されない場合において、処理が不要に長引くことを防止することができる。
センテンス取得部24は、文章境界検出部23により取得された検出結果データδに基づいて、文章データD1を文章単位に分割する。例えば、センテンス取得部24は、検出結果データδに基づいて、文章データD1の文章の境界を示すデータ(<EOS>)を付与したデータをデータD2として取得し、取得したデータD2を機械翻訳部MT1に出力する。例えば、図4の場合、δ=1であるため、センテンス取得部24は、「strawberries」の後に文章境界があると適切に判定することができる。
機械翻訳部MT1は、文章分割装置100から出力されるデータD2に対して、機械翻訳処理を実行し、機械翻訳処理後のデータDoutを取得する。このとき、文章分割装置100から出力されるデータD2は、文章の区切り(文章境界)が明示されているデータであるため、機械翻訳部MT1は、機械翻訳対象とする文章を適切に取得することができる。つまり、機械翻訳部MT1は、文章単位に機械翻訳処理を実行することができる。例えば、図4の場合、δ=1であり、「strawberries」の後に文章境界があると判定することができるので、機械翻訳部MT1は、「i‘d like some strawberries」を一文と判定した上で翻訳文を出力し、次の一文が「how」から始まることを適切に把握することができる。
したがって、機械翻訳部MT1は、文章境界が適切に判断された文章単位に機械翻訳を行うことができ、その結果、精度の高い機械翻訳結果を取得することができる。機械翻訳部MT1により取得された機械翻訳結果データは、データDoutとして出力される。
以上のように、同時通訳システム1000では、単語データを入力とし、文章境界が存在する位置および確率を示すベクトルを出力とするニューラルネットワークによるモデルを用いて学習処理を行い、学習済みモデルを取得する。そして、同時通訳システム1000では、上記の学習済みモデルを用いて、文章境界を検出する処理を行う。同時通訳システム1000では、閾値ベクトルθを導入し、現時刻tに時間的に近い方から順番に、ニューラルネットワーク部22に入力された単語の後に文章境界があるか否かを判定する。そして、同時通訳システム1000では、閾値ベクトルθを用いて比較処理により、文章境界を検出したら即座に文章境界検出処理を終了させるとともに、平均してユーザの音声入力開始から文章境界検出までの時間(遅延時間)が短いため、リアルタイムで文章分割処理を実行することができる。
また、同時通訳システム1000では、単語データを入力とし、文章境界が存在する位置および確率を示すベクトルを出力とするニューラルネットワークにおいて、RNNを用いているため、長い文章の依存性も考慮することができ、文章を構成する単語数に関係なく、精度の高い文章境界検出処理、センテンス・セグメンテーション処理を実行することができる。
また、同時通訳システム1000では、上記の通り、精度の高い文章境界検出処理、センテンス・セグメンテーション処理を実行できるので、文章境界を明示したデータを機械翻訳部MT1に入力し、機械翻訳部MT1が当該データに対して、機械翻訳処理を実行することで、精度の高い機械翻訳処理結果をリアルタイムで取得することができる。そして、このようにして取得した機械翻訳結果を、例えば、ディスプレイ等にテキストデータとして表示することで、同時通訳処理(リアルタイム通訳処理)を実行することができる。また、同時通訳システム1000において、上記のようにして取得した機械翻訳結果を、例えば、音声合成処理部により、音声合成処理を行い、機械翻訳結果に対応する合成音声を出力することで、同時通訳処理(リアルタイム通訳処理)を実行することができる。
≪変形例≫
次に、第1実施形態の変形例について、説明する。
本変形例の同時通訳システムでは、閾値ベクトル設定部1において、センテンス・セグメンテーションの正確さ(accuracy)と遅延時間(latency)とを考慮した評価値を導入し、当該評価値に基づいて、閾値ベクトルθをチューニングする方法について、説明する。
まず、値F(F値)を
=2×Precision×Recall/(Precision+Recall)
Precision:正しいと予測したデータのうち、実際に正しいデータであった割合
Recall:実際に正しいデータであるもののうち、正しいと予測されたデータの割合
とする。
そして、評価値scoreを
score=F−α×latency
latency:遅延時間(遅延量)
とする。
なお、αは係数であり、例えば、α=0.01である。
そして、閾値ベクトルθをチューニングするために用いるデータセットにおいて、上記評価値scoreを最大にするように、貪欲法(Greedy Algorithm)を用いたサーチを行う。例えば、図6に疑似コードを示したアルゴリズムにより、閾値ベクトルθをチューニングする。この手法では、その親データの評価値scoreが大きな値となる閾値ベクトルの優先順位を高くする。そして、上記手法では、θ<k>が降順となるようにし、ヒューリスティック手法により探索空間を刈り取る(取り除く)ことで、閾値ベクトルθをチューニングする。
上記によりチューニングされた閾値ベクトルθは、センテンス・セグメンテーションの正確さ(accuracy)と遅延時間(latency)とを考慮した評価値に基づいて、最適化されているため、センテンス・セグメンテーションを実行するときの閾値処理に用いる閾値ベクトルθとして適切である。
つまり、本変形例の同時通訳システムでは、上記のようにしてチューニングされた閾値ベクトルθを用いて、文章境界検出処理、センテンス・セグメンテーション処理を実行することで、高精度かつ低遅延の文章境界検出処理、センテンス・セグメンテーション処理を実現することができる。
[第2実施形態]
次に、第2実施形態について、説明する。
なお、上記実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
図7は、第2実施形態に係る話者識別システム2000の概略構成図である。
図8は、第2実施形態に係る話者識別システム2000のデータ分割装置100Aのデータ分割部2Aの概略構成図である。
第2実施形態では、第1実施形態の同時通訳システム1000の文章分割装置100に類似する構成を有するデータ分割装置100Aを用いて、話者識別システム2000を構築し、話者識別処理を実現させる方法について説明する。
話者識別システム2000は、図7に示すように、第1実施形態の同時通訳システム1000において、音声認識部Aud1を音声特徴量取得部Pre1に置換し、文章分割装置100をデータ分割装置100Aに置換し、機械翻訳部MT1を話者識別部Post1に置換した構成を有している。
音声特徴量取得部Pre1は、入力データDin(例えば、音声データ)から時間的に連続した音声特徴量を取得し、取得した音声特徴量を含むデータをデータD1Aとしてデータ分割装置100Aに出力する。
データ分割装置100Aは、図7に示すように、閾値ベクトル設定部1と、データ分割部2Aとを備える。
閾値ベクトル設定部1は、第1実施形態の閾値ベクトル設定部1と同様の構成を有している。
データ分割部2Aは、図8に示すように、単位データ取得部21Aと、ニューラルネットワーク部22と、境界検出部23Aと、分割データ取得部24Aとを備える。
単位データ取得部21Aは、第1実施形態の単語取得部21と類似の処理を実行する機能部であり、入力されるデータD1A(例えば、時間的に連続した音声特徴量のデータ)から、ニューラルネットワークでの処理単位となるデータ(単位データ)を取得し、取得したデータをデータxとしてニューラルネットワーク部22に出力する。
ニューラルネットワーク部22では、学習処理において、第1実施形態と同様の処理が実行される。なお、第1実施形態のニューラルネットワーク部22では、センテンスの区切り位置において教師データyのy <k>の値を「1」として学習処理を実行したが、本実施形態のニューラルネットワーク部22では、話者が切り替わった時刻を区切り位置として当該区切り位置において教師データyのy <k>の値を「1」として学習処理を実行する。
ニューラルネットワーク部22は、予測処理において、第1実施形態のニューラルネットワーク部22と同様の処理を実行する。
境界検出部23Aは、第1実施形態の文章境界検出部23と同様の構成を有しており、ニューラルネットワーク部22から出力されるデータyと、閾値ベクトル設定部1から出力される閾値ベクトルθとに基づいて、第1実施形態と同様の処理により、データ境界(話者が切り替わったタイミング)を検出する。そして、境界検出部23Aは、検出結果データδを分割データ取得部24Aに出力する。
分割データ取得部24Aは、第1実施形態のセンテンス取得部24と同様の構成を有しており、境界検出部23Aにより取得された検出結果データδに基づいて、データD1Aを話者ごとのデータに分割する。例えば、分割データ取得部24Aは、検出結果データδに基づいて、データD1Aの境界(話者が変わったタイミング)を示すデータ(例えば、特別な記号)を付与したデータをデータD2Aとして取得し、取得したデータD2Aを話者識別部Post1に出力する。
話者識別部Post1は、データ分割部2Aから出力されるデータD2Aを入力する。話者識別部Post1は、データD2AからデータD1Aの境界(話者が変わったタイミング)を特定し、話者を識別する処理を実行し、当該識別処理の結果を含むデータDoutを出力する。
上記により、話者識別システム2000では、時間的に連続するデータから、特定の区切り(本実施形態では、話者の変更)を検出する処理を実行することができる。そして、話者識別システム2000では、第1実施形態と同様の手法を用いているので、検出結果を取得するまでの時間が短く、その結果、リアルタイムで検出処理を実行することができる。
[第3実施形態]
次に、第3実施形態について、説明する。
なお、上記実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
図9は、第3実施形態に係る映像識別システム3000の概略構成図である。
図10は、第3実施形態に係る映像識別システム3000のデータ分割装置100Bのデータ分割部2Bの概略構成図である。
第3実施形態では、第2実施形態の話者識別システム2000のデータ分割装置100Aと同様の構成を有するデータ分割装置100Bを用いて、映像識別システム3000を構築し、映像識別処理(シーンチェンジの検出処理)を実現させる方法について説明する。
映像識別システム3000は、図9に示すように、第2実施形態の話者識別システム2000において、音声特徴量取得部Pre1を映像データ取得部Pre2に置換し、データ分割装置100Aをデータ分割装置100Bに置換し、話者識別部Post1をシーンチェンジ検出部Post2に置換した構成を有している。
映像データ取得部Pre2は、入力データDin(例えば、映像データ、あるいは、映像データをCNN(Convolutional Neural Network)により圧縮して取得したデータ)から時間的に連続したデータを取得し、取得したデータをデータD1Bとしてデータ分割装置100Bに出力する。
データ分割装置100Bは、図9に示すように、閾値ベクトル設定部1と、データ分割部2Bとを備える。
閾値ベクトル設定部1は、第1実施形態の閾値ベクトル設定部1と同様の構成を有している。
データ分割部2Bは、図10に示すように、単位データ取得部21Bと、ニューラルネットワーク部22と、境界検出部23Bと、分割データ取得部24Bとを備える。
単位データ取得部21Bは、第1実施形態の単語取得部21と類似の処理を実行する機能部であり、入力されるデータD1B(例えば、時間的に連続した映像のデータ、あるいは、時間的に連続した映像のデータのCNNによる圧縮後のデータ)から、ニューラルネットワークでの処理単位となるデータ(単位データ)を取得し、取得したデータをデータxとしてニューラルネットワーク部22に出力する。
ニューラルネットワーク部22では、学習処理において、第1実施形態と同様の処理が実行される。なお、第1実施形態のニューラルネットワーク部22では、センテンスの区切り位置において教師データyのy <k>の値を「1」として学習処理を実行したが、本実施形態のニューラルネットワーク部22では、シーンが切り替わった時刻(シーンチェンジの時刻)を区切り位置として当該区切り位置において教師データyのy <k>の値を「1」として学習処理を実行する。
ニューラルネットワーク部22は、予測処理において、第1実施形態のニューラルネットワーク部22と同様の処理を実行する。
境界検出部23Bは、第1実施形態の文章境界検出部23と同様の構成を有しており、ニューラルネットワーク部22から出力されるデータyと、閾値ベクトル設定部1から出力される閾値ベクトルθとに基づいて、第1実施形態と同様の処理により、データ境界(シーンが切り替わったタイミング)を検出する。そして、境界検出部23Bは、検出結果データδを分割データ取得部24Bに出力する。
分割データ取得部24Bは、第1実施形態のセンテンス取得部24と同様の構成を有しており、境界検出部23Bにより取得された検出結果データδに基づいて、データD1Bをシーンごとのデータに分割する。例えば、分割データ取得部24Bは、検出結果データδに基づいて、データD1Bの境界(シーンが切り替わったタイミング)を示すデータ(例えば、特別な記号)を付与したデータをデータD2Bとして取得し、取得したデータD2Bをシーンチェンジ検出部Post2に出力する。
シーンチェンジ検出部Post2は、データ分割部2Bから出力されるデータD2Bを入力する。シーンチェンジ検出部Post2は、データD2BからデータD1Bの境界(シーンが切り替わったタイミング)を特定し、シーンチェンジを検出する処理を実行し、当該検出結果を含むデータDoutを出力する。
上記により、映像識別システム3000では、時間的に連続するデータから、特定の区切り(本実施形態では、シーンチェンジ)を検出する処理を実行することができる。そして、映像識別システム3000では、第1実施形態と同様の手法を用いているので、検出結果を取得するまでの時間が短く、その結果、リアルタイムで検出処理を実行することができる。
≪第1変形例≫
次に、第3実施形態の第1変形例について、説明する。
なお、上記実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
図11は、第3実施形態の第1変形例に係る映像識別システム3000Aの概略構成図である。
第3実施形態の第1変形例では、第2実施形態の話者識別システム2000のデータ分割装置100Aと同様の構成を有するデータ分割装置100Bを用いて、映像識別システム3000Aを構築し、映像識別処理(人物検出処理)を実現させる方法について説明する。
映像識別システム3000Aは、図11に示すように、第3実施形態の映像識別システム3000において、映像データ取得部Pre2を映像データ取得部Pre3に置換し、シーンチェンジ検出部Post2を人物検出部Post3に置換した構成を有している。
映像データ取得部Pre3は、入力データDin(例えば、映像データ、あるいは、映像データをCNN(Convolutional Neural Network)により圧縮して取得したデータ)から時間的に連続したデータを取得し、取得したデータをデータD1Bとしてデータ分割装置100Bに出力する。
データ分割装置100Bでは、第3実施形態と同様の処理が実行される。
単位データ取得部21Bは、第1実施形態の単語取得部21と類似の処理を実行する機能部であり、入力されるデータD1B(例えば、時間的に連続した映像のデータ、あるいは、時間的に連続した映像のデータのCNNによる圧縮後のデータ)から、ニューラルネットワークでの処理単位となるデータ(単位データ)を取得し、取得したデータをデータxとしてニューラルネットワーク部22に出力する。
ニューラルネットワーク部22では、学習処理において、第1実施形態と同様の処理が実行される。なお、第1実施形態のニューラルネットワーク部22では、センテンスの区切り位置において教師データyのy <k>の値を「1」として学習処理を実行したが、本実施形態のニューラルネットワーク部22では、人物が検出された時刻(映像に人物が写り始めた時刻、あるいは、映像から人物が消えた時刻)を区切り位置として当該区切り位置において教師データyのy <k>の値を「1」として学習処理を実行する。
ニューラルネットワーク部22は、予測処理において、第1実施形態のニューラルネットワーク部22と同様の処理を実行する。
境界検出部23Bは、第1実施形態の文章境界検出部23と同様の構成を有しており、ニューラルネットワーク部22から出力されるデータyと、閾値ベクトル設定部1から出力される閾値ベクトルθとに基づいて、第1実施形態と同様の処理により、データ境界(映像に人物が写り始めた時刻、あるいは、映像から人物が消えた時刻)を検出する。そして、境界検出部23Bは、検出結果データδを分割データ取得部24Bに出力する。
分割データ取得部24Bは、第1実施形態のセンテンス取得部24と同様の構成を有しており、境界検出部23Bにより取得された検出結果データδに基づいて、データD1Bをシーンごとのデータに分割する。例えば、分割データ取得部24Bは、検出結果データδに基づいて、データD1Bの境界(映像に人物が写り始めた時刻、あるいは、映像から人物が消えた時刻)を示すデータ(例えば、特別な記号)を付与したデータをデータD2Bとして取得し、取得したデータD2Bを人物検出部Post3に出力する。
人物検出部Post3は、データ分割部2Bから出力されるデータD2Bを入力する。人物検出部Post3は、データD2BからデータD1Bの境界(映像に人物が写り始めた時刻、あるいは、映像から人物が消えた時刻)を特定し、人物を検出する処理を実行し、当該検出結果を含むデータDoutを出力する。
上記により、映像識別システム3000Aでは、時間的に連続するデータから、特定の区切り(本実施形態では、映像に人物が写り始めた時刻、あるいは、映像から人物が消えた時刻)を検出する処理を実行することができる。そして、映像識別システム3000Aでは、第1実施形態と同様の手法を用いているので、検出結果を取得するまでの時間が短く、その結果、リアルタイムで検出処理を実行することができる。
≪第2変形例≫
次に、第3実施形態の第2変形例について、説明する。
なお、上記実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
図12は、第3実施形態の第2変形例に係る映像識別システム3000Bの概略構成図である。
第3実施形態の第2変形例では、第2実施形態の話者識別システム2000のデータ分割装置100Aと同様の構成を有するデータ分割装置100Bを用いて、映像識別システム3000Bを構築し、映像識別処理(犯罪行為検出処理)を実現させる方法について説明する。
映像識別システム3000Bは、図12に示すように、第3実施形態の映像識別システム3000において、映像データ取得部Pre2を映像データ取得部Pre4に置換し、シーンチェンジ検出部Post2を犯罪行為検出部Post4に置換した構成を有している。
映像データ取得部Pre4は、入力データDin(例えば、映像データ、あるいは、映像データをCNN(Convolutional Neural Network)により圧縮して取得したデータ)から時間的に連続したデータを取得し、取得したデータをデータD1Bとしてデータ分割装置100Bに出力する。
データ分割装置100Bでは、第3実施形態と同様の処理が実行される。
単位データ取得部21Bは、第1実施形態の単語取得部21と類似の処理を実行する機能部であり、入力されるデータD1B(例えば、時間的に連続した映像のデータ、あるいは、時間的に連続した映像のデータのCNNによる圧縮後のデータ)から、ニューラルネットワークでの処理単位となるデータ(単位データ)を取得し、取得したデータをデータxとしてニューラルネットワーク部22に出力する。
ニューラルネットワーク部22では、学習処理において、第1実施形態と同様の処理が実行される。なお、第1実施形態のニューラルネットワーク部22では、センテンスの区切り位置において教師データyのy <k>の値を「1」として学習処理を実行したが、本実施形態のニューラルネットワーク部22では、人物が検出された時刻(犯罪行為の開始時刻、あるいは、犯罪行為の終了時刻)を区切り位置として当該区切り位置において教師データyのy <k>の値を「1」として学習処理を実行する。
ニューラルネットワーク部22は、予測処理において、第1実施形態のニューラルネットワーク部22と同様の処理を実行する。
境界検出部23Bは、第1実施形態の文章境界検出部23と同様の構成を有しており、ニューラルネットワーク部22から出力されるデータyと、閾値ベクトル設定部1から出力される閾値ベクトルθとに基づいて、第1実施形態と同様の処理により、データ境界(映像に人物が写り始めた時刻、あるいは、映像から人物が消えた時刻)を検出する。そして、境界検出部23Bは、検出結果データδを分割データ取得部24Bに出力する。
分割データ取得部24Bは、第1実施形態のセンテンス取得部24と同様の構成を有しており、境界検出部23Bにより取得された検出結果データδに基づいて、データD1Bをシーンごとのデータに分割する。例えば、分割データ取得部24Bは、検出結果データδに基づいて、データD1Bの境界(犯罪行為の開始時刻、あるいは、犯罪行為の終了時刻)を示すデータ(例えば、特別な記号)を付与したデータをデータD2Bとして取得し、取得したデータD2Bを犯罪行為検出部Post4に出力する。
犯罪行為検出部Post4は、データ分割部2Bから出力されるデータD2Bを入力する。犯罪行為検出部Post4は、データD2BからデータD1Bの境界(犯罪行為の開始時刻、あるいは、犯罪行為の終了時刻)を特定し、犯罪行為を検出する処理を実行し、当該検出結果を含むデータDoutを出力する。
上記により、映像識別システム3000Bでは、時間的に連続するデータから、特定の区切り(本実施形態では、犯罪行為の開始時刻、あるいは、犯罪行為の終了時刻)を検出する処理を実行することができる。そして、映像識別システム3000Bでは、第1実施形態と同様の手法を用いているので、検出結果を取得するまでの時間が短く、その結果、リアルタイムで検出処理を実行することができる。
[他の実施形態]
上記実施形態(変形例を含む)で説明した同時通訳システムの各機能部は、1つの装置(システム)により実現されてもよいし、複数の装置により実現されてもよい。
また、上記実施形態において、入力言語が英語である場合について説明したが、入力言語は英語に限定されることはなく、他の言語であってもよい。つまり、上記実施形態(変形例を含む)の同時通訳システムにおいて、翻訳元言語および翻訳先言語は、任意の言語であってよい。
また上記実施形態で説明した同時通訳システム1000において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部または全部を含むように1チップ化されても良い。
なおここではLSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
また上記各実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
また上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらにソフトウェアおよびハードウェアの混在処理により実現しても良い。
例えば上記実施形態の各機能部をソフトウェアにより実現する場合、図13に示したハードウェア構成(例えばCPU、GPU、ROM、RAM、入力部、出力部、通信部、記憶部(例えば、HDD、SSD等により実現される記憶部)、外部メディア用ドライブ等をバスBusにより接続したハードウェア構成)を用いて各機能部をソフトウェア処理により実現するようにしてもよい。
また上記実施形態の各機能部をソフトウェアにより実現する場合、当該ソフトウェアは、図13に示したハードウェア構成を有する単独のコンピュータを用いて実現されるものであってもよいし、複数のコンピュータを用いて分散処理により実現されるものであってもよい。
また上記実施形態における処理方法の実行順序は、必ずしも上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
前述した方法をコンピュータに実行させるコンピュータプログラム、及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここでコンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。
上記コンピュータプログラムは、上記記録媒体に記録されたものに限らず、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
なお本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
本発明によれば、文章を構成する単語数に関係なく、リアルタイムで文章分割処理を実行することができる文章分割方法、センテンス・セグメンテーション装置を実現することができる。このため本発明は、自然言語処理関連産業分野において有用であり、当該分野において実施することができる。
1000 同時通訳システム
100 文章分割装置(データ・セグメンテーション装置)
1 閾値ベクトル設定部
2 センテンス分割部
21 単語取得部
22 ニューラルネットワーク部
23 文章境界検出部
24 センテンス取得部

Claims (6)

  1. 時系列に連続するデータであるシーケンスデータを構成する単位データを入力し、
    各要素がシーケンスデータの境界位置である確率を示すデータであるm個(m:自然数)の要素と、もう1つの要素との合計m+1個の要素からなるm+1次元ベクトルデータを出力するニューラルネットワーク部と、
    前記ニューラルネットワーク部から出力される前記m+1次元ベクトルデータに基づいて、シーケンスデータの境界位置を決定する境界検出部と、
    を備えるデータ・セグメンテーション装置。
  2. 前記ニューラルネットワーク部は、
    再帰型ニューラルネットワークを含む、
    請求項1に記載のデータ・セグメンテーション装置。
  3. m次元の閾値ベクトルを設定する閾値ベクトル設定部をさらに備え、
    前記境界検出部は、
    前記m次元の閾値ベクトルと前記m+1次元ベクトルデータとに基づいて、シーケンスデータの境界位置を決定する、
    請求項1または2に記載のデータ・セグメンテーション装置。
  4. 前記境界検出部は、
    前記m次元の閾値ベクトルのm個の要素と、前記m+1次元ベクトルデータのシーケンスデータの境界位置である確率を示すデータであるm個の要素とを、それぞれ、比較することにより、シーケンスデータの境界位置を決定する、
    請求項3に記載のデータ・セグメンテーション装置。
  5. 前記境界検出部は、
    前記m次元の閾値ベクトルのm個の要素と、前記m+1次元ベクトルデータのシーケンスデータの境界位置である確率を示すデータであるm個の要素とを、検出する対象のシーケンスデータの境界位置が現時刻から時間的に近い順に、比較することで文章の境界位置を決定する処理を行い、文章の境界位置が決定されたとき、以降の比較処理を行わない、
    請求項4に記載のデータ・セグメンテーション装置。
  6. 前記閾値ベクトル設定部は、
    値F
    =2×Precision×Recall/(Precision+Recall)
    Precision:正しいと予測したデータのうち、実際に正しいデータであった割合
    Recall:実際に正しいデータであるもののうち、正しいと予測されたデータの割合
    とし、
    評価値scoreを
    score=F−α×latency
    latency:遅延時間(遅延量)
    α:係数
    としたとき、
    閾値ベクトルθをチューニングするために用いるデータセットにおいて、前記評価値scoreが所定の値よりも大きな値となるように、閾値ベクトルθを設定する、
    請求項3から5のいずれかに記載のデータ・セグメンテーション装置。
JP2018148249A 2018-08-07 2018-08-07 データ・セグメンテーション装置 Active JP7113474B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018148249A JP7113474B2 (ja) 2018-08-07 2018-08-07 データ・セグメンテーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018148249A JP7113474B2 (ja) 2018-08-07 2018-08-07 データ・セグメンテーション装置

Publications (2)

Publication Number Publication Date
JP2020024277A true JP2020024277A (ja) 2020-02-13
JP7113474B2 JP7113474B2 (ja) 2022-08-05

Family

ID=69618578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018148249A Active JP7113474B2 (ja) 2018-08-07 2018-08-07 データ・セグメンテーション装置

Country Status (1)

Country Link
JP (1) JP7113474B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112699689A (zh) * 2021-01-05 2021-04-23 虎博网络技术(上海)有限公司 音频切分方法、装置和电子设备
CN112733927A (zh) * 2021-01-05 2021-04-30 福州数据技术研究院有限公司 一种基于一维卷积神经网络的风叶声音边界定位方法和存储设备
KR20210136791A (ko) * 2020-05-08 2021-11-17 쿠팡 주식회사 경합하는 신경 캐릭터 언어 모델에 기초한 단어 분할을 위한 시스템 및 방법
WO2023135963A1 (ja) * 2022-01-13 2023-07-20 株式会社Nttドコモ 翻訳装置
JP7488002B2 (ja) 2021-01-20 2024-05-21 Tvs Regza株式会社 映像処理装置、映像処理装置の作動方法および映像処理プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117560A (ja) * 1990-09-07 1992-04-17 Fujitsu Ltd 節/句境界抽出方式
JP2017058507A (ja) * 2015-09-16 2017-03-23 日本電信電話株式会社 音声認識装置、音声認識方法、プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100645660B1 (ko) 2001-11-09 2006-11-13 에스케이 주식회사 탄화수소 유분으로부터 노말파라핀을 분리하는 공정 및분리된 유분의 활용

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04117560A (ja) * 1990-09-07 1992-04-17 Fujitsu Ltd 節/句境界抽出方式
JP2017058507A (ja) * 2015-09-16 2017-03-23 日本電信電話株式会社 音声認識装置、音声認識方法、プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHENGLIN XU ET AL.: "A Bidirectional LSTM Approach with Word Embeddings for Sentence Boundary Detection", JOURNAL OF SIGNAL PROCESSING SYSTEMS[ONLINE], JPN6022025713, September 2017 (2017-09-01), ISSN: 0004811592 *
帖佐克己他: "同時音声翻訳のための構文情報を用いた文分割に基づく機械翻訳", 情報処理学会研究報告, vol. Vol.2016-NL-229, No.6, JPN6022025715, December 2016 (2016-12-01), pages 1 - 4, ISSN: 0004811593 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210136791A (ko) * 2020-05-08 2021-11-17 쿠팡 주식회사 경합하는 신경 캐릭터 언어 모델에 기초한 단어 분할을 위한 시스템 및 방법
KR102330819B1 (ko) 2020-05-08 2021-12-01 쿠팡 주식회사 경합하는 신경 캐릭터 언어 모델에 기초한 단어 분할을 위한 시스템 및 방법
CN112699689A (zh) * 2021-01-05 2021-04-23 虎博网络技术(上海)有限公司 音频切分方法、装置和电子设备
CN112733927A (zh) * 2021-01-05 2021-04-30 福州数据技术研究院有限公司 一种基于一维卷积神经网络的风叶声音边界定位方法和存储设备
JP7488002B2 (ja) 2021-01-20 2024-05-21 Tvs Regza株式会社 映像処理装置、映像処理装置の作動方法および映像処理プログラム
WO2023135963A1 (ja) * 2022-01-13 2023-07-20 株式会社Nttドコモ 翻訳装置

Also Published As

Publication number Publication date
JP7113474B2 (ja) 2022-08-05

Similar Documents

Publication Publication Date Title
JP2020024277A (ja) データ・セグメンテーション装置
KR102339716B1 (ko) 음성 인식 방법 및 그 장치
US10210862B1 (en) Lattice decoding and result confirmation using recurrent neural networks
JP6066354B2 (ja) 信頼度計算の方法及び装置
JP6222821B2 (ja) 誤り修正モデル学習装置、及びプログラム
CN110245221B (zh) 训练对话状态跟踪分类器的方法和计算机设备
JP5598331B2 (ja) 言語モデル作成装置
JP2021515905A (ja) 音声認識方法、並びにその装置、デバイス、記憶媒体及びプログラム
CN111461004B (zh) 基于图注意力神经网络的事件检测方法、装置和电子设备
KR20180005850A (ko) 자동 통역 방법 및 장치, 및 기계 번역 방법 및 장치
CN111145733B (zh) 语音识别方法、装置、计算机设备和计算机可读存储介质
JP2010537321A (ja) 統計的分類のための最適な選択方略の方法及びシステム
JP2011070192A (ja) 音声検索装置及び音声検索方法
JP2008203469A (ja) 音声認識装置及び方法
EP3550454A1 (en) Electronic device and control method
CN110164416B (zh) 一种语音识别方法及其装置、设备和存储介质
CN106843523B (zh) 基于人工智能的文字输入方法和装置
JP2020020872A (ja) 識別器、学習済モデル、学習方法
JP2019219827A (ja) 言語モデル学習装置およびそのプログラム、ならびに、単語推定装置およびそのプログラム
JP2020042131A (ja) 情報処理装置、情報処理方法、およびプログラム
JP5975938B2 (ja) 音声認識装置、音声認識方法及びプログラム
JP5766152B2 (ja) 言語モデル生成装置、その方法及びプログラム
KR20190032868A (ko) 음성인식 방법 및 그 장치
US8140334B2 (en) Apparatus and method for recognizing voice
KR20200095947A (ko) 전자 장치 및 이의 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220715

R150 Certificate of patent or registration of utility model

Ref document number: 7113474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150