JP2020034704A - テキスト生成装置、テキスト生成プログラムおよびテキスト生成方法 - Google Patents

テキスト生成装置、テキスト生成プログラムおよびテキスト生成方法 Download PDF

Info

Publication number
JP2020034704A
JP2020034704A JP2018160873A JP2018160873A JP2020034704A JP 2020034704 A JP2020034704 A JP 2020034704A JP 2018160873 A JP2018160873 A JP 2018160873A JP 2018160873 A JP2018160873 A JP 2018160873A JP 2020034704 A JP2020034704 A JP 2020034704A
Authority
JP
Japan
Prior art keywords
text
corrected
telop
meta information
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018160873A
Other languages
English (en)
Other versions
JP7210938B2 (ja
Inventor
洋都 竹川
Hiroto Takegawa
洋都 竹川
祐介 ▲濱▼田
祐介 ▲濱▼田
Yusuke Hamada
聡 三小田
Satoshi Mikota
聡 三小田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018160873A priority Critical patent/JP7210938B2/ja
Priority to US16/549,599 priority patent/US10984247B2/en
Publication of JP2020034704A publication Critical patent/JP2020034704A/ja
Application granted granted Critical
Publication of JP7210938B2 publication Critical patent/JP7210938B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/635Overlay text, e.g. embedded captions in a TV program

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

【課題】精度よくテキストの誤りを補正する。【解決手段】実施形態のテキスト生成装置は、生成部と、補正部とを有する。生成部は、補正対象のテキストに基づき、当該テキストの文脈を示す文脈データを生成する。補正部は、教師データに対応するテキストの文字列、当該テキストの文脈データおよびメタ情報を入力とし、テキストの誤りを補正するように学習したニューラルネットワークに対して、補正対象のテキストの文字列、生成した文脈データおよび当該テキストに対応するメタ情報を入力し、補正対象のテキストの誤りを補正する。【選択図】図2

Description

本発明の実施形態は、テキスト生成装置、テキスト生成プログラムおよびテキスト生成方法に関する。
従来、音声や字幕テロップなどを認識してテキストを生成する場合、認識時に誤りが含まれることがあるため、正しいテキストへの変換・校正を行うことがある。このテキスト変換・校正を行う従来技術としては、RNN(Recurrent Neural Network)を用いる方法が知られている。
特開2015−75706号公報
しかしながら、上記の従来技術では、テキストだけをRNNに入力して誤りを判定しているため、例えばテキストの誤り補正の精度がテキストの内容に制限され、十分な精度が得られない場合があるという問題がある。
1つの側面では、精度よくテキストの誤りを補正できるテキスト生成装置、テキスト生成プログラムおよびテキスト生成方法を提供することを目的とする。
1つの案では、テキスト生成装置は、生成部と、補正部とを有する。生成部は、補正対象のテキストに基づき、当該テキストの文脈を示す文脈データを生成する。補正部は、教師データに対応するテキストの文字列、当該テキストの文脈データおよびメタ情報を入力とし、テキストの誤りを補正するように学習したニューラルネットワークに対して、補正対象のテキストの文字列、生成した文脈データおよび当該テキストに対応するメタ情報を入力し、補正対象のテキストの誤りを補正する。
本発明の実施態様によれば、テキストの誤りを精度よく補正できる。
図1は、実施形態にかかるテキスト生成装置の機能構成例を示すブロック図である。 図2は、実施形態にかかるテキスト生成装置の動作例を示すフローチャートである。 図3は、教師データ生成にかかる機能構成例を説明するブロック図である。 図4は、教師データ生成にかかる処理例を示すフローチャートである。 図5は、メタ情報の一例を説明する説明図である。 図6は、メタ情報生成にかかる機能構成例を示すブロック図である。 図7は、メタ情報生成にかかる処理例を示すフローチャートである。 図8は、メタ情報生成により生成された情報の一例を説明する説明図である。 図9は、学習フェーズの一例を説明する説明図である。 図10は、推論フェーズの一例を説明する説明図である。 図11は、文脈データ生成の学習および推論を説明する説明図である。 図12は、文脈データ生成にかかる処理例を示すフローチャートである。 図13は、文脈データ学習にかかる処理例を示すフローチャートである。 図14は、誤り補正の学習および推論を説明する説明図である。 図15は、誤り補正にかかる処理例を示すフローチャートである。 図16は、実施形態にかかるテキスト生成装置のハードウエア構成の一例を示すブロック図である。
以下、図面を参照して、実施形態にかかるテキスト生成装置、テキスト生成プログラムおよびテキスト生成方法を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明するテキスト生成装置、テキスト生成プログラムおよびテキスト生成方法は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
図1は、実施形態にかかるテキスト生成装置の機能構成例を示すブロック図である。図1に示すように、テキスト生成装置1は、テキスト生成処理部10および記憶部20を有し、補正対象のテキストに関する入力データを受け付け、補正対象のテキストに含まれる誤りを補正する情報処理装置である。
例えば、テキスト生成装置1は、PC(Personal Computer)などであり、LAN(Local Area Network)やインターネット等の通信ネットワーク(図示しない)を介して音声や字幕テロップなどを含む入力データを受け付ける。そして、テキスト生成装置1は、入力データに含まれる音声や動画像の字幕テロップより認識したテキストを補正対象とし、認識時に生じた誤りを補正してファイルやディスプレイなどに出力する。
なお、本実施形態では、動画像に含まれる字幕テロップをテキストとして認識し、認識したテキストを補正対象として認識時に生じた誤りを補正する場合を例示する。しかしながら、補正対象のテキストは、動画像の字幕テロップに特に限定しない。例えば、音声認識により音声からテキストに変換したものや、ネットワークの記事などを補正対象とし、テキストに含まれる誤りを補正(校正)してもよい。
テキスト生成処理部10は、補正対象のテキストについて、誤りを補正したテキストを生成するなどの、テキスト生成装置1における処理を中央制御する処理部である。テキスト生成処理部10は、教師データ作成部11および誤り補正部12を有する。
教師データ作成部11は、補正対象のテキストに関する入力データをもとに、補正対象のテキスト(テロップ)の誤り訂正に要する教師データを生成する処理部である。ついで、教師データ作成部11は、生成した教師データを教師データ格納部22に格納する。
なお、補正対象のテキストに関する入力データには、例えば、テロップ(補正対象のテキスト)を含む動画像の情報、動画像に関連するメタ情報などがある。また、動画像に関連するメタ情報としては、例えば、動画像におけるテロップの位置情報、動画像の内容を示す属性情報、動画像に含まれる音声のテキスト情報などがある。
例えば、教師データ作成部11は、入力データの動画像に含まれるテロップ、すなわち補正対象のテキストに基づき、公知の自然言語処理を行うことでテキストの文脈を示す文脈データを生成する。すなわち、教師データ作成部11は、生成部の一例である。なお、教師データ作成部11が生成する文脈データは、例えば、テキスト内の所定の単語と、その単語の前後/周辺に出現する単語との共起度合いを、出現単語の順序に従って並べた文脈ベクトルなどがある。
誤り補正部12は、教師データ格納部22に格納された教師データを取得し、ディープラーニング技術により学習したニューラルネットワークを用いて、補正対象のテキストの誤りを補正する処理を行う処理部である。すなわち、誤り補正部12は、補正部の一例である。
具体的には、誤り補正部12は、ニューラルネットワークの学習を行う学習フェーズにおいて、教師データに対応するテキストの文字列、そのテキストの文脈データおよびテキストに関するメタ情報をニューラルネットワークに入力して順伝播させる。ついで、誤り補正部12は、順伝播を経たニューラルネットワークの出力と、正解(正解のテキスト)との比較をもとに逆伝播を行い、ニューラルネットワークの各ノードにおける重みパラメータを調整して学習済みのニューラルネットワークを得る。これにより、誤り補正部12は、テキストに含まれる誤りを補正したものを出力するように学習済みのニューラルネットワークを得る。
この学習済みのニューラルネットワークに対して、誤り補正部12は、教師データ格納部22に格納された教師データを参照し、補正対象のテキストの文字列、テキストより生成した文脈データおよびテキストに対応するメタ情報を入力する。これにより、誤り補正部12は、ニューラルネットワークの出力より、補正対象のテキストに含まれる誤りを補正した補正済みのテキストを得る。誤り補正部12は、得られた補正済みのテキストデータ(補正済みのテロップ)を誤り補正済みテロップ格納部23に格納する。
記憶部20は、例えばHDD(Hard Disk Drive)などの記憶装置であり、入力データ格納部21、教師データ格納部22および誤り補正済みテロップ格納部23を有する。入力データ格納部21は、補正対象のテキストに関する入力データを格納する。教師データ格納部22は、教師データ作成部11が生成した教師データを格納する。誤り補正済みテロップ格納部23は、誤り補正部12による補正済みのテキストデータを格納する。
図2は、実施形態にかかるテキスト生成装置1の動作例を示すフローチャートである。なお、入力データ格納部21には、補正対象のテキスト(テロップ)に関する入力データとして、テロップを含む動画(テロップ動画)と、動画に関するメタ情報とが事前に格納されているものとする。
図2に示すように、処理が開始されると、教師データ作成部11は、入力データ格納部21に格納されている全入力データを取得する(S1)。次いで、教師データ作成部11は、取得した入力データをもとに、補正対象のテキスト(テロップ)の誤り訂正に要する教師データを生成し(S2)、生成した教師データを教師データ格納部22に格納する(S3)。
ここで教師データ作成部11における教師データの生成について、詳細に説明する。図3は、教師データ生成にかかる機能構成例を説明するブロック図である。図3に示すように、入力データ格納部21には、補正対象のテロップに関するテロップ動画21aと、動画に関連するメタ情報21bとが格納されている。
教師データ作成部11は、教師データ作成制御部11a、メタ情報分解部11b、メタ情報作成部11cおよび文脈データ作成部11dを有する。
教師データ作成制御部11aは、教師データの作成に関する処理を制御する処理部である。教師データ作成制御部11aは、教師データ作成にあたり、入力データ格納部21よりテロップ動画21aおよびメタ情報21bを取得する。次いで、教師データ作成制御部11aは、テロップ動画21aに関連するメタ情報21bがある場合、取得したメタ情報21bをメタ情報分解部11bへ出力し、メタ情報分解部11bにメタ情報21bを分解して教師データを作成させる。また、教師データ作成制御部11aは、メタ情報21bがない場合、メタ情報作成部11cに対してテロップ動画21aを出力し、テロップ動画21aからメタ情報を作成して教師データを作成するように指示する。
メタ情報分解部11bは、メタ情報21bを分解し、誤り推定に必要な形式のデータに整形して、画像情報22a、音声テキスト22b、テロップテキスト22cなどの教師データを作成する処理部である。メタ情報分解部11bは、作成した画像情報22a、音声テキスト22b、テロップテキスト22cを教師データ格納部22に格納する。
メタ情報作成部11cは、メタ情報21bがない場合、テロップ動画21aに含まれる動画と音声とをもとにメタ情報を作成する処理部である。メタ情報作成部11cは、作成したメタ情報をもとに、メタ情報分解部11bと同様に画像情報22a、音声テキスト22b、テロップテキスト22cなどの教師データを作成する。メタ情報作成部11cは、作成した画像情報22a、音声テキスト22b、テロップテキスト22cを教師データ格納部22に格納する。
文脈データ作成部11dは、テロップテキスト22cの全テキストを用い、テロップの文脈を表す文脈データ22dを作成する処理部である。文脈データ作成部11dは、作成した文脈データ22dを教師データ格納部22に格納する。
図4は、教師データ生成にかかる処理例を示すフローチャートである。図4に示すように、処理が開始されると、教師データ作成制御部11aは、入力データ格納部21を参照してテロップ動画21aを読み出し、テロップ動画21aを音声データと、動画に含まれるフレームごとの複数の画像ファイルとに分割する(S10)。
次いで、教師データ作成制御部11aは、入力データ格納部21を参照し、テロップ動画21aにタグなどで関連付けられたメタ情報21bが存在するか否かを判定する(S11)。メタ情報21bが存在しない場合、教師データ作成制御部11aは、S15へ処理を進める。
メタ情報21bが存在する場合(S11:YES)、教師データ作成制御部11aは、テロップ動画21aに関連するメタ情報21bを読み出し、読み出したメタ情報21bをメタ情報分解部11bへ出力する。次いで、メタ情報分解部11bは、メタ情報21bから画像情報22a、テロップテキスト22c、音声テキスト22bを作成し(S12)、作成した画像情報22a、テロップテキスト22c、音声テキスト22bを教師データ格納部22に格納する(S13)。次いで、文脈データ作成部11dは、メタ情報作成部11cが作成したテロップテキスト22cから文脈データ22dを生成し、教師データ格納部22に格納する(S14)。
図5は、メタ情報21bの一例を説明する説明図である。図5に示すように、例えばメタ情報21bには、テロップ動画21aのタイムコードで示される時間ごとに、テロップ位置、画像の内容を示す画像属性、テロップテキスト、音声の内容を示す音声テキストについての情報が記述されている。
メタ情報分解部11bは、メタ情報21bにおける時間ごとのテロップ位置、画像属性、テロップテキストおよび音声テキストを画像情報22a、音声テキスト22bおよびテロップテキスト22cに分解する。例えば、メタ情報分解部11bは、メタ情報21bより時間を示すタイムコードとともに画像属性を分解して画像情報22aとし、教師データ格納部22に格納する。また、メタ情報分解部11bは、メタ情報21bよりタイムコードとともに音声テキストを分解して音声テキスト22bとし、教師データ格納部22に格納する。また、メタ情報分解部11bは、メタ情報21bよりタイムコードとともにテロップ位置とテロップテキストを分解してテロップテキスト22cとし、教師データ格納部22に格納する。
メタ情報21bが存在しない場合(S11:NO)、教師データ作成制御部11aは、テロップ動画21aを読み出し、読み出したテロップ動画21aをメタ情報作成部11cへ出力する。次いで、メタ情報作成部11cは、テロップ動画21aに含まれる音声データと画像ファイルからメタ情報、すなわち画像情報、テロップテキスト、音声テキストを作成する(S15)。
図6は、メタ情報生成にかかる機能構成例を示すブロック図である。図6に示すように、メタ情報作成部11cは、メタ情報作成制御部111、画像分類エンジン112、音声認識エンジン113およびテロップ認識エンジン114を有する。
メタ情報作成制御部111は、メタ情報の作成に関する処理を制御する処理部である。メタ情報作成制御部111は、メタ情報の作成対象であるテロップ動画21aより、画像ファイルを画像分類エンジン112およびテロップ認識エンジン114に渡し、音声データを音声認識エンジン113に渡す。
画像分類エンジン112は、画像ファイルをもとに公知の画像認識処理を行って画像の属性を分類する処理部である。具体的には、画像分類エンジン112は、公知の画像認識処理により画像に含まれる物体を認識する。次いで、画像分類エンジン112は、認識した物体に該当する属性を判定し、画像の内容を示す属性ごとに分類したデータ(画像情報22a)を作成して教師データ格納部22に格納する。
音声認識エンジン113は、音声データをもとに公知の音声認識処理を行って音声を認識する処理部である。音声認識エンジン113は、認識した音声を音声テキスト22bに変換し、教師データ格納部22に格納する。
テロップ認識エンジン114は、画像ファイルをもとに公知の画像認識処理を行って画像に含まれるテロップを認識する処理部である。テロップ認識エンジン114は、公知の画像認識処理により画像におけるテロップの位置と、テロップのテキストを認識し、認識した位置およびテキストをテロップテキスト22cとして教師データ格納部22に格納する。
図7は、メタ情報生成にかかる処理例を示すフローチャートである。図7に示すように、処理が開始されると、メタ情報作成制御部111は、テロップ認識エンジン114により画像(各フレーム)におけるテロップの存在を確認し(S20)、画像にテロップが存在するか否かを判定する(S21)。
テロップが存在しない場合(S21:NO)、メタ情報作成制御部111はS20へ処理を戻し、テロップが存在するフレームが得られるまで処理を待機する。
テロップが存在する場合(S21:YES)、メタ情報作成制御部111は、テロップ認識エンジン114によりフレームからテロップの位置を取得し(S22)、取得した位置におけるテロップの文字列(テロップテキスト)を読み出す(S23)。
次いで、メタ情報作成制御部111は、直前のフレームにおいて読み出したテロップの文字列が存在するか否かを判定し(S24)、存在しない場合(S24:NO)はS27へ処理を進める。
直前のフレームにおいて読み出したテロップの文字列が存在する場合(S24:YES)、メタ情報作成制御部111は、直前のテロップの文字列と今回のフレームより読み出したテロップの文字列とが一致するか否かを確認し、判定する(S25,S26)。一致する場合(S26:YES)は同じテロップが続けて表示されているフレームであることから、メタ情報作成制御部111はS20へ処理を戻す。
一致しない場合(S26:NO)、メタ情報作成制御部111は、画像分類エンジン112により処理の対象となる画像(フレーム)から画像の属性を取得する(S27)。次いで、メタ情報作成制御部111は、テロップ動画21aの音声データから該当する時刻の音声データを切り出し(S28)、切り出した音声データを音声認識エンジン113へ出力する。次いで、音声認識エンジン113は、音声データから音声テキスト22bを取得する(S29)。
次いで、メタ情報作成制御部111は、S22、S27、S29において取得したテロップ位置、画像の属性、音声テキストを画像情報22aおよび音声テキスト22bとして教師データ格納部22に格納する(S30)。次いで、メタ情報作成制御部111は、S23において読み出したテロップテキストをテロップテキスト22cに追記する(S31)。
次いで、メタ情報作成制御部111は、テロップ動画21aの最後のフレームまで処理が終了した場合に処理を終了する。なお、メタ情報作成制御部111は、最後のフレームまで処理が終了していない場合は次のフレームを処理対象としてS20へ処理を戻す。
図8は、メタ情報生成により生成された情報の一例を説明する説明図である。図7に例示した処理をテロップ動画21aに対して実行することで、図8に示すように、テロップ動画21aの時間ごとに、画像情報22a、テロップテキスト22cおよび音声テキスト22bを生成する。
図4に戻り、S15に次いで、文脈データ作成部11dは、テロップテキスト22cの全テキストを用いてテロップ(テキスト)の文脈を表す文脈データ22dを作成し(S16)、教師データ格納部22に格納する。
ここで、S14、S16における文脈データの生成について説明する。本実施形態では、文脈データの生成およびテキストの補正を、ディープラーニング技術により学習フェーズにおいて学習したニューラルネットワークを用いて行う。具体的には、文脈データの生成またはテキストの補正を行うように学習したニューラルネットワークを推論フェーズで適用することで、文脈データやテキストの補正結果をニューラルネットワークによる推論結果として得る。
図9は、学習フェーズの一例を説明する説明図である。図9に示すように、ディープラーニング学習(S100)では、ニューラルネットワーク定義53、学習済み重み(オプション)54およびハイパーパラメタ55を用いて初期のニューラルネットワークを構築する。次いで、ディープラーニング学習では、教師データ51および正解データ52を構築したニューラルネットワークに適用し、文脈データの生成またはテキストの補正を行うようにニューラルネットワークの学習を行う。
具体的には、ディープラーニング学習(S100)では、教師データ51をニューラルネットワークに順伝播して得られた推論結果と、正解データ52との差分(損失)を求める。次いで、得られた差分をニューラルネットワークに逆伝播させ、ニューラルネットワークの各ノードのパラメータを変更して最適解に近づけていく。このようなディープラーニング学習(S100)により、ニューラルネットワークにおける各ノードのパラメータが学習済み重み60として得られる。
図10は、推論フェーズの一例を説明する説明図である。図10に示すように、ディープラーニング推論(S200)では、学習フェーズで得られた学習済み重み60と、ニューラルネットワーク定義62とをもとにニューラルネットワークを構築する。次いで、ディープラーニング推論(S200)では、文脈データの生成またはテキストの補正等の対象となるテストデータ61をニューラルネットワークに適用する。これにより、文脈データまたは補正後のテキストなどの推論結果63を得ることができる。
図11は、文脈データ生成の学習および推論を説明する説明図である。図11に示すように、文脈データを生成するための学習では、文脈に沿って出現する単語を示す教師データ51と、正解の文脈データである正解データ52とを用意する。
ディープラーニング学習(S100)では、教師データ51をニューラルネットワークに順伝播して得られた推論結果56と、正解データ52との損失(エラー)を損失関数により求める。次いで、得られた損失をニューラルネットワークに逆伝播させ、ニューラルネットワークの各ノードのパラメータを変更して最適解に近づけることで、文脈データを生成するための学習済み重み60を得る。
また、ディープラーニング推論(S200)では、文脈データの生成対象となるテキストについて、文脈に沿って出現する単語を示すテストデータ61をニューラルネットワークに順伝播することで、文脈データを推論した推論結果63を得る。なお、推論結果63は、テキスト内の所定の単語と、その単語の前後/周辺に出現する単語との共起度合いを、出現単語の順序に従って並べた文脈ベクトルを示す。
図12は、文脈データ生成にかかる処理例を示すフローチャートである。図12に示すように、処理が開始されると、文脈データ作成部11dは、ディープラーニング学習にかかる定義(ハイパーパラメタ55、ニューラルネットワーク定義53および学習済み重み(オプション)54)を行う(S40)。次いで、文脈データ作成部11dは、学習済み重み60(学習モデル)の有無を判定し(S41)、未学習であり学習済み重み60がない場合(S41:NO)は前述したディープラーニング学習(S100)による学習を実施する(S42)。学習済であり学習済み重み60がある場合(S41:YES)、文脈データ作成部11dはS43へ処理を進める。
S43において、文脈データ作成部11dは、ディープラーニング学習で構築した学習済み重み60をニューラルネットワークに設定し、文脈データの生成対象となるテロップデータ(テロップテキスト22cの全テキスト)を読み込む(S44)。次いで、文脈データ作成部11dは、読み込んだテロップデータをニューラルネットワークの入力データ(テストデータ61)として文脈データの推論を行い、推論結果63(文脈データ)を出力する(S45)。
ここで、文脈ベクトル学習(S42)の詳細について説明する。図13は、文脈データ学習にかかる処理例を示すフローチャートである。
図13に示すように、文脈データ学習の処理が開始されると、文脈データ作成部11dは、教師データ51とするテキストに含まれる全単語を取得する(S50)。
次いで、文脈データ作成部11dは、取得した全単語をワンホットベクトルに変換し(S51)、単語用のニューラルネットワークの初期値を設定する(S52)。この単語用のニューラルネットワークは、例えば単語の特徴をベクトル化するWord2Vecなどである。
次いで、文脈データ作成部11dは、全単語の中から所定の単語のワンホット表現を取得し(S53)、単語用のニューラルネットワークに入力することでWordVecの推論を行う(S54)。次いで、文脈データ作成部11dは、WordVecの推論結果と、正解データ52に含まれる正解の単語ベクトルとを比較し、比較結果をもとに誤差逆伝播により単語用のWord2Vec(単語用のニューラルネットワーク)の重みを更新する(S55)。
次いで、文脈データ作成部11dは、所定の終了条件(例えばニューラルネットワークへの入力が完了したか、損失関数によるエラーが所定の閾値を下回ったかなど)を満たし、単語用ニューラルネットワークの学習が完了したか否かを判定する(S56)。単語用ニューラルネットワークの学習が完了していない場合(S56:NO)、文脈データ作成部11dは、S54へ処理を戻し、教師データ51の単語を使った学習を継続する。
単語用ニューラルネットワークの学習が完了した場合(S56:YES)、文脈データ作成部11dは、文脈用のニューラルネットワークの初期値を設定する(S57)。次いで、文脈データ作成部11dは、Word2Vecを使い文脈ベクトルを取得し(S58)、文脈用ニューラルネットワークの推論を行う(S59)。
次いで、文脈データ作成部11dは、文脈用ニューラルネットワークの推論結果と、正解データ52に含まれる正解とを比較し、比較結果をもとに誤差逆伝播により文脈用ニューラルネットワークの重みを更新する(S60)。
次いで、文脈データ作成部11dは、所定の終了条件(例えばニューラルネットワークへの入力が完了したか、損失関数によるエラーが所定の閾値を下回ったかなど)を満たし、文脈用ニューラルネットワークの学習が完了したか否かを判定する(S61)。文脈用ニューラルネットワークの学習が完了していない場合(S61:NO)、文脈データ作成部11dは、S59へ処理を戻し、文脈用ニューラルネットワークの学習を継続する。
文脈用ニューラルネットワークの学習が完了した場合(S61:YES)、文脈データ作成部11dは、単語用のニューラルネットワークの重みと、文脈用のニューラルネットワークの重みとを保存し(S62、S63)、処理を終了する。
図2に戻り、S3に次いで、誤り補正部12は、教師データ格納部22に格納された文脈データ22dを取得する(S4)。次いで、誤り補正部12は、教師データ格納部22に格納された画像情報22a、音声テキスト22bおよびテロップテキスト22cより、一テロップごとのメタ情報とテキストを取得する(S5)。具体的には、誤り補正部12は、タイムスタンプが共通する一テロップの情報について、テロップ位置、画像属性、テロップテキスト、音声テキストを教師データ格納部22より取得する。
次いで、誤り補正部12は、取得した文脈データ22dと、入力データ(テロップ位置、画像属性、テロップテキスト、音声テキスト)から、ディープラーニング技術により学習したニューラルネットワークを用いて誤り補正済みのテロップ(テキスト)を作成する(S6)。次いで、誤り補正部12は、作成した誤り補正済みテロップをタイムコードなどとともに誤り補正済みテロップ格納部23に格納する(S7)。
図14は、誤り補正の学習および推論を説明する説明図である。図14に示すように、テロップ(テキスト)の誤り補正の学習では、テロップ(テキスト)、音声、テロップ位置、画像(属性)、文脈データを示す教師データ51と、正解のテキストである正解データ52とを用意する。
ディープラーニング学習(S100)では、教師データ51をニューラルネットワークに順伝播して得られた推論結果56と、正解データ52との損失(エラー)を損失関数により求める。
なお、誤り補正用のニューラルネットワークは、テキストの文字列について、並び順の順方向および逆方向の双方向から入力を受け付けて誤りを補正した文字列を順方向に出力する双方向ニューラルネットワークとする。すなわち、教師データ51におけるテロップについては、並び順の順方向および逆方向の双方向からニューラルネットワークに入力する。
次いで、得られた損失をニューラルネットワークに逆伝播させ、ニューラルネットワークの各ノードのパラメータを変更して最適解に近づけることで、テキストの誤りを補正するための学習済み重み60を得る。
例えば、図示例では、「XXXX…BI XX…」とするテキストに含まれる「BI」の誤りを、正解データ52により「AI」とするように学習した学習済み重み60が得られることとなる。
また、ディープラーニング推論(S200)では、補正対象となるテキスト(テロップ)について、テキストとともに音声、テロップ位置、画像(属性)、文脈データを示すテストデータ61をニューラルネットワークに順伝播させる。これにより、テキストに含まれる誤りを補正した推論結果63を得る。
図15は、誤り補正にかかる処理例を示すフローチャートである。図15に示すように、処理が開始されると、誤り補正部12は、ディープラーニング学習にかかる定義(ハイパーパラメタ55、ニューラルネットワーク定義53および学習済み重み(オプション)54)を行う(S70)。次いで、誤り補正部12は、学習済み重み60(学習モデル)の有無を判定し(S71)、未学習であり学習済み重み60がない場合(S71:NO)は前述したディープラーニング学習(S100)による学習を実施する(S72)。学習済であり学習済み重み60がある場合(S71:YES)、誤り補正部12はS73へ処理を進める。
S73において、誤り補正部12は、ディープラーニング学習で構築した学習済み重み60をニューラルネットワークに設定する(S73)、次いで、誤り補正部12は、教師データ格納部22より、テロップテキスト22c、音声テキスト22b、位置(テロップ位置)、画像情報22aおよび文脈データ22dを読み込む(S74)。
次いで、誤り補正部12は、テロップテキスト22cについて、単語ごとのループ処理(S75)を行う。具体的には、誤り補正部12は、処理対象となる単語に関連するテロップテキスト22c、音声テキスト22b、位置(テロップ位置)、画像情報22aおよび文脈データ22dを結合する(S76)。次いで、誤り補正部12は、結合したデータをニューラルネットワークの入力データ(テストデータ61)として誤りを補正したテキストの推論を行う(S77)。
上記のループ処理(S75)についで、誤り補正部12は、誤りを補正したテキストの推論結果63を出力し(S79)、処理を終了する。
図2に戻り、S7に次いで、誤り補正部12は、一テロップごとの処理を全テキストに行い、全ての補正済みテロップを生成し終えたか否かを判定する(S8)。
全ての補正済みテロップを生成し終えていない場合(S8:NO)、誤り補正部12は、S5へ処理を戻す。生成し終えた場合(S8:YES)、誤り補正部12は、誤り補正済みのテロップ(テキスト)を誤り補正済みテロップ格納部23に格納し、処理を終了する。
以上のように、テキスト生成装置1は、教師データ作成部11と、誤り補正部12とを有する。教師データ作成部11は、補正対象のテキストに基づき、テキストの文脈を示す文脈データを生成する。誤り補正部12は、教師データに対応するテキストの文字列、テキストの文脈データおよびメタ情報を入力とし、テキストの誤りを補正するように学習したニューラルネットワークに対して、補正対象のテキストの文字列、生成した文脈データおよびテキストに対応するメタ情報を入力し、補正対象のテキストの誤りを補正する。したがって、テキスト生成装置1では、補正対象のテキストだけでなく、テキストの文脈を示す文脈データおよびテキストに対応するメタ情報をニューラルネットワークに入力して誤りを補正するので、精度よくテキストの誤りを補正できる。
また、テキスト生成装置1における補正対象のテキストは、動画像のテロップであり、メタ情報は、動画像におけるテロップの位置、動画像の属性および音声の内容を示す音声テキストのうちの少なくとも一つである。したがって、テキスト生成装置1では、動画像におけるテロップの位置、動画像の属性および音声の内容を示す音声テキストのうちの少なくとも一つのメタ情報をもとに、動画像のテロップにおける誤りを精度よく補正することができる。
また、誤り補正部12におけるニューラルネットワークは、補正対象のテキストの文字列について、並び順の順方向および逆方向の双方向から入力を受け付けて誤りを補正した文字列を出力する双方向ニューラルネットワークである。このように、テキスト生成装置1では、双方向ニューラルネットワークを用い、補正対象のテキストについて文字列の双方向の並び順をもとに誤りを補正するので、順方向または逆方向の一方向で補正する場合と比較して、より精度よく補正することができる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、任意に変更することができる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、テキスト生成装置1で行われる各種処理機能は、CPU(Central Processing Unit)(またはMPU(Micro Processing Unit)、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU等で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。また、テキスト生成装置1で行われる各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。
ところで、上記の実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータ(ハードウエア)の一例を説明する。図16は、実施形態にかかるテキスト生成装置1のハードウエア構成の一例を示すブロック図である。
図16に示すように、テキスト生成装置1は、各種演算処理を実行するCPU201と、データ入力を受け付ける入力装置202と、モニタ203と、スピーカ204とを有する。また、テキスト生成装置1は、記憶媒体からプログラム等を読み取る媒体読取装置205と、各種装置と接続するためのインタフェース装置206と、有線または無線により外部機器と通信接続するための通信装置207とを有する。また、テキスト生成装置1は、各種情報を一時記憶するRAM208と、ハードディスク装置209とを有する。また、テキスト生成装置1内の各部(201〜209)は、バス210に接続される。
ハードディスク装置209には、上記の実施形態で説明したテキスト生成処理部10にかかる各種の処理を実行するためのプログラム211が記憶される。また、ハードディスク装置209には、上記の実施形態で説明した記憶部20としての機能を提供し、プログラム211が参照する各種データ212が記憶される。入力装置202は、例えば、テキスト生成装置1の操作者から操作情報の入力を受け付ける。モニタ203は、例えば、操作者が操作する各種画面を表示する。インタフェース装置206は、例えば印刷装置等が接続される。通信装置207は、LAN(Local Area Network)等の通信ネットワークと接続され、通信ネットワークを介した外部機器との間で各種情報をやりとりする。
CPU201は、ハードディスク装置209に記憶されたプログラム211を読み出して、RAM208に展開して実行することで、テキスト生成処理部10にかかる各種の処理を行う。なお、プログラム211は、ハードディスク装置209に記憶されていなくてもよい。例えば、テキスト生成装置1が読み取り可能な記憶媒体に記憶されたプログラム211を、テキスト生成装置1が読み出して実行するようにしてもよい。テキスト生成装置1が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラムを記憶させておき、テキスト生成装置1がこれらからプログラム211を読み出して実行するようにしてもよい。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)補正対象のテキストに基づき、当該テキストの文脈を示す文脈データを生成する生成部と、
教師データに対応するテキストの文字列、当該テキストの文脈データおよびメタ情報を入力とし、前記テキストの誤りを補正するように学習したニューラルネットワークに対して、前記補正対象のテキストの文字列、生成した前記文脈データおよび当該テキストに対応するメタ情報を入力し、前記補正対象のテキストの誤りを補正する補正部と、
を有することを特徴とするテキスト生成装置。
(付記2)前記補正対象のテキストは、動画像のテロップであり、
前記メタ情報は、前記動画像におけるテロップの位置、動画像の属性および音声の内容を示す音声テキストのうちの少なくとも一つである、
ことを特徴とする付記1に記載のテキスト生成装置。
(付記3)前記ニューラルネットワークは、前記補正対象のテキストの文字列について、並び順の順方向および逆方向の双方向から入力を受け付けて誤りを補正した文字列を出力する双方向ニューラルネットワークである、
ことを特徴とする付記1または2に記載のテキスト生成装置。
(付記4)補正対象のテキストに基づき、当該テキストの文脈を示す文脈データを生成し、
教師データに対応するテキストの文字列、当該テキストの文脈データおよびメタ情報を入力とし、前記テキストの誤りを補正するように学習したニューラルネットワークに対して、前記補正対象のテキストの文字列、生成した前記文脈データおよび当該テキストに対応するメタ情報を入力し、前記補正対象のテキストの誤りを補正する、
処理をコンピュータに実行させることを特徴とするテキスト生成プログラム。
(付記5)前記補正対象のテキストは、動画像のテロップであり、
前記メタ情報は、前記動画像におけるテロップの位置、動画像の属性および音声の内容を示す音声テキストのうちの少なくとも一つである、
ことを特徴とする付記4に記載のテキスト生成プログラム。
(付記6)前記ニューラルネットワークは、前記補正対象のテキストの文字列について、並び順の順方向および逆方向の双方向から入力を受け付けて誤りを補正した文字列を出力する双方向ニューラルネットワークである、
ことを特徴とする付記4または5に記載のテキスト生成プログラム。
(付記7)補正対象のテキストに基づき、当該テキストの文脈を示す文脈データを生成し、
教師データに対応するテキストの文字列、当該テキストの文脈データおよびメタ情報を入力とし、前記テキストの誤りを補正するように学習したニューラルネットワークに対して、前記補正対象のテキストの文字列、生成した前記文脈データおよび当該テキストに対応するメタ情報を入力し、前記補正対象のテキストの誤りを補正する、
処理をコンピュータが実行することを特徴とするテキスト生成方法。
(付記8)前記補正対象のテキストは、動画像のテロップであり、
前記メタ情報は、前記動画像におけるテロップの位置、動画像の属性および音声の内容を示す音声テキストのうちの少なくとも一つである、
ことを特徴とする付記7に記載のテキスト生成方法。
(付記9)前記ニューラルネットワークは、前記補正対象のテキストの文字列について、並び順の順方向および逆方向の双方向から入力を受け付けて誤りを補正した文字列を出力する双方向ニューラルネットワークである、
ことを特徴とする付記7または8に記載のテキスト生成方法。
1…テキスト生成装置
10…テキスト生成処理部
11…教師データ作成部
11a…教師データ作成制御部
11b…メタ情報分解部
11c…メタ情報作成部
11d…文脈データ作成部
12…誤り補正部
20…記憶部
21…入力データ格納部
21a…テロップ動画
21b…メタ情報
22…教師データ格納部
22a…画像情報
22b…音声テキスト
22c…テロップテキスト
22d…文脈データ
23…誤り補正済みテロップ格納部
51…教師データ
52…正解データ
53…ニューラルネットワーク定義
54…学習済み重み(オプション)
55…ハイパーパラメタ
56…推論結果
60…学習済み重み
61…テストデータ
62…ニューラルネットワーク定義
63…推論結果
111…メタ情報作成制御部
112…画像分類エンジン
113…音声認識エンジン
114…テロップ認識エンジン
201…CPU
202…入力装置
203…モニタ
204…スピーカ
205…媒体読取装置
206…インタフェース装置
207…通信装置
208…RAM
209…ハードディスク装置
210…バス
211…プログラム
212…各種データ

Claims (5)

  1. 補正対象のテキストに基づき、当該テキストの文脈を示す文脈データを生成する生成部と、
    教師データに対応するテキストの文字列、当該テキストの文脈データおよびメタ情報を入力とし、前記テキストの誤りを補正するように学習したニューラルネットワークに対して、前記補正対象のテキストの文字列、生成した前記文脈データおよび当該テキストに対応するメタ情報を入力し、前記補正対象のテキストの誤りを補正する補正部と、
    を有することを特徴とするテキスト生成装置。
  2. 前記補正対象のテキストは、動画像のテロップであり、
    前記メタ情報は、前記動画像におけるテロップの位置、動画像の属性および音声の内容を示す音声テキストのうちの少なくとも一つである、
    ことを特徴とする請求項1に記載のテキスト生成装置。
  3. 前記ニューラルネットワークは、前記補正対象のテキストの文字列について、並び順の順方向および逆方向の双方向から入力を受け付けて誤りを補正した文字列を出力する双方向ニューラルネットワークである、
    ことを特徴とする請求項1または2に記載のテキスト生成装置。
  4. 補正対象のテキストに基づき、当該テキストの文脈を示す文脈データを生成し、
    教師データに対応するテキストの文字列、当該テキストの文脈データおよびメタ情報を入力とし、前記テキストの誤りを補正するように学習したニューラルネットワークに対して、前記補正対象のテキストの文字列、生成した前記文脈データおよび当該テキストに対応するメタ情報を入力し、前記補正対象のテキストの誤りを補正する、
    処理をコンピュータに実行させることを特徴とするテキスト生成プログラム。
  5. 補正対象のテキストに基づき、当該テキストの文脈を示す文脈データを生成し、
    教師データに対応するテキストの文字列、当該テキストの文脈データおよびメタ情報を入力とし、前記テキストの誤りを補正するように学習したニューラルネットワークに対して、前記補正対象のテキストの文字列、生成した前記文脈データおよび当該テキストに対応するメタ情報を入力し、前記補正対象のテキストの誤りを補正する、
    処理をコンピュータが実行することを特徴とするテキスト生成方法。
JP2018160873A 2018-08-29 2018-08-29 テキスト生成装置、テキスト生成プログラムおよびテキスト生成方法 Active JP7210938B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018160873A JP7210938B2 (ja) 2018-08-29 2018-08-29 テキスト生成装置、テキスト生成プログラムおよびテキスト生成方法
US16/549,599 US10984247B2 (en) 2018-08-29 2019-08-23 Accurate correction of errors in text data based on learning via a neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018160873A JP7210938B2 (ja) 2018-08-29 2018-08-29 テキスト生成装置、テキスト生成プログラムおよびテキスト生成方法

Publications (2)

Publication Number Publication Date
JP2020034704A true JP2020034704A (ja) 2020-03-05
JP7210938B2 JP7210938B2 (ja) 2023-01-24

Family

ID=69641274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018160873A Active JP7210938B2 (ja) 2018-08-29 2018-08-29 テキスト生成装置、テキスト生成プログラムおよびテキスト生成方法

Country Status (2)

Country Link
US (1) US10984247B2 (ja)
JP (1) JP7210938B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112084301A (zh) * 2020-08-11 2020-12-15 网易有道信息技术(北京)有限公司 文本修正模型的训练方法及装置、文本修正方法及装置
CN112183072A (zh) * 2020-10-16 2021-01-05 北京奇艺世纪科技有限公司 一种文本纠错方法、装置、电子设备及可读存储介质
CN113627159A (zh) * 2021-08-18 2021-11-09 北京北大方正电子有限公司 纠错模型的训练数据确定方法、装置、介质及产品
CN113627159B (zh) * 2021-08-18 2024-05-17 北京北大方正电子有限公司 纠错模型的训练数据确定方法、装置、介质及产品

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11250205B2 (en) * 2020-07-10 2022-02-15 International Business Machines Corporation Performance characteristics of cartridge artifacts over text pattern constructs
US20230132943A1 (en) * 2021-10-29 2023-05-04 Konica Minolta Business Solutions U.S.A., Inc. Deep-learning based text correction method and apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075706A (ja) * 2013-10-10 2015-04-20 日本放送協会 誤り修正モデル学習装置、及びプログラム
JP2017111190A (ja) * 2015-12-14 2017-06-22 株式会社日立製作所 対話テキスト要約装置及び方法
WO2018063293A1 (en) * 2016-09-30 2018-04-05 Rovi Guides, Inc. Systems and methods for correcting errors in caption text

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5251268A (en) * 1991-08-09 1993-10-05 Electric Power Research Institute, Inc. Integrated method and apparatus for character and symbol recognition
US20050120391A1 (en) * 2003-12-02 2005-06-02 Quadrock Communications, Inc. System and method for generation of interactive TV content
US10290320B2 (en) * 2015-12-09 2019-05-14 Verizon Patent And Licensing Inc. Automatic media summary creation systems and methods
GB2556612B (en) * 2016-04-18 2022-03-09 Grass Valley Ltd Monitoring audio-visual content with captions
US10490209B2 (en) * 2016-05-02 2019-11-26 Google Llc Automatic determination of timing windows for speech captions in an audio stream
US10402495B1 (en) * 2016-09-01 2019-09-03 Facebook, Inc. Abstractive sentence summarization
US10592706B2 (en) * 2017-03-29 2020-03-17 Valyant AI, Inc. Artificially intelligent order processing system
US10380259B2 (en) * 2017-05-22 2019-08-13 International Business Machines Corporation Deep embedding for natural language content based on semantic dependencies
US10515625B1 (en) * 2017-08-31 2019-12-24 Amazon Technologies, Inc. Multi-modal natural language processing
US10496884B1 (en) * 2017-09-19 2019-12-03 Deepradiology Inc. Transformation of textbook information
KR102085908B1 (ko) * 2018-05-10 2020-03-09 네이버 주식회사 컨텐츠 제공 서버, 컨텐츠 제공 단말 및 컨텐츠 제공 방법
US11170166B2 (en) * 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015075706A (ja) * 2013-10-10 2015-04-20 日本放送協会 誤り修正モデル学習装置、及びプログラム
JP2017111190A (ja) * 2015-12-14 2017-06-22 株式会社日立製作所 対話テキスト要約装置及び方法
WO2018063293A1 (en) * 2016-09-30 2018-04-05 Rovi Guides, Inc. Systems and methods for correcting errors in caption text

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112084301A (zh) * 2020-08-11 2020-12-15 网易有道信息技术(北京)有限公司 文本修正模型的训练方法及装置、文本修正方法及装置
CN112084301B (zh) * 2020-08-11 2023-12-15 网易有道信息技术(北京)有限公司 文本修正模型的训练方法及装置、文本修正方法及装置
CN112183072A (zh) * 2020-10-16 2021-01-05 北京奇艺世纪科技有限公司 一种文本纠错方法、装置、电子设备及可读存储介质
CN112183072B (zh) * 2020-10-16 2023-07-21 北京奇艺世纪科技有限公司 一种文本纠错方法、装置、电子设备及可读存储介质
CN113627159A (zh) * 2021-08-18 2021-11-09 北京北大方正电子有限公司 纠错模型的训练数据确定方法、装置、介质及产品
CN113627159B (zh) * 2021-08-18 2024-05-17 北京北大方正电子有限公司 纠错模型的训练数据确定方法、装置、介质及产品

Also Published As

Publication number Publication date
JP7210938B2 (ja) 2023-01-24
US10984247B2 (en) 2021-04-20
US20200074180A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
JP2020034704A (ja) テキスト生成装置、テキスト生成プログラムおよびテキスト生成方法
US11348570B2 (en) Method for generating style statement, method and apparatus for training model, and computer device
JP6556575B2 (ja) 音声処理装置、音声処理方法及び音声処理プログラム
JP2019200408A (ja) 音声合成モデルを生成するための方法、及び装置
US20170365252A1 (en) Meaning generation method, meaning generation apparatus, and storage medium
CN110770700A (zh) 生成促进在利用不同语言和语法的不同运行时环境内执行任务的脚本
US11270686B2 (en) Deep language and acoustic modeling convergence and cross training
CN109522550B (zh) 文本信息纠错方法、装置、计算机设备和存储介质
US20170004821A1 (en) Voice synthesizer, voice synthesis method, and computer program product
US20230055233A1 (en) Method of Training Voice Recognition Model and Voice Recognition Device Trained by Using Same Method
US20230259707A1 (en) Systems and methods for natural language processing (nlp) model robustness determination
KR20190024148A (ko) 음성 인식 장치 및 음성 인식 방법
JP2020034683A (ja) 音声認識装置、音声認識プログラムおよび音声認識方法
JP2019160236A (ja) 学習データ生成方法、学習データ生成プログラムおよびデータ構造
JP2017126051A (ja) テンプレート生成装置、テンプレート生成方法、テンプレート生成プログラムおよびフレーズ検知システム
US20180033432A1 (en) Voice interactive device and voice interaction method
Yuen et al. Asdf: A differential testing framework for automatic speech recognition systems
US11538474B2 (en) Electronic device and method for controlling the electronic device thereof
JP2022088586A (ja) 音声認識方法、音声認識装置、電子機器、記憶媒体コンピュータプログラム製品及びコンピュータプログラム
JP2008293098A (ja) 応答スコア情報生成装置、対話処理装置
US20230274751A1 (en) Audio signal conversion model learning apparatus, audio signal conversion apparatus, audio signal conversion model learning method and program
JP2022077831A (ja) 質問推定装置、学習済みモデル生成装置、質問推定方法、学習済みモデルの生産方法、プログラム及び記録媒体
JP2022185799A (ja) 情報処理プログラム、情報処理方法および情報処理装置
JP7052438B2 (ja) 学習データ生成方法、学習データ生成プログラムおよびデータ構造
JP2004226505A (ja) ピッチパタン生成方法、音声合成方法とシステム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R150 Certificate of patent or registration of utility model

Ref document number: 7210938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150