JP2024006851A - 外国語を含むオーディオの音声認識方法 - Google Patents

外国語を含むオーディオの音声認識方法 Download PDF

Info

Publication number
JP2024006851A
JP2024006851A JP2022143274A JP2022143274A JP2024006851A JP 2024006851 A JP2024006851 A JP 2024006851A JP 2022143274 A JP2022143274 A JP 2022143274A JP 2022143274 A JP2022143274 A JP 2022143274A JP 2024006851 A JP2024006851 A JP 2024006851A
Authority
JP
Japan
Prior art keywords
language
text
question
text data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022143274A
Other languages
English (en)
Other versions
JP7475589B2 (ja
Inventor
カンウク キム
Kangwook Kim
ファンポク ムン
Hwanbok Mun
スンホ クァク
Seungho Kwak
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Actionpower Corp
Original Assignee
Actionpower Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Actionpower Corp filed Critical Actionpower Corp
Publication of JP2024006851A publication Critical patent/JP2024006851A/ja
Application granted granted Critical
Publication of JP7475589B2 publication Critical patent/JP7475589B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/263Language identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Machine Translation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)

Abstract

【課題】外国語音声を含むオーディオをより高精度なテキストに変換する方法を提供する。【解決手段】本開示の一実施例に基づき、コンピューティング装置において1つ以上のプロセッサーにより実行される、ニューラルネットワークモデルを利用した音声認識方法が開示される。上記方法は、音声情報に対して、第1言語に基づき、第1テキスト(text)データを生成する段階;上記生成された第1テキストデータから問題テキストを検出する段階;上記検出された問題テキストに対応する第2言語を識別する段階;及び上記識別された第2言語に基づき、第2テキストデータを生成する段階を含むことが可能であり、上記第2言語は上記第1言語と異なる言語であることが可能である。【選択図】図3

Description

本開示は、外国語を含むオーディオの音声認識方法(METHOD FOR RECOGNIZING THE VOICE OF AUDIO CONTAINING FOREIGN LANGUAGES)であって、外国語音声を含むオーディオファイルを、より高精度なテキストに変換する方法に係り、より具体的には、外国語を含むオーディオの言語を識別し、当該オーディオ情報に適合した音声認識結果テキストを出力する方法に関する。
従来、音声認識を行う言語モデルが存在するが、音声認識の対象である音源に外国語が含まれている場合、当該部分に対して音声認識を正しく実行できないという問題がある。例えば、従来の音声認識を行う言語モデルは、外国語で行ったインタビューを含むニュースなどのオーディオファイルに対し音声認識を行う場合、外国人をインタビューした部分に対して音声認識を正しく実行できないという問題がある。
つまり、従来の音声認識を行う言語モデルでは、音声認識の対象となる音源が複数の言語を含む場合、音声認識を正しく行うことが困難である。特に、従来のモデルでは、対象となる音源のほとんどの部分を第1言語の発話が占めており、一部だけが第2言語の発話になっている場合、第2言語の発話の部分を正しく認識し、高精度なテキスト(text)に変換することが困難である。従来のモデルが、多言語認識モデルを含む形で実装されることができるとしても、音源の一部分の言語が他の部分の言語と異なるか否かを判別できる技術がなく、当該部分が判別できたとしても、当該部分を如何に処理すべきかに係る技術が欠けているためである。
従って、外国語音声を含む音源を正確に認識し、これに基づき、上記高精度なテキストに変換できる技術が求められている。
一方、本開示は、前述の技術的背景に少なくとも基づいて案出されたものであるが、本開示の技術的課題又は目的が前述の問題又は課題を解決することに限られるわけではない。つまり、本開示は、前述の技術的課題(issue)以外にも、以下に説明する内容に係る多様な技術的課題をカバー(cover)できる。
韓国公開特許第2018-0129486号公報
本開示は、外国語音声を含むオーディオをより高精度なテキストに変換する方法を提供することを解決すべき課題とする。
しかし、本開示が解決しようとする技術的課題は、前述の技術的課題に限られるわけではなく、以下に説明する内容から、当業者にとって自明な範囲内において、多様な技術的課題が含まれることが可能である。
前述の課題を実現するための本開示の一実施例に基づき、コンピューティング装置により実行される方法が開示される。上記方法は、音声情報に基づき、第1言語に基づき、第1テキスト(text)データを生成する段階;上記生成された第1テキストデータから問題テキストを検出する段階;上記検出された問題テキストに対応する第2言語を識別する段階;及び上記識別された第2言語に基づき、上記第2テキストデータを生成する段階を含むことが可能であり、上記第2言語は上記第1言語と異なる言語である場合がある。
代わりに、上記生成された第1テキストデータの、上記問題テキストに対応する部分に、修正テキストを併記して出力する段階をさらに含むことが可能である。
代わりに、上記生成された第1テキストデータから問題テキストを検出する段階は、上記生成された第1テキストデータの信頼度を導出し、上記導出された信頼度に基づき、上記問題テキストを検出する段階をさらに含むことも可能である。
代わりに、上記音声情報に対して第1テキストデータを生成する段階は、第1ニューラルネットワークモデルを利用し、上記音声情報に対して上記第1言語に基づく音声認識を行う段階;及び上記音声認識に基づき、上記第1言語に対するチャンク単位のテキストを出力する段階を含むことが可能である。
代わりに、上記生成された第1テキストデータの信頼度を導出し、上記導出された信頼度に基づき、問題テキストを検出する段階は、上記第1言語に係るチャンク単位のテキストの各々に対して信頼度を導出し、設定されているしきい値を下回る信頼度を持つチャンク単位のテキストを検出する段階を含むことが可能である。
代わりに、上記生成された第1テキストデータの信頼度を導出し、上記導出された信頼度に基づき、問題テキストを検出する段階は、上記生成された第1テキストデータに対して単語(word)単位で信頼度を導出し、設定されているしきい値を下回る信頼度を持つ単語単位のテキストを検出する段階を含むことが可能である。
代わりに、上記第2テキストデータは、上記第1テキストデータから上記問題テキストを除いた残りのテキスト部分;及び上記問題テキストに対応する音声部分に対して上記第2言語に基づき生成した修正テキスト部分を含むことが可能である。
代わりに、上記問題テキストは、チャンク(chunk)単位のテキスト、サブ-単語(sub-word)単位のテキスト、単語(word)単位のテキスト、句(phrase)単位のテキスト、節(clause)単位のテキスト、又は、文章単位のテキストのうち、少なくとも1つを含むことが可能である。
代わりに、上記検出された問題テキストに対応する第2言語を識別する段階は、第1問題テキストに対応し、上記第1言語とは異なる言語である第2言語を識別する段階;及び第2問題テキストに対応し、上記第1言語及び上記第2言語とは異なる言語である第3言語を識別する段階をさらに含むことが可能である。
代わりに、上記識別された第2言語に基づき、第2テキストデータを生成する段階は、上記第1問題テキストに対応する音声部分に対して、上記第2言語に基づき、第1修正テキストを生成する段階;及び上記第2問題テキストに対応する音声部分に対して、上記第3言語に基づき、第2修正テキストを生成する段階を含むことが可能である。
前述のような課題を解決するための本開示の一実施例に基づき、コンピューター可読保存媒体に保存されたコンピュータープログラムが開示される。上記コンピュータープログラムは、1つ以上のプロセッサーにおいて実行される場合、上記1つ以上のプロセッサーが音声認識のための動作を実行するようにし、上記動作は;音声情報に対して、第1言語に基づき、第1テキストデータを生成する動作;上記生成された第1テキストデータから問題テキストを検出する段階;上記検出された問題テキストに対応する第2言語を識別する動作;及び前記識別された第2言語に基づき、第2テキストデータを生成する段階を含むことが可能であり、上記第2言語は:上記第1言語と異なる言語である場合がある。
前述の課題を解決するための本開示の一実施例に基づき、コンピューティング装置が開示される。上記装置は、少なくとも1つのプロセッサー;及びメモリーを含み、上記プロセッサーは、音声情報に対して、第1言語に基づき、第1テキストデータを生成し;上記生成された第1テキストデータから問題テキストを検出し;上記検出された問題テキストに対応する第2言語を識別し;そして上記識別された第2言語に基づき、第2テキストデータを生成するように構成されることが可能であり、上記第2言語は、上記第1言語と異なる言語である場合がある。
本開示は、外国語音声を含むオーディオをテキストに変換する方法を提供することができ、これを通じて外国語を含むオーディオの言語を識別し、オーディオ情報により適合した音声認識結果テキストを出力する方法を提供できる。
一方、本開示の効果は、前述の技術的課題に限られるわけではなく、以下に説明する内容から、当業者にとって自明な範囲内において、多様な効果が含まれることが可能である。
図1は、本開示の一実施例における音声認識を行うためのコンピューティング装置のブロック構成図である。 図2は、本開示の一実施例におけるネットワーク関数を示す概略図である。 図3は、本開示の一実施例における外国語を含むオーディオの音声認識を行うための方法を示すフローチャートである。 図4は、本開示の一実施例において、上記音声情報に対して、第1テキストデータを生成し、信頼度を導出する段階を説明するための概略図である。 図5は、本開示の一実施例において、第1テキストデータの信頼度を導出し、上記導出された信頼度に基づき、問題テキストを検出する段階を示す概略図である。 図6は、本開示の一実施例において、複数の問題テキスト(例えば、第1問題テキスト、第2問題テキスト等)が検出され、検出された複数のテキストに対応する複数の言語(例えば、第2言語、第3言語等)を識別する動作を示す概略図である。 図7は、本開示の一実施例において識別された(上記第1言語とは異なる言語である)少なくとも1つの言語に基づき、第2テキストデータを生成する過程を示す概略図である。 図8は、本開示の実施例を具現化できる例示的なコンピューティング環境に係る簡略で一般的な概略図である。
多様な実施例が以下に図面を参照しながら説明されるが、図面を通して類似の図面番号は類似の構成要素を表すために使われる。本明細書において多様な説明が本開示に対する理解を容易にするために示される。しかし、これらの実施例がこれらの具体的な説明がなくても間違いなく実施されることができる。
本明細書において、「コンポーネント」、「モジュール」、「システム」等の用語は、コンピューター関連エンティティ、ハードウェア、ファームウェア、ソフトウェア、ソフトウェアとハードウェアとの組み合わせ、またはソフトウェアの実行を指す。例えば、コンポーネントは、プロセッサー上で実行される処理手順(procedure)、プロセッサー、オブジェクト、実行スレッド、プログラム、及び/またはコンピューターになり得るが、これらに限定されるものではない。例えば、コンピューティング装置で実行されるアプリケーションとコンピューティング装置は、両方ともコンポーネントになり得る。1つ以上のコンポーネントは、プロセッサー及び/または実行スレッドの中に常駐することができ、1つのコンポーネントは1つのコンピューターの中でローカル化されることができ、または2つ以上のコンピューターに配分されることもできる。また、このようなコンポーネントは、その内部に保存されている多様なデータ構造を持つ、多様なコンピューター可読媒体から実行することができる。コンポーネントは、例えば1つ以上のデータパケットを持つ信号(例えば、ローカルシステム、分散システムにおいて他のコンポーネントと相互作用する1つのコンポーネントからのデータ及び/または信号を通じて、他のシステムと、インターネットのようなネットワークを介して伝送されるデータ)によってローカル及び/または遠隔処理等を通じて通信することができる。
用語「または」は、排他的な「または」ではなく、内包的な「または」を意味する意図で使われる。つまり、特に特定されておらず、文脈上明確ではない場合、「XはAまたはBを利用する」は、自然な内包的置換のうち1つを意味するものとする。つまり、XがAを利用したり;XがBを利用したり;またはXがA及びBの両方を利用する場合、「XはAまたはBを利用する」は、これらのいずれにも当てはまるとすることができる。また、本明細書における「及び/または」という用語は、取り挙げられた関連アイテムのうち、1つ以上のアイテムの可能なすべての組み合わせを指し、含むものと理解されるべきである。
また、述語としての「含む(含める)」及び/または修飾語として「含む(含める)」という用語は、当該特徴及び/または構成要素が存在することを意味するものと理解されるべきである。ただし、述語としての「含む(含める)」及び/または修飾語として「含む(含める)」という用語は、1つ以上の他のさらなる特徴、構成要素及び/またはこれらのグループが存在すること、または追加されることを排除しないものと理解されるべきである。また、特に数が特定されていない場合や、単数の形を示すことが文脈上明確でない場合、本明細書と請求範囲において単数は、一般的に「1つまたはそれ以上」を意味するものと解釈されるべきである。
そして、「A又はBのうち少なくとも1つ」という用語については、「Aだけを含む場合」、「Bだけを含む場合」、「AとBの組み合わせの場合」を意味するものと解釈されたい。
当業者は、さらに、ここに開示される実施例に係るものとして説明された多様な例示的論理的ブロック、構成、モジュール、回路、手段、ロジック及びアルゴリズム段階が、電子ハードウェア、コンピューターソフトウェア、またはその両方の組み合わせによって実現されることができることを認識すべきである。ハードウェアとソフトウェアとの相互交換性を明確に例示するために、多様な例示的コンポーネント、ブロック、構成、手段、ロジック、モジュール、回路及び段階が、それらの機能性の側面で一般的に上述された。そのような機能性がハードウェアとして実装されるか或いはソフトウェアとして実装されるかは、全般的なシステムに係る特定のアプリケーション(application)及び設計制限によって決まる。熟練した技術者は、個々の特定アプリケーションのために多様な方法で説明された機能性を実現できる。ただし、そのような実現に係る決定が本開示内容の領域を逸脱するものと解釈されてはならない。
ここに示す実施例に係る説明は、本開示の技術分野において通常の知識を持つ者が本発明を利用したりまたは実施できるように提供される。このような実施例に対する多様な変形は、本開示の技術分野において通常の知識を持つ者にとっては明確であり、ここに定義された一般的な原理は、本開示の範囲を逸脱することなく他の実施例に適用されることができる。従って、本開示はここに示す実施例によって限定されるものではなく、ここに示す原理及び新規な特徴と一貫する最広義の範囲で解釈されるべきである。
本開示において、ネットワーク関数、人工神経回路網及びニューラルネットワーク(neural network)は、相互置換可能に用いることが可能である。
図1は、本開示の一実施例における音声認識を行うためのコンピューティング装置のブロック構成図である。
図1に示すコンピューティング装置(100)の構成は、簡略化された例示に過ぎない。本開示の一実施例において、コンピューティング装置(100)は、コンピューター装置(500)のコンピューティング環境を実装するための他の構成を含むことが可能であり、開示されている構成のうち一部だけでコンピューティング装置(100)を構成することも可能である。
コンピューティング装置(100)は、プロセッサー(110)、メモリー(130)、ネットワーク部(150)を含むことができる。プロセッサー(110)は、1つ以上のコアで構成されることができ、コンピューティング装置の中央処理装置(CPU:central processing unit)、汎用グラフィック処理装置(GPGPU:general purpose graphics processing unit)、テンサー処理装置(TPU:tensor processing unit)等のデータ分析、ディープラーニングのためのプロセッサーを含むことが可能である。プロセッサー(110)は、メモリー(130)に保存されたコンピュータープログラムを読み取り、本開示の一実施例における機械学習のためのデータ処理を実行することができる。本開示の一実施例に基づき、プロセッサー(110)は、ニューラルネットワークの学習のための演算を行うことができる。プロセッサー(110)は、ディープラーニング(DL:deep learning)における学習のための入力データの処理、入力データからのフィーチャーの抽出、誤差計算、逆伝播(backpropagation)を利用したニューラルネットワークの重みの更新等のニューラルネットワークの学習のための計算を実行することができる。プロセッサー(110)のCPU、GPGPU及びTPUのうち少なくとも1つがネットワーク関数の学習を処理できる。例えば、CPUとGPGPUがともにネットワーク関数の学習やネットワーク関数を利用したデータの分類を行うことができる。なお、本開示の一実施例において、複数のコンピューティング装置のプロセッサーを一緒に使ってネットワーク関数の学習やネットワーク関数を利用したデータ分類を行うことができる。また、本開示の一実施例におけるコンピューティング装置において実行されるコンピュータープログラムは、CPU、GPGPU及びTPUで実行可能なプログラムになり得る。
本開示の一実施例において、プロセッサー(110)は、音声認識を行うために音声情報を認識し、音声情報に対して、第1言語に基づく第1テキストデータを生成することができ、生成された第1テキストデータから問題テキストを検出する動作を行うことができる。この時、音声情報は、外国語を含む音声ファイル又はオーディオデータに係る情報になり得る。
本開示の一実施例によると、プロセッサー(110)は、上記検出された問題テキストに対応する第2言語を識別することが可能である。また、上記プロセッサー(110)は、上記識別され第2言語に基づき第2テキストデータを生成することができ、上記第2言語は、上記第1言語と異なる言語になり得る。本開示内容において、「第1」、「第2」、「第3」等の用語は、ある構成要素を他の構成要素と区別し、明細書全体を通して一貫性を保つために用いられるものであり、これらの用語により権利範囲が限定されてはならない。
本開示の一実施例において、メモリー(130)は、プロセッサー(110)が生成したり、決定した任意の形態の情報及びネットワーク部(150)が受信した任意の形態の情報を保存することができる。
本開示の一実施例において、メモリー(130)は、フラッシュメモリータイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリー(例えばSD又はXDメモリー等)、RAM(Random Access Memory、RAM)、SRAM(Static Random Access Memory)、ROM(Read-Only Memory、ROM)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、PROM(Programmable Read-Only Memory)、磁気メモリー、磁気ディスク、光ディスクのうち少なくとも1つのタイプの保存媒体を含むことができる。コンピューティング装置(100)は、インターネット(internet)上で上記メモリー(130)の保存機能を実行するウェブストレージ(web storage)と連携して動作することも可能である。前述のメモリーに係る記述は、例示に過ぎず、本開示はこれらに限定されない。
本開示の一実施例におけるネットワーク部(150)は、公衆電話交換網(PSTN:Public Switched Telephone Network)、xDSL(x Digital Subscriber Line)、RADSL(Rate Adaptive DSL)、MDSL(Multi Rate DSL)、VDSL(Very High Speed DSL)、UADSL(Universal Asymmetric DSL)、HDSL(High Bit Rate DSL)及び近距離通信網(LAN)等のような多様な有線通信システムを使用することができる。
例えば、ネットワーク部(150)は、音声情報を外部システムから受信することが可能である。この時、データベースから受信される情報は、外国語を含むオーディオの音声認識を行うための学習用データ又は推論用データになり得る。音声情報は、上述の例示の情報を含むことが可能であるが、上述の例示に限らず、通常の技術者が理解できる範囲内において多様な構成が存在し得る。
また、ネットワーク部(150)は、プロセッサー(110)により処理された情報やユーザーインターフェース等を、他の端末との通信を通じて送受信できる。例えば、ネットワーク部(150)は、プロセッサー(110)により生成されたユーザーインターフェースを、クライアント(例えば、ユーザー端末)に提供できる。また、ネットワーク部(150)は、クライアントが受け付けたユーザーの外部入力を受信し、プロセッサー(110)に転送できる。この時、プロセッサー(110)は、ネットワーク部(150)から受け取ったユーザーの外部入力を下に、ユーザーインターフェースを通じて提供される情報の出力、修正、変更、追加等の動作を処理できる。
一方、本開示の一実施例において、コンピューティング装置(100)は、クライアントとの通信を通して情報を送受信するコンピューティングシステムとしてサーバーを含むことが可能である。この時、クライアントは、サーバーにアクセス(access)できる任意の形の端末になり得る。例えば、サーバーであるコンピューティング装置(100)は、外部データベースから単語グラフを作成して要約文章を抽出するための情報を受信し、会話の要約結果を生成し、会話の要約結果に係るユーザーインターフェースをユーザー端末に提供できる。この時、ユーザー端末は、サーバーであるコンピューティング装置(100)から受信したユーザーインターフェースを出力し、ユーザーとの相互作用を通じて情報の入力を受けたり、処理することができる。
追加の実施例において、コンピューティング装置(100)は、任意のサーバーにおいて生成されたデータリソースを受け取り、追加の情報処理を行う任意の形の端末を含むことも可能である。
図2は、本開示の一実施例におけるネットワーク関数を示す概略図である。
本明細書の全体を通して、演算モデル、神経回路網、ネットワーク関数、ニューラルネットワーク(neural network)は、同一の意味で用いることができる。神経回路網は、一般的にノードと呼ばれる相互連結された計算単位の集合で構成されることが多い。このようなノードは、ニューロン(neuron)と称することもできる。神経回路網は、少なくとも1つ以上のノードを含めて構成される。神経回路網を構成するノード(またはニューロン)は1つ以上のリンクによって相互連結されることが可能である。
神経回路網において、リンクを介して繋がっている1つ以上のノードは、相対的に入力ノード及び出力ノードの関係を形成することができる。入力ノード及び出力ノードの概念は相対的なものであり、あるノードに対して出力ノードとなる任意のノードは、他のノードとの関係においては入力ノードになり得るが、その逆も成立する。前述のように、入力ノードと出力ノードとの関係はリンクを中心にして成立することができる。1つの入力ノードに1つ以上の出力ノードがリンクを介して繋がることができ、その逆も成立する。
1つのリンクを介して繋がっている入力ノード及び出力ノードの関係において、出力ノードのデータは入力ノードに入力されたデータに基づきその値が決められることが可能である。ここで入力ノードと出力ノードとを相互連結するノードは重み(weight)を持つことができる。重みは可変的なものになり得るが、神経回路網が所望の機能を行うために、利用者またはアルゴリズムによって変わることが可能である。例えば、1つの出力ノードに1つ以上の入力ノードが各リンクによって相互連結されている場合、出力ノードは上記出力ノードに繋がっている入力ノードに入力された値及び各入力ノードに対応するリンクに設定された重みに基づき出力ノードの値を決定することができる。
前述のように、神経回路網は、1つ以上のノードが1つ以上のリンクを介して相互連結され神経回路網の中で入力ノードと出力ノードの関係を形成する。神経回路網において、ノードとリンクの数及びノードとリンクとの間の相関関係、各リンクに付与された重みの値によって、神経回路網の特性が決まることが可能である。例えば、同数のノード及びリンクが存在し、リンクの重みの値がそれぞれ異なる2つの神経回路網が存在する場合、その2つの神経回路網を、相異なるものと認識することができる。
神経回路網は、1つ以上のノードの集合で構成することができる。神経回路網を構成するノードの部分集合は、レイヤー(layer)を構成できる。神経回路網を構成する複数のノードのうち一部は、第1入力ノードからの距離に基づき、1つのレイヤー(layer)を構成することができる。例えば、第1入力ノードからの距離がnであるノードの集合は、nレイヤーを構成することができる。第1入力ノードからの距離は、第1入力ノードから当該ノードに到達するために経由しなければならないリンクの最小限の数を基に定義することができる。しかし、このようなレイヤーの定義は、説明のために任意に取り挙げたものであり、神経回路網の中におけるレイヤーの構成は、前述の説明と異なる方法で定義されることができる。例えば、ノードのレイヤーは、最終出力ノードからの距離を基に定義することもできる。
第1入力ノードは、神経回路網の中のノードのうち、他のノードとの関係においてリンクを経由せずにデータが直接入力される1つ以上のノードを意味することができる。または、神経回路網のネットワークの中で、リンクを基準にしたノード間の関係において、リンクを介して繋がっている他の入力ノードを持たないノードを意味することができる。これと同様に、最終出力ノードは、神経回路網の中のノードのうち、他のノードとの関係において、出力ノードを持たない1つ以上のノードを意味することができる。また、ヒドンノードは、第1入力ノード及び最終出力ノードではないノードで、神経回路網を構成するノードを意味することができる。
本開示の一実施例による神経回路網は、入力レイヤーのノードの数が、出力レイヤーのノードと同数で、入力レイヤーから隠蔽レイヤー(hidden layer)へと進むにつれ、ノードの数が一度減ってから、再び増加する形の神経回路網になり得る。本開示の一実施例による神経回路網は、入力レイヤーのノードの数が、出力レイヤーのノードの数より少なく、入力レイヤーから隠蔽レイヤー(隠れ層)へと進むにつれ、ノードの数が減少していく形の神経回路網になり得る。また、本開示の他の一実施例による神経回路網は、入力レイヤーのノードの数が、出力レイヤーのノードの数より多く、入力レイヤーから隠蔽レイヤーへと進むにつれ、ノードの数が増加していく形の神経回路網になり得る。本開示の他の一実施例における神経回路網は、上述の神経回路網を組み合わせた形の神経回路網になり得る。
ディープニューラルネットワーク(DNN:deep neural network、深層神経回路網)は、入力レイヤーと出力レイヤー以外に複数の隠蔽レイヤーを含む神経回路網を意味することができる。ディープニューラルネットワークを利用するとデータの潜在的な構造(latent structures)を把握することができる。つまり、写真、文章、ビデオ、音声、音楽の潜在的な構造(例えば、ある物が写真に映っているか、文章の内容と感情はどのようなものなのか、音声の内容と感情はどのようなものなのか等)を把握することができる。ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN:convolutional neural network)、リカレントニューラルネットワーク(RNN;:recurrent neural network)、オートエンコーダー(auto encoder)、GAN(Generative Adversarial Networks)、制限ボルツマンマシン(RBM:restricted boltzmann machine)、深層信頼ネットワーク(DBN:deep belief network)、Qネットワーク、Uネットワーク、シャムネットワーク、敵対的生成ネットワーク(GAN:Generative Adversarial Network)等を含むことができる。前述のディープニューラルネットワークは、例示に過ぎず本開示はこれらに限定されない。
本開示の一実施例において、ネットワーク関数は、オートエンコーダー(autoencoder)を含むこともできる。オートエンコーダーは、入力データに類似した出力データを出力するための人工神経回路網の一種になり得る。オートエンコーダーは、少なくとも1つの隠蔽レイヤーを含むことができ、奇数個の隠蔽レイヤーが入出力レイヤーの間に配置されることができる。各レイヤーのノード数は、入力レイヤーのノード数から、ボトルネックレイヤー(エンコード)という中間レイヤーに向かって減っていき、ボトルネックレイヤーから出力レイヤー(入力レイヤーと対称を成す)に向かって、減少と対照的に、拡張することもできる。オートエンコーダーは、非線形次元減少を行うことができる。入力レイヤー及び出力レイヤーの数は、入力データの前処理後に次元に対応することができる。オートエンコーダー構造において、エンコーダーに含まれた隠蔽レイヤーのノードの数は、入力データから遠くなるほど減っていく構造を持つことができる。ボトルネックレイヤー(エンコーダーとデコーダーの間に位置する、ノードの数が最も少ないレイヤー)のノードの数が少なすぎる場合、十分な量の情報が伝わらない可能性があるため、特定の数以上(例えば、入力レイヤーの半分以上等)に維持されることもあり得る。
ニューラルネットワークは、教師あり学習(supervised learning)、教師なし学習(unsupervised learning)、半教師あり学習(semi supervised learning)、または、強化学習(reinforcement learning)のうち、少なくともいずれか1つの方式で学習されることができる。ニューラルネットワークの学習は、ニューラルネットワークが特定の動作を行うための知識をニューラルネットワークに提供する過程になり得る。
ニューラルネットワークは、出力のエラーを最小化する方向で学習されることが可能である。ニューラルネットワークの学習において、繰り返し学習データをニューラルネットワークに入力させ、学習データに関するニューラルネットワークの出力とターゲットのエラーを計算し、エラーを減らすための方向としてニューラルネットワークのエラーをニューラルネットワークの出力レイヤーから入力レイヤーの方向へ逆伝播(back propagation)してニューラルネットワークの各ノードの重みを更新するプロセスが行われる。教師あり学習の場合、個々の学習データに正解がラベリングされている学習データを使い(つまり、ラベリングされた学習データ)、教師なし学習の場合は、個々の学習データに正解がラベリングされていない場合がある。つまり、例えばデータ分類に関する教師あり学習における学習データは、学習データの各々にカテゴリがラベリングされたデータになり得る。ラベリングされた学習データがニューラルネットワークに入力され、ニューラルネットワークの出力(カテゴリ)と学習データのラベルを比較することでエラー(error)を計算することが可能である。他の例として、データ分類に関する教師なし学習の場合、入力である学習データをニューラルネットワークの出力と比較することでエラーを計算することが可能である。計算されたエラーは、ニューラルネットワークにおいて逆方向(つまり、出力レイヤーから入力レイヤー方向)へ逆伝播され、逆伝播を通じてニューラルネットワークの各レイヤーの各ノードの連結加重値を更新することが可能である。更新される各ノードの連結加重値は、学習率(learing rate)によって変化量が決まることが可能である。入力データに対するニューラルネットワークの計算とエラーの逆伝播は、学習のサイクル(epoch)を構成することができる。学習率は、ニューラルネットワークの学習のサイクルの反復回数によって適用方式が変わることが可能である。例えば、ニューラルネットワークの学習初期においては、学習率を高くしてニューラルネットワークが早く一定のレベルの性能を確保するようにすることで効率を高め、学習の後半においては学習率を低くして精度を上げることが可能である。
ニューラルネットワークの学習において、一般的に学習データは実際のデータ(つまり、学習されたニューラルネットワークを利用して処理しようとするデータ)の部分集合であることが可能であり、そのため学習データに係るエラーは減少するが、実際のデータに係るエラーは増加する学習サイクルが存在し得る。過剰適合(over fitting)は、このように学習データについて過度に学習したため、実際のデータにおいてエラーが増加する現象である。例えば、黄色い猫を見て猫を学習したニューラルネットワークが、黄色以外の色の猫を見ると猫であることを認識できない現象が過剰適合の一種になり得る。過剰適合は、マシンラーニングアルゴリズムのエラーを増加させる原因になり得る。このような過剰適合を防ぐために、多様な最適化方法を適用できる。過剰適合を防ぐためには、学習データを増加させる方法、正則化(regulaization)、学習の過程でネットワークのノードの一部を非活性化するドロップアウト(drop out)、バッチ正規化レイヤー(batch normalization layer)の活用等の方法を適用できる。
図3は、本開示の一実施例における外国語を含むオーディオの音声認識を行うための方法を示すフローチャートである。
本開示の一実施例におけるコンピューティング装置(100)は、「外国語を含むオーディオの音声認識を行うための音声情報」を直接獲得したり、又は、外部システムから受信することが可能である。音声情報は、本開示の実施例において、音声認識を行い、テキストデータを生成する対象となる情報である。外部システムは、音声情報を保存し、管理するサーバーやデータベース等になり得る。コンピューティング装置(100)は、直接取得したり、外部システムから受信した音声情報を「音声認識を行い、テキストデータを生成するための入力データ」として利用することができる。
図3を参照すると、コンピューティング装置(100)は、受信した音声情報に対して、第1言語に基づく第1テキストデータを生成することが可能である(S110)。例えば、コンピューティング装置(100)は、音声情報に対して、上記第1言語に基づく音声認識を行うことができ、上記音声認識に基づき、上記第1言語に係るテキストを出力することが可能である。ここで出力されるテキストは、チャンク(chunk)単位のテキスト、サブ-単語(sub-word)単位のテキスト、単語(word)単位のテキスト、句(phrase)単位のテキスト、節(clause)単位のテキスト、文章単位のテキストを含むことができ、これらの類型以外にも、多様な類型のテキストを含むことが可能である。
コンピューティング装置(100)は、S110段階において生成された第1テキストデータから問題テキストを検出できる(S120)。前述のS120段階は、上記生成された第1テキストデータの信頼度を導出し、上記導出された信頼度に基づき、上記問題テキストを検出する段階をさらに含むことも可能である。つまり、S120段階では、第1テキストデータに係る信頼度情報に基づき、問題テキストを検出することが可能である。前述のような信頼度情報に係る具体的な実施例は、図4及び図5を用いて以下に後述する。一方、S120段階では、第1テキストデータから複数の問題テキストを検出することもできる。例えば、S120段階では、第1問題テキスト、第2問題テキスト等を含む複数の問題テキストを検出することもできる。前述のように複数の問題テキストを検出する具体的な実施例は、図6を参照しながら、以下に後述する。
コンピューティング装置(100)は、S120段階を通じて検出された問題テキストに対応する第2言語を識別することができる(S130)。ここで、第2言語は、上記第1言語と異なる言語になり得る。つまり、第2言語は、上記第1言語との関係において、外国語にあたる場合がある。また、コンピューティング装置は、S120段階において複数の問題テキストが検出された場合、上記第1言語と異なる言語を複数検出する場合もある。例えば、S130段階は、上記第1問題テキストに対応し、上記第1言語とは異なる言語である第2言語を識別する段階、及び前記第2問題テキストに対応し、上記第1言語及び上記第2言語とは異なる言語である第3言語を識別する段階をさらに含むことが可能である。
コンピューティング装置(100)は、S130段階において識別された第2言語に基づき、第2テキストデータを生成できる(S140)。ここで上記第2テキストデータは、上記第1テキストデータから上記問題テキストを除いた残りのテキスト部分、及び上記問題テキストに対応する音声部分に対して上記第2言語に基づき生成した修正テキスト部分を含むことが可能である。また、S140段階は、S120段階で複数の問題テキストが検出され、S130で複数の言語が検出された場合、複数の修正テキストを生成する段階をさらに含むことも可能である。例えば、S140段階は、上記第1問題テキストに対応する音声部分に対して、上記第2言語に基づき、第1修正テキストを生成する段階、及び上記第2問題テキストに対応する音声部分に対して、上記第3言語に基づき、第2修正テキストを生成する段階を含むことが可能である。
コンピューティング装置は、S140段階以降に、上記生成された第1テキストデータの上記問題テキストに対応する部分に修正テキストを併記して出力する段階をさらに含むことも可能である。
図4は、本開示の一実施例において、上記音声情報に対して、第1テキストデータを生成し、信頼度を導出する動作を説明するための概略図である。
図4によると、本開示の一実施例におけるコンピューティング装置(100)は、外国語の音声(例えば、第2言語)を含むオーディオをテキストに変換するめに外部システムから音声情報(11)を受信することができる。
ここで、音声情報(11)は、外国語による会話に係る音声情報、複数の外国語を含むインタビューに係る音声情報、ニュース映像に含まれている外国語音声情報等を含むことが可能であり、これらの例以外にも多様な音声が含まれることが可能である。このように、上記音声情報は、1つの特定の言語に限定されず、テキストに変換する必要のある多様な外国語が含まれている音声情報を含むことが可能である。
コンピューティング装置(100)は、外部システムから受信した音声情報を、音声認識を行うための入力データとして使い、第1テキストデータ(13)を出力することが可能である。例えば、図4の例は、第1ニューラルネットワークモデル(12)に音声情報を入力し、第1言語に対する音声認識を行い、上記音声認識に基づき、上記第1言語に係るチャンク単位のテキストを出力することが可能である。ここで、チャンクとは、1つの意味を持つ言葉の塊であり、自然語処理(NLP)においてテキスト分割に利用されることのできる1つの単位を意味し、チャンクの長さは可変的なものになり得る。また、コンピューティング装置(100)は、第1ニューラルネットワークモデル(12)を利用し、STT(Speech-to-Text)又は、ASR(Automatic Speech Recognition)を行うことが可能である。STT又はASRは、音声信号又はそれを変換したスペクトラム(spectrogram)を入力データとして受け取り、文字列形態のテキストを出力することができる。これを通じて、上記第1言語に対して音声認識を行った結果である、上記第1テキストデータ(13)を生成できる。
コンピューティング装置(100)は、上記生成された第1テキストデータの信頼度(14)を導出することが可能である。例えば、音声情報に対して音声認識を行った結果として生成された第1テキストデータの信頼度(114)を計算することが可能である。上記信頼度を計算する過程は、正解に係る情報なしにASRの結果をどれだけ信頼できるかについて予測する過程になり得る。例えば、図4の例において、上記第1言語に係るチャンク単位のテキストの各々について(0.99)、(0.1)、(0.94)、(0.08)の信頼度を導出することが可能である。
説明を簡略化するために、第1テキストデータの信頼度(14)と説明しているが、信頼度(14)は、第1テキストデータ(13)が生成された後、第1テキストデータ(13)に基づいて計算されるものに限られるわけではない。例えば、第1ニューラルネットワークモデル(12)は、音声情報(11)に対し第1言語で音声認識を行う際、チャンク別にテキストを予測でき、チャンク別に予測したテキストの精度に対応する信頼度(14)を導出することが可能である。つまり、第1テキストデータの信頼度(14)を、第1テキストデータ(13)の生成過程において導出することもできるが、生成された第1テキストデータ(13)に基づいて導出することも可能である。
また、上記信頼度導出過程においては、チャンク単位のテキストに対して信頼度を計算しているが、チャンク単位のテキストだけでなく、多様な単位のテキストに対して信頼度を計算することが可能である。例えば、サブ-単語(sub-word)単位のテキスト、単語(word)単位のテキスト、句(phrase)単位のテキスト、節(clause)単位のテキストに対しても信頼度を導出することが可能である。一方、前述の過程において上記計算された第1テキストデータの信頼度(14)は、問題テキストを検出するときベースとして利用することが可能であり、具体的な内容は以下に図5を用いて説明する。
図5は、本開示の一実施例において、第1テキストデータの信頼度を導出し、上記導出された信頼度に基づき、問題テキストを検出する動作を示す概略図である。
本開示の一実施例によると、コンピューティング装置(100)は、上記生成された第1テキストデータの信頼度(14)を導出し、上記導出された信頼度(14)に基づき、問題テキストを検出することが可能である。また、この場合、複数の問題テキスト(23)が検出されることが可能である。具体的に、コンピューティング装置(100)は、設定されているしきい値(21)未満の信頼度を持つチャンク単位のテキストを検出(22)することが可能である。例えば、図5の例示によると、しきい値未満の信頼度を持つテキストを検出(22)する過程において、しきい値(21)が0.8に設定されている場合があり、設定されたしきい値(21)である0.8未満の(0.1)と(0.08)の信頼度を持つチャンク単位のテキストが複数の問題テキスト(23)として検出されることが可能である。具体的に、第1言語が韓国語の場合、第1テキストデータ(13)は、韓国語に基づき音声認識を行った結果である場合があり、第1テキストデータの一部分の信頼度がしきい値の0.8未満の値だった場合、当該部分が(韓国語ではなく外国語を含むテキストであると推測される)問題テキストとして検出されることが可能である。さらに、図4を用いて説明しているように、本開示の一実施例によると、上記第1テキストデータ(13)に対して単語単位で信頼度を導出することが可能であり、設定されたしきい値未満の信頼度を持つ単語単位のテキストを検出することが可能である。また、チャンク単位及びサブ-単語単位以外にも、単語単位、句単位、節単位、文章単位等で信頼度を導出することが可能である。従って、上記問題テキスト(23)は、チャンク単位のテキストに限られず、多様な単位のテキストを含むことが可能である。上記検出された複数の問題テキスト(23)に対して言語識別が行われることが可能であり、これについても以下に図6を用いて詳しく説明する。
図6は、本開示の一実施例において、複数の問題テキスト(例えば、第1問題テキスト、第2問題テキスト等)が検出され、検出された複数のテキストに対応する複数の言語(例えば、第2言語、第3言語等)を識別する動作を示す概略図である。
本開示の一実施例によると、コンピューティング装置(100)は、上記検出された複数の問題テキスト(23)に対応する複数の言語を識別することが可能である。具体的に、コンピューティング装置(100)は、言語識別(33)を行うことで、第1問題テキスト(31)に対応し、上記第1言語とは異なる言語である第2言語(34)を識別することができ、同一の過程を通じて第2問題テキスト(32)に対応し、上記第1言語及び第2言語とは異なる第3言語(35)を識別することが可能である。この時、コンピューティング装置(100)が言語識別(33)を行うときに利用できるモデルは、ニューラルネットワークモデル、アルゴリズムに基づく言語識別モデル、又は、LID(Spoken Language Identification)等があり、他にも与えられた音声情報に基づき、その音声において使われている言語を区別する複数の技術を利用できる。例えば、第1言語に対しては、韓国語をベースにして信頼度を計算し、その結果、計算された信頼度が設定されているしきい値(21)未満の値を持つチャンク単位の問題テキストに対して、第1問題テキスト(31)に対応する第2言語(34)は英語と識別し、第2問題テキスト(32)に対応する第3言語(35)は中国語と識別することが可能である。この時、第1言語の韓国語とは異なる言語の英語が第2言語(34)として識別され、韓国語及び英語とは異なる言語の中国語が第3言語(35)として識別されることが可能である。本開示において、「第1」、「第2」、「第3」等の用語は、ある構成要素を他の構成要素と区別し、明細書を通して一貫性を保つために用いられるものであり、これらの用語により権利範囲が限定されはならない。また、本開示における複数の実施例において、2つ以上の言語を区別する必要がなく、指示対象が1つの言語であることが明確な場合、第3言語(35)は識別されない場合もある。例えば、第1問題テキスト(31)と第2問題テキスト(32)に対して言語識別(33)を行った結果、上記2つの問題テキストに対応する言語が両方とも英語と識別される場合がある。このような場合に、上記2つの問題テキストに対応する英語は、第2言語(34)として識別され、上記第2言語と異なる言語ではない第3言語(35)は識別されない場合がある。また、コンピューティング装置(100)は、識別された(上記第1言語とは異なる言語である)少なくとも1つの言語に基づき、第2テキストデータを生成することが可能であるが、以下に図7を用いて詳しく説明する。
図7は、本開示の一実施例において識別された(上記第1言語とは異なる言語である)少なくとも1つの言語に基づき、第2テキストデータを生成する過程を示す概略図である。
先ず、図6の実施例において、第1問題テキスト(31)と第2問題テキスト(32)に対応する第2言語(34)及び第3言語(35)を識別することが可能である。これに基づき、図7を参照すると、音声情報において、第1問題テキスト(31)及び第2問題テキスト(32)に対応する部分に対し、それぞれ第2言語(34)、第3言語(35)に基づく音声認識を行うことが可能である(41)。例えば、第1問題テキスト(31)に対応する言語は英語と識別され、第2問題テキスト(32)に対応する言語は中国語と識別された場合、音声情報(11)において第1及び第2問題テキストに対応する部分に対してそれぞれ英語及び中国語に基づく音声認識を行うことが可能である。また、本開示における他の実施例において、第1問題テキスト(31)及び第2問題テキスト(32)に対応する言語が1つの言語であることが明確な場合、第3言語(35)は識別されない場合がある。例えば、第1問題テキスト(31)と第2問題テキスト(32)に対して言語識別(33)を行った結果、上記2つの問題テキストに対応する言語が両方とも英語と識別される場合がある。このような場合、上記2つの問題テキストに対応する英語は、第2言語(34)と識別され、上記第2言語と異なる言語ではない第3言語(35)は識別されない場合があり、第1問題テキスト及び第2問題テキストに対応する部分の両方に対して英語に基づく音声認識が行われることが可能である。
本開示の一実施例によると、コンピューティング装置(100)は、第1問題テキスト(31)に対応する音声部分に対し、上記第2言語(34)に基づき、第1修正テキスト(43)を生成し、上記第2問題テキスト(32)に対応する音声部分に対し、上記第3言語(35)に基づき、第2修正テキスト(44)を生成することができ、これらの動作に基づき、第2テキストデータを生成することが可能である。例えば、上記音声情報のうち、第1及び第2問題テキストに対応する部分に対して、それぞれ英語及び中国語に基づく音声認識を行い、「英語に基づく音声認識の結果である第1修正テキスト」及び「中国語に基づく音声認識の結果である第2修正テキスト」を生成することが可能である。また、他の実施例において、第1問題テキスト(31)及び第2問題テキスト(32)に対応する言語が両方とも英語であった場合、上記音声情報において第1及び第2問題テキストに対応する部分の両方に対して英語に基づく音声認識を行い、「英語に基づく音声認識の結果である第1修正テキスト及び第2修正テキスト」を生成することが可能である。
本開示を実行することで、外国語を含む音声情報のすべての部分に対し言語識別を行うのではなく、一部の信頼度の低い部分に対してのみ言語識別を行った上で、当該言語に基づいて音声認識を行った結果を出力することで、音声の内容により適合したテキストが結果として出力されるようになる。
また、本開示の一実施例において、コンピューティング装置(100)は、上記生成された第1テキストデータ(13)の上記問題テキスト(23)に対応する部分に、修正テキスト(43,44)を併記して出力することができる。例えば、第1言語が韓国語であり、第2言語(34)が英語、第3言語(35)が中国語の場合、第1テキストデータ(13)の問題テキスト(23)のうち、第1問題テキスト(31)部分には、英語に基づく音声認識が行われた結果となるテキストである、第1修正テキスト(43)を併記し、第2問題テキスト(32)部分には、中国語に基づく音声認識が行われた結果となるテキストである、第2修正テキスト(44)を併記して出力することが可能である。他の一実施例によると、修正テキストを併記して出力する場合、「外国語である可能性のある部分に外国語テキストを併記した」という案内(notification)とともに出力することができる。
さらに、本開示の他の実施例によると、コンピューティング装置(100)は、音声情報(11)とともに、ニュース映像等の映像が入力されて音声認識を行う際、検出された問題テキスト(23)に対応する映像部分における字幕の有無を判断することができる。この時、コンピューティング装置(100)は、問題テキスト(23)に対応する映像部分に字幕が付いている場合、映像において字幕が出る部分を識別(detect)し、当該字幕部分をOCR(Optical Character Recognition)を通じて取得できる。また、OCRを通じて取得した字幕情報は、「音声認識によって生成された第1テキストデータ(13)の問題テキスト(23)に対応する部分」に修正テキスト(43、44)とともに併記された状態で出力されることが可能である。例えば、ニュース映像に海外で発生した事件についての報道が含まれている場合、外国人に対するインタビューが含まれていることがあるが、この場合、外国人に対するインタビューの部分に字幕の情報が含まれている可能性がある。このような場合、ニュース映像において、外国人に対するインタビューにおける発話部分に対応するテキストを問題テキスト(23)として検出することが可能であり、「当該ニュース映像のうち、外国人に対するインタビューにおける発話部分に対応する部分」に字幕が付いていた場合、当該字幕の部分を、OCRを通じて取得することが可能である。また、OCRを通じて取得した字幕情報は、「音声認識によって生成された第1テキストデータ(13)の問題テキスト(23)に対応する部分」に修正テキスト(43、44)とともに併記された状態で出力されることが可能である。
図8は、本開示の実施例が具現化されることのできる例示的なコンピューティング環境に係る簡略で一般的な概略図である。
本開示が一般的にコンピューティング装置により具現化されることができると前述されているが、当業者であれば本開示が一つ以上のコンピューター上で実行されることのできるコンピューター実行可能命令及び/またはその他のプログラムモジュールと結合して及び/またはハードウェアとソフトウェアの組み合わせとして具現化されることができるということをよく理解できるだろう。
一般的に、本明細書におけるモジュールは、特定のタスクを実行したり、特定の抽象的なデータ類型を実装するルーティン、プログラム、コンポーネント、データ構造、その他等々を含む。また、当業者なら本開示の方法がシングルプロセッサーまたはマルチプロセッサーコンピューターシステム、ミニコンピューター、メインフレームコンピューターはもちろん、パーソナルコンピューター、ハンドヘルド(handheld)コンピューティング装置、マイクロプロセッサー基盤、またはプログラム可能な家電製品、その他等々(これらは、それぞれ1つ以上の関連する装置と繋がって動作することができる)をはじめとする、他のコンピューターシステムの構成によって実施されることができることをよく理解できるだろう。
本開示において説明された実施例は、さらに、あるタスクが通信ネットワークを通じて繋がっている遠隔処理装置によって実行される分散コンピューティング環境で実施されることができる。分散コンピューティング環境において、プログラムモジュールは、ローカルや遠隔メモリー保存装置の両方に位置することができる。
コンピューターは、多様なコンピューター可読媒体を含む。コンピューターによってアクセス可能な媒体はいずれもコンピューター可読媒体になり得るが、このようなコンピューター可読媒体は揮発性及び非揮発性媒体、一時的(transitory)及び非一時的(non-transitory)媒体、移動式及び非-移動式媒体を含む。制限ではなく例として、コンピューター可読媒体は、コンピューター可読保存媒体及びコンピューター可読伝送媒体を含むことができる。コンピューター可読保存媒体は、コンピューター可読命令、データ構造、プログラムモジュール又はその他のデータのような情報を保存する任意の方法又は技術により実装される揮発性及び非揮発性媒体、一時的及び非一時的媒体、移動式及び非移動式媒体を含む。コンピューター可読保存媒体は、RAM、ROM、EEPROM、フラッシュメモリーまたはその他のメモリー技術、CD-ROM、DVD(digital video disk)またはその他の光ディスク保存装置、磁気カセット、磁気テープ、磁気ディスク保存装置またはその他の磁気保存装置、またはコンピューターによってアクセスされることができ、情報を保存するのに使われることのできる任意のその他の媒体を含むが、これに限定されない。
コンピューター可読伝送媒体は、通常、搬送波(carrier wave)またはその他の伝送メカニズム(transport mechanism)のような被変調データ信号(modulated data signal)にコンピューター可読命令、データ構造、プログラムモジュールまたはその他のデータ等を実装し、すべての情報伝達媒体を含む。被変調データ信号という用語は、信号の中で情報をエンコードするように、その信号の特性のうち1つ以上を設定または変更した信号を意味する。制限ではなく例として、コンピューター可読伝送媒体は、有線ネットワークまたは直接配線接続(direct-wired connection)のような有線媒体、そして音響、RF、赤外線、その他の無線媒体のような無線媒体を含む。前述の媒体のいずれかによる任意の組み合わせもまたコンピューター可読伝送媒体の範囲に含まれるものとする。
コンピューター(1102)を含む本開示の多様な側面を実現する例示的な環境(1100)が示されており、コンピューター(1102)は、処理装置(1104)、システムメモリー(1106)、システムバス(1108)を含む。システムバス(1108)は、システムメモリー(1106)(これに限定されない)をはじめとするシステムコンポーネントを処理装置(1104)につなげる。処理装置(1104)は、多様な商用プロセッサーのうち任意のプロセッサーになり得る。デュエルプロセッサーとその他のマルチプロセッサーアーキテクチャもまた処理装置(1104)として利用されることができる。
システムバス(1108)は、メモリーバス、周辺装置バス、そして多様な商用バスアーキテクチャの中から、任意のものを使用するローカルバスにさらに相互連結されることのできる複数の類型のバス構造のうちいずれかになり得る。システムメモリー(1106)は、読み取り専用メモリー(ROM)(1110)やランダムアクセスメモリー(RAM)(1112)を含む。基本的な入出力システム(BIOS)は、ROM、EPROM、EEPROM等の非揮発性メモリー(1110)に保存され、このBIOSは、起動中の時等にコンピューター(1102)の中の複数の構成要素間の情報のやりとりをサポートする基本的なルーティンを含む。RAM(1112)は、またデータをキャッシュするための静的RAM等の高速RAMを含むことができる。
コンピューター(1102)においては、また、内蔵型ハードディスクドライブ(HDD)(1114)(例えば、EIDE、SATA)―この内蔵型ハードディスクドライブ(1114)はまた適切なシャシー(図示は省略)の中で外付け型の用途で構成されることができる―、磁気フロッピーディスクドライブ(FDD)(1116)(例えば、移動式ディスケット(1118)から読み取ったりそれに書き込むためのものである)及び光ディスクドライブ(1120)(例えば、CD-ROMディスク(1122)を読み取ったり、DVD等のその他の高容量光媒体から読み取ったり、それに書き込むためのものである)を含む。ハードディスクドライブ(1114)、磁気フロッピーディスクドライブ(1116)及び光ディスクドライブ(1120)は、それぞれハードディスクドライブインターフェース(1124)、磁気ディスクドライブインターフェース(1126)及び光ドライブインターフェース(1128)によってシステムバス(1108)に繋がることができる。外付け型ドライブの実装のためのインターフェース(1124)は、例えば、USB(Universal Serial Bus)やIEEE1394インターフェース技術のうち、少なくとも1つまたはその両方を含む。
これらのドライブ及びこれらに係るコンピューター可読媒体は、データ、データ構造、コンピューターで実行可能な命令、その他等々の非揮発性保存を提供する。コンピューター(1102)の場合、ドライブ及び媒体は、任意のデータを適切なデジタル形式に保存することに対応する。前述におけるコンピューター可読保存媒体に係る説明が、HDD、移動式磁気ディスク及びCDまたはDVD等の移動式光媒体について触れているが、当業者ならジップドライブ(zip drive)、磁気カセット、フラッシュメモリーカード、カートリッジ、その他等々のコンピューターにより読み取り可能な他の類型の保存媒体もまた例示的な運営環境で使われることができ、さらに、このような媒体のうち任意のある媒体が、本開示の方法を実行するためのコンピューターで実行可能な命令を含むことができることをよく理解できるだろう。
運営システム(1130)、1つ以上のアプリケーションプログラム(1132)、その他のプログラムモジュール(1134)及びプログラムデータ(1136)をはじめとする多数のプログラムモジュールが、ドライブ及びRAM(1112)に保存されることができる。運営システム、アプリケーション、モジュール及び/またはデータの全部またはその一部分がまたRAM(1112)にキャッシュされることができる。本開示が商業的に利用可能な様々な運営システムまたは複数の運営システムの組み合わせにより実装されることができることをよく理解できるだろう。
ユーザーは、1つ以上の有線・無線の入力装置、例えば、キーボード(1138)及びマウス(1140)等のポインティング装置を通じてコンピューター(1102)に命令及び情報を入力することができる。その他の入力装置(図示は省略)としてはマイク、IRリモコン、ジョイスティック、ゲームパッド、スタイラスペン、タッチスクリーン、その他等々があり得る。これら及びその他の入力装置が、よくシステムバス(1108)に繋がっている入力装置インターフェース(1142)を通じて処理装置(1104)に繋がることがあるが、並列ポート、IEEE1394直列ポート、ゲームポート、USBポート、IRインターフェース、その他等々のその他のインターフェースによって繋がることができる。
モニター(1144)または他の類型のディスプレイ装置も、ビデオアダプター(1146)等のインターフェースを通じてシステムバス(1108)に繋がる。モニター(1144)に加えて、コンピューターは一般的にスピーカー、プリンター、その他等々のその他の周辺出力装置(図示は省略)を含む。
コンピューター(1102)は、有線及び/または無線通信による(複数の)遠隔コンピューター(1148)等の1つ以上の遠隔コンピューターへの論理的接続を利用し、ネットワーク化された環境で動作することができる。(複数の)遠隔コンピューター(1148)は、ワークステーション、サーバーコンピューター、ルーター、パーソナルコンピューター、携帯用コンピューター、マイクロプロセッサー基盤の娯楽機器、ピア装置またはその他の通常のネットワークノードになることができ、一般的にコンピューター(1102)について述べられた構成要素のうち、多数またはその全部を含むが、簡略化するために、メモリー保存装置(1150)のみ図示されている。図示されている論理的接続は、近距離通信網(LAN)(1152)及び/または、より大きいネットワーク、例えば、遠距離通信網(WAN)(1154)における有線・無線の接続を含む。このようなLAN及びWANのネットワーキング環境は、オフィスや会社では一般的なもので、イントラネット等の全社的コンピューターネットワーク(enterprise-wide computer network)を容易にし、これらはすべて全世界のコンピューターネットワーク、例えば、インターネットに繋がることができる。
LANネットワーキング環境で使われるとき、コンピューター(1102)は、有線及び/または無線通信ネットワークインターフェース、または、アダプター(1156)を通じてローカルネットワーク(1152)に繋がる。アダプター(1156)は、LAN(1152)への有線または無線通信を容易にすることができ、このLAN(1152)は、また無線アダプター(1156)と通信するためにそれに設置されている無線アクセスポイントを含む。WANネットワーキング環境で使われるとき、コンピューター(1102)は、モデム(1158)を含むことができたり、WAN(1154)上の通信サーバーに繋がったり、またはインターネットを通じる等、WAN(1154)を通じて通信を設定するその他の手段を持つ。内蔵型又は外付け型、そして、有線または無線装置になり得るモデム(1158)は、直列ポートインターフェース(1142)を通じてシステムバス(1108)に繋がる。ネットワーク化された環境において、コンピューター(1102)について説明されたプログラムモジュールまたはその一部分が、遠隔メモリー/保存装置(1150)に保存されることができる。図示されたネットワーク接続が例示的なものであり、複数のコンピューター間で通信リンクを設定する他の手段が使われることができるということは容易に理解できることである。
コンピューター(1102)は、無線通信で配置されて動作する任意の無線装置またはユニット、例えば、プリンター、スキャナー、デスクトップ及び/または携帯用コンピューター、PDA(portable data assistant)、通信衛星、無線で検出可能なタグに係る任意の装備または場所及、及び電話と通信する動作をする。これは、少なくともWi-Fi(登録商標)及びブルートゥース(登録商標)無線技術を含む。従って、通信は、従来のネットワークのように予め定義された構造であったり、単純に少なくとも2つの装置の間でのアドホック通信(adhoc communication)になり得る。
Wi-Fi(Wireless Fidelity)は、有線で繋がっていなくても、インターネット等への接続を可能にする。Wi-Fiは、このような装置、例えば、コンピューターが室内及び室外で、つまり基地局の通話圏内のどこからでもデータを送受信できるようにするセル電話のような無線技術である。Wi-Fiネットワークは、安全で信頼性があり、高速である無線接続を提供するためにIEEE802.11(a、b、g、その他)という無線技術を使う。コンピューターを互いに、インターネット及び有線ネットワーク(IEEE802.3またはイーサネットを使う)に接続するためにWi-Fiが使われることができる。Wi-Fiネットワークは、非認可2.4や5GHzの無線帯域において、例えば、11Mbps(802.11a)または54Mbps(802.11b)のデータレートで動作したり、両帯域(デュエル帯域)を含む製品において動作することができる。
本開示の技術分野における通常の知識を持つ者は情報及び信号が任意の多様な異なる技術及び手法を利用して示されることができることを理解できる。例えば、上記の説明において参照できるデータ、指示、命令、情報、信号、ビット、シンボル及びチップは、電圧、電流、電磁気派、磁場等または粒子、光学場等または粒子、またはこれらの任意の組み合わせによって示されることができる。
本開示の技術分野において通常の知識を持つ者は、ここに開示された実施例に係る説明で取り挙げられた多様な例示的な論理ブロック、モジュール、プロセッサー、手段、回路、アルゴリズム段階が電子ハードウェア、(利便性のために、ここでは「ソフトウェア」と称される)多様な形のプログラムまたは設計コード、またはこれらすべての結合により実装されることができることを理解できるだろう。ハードウェア及びソフトウェアのこのような相互互換性を明確に説明するために、多様な例示的なコンポーネント、ブロック、モジュール、回路、及び段階がこれらの機能に着目して上記で一般的に説明された。このような機能がハードウェアやソフトウェアで実装されるかどうかは、特定のアプリケーションおよび全体システムに対して付与される設計上の制限によって決まる。本開示の技術分野において通常の知識を持つ者は、個々の特定のアプリケーションについて多様な手法で説明された機能を実現することができるが、このような実現の決定は、本開示の範囲を逸脱するものと解釈されてはならない。
ここに示された多様な実施例は、方法、装置、または標準プログラミング及び/またはエンジニアリング技術を使った製造物品(article)によって実現できる。用語「製造物品」は、任意のコンピューターで可読な装置からアクセス可能なコンピュータープログラム、キャリアー、または媒体(media)を含む。例えば、コンピューターで可読保存媒体は、磁気保存装置(例えば、ハードディスク、フロッピーディスク、磁気ストリップ等)、光学ディスク(例えば、CD、DVD等)、スマートカード及びフラッシュメモリー装置(例えば、EEPROM、カード、スティック、キードライブ等)を含むが、これらに限定されるものではない。また、ここに示されている多様な保存媒体は、情報を保存するための1つ以上の装置及び/または他の機械可読媒体を含む。
示されたプロセスにおける複数の段階の特定の順番または階層構造は、例示的なアプローチの一例であることを理解すべきである。設計上の優先順位に基づき、本開示の範囲内で、プロセスにおける段階の特定の順番または階層構造が再配列されることができることを理解すべきである。添付の方法請求項は、サンプルとしての順番で、多様な段階のエレメントを提供するが、示された特定の順番または階層構造に限定されることを意味するわけではない。
示された実施例に関する説明は、任意の本開示の技術分野において通常の知識を持つ者が、本開示を利用したりまたは実施できるように提供される。このような実施例に対する多様な変形は、本開示の技術分野において通常の知識を持つ者には明確に理解できるものであり、ここに定義された一般的な原理は、本開示の範囲を逸脱することなく他の実施例に適用されることができる。従って、本開示はここに示す実施例によって限定されるものではなく、ここに示す原理及び新規な特徴と一貫する最広義の範囲で解釈されるべきである。

Claims (12)

  1. コンピューティング装置により実行される、ニューラルネットワークに基づく音声認識方法であって、
    音声情報に対して、第1言語に基づき、第1テキスト(text)データを生成する段階;
    前記生成された第1テキストデータから問題テキストを検出する段階;
    前記検出された問題テキストに対応する第2言語を識別する段階;及び
    前記識別された第2言語に基づき、第2テキストデータを生成する段階
    を含み、
    前記第2言語は、前記第1言語と異なる言語である、
    方法。
  2. 請求項1において、
    前記生成された第1テキストデータから問題テキストを検出する段階は、
    前記生成された第1テキストデータの信頼度を導出し、前記導出された信頼度に基づき、前記問題テキストを検出する段階
    を含む、
    方法。
  3. 請求項1において、
    前記音声情報に対して、第1テキストデータを生成する段階は、
    第1ニューラルネットワークモデルを利用し、前記音声情報に対して、前記第1言語に基づく音声認識を行う段階;及び
    前記音声認識に基づき、前記第1言語に係るチャンク単位のテキストを出力する段階
    を含む、
    方法。
  4. 請求項2において、
    前記生成された第1テキストデータの信頼度を導出し、前記導出された信頼度に基づき、問題テキストを検出する段階は、
    前記第1言語に係るチャンク単位のテキストの各々に対して信頼度を導出し、設定されているしきい値を下回る信頼度を持つチャンク単位のテキストを検出する段階
    を含む、
    方法。
  5. 請求項2において、
    前記生成された第1テキストデータの信頼度を導出し、前記導出された信頼度に基づき、問題テキストを検出する段階は、
    上記生成された第1テキストデータに対して単語(word)単位で信頼度を導出し、設定されているしきい値を下回る信頼度を持つ単語単位のテキストを検出する段階
    を含む、
    方法。
  6. 請求項1において、
    前記第2テキストデータは、
    前記第1テキストデータから前記問題テキストを除いた残りのテキスト部分、及び
    前記問題テキストに対応する音声部分に対して、前記第2言語に基づき生成した修正テキスト部分;
    を含む、
    方法。
  7. 請求項6において、
    前記生成された第1テキストデータの前記問題テキストに対応する部分に前記修正テキストを併記して出力する段階
    をさらに含む、
    方法。
  8. 請求項1において、
    前記問題テキストは、チャンク(chunk)単位のテキスト、サブ-単語(sub-word)単位のテキスト、単語(word)単位のテキスト、句(phrase)単位のテキスト、節(clause)単位のテキスト、又は、文章単位のテキストのうち、少なくとも1つを含む、
    方法。
  9. 請求項1において、
    前記検出された問題テキストに対応する第2言語を識別する段階は、
    第1問題テキストに対応し、前記第1言語とは異なる言語である第2言語を識別する段階;及び
    第2問題テキストに対応し、前記第1言語及び前記第2言語とは異なる言語である第3言語を識別する段階
    をさらに含む、
    方法。
  10. 請求項9において、
    前記識別された第2言語に基づき、第2テキストデータを生成する段階は、
    前記第1問題テキストに対応する音声部分に対して、前記第2言語に基づき、第1修正テキストを生成する段階、及び
    前記第2問題テキストに対応する音声部分に対して、前記第3言語に基づき、第2修正テキストを生成する段階
    を含む、
    方法。
  11. コンピューター可読保存媒体に保存されたコンピュータープログラムであって、前記コンピュータープログラムは、1つ以上のプロセッサーによって実行される場合、前記1つ以上のプロセッサーが音声認識のための動作を実行するようにし、前記動作は;
    音声情報に対して、第1言語に基づき、第1テキストデータを生成する動作;
    前記生成された第1テキストデータから問題テキストを検出する動作、
    前記検出された問題テキストに対応する第2言語を識別する動作;及び
    前記識別された第2言語に基づき、第2テキストデータを生成する動作
    を含み、
    前記第2言語は、前記第1言語と異なる言語である、
    コンピューター可読保存媒体に保存されたコンピュータープログラム。
  12. コンピューティング装置であって、
    少なくとも1つのプロセッサー;及び
    メモリー
    を含み、
    前記少なくとも1つのプロセッサーは、
    音声情報に対して、第1言語に基づき、第1テキストデータを生成し;
    前記生成された第1テキストデータから問題テキストを検出し;
    前記検出された問題テキストに対応する第2言語を識別し;そして
    前記識別された第2言語に基づき、第2テキストデータを生成するように構成され、
    前記第2言語は、前記第1言語と異なる言語である、
    コンピューティング装置。
JP2022143274A 2022-06-29 2022-09-08 外国語を含むオーディオの音声認識方法 Active JP7475589B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0079789 2022-06-29
KR1020220079789A KR102583764B1 (ko) 2022-06-29 2022-06-29 외국어가 포함된 오디오의 음성 인식 방법

Publications (2)

Publication Number Publication Date
JP2024006851A true JP2024006851A (ja) 2024-01-17
JP7475589B2 JP7475589B2 (ja) 2024-04-30

Family

ID=88188977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022143274A Active JP7475589B2 (ja) 2022-06-29 2022-09-08 外国語を含むオーディオの音声認識方法

Country Status (3)

Country Link
US (1) US11972756B2 (ja)
JP (1) JP7475589B2 (ja)
KR (1) KR102583764B1 (ja)

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06150061A (ja) 1992-11-04 1994-05-31 Sharp Corp 文書認識装置
JP3009642B2 (ja) * 1997-10-22 2000-02-14 株式会社エイ・ティ・アール音声翻訳通信研究所 音声言語処理単位変換装置
US7117231B2 (en) * 2000-12-07 2006-10-03 International Business Machines Corporation Method and system for the automatic generation of multi-lingual synchronized sub-titles for audiovisual data
US20030065503A1 (en) * 2001-09-28 2003-04-03 Philips Electronics North America Corp. Multi-lingual transcription system
JP2003345379A (ja) * 2002-03-20 2003-12-03 Japan Science & Technology Corp 音声映像変換装置及び方法、音声映像変換プログラム
JP4053440B2 (ja) * 2003-02-26 2008-02-27 富士通株式会社 テキスト音声合成システム及び方法
US7496498B2 (en) * 2003-03-24 2009-02-24 Microsoft Corporation Front-end architecture for a multi-lingual text-to-speech system
US9305545B2 (en) 2013-03-13 2016-04-05 Samsung Electronics Co., Ltd. Speech recognition vocabulary integration for classifying words to identify vocabulary application group
KR20180071029A (ko) * 2016-12-19 2018-06-27 삼성전자주식회사 음성 인식 방법 및 장치
KR101990023B1 (ko) 2017-05-26 2019-06-18 주식회사 엠글리쉬 외국어학습을 위한 청크단위 분리 규칙과 핵심어 자동 강세 표시 구현 방법 및 시스템
KR102426717B1 (ko) * 2017-06-27 2022-07-29 삼성전자주식회사 발화 인식 모델을 선택하는 시스템 및 전자 장치
US11195513B2 (en) 2017-09-27 2021-12-07 International Business Machines Corporation Generating phonemes of loan words using two converters
US11443227B2 (en) * 2018-03-30 2022-09-13 International Business Machines Corporation System and method for cognitive multilingual speech training and recognition
WO2020012813A1 (ja) 2018-07-09 2020-01-16 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
KR20200056712A (ko) * 2018-11-15 2020-05-25 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20210017090A (ko) 2019-08-06 2021-02-17 삼성전자주식회사 필기 입력을 텍스트로 변환하는 방법 및 전자 장치
US20210158845A1 (en) * 2019-11-25 2021-05-27 Dell Products L. P. Automatically segmenting and indexing a video using machine learning
KR102472921B1 (ko) 2020-08-26 2022-12-01 주식회사 카카오엔터프라이즈 음향 신호를 사용자 인터페이스에 시각적으로 표시하는 사용자 인터페이싱 방법 및 장치
TWI769520B (zh) * 2020-09-07 2022-07-01 和碩聯合科技股份有限公司 多國語言語音辨識及翻譯方法與相關的系統

Also Published As

Publication number Publication date
US20240005913A1 (en) 2024-01-04
JP7475589B2 (ja) 2024-04-30
US11972756B2 (en) 2024-04-30
KR102583764B1 (ko) 2023-09-27

Similar Documents

Publication Publication Date Title
KR102465571B1 (ko) 문서 데이터의 주제어 분류를 수행하는 기법
KR102444457B1 (ko) 단어 그래프를 이용한 대화의 요약 생성 방법
KR102478076B1 (ko) 음성 인식 오류 검출을 위해 학습 데이터를 생성하기 위한 방법
KR102517661B1 (ko) 텍스트 정보에서 타겟 단어에 대응하는 단어를 식별하는 방법
KR20230073138A (ko) 유사 컨텐츠 제공 기법
KR102673273B1 (ko) 텍스트 교정 방법 및 장치
KR102648689B1 (ko) 텍스트 오류를 검출하는 방법
KR102509007B1 (ko) 문장 내 토큰들의 중요도에 기초하여 음성 인식 모델을 학습시키는 방법
KR102492277B1 (ko) 멀티모달 정보를 이용한 질의응답 수행 방법
JP2024006851A (ja) 外国語を含むオーディオの音声認識方法
KR102497436B1 (ko) 음성 신호를 포함하는 컨텐츠를 기반으로 타겟 단어와 관련된 정보를 획득하는 방법
JP7535355B1 (ja) テキスト情報を修正する方法{method for editing text information}
KR102568930B1 (ko) Stt 결과에 기초하여 새로운 음성을 생성하는 방법
KR102621021B1 (ko) 감정 중립적인 음성을 생성하는 음성 변환 모델을 학습시키는 방법
KR102486120B1 (ko) 음성 신호와 연관된 컨텐츠를 결정하는 방법
KR102537165B1 (ko) 음성 인식 결과 및 참조 데이터로부터 중요 부분을 결정하고 연계하는 방법
US11972752B2 (en) Method for detecting speech segment from audio considering length of speech segment
KR102537173B1 (ko) 주 화자에 기초하여 요약문을 생성하는 방법
KR102498063B1 (ko) 계층적 언어 정보를 이용한 음성 인식 방법
KR102552401B1 (ko) Asr 기반의 질의응답 방법
KR102515914B1 (ko) Stt 모델을 활용하는 발음 전사 방법
KR102540178B1 (ko) 음성 인식 결과를 편집하는 방법
KR102547001B1 (ko) 하향식 방식을 이용한 오류 검출 방법
KR102520167B1 (ko) 비-대화형 텍스트 정보를 활용하여 대화 요약을 위한 학습 데이터를 생성하는 방법
KR102524615B1 (ko) 개인화된 음성 인식을 위한 데이터를 생성하고, 생성된 데이터를 이용하여 개인화된 음성 인식을 수행하는 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240408

R150 Certificate of patent or registration of utility model

Ref document number: 7475589

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150