JP6909832B2 - オーディオにおける重要語句を認識するための方法、装置、機器及び媒体 - Google Patents

オーディオにおける重要語句を認識するための方法、装置、機器及び媒体 Download PDF

Info

Publication number
JP6909832B2
JP6909832B2 JP2019149241A JP2019149241A JP6909832B2 JP 6909832 B2 JP6909832 B2 JP 6909832B2 JP 2019149241 A JP2019149241 A JP 2019149241A JP 2019149241 A JP2019149241 A JP 2019149241A JP 6909832 B2 JP6909832 B2 JP 6909832B2
Authority
JP
Japan
Prior art keywords
training
important
important phrase
text
recognition model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019149241A
Other languages
English (en)
Other versions
JP2020030408A (ja
Inventor
ジーファ・ワン
ティエンシン・ヤン
ジーポン・ウー
ビン・ポン
チェンユェン・ヂャオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2020030408A publication Critical patent/JP2020030408A/ja
Application granted granted Critical
Publication of JP6909832B2 publication Critical patent/JP6909832B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Machine Translation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

本開示の実施例は、データ処理分野に関し、具体的に、オーディオにおける重要語句を認識するための方法、装置、機器及びコンピュータ読み取り可能な記憶媒体に関する。
コンピュータ技術の発展とスマート端末の普及に伴い、スマートフォン又はスマートスピーカボックス等の端末機器を用いて種々なトーキングショー、例えばトーキングフィクション、童話、トレーニングコース等を聴取する場合が多くなっている。トーキングリソースのプロバイダは、通常、収録されたオーディオデータをサーバにアップロードして簡単なタイトルとイントロダクションを付けるにすぎず、このため、ユーザがこれらのリソースを検索する場合に、システムは、通常、タイトル及びイントロダクションによってしか検索できない。オーディオデータのコンテンツを全面、迅速に理解できないため、このような検索効果は、ユーザの要求を満足できない。例えば、ユーザからの照会命令におけるキーワードが、オーディオデータのタイトル又はイントロダクションに含まれない場合に、該オーディオデータは、検索されない。
本開示の例示的な実施例によれば、オーディオにおける重要語句を認識するための態様を提供する。
本開示の第1態様では、重要語句認識モデルをトレーニングするための方法を提供する。該方法は、第1のトレーニングテキストにおける単語の特徴情報を標識する第1のトレーニングデータを取得するステップを含む。該方法は、第2のトレーニングテキストにおける重要語句を標識する第2のトレーニングデータを取得するステップをさらに含む。該方法は、第1のトレーニングデータと第2のトレーニングデータとに基づいて重要語句認識モデルをトレーニングすることにより、オーディオデータにおける重要語句を認識するステップをさらに含む。
本開示の第2態様では、オーディオにおける重要語句を認識するための方法を提供する。該方法は、認識すべきオーディオデータを取得するステップを含む。該方法は、トレーニングされた重要語句認識モデルによりオーディオデータにおける重要語句を認識するステップをさらに含む。該重要語句認識モデルは、第1のトレーニングデータと第2のトレーニングデータとに基づいてトレーニングされ、ここで、第1のトレーニングデータは、第1のトレーニングテキストにおける単語の特徴情報を標識し、第2のトレーニングデータは、第2のトレーニングテキストにおける重要語句を標識する。
本開示の第3態様では、重要語句認識モデルをトレーニングするための装置を提供する。該装置は、第1のトレーニングテキストにおける単語の特徴情報を標識する第1のトレーニングデータを取得するように構成される第1の取得モジュールと、第2のトレーニングテキストにおける重要語句を標識する第2のトレーニングデータを取得するように構成される第2の取得モジュールと、第1のトレーニングデータと第2のトレーニングデータとに基づいて重要語句認識モデルをトレーニングすることにより、オーディオデータにおける重要語句を認識するモデルトレーニングモジュールとを含む。
本開示の第4態様では、オーディオにおける重要語句を認識するための装置を提供する。該装置は、認識すべきオーディオデータを取得するように構成されるオーディオ取得モジュールと、トレーニングされた重要語句認識モデルによりオーディオデータにおける重要語句を認識するが、重要語句認識モデルは、第1のトレーニングデータと第2のトレーニングデータとに基づいてトレーニングされ、第1のトレーニングデータは、第1のトレーニングテキストにおける単語の特徴情報を標識し、第2のトレーニングデータは、第2のトレーニングテキストにおける重要語句を標識するように構成される認識モジュールとを含む。
本開示の第5態様では、一つ又は複数のプロセッサ及び記憶装置を含む電子機器を提供する。記憶装置は、一つ又は複数のプログラムを記憶するためのものである。一つ又は複数のプログラムが一つ又は複数のプロセッサによって実行される場合に、一つ又は複数のプロセッサは、本開示の第1態様に係る方法を実行させる。
本開示の第6態様では、一つ又は複数のプロセッサ及び記憶装置を含む電子機器を提供する。記憶装置は、一つ又は複数のプログラムを記憶するためのものである。一つ又は複数のプログラムが一つ又は複数のプロセッサによって実行される場合に、一つ又は複数のプロセッサは、本開示の第2態様に係る方法を実行させる。
本開示の第7態様では、コンピュータプログラムが記憶されているコンピュータ読み取り可能な媒体を提供し、該コンピュータプログラムがプロセッサによって実行される場合、本開示の第1態様に係る方法を実現する。
本開示の第8態様では、コンピュータプログラムが記憶されているコンピュータ読み取り可能な媒体を提供し、該コンピュータプログラムがプロセッサによって実行される場合、本開示の第2態様に係る方法を実現する。
なお、発明内容部分に説明する内容は、本開示の実施例の肝心又は重要特徴を制限することを意図しておらず、本開示の範囲を制限することを意図していない。本開示の他の特徴は、以下の説明により容易に理解され得る。
本発明の上述及び/又は付加的な特徴と利点は、下記の添付図面を参照した実施形態に対する説明により、明らかになり、理解されることが容易になる。
本開示の実施例を実現できる例示的なシステムを示す概略図である。 本開示の実施例に係る重要語句認識モデルをトレーニングするための例示的な方法を示すフローチャートである。 本開示の実施例に係るオーディオにおける重要語句を認識するための例示的な方法を示すフローチャートである。 本開示の実施例に係る重要語句認識モデルをトレーニングするための装置を示す模式ブロック図である。 本開示の実施例に係るオーディオにおける重要語句を認識するための装置を示す模式ブロック図である。 本開示の一部の実施例を実現できる計算機器を示すブロック図である。
以下に、図面を参照しながら本開示の実施例をさらに詳しく説明する。図面には、本開示の一部の実施例を示したが、本開示は、種々な形式により実現されることができ、ここで説明した実施例に限定されると理解されてはならない。逆に、本開示を明らかで、完全に理解するために、これらの実施例を提供する。なお、本開示の図面及び実施例は、例示的な作用を奏し、本開示の保護範囲を限定するものと理解されてはならない。
本開示の実施例の説明において、「含む」の用語及びその類似用語とは、開放的に含まれることをいい、即ち、「含むがこれらに限定されない」ことを指す。なお、「基づく」は、「少なくとも部分に基づく」ことをいう。なお、「一実施例」又は「当該実施例」は、「少なくとも一つの実施例」をいう。「第1」、「第2」等は、異なる又は同一の対象を指す。以下、その他の明確及び暗黙的な定義があることもある。
上述のとおり、コンピュータ技術の発展とスマート端末の普及に伴い、スマートフォン又はスマートスピーカボックス等の端末機器を用いて種々なトーキングショー、例えばトーキングフィクション、童話、トレーニングコース等を聴取する場合が多くなっている。トーキングリソースのプロバイダは、通常、収録されたオーディオデータをサーバにアップロードして簡単なタイトルとイントロダクションを付けるにすぎず、このため、ユーザがこれらのリソースを検索する場合に、システムは、通常、タイトル及びイントロダクションによってしか検索できない。オーディオデータのコンテンツを全面、迅速に理解するために、このような検索効果は、ユーザの要求を満足できない。この場合に、如何にオーディオファイルのコンテンツを快速に理解することにより、そのキーワード又は重要語句を正確、効率的に認識するのは、早急な解決の待たれるチャレンジである。いくつかの従来態様では、人気オーディオに対して手動標記の方式でそのキーワード又は重要語句、例えば人気童話での主人公等を標記する。しかしながら、この態様は、効率が低く、大規模で適用することができない。さらに、従来態様では、テキストに対してキーワード又は重要語句を検索する態様がある。しかしながら、これらの態様は、オーディオデータに対して正確、効率的に検索することができない。
本開示の実施例によれば、オーディオにおける重要語句を認識するための態様を提供する。該態様は、自然言語処理されたトレーニングサンプルと手動序列標記されたトレーニングサンプルとの両方により、重要語句認識モデルをトレーニングする。該態様では、認識すべきオーディオデータを対応したテキストに変換するとともに、トレーニングされた重要語句認識モデルによりテキストにおけるキーワード又は重要語句を認識する。このように、該態様では、オーディオデータのコンテンツを正確、効率的に理解するとともに、その重要情報を抽出することができる。そのため、該態様では、種々なトーキング用途又はオーディオ検索システムに広く適用することができる。
以下、図面を参照しながら本開示の実施例を具体的に説明する。本発明において、「モデル」の用語は、トレーニングデータから対応した入力と出力との関連を学習することにより、トレーニング終了後、所定の入力に対して、対応した出力を生成することができる。なお、「モデル」は「ニューラルネット」、「学習モデル」又は「学習ネットワーク」とも呼ばれる。「重要語句」の用語とは、一のコンテンツに出現する一つ又は複数のキーワードをいう。「重要語句」は、ユーザの意図によって決定され、トーキングコンテンツでの主人公、所定のシーン、時間又はそれらの組み合わせが挙げられるが、これらに限定されない。
図1は、本開示の実施例を実現できる例示的なシステム100を示す概略図である。システム100は、全体的にモデルトレーニングサブシステム110とモデル応用サブシステム120とを含むことができる。なお、システム100の構造と機能への説明は、例示的なものに過ぎず、本開示の範囲に対するいかなる限定を示唆することない。本開示の実施例は、さらに構造及び/又は機能の異なる環境に適用することができる。
モデルトレーニングサブシステム110において、モデルトレーニング装置111は、第1のトレーニングデータ101と第2のトレーニングデータ102を取得することにより、重要語句認識モデル103をトレーニングすることができる。例えば、第1のトレーニングデータ101は、第1のトレーニングテキストにおける単語の特徴情報を標識することができ、第2のトレーニングデータ102は、第2のトレーニングテキストにおける重要語句を標識することができる。
一部の実施例では、第1のトレーニングテキスト又は第2のトレーニングテキストは、任意のテキスト又はオーディオデータから変換して得られたテキストであってもよい。例えば、第1のトレーニングテキストは、重要語句認識モデル103をトレーニングする第1のオーディオサンプルから変換して得ることができる。第2のトレーニングテキストは、重要語句認識モデル103をトレーニングする第2のオーディオサンプルから変換して得ることができる。一部の実施例では、第1のオーディオサンプルと第2のオーディオサンプルは、同一又は異なるオーディオデータであってもよい。即ち、第1のトレーニングテキストと第2のトレーニングテキストは、同一又は異なってもよい。
一部の実施例では、第1のトレーニングテキストを前処理することにより、第1のトレーニングデータ101を生成することができる。例えば、第1のトレーニングテキストを文の区切り(例えば、種々な句読点等)により複数の文に分割した後、その各文に対して自然言語処理を行うことにより、文における各単語の特徴情報を取得することができる。例えば、単語の特徴情報は、該単語のテキスト、品詞、意味及び/又は文法情報等を含むことができる。特徴情報における品詞は、例えば該単語が名詞、動詞、形容詞、又は副詞等のいずれかに属することを示すことができる。特徴情報における意味は、例えば、該単語の具体的な意味、例えば人物、動作、環境等を示すことができる。特徴情報における文法情報は、該単語が文における主語、述語、目的語、限定語、副詞又は補語等のいずれかに属することを示すことができる。
一部の実施例では、第1のトレーニングテキストの取得と第1のトレーニングデータ101の生成の一部又は全体は、モデルトレーニング装置111により実行されてもよい。即ち、モデルトレーニング装置111は、任意のテキストを第1のトレーニングテキストとするか、又は音声認識技術で第1のオーディオサンプルを第1のトレーニングテキストに変換することができる。付加的又は選択的に、モデルトレーニング装置111は、第1のトレーニングテキストに基づいて第1のトレーニングデータ101を自己生成することができる。
選択的に、他の一部の実施例において、第1のトレーニングテキストの取得と第1のトレーニングデータ101の生成の一部又は全体は、他の装置により実行されることができる。この場合に、モデルトレーニング装置111は、例えば当該他の装置から、生成された第1のトレーニングデータ101を取得して、そのままモデルトレーニングに用いることができる。
一部の実施例では、第2のトレーニングテキストを前処理することにより、第2のトレーニングデータ102を生成することができる。例えば、第2のトレーニングテキストを文の区切り(例えば、種々な句読点等)により複数の文に分割した後、複数のタグで各文における重要語句を標識することができる。一部の実施例では、例えば、B(Begin)、I(Inside)、O(Outside)タグで文における重要語句を手動に標記することができ、ここでBタグ(本発明で、「第1のタグ」とも記す)は、重要語句の先頭文字を標記するためのものであり、Iタグ(本発明で、「第2のタグ」とも記す)は、重要語句における先頭文字以外の他の文字を標記するためのものであり、Oタグ(本発明で、「第3のタグ」とも記す)は、文における重要語句に属しない他の文字を標記するためのものである。
例えば、標記される文が「白雪姫と七人の小人が森にいる」であり、且つ標記される重要語句が該文における主人公(即ち、「白雪姫」及び「七人の小人」)であると、「白」と「七」は、それぞれBタグで標記され、「雪姫」と「人の小人」とは、それぞれIタグで標記され、他の文字は、Oタグで標記される。「白雪姫と七人の小人が森にいる」を例とし、標記される重要語句は、該文におけるシーン(即ち、「森にいる」)であると、「森」は、Bタグで標記され、「にいる」は、Iタグで標記され、他の文字は、Oタグで標記される。
以上、BIOタグを例として、第2のトレーニングテキストにおける重要語句に対して手動に標記することを説明している。しかしながら、なお、これは説明のための例示に過ぎず、本発明を限定するものではない。本開示の他の一部の実施例では、BIOタグ以外の他のタグで第2のトレーニングテキストにおける重要語句を標記することもでき、本開示の範囲は、この態様で限定されない。
一部の実施例では、第2のトレーニングテキストの取得と第2のトレーニングデータ102の生成の一部又は全体は、モデルトレーニング装置111によって実行されてもよい。即ち、モデルトレーニング装置111は、任意のテキストを第2のトレーニングテキストとするか、又は音声認識技術で第2のオーディオサンプルを第2のトレーニングテキストに変換することができる。付加的又は選択的に、モデルトレーニング装置111は、第2のトレーニングテキストに基づいて第2のトレーニングデータ102を自己生成することができる。
選択的に、他の一部の実施例において、第2のトレーニングテキストの取得と第2のトレーニングデータ102の生成の一部又は全体は、他の装置によって実行されてもよい。この場合に、モデルトレーニング装置111は、例えば当該他の装置から生成された第2のトレーニングデータ102を取得して、そのままモデルトレーニングに用いることができる。
一部の実施例では、モデルトレーニング装置111は、第1のトレーニングデータ101と第2のトレーニングデータ102に基づいて重要語句認識モデル103をトレーニングすることができる。例えば、重要語句認識モデル103の例は、再帰ニューラルネットモデル(例えば、長期及び短期記憶(LSTM)モデル)、コンボリューショナルニューラルネットワーク(CNN)モデル等を含むことができるが、これらに限定されない。トレーニングされた重要語句認識モデル103は、オーディオデータにおける重要語句を認識するためのものであってもよい。
図1に示すように、モデル応用サブシステム120では、モデル応用装置121は、認識すべきオーディオデータ104を取得し、トレーニングされた重要語句認識モデル103によりオーディオデータ104における重要語句を認識することができる。オーディオデータ104は、任意の認識すべきオーディオファイル、オーディオデータフロー等を含むことができる。例えば、モデル応用装置121は、認識すべきオーディオデータフローをリアルタイムに取得し、又は所定の記憶装置から認識すべきオーディオファイルをオーディオデータ104として取得することができる。
一部の実施例では、モデル応用装置121は、音声認識技術でオーディオデータ104をそれに対応したテキストに変換するとともに、得られたテキストを文の区切りにより一つ又は複数の文に分割することができる。その後、モデル応用装置121は、重要語句認識モデル103により各文における文字に対応する対応タグを決定し、対応タグに基づいて文における重要語句を認識することができる。
一部の実施例では、例えば重要語句認識モデル103をトレーニングするための第2のトレーニングデータ102において、BIOタグで第2のトレーニングテキストにおける重要語句を標記することができる。この場合に、モデル応用装置121は、重要語句認識モデル103を認識し、各文における各文字のタグをBタグ、Iタグ及びOタグの一つに決定することができる、ここで、Bタグは、該文字が重要語句の先頭文字であることを示し、Iタグは、該文字が重要語句における先頭文字以外の文字であることを示し、Oタグは、該文字が重要語句に属しないことを示すことができる。さらに、モデル応用装置121は、Bタグで標識された文字とIタグで標識された文字の集合を重要語句として認識してもよい。選択的に、他の一部の実施例では、重要語句認識モデル103をトレーニングするための第2のトレーニングデータ102において、BIOタグ以外の複数の他のタグで第2のトレーニングテキストにおける重要語句を標記することもできる。この場合に、モデル応用装置121は、重要語句認識モデル103により各文における文字又は単語の対応タグを、例えば複数の他のタグの一つとして決定し、さらに決定されたタグで重要語句を認識することができる。
図2は、本開示の実施例に係る重要語句認識モデルをトレーニングするための例示的な方法200を示すフローチャートである。例えば、方法200は、図1に示すようなモデルトレーニング装置111によって実行されることができる。以下、図1を組み合わせて方法200の各動作を詳しく説明する。なお、方法200は、不図示の付加動作及び/又は図示を省略してもよい動作を含むことができる。本開示の範囲は、この態様で限定されない。
ブロック210で、モデルトレーニング装置111は、第1のトレーニングデータ101を取得する。例えば、第1のトレーニングデータ101は、第1のトレーニングテキストにおける単語の特徴情報を標識することができる。
一部の実施例では、第1のトレーニングテキストは取得されることができ、また第1のトレーニングテキストを前処理することにより第1のトレーニングデータ101を生成することができる。例えば、任意のテキストを第1のトレーニングテキストとして取得してもよい。また、重要語句認識モデル103をトレーニングするための第1のオーディオサンプルを取得するとともに、音声認識技術で第1のオーディオサンプルを第1のトレーニングテキストに変換することができる。一部の実施例では、第1のトレーニングデータ101は、文の区切りにより第1のトレーニングテキストを少なくとも一つの文に分割した後、自然言語処理技術で少なくとも一つの文における単語の特徴情報を決定することにより生成されることができる。例えば、単語の特徴情報は、該単語のテキスト、品詞、意味と文法情報の少なくとも一つを含むことができる。
ブロック220で、モデルトレーニング装置111は、第2のトレーニングデータ102を取得する。例えば、第2のトレーニングデータ102は、第2のトレーニングテキストにおける重要語句を標識することができる。ここでいう「重要語句」は、ユーザの意図に基づいて決定されることができ、その例は、第2のトレーニングテキストにおける主人公、所定のシーン、時間又はその組み合わせ等を含むが、これらに限定されない。
一部の実施例では、第2のトレーニングテキストは、取得されることができ、また第2のトレーニングテキストを前処理することにより、第2のトレーニングデータ102を生成することができる。例えば、任意のテキストを第2のトレーニングテキストとして取得することができる。また、重要語句認識モデル103をトレーニングするための第2のオーディオサンプルを取得するとともに、音声認識技術で第2のオーディオサンプルを第2のトレーニングテキストに変換することができる。一部の実施例では、第2のトレーニングデータ102は、文の区切りにより第2のトレーニングテキストを少なくとも一つの文に分割した後、複数のタグで少なくとも一つの文における重要語句を分割することにより生成されることができる。例えば、第1のタグで重要語句の先頭文字を表示することができ、第2のタグで重要語句での先頭文字に続く後続文字を標識することができ、第3のタグで文における重要語句に属しない文字を標識することができる。
ブロック230で、モデルトレーニング装置111は、第1のトレーニングデータ101と第2のトレーニングデータ102に基づいて重要語句認識モデル103をトレーニングする。例えば、重要語句認識モデル103の例は、再帰ニューラルネットモデル(例えば、長期及び短期記憶(LSTM)モデル)、コンボリューショナルニューラルネットワーク(CNN)モデル等を含むが、これらに限定されない。トレーニングされた重要語句認識モデル103は、オーディオデータにおける重要語句を認識するためのものであってもよい。
図3は、本開示の実施例に係るオーディオにおける重要語句を認識するための方法300を示すフローチャートである。例えば、方法300は、図1に示すようなモデル応用装置121によって実行されることができる。以下、図1を組み合わせて方法300の各動作を詳しく説明する。なお、方法300は、不図示の付加動作及び/又は図示を省略してもよい動作を含むことができる。本開示の範囲は、この態様で限定されない。
ブロック310で、モデル応用装置121は、認識すべきオーディオデータ104を取得する。例えば、オーディオデータ104は、いかなる認識すべきオーディオファイル、オーディオデータフロー等を含むことができる。一部の実施例では、モデル応用装置121は、リアルタイムに認識すべきオーディオデータフローをオーディオデータ104として取得することができる。選択的に、モデル応用装置121は、所定記憶装置から認識すべきオーディオファイルをオーディオデータ104として取得することができる。
ブロック320で、モデル応用装置121は、トレーニングされた重要語句認識モデル103によりオーディオデータ104における重要語句を認識することができる。
一部の実施例では、モデル応用装置121は、音声認識技術でオーディオデータ104をそれに対応したテキストに変換するとともに、得られたテキストを文の区切りにより一つ又は複数の文に分割することができる。その後、モデル応用装置121は、重要語句認識モデル103により各文における文字に対応する対応タグを決定するとともに、対応タグに基づいて文における重要語句を認識することができる。
一部の実施例では、例えば、文字のタグは、該文字が重要語句の先頭文字であることを示す第1のタグと、該文字が重要語句における先頭文字に続く後続文字であることを示す第2のタグと、該文字が重要語句に属しないことを示す第3のタグと、の一つを含むことができる。一部の実施例では、モデル応用装置121は、第1のタグで標識された先頭文字と第2のタグで標識された後続文字との集合を重要語句として認識することができる。
以上の説明から分かるように、本開示の実施例は、オーディオにおける重要語句を認識するための態様を提出する。該態様では、自然言語処理されたトレーニングサンプルと手動序列標記されたトレーニングサンプルとの両方により、重要語句認識モデルをトレーニングする。該態様では、認識すべきオーディオデータを対応したテキストに変換し、またトレーニングされた重要語句認識モデルにより、テキストにおけるキーワード又は重要語句を認識することができる。このように、該態様は、オーディオデータのコンテンツを正確、効率的に理解するとともに、その重要情報を抽出することができる。そのため、該態様では、種々なトーキング用途又はオーディオ検索システムに広く適用することができる。
図4は、本開示の実施例に係る重要語句認識モデルをトレーニングするための装置400を示す模式ブロック図である。図4に示すように、装置400は、第1のトレーニングテキストにおける単語の特徴情報を標識する第1のトレーニングデータを取得するように構成される第1の取得モジュール410を含むことができる。装置400は、第2のトレーニングテキストにおける重要語句を標識する第2のトレーニングデータを取得するように構成される第2の取得モジュール420をさらに含むことができる。さらに、装置400は、第1のトレーニングデータと第2のトレーニングデータとに基づいて重要語句認識モデルをトレーニングすることにより、オーディオデータにおける重要語句を認識するように構成されるモデルトレーニングモジュール430をさらに含むことができる。
一部の実施例では、第1の取得モジュール410は、第1のトレーニングテキストを取得するように構成される第1の取得ユニットと、第1のトレーニングテキストを前処理することにより第1のトレーニングデータを生成するように構成される第1の前処理ユニットとを含む。
一部の実施例では、第1の取得ユニットは、さらに、重要語句認識モデルをトレーニングするための第1のオーディオサンプルを取得し、音声認識技術で第1のオーディオサンプルを第1のトレーニングテキストに変換するように構成される。
一部の実施例では、第1の前処理ユニットは、さらに第1のトレーニングテキストを少なくとも一つの文に分割し、自然言語処理技術で少なくとも一つの文における単語の特徴情報を決定するように構成される。
一部の実施例では、特徴情報は、該単語のテキストと、品詞と、意味と、文法情報とのうち少なくとも一つを含む。
一部の実施例では、第2の取得モジュール420は、第2のトレーニングテキストを取得するように構成される第2の取得ユニットと、第2のトレーニングテキストを前処理することにより第2のトレーニングデータを生成するように構成される第2の前処理ユニットとを含む。
一部の実施例では、第2の取得ユニットは、さらに、重要語句認識モデルをトレーニングするための第2のオーディオサンプルを取得し、音声認識技術で第2のオーディオサンプルを第2のトレーニングテキストに変換するように構成される。
一部の実施例では、第2の前処理ユニットは、さらに、第2のトレーニングテキストを少なくとも一つの文に分割し、複数のタグで少なくとも一つの文における重要語句を標識するように構成される。
一部の実施例では、第2の前処理ユニットは、さらに、第1のタグで重要語句の先頭文字を標識し、第2のタグで重要語句における先頭文字に続く後続文字を標識し、第3のタグで少なくとも一つの文における重要語句に属しない文字を標識するように構成される。
図5は、本開示の実施例に係るオーディオにおける重要語句を認識するための装置500を示す模式ブロック図である。図5に示すように、装置500は、認識すべきオーディオデータを取得するように構成されるオーディオ取得モジュール510を含むことができる。装置500は、トレーニングされた重要語句認識モデルによりオーディオデータにおける重要語句を認識するように構成される認識モジュール520をさらに含むことができる。ここで、重要語句認識モデルは、第1のトレーニングデータと第2のトレーニングデータとに基づいてトレーニングされ、第1のトレーニングデータは、第1のトレーニングテキストにおける単語の特徴情報を標識し、第2のトレーニングデータは、第2のトレーニングテキストにおける重要語句を標識する。
一部の実施例では、認識モジュール520は、音声認識技術でオーディオデータを該オーディオデータに対応したテキストに変換するように構成されるデータ変換ユニットと、該テキストを少なくとも一つの文に分割するように構成されるテキスト分割ユニットと、重要語句認識モデルで少なくとも一つの文における文字に対応する対応タグを決定するように構成されるタグ決定ユニットと、対応タグに基づいてオーディオデータにおける重要語句を認識するように構成される認識ユニットとを含む。
一部の実施例では、対応タグは、該文字が重要語句の先頭文字であることを示す第1のタグと、該文字が重要語句における先頭文字に続く後続文字であることを示す第2のタグと、該文字が重要語句に属しないことを示す第3のタグと、のうち一つを含む。
一部の実施例では、認識ユニットは、さらに、第1のタグで標識された先頭文字と第2のタグで標識された後続文字との集合を重要語句として認識するように構成される。
図6は、本開示の実施例を実現するための例示的な機器600を示す模式ブロック図である。機器600は、図1に記載のようなモデルトレーニング装置111及び/又はモデル応用装置121を実現するためのものであってもよい。図に示すように、コンピュータシステム600は、ROM602に記憶されているコンピュータプログラム命令、又は記憶ユニット608からRAM603にローディングされたコンピュータプログラム命令に基づいて、各種の適切な動作と処理を実行できる中央処理装置(CPU)601を含む。RAM603には、システム600の操作に必要な各種のプログラムとデータがさらに記憶されている。CPU601と、ROM602と、RAM603とは、バス604を介して互いに接続されている。入力/出力(I/O)インタフェース605もバス604に接続される。
機器600における複数の部材はI/Oインタフェース605に接続され、前記複数の部材は、例えばキーボード、マウス等の入力ユニット606と、例えば種々なディスプレイ、スピーカ等の出力ユニット607と、例えば磁気ディスク、光ディスク等の記憶ユニット608と、例えばネットワークカード、モデム、無線通信送受信機等の通信ユニット609と、を含む。通信ユニット609は、機器600が例えばインターネットのようなコンピュータネット及び/又は種々なキャリアネットワークによりその他の機器に情報/データを交換することを許可する。
処理ユニット601は、上述の各方法及び処理、例えば方法200、及び/又は300を実行する。例えば、一部の実施例では、方法200、及び/又は300は、コンピュータソフトウエアプログラムとして実現されることができ、機器読取可能な媒体、例えば記憶ユニット608に有形的に含まれる。一部の実施例では、コンピュータプログラムの一部又は全ては、ROM602及び/又は通信ユニット609を経て、機器600にロード及び/又はインストールされる。コンピュータプログラムがRAM603にロードされCPU601によって実行される場合に、上述の方法200、及び/又は300の一つ又は複数のステップに実行される。或いは、その他の実施例では、CPU601は、その他の任意の適当な方式(例えば、ファームウェアを経る)により方法200、及び/又は300を実行されるように構成される。
本開示で、上記した機能は、少なくとも部分的に一つ又は複数のハードウェア論理装置によって実行されることができる。例えば、非限定的に、使用可能なハードウェア論理装置としては、プログラム可能なゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準品(ASSP)、システムオンチップ(SOC)、複雑プログラム可能論理装置(CPLD)等が挙げられる。
本開示の方法を実施するためのプログラムコードは、一つ又は複数のプログラミング言語の任意の組み合わせにより記述されることができる。これらのプログラムコードは、汎用コンピュータ、専門コンピュータ又はその他のプログラミングデータ処理装置のプロセッサ又は制御器に提供し、プログラムコードがプロセッサ又は制御器によって実行される場合に、フローチャート及び/又はブロック図に規定の機能/操作を実施させることができる。プログラムコードは、完全に機器で実行されてもよく、部分に機器で実行されてもよく、独立のパッケージとして部分に機器で実行されるとともに、部分にリモート機器で実行されてもよく、又は完全にリモート機器又はサーバで実行されてもよい。
本開示の説明において、機器読取可能な媒体は、有形な媒体であってもよく、命令実行システム、装置又は機器の使用、又は命令実行システム、装置又は機器との併用に提供されるプログラムを含み、又は記憶する。機器読取可能な媒体は、機器読取可能な信号媒体又は機器読取可能な記憶媒体であってもよい。機器読取可能な媒体は、電子、磁気、光学、電磁、赤外線、若しくは半導体のシステム、装置、若しくは機器、又は前述の任意の適切な組み合わせを含むことができるがこれらに限定されない。機器読取可能な記憶媒体のさらなる具体例として、1つ若しくは複数のワイヤーを有する電気的接続、携帯型フロッピー(登録商標)ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラム可能ROM(EPROM又はフラッシュメモリ)、光ファイバー、携帯型コンパクトディスク読み取り専用メモリ(CD−ROM)、光学記憶装置、磁気記憶装置、又は前述の任意の組み合わせを含む。
更に、特定の順番で各操作を説明したが、このような操作を、示される特定の順番又は順位で実行することが求められ、又は図示した操作の全てを実行して所望の結果を取得することが求められる。一定の環境において、複数の任務と並列処理が有利である可能性がある。同様に、以上の説明には、若干の具体的な実現詳細を含むが、本開示の範囲を限定するものと理解されてはならない。単独の実施例の前後に説明したある特徴は、一つの実現に組み合わせて実現されることができる。逆に、一つの実現の前後に説明した種々な特徴は、単独又は任意の適合のサブコンビネーションとして複数の実現に実現されることができる。
構造特徴及び/又は方法論理動作を特定した言語により、本対象を説明したが、特許請求の範囲に限定される対象は、上記した特定の特徴又は動作に限らない。逆に、上記した特定特徴と動作は、特許請求の範囲の例を実現するためのものに過ぎない。

Claims (30)

  1. 第1のトレーニングテキストにおける単語の特徴情報を標識する第1のトレーニングデータを取得するステップと、
    第2のトレーニングテキストにおける、主人公、所定のシーン、時間又はそれらの組み合わせを含む重要語句を標識する第2のトレーニングデータを取得するステップと、
    前記第1のトレーニングデータと前記第2のトレーニングデータとに基づいて重要語句認識モデルをトレーニングすることにより、オーディオデータにおける重要語句を認識するステップと、をコンピュータが行うことを含む、
    ことを特徴とする重要語句認識モデルをトレーニングするための方法。
  2. 前記第1のトレーニングデータを取得するステップは、
    前記第1のトレーニングテキストを取得するステップと、
    前記第1のトレーニングテキストを前処理することにより前記第1のトレーニングデータを生成するステップと、を含む、
    ことを特徴とする請求項1に記載の重要語句認識モデルをトレーニングするための方法。
  3. 前記第1のトレーニングテキストを取得するステップは
    前記重要語句認識モデルをトレーニングするための第1のオーディオサンプルを取得するステップと、
    音声認識技術で前記第1のオーディオサンプルを前記第1のトレーニングテキストに変換するステップと、を含む、
    ことを特徴とする請求項2に記載の重要語句認識モデルをトレーニングするための方法。
  4. 前記第1のトレーニングテキストを前処理するステップは、
    前記第1のトレーニングテキストを少なくとも一つの文に分割するステップと、
    自然言語処理技術で前記少なくとも一つの文における前記単語の前記特徴情報を決定するステップと、を含む、
    ことを特徴とする請求項2に記載の重要語句認識モデルをトレーニングするための方法。
  5. 前記特徴情報は、前記単語のテキストと、品詞と、意味と、文法情報とのうち少なくとも一つを含む、
    ことを特徴とする請求項4に記載の重要語句認識モデルをトレーニングするための方法。
  6. 前記第2のトレーニングデータを取得するステップは、
    前記第2のトレーニングテキストを取得するステップと、
    前記第2のトレーニングテキストを前処理することにより、前記第2のトレーニングデータを生成するステップと、を含む、
    ことを特徴とする請求項1に記載の重要語句認識モデルをトレーニングするための方法。
  7. 前記第2のトレーニングテキストを取得するステップは、
    前記重要語句認識モデルをトレーニングするための第2のオーディオサンプルを取得するステップと、
    音声認識技術で前記第2のオーディオサンプルを前記第2のトレーニングテキストに変換するステップと、を含む、
    ことを特徴とする請求項6に記載の重要語句認識モデルをトレーニングするための方法。
  8. 前記第2のトレーニングテキストを前処理するステップは、
    前記第2のトレーニングテキストを少なくとも一つの文に分割するステップと、
    複数のタグで前記少なくとも一つの文における前記重要語句を標識するステップと、を含む、
    ことを特徴とする請求項6に記載の重要語句認識モデルをトレーニングするための方法。
  9. 複数のタグで前記少なくとも一つの文における前記重要語句を標識するステップは、
    第1のタグで前記重要語句の先頭文字を標識するステップと、
    第2のタグで前記重要語句における前記先頭文字に続く後続文字を標識するステップと、
    第3のタグで前記少なくとも一つの文における前記重要語句に属しない文字を標識するステップと、を含む、
    ことを特徴とする請求項8に記載の重要語句認識モデルをトレーニングするための方法。
  10. 認識すべきオーディオデータを取得するステップと、
    トレーニングされた重要語句認識モデルにより前記オーディオデータにおける重要語句を認識するステップと、をコンピュータが行うことを含み、
    前記重要語句認識モデルは、第1のトレーニングデータと第2のトレーニングデータとに基づいてトレーニングされ、
    前記第1のトレーニングデータは、第1のトレーニングテキストにおける単語の特徴情報を標識し、
    前記第2のトレーニングデータは、第2のトレーニングテキストにおける重要語句を標識
    前記重要語句は、主人公、所定のシーン、時間又はそれらの組み合わせを含む、
    ことを特徴とするオーディオにおける重要語句を認識するための方法。
  11. 前記オーディオデータにおける重要語句を認識するステップは、
    音声認識技術で前記オーディオデータを前記オーディオデータに対応したテキストに変換するステップと、
    前記テキストを少なくとも一つの文に分割するステップと、
    前記重要語句認識モデルで前記少なくとも一つの文における文字に対応する対応タグを決定するステップと、
    前記対応タグに基づいて前記オーディオデータにおける重要語句を認識するステップと、を含む、
    ことを特徴とする請求項10に記載のオーディオにおける重要語句を認識するための方法。
  12. 前記対応タグは、
    前記文字が前記重要語句の先頭文字であることを示す第1のタグと、
    前記文字が前記重要語句における前記先頭文字に続く後続文字であることを示す第2のタグと、
    前記文字が前記重要語句に属しないことを示す第3のタグと、のうち一つを含む、
    ことを特徴とする請求項11に記載のオーディオにおける重要語句を認識するための方法。
  13. 前記対応タグに基づいて前記オーディオデータにおける重要語句を認識するステップは、
    前記第1のタグで標識された前記先頭文字と前記第2のタグで標識された前記後続文字との集合を前記重要語句として認識するステップを含む、
    ことを特徴とする請求項12に記載のオーディオにおける重要語句を認識するための方法。
  14. 第1のトレーニングテキストにおける単語の特徴情報を標識する第1のトレーニングデータを取得するように構成される第1の取得モジュールと、
    第2のトレーニングテキストにおける、主人公、所定のシーン、時間又はそれらの組み合わせを含む重要語句を標識する第2のトレーニングデータを取得するように構成される第2の取得モジュールと、
    前記第1のトレーニングデータと前記第2のトレーニングデータとに基づいて重要語句認識モデルをトレーニングすることにより、オーディオデータにおける重要語句を認識するように構成されるモデルトレーニングモジュールと、を含む、
    ことを特徴とする重要語句認識モデルをトレーニングするための装置。
  15. 前記第1の取得モジュールは、
    前記第1のトレーニングテキストを取得するように構成される第1の取得ユニットと、
    前記第1のトレーニングテキストを前処理することにより前記第1のトレーニングデータを生成する第1の前処理ユニットと、を含む、
    ことを特徴とする請求項14に記載の重要語句認識モデルをトレーニングするための装置。
  16. 前記第1の取得ユニットは、さらに、
    前記重要語句認識モデルをトレーニングするための第1のオーディオサンプルを取得し、
    音声認識技術で前記第1のオーディオサンプルを前記第1のトレーニングテキストに変換するように構成される、
    ことを特徴とする請求項15に記載の重要語句認識モデルをトレーニングするための装置。
  17. 前記第1の前処理ユニットは、さらに、
    前記第1のトレーニングテキストを少なくとも一つの文に分割し、
    自然言語処理技術で前記少なくとも一つの文における前記単語の前記特徴情報を決定するように構成される、
    ことを特徴とする請求項15に記載の重要語句認識モデルをトレーニングするための装置。
  18. 前記特徴情報は、前記単語のテキストと、品詞と、意味と、文法情報とのうち少なくとも一つを含む、
    ことを特徴とする請求項17に記載の重要語句認識モデルをトレーニングするための装置。
  19. 前記第2の取得モジュールは、
    前記第2のトレーニングテキストを取得するように構成される第2の取得ユニットと、
    前記第2のトレーニングテキストを前処理することにより、前記第2のトレーニングデータを生成するように構成される第2の前処理ユニットと、を含む、
    ことを特徴とする請求項14に記載の重要語句認識モデルをトレーニングするための装置。
  20. 前記第2の取得ユニットは、さらに、
    前記重要語句認識モデルをトレーニングするための第2のオーディオサンプルを取得し、
    音声認識技術で前記第2のオーディオサンプルを前記第2のトレーニングテキストに変換するように構成される、
    ことを特徴とする請求項19に記載の重要語句認識モデルをトレーニングするための装置。
  21. 前記第2の前処理ユニットは、さらに、
    前記第2のトレーニングテキストを少なくとも一つの文に分割し、
    複数のタグで前記少なくとも一つの文における前記重要語句を標識するように構成される、
    ことを特徴とする請求項19に記載の重要語句認識モデルをトレーニングするための装置。
  22. 前記第2の前処理ユニットは、さらに、
    第1のタグで前記重要語句の先頭文字を標識し、
    第2のタグで前記重要語句における前記先頭文字に続く後続文字を標識し、
    第3のタグで前記少なくとも一つの文における前記重要語句に属しない文字を標識するように構成される、
    ことを特徴とする請求項21に記載の重要語句認識モデルをトレーニングするための装置。
  23. 認識すべきオーディオデータを取得するように構成されるオーディオ取得モジュールと、
    トレーニングされた重要語句認識モデルにより前記オーディオデータにおける重要語句を認識するように構成される認識モジュールと、を含み、
    前記重要語句認識モデルは、第1のトレーニングデータと第2のトレーニングデータとに基づいてトレーニングされ、
    前記第1のトレーニングデータは、第1のトレーニングテキストにおける単語の特徴情報を標識し、
    前記第2のトレーニングデータは、第2のトレーニングテキストにおける重要語句を標識
    前記重要語句は、主人公、所定のシーン、時間又はそれらの組み合わせを含む、
    ことを特徴とするオーディオにおける重要語句を認識するための装置。
  24. 前記認識モジュールは、
    音声認識技術で前記オーディオデータを前記オーディオデータに対応したテキストに変換するように構成されるデータ変換ユニットと、
    前記テキストを少なくとも一つの文に分割するように構成されるテキスト分割ユニットと、
    前記重要語句認識モデルで前記少なくとも一つの文における文字に対応する対応タグを決定するように構成されるタグ決定ユニットと、
    前記対応タグに基づいて前記オーディオデータにおける重要語句を認識するように構成される認識ユニットと、を含む、
    ことを特徴とする請求項23に記載のオーディオにおける重要語句を認識するための装置。
  25. 前記対応タグは、
    前記文字が前記重要語句の先頭文字であることを示す第1のタグと、
    前記文字が前記重要語句における前記先頭文字に続く後続文字であることを示す第2のタグと、
    前記文字が前記重要語句に属しないことを示す第3のタグと、のうち一つを含む、
    ことを特徴とする請求項24に記載のオーディオにおける重要語句を認識するための装置。
  26. 前記認識ユニットは、さらに、
    前記第1のタグで標識された前記先頭文字と前記第2のタグで標識された前記後続文字との集合を前記重要語句として認識するように構成される、
    ことを特徴とする請求項25に記載のオーディオにおける重要語句を認識するための装置。
  27. 一つ又は複数のプロセッサと、
    一つ又は複数のプログラムを記憶するための記憶装置と、を含み、
    前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサによって実行される場合に、前記一つ又は複数のプロセッサが請求項1〜9のいずれかに記載の方法を実現する、
    ことを特徴とする電子機器。
  28. 一つ又は複数のプロセッサと、
    一つ又は複数のプログラムを記憶するための記憶装置と、を含み、
    前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサによって実行される場合に、前記一つ又は複数のプロセッサが請求項10〜13のいずれかに記載の方法を実現する、
    ことを特徴とする電子機器。
  29. コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行される場合に、請求項1〜9のいずれかに記載の方法が実現される、
    ことを特徴とするコンピュータ読み取り可能な記憶媒体。
  30. コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行される場合に、請求項10〜13のいずれかに記載の方法が実現される、
    ことを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2019149241A 2018-08-20 2019-08-16 オーディオにおける重要語句を認識するための方法、装置、機器及び媒体 Active JP6909832B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810949733.8 2018-08-20
CN201810949733.8A CN109241330A (zh) 2018-08-20 2018-08-20 用于识别音频中的关键短语的方法、装置、设备和介质

Publications (2)

Publication Number Publication Date
JP2020030408A JP2020030408A (ja) 2020-02-27
JP6909832B2 true JP6909832B2 (ja) 2021-07-28

Family

ID=65070939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019149241A Active JP6909832B2 (ja) 2018-08-20 2019-08-16 オーディオにおける重要語句を認識するための方法、装置、機器及び媒体

Country Status (5)

Country Link
US (1) US11308937B2 (ja)
EP (1) EP3614378A1 (ja)
JP (1) JP6909832B2 (ja)
KR (1) KR102316063B1 (ja)
CN (1) CN109241330A (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190103111A1 (en) * 2017-10-03 2019-04-04 Rupert Labs Inc. ( DBA Passage AI) Natural Language Processing Systems and Methods
CN109885832A (zh) * 2019-02-14 2019-06-14 平安科技(深圳)有限公司 模型训练、语句处理方法、装置、计算机设备及存储介质
CN110245334B (zh) * 2019-06-25 2023-06-16 北京百度网讯科技有限公司 用于输出信息的方法和装置
CN111524503B (zh) * 2020-04-15 2023-01-17 上海明略人工智能(集团)有限公司 音频数据的处理方法、装置、音频识别设备和存储介质
CN111739537B (zh) * 2020-06-08 2023-01-24 北京灵蚌科技有限公司 语义识别方法、装置、存储介质及处理器
CN111950291B (zh) * 2020-06-22 2024-02-23 北京百度网讯科技有限公司 语义表示模型的生成方法、装置、电子设备及存储介质
CN112101020B (zh) * 2020-08-27 2023-08-04 北京百度网讯科技有限公司 训练关键短语标识模型的方法、装置、设备和存储介质
CN112634892B (zh) * 2020-12-17 2023-11-24 北京大米科技有限公司 一种语音处理方法、装置、可读存储介质和电子设备
CN112822506A (zh) * 2021-01-22 2021-05-18 百度在线网络技术(北京)有限公司 用于分析视频流的方法和装置
CN113221555B (zh) * 2021-05-07 2023-11-14 支付宝(杭州)信息技术有限公司 一种基于多任务模型的关键词识别方法、装置及设备
CN113742411B (zh) * 2021-09-06 2024-05-31 科大讯飞股份有限公司 一种信息获取方法、装置、系统和计算机可读存储介质
CN114492419B (zh) * 2022-04-01 2022-08-23 杭州费尔斯通科技有限公司 基于标注中新增关键词语的文本标注方法、系统及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004361873A (ja) 2003-06-09 2004-12-24 Tsuyoshi Yamamoto 音声認識システムとそのプログラム
JP3899414B2 (ja) 2004-03-31 2007-03-28 独立行政法人情報通信研究機構 教師データ作成装置およびプログラム、ならびに言語解析処理装置およびプログラム
US8145482B2 (en) * 2008-05-25 2012-03-27 Ezra Daya Enhancing analysis of test key phrases from acoustic sources with key phrase training models
JP2016061954A (ja) 2014-09-18 2016-04-25 株式会社東芝 対話装置、方法およびプログラム
CN106815194A (zh) * 2015-11-27 2017-06-09 北京国双科技有限公司 模型训练方法及装置和关键词识别方法及装置
CN106095749A (zh) * 2016-06-03 2016-11-09 杭州量知数据科技有限公司 一种基于深度学习的文本关键词提取方法
CN107818077A (zh) * 2016-09-13 2018-03-20 北京金山云网络技术有限公司 一种敏感内容识别方法及装置
US10565982B2 (en) * 2017-11-09 2020-02-18 International Business Machines Corporation Training data optimization in a service computing system for voice enablement of applications
CN107797992A (zh) * 2017-11-10 2018-03-13 北京百分点信息科技有限公司 命名实体识别方法及装置
CN108133045B (zh) * 2018-01-12 2020-07-24 广州杰赛科技股份有限公司 关键词提取方法与系统、关键词提取模型生成方法与系统

Also Published As

Publication number Publication date
US11308937B2 (en) 2022-04-19
JP2020030408A (ja) 2020-02-27
KR102316063B1 (ko) 2021-10-22
US20200058291A1 (en) 2020-02-20
KR20200021429A (ko) 2020-02-28
CN109241330A (zh) 2019-01-18
EP3614378A1 (en) 2020-02-26

Similar Documents

Publication Publication Date Title
JP6909832B2 (ja) オーディオにおける重要語句を認識するための方法、装置、機器及び媒体
CN111046656B (zh) 文本处理方法、装置、电子设备及可读存储介质
US9330084B1 (en) Automatically generating question-answer pairs during content ingestion by a question answering computing system
JP5901001B1 (ja) 音響言語モデルトレーニングのための方法およびデバイス
US9805718B2 (en) Clarifying natural language input using targeted questions
JP2016536652A (ja) モバイル機器におけるリアルタイム音声評価システム及び方法
CN107861948B (zh) 一种标签提取方法、装置、设备和介质
CN111597800B (zh) 同义句的获取方法及装置、设备及存储介质
US10740570B2 (en) Contextual analogy representation
CN112016271A (zh) 语言风格转换模型的训练方法、文本处理方法以及装置
CN112185361B (zh) 一种语音识别模型训练方法、装置、电子设备及存储介质
CN111144102A (zh) 用于识别语句中实体的方法、装置和电子设备
CN114218945A (zh) 实体识别方法、装置、服务器及存储介质
CN113761923A (zh) 命名实体识别方法、装置、电子设备及存储介质
CN117275466A (zh) 一种业务意图识别方法、装置、设备及其存储介质
CN115115432B (zh) 基于人工智能的产品信息推荐方法及装置
WO2019148797A1 (zh) 自然语言处理方法、装置、计算机设备和存储介质
CN111401069A (zh) 会话文本的意图识别方法、意图识别装置及终端
CN115858776A (zh) 一种变体文本分类识别方法、系统、存储介质和电子设备
CN110276001B (zh) 盘点页识别方法、装置、计算设备和介质
CN114239601A (zh) 语句的处理方法、装置及电子设备
US11423228B2 (en) Weakly supervised semantic entity recognition using general and target domain knowledge
CN111401034B (zh) 文本的语义分析方法、语义分析装置及终端
US10325025B2 (en) Contextual analogy representation
JP6145011B2 (ja) 文正規化システム、文正規化方法及び文正規化プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210705

R150 Certificate of patent or registration of utility model

Ref document number: 6909832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150