JP6874037B2 - カスタム音響モデル - Google Patents

カスタム音響モデル Download PDF

Info

Publication number
JP6874037B2
JP6874037B2 JP2019029710A JP2019029710A JP6874037B2 JP 6874037 B2 JP6874037 B2 JP 6874037B2 JP 2019029710 A JP2019029710 A JP 2019029710A JP 2019029710 A JP2019029710 A JP 2019029710A JP 6874037 B2 JP6874037 B2 JP 6874037B2
Authority
JP
Japan
Prior art keywords
acoustic model
acoustic
speech recognition
metadata
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019029710A
Other languages
English (en)
Other versions
JP2019211752A (ja
Inventor
メフール・パテル
キーバン・モハジェー
Original Assignee
サウンドハウンド,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サウンドハウンド,インコーポレイテッド filed Critical サウンドハウンド,インコーポレイテッド
Publication of JP2019211752A publication Critical patent/JP2019211752A/ja
Application granted granted Critical
Publication of JP6874037B2 publication Critical patent/JP6874037B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)
  • Telephonic Communication Services (AREA)

Description

背景
開示する技術は自動音声認識(automatic speech recognition)(ASR)に関する。特に、開示する技術は、インテリジェント音声認識システムにおけるカスタム音響モデルの作成、識別、選択、および実装に関する。
音声認識システムは、現代の社会においてより広く普及するようになっている。ますます多くの常用機器、たとえば、特定用途向けの機器、乗物、モバイルデバイスなどが、音声認識機能を備えている。問題は、これらの常用機器が、ユーザから受信した発話音声に基づいて意味のある応答を提供することができないことである。この問題の根本的な原因の1つは、常用機器および/またはそれに接続されたローカルもしくは遠隔サービスが、受信した発話音声を適切なトランスクリプションに正確に変換できないことにある。一般的に、受信した発話音声は、音響モデルを用いて音素に変換する。しかしながら、これらの常用機器および/またはそれに接続されたローカルもしくは遠隔サービスが使用している音響モデルは、その(i)環境、(ii)予想される使用状態および/または(iii)予想されるユースケース結果に合わせて作られたものではない。そのため、音声認識機能が与えられたこれらの常用機器は、受信した発話音声を、それに基づいて有用な結果をユーザに伝えるとともにユーザまたはユーザのデバイスが適宜応答できるようにするための、信頼度が高いトランスクリプションに、正確に変換することができない。
この問題の一例を以下に示す。あるコーヒーショップが、そのエスプレッソマシンを、音声起動される(すなわち音声認識システムが組み込まれた)新しいハイテクマシンにアップグレードすることに決めたと想定する。このエスプレッソマシンによって実装される音響モデルは、一般的な音響モデルであり、使用環境に合わせてカスタマイズされていない。この特定のコーヒーショップは、工業用室内装飾が最小限に抑えられているため、音は、他の環境における典型的な反響よりも遙かに大きく反響し響き渡る。さらに、エスプレッソマシンが配置された場所の片側は、顧客の注文を受けるエリアであり、エスプレッソマシンの前には流し台があり、エスプレッソマシンの反対側に豆挽き器がある。言うまでもなく、エスプレッソマシンの音声認識システムは、多くの背景雑音を受ける。加えて、コーヒーショップの温度は、暖かくなる傾向があり、エスプレッソマシンの構成部品は、常に使用されていると非常に熱くなる。これらの温度が原因で、1つ以上のマイクおよびそれに関連する電気部品の特徴の挙動が、通常の挙動とみなされるものから逸脱する。これらの要素すべてが、一般的な音響モデルとあいまって、エスプレッソマシンのトランスクリプションおよび応答を、エスプレッソマシンの音声認識特性の利用を非現実的にするほどの、極めて不正確なものにする。
これらの問題は、特定のデバイスに合わせて調整できるとともに先に述べたようなさまざまな環境および動作状態に基づいて調整できる音響モデルを実装することが可能な技術を開発する機会を提供する。開示する技術は、これらの問題を解決し、より正確な音声認識システムおよび意味のある結果を提供することができる。
概要
概して、開示する技術は、発話を解析するための自動音声認識(ASR)に関する。特に、開示する技術は、意味のある結果をエンドユーザに提供できるよう、音声認識システムにおける音響モデルを識別し、選択し、実装することに関する。開示する技術は、発話音声をその他のデータ(すなわちメタデータ)とともに受信したときに、どの音響モデルを実装すべきかを判断することができる。上記その他のデータは、デバイス(たとえば、エスプレッソマシンまたは洗濯機または乗物といったエンドユーザのデバイス)の種類および/またはこのデバイスの1つ以上の状態を示すデータである。また、開示する技術は、意味のある結果を提供できるようにするためには、どの種類の音響モデルを実装すべきか、または、最も実装すべきかを、製品の製造者または開発者が選択できるようにするインターフェイスを有する音声認識システムを提供する。
開示する技術の具体的な側面は、請求項、明細書および図面に記載される。
音声認識および自然言語理解システムによって実装される包括的フレームワークを示すブロック図である。 自然言語理解(NLU)のための言語モデルと音響モデルとの間のやり取りの実施形態の一例を示すブロック図である。 各種音響モデルを実装できる環境の一例の図を示す。 各種音響モデルを実装できる図3の環境の実装の一例を示す。 各種音響モデルを実装できる図3の環境の実装の一例を示す。 各種音響モデルを実装できる図3の環境の実装の一例を示す。 各種音響モデルを実装できる図3の環境の実装の一例を示す。 カスタマイズされた音響モデルを訓練することができる図3の環境の実装の一例を示す。 図3の環境の各種要素を実装出来るコンピュータシステムの一例のブロック図である。
詳細な説明
以下、図面を参照しながら詳細な説明を行う。開示する技術を、請求項によって定められるその範囲を限定するためではなく、明らかにするために、実装例を説明する。以下の説明について各種の均等な変形を当業者は認識するであろう。
図1は、音声認識および自然言語理解システム(たとえば自然言語理解プラットフォーム/サーバ)によって実装される包括的フレームワークを示すブロック図である。音声認識および自然言語理解システムの最新の実装例において、一般的に、音声認識は、先ず一列の単語または一組の単語列仮説を生成するために適用される。この種のシステムは、音声認識と言語または言語学的認識との組み合わせであると言われることがある。音声認識出力は、意味を抽出するためにNLUシステムに送られる。
図1を参照して、包括的フレームワーク100は、自然な言語の発話を含む発話音声を受ける。発話音声の一例として、ある人物が発声した「ice cream cone(アイスクリームコーン)」というフレーズの録音を挙げる。この発話音声は、いずれのソースからでも受けることができる(たとえば、携帯電話、洗濯機、乗物など)。
次に、音響フロントエンド102が音響モデル103を用いてこの発話音声を解析することにより、発話音声から音素を抽出する。これは音響認識と呼ばれることが多い。この動作の一例として、受けた発話音声に基づいて音素「AY S <sil> K R IY M <sil> K OW N」(カーネギーメロン大学(Carnegie Mellon University)(CMU)の音素セットによって表したもの)を生成することを挙げる。
次に、音響フロントエンド102が生成した音素を、言語モデル104が受ける。言語モデル104を実装することにより、検出された音素(たとえば「AY S <sil> K R IY M <sil> K OW N」)を「ice cream cone」のような実際の文に転写することができる。音素をトランスクリプションに転写することは、単純なプロセスではなく、さまざまな要素が関わっている。
1つ以上のトランスクリプションが決まると、NLUシステムが自然言語理解106を実行することにより、「ice cream cone」というトランスクリプションから意味を抽出する。意味は、ドメインもしくはバーティカルに基づく、または周辺コンテキストに基づくトランスクリプションに関係があることが多い。たとえば、バーティカルが、食品の検索に、またはより具体的には食品を提供する場所の検索に関係がある場合、「ice cream cone」というトランスクリプションに適用される意味により、即時消費されるアイスクリームを提供するローカルな(最も近い)場所の検索を実現することができる。これに対し、バーティカルが、後で消費される食品を販売する場所(たとえば食品雑貨店)に関係がある場合、その意味は、アイスクリームコーンを販売する食品雑貨店またはマーケットの検索をもたらす。
開示する技術は、受けた音声から音素を生成するために最良の音響モデルを作成し、選択し、実装することに向けられる。過去、最良のトランスクリプションおよび最良の意味を求めるために多大な労力が費やされてきたが、いかなるときでも実装する最良のまたは最適な音響モデルを決定することには、今までそれほど大きな労力は費やされてこなかった。
図2は、自然言語理解のための言語モデルと音響モデルとの間のやり取りの実施形態の一例を示すブロック図である。図2は、単に図1をより詳しくしたものであり、発話音声をユーザから受けてから、ユーザに対する意味のある応答を求めるまでの、プロセスまたはフローの一例を示す。開示する技術は、カスタム音響モデルの作成、選択、および実装に向けられているが、図2は、自然言語理解(natural language understanding)(NLU)を実行するために必要な各種ステップおよび処理のフレームワークの良い例を提供する。図2を参照しながら説明するすべての動作が開示する技術の実装に必要な訳ではない。開示する技術は、多くの異なるやり方でカスタム音響モデルの作成、選択、および実装を行うことができ、上記やり方のうち、図2の説明と一致するものと、図2の説明と一致しないものとがある。
一例としての実施形態200は、音響フロントエンド204と、音響モデル206と、単語列認識器208と、言語モデル210とを含む自動音声認識(ASR)システム203を含む。一例としての実施形態200はまた、自然言語理解212を含む。ある人物が発話すると、自然言語発話を含む発話音声202が、音響フロントエンド204に入力される。音響フロントエンド204は、1つ以上の音響モデル206を用いて発話音声202の音響特徴を処理する。ASRシステム203は、たとえば音響フロントエンド204が1つ以上の音響モデル206から1つの音響モデルを選択するのを支援するために使用される選択基準(たとえばメタデータ)を受けることもできる。さらに、音響フロントエンドは1つ以上の音素列を生成する。
単語列認識器208は、音響フロントエンド204から1つ以上の音素列を受け、言語モデル210からの1つ以上の言語モデルを実装することにより、上記音素を転写する。ASRシステム203は、最良の音素および/またはトランスクリプションを求めるために各種スコアリングシステムを実装することができる。たとえば、起こり得る各音素列は、この列が意図されている列である可能性が最も高い確率を示すスコアに、関連付けることができる。たとえば、話者が「I read a good book(私は良い本を読む)」と言う場合を想定する。(下記の)表1は、音素列の選択肢の例を、音響フロントエンド204が生成するであろうスコアとともに示す。音素列は、カーネギーメロン大学(CMU)の音素セットのような音素セットまたはその他いずれかの発音表記を用いて表すことができる。
Figure 0006874037
表1において、これら3つの非常に良く似た音素列間の相違に注意を促すために特定の音素が太字で表されているのがわかる。3番目の選択肢としての音素列は、間違ったトランスクリプションであるものの、音響スコアが最も高い。この種の誤りは、雑音、アクセント、または各種音声認識システムの欠陥によって生じる。これは、適切な音響モデルの実装が何故有益であるかを示す1つの例である。
次に、上記トランスクリプションに対して自然言語理解(NLU)212を実行することにより、最終的には発話音声202の意味のある表現(またはデータ構造)を見出す。
開示する技術は、たとえば音響フロントエンド204によって実装されるカスタム音響モデル(たとえば音響モデル206)を選択することに関する。選択されたカスタム音響モデルは、一例としての実施形態200のような環境において、または、当業者には明らかであろうその他任意のフレームワークにおいて、実装することができる。
図3は、各種音響モデルを実装できる、一例としての環境300の図を示す。環境300は、少なくとも1つのユーザデバイス302、304、306を含む。ユーザデバイス302は、アプリケーション303を実行する、携帯電話、タブレット、ワークステーション、デスクトップコンピュータ、ラップトップまたはその他任意の種類のユーザデバイスであってもよい。ユーザデバイス304は自動車であってもよく、ユーザデバイス306は洗濯機であってもよく、これらは各々、アプリケーション303を実行する。これらのユーザデバイスのさまざまな実装例については、以下でより詳細に説明する。ユーザデバイス302、304、306は、環境300の各種コンポーネント間の通信を可能にする1つ以上の通信ネットワーク308に接続される。一実装例において、通信ネットワーク308はインターネットを含む。通信ネットワーク308は、専用またはプライベート通信リンクを利用することもできる。この専用またはプライベート通信リンクは、必ずしもインターネットの一部ではない。一実装例において、通信ネットワーク308は、標準通信技術、プロトコル、および/またはプロセス間通信技術を使用する。
環境300はまた、アプリケーション310を含む。アプリケーション310は、ユーザデバイス302、304、306に予めインストールしておくことができる、または、通信ネットワーク308を通してユーザデバイス302、204、306上で更新/インストールすることができる。環境300はまた、この音声認識システムの一部である音声認識プラットフォーム/サーバ311を含む。音声認識プラットフォーム/サーバ311は、1つのコンピューティングデバイス(たとえばサーバ)であってもよく、またはクラウドコンピューティングデバイスであってもよく、または、意味のある音声認識を実行するのに必要な各種タスクを実行するために互いに通信することができるコンピューティングデバイス、クラウドコンピューティングデバイス等を任意に組み合わせたものであってもよい。音声認識プラットフォーム/サーバ311は、フレーズ解釈器312を含み、フレーズ解釈器312は、たとえば、図1を参照しながら先に説明した包括的フレームワーク100の機能を実行する。音声認識プラットフォーム/サーバ311は、複数のサーバ上および/またはクラウドコンピューティングデバイス上に広げることができるので、フレーズ解釈器312の動作も、複数のサーバ上および/またはクラウドコンピューティングデバイス上に広げることができる。アプリケーション310は、発話入力を理解するために、フレーズ解釈器312によって使用されるおよび/またはフレーズ解釈器312とともに使用することができる。環境300の各種コンポーネントは、セキュリティおよび効率のためにカスタマイズされたアプリケーションプログラムインターフェイス(API)を用いて互いに通信する(データをやり取りする)ことができる。
ユーザデバイス302、304、306およびフレーズ解釈器312は各々、データおよびソフトウェアアプリケーションの格納のためのメモリと、アプリケーションを実行する際にデータにアクセスするためのプロセッサと、ネットワーク308を介した通信を容易にするコンポーネントとを含む。ユーザデバイス302、304、306は、ウェブブラウザ(たとえばユーザデバイス302上で実行されるウェブブラウザアプリケーション303)等のアプリケーション303を実行する。このアプリケーション303は、開発者がアプリケーション310を作成して投入できるようにするため、および、フレーズ解釈器312によって解釈される自然言語発話を含む発話音声をユーザが投入できるようにするための、アプリケーションである。フレーズ解釈器312は、実質的に、図1を参照しながら先に述べた包括的フレームワーク100の機能を実行する。
環境300はまた、音響モデル選択インターフェイス320を含む。選択インターフェイス320は、開発者および/またはユーザが、音響モデル322のリポジトリから1つ以上の適切な音響モデルを選択できるようにする。音響モデル322のリポジトリは、必ずしも同じ場所に格納されていなくてもよく、各種ソースからの音響モデルを集めたものであってもよい。音響モデルは、開発者および/またはエンドユーザが特定の実装例に応じてカスタマイズすることができる。音響モデル選択インターフェイス320は、ブラウザまたはコマンドラインインターフェイスのような、フレーズ解釈器312が実装する音響モデルを選択させることができる、任意の種類のインターフェイスであればよい。さらに、フレーズ解釈器312が実装する複数の音響モデルが選択されてもよく、フレーズ解釈器312は、いずれかの所与のポイントで実装される最良の音響モデルを知的に選択することができる。音響モデルの選択と実装に関する詳細は、以下で他の図面を参照しながら説明する。
フレーズ解釈器312は、1つ以上の音響モデル314、言語モデル316、および自然言語ドメイン318を実装する。図1を参照しながら先に説明した音響モデル314は、音素および/または音声トークンを出力することができる。フレーズ解釈器312の言語モデル316は、受けた発話音声のトランスクリプションを作成する。言語モデル316は、別の言語解析のアプリケーションを追加する一段または多段モデルであればよい。たとえば、音響モデル314は、受けた発話音声を処理して音素を生成することができる。これらの音素は、音素の列を検討しスコアを付ける言語モデル316に送ることができる。言語モデル316は、場合によってはダイフォン(diphone)またはトライフォン(triphone)解析を用いることにより、見込みのある音素の列を認識することができる。言語モデル316は、統計的言語モデルを用いることにより、統計的に見込みのある単語の列を認識することができる。
フレーズ解釈器312が実装する自然言語ドメイン318は、受けた発話音声のトランスクリプションに実際の意味を加えるものである。図1を参照しながら先に述べたように、自然言語ドメイン318は、トランスクリプションにコンテキストと意味とを与えることができる。本明細書において以下でさらに説明する簡単な例として、洗濯機306が「今日の試合のサッカージャージを洗濯して下さい」という発話音声を送信するとする。フレーズ解釈器312が音素およびトランスクリプションを正しく生成すると、自然言語ドメイン318は、冷水を特別に長い浸漬・すすぎサイクルに使用することを洗濯機に命令することにより、転写されたフレーズに意味を与えることができる。これに代えて、単に「サーカージャージを洗濯せよ」という命令を自然言語ドメイン318が洗濯機306に送り、実現すべき洗濯設定を洗濯機306が知的に判断するようにしてもよい。
フレーズ解釈器312は、少なくとも1つのハードウェアコンポーネントを用いて実装され、ファームウェア、またはハードウェア上で実行されるソフトウェアも含み得る。ハードウェアと組み合わされてフレーズ解釈器312のアクションを実行するソフトウェアが、回転または非回転メモリ等のコンピュータ読取可能媒体に格納されてもよい。非回転メモリは、揮発性であっても不揮発性であってもよい。本願において、コンピュータ読取可能媒体は、メモリに格納されない一時的な電磁信号は含まない。コンピュータ読取可能媒体は、実行のためのプログラム命令を格納する。フレーズ解釈器312だけでなく、音響モデル選択インターフェイス320、アプリケーション310、および音響モデル322のリポジトリは、その全体または一部が、クラウドにおいて、または、通信ネットワーク308を介して接続された他のエンティティによって、ホストおよび/または実行されてもよい。
図4は、各種音響モデルを実装できる図3の環境の実装例を示す。特に、図4は、図3の環境300を示し、それに加えて、音声認識のクライアントデバイスとして洗濯機306が使用される実装例を示す。図4はユーザデバイスとして洗濯機306を実装する例を提供するが、洗濯機306の代わりにその他任意のユーザデバイスが使用されてもよい。言い換えると、この実装例は、ユーザデバイスとして洗濯機306のみに限定されない。
具体的には、図4は、ユーザ402がマイク/スピーカーインターフェイス(図示せず)を用いて直接洗濯機306とやり取りをすること、および、ユーザ402は携帯電話404等の別の電子機器を用いて洗濯機306とやり取りできることを示している。一例として、ユーザ402は、発話音声を「今日の試合のサッカージャージを洗濯して下さい」として洗濯機306に伝えてもよい。この場合も、この発話音声は、洗濯機306に直接伝えられても、携帯電話404を介して洗濯機306に伝えられてもよい。すると、洗濯機306は、通信ネットワーク308を介して、録音された発話音声を、音声認識および自然言語理解を実施する音声認識プラットフォーム/サーバ311に与える。これに代えて、携帯電話404が、録音された発話音声を、通信ネットワーク308を介して音声認識プラットフォーム/サーバ311に伝えてもよい。そうすると、音声認識プラットフォーム/サーバ311は、フレーズ解釈器312を実装する。洗濯機306は、発話音声とともに、メタデータも送信する。なお、メタデータは、洗濯機306から通信ネットワーク308に送信されてもよく、および/または、洗濯機306から携帯電話404に送信された後に携帯電話404から通信ネットワーク308に送信されてもよい。音声認識プラットフォーム/サーバ311に伝達される発話音声およびメタデータを得るための、洗濯機306、携帯電話304、および通信ネットワーク308間の通信のその他の組み合わせは、当業者には明らかであろう。
次に、フレーズ解釈器312は、適切な音響モデル314を選択するためにメタデータを使用する。メタデータは、適切な音響モデル314の選択を支援する有効な情報を含み得る。たとえば、メタデータは、デバイスタイプおよび特定のデバイス状態のうちの一方または双方を含み得る。具体的には、メタデータは、(i)洗濯機306の一意的な識別(たとえば、デバイスタイプ、型番、シリアルナンバー等)、(ii)洗濯室内の温度および/または環境状態等の使用状態、(iii)屋外の天候等のその他の環境状態、(iv)周囲の音響に影響し得る情報、(v)音響モデルの精度に干渉する可能性があるその他の種類の雑音に関する情報、(vi)洗濯機306の現在の動作状態、および、乾燥機または洗濯用シンク等の近くに位置するその他のデバイスの動作状態、ならびに(vii)洗濯機306の1つ以上のハードウェアおよびソフトウェアコンポーネントに関する、または、発話音声の受信に必要なおよび/またはユーザに音声フィードバックを与えるための他のコンポーンメントに関する情報を、含み得る。一般的に、音響モデルの選択および調節を最適化するシステムの能力は、発話とともにより多くのメタデータ情報を得ることによって改善される。
フレーズ解釈器312が発話音声およびメタデータを受けると、フレーズ解釈器312(または音声認識を実行する全体のシステムまたはプラットフォームのその他いくつかのコンポーネント)は、音素を抽出するにはどの音響モデルが最適かを判断することができる。いくつかの実施形態は、洗濯機306の型番またはデバイスタイプのみを使用し、フレーズ解釈器312は、その特定のデバイスタイプに合わせて作成されたまたは調整された音響モデルを選択することができる。これは先に述べたその他の可能なメタデータについても同じである。さらに、洗濯機306のユーザを特定できる場合は、この特定のユーザの声に合わせて調整された音響モデルを実装することができる。なお、さまざまな音響モデルのさまざまな特徴を組み合わせてもよい。たとえば、特定のユーザの声に合わせて音響モデルを調整する特徴を、乾燥機の雑音に合わせて調整された音響モデルの特徴と組み合わせることができる。これは、メタデータに含まれる数多くの情報、および、音声認識プラットフォーム/サーバ311が自由に使用できる各種音響モデルに基づいて知的に作成および実装される、ミックスアンドマッチタイプの音響モデルである。
音声認識サービスの開発者または加入者は、特定のデバイスに対して実装するためにどの音響モデルを利用できるかを予め選択することができる。フレーズ解釈器312は、これらの予め選択された音響モデルを格納することができる、および/または音響モデル322のリポジトリからこれらの予め選択された音響モデルを得ることができる。フレーズ解釈器312は、最適な音響モデル314の選択に役立つであろうその他の状態406を得ることもできる。フレーズ解釈器312は、必要な情報を受けると、その仕事にとって最適な音響モデル314を選択した後に、選択した音響モデル314を使用して音素を生成し、次に言語モデル316を実装することによって音素を転写し、次に自然言語ドメイン318を適用することによって意味のある命令を与えることができる。
メタデータはまた、自然言語ドメイン318を支援する情報を含み得る。たとえば、特定の種類の天候(たとえば降雨)を示す情報をメタデータが含む場合、フレーズ解釈器312は、この天候状態によりサッカージャージは泥だらけである可能性が最も高いという知的な判断を下すことができる。フレーズ解釈器312から与えられる意味のある命令は、特定の種類の石鹸を投入する、追加の洗浄・すすぎサイクルを実行する、特定の水温を使用するといった洗濯機306に対する命令であってもよい。これに代えて、フレーズ解釈器312から与えられる意味のある命令は、単純に「汚れたスポーツユニフォーム」であってもよく、そうすると、実現すべき洗浄サイクルおよびオプションを洗濯機306が知的に判断する必要がある。いずれにしても、意味のある命令を与えることができるようにするための最も効率が高く正確な方法は、適切な音響モデルを選択できるようにすることである。発話音声を受ける状態に合わせて音響モデルが「調整」または「訓練」されていない場合、言語モデル316および自然言語ドメイン318が成功を収める可能性は大幅に低下する。
洗濯機306および/またはユーザ402に返される意味のある情報は、さらに明確にすることを求める要求等である可能性がある。そうすると、ユーザ402および/または洗濯機306は、それに答えて追加情報をフレーズ解釈器312に提供すればよい。加えて、その他の状態406は、洗濯機306がメタデータに与えることができる情報であってもよいが、その他のソース(たとえば、天候、ユーザのカレンダー情報等)から学習されてもよい。たとえば、フレーズ解釈器312がサッカーの試合のおおよその日付/時間および場所を知ることができる場合は、天候、シミが付いてからの経過時間、およびサッカー競技場のグラウンドの種類(たとえば、人工芝、赤土等)を、より正確に知ることができるであろう。
図5は、各種音響モデルを実装できる図3の環境の実装例を示す。特に、図5は、図3の環境300を示し、さらに、自然言語認識のためにクライアントデバイスとして乗物304が使用される実装例を示す。図5はユーザデバイスとして乗物304を実装する例を提供するが、乗物304の代わりにその他任意のユーザデバイスが使用されてもよい。言い換えると、この実装例は、ユーザデバイスとして乗物304のみに限定されない。
具体的には、図5は、乗物304がユーザデバイスであり、乗物304が発話音声とメタデータとを、自然言語理解を実施する音声認識プラットフォーム/サーバ311に送信することを示している。図4に関する上記説明と同様、発話音声およびメタデータは、乗物304自体および1つ以上のモバイルデバイスといった通信機器を組み合わせたものを用いて送受信することができる。この乗物304を使用する例は、状態および意味のある命令が全く異なることを除いて、洗濯機306に関して先に述べたプロセスと同一のプロセスに従う。乗物304は複数のマイクおよびスピーカならびに運転者および同乗者の各種構成を有し得るので、発話している1人または複数の同乗者の位置を特定することが有益になる。さらに、乗物304は、その位置および運転の種類に応じて、多くの異なる種類の雑音環境に晒される可能性がある。ニューヨークのダウンタウンで交通渋滞が生じているかもしれず、雹の嵐が発生しているかもしれず、泣いている幼児がいるかもしれず、この乗物の窓が開けられているかもしれず、ラジオがついているかもしれず、高い回転数(RPM)もしくは低いRPMで走行しているかもしれず、または、乗物304がトンネルの中であるかもしれない。乗物304は、常にこれらの状況すべてをモニタリングしユーザが音声認識を呼び出したときに使用できる適切なメタデータを格納することができる。加えて、ユーザのモバイルデバイスから収集したメタデータを、乗物304が格納および/または送信することもできる。
一例として、乗物304の後部座席の同乗者が「グランマ・モーゼスの携帯電話に電話して」と言う場合を想定する。洗濯機306について先に述べたメタデータの他に、メタデータは、同乗者の声の録音に使用した1つのマイクおよび/または複数のマイク、乗物304の窓は開いていたか閉じていたか、乗物304の暖房、換気、および空調(heating ventilation and air conditioning)(HVAC)はフル回転であったか否か等に関する情報、ならびに、最良の音響モデルの選択に影響する可能性がある収集可能なその他の情報を含み得る。
図6は、各種音響モデルを実装できる図3の環境の実装例を示す。特に、図6は、図3の環境300を示し、さらに、自然言語認識のためにクライアントデバイスとして乗物304が使用される実装例を示す。図6はユーザデバイスとして乗物304を実装する例を提供するが、乗物304の代わりにその他任意のユーザデバイスが使用されてもよい。言い換えると、この実装例は、ユーザデバイスとして乗物304のみに限定されない。
図6は、異なる実施形態が示されている点以外、図5に極めてよく似ている。
これらの実施形態のうちの1つは、乗物304が、ローカルに格納された一組の音響モデル322から適切な音響モデルを選択しその後意味のある命令を考え出すことを含む。この実施形態は、音響モデルを選択するという負担を音声認識プラットフォーム/サーバ311から取り除き、乗物304が最良の音響モデルを選択できるようにする。開発者および/またはユーザは、乗物304を、この乗物304用にカスタマイズされた音響モデルを備えるように予め構成してもよく、そうすると、この乗物は、自身で音響モデルを選択することができる。図6に示されるように、乗物304は実装する音響モデル406を格納することができる。乗物304は、音響モデルを自身で実装することができる、または、音響モデルを通信ネットワーク308を介して送信することができる。
別の実施形態において、乗物304は、(i)自身で音響モデルを選択して実装することにより、意味のある命令を取得し、(ii)発話音声、メタデータ、および意味のある命令を音声認識プラットフォーム/サーバ311に送信することができる。すると、フレーズ解釈器312は、自身で音響モデル314を選択して意味のある結果を構築するために発話音声およびメタデータを検討することができる。その後、フレーズ解釈器312は、自身の意味のある命令を、乗物304から受けた意味のある命令と比較することにより、最良の意味のある命令を決定し、この最良の意味のある命令を乗物304に送信することができる。この実装例は、音声認識プラットフォーム/サーバ311がより正確な音響モデルで更新されているまたはその逆の可能性がある状況において、有益であろう。
音声認識を実装するユーザデバイスは多種多様である可能性があり、そのようなユーザデバイスは常に増加しているので、図4〜図6に関する説明は例にすぎない。
図7は、各種音響モデルを実装できる図3の環境の実装例を示す。特に、図7は、図3の環境300を示し、さらに、実装および/または訓練等のためのカスタム音響モデルを開発者が選択するために使用できるインターフェイス702を示す。
具体的には、図7は、音響モデル選択インターフェイス320が開発者にインターフェイス702を提供することを示している。インターフェイス702は、カスタマイズされたアプリケーションまたはプログラムを通して提供されるグラフィカルユーザインターフェイスであってもよく、または、ウェブブラウザを通して閲覧できるものであってもよい。当業者は、インターフェイス702が包含するさまざまな種類のインターフェイスを認識するであろう。たとえば、インターフェイス702は、テキスト命令に対して応答するコマンドラインインターフェイスであってもよい。さらに、インターフェイス702は、種類が異なる状態、デバイスタイプ等に対して実現する異なるモデルを開発者が選択できるようにすることができる。この例において、開発者は、第1の状態に対して音響モデルAまたは音響モデルBのいずれを実装すべきかを選択することができる。第1の状態は、ユーザデバイス(たとえばエスプレッソマシン)が家庭環境またはビジネス/商業環境において使用されているか否かであってもよい。ユーザデバイスは、雑音を発する機器が近くにあるか否かに関連し得る第2の状態に対して音響モデルCまたは音響モデルDのいずれかを選択することもできる。たとえば、豆挽き器が近辺にあることがわかっているまたは近辺にあると予想されるときに開発者は音響モデルCを選択することができる。この例では、開発者が音響モデルB(家庭での使用)および音響モデルC(豆挽き器がごく近くにある)を選択したと想定する。
それに応じて、音響モデルBおよびCを、デバイスIDに関連付けて、または、本明細書に記載のその他任意の種類のIDに関連付けて格納することができる。フレーズ解釈器312が最良の音響モデルを選択する実装例では、フレーズ解釈機312が音響モデルBおよびCを送信および/または格納してもよく、または、音響モデルBおよびCの場所をフレーズ解釈器312に認識させ、音響モデルBおよびCが特定の識別子(ID)についてのエスプレッソマシンに関する選択肢であることをフレーズ解釈器312に認識させるようにしてもよい。そうすると、フレーズ解釈器312は、発話音声とともに受信したメタデータに基づいて、音響モデルBまたは音響モデルCのいずれかを選択することができる。加えて、先に述べたように、音響モデルをミックス・マッチする(部分的に組み合わせる)ことによって最高の結果を提供することができる。
これに代えて、音響モデルBおよび音響モデルCをユーザデバイス302(たとえばエスプレッソマシン)に送信し、適切な音響モデルをユーザデバイス302が選択できるようにしてもよい。ユーザデバイス302、304、306上で実行されているアプリケーションの開発者がインターフェイス702から音響モデルを選択してもよい。
音響モデル選択インターフェイス320は、発話音声をメタデータとともに音声認識プラットフォーム/サーバ311に提供することもでき、これは、発話音声およびメタデータがユーザデバイス302、304、306から音声認識プラットフォーム/サーバ311に送られるのとは対照的である。
たとえば、開発者は、コンピュータシステム上で実行されているインターフェイス702を通して、特定種類のユーザデバイス(たとえば洗濯機306)に適した少なくとも2つの音響モデルで構成される一組の音響モデル(または音響モデル1つだけ)を選択することができる。次に、その後の時点において、音響モデル選択インターフェイス320が受けた発話音声およびメタデータを、音響モデル選択インターフェイス320を実行しているコンピュータシステムを介して、および/またはユーザデバイスから、音声認識プラットフォーム/サーバ311に送信することができる。すると、音声認識プラットフォーム/サーバ311は、(フレーズ解釈器312を用いて)、音響モデル選択インターフェイス320を実行しているコンピュータシステムに、上記一組の音響モデルのうちの1つの音響モデルの選択に応じて、意味のある命令を与える。フレーズ解釈器312は、メタデータに基づいて、上記一組のモデルから1つのモデルを知的に選択してから意味のある命令を決定することができる。
これに代えて、音響モデル選択インターフェイス320を実行しているコンピュータシステムは、メタデータまたはその他の情報に応じて一組の音響モデルから1つの音響モデルを選択し、その後、選択した音響モデルを実装するようフレーズ解釈器312に命令してもよい。
さらに、インターフェイス702上で開発者に対して提示される音響モデルは、特定種類のユーザデバイスに適した音響モデルとなるよう、予め選択することができる。特定種類の計算に適したこれらの音響モデルは、特定種類のユーザデバイスから受けたメタデータまたは特定種類のユーザデバイスに関連付けられたメタデータに応じて、このユーザデバイスのアクティブセッションにおいて、予め選択することができる。言い換えると、ユーザデバイスから受けたメタデータを解析し、受けたメタデータに応じて適切な音響モデルを予め選択してから、それを開発者に提示することができる。このような実装例の目的は、関連性がない音響モデルによって開発者に負担をかけないようにすること、または、有益ではなく有害な音響モデルを開発者が選択しないようにすることである。また、ユーザデバイスのアクティブセッション外であっても、開発者はさまざまな種類のユーザデバイスに適した音響モデルを選択することができる。先に述べたのと同様のやり方で、音響モデル選択インターフェイス320を実行しているコンピューティングシステムは、開発者が構成しているユーザデバイスの各タイプに適した音響モデルを予め選択することができる。
加えて、ユーザデバイス302、304、306の開発者および/または製造者は、これらユーザデバイス302、304、305のタイプ、および/またはこれらのユーザデバイス302、304、306を実装するかもしれないもしくは実装できる環境もしくは状態に合わせて特別に調整された、カスタマイズされた音響モデルを既に開発している、または訓練している場合がある。これらのカスタマイズされたモデルは、選択のためにインターフェイス702を介して開発者に提示することができる。音響モデルを訓練する環境については以下で図8を参照しながら説明する。
図8は、カスタマイズされた音響モデルを訓練することができる図3の環境の実装の一例を示す。特に、図8は、図3の環境300を示し、また、如何にして音響モデル322を実装の前に訓練できるかを示す。
具体的には、図8は、クリーン音声802および雑音804等の訓練データを音響モデルに入力することによってモデル訓練808を実行できることを示している。訓練される音響モデルは、開発者もしくは製造者から提供することができる、または、特定種類のデバイスおよび/または環境における実装用に訓練された一般モデルであってもよい。クリーン音声802は、一般的なものであってもよく、または、ユーザデバイス302、304、306が受信すると予想されるフレーズに基づいて特別に選択されてもよい。たとえば、異なる言語には異なる訓練音声が必要である。同様に、雑音804は、一般的なものであってもよく、または、ユーザデバイス302、304、306の動作環境において予想される雑音の種類に基づいて選択されてもよい。雑音804は、開発者および/または製造者から提供することができる。開発者および/または製造者は、雑音804を、カスタマイズされた雑音データの形態で提供することができる、または、雑音を生成するカスタマイズされた雑音モデルの形態でも提供することができる。開発者および/または製造者はまた、音響モデル322の一部として、即時実装用にカスタマイズされた音響モデルを提供することができ、開発者および/または製造者は、さらなるモデル訓練808のためにカスタマイズされた音響モデルを提供することができる。さらに、クリーン音声802および/または雑音804は、開発者および/または製造者が、音響モデル322からの音響モデルを自らで訓練し最終的にカスタマイズされ訓練された音響モデルを提供できるよう、開発者および/または製造者に提供されてもよい。音響モデル322のリポジトリをパースまたは分離することにより、ある開発者のおよび/または製造者のモデルが別の開発者および/または製造者によって実装されるというセキュリティ上の問題を防止することができる。
開発者および/または製造者は、音響モデル選択インターフェイス320と同様のインターフェイスを用いて、音響モデルを訓練することもできる。訓練された音響モデルは、図7を参照しながら先に述べたようにインターフェイス702を用いて選択することができる。
いくつかの実施形態は、たとえば各種アプリケーションを実行することによって各種ソフトウェア状態で動作することができる携帯電話等のデバイスである、またはデバイスに対するサーバとして機能する。どのアプリケーション(1つまたは複数)が実行されているかというステータスは、適切な音響モデルの選択に役立ち得る一種の状態である。たとえば、比較的低雑音の環境ではほとんどの場合電子メールアプリケーションが使用される。ナビゲーションアプリケーションは、乗物の道路または街路雑音が存在する可能性が高いことを示し得る。音楽プレーヤー、ビデオプレーヤー、またはゲーム等、音声を出力するアプリケーションは、背景音楽音に対して柔軟な音響モデルを好むであろう。
いくつかの実施形態は、各種物理またはハードウェア状態で動作するデバイスである、またはデバイスに対するサーバとして機能する。たとえば、モバイルおよびポータブルデバイスのジオロケーション(geolocation)または動きの種類は、音響モデルの選択を導くのに役立つ。たとえば、競技場内のデバイスは、背景音声について訓練された音響モデルを好み、高速で動くデバイスは、道路雑音について訓練された音響モデルを好むであろう。
基本的に、光レベルセンサ、加速度計、マイク、カメラ、衛星ナビゲーション(GPS等)受信機、およびBluetooth(登録商標)受信機といった携帯電話の中にあるどの種類のセンサも、カメラ、LIDAR、ジオロケーション、光レベル、牽引レベル、およびエンジン状態といった自動車の中にあるどの種類のセンサも、音響モデルの選択に役立つ情報を提供することができる。
いくつかの実施形態は、通常検出することができるデバイス状態データを収集し、それを、オンラインまたはオフラインで、教師ありまたは教師なしの機械学習アルゴリズムを用いて音声記録に適用することによって、所与のデバイス状態において最も正確に音響モデルを選択し調整するためのモデルを訓練する。
いくつかの実施形態は、発話音声に対応付けられたメタデータによって符号化されたデバイスタイプに従って音響モデルを選択する。このような実施形態のうちのいくつかは、複数種類のデバイス各々に対して一般コードを有する。それはたとえば、洗濯機、コーヒーマシン、および自動車を区別するコードである。いくつかの実施形態は、型番をメタデータとして符号化する。これは、家庭用コーヒーマシンと業務用コーヒーマシンとを区別する、またはスポーツ車と高級車とを区別するのに役立つ。いくつかの実施形態は、デバイスの各製品を一意に識別するシリアルナンバーを符号化する。これは、デバイスの実際の典型的な用途に合わせて音響モデルの選択をパーソナライズするのに役立ち得る。たとえば、コーヒーメーカーのいくつかのモデルは、ノイズ環境が異なる家庭および職場で使用できる。いくつかのデバイスはアクセントが異なる消費者によって購入される。デバイスのシリアルナンバーに基づいて音響モデルを選択することにより、選ばれた音響モデルが特定のアクセントを有する消費者にとって好都合な場合、音声認識の精度を高めることができる。
乗物およびウェアラブルデバイス等のいくつかの実施形態は、時折または常に、ネットワークを介して音声認識サーバにアクセスすることなく動作する。このような実施形態は、ローカルに格納された複数の音響モデル322のうちの1つ以上を用いて音声認識をローカルに実行する。デバイスタイプは特別に有用な種類のメタデータではないが、デバイス状態は、音声認識のために最良の音響モデルを発話ごとに選択するのに有用である。
メタデータによって導かれる音響モデルの選択を利用するローカル音声認識を実行するいくつかの実施形態は、メタデータを格納する記憶素子を含む。たとえば、自動車は、窓の位置、換気扇の状態、およびその音響システムの音量を示すメタデータを格納する。これらはすべて、さまざまな実施形態において適切な音響モデルを選択するのに役立つ。音響モデル選択方法のために実施形態において格納されるメタデータを使用することは、この方法を実行するためにメタデータが受信されると解釈されねばならない。
ネットワーク接続されたサーバベースのいくつかのシステムは、適切な音響モデルをデバイス内にローカルに格納し、発話ごとに、または状態の変化を検出するたびに、最良の音響モデルを選択する。ネットワークを介して音声認識サーバに発話を送信するとき、システムは、音響モデルを発話音声とともに送信する。
口述用、小語彙コマンド認識用、キーワード検索用、またはフレーズスポッティング用等のいくつかの実施形態は、自然言語理解なしで音声認識を実行し、いくつかの実施形態では言語モデルを使用しない。
いくつかの実施形態は、SoundHound社のHoundify(登録商標)のようなカスタム音声認識プラットフォームである、またはこれを含む。これらは、サーバベースの音声認識を提供し、いくつかの実施形態では、自然言語処理および仮想アシスタント機能も提供する。いくつかの実施形態に係るプラットフォームは、開発者がその特定のデバイスに合わせて音声認識をカスタマイズするためのインターフェイスを提供する。このようないくつかのプラットフォームは、単純に、音声認識が近距離場音響モデルを使用すべきかまたは遠距離場音響モデルを使用すべきかの選択を提供する。いくつかのプラットフォームは、語彙サイズ、マイクの数、アプリケーションの種類、雑音プロファイル、およびデバイスのプライスポイント等のその他多数の構成パラメータを提供する。
いくつかの実施形態は、このようなプラットフォーム構成インターフェイスを用いてある種のデバイス用の音声認識を構成する方法を含む。音声対応システムを開発する企業の中には、このようなプラットフォームを使用してそのクライアントデバイスのためにサーバベースの認識動作を構成する企業がある。いくつかの企業は、プラットフォームを用いて、デバイス上でローカルに実行する音声認識ソフトウェアを構成する。いずれの場合でも、いくつかのプラットフォームはテスト発話音声を認識する能力を提供し何人かの開発者はこの能力を利用する。いくつかのこのようなプラットフォームおよびユーザは、テスト発話音声をテストメタデータとともに提供することにより、その開発中のデバイスおよびシステムのための、意図する音響モデル選択の実行を、観察し変化させる。
いくつかの実施形態は、ハードディスクドライブ、ソリッドステートドライブ、またはフラッシュRAMチップ等のコンピュータ読取可能媒体を1つ以上含む。サーバシステムとともに機能するように設計されたいくつかのデバイスは、音響モデルの選択に役立つメタデータの検出をデバイスに実行させるようにデバイスを制御するためのソフトウェアを格納するこのようなコンピュータ読取可能媒体を含む。これは、たとえば、デバイスのローカルセンサから読出すまたは格納されているデバイスステータスを記憶媒体から読出すことによって可能である。このようなソフトウェアはまた、デバイスが発話音声を受信しこの発話音声とメタデータとをサーバに送信し、要求した情報をサーバから受信するように制御する。たとえば、発話音声は天気予報を求める要求であってもよく、受信しる情報は天気報告の記述であろう。別の例として、発話音声はテキストメッセージの送信を求める要求であってもよく、受信する情報はテキストメッセージ作成機能を実行するようデバイスを制御するデータ構造であろう。
本発明のための、記憶媒体においてデータを有するという受動的行為は、誰が記憶媒体にデータを書き込んだかにも、いつまたはどのようにして書込が行われたかにも関係なく、格納するという行為として解釈されねばならない。
図9は、図3の環境300の各種コンポーネントを実装できるコンピュータシステムの一例のブロック図である。典型的に、コンピュータシステム910は、バスサブシステム912を介して複数の周辺機器と通信する少なくとも1つのプロセッサ914を含む。これらの周辺機器は、たとえばメモリデバイスおよびファイル記憶サブシステムを含む記憶サブシステム924と、ユーザインターフェイス入力デバイス922と、ユーザインターフェイス出力デバイス920と、ネットワークインターフェイスサブシステム916とを含み得る。入出力装置により、ユーザはコンピュータシステム910とやり取りすることができる。ネットワークインターフェイスサブシステム916は、通信ネットワーク308へのインターフェイスを含む外部ネットワークへのインターフェイスを提供し、通信ネットワーク308を介してその他のコンピュータシステム内の対応するインターフェイスデバイスに結合される。
ユーザインターフェイス入力デバイス922は、キーボード、マウスやトラックボール等のポインティングデバイス、タッチパッドまたはグラフィクスタブレット、スキャナ、ディスプレイに組み込まれたタッチスクリーン、音声認識システム等の音声入力デバイス、マイク、およびその他の種類の入力デバイスを含み得る。一般的に、「入力デバイス」という用語の使用は、可能なすべての種類のデバイスと、コンピュータシステム910内にまたは通信ネットワーク308上に情報を入力する方法とを含むことを意図している。
ユーザインターフェイス出力デバイス920は、ディスプレイサブシステム、プリンタ、ファクシミリマシン、または、音声出力装置等の非視覚的ディスプレイを含み得る。ディスプレイサブシステムは、陰極線管(CRT)、液晶ディスプレイ(LCD)等のフラットパネルデバイス、投射デバイス、または可視画像を作成するためのその他何らかのメカニズムを含み得る。また、ディスプレイサブシステムは、たとえば音声出力デバイスを介した非視覚的ディスプレイを提供し得る。一般的に、「出力デバイス」という用語の使用は、可能なすべての種類のデバイスと、コンピュータシステム910からユーザにまたは別のマシンもしくはコンピュータシステムに情報を出力する方法とを含むことを意図している。
記憶サブシステム924は、本明細書に記載のモジュールのうちのいくつかまたはすべての機能を提供するプログラミングおよびデータ構成を格納する。これらのソフトウェアモジュールは一般的に、プロセッサ914が単独で実行する、または、プロセッサ914が他のプロセッサとともに実行する。
記憶サブシステムで使用されるメモリ926は、複数のメモリを含み得る。これらのメモリは、プログラム実行中に命令およびデータを格納するためのメインランダムアクセスメモリ(RAM)930、および、固定命令が格納される読出し専用メモリ(ROM)932を含む。ファイル記憶サブシステム928は、プログラムおよびデータファイルの永続記憶を提供することができ、ハードディスクドライブ、対応付けられたリムーバブル媒体とともにフロッピー(登録商標)ディスクドライブ、CD−ROMドライブ、光学ドライブ、またはリムーバブル媒体カートリッジを含み得る。特定の実施形態の機能を実装するモジュールが、ファイル記憶サブシステム928によって記憶サブシステム924にまたはプロセッサがアクセス可能なその他のマシンに格納されてもよい。
バスサブシステム912は、コンピュータシステム910の各種コンポーネントおよびサブシステムが意図される通りに相互通信するためのメカニズムを提供する。バスサブシステム912は1つのバスとして概略的に示されているが、バスサブシステムの代替実施形態は複数のバスを使用し得る。
コンピュータシステム910は、ワークステーション、サーバ、コンピューティングクラスタ、ブレードサーバ、サーバファーム、またはその他いずれかのデータ処理システムもしくはコンピューティングデバイスを含む多種多様な種類のものであってもよい。コンピュータおよびネットワークは絶えず変化しているので、図9に示されるコンピュータシステム910の説明は、各種実施形態を説明するための具体例を意図しているにすぎない。その他多くのコンピュータシステム910の構成が可能である。
いくつかの具体的実装例
音声認識を実行するための各種実装例について説明する。
開示される技術は、システム、方法、または製品(コードを格納する非一時的なコンピュータ読取可能媒体(computer readable medium))として実施することができる。ある実装例の1つ以上の特徴を、基礎となる実装例と組み合わせることができる。相互に排他的ではない実装例は組み合わせることができると教示される。ある実装例の1つ以上の特徴をその他の実装例と組み合わせることができる。この開示は定期的にこれらの選択肢をユーザに思い出させる。これらの選択肢を繰り返す記載がいくつかの実装例から省略されていたとしても、それは前のセクションで教示した組み合わせを制限するものとみなされてはならない。これらの記載を、以下の実装例各々に、引用により援用する。
開示される技術のシステム実装例は、メモリに結合された1つ以上のプロセッサを含む。このメモリには、各種動作を実行するコンピュータ命令がロードされる。開示される技術のCRM実装例は、1つ以上のコンピュータによって実行されると当該1つ以上のコンピュータに各種動作を実行させるコードを格納する非一時的なコンピュータ読取可能媒体を含む。システム実装例およびCRM実装例は、下記方法実装例のうちのいずれかを実行することができる。
一実装例において、複数の異なるデバイスの音声認識を実行する方法が提供される。この方法は、異なるデバイス状態に対応付けられた複数の音響モデルを格納するステップと、自然言語発話を含む発話音声を受信するステップと、デバイス状態を示すメタデータを受信するステップと、受信したデバイス状態を示すメタデータに応じて、音響モデルを複数の音響モデルから選択するステップと、選択した音響モデルを使用して、受信した発話音声に含まれる自然言語発話からの音声を認識するステップとを含む。
別の実装例において、複数の異なるデバイスの音声認識を実行する方法が提供される。この方法は、異なるデバイスタイプに対応付けられた複数の音響モデルを格納するステップと、自然言語発話を含む発話音声を受信するステップと、デバイスタイプを示すメタデータを受信するステップと、受信したデバイスタイプを示すメタデータに応じて、音響モデルを複数の音響モデルから選択するステップと、選択した音響モデルを使用して、受信した発話音声に含まれる自然言語発話からの音声を認識するステップとを含む。
さらに、他の実装例において、デバイス固有の音声認識を構成するためのプラットフォームを提供する方法が提供される。この方法は、特定のタイプのデバイスに適した少なくとも2つの音響モデルのセットを開発者が選択するためのユーザインターフェイスを提供するステップと、少なくとも2つの音響モデルのセットの選択を開発者から受信するステップと、音声認識システムを構成してデバイス固有の音声認識を実行するステップとを含む。
別の実装例において、デバイス固有の音声認識を実行するための音声認識システムを構成する方法が提供される。この方法は、特定のデバイスタイプのデバイスから、自然言語発話を含む発話音声と、受ける発話音声に対応付けられたメタデータとを受信するステップと、受信したメタデータに応じて少なくとも2つの音響モデルから1つの音響モデルを選択するステップと、選択した音響モデルを用いて、受信した発話音声に含まれる自然言語発話からの音声を認識するステップとを含む。
さらに他の実装例において、デバイス固有の音声認識を構成するためのプラットフォームを使用する方法が提供される。この方法は、コンピュータシステムが提供するユーザインターフェイスを通して、特定のタイプのデバイスに適した少なくとも2つの音響モデルのセットを選択するステップと、プラットフォームに対応付けられた音声認識システムに、発話音声をメタデータとともに提供するステップと、コンピュータ音声認識システムから意味のある命令を受信するステップとを含み、この意味のある命令は、音声認識システムが、上記セットに含まれる音響モデルのうちの1つの音響モデルの選択に応じて生成する。
別の実装例において、コードを格納する非一時的なコンピュータ読取可能媒体が提供される。このコードは、1つ以上のコンピュータによって実行されると、音響モデルの選択に有用でありかつデバイス状態を示す情報を検出し、発話音声を受信し、検出した情報と受信した発話音声とを送信し、発話音声の音声によって要求した情報を受信することを、上記1つ以上のコンピュータに実行させる。検出された情報を用いることにより、異なるデバイス状態に対応付けられた複数の音響モデルから音響モデルを選択することができ、選択した音響モデルを用いて、送信された発話音声からの音声を認識する。
システム、方法、および製品に適用可能な特徴は、基本的特徴の法定クラスごとに繰り返される訳ではない。このセクションにおいて特定された特徴を他の法定クラスにおける基本的特徴と如何にして簡単に組み合わせることができるかを、読み手は理解するであろう。

Claims (16)

  1. デバイス固有の音声認識を構成するためのプラットフォームを提供する方法であって、前記方法は、
    特定のタイプのデバイスに適した少なくとも2つの音響モデルのセットを開発者が選択するためのユーザインターフェイスを提供するステップと、
    前記少なくとも2つの音響モデルのセットの選択を開発者から受信するステップと、
    音声認識システムを構成して、前記少なくとも2つの音響モデルのセットの中の1つの音響モデルを使用して、前記特定のタイプのデバイス固有の音声認識を実行するステップとを含む、方法。
  2. 前記デバイス固有の音声認識は、
    前記特定のタイプのデバイスから、自然言語発話を含む発話音声を受信し前記受信する発話音声に対応付けられたメタデータを受信することと、
    前記受信したメタデータに応じて、前記セットの前記少なくとも2つの音響モデルから1つの音響モデルを選択することと、
    前記選択した音響モデルを使用して、前記受信した発話音声に含まれる前記自然言語発話からの音声を認識することとを含む、請求項1に記載の方法。
  3. 前記メタデータは、前記特定のタイプのデバイスに従って前記セットに含まれる音響モデルを特定する、請求項2に記載の方法。
  4. 前記メタデータは前記デバイスの特定のデバイス状態を特定し、前記音声認識システムは、前記特定のデバイス状態に応じて前記セットから前記1つの音響モデルを選択する、請求項2に記載の方法。
  5. 前記特定のタイプのデバイスに適したカスタム音響モデルを受信するステップと、
    前記セットの前記音響モデルのうちの1つとして選択される前記カスタム音響モデルを前記ユーザインターフェイス内に提供するステップとをさらに含む、請求項1〜請求項4のいずれか1項に記載の方法。
  6. 前記特定のタイプのデバイスに適した訓練データを受信するステップと、
    前記受信した訓練データを用いて音響モデルを訓練するステップと、
    前記セットの前記音響モデルのうちの1つとして選択される前記訓練した音響モデルを、前記ユーザインターフェイス内に提供するステップとをさらに含む、請求項1〜請求項5のいずれか1項に記載の方法。
  7. デバイス固有の音声認識を構成するためのプラットフォームを使用する方法であって、前記方法は、
    コンピュータシステムが提供する開発者のインターフェイスを通して、特定のタイプのデバイスに適した少なくとも2つの音響モデルのセットを選択するステップと、
    カスタマイズされた雑音のデータを前記開発者のインターフェイスを通して提供するステップと、
    前記開発者のインターフェイスから、(i)前記開発者のインターフェイスを通して提供された前記カスタマイズされた雑音のデータおよび(ii)クリーンな音声のデータを用いて訓練された、カスタム音響モデルを受信するステップと、
    前記プラットフォームに対応付けられた音声認識システムに、発話音声をメタデータとともに提供するステップとを含む、方法。
  8. 前記特定のタイプのデバイスに適したカスタム音響モデルを前記開発者のインターフェイスに提供するステップをさらに含み、
    前記選択する音響モデルのセットは、前記提供するカスタム音響モデルを含む、請求項7に記載の方法。
  9. 前記特定のタイプのデバイスに適した音響モデルを訓練するための訓練データを提供するステップと、
    前記提供した訓練データに基づいて訓練された音響モデルを前記開発者のインターフェイスの中から選択するステップとをさらに含む、請求項7または請求項8に記載の方法。
  10. 前記メタデータは、前記特定のタイプのデバイスに従って前記セットに含まれる音響モデルを特定する、請求項7〜請求項9のいずれか1項に記載の方法。
  11. 前記メタデータは特定のデバイス状態を特定し、前記コンピュータシステムは、前記特定のデバイス状態に応じて前記セットから1つの音響モデルを選択する、請求項7〜請求項9のいずれか1項に記載の方法。
  12. 前記開発者からカスタマイズされた雑音のデータを受信するステップと、
    前記カスタマイズされた雑音のデータとクリーンな音声のデータとを用いて、前記カスタ音響モデルを訓練するステップと、
    前記デバイス固有の音声認識に利用される、訓練された前記カスタム音響モデルを提供するステップと、をさらに備える、請求項に記載の方法。
  13. 前記特定のタイプのローカルなデバイス上で、訓練された前記カスタム音響モデルを利用するステップをさらに備える、請求項7〜請求項11のいずれか1項に記載の方法。
  14. 前記音声認識システムにおいて、音声認識に利用される訓練された前記カスタム音響モデルを選択するステップをさらに備える、請求項7〜請求項11および請求項13のいずれか1項に記載の方法。
  15. 1つ以上のコンピュータによって実行されると請求項1〜請求項14のいずれか1項に記載の方法を前記1つ以上のコンピュータに実施させるコンピュータプログラム。
  16. 1つ以上のコンピュータと、
    前記1つ以上のコンピュータによって実行されると請求項1〜請求項14のいずれか1項に記載の方法を前記1つ以上のコンピュータに実施させるコンピュータプログラムを格納するメモリデバイスとを備えるコンピュータシステム。
JP2019029710A 2018-06-01 2019-02-21 カスタム音響モデル Active JP6874037B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/996,393 US11011162B2 (en) 2018-06-01 2018-06-01 Custom acoustic models
US15/996,393 2018-06-01

Publications (2)

Publication Number Publication Date
JP2019211752A JP2019211752A (ja) 2019-12-12
JP6874037B2 true JP6874037B2 (ja) 2021-05-19

Family

ID=68694122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019029710A Active JP6874037B2 (ja) 2018-06-01 2019-02-21 カスタム音響モデル

Country Status (3)

Country Link
US (4) US11011162B2 (ja)
JP (1) JP6874037B2 (ja)
CN (2) CN117198270A (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102225984B1 (ko) * 2018-09-03 2021-03-10 엘지전자 주식회사 음성 인식 서비스를 제공하는 서버
WO2021006404A1 (ko) * 2019-07-11 2021-01-14 엘지전자 주식회사 인공지능 서버
KR20210017392A (ko) * 2019-08-08 2021-02-17 삼성전자주식회사 전자 장치 및 이의 음성 인식 방법
JP7098587B2 (ja) * 2019-08-29 2022-07-11 株式会社東芝 情報処理装置、キーワード検出装置、情報処理方法およびプログラム
KR20190107622A (ko) * 2019-09-02 2019-09-20 엘지전자 주식회사 이동형 에이젼트를 이용한 실시간 음성 인식 모델 업데이트 방법 및 장치
JP7556202B2 (ja) * 2020-03-19 2024-09-26 日産自動車株式会社 音声認識方法及び音声認識装置
US11741943B2 (en) * 2020-04-27 2023-08-29 SoundHound, Inc Method and system for acoustic model conditioning on non-phoneme information features
CN111816173B (zh) * 2020-06-01 2024-06-07 珠海格力电器股份有限公司 对话数据处理方法、装置、存储介质及计算机设备
EP4154248A2 (en) * 2020-10-02 2023-03-29 Google LLC Systems and methods for training dual-mode machine-learned speech recognition models
US20220199102A1 (en) * 2020-12-18 2022-06-23 International Business Machines Corporation Speaker-specific voice amplification
CN113593531B (zh) * 2021-07-30 2024-05-03 思必驰科技股份有限公司 语音识别模型训练方法及系统

Family Cites Families (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6442512B1 (en) * 1998-10-26 2002-08-27 Invensys Systems, Inc. Interactive process modeling system
US6584439B1 (en) * 1999-05-21 2003-06-24 Winbond Electronics Corporation Method and apparatus for controlling voice controlled devices
JP4002030B2 (ja) 1999-06-11 2007-10-31 富士通テン株式会社 車載用情報提供装置及び音声認識装置
US6477493B1 (en) * 1999-07-15 2002-11-05 International Business Machines Corporation Off site voice enrollment on a transcription device for speech recognition
JP4590692B2 (ja) 2000-06-28 2010-12-01 パナソニック株式会社 音響モデル作成装置及びその方法
US7451085B2 (en) * 2000-10-13 2008-11-11 At&T Intellectual Property Ii, L.P. System and method for providing a compensated speech recognition model for speech recognition
US20020169604A1 (en) * 2001-03-09 2002-11-14 Damiba Bertrand A. System, method and computer program product for genre-based grammars and acoustic models in a speech recognition framework
DE10122828A1 (de) * 2001-05-11 2002-11-14 Philips Corp Intellectual Pty Verfahren zum Training oder zur Adaption eines Spracherkenners
EP1293964A3 (en) * 2001-09-13 2004-05-12 Matsushita Electric Industrial Co., Ltd. Adaptation of a speech recognition method to individual users and environments with transfer of data between a terminal and a server
JP2003177790A (ja) 2001-09-13 2003-06-27 Matsushita Electric Ind Co Ltd 端末装置、サーバ装置および音声認識方法
WO2003029963A2 (en) * 2001-09-28 2003-04-10 Codagen Technologies Corp. A system and method for managing architectural layers within a software model
US6952674B2 (en) 2002-01-07 2005-10-04 Intel Corporation Selecting an acoustic model in a speech recognition system
US7072834B2 (en) 2002-04-05 2006-07-04 Intel Corporation Adapting to adverse acoustic environment in speech processing using playback training data
WO2004047076A1 (ja) * 2002-11-21 2004-06-03 Matsushita Electric Industrial Co., Ltd. 標準モデル作成装置及び標準モデル作成方法
US7949522B2 (en) * 2003-02-21 2011-05-24 Qnx Software Systems Co. System for suppressing rain noise
US7720683B1 (en) * 2003-06-13 2010-05-18 Sensory, Inc. Method and apparatus of specifying and performing speech recognition operations
WO2005010868A1 (ja) 2003-07-29 2005-02-03 Mitsubishi Denki Kabushiki Kaisha 音声認識システム及びその端末とサーバ
US7437294B1 (en) * 2003-11-21 2008-10-14 Sprint Spectrum L.P. Methods for selecting acoustic model for use in a voice command platform
JP2005181459A (ja) 2003-12-16 2005-07-07 Canon Inc 音声認識装置および方法
US7634095B2 (en) * 2004-02-23 2009-12-15 General Motors Company Dynamic tuning of hands-free algorithm for noise and driving conditions
US8005668B2 (en) * 2004-09-22 2011-08-23 General Motors Llc Adaptive confidence thresholds in telematics system speech recognition
US7565282B2 (en) * 2005-04-14 2009-07-21 Dictaphone Corporation System and method for adaptive automatic error correction
US7676363B2 (en) * 2006-06-29 2010-03-09 General Motors Llc Automated speech recognition using normalized in-vehicle speech
JP2008158328A (ja) 2006-12-25 2008-07-10 Ntt Docomo Inc 端末装置及び判別方法
KR100911429B1 (ko) * 2007-08-22 2009-08-11 한국전자통신연구원 환경 이동을 위한 잡음 적응형 음향 모델 생성 방법 및 장치
KR20100126478A (ko) * 2008-03-04 2010-12-01 애플 인크. 액세스 가능한 자격들에 기초하여 소프트웨어 코드의 실행을 인가하는 시스템 및 방법
US8745573B2 (en) * 2008-06-16 2014-06-03 Beek Fund B.V. L.L.C. Platform-independent application development framework
US8155961B2 (en) * 2008-12-09 2012-04-10 Nokia Corporation Adaptation of automatic speech recognition acoustic models
US8306819B2 (en) * 2009-03-09 2012-11-06 Microsoft Corporation Enhanced automatic speech recognition using mapping between unsupervised and supervised speech model parameters trained on same acoustic training data
US20100268534A1 (en) * 2009-04-17 2010-10-21 Microsoft Corporation Transcription, archiving and threading of voice communications
US8386251B2 (en) * 2009-06-08 2013-02-26 Microsoft Corporation Progressive application of knowledge sources in multistage speech recognition
US9111540B2 (en) * 2009-06-09 2015-08-18 Microsoft Technology Licensing, Llc Local and remote aggregation of feedback data for speech recognition
US9026444B2 (en) * 2009-09-16 2015-05-05 At&T Intellectual Property I, L.P. System and method for personalization of acoustic models for automatic speech recognition
US8468012B2 (en) * 2010-05-26 2013-06-18 Google Inc. Acoustic model adaptation using geographic information
US8694537B2 (en) 2010-07-29 2014-04-08 Soundhound, Inc. Systems and methods for enabling natural language processing
CN101923854B (zh) * 2010-08-31 2012-03-28 中国科学院计算技术研究所 一种交互式语音识别系统和方法
KR20120054845A (ko) * 2010-11-22 2012-05-31 삼성전자주식회사 로봇의 음성인식방법
US9800941B2 (en) * 2011-01-03 2017-10-24 Curt Evans Text-synchronized media utilization and manipulation for transcripts
US8296142B2 (en) * 2011-01-21 2012-10-23 Google Inc. Speech recognition using dock context
CN102436816A (zh) * 2011-09-20 2012-05-02 安徽科大讯飞信息科技股份有限公司 一种语音数据解码方法和装置
US8886925B2 (en) * 2011-10-11 2014-11-11 Citrix Systems, Inc. Protecting enterprise data through policy-based encryption of message attachments
US9263040B2 (en) 2012-01-17 2016-02-16 GM Global Technology Operations LLC Method and system for using sound related vehicle information to enhance speech recognition
US9406299B2 (en) * 2012-05-08 2016-08-02 Nuance Communications, Inc. Differential acoustic model representation and linear transform-based adaptation for efficient user profile update techniques in automatic speech recognition
CN103514878A (zh) * 2012-06-27 2014-01-15 北京百度网讯科技有限公司 声学建模方法及装置和语音识别方法及装置
US8683226B2 (en) * 2012-07-16 2014-03-25 Digi International Inc. Automatic provisioning in mobile to mobile platforms
US20140365221A1 (en) * 2012-07-31 2014-12-11 Novospeech Ltd. Method and apparatus for speech recognition
US8831957B2 (en) 2012-08-01 2014-09-09 Google Inc. Speech recognition models based on location indicia
US9460716B1 (en) * 2012-09-11 2016-10-04 Google Inc. Using social networks to improve acoustic models
US10134401B2 (en) * 2012-11-21 2018-11-20 Verint Systems Ltd. Diarization using linguistic labeling
US9495955B1 (en) * 2013-01-02 2016-11-15 Amazon Technologies, Inc. Acoustic model training
US9159315B1 (en) * 2013-01-07 2015-10-13 Google Inc. Environmentally aware speech recognition
US9224404B2 (en) 2013-01-28 2015-12-29 2236008 Ontario Inc. Dynamic audio processing parameters with automatic speech recognition
CN103208291A (zh) * 2013-03-08 2013-07-17 华南理工大学 一种可用于强噪声环境的语音增强方法及装置
US20140278415A1 (en) 2013-03-12 2014-09-18 Motorola Mobility Llc Voice Recognition Configuration Selector and Method of Operation Therefor
US10424292B1 (en) * 2013-03-14 2019-09-24 Amazon Technologies, Inc. System for recognizing and responding to environmental noises
US9208781B2 (en) * 2013-04-05 2015-12-08 International Business Machines Corporation Adapting speech recognition acoustic models with environmental and social cues
US20140372118A1 (en) * 2013-06-17 2014-12-18 Speech Morphing Systems, Inc. Method and apparatus for exemplary chip architecture
JP6169910B2 (ja) * 2013-07-08 2017-07-26 本田技研工業株式会社 音声処理装置
US9847082B2 (en) 2013-08-23 2017-12-19 Honeywell International Inc. System for modifying speech recognition and beamforming using a depth image
KR20150031984A (ko) 2013-09-17 2015-03-25 한국전자통신연구원 디바이스 구분 음향모델 누적 적응을 이용한 음성인식 시스템 및 방법
US9443527B1 (en) * 2013-09-27 2016-09-13 Amazon Technologies, Inc. Speech recognition capability generation and control
US20150161999A1 (en) * 2013-12-09 2015-06-11 Ravi Kalluri Media content consumption with individualized acoustic speech recognition
CN103714812A (zh) * 2013-12-23 2014-04-09 百度在线网络技术(北京)有限公司 一种语音识别方法及装置
US20150301795A1 (en) * 2014-04-16 2015-10-22 Facebook, Inc. Crowd sourced based training for natural language interface systems
US9564123B1 (en) 2014-05-12 2017-02-07 Soundhound, Inc. Method and system for building an integrated user profile
US9870500B2 (en) * 2014-06-11 2018-01-16 At&T Intellectual Property I, L.P. Sensor enhanced speech recognition
KR101610151B1 (ko) * 2014-10-17 2016-04-08 현대자동차 주식회사 개인음향모델을 이용한 음성 인식장치 및 방법
US9881255B1 (en) * 2014-12-17 2018-01-30 Amazon Technologies, Inc. Model based selection of network resources for which to accelerate delivery
US9979724B2 (en) * 2015-02-06 2018-05-22 NXT-ID, Inc. Distributed method and system to improve collaborative services across multiple devices
US9721559B2 (en) * 2015-04-17 2017-08-01 International Business Machines Corporation Data augmentation method based on stochastic feature mapping for automatic speech recognition
US9886423B2 (en) * 2015-06-19 2018-02-06 International Business Machines Corporation Reconciliation of transcripts
US10152968B1 (en) * 2015-06-26 2018-12-11 Iconics, Inc. Systems and methods for speech-based monitoring and/or control of automation devices
WO2017034536A1 (en) * 2015-08-24 2017-03-02 Ford Global Technologies, Llc Dynamic acoustic model for vehicle
US10147442B1 (en) * 2015-09-29 2018-12-04 Amazon Technologies, Inc. Robust neural network acoustic model with side task prediction of reference signals
CN105355198B (zh) * 2015-10-20 2019-03-12 河海大学 一种基于多重自适应的模型补偿语音识别方法
US9934777B1 (en) * 2016-07-01 2018-04-03 Amazon Technologies, Inc. Customized speech processing language models
US9691384B1 (en) * 2016-08-19 2017-06-27 Google Inc. Voice action biasing system
US10326657B1 (en) * 2016-09-30 2019-06-18 Juniper Networks, Inc. Multi vendor device support in network management systems
US10453101B2 (en) * 2016-10-14 2019-10-22 SoundHound Inc. Ad bidding based on a buyer-defined function
US10481874B2 (en) * 2016-10-31 2019-11-19 General Electric Company System architecture for secure and rapid development, deployment and management of analytics and software systems
US10319250B2 (en) 2016-12-29 2019-06-11 Soundhound, Inc. Pronunciation guided by automatic speech recognition
US20180213339A1 (en) * 2017-01-23 2018-07-26 Intel Corporation Adapting hearing aids to different environments
DK179496B1 (en) * 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US10410635B2 (en) 2017-06-09 2019-09-10 Soundhound, Inc. Dual mode speech recognition
US10885900B2 (en) * 2017-08-11 2021-01-05 Microsoft Technology Licensing, Llc Domain adaptation in speech recognition via teacher-student learning
US10586529B2 (en) * 2017-09-14 2020-03-10 International Business Machines Corporation Processing of speech signal
US11216745B2 (en) * 2017-11-07 2022-01-04 Google Llc Incognito mode for personalized machine-learned models
US11130497B2 (en) * 2017-12-18 2021-09-28 Plusai Limited Method and system for ensemble vehicle control prediction in autonomous driving vehicles
KR102550932B1 (ko) * 2017-12-29 2023-07-04 삼성전자주식회사 음성 인식 모델의 개인화 방법 및 장치
US10643602B2 (en) * 2018-03-16 2020-05-05 Microsoft Technology Licensing, Llc Adversarial teacher-student learning for unsupervised domain adaptation
US10748535B2 (en) * 2018-03-22 2020-08-18 Lenovo (Singapore) Pte. Ltd. Transcription record comparison
US11257493B2 (en) 2019-07-11 2022-02-22 Soundhound, Inc. Vision-assisted speech processing
JP6977004B2 (ja) 2019-08-23 2021-12-08 サウンドハウンド,インコーポレイテッド 車載装置、発声を処理する方法およびプログラム
US20210065712A1 (en) 2019-08-31 2021-03-04 Soundhound, Inc. Automotive visual speech recognition
US12020696B2 (en) 2019-10-21 2024-06-25 Soundhound Ai Ip, Llc Automatic synchronization for an offline virtual assistant
US11392833B2 (en) 2020-02-13 2022-07-19 Soundhound, Inc. Neural acoustic model
CN113270091B (zh) 2020-02-14 2024-04-16 声音猎手公司 音频处理系统和方法
US20210312920A1 (en) 2020-04-02 2021-10-07 Soundhound, Inc. Multi-modal audio processing for voice-controlled devices
US11741943B2 (en) 2020-04-27 2023-08-29 SoundHound, Inc Method and system for acoustic model conditioning on non-phoneme information features

Also Published As

Publication number Publication date
US11367448B2 (en) 2022-06-21
US20240038233A1 (en) 2024-02-01
US11830472B2 (en) 2023-11-28
US20220130390A1 (en) 2022-04-28
CN110556097A (zh) 2019-12-10
US20210241769A1 (en) 2021-08-05
CN110556097B (zh) 2023-10-13
US20190371311A1 (en) 2019-12-05
JP2019211752A (ja) 2019-12-12
CN117198270A (zh) 2023-12-08
US11011162B2 (en) 2021-05-18

Similar Documents

Publication Publication Date Title
JP6874037B2 (ja) カスタム音響モデル
US10229683B2 (en) Speech-enabled system with domain disambiguation
KR102312218B1 (ko) 문맥상의 핫워드들
CA2756140C (en) Service oriented speech recognition for in-vehicle automated interaction
US9123339B1 (en) Speech recognition using repeated utterances
US11295735B1 (en) Customizing voice-control for developer devices
US20120253823A1 (en) Hybrid Dialog Speech Recognition for In-Vehicle Automated Interaction and In-Vehicle Interfaces Requiring Minimal Driver Processing
EP1564721A1 (en) Standard model creating device and standard model creating method
US11676572B2 (en) Instantaneous learning in text-to-speech during dialog
CN112447171A (zh) 用于提供定制唤醒短语训练的系统和方法
JP2008234427A (ja) ユーザ間の対話を支援する装置、方法およびプログラム
CA2839285A1 (en) Hybrid dialog speech recognition for in-vehicle automated interaction and in-vehicle user interfaces requiring minimal cognitive driver processing for same
CN115113739A (zh) 用于生成表情符号的装置、车辆和用于生成表情符号的方法
Bhagath et al. Speech recognition for indian spoken languages towards automated home appliances
KR20210098250A (ko) 전자 장치 및 이의 제어 방법
Gamm et al. The development of a command-based speech interface for a telephone answering machine
JP2021018293A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
Salinas Vila Adaptation of voice sever to automotive environment
CN115910029A (zh) 生成合成语音输入

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210421

R150 Certificate of patent or registration of utility model

Ref document number: 6874037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250