JP6118838B2 - 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム - Google Patents
情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム Download PDFInfo
- Publication number
- JP6118838B2 JP6118838B2 JP2015082359A JP2015082359A JP6118838B2 JP 6118838 B2 JP6118838 B2 JP 6118838B2 JP 2015082359 A JP2015082359 A JP 2015082359A JP 2015082359 A JP2015082359 A JP 2015082359A JP 6118838 B2 JP6118838 B2 JP 6118838B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- data
- processing
- information processing
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 185
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000012545 processing Methods 0.000 claims description 421
- 238000004891 communication Methods 0.000 claims description 150
- 238000000034 method Methods 0.000 claims description 127
- 230000005236 sound signal Effects 0.000 claims description 99
- 230000008569 process Effects 0.000 claims description 79
- 238000000926 separation method Methods 0.000 claims description 57
- 230000004807 localization Effects 0.000 claims description 54
- 238000007781 pre-processing Methods 0.000 claims description 50
- 238000004364 calculation method Methods 0.000 claims description 44
- 230000033001 locomotion Effects 0.000 description 72
- 230000005540 biological transmission Effects 0.000 description 50
- 230000015572 biosynthetic process Effects 0.000 description 35
- 238000003786 synthesis reaction Methods 0.000 description 35
- 230000004044 response Effects 0.000 description 27
- 230000006870 function Effects 0.000 description 24
- 230000000875 corresponding effect Effects 0.000 description 22
- 238000001514 detection method Methods 0.000 description 19
- 239000011159 matrix material Substances 0.000 description 16
- 238000013075 data extraction Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000007704 transition Effects 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 10
- 238000001228 spectrum Methods 0.000 description 8
- 230000000903 blocking effect Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 238000012546 transfer Methods 0.000 description 7
- 238000011144 upstream manufacturing Methods 0.000 description 7
- 230000001276 controlling effect Effects 0.000 description 6
- 238000009826 distribution Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 210000003141 lower extremity Anatomy 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000005684 electric field Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000001308 synthesis method Methods 0.000 description 2
- 206010048909 Boredom Diseases 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000000945 filler Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000005019 pattern of movement Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Telephonic Communication Services (AREA)
Description
以下、図面を参照しながら本発明の第1の実施形態について説明する。
図1は、本実施形態に係る音声処理システム1の構成を示すブロック図である。
音声処理システム1は、第1音声処理装置10、第2音声処理装置20、及び収音部30を含んで構成される。第1音声処理装置10と第2音声処理装置20とは、ネットワーク50で接続され、相互にデータが送受信可能である。
使用環境には、例えば、第1音声処理装置10で実行されるアプリケーションソフトウェア(以下、単に「アプリケーション」と呼ぶ)、第1音声処理装置10が利用される空間における騒音、残響等の状態、第2音声処理装置20とのデータの送受信に係る通信路やその状態、等がある。
第1音声処理装置10は、例えば、多機能携帯電話機(いわゆるスマートフォンを含む)、タブレット端末装置、パーソナルコンピュータ(PC:Personal Computer)等の端末装置である。
第2音声処理装置20は、例えば、ウェブサーバ、データベースサーバ、等のサーバ装置である。
次に、第1音声処理装置10の構成について説明する。
第1音声処理装置10は、音声信号取得部110、前処理部111、第1音声認識DB(Database、データベース)115、第1音声認識部116、制御部117、及び通信部120を含んで構成される。
前処理部111は、音声信号取得部110から入力された音声信号について前処理を行い、前処理により得られた前処理データ(例えば、音響特徴量データ)を第1音声認識部116に出力する。前処理部111は、音源定位部112、音源分離部113、および特徴量算出部114を含んで構成される。
第1音声認識部116は、音響特徴量について第1音声認識データのうち音響モデルを用いて音素を認識する。第1音声認識部116は、認識した音素の時系列からなる音素列について単語辞書を用いて単語を認識する。第1音声認識部116は、認識した単語からなる単語列について言語モデルを用いて発話内容を示す文章を認識する。第1音声認識部116は、認識した発話内容を示す第1テキストデータを生成し、生成した第1テキストデータを制御部117に出力する。
制御部117は、採用すると判定したテキストデータに係る動作を実行する。例えば、制御部117は、第1テキストデータが示すコマンドに基づいてアプリケーションの実行を制御する。制御部117による実行制御の例については後述する。
次に、第2音声処理装置20の構成について説明する。
第2音声処理装置20は、第2音声認識DB215、第2音声認識部216、データ抽出部218、及び通信部220を含んで構成される。
(ii)第2音声認識データに含まれる言語モデルは、第1音声認識データに含まれる言語よりも長文の認識に対応できる。つまり、第2音声認識データに含まれる言語モデルを形成する最高次のNグラムの次数が第1音声認識データよりも高い、同一の次数のNグラムの種類が豊富、のいずれかもしくは両者である。Nグラムとは、N(Nは、1以上の整数)個の単語が同時に出現する確率を示すデータである。
(iii)第2音声認識データに含まれる音響モデルは、代表的もしくは平均的な音響環境(例えば、残響時間、騒音レベル、等)で学習された音響モデルであるのに対し、第1音声認識データに含まれる音響モデルは、第1音声処理装置10が用いられる室内の音響環境に適応したものである。
通信部220は、他の機器、例えば、第1音声処理装置10との間で各種のデータを送受信する。通信部220は、第1音声処理装置10から受信した音響特徴量を含んだ受信データをデータ抽出部218に出力する。通信部220は、第2音声認識部216から入力された第2テキストデータを含んだ送信データを第1音声処理装置10に送信する。通信部220は、例えば、通信インタフェースである。
次に、音源定位の一手法であるMUSIC法について説明する。
音源定位部112は、予め所定の間隔(例えば、1°)に分布した音源方向d毎の伝達関数が記憶されている記憶部を備える。音源定位部112は、各チャネルm(mは、1以上M以下の整数)までの伝達関数A[d][m](ω)を要素とする伝達関数ベクトルD(d)を音源方向d毎に生成する。ωは、角周波数を示す。
次に、音源定位部112は、入力相関行列Rxxの固有値δi及び固有ベクトルeiを算出する。入力相関行列Rxx、固有値δi、及び固有ベクトルeiは、式(2)に示す関係を有する。
音源定位部112は、伝達関数ベクトルD(d)と算出した固有ベクトルeiに基づいて、式(3)に示す空間スペクトルPsp(d)を算出する。
音源定位部112は、S/N比が予め定めた閾値(例えば、20dB)よりも大きい周波数帯域における空間スペクトルPsp(d)の総和を拡張空間スペクトルPext(d)として算出する。音源定位部112は、算出した拡張空間スペクトルPext(d)の極大値をとる方向dを音源方向と定める。
次に、音源分離の一手法であるGHDSS法について説明する。
GHDSS法は、2つのコスト関数(cost function)として、分離尖鋭度(Separation Sharpness)JSS([V(ω)])と幾何制約度(Geometric Constraint)JGC([V(ω)])が、それぞれ低減するように分離行列V(ω)を適応的に算出する方法である。分離行列[V(ω)]は、音源定位部112から入力されたMチャネルの音声信号[x(ω)]=[x1(ω),x2(ω),…,xM(ω)]Tに乗じることによって、Sチャネルの音源毎の音声信号(推定値ベクトル)[u’(ω)]=[u1’(ω),u2’(ω),…,uS’(ω)]Tを算出するために用いられる行列である。ここで、[…]Tは、行列又はベクトルの転置を示す。
式(5)において、[A(ω)]は、音源から各1つのマイクロホンまでの伝達関数を要素として有する伝達関数行列を示す。[I]は、単位行列を示す。従って、幾何制約度JGC([V(ω)])とは、音声信号(推定値)のスペクトルと音声信号(音源)のスペクトルとの誤差の度合いを表す指標値である。
次に、制御部117による実行制御の例について説明する。
上述したように第1テキストデータもしくは第2テキストデータに含まれる単語の種別には、コマンドとメッセージがある。
図2は、単語の種別とその例を示す図である。
メッセージには、例えば、音楽(曲名、出演者名、作曲家名、等)、メール(送受信される文、等)、目的地(地名、施設名、等)、などが含まれる。コマンドには、例えば、リセット、等の第1音声処理装置10の機能や動作を指示する語である。一般的に、メッセージとして用いられる単語の方が、コマンドとして用いられる単語よりも多様であり、コマンドとして用いられる単語は限定されている。
優先テーブルは、各単語の種別の単語(又はその区分)の例毎の第1テキストデータ、第2テキストデータ、それぞれの優先度を示すデータである。「×」印は採用不可を示す。「○」印は採用可を示す。「◎」印は、優先採用可を示す。優先採用可とは、採用可よりも優先して採用可能であることを意味する。つまり、優先採用可に係る単語と採用可に係る単語の両者が含まれる場合には、優先採用可に係る単語が採用される。制御部117には、優先テーブルを予め記憶させた記憶部を備え、優先テーブルを参照して第1テキストデータ、第2テキストデータのうち、採用すべきテキストデータを定めてもよい。
なお、図3に示す優先テーブルの内容は例示であり、この内容には限られない。単語や単語の区分、その他、利用目的に応じて、その採否や優先度は任意に設定可能である。
制御状態には、「コマンド待ち」の状態と、「メッセージ待ち」の状態がある。「コマンド待ち」とは、制御部117が、音声認識結果である第1テキストデータをコマンドとして待ち受ける動作状態である。制御部117は、「コマンド待ち」の間に入力された第1テキストデータをコマンドとして処理する。「メッセージ待ち」とは、制御部117が、音声認識結果である第1テキストデータ、第2テキストデータをメッセージとして待ち受ける動作状態である。制御部117は、「メッセージ待ち」の間に入力された第1テキストデータ、第2テキストデータを、図3に示す優先度でメッセージとして処理する。
図5は、本実施形態に係る状態遷移処理の一例を示すフローチャートである。
図5に示す例は、経路p11、p12に係る。
(ステップS111)制御部117の動作状態は「コマンド待ち」の状態である。なお、動作状態の初期値は、この「コマンド待ち」の状態であってもよいし、「メッセージ待ち」の状態であってもよい。その後、ステップS112に進む。
(ステップS112)制御部117は、音声信号取得部110にMチャネルの音声信号が入力されたか(音声あり)否かを判定する。入力されたと判定された場合には(ステップS112 YES)、ステップS113に進む。入力されていないと判定された場合には(ステップS112 NO)、ステップS111に戻る。
(ステップS114)制御部117は、第2テキストデータの第2音声処理装置20からの受信を待機する(結果待ち)。その後、ステップS115に進む。
(ステップS121)制御部117は、その動作状態を「メッセージ待ち」に遷移する。その後、図5に示す処理を終了する。
図6に示す例は、経路p21、p22に係る。
(ステップS121)制御部117の動作状態は「メッセージ待ち」の状態である。その後、ステップS122に進む。
(ステップS122)制御部117は、音声信号取得部110にMチャネルの音声信号が入力されたか(音声あり)否かを判定する。入力されたと判定された場合には(ステップS122 YES)、ステップS123に進む。入力されていないと判定された場合には(ステップS122 NO)、ステップS121に戻る。
(ステップS124)制御部117は、第1テキストデータの第1音声認識部116からの入力を待機する(結果待ち)。その後、ステップS125に進む。
(ステップS111)制御部117は、その動作状態を「コマンド待ち」に遷移する。その後、図6に示す処理を終了する。
この構成によれば、自装置で取得した第1テキストデータと、汎用性が高い音声認識データを用いて認識され、他装置から受信した第2テキストデータとのいずれかが自装置の使用環境に応じて選択される。そのため、自装置の使用環境に応じて他装置の処理資源を活用することで認識精度を向上することができる。
この構成によれば、発話内容を形成する単語に応じて、より適切な音声認識データを用いて認識されたテキストデータが選択される。そのため、利用目的や分野に応じて適切な音声認識を行うことができる。
この構成によれば、第1テキストデータと第2テキストデータのいずれを選択するかが、現在選択されていないテキストデータに基づいて判定される。そのため、利用目的や分野の変化に応じて適切なテキストデータを選択することで、認識精度を向上することができる。
以下、図面を参照しながら本発明の第2の実施形態について説明する。上述した実施形態と同一の構成については、同一の符号を付して説明を援用する。
図7は、本実施形態に係る音声処理システム1Aの構成を示すブロック図である。
音声処理システム1Aは、第1音声処理装置10A、第2音声処理装置20A、及び収音部30を含んで構成される。
第2音声処理装置20Aは、前処理部211A、第2音声認識DB215、第2音声認識部216、データ抽出部218、及び通信部220を含んで構成される。
前処理部211Aは、音源定位部212A、音源分離部213A、及び特徴量算出部214Aを含んで構成される。
次に、第1音声処理装置10Aの構成について、主に第1音声処理装置10(図1)との差異点に関して説明する。
音声信号取得部110は、Mチャネルの音声信号を前処理部111及び選択部118Aに出力する。
音源定位部112は、上述した音声区間検出を行い、発話が検出された音声区間について、算出した音源方向を示す音源方向情報とMチャネルの音声信号を音源分離部113及び選択部118Aに出力する。
音源分離部113は、分離した音源別音声信号を特徴量算出部114及び選択部118Aに出力する。第1音声処理装置10には、通例、一度に1名のユーザの発話に係る音声信号が入力されるので、1チャネルの音源別音声信号が出力される。
特徴量算出部114は、算出した音響特徴量を第1音声認識部116及び選択部118Aに出力する。
選択部118Aは、制御部117Aから入力された選択情報に基づいて、データの送信の要否、データを送信する場合には、自部に入力されるデータから送信すべきデータ(送信データ)を選択する。また、選択情報が動作階層を示す場合、選択部118Aは、動作階層の処理部から入力されたデータを選択し、選択したデータを通信部120に出力する。
例えば、選択情報が動作させる処理部がないことを示す場合、選択部118Aは(i)Mチャネルの音声信号を、通信部120に出力する。また、選択情報が音源定位部112を示す場合、選択部118Aは(ii)音源方向情報ならびにMチャネルの音声信号を通信部120に出力する。選択情報が音源分離部113を示す場合(iii)音源別音声信号を、通信部120に出力する。選択情報が特徴量算出部114を示す場合(iv)音響特徴量を、通信部120に出力する。なお、選択情報が第1音声認識部116を動作させることを示す場合、選択部118Aは(v)送信データなし、と判定する。
次に、第2音声処理装置20Aの構成について、主に第2音声処理装置20(図1)との差異点に関して説明する。
第2音声処理装置20Aは、前処理部211A、第2音声認識DB215、第2音声認識部216、データ抽出部218、及び通信部220を含んで構成される。
音源定位部212Aは、データ抽出部218から入力されたMチャネルの音声信号に基づいて音源毎の方向を算出する。音源定位部212Aが音源方向を算出する手法は、音源定位部112と同様であってもよい。音源定位部212Aは、算出した音源毎の音源方向を示す音源方向情報とMチャネルの音声信号を音源分離部213Aに出力する。
音源分離部213Aは、データ抽出部218又は音源定位部212Aから音源方向情報とMチャネルの音声信号が入力される。音源分離部213Aは、Mチャネルの音声信号を音源方向情報が示す音源方向に基づいて音源毎の音源別音声信号に分離する。音源分離部213Aが音源分離を行う手法は、音源分離部113と同様であってもよい。音源分離部213Aは、分離した音源毎の音源別音声信号を特徴量算出部214Aに出力する。
特徴量算出部214Aは、算出した音響特徴量を第2音声認識部216に出力する。
第2音声認識部216は、特徴量算出部214Aから入力された音響特徴量、又はデータ抽出部218から入力された音響特徴量について第2音声認識DB215に記憶された第2音声認識データを用いて音声認識処理を行う。
次に、制御部117Aが行う選択処理の例について説明する。
制御部117Aは、通信状態情報と選択情報とを対応付けて形成される選択データを記憶させた記憶部を備える。制御部117Aは、選択データを参照して、通信状態解析部119Aから入力された通信状態情報に対応する選択情報を読み取る。制御部117Aは、読み取った選択情報が示す処理部の動作の要否を判定し、動作要と判定した処理部を動作させ、動作否と判定した処理部の動作を停止する。選択部118Aは、選択情報に基づいて送信すべき送信データを判定し、判定した送信データを、通信部120を介して第2音声処理装置20Aに送信する。
選択テーブルの第1列、第2列、第3列は、それぞれ通信状態情報、選択情報(動作させる処理部)、選択情報に基づいて指示される送信データを示す。選択テーブルにおいて、送信データは必須ではないが、説明の便宜のために図示している。
通信状態情報のうち、帯域1とは、予め定めた帯域幅の閾値1よりも広い帯域幅で通信可能であることを示す。帯域1は、例えば、Mチャネルの音声信号を送受信するのに十分な通信容量である。帯域2は、帯域幅の閾値1以下の帯域幅であって、予め定めた帯域幅の閾値2よりも広い帯域幅で通信可能であることを示す。帯域2は、例えば、1チャネルの音声信号を間欠的に送受信するのに十分な通信容量である。帯域3は、帯域幅の閾値2以下の帯域幅であって、予め定めた帯域幅の閾値3よりも広い帯域幅で通信可能であることを示す。帯域3は、例えば、1チャネルの音声信号に係る音響特徴量を間欠的に送受信するのに十分な通信容量である。
従って、図8に示す例は、第2行から下方に向かうほど通信状態情報が示す通信状態が劣り、通信状態が劣るほど、制御部117Aは、第1音声処理装置10Aにおいて動作させる処理部の数を多くし、送信データの情報量を少なくすることを示す。言い換えれば、制御部117Aは、通信状態が良好なほど第1音声処理装置10Aにおいて動作させる処理部の数を少なくし、送信データの情報量を多くすることで、第2音声処理装置20Aの処理資源(リソース)をより活用することを示す。
この構成により、制御部117Aは、第2音声処理装置20Aに対して、音源分離、音響特徴量の算出、音声認識処理を第2音声処理装置20Aに実行させることができる。従って、第2音声処理装置20Aは音源定位を省略可能であるが、豊富な処理資源を活用して、高精度の音声認識を実現することができる。また、制御部117Aは、音源定位部112よりも後段の音源分離部113、特徴量算出部114及び第1音声認識部116の動作を停止することで、第1音声処理装置10Aにおける処理量を低減することができる。但し、通信状態情報が帯域1、遮断1を示す場合よりも、処理量の低減の度合いが少ない。
従って、制御部117Aは、第2音声処理装置20Aに対して、音響特徴量の算出、音声認識処理を第2音声処理装置20Aに実行させることができる。従って、第2音声処理装置20Aは音源定位と音源分離を省略可能であるが、処理資源を活用して、高精度の音声認識を実現することができる。また、制御部117Aは、音源分離部113よりも後段の特徴量算出部114及び第1音声認識部116の動作を停止することで、第1音声処理装置10Aにおける処理量を低減することができる。但し、通信状態情報が帯域1、遮断2を示す場合よりも、処理量の低減の度合いが少ない。
この構成により、制御部117Aは、第2音声処理装置20Aに対して、音声認識処理を第2音声処理装置20Aに実行させることができる。従って、第2音声処理装置20Aにおける、汎用性が高い語彙に基づく高精度の音声認識を実現することができる。また、制御部117Aは、特徴量算出部114よりも後段の第1音声認識部116の動作を停止することで、第1音声処理装置10Aにおける処理量を低減することができる。但し、通信状態情報が帯域2、遮断2を示す場合よりも、処理量の低減の度合いが少ない。
第1音声認識部116は、第1音声認識データを用いて音声認識処理を行うため、語彙等が限定され、長文の認識精度が低下することがあるが、その音響環境に応じた音声認識、つまり、耐騒音性、耐残響特性の高い音声認識を実現することができる。なお、データの送受信が不要であるため、制御部117Aは、通信部120の動作を停止することで処理量を低減することができる。
この構成によれば、自装置の第1音声認識部116を動作させるか、第2音声認識部216で汎用性が高い音声認識データを用いて取得された第2テキストデータを受信するかが第2音声認識部216との通信状態に応じて選択される。そのため、第2音声認識部216との通信状態に応じて、その処理資源を活用することで認識精度を向上することができる。
この構成によれば、前処理部111を構成する階層処理部のうち動作すべき階層処理部の階層が、通信状態に応じて可変になる。そのため、第2音声認識部216に係る処理資源を活用する度合いを、通信状態に応じて適切に制御することができる。
この構成により、前処理部111を構成する音源定位部112、音源分離部113及び特徴量算出部114のうち動作すべき処理部の階層が、通信状態に応じて可変になる。また、音源定位部112、音源分離部113、特徴量算出部114の順に生成されるデータの情報量が少なくなる。そのため、第2音声認識部216に係る処理資源を活用する度合いを、各部で生成されるデータの情報量に見合った通信状態に応じて制御することができる。
次に、本発明の第3の実施形態について説明する。上述した実施形態と同一の構成については同一の符号を付して、その説明を援用する。
上述した実施形態に係る音声処理システム1、1Aは、主たる情報処理が音声認識である情報処理システムであるが、本実施形態に係る情報処理システム1Bは、複数種類の情報処理を行う情報処理システムである。
図9は、本実施形態に係る情報処理システム1Bの構成を示すブロック図である。
情報処理システム1Bは、第1情報処理装置10B、第2音声処理装置20、第2音声合成装置23B、第2コンテンツ復号装置24B、第2電子メール処理装置25B、収音部30、操作入力部31B、表示部32B、再生部33Bを含んで構成される。
表示部32Bは、ユーザIF部16Bから入力された画像信号に基づく画像を表示する。表示部32Bは、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイ等である。
再生部33Bは、ユーザIF部16Bから入力された音声信号又は音響信号に基づく音声を再生する。再生部33Bは、例えば、スピーカ等である。
第2音声合成装置23Bは、第1情報処理装置10Bから受信した対象テキストデータについて所定の音声合成方式を用いてテキスト音声合成処理を行って第2音声信号を生成する第2音声合成部(図示せず)を備える。第2音声合成部は、第1音声合成部13Bよりも汎用性が高い条件として、例えば、より多くの言語ならびに話者特性の一方又は両方に適応した発話音声を示す第2音声信号を生成することができる。第2音声合成部は、生成した第2音声信号を第1情報処理装置10Bに送信する。
また、第2音声合成装置23B、第2コンテンツ復号装置24B、第2電子メール処理装置25Bは、それぞれ専用の装置であってもよいし、汎用のサーバ装置において所定のプログラムで指示される処理を実行することにより構成されてもよい。
次に、制御部117Bにおいて、クラウド処理の適性の判定に用いられる適性データの一例について説明する。
図10は、本実施形態に係る適性データの一例を示す表である。
図10に示す例では、処理の種類毎に、「高」、「中」、「低」の3段階のいずれかの適性が与えられている。音声認識、音声合成、電子メール受信、コンテンツ復号のそれぞれについて、適性が「低」、「高」、「中」、「高」と与えられている。所定の適性の度合いが「中」である場合には、制御部117Bは、音声認識、音声合成、電子メール受信、コンテンツ復号のそれぞれについて、ローカル処理、クラウド処理、クラウド処理、クラウド処理を行うと判定する。
次に、本実施形態に係る情報処理について説明する。
図12は、本実施形態に係る情報処理の制御例を示すフローチャートである。
(ステップS201)制御部117Bは、ユーザIF部16Bから入力された選択信号が示す情報処理について、クラウド処理の要否を判定する。クラウド処理を要すると判定された場合(ステップS201 YES)、ステップS203に進む。クラウド処理を必ずしも要しないと判定された場合(ステップS201 NO)、ステップS202に進む。
(ステップS202)制御部117Bは、適性データを参照して、実行が指示された情報処理についてクラウド処理の適性を判定する。判定したクラウド処理の適性が所定の適性の閾値(例えば、「中」)以上である場合(ステップS202 中以上)、ステップS203に進む。判定したクラウド処理の適性の度合いが所定の適性の閾値未満である場合(ステップS202 低)、ステップS204に進む。
(ステップS204)制御部117Bは、ローカル処理を行うと判定する。ここで、制御部117Bは、選択部118Bに対してユーザIF部16Bから入力された入力データを第1情報処理部に出力させる。これにより、第1情報処理部は、選択部118Bから入力された入力データに基づく第1情報処理(ローカル処理)を開始する。その後、ステップS208に進む。
(ステップS206)制御部117Bは、暫定処理を開始する。その後、ステップS207に進む。
(ステップS207)制御部117Bは、ステップS203においてクラウド処理を開始させた場合、第2情報処理装置ら処理結果データを取得し、暫定処理を停止する。その後、ステップS208に進む。
この構成により、ネットワークに接続された第2情報処理装置が備える第2情報処理部を有効に使用できる度合いが情報処理の種別により異なりうることに応じて、第2情報処理部の使用の可否が判定される。そのため、情報処理の種類毎に第2情報処理部を用いるか否かを的確に判定することができる。
この構成により、音声合成、コンテンツ復号又は電子メール受信が、それぞれの情報処理の際に有効に使用可能な第2音声合成装置23Bの音声合成部、第2コンテンツ復号装置24Bのコンテンツ復号部又は第2電子メール処理装置25Bの第2電子メール処理部において実行される。また、第2音声処理装置20の第2音声処理部を有効に使用することができない音声認識が第1音声処理部11Bで実行される。そのため、情報処理システム1B全体として有用性が向上する。
次に、本発明の第4の実施形態について説明する。上述した実施形態と同一の構成については、同一の符号を付してその説明を援用する。
図13は、本実施形態に係る情報処理システム1Cの構成を示すブロック図である。
情報処理システム1Cは、第1情報処理装置10C、第2音声処理装置20、第2音声合成装置23B、第2コンテンツ復号装置24B、第2電子メール処理装置25B、対話処理装置26C、収音部30、操作入力部31B、表示部32B、再生部33B及びロボット34Cを含んで構成される。また、収音部30はロボット34Cの頭部に設置され、再生部33Bはロボット34Cの正面に設置される。
そのため、ユーザは自己の発話に応じたロボット34Cの動作に接することにより、興趣を得るとともに第1情報処理装置10Cに対する発話の動機を維持することができる。
例えば、制御部117は制御部117Aと同様の処理を実行してもよいし、しなくてもよい。制御部117Aは、第2テキストデータが選択される可能性がある場合に、通信状態情報に基づいて第1音声認識部116を動作させるか否かを判定する処理、音源定位部112、音源分離部113及び特徴量算出部114のうち、どの階層の処理部まで動作させるかを判定する処理を行う。第2テキストデータが選択される可能性がある場合とは、動作状態が「メッセージ待ち」の状態(図4)の場合である。
また、前処理部111、211Aの階層数が1階層である場合には、それぞれ音源定位部112、212A、音源分離部113、213Aが省略されてもよい。
この構成により、第2音声認識部216において、第1音声処理装置10、10Aのユーザの発話に係る利用目的、分野に応じて複数の第2の音声認識データが使い分けることができる。
この構成により、ネットワークに分散配置され、それぞれ異なる第2音声認識データを用いて音声認識処理を実行する第2音声処理装置20、20Aが、第1音声処理装置10、10Aのユーザの発話に係る利用目的、分野に応じて使い分けることができる。
また、第1情報処理装置10B、10Cに備えられる通信状態解析部119Aは、第2音声処理装置20の他、第2音声合成装置23B、第2コンテンツ復号装置24B、第2電子メール処理装置25B、対話処理装置26Cとの通信状態を解析してもよい。制御部117B、117Cは、解析された通信状態に基づいてクラウド処理の要否を判定してもよい。
第1情報処理装置10Cは、ロボット34Cと一体化され、単一のロボット34Cとして構成されてもよい。また、ロボット34Cは、操作入力部31B、表示部32Bの一方又は両方と一体化されてもよい。
119A…通信状態解析部、120…通信部、13B…第1音声合成部、14B…第1コンテンツ復号部、15B…第1電子メール処理部、16B…ユーザIF部、18C…動作計画生成部、181C…全身方向計画生成部、182C…全身動作計画生成部、183C…耳動作計画生成部、19C…データIF部、20、20A…第2音声処理装置、211A…前処理部、212A…音源定位部、213A…音源分離部、214A…特徴量算出部、215…第2音声認識DB、216…第2音声認識部、218…データ抽出部、220…通信部、23B…第2音声合成装置、24B…第2コンテンツ復号装置、25B…第2電子メール処理装置、26C…対話処理装置、30…収音部、31B…操作入力部、32B…表示部、33B…再生部、34C…ロボット、50…ネットワーク
Claims (5)
- 入力された音声信号に第1音声認識データを用いて音声認識を行って第1テキストデータを生成する第1音声認識部と、
前記第1音声認識データよりも汎用性が高い第2音声認識データを用いて音声認識を行って第2テキストデータを生成する第2音声認識部から前記第2テキストデータを受信可能な通信部と、
前記第2音声認識部との通信状態に基づいて前記第1音声認識部の動作を停止するか否かを判定する制御部と、
前記音声信号に前処理を行って第1音響特徴量を生成する前処理部と、を備え、
前記前処理部は、
L(Lは1以上の予め定めた整数)階層の階層処理部を備え、
第l(lは1以上L以下の整数)階層処理部は、第l階層データに第l階層処理を行って第l+1階層データを生成し、第1階層データは前記音声信号であり、第L+1階層データは、前記第1音響特徴量であり、
前記制御部は、前記第1音声認識部の動作を停止する場合、前記通信状態に応じていずれの階層の階層処理部まで動作させるかを判定する情報処理装置。 - Lは3であり、
第1階層処理部は、複数チャネルの音声信号から音源毎の音源方向を算出する音源定位部であり、
第2階層処理部は、前記複数チャネルの音声信号を前記音源毎の音源別音声信号に分離する音源分離部であり、
第3階層処理部は、前記音源別音声信号から音響特徴量を算出する特徴量算出部である請求項1に記載の情報処理装置。 - 第1情報処理装置と第2情報処理装置とを備える情報処理システムであって、
前記第1情報処理装置は、
入力された音声信号に第1音声認識データを用いて音声認識を行って第1テキストデータを生成する第1音声認識部と、
前記第2情報処理装置から第2テキストデータを受信可能な通信部と、
前記第2情報処理装置との通信状態に基づいて前記第1音声認識部の動作を停止するか否かを判定する制御部と、
前記音声信号に前処理を行って第1音響特徴量を生成する前処理部を備え、
前記前処理部は、
L(Lは1以上の予め定めた整数)階層の階層処理部を備え、
第l(lは1以上L以下の整数)階層処理部は、第l階層データに第l階層処理を行って第l+1階層データを生成し、第1階層データは前記音声信号であり、第L+1階層データは、前記第1音響特徴量であり、
前記制御部は、前記第1音声認識部の動作を停止する場合、前記通信状態に応じていずれの階層の階層処理部まで動作させるかを判定し、
前記第2情報処理装置は、
前記音声信号に対して前記第1音声認識データよりも汎用性が高い第2音声認識データを用いて音声認識を行って第2テキストデータを生成する第2音声認識部を備える、
情報処理システム。 - 第1音声認識データよりも汎用性が高い第2音声認識データを用いて音声認識を行って第2テキストデータを生成する音声認識部から前記第2テキストデータを受信可能な通信部を備える情報処理装置における情報処理方法であって、
入力された音声信号に前記第1音声認識データを用いて音声認識を行って第1テキストデータを生成する音声認識過程と、
前記音声認識部との通信状態に基づいて前記音声認識過程を停止するか否かを判定する制御過程と、
前記音声信号に前処理を行って第1音響特徴量を生成する前処理過程と、を有し、
前記前処理過程は、
L(Lは1以上の予め定めた整数)階層の階層処理過程を有し、
第l(lは1以上L以下の整数)階層処理過程は、第l階層データに第l階層処理を行って第l+1階層データを生成し、第1階層データは前記音声信号であり、第L+1階層データは、前記第1音響特徴量であり、
前記制御過程は、前記通信状態に基づいて前記音声認識過程を停止する場合、前記通信状態に応じていずれの階層の階層処理過程まで実行するかを判定する情報処理方法。 - 第1音声認識データよりも汎用性が高い第2音声認識データを用いて音声認識を行って第2テキストデータを生成する音声認識部から前記第2テキストデータを受信可能な通信部を備える情報処理装置のコンピュータに、
入力された音声信号に前記第1音声認識データを用いて音声認識を行って第1テキストデータを生成する音声認識手順、
前記音声認識部との通信状態に基づいて前記音声認識手順を停止するか否かを判定する制御手順、
前記音声信号に前処理を行って第1音響特徴量を生成する前処理手順と、を実行させるための情報処理プログラムであって、
前記前処理手順は、
L(Lは1以上の予め定めた整数)階層の階層処理手順を有し、
第l(lは1以上L以下の整数)階層処理手順は、第l階層データに第l階層処理を行って第l+1階層データを生成し、第1階層データは前記音声信号であり、第L+1階層データは、前記第1音響特徴量であり、
前記制御手順は、前記音声認識手順を停止する場合、前記通信状態に応じていずれの階層の階層処理手順まで実行するかを判定する情報処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015082359A JP6118838B2 (ja) | 2014-08-21 | 2015-04-14 | 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
US14/826,527 US9899028B2 (en) | 2014-08-21 | 2015-08-14 | Information processing device, information processing system, information processing method, and information processing program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014168632 | 2014-08-21 | ||
JP2014168632 | 2014-08-21 | ||
JP2015082359A JP6118838B2 (ja) | 2014-08-21 | 2015-04-14 | 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016045487A JP2016045487A (ja) | 2016-04-04 |
JP6118838B2 true JP6118838B2 (ja) | 2017-04-19 |
Family
ID=55348813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015082359A Active JP6118838B2 (ja) | 2014-08-21 | 2015-04-14 | 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9899028B2 (ja) |
JP (1) | JP6118838B2 (ja) |
Families Citing this family (77)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5963328B2 (ja) | 2014-10-30 | 2016-08-03 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 生成装置、生成方法、およびプログラム |
CN107112007B (zh) * | 2014-12-24 | 2020-08-07 | 三菱电机株式会社 | 语音识别装置及语音识别方法 |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US9811314B2 (en) | 2016-02-22 | 2017-11-07 | Sonos, Inc. | Metadata exchange involving a networked playback system and a networked microphone system |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US10097919B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Music service selection |
CN107121669B (zh) * | 2016-02-25 | 2021-08-20 | 松下电器(美国)知识产权公司 | 声源探测装置、声源探测方法及非瞬时性记录介质 |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US10062385B2 (en) * | 2016-09-30 | 2018-08-28 | International Business Machines Corporation | Automatic speech-to-text engine selection |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
JP6633008B2 (ja) * | 2017-02-01 | 2020-01-22 | ファーハット ロボティクス エービー | 音声対話装置及び音声対話方法 |
JP7035526B2 (ja) * | 2017-03-17 | 2022-03-15 | 株式会社リコー | 情報処理装置、プログラム及び情報処理方法 |
US20180268817A1 (en) * | 2017-03-17 | 2018-09-20 | Ricoh Company, Ltd. | Information processing apparatus, information processing method, and computer program product |
US10665232B2 (en) | 2017-05-24 | 2020-05-26 | Harman International Industries, Inc. | Coordination among multiple voice recognition devices |
US20190019497A1 (en) * | 2017-07-12 | 2019-01-17 | I AM PLUS Electronics Inc. | Expressive control of text-to-speech content |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10531157B1 (en) * | 2017-09-21 | 2020-01-07 | Amazon Technologies, Inc. | Presentation and management of audio and visual content across devices |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10051366B1 (en) | 2017-09-28 | 2018-08-14 | Sonos, Inc. | Three-dimensional beam forming with a microphone array |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
CN109859749A (zh) * | 2017-11-30 | 2019-06-07 | 阿里巴巴集团控股有限公司 | 一种语音信号识别方法和装置 |
US11343614B2 (en) | 2018-01-31 | 2022-05-24 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
JP7013957B2 (ja) * | 2018-03-12 | 2022-02-01 | 富士通株式会社 | 生成プログラム、生成方法、情報処理装置および情報処理システム |
US10600408B1 (en) * | 2018-03-23 | 2020-03-24 | Amazon Technologies, Inc. | Content output management based on speech quality |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10490207B1 (en) * | 2018-05-11 | 2019-11-26 | GM Global Technology Operations LLC | Automated speech recognition using a dynamically adjustable listening timeout |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
CN109117235B (zh) * | 2018-08-24 | 2019-11-05 | 腾讯科技(深圳)有限公司 | 一种业务数据处理方法、装置以及相关设备 |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
WO2020060311A1 (en) * | 2018-09-20 | 2020-03-26 | Samsung Electronics Co., Ltd. | Electronic device and method for providing or obtaining data for training thereof |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US10692518B2 (en) | 2018-09-29 | 2020-06-23 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US11455982B2 (en) | 2019-01-07 | 2022-09-27 | Cerence Operating Company | Contextual utterance resolution in multimodal systems |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
EP3709194A1 (en) | 2019-03-15 | 2020-09-16 | Spotify AB | Ensemble-based data comparison |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11094319B2 (en) | 2019-08-30 | 2021-08-17 | Spotify Ab | Systems and methods for generating a cleaned version of ambient sound |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11556307B2 (en) | 2020-01-31 | 2023-01-17 | Sonos, Inc. | Local voice data processing |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11308959B2 (en) | 2020-02-11 | 2022-04-19 | Spotify Ab | Dynamic adjustment of wake word acceptance tolerance thresholds in voice-controlled devices |
US11328722B2 (en) * | 2020-02-11 | 2022-05-10 | Spotify Ab | Systems and methods for generating a singular voice audio stream |
US11308962B2 (en) * | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
US11798530B2 (en) * | 2020-10-30 | 2023-10-24 | Google Llc | Simultaneous acoustic event detection across multiple assistant devices |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
JP7522651B2 (ja) | 2020-12-18 | 2024-07-25 | 本田技研工業株式会社 | 情報処理装置、移動体、プログラム及び情報処理方法 |
JP7509069B2 (ja) | 2021-03-29 | 2024-07-02 | トヨタ自動車株式会社 | 車両制御システム及び車両制御方法 |
US20230281235A1 (en) * | 2022-02-23 | 2023-09-07 | Intercom, Inc. | Generating conversation topics using neural networks |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5970446A (en) * | 1997-11-25 | 1999-10-19 | At&T Corp | Selective noise/channel/coding models and recognizers for automatic speech recognition |
JP2000181485A (ja) | 1998-12-14 | 2000-06-30 | Toyota Motor Corp | 音声認識装置及び方法 |
US9076448B2 (en) * | 1999-11-12 | 2015-07-07 | Nuance Communications, Inc. | Distributed real time speech recognition system |
JP2002116796A (ja) * | 2000-10-11 | 2002-04-19 | Canon Inc | 音声処理装置、音声処理方法及び記憶媒体 |
US20020143540A1 (en) * | 2001-03-28 | 2002-10-03 | Narendranath Malayath | Voice recognition system using implicit speaker adaptation |
US7203643B2 (en) * | 2001-06-14 | 2007-04-10 | Qualcomm Incorporated | Method and apparatus for transmitting speech activity in distributed voice recognition systems |
US8589156B2 (en) * | 2004-07-12 | 2013-11-19 | Hewlett-Packard Development Company, L.P. | Allocation of speech recognition tasks and combination of results thereof |
US20120253823A1 (en) * | 2004-09-10 | 2012-10-04 | Thomas Barton Schalk | Hybrid Dialog Speech Recognition for In-Vehicle Automated Interaction and In-Vehicle Interfaces Requiring Minimal Driver Processing |
US8214214B2 (en) * | 2004-12-03 | 2012-07-03 | Phoenix Solutions, Inc. | Emotion detection device and method for use in distributed systems |
US20110054898A1 (en) * | 2007-03-07 | 2011-03-03 | Phillips Michael S | Multiple web-based content search user interface in mobile search application |
US20110060587A1 (en) * | 2007-03-07 | 2011-03-10 | Phillips Michael S | Command and control utilizing ancillary information in a mobile voice-to-speech application |
US20110054894A1 (en) * | 2007-03-07 | 2011-03-03 | Phillips Michael S | Speech recognition through the collection of contact information in mobile dictation application |
US20110054897A1 (en) * | 2007-03-07 | 2011-03-03 | Phillips Michael S | Transmitting signal quality information in mobile dictation application |
US20110054899A1 (en) * | 2007-03-07 | 2011-03-03 | Phillips Michael S | Command and control utilizing content information in a mobile voice-to-speech application |
US8949266B2 (en) * | 2007-03-07 | 2015-02-03 | Vlingo Corporation | Multiple web-based content category searching in mobile search application |
US20110054896A1 (en) * | 2007-03-07 | 2011-03-03 | Phillips Michael S | Sending a communications header with voice recording to send metadata for use in speech recognition and formatting in mobile dictation application |
US20110054895A1 (en) * | 2007-03-07 | 2011-03-03 | Phillips Michael S | Utilizing user transmitted text to improve language model in mobile dictation application |
US20110054900A1 (en) * | 2007-03-07 | 2011-03-03 | Phillips Michael S | Hybrid command and control between resident and remote speech recognition facilities in a mobile voice-to-speech application |
US8364486B2 (en) * | 2008-03-12 | 2013-01-29 | Intelligent Mechatronic Systems Inc. | Speech understanding method and system |
US7933777B2 (en) * | 2008-08-29 | 2011-04-26 | Multimodal Technologies, Inc. | Hybrid speech recognition |
WO2010067118A1 (en) * | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US20120215528A1 (en) * | 2009-10-28 | 2012-08-23 | Nec Corporation | Speech recognition system, speech recognition request device, speech recognition method, speech recognition program, and recording medium |
JP5654897B2 (ja) | 2010-03-02 | 2015-01-14 | 本田技研工業株式会社 | 楽譜位置推定装置、楽譜位置推定方法、及び楽譜位置推定プログラム |
US8583428B2 (en) * | 2010-06-15 | 2013-11-12 | Microsoft Corporation | Sound source separation using spatial filtering and regularization phases |
JP5328744B2 (ja) * | 2010-10-15 | 2013-10-30 | 本田技研工業株式会社 | 音声認識装置及び音声認識方法 |
US9953653B2 (en) * | 2011-01-07 | 2018-04-24 | Nuance Communications, Inc. | Configurable speech recognition system using multiple recognizers |
US9183843B2 (en) * | 2011-01-07 | 2015-11-10 | Nuance Communications, Inc. | Configurable speech recognition system using multiple recognizers |
EP2783365B1 (en) * | 2011-11-21 | 2018-02-21 | Robert Bosch GmbH | Method and system for adapting grammars in hybrid speech recognition engines for enhancing local speech recognition performance |
US9620122B2 (en) * | 2011-12-08 | 2017-04-11 | Lenovo (Singapore) Pte. Ltd | Hybrid speech recognition |
US8521539B1 (en) * | 2012-03-26 | 2013-08-27 | Nuance Communications, Inc. | Method for chinese point-of-interest search |
US9495591B2 (en) * | 2012-04-13 | 2016-11-15 | Qualcomm Incorporated | Object recognition using multi-modal matching scheme |
KR101961139B1 (ko) * | 2012-06-28 | 2019-03-25 | 엘지전자 주식회사 | 이동 단말기 및 그것의 음성 인식 방법 |
WO2014055076A1 (en) * | 2012-10-04 | 2014-04-10 | Nuance Communications, Inc. | Improved hybrid controller for asr |
US9190057B2 (en) * | 2012-12-12 | 2015-11-17 | Amazon Technologies, Inc. | Speech model retrieval in distributed speech recognition systems |
US9131369B2 (en) * | 2013-01-24 | 2015-09-08 | Nuance Communications, Inc. | Protection of private information in a client/server automatic speech recognition system |
US10867597B2 (en) * | 2013-09-02 | 2020-12-15 | Microsoft Technology Licensing, Llc | Assignment of semantic labels to a sequence of words using neural network architectures |
US9666188B2 (en) * | 2013-10-29 | 2017-05-30 | Nuance Communications, Inc. | System and method of performing automatic speech recognition using local private data |
US9177549B2 (en) * | 2013-11-01 | 2015-11-03 | Google Inc. | Method and system for cross-lingual voice conversion |
-
2015
- 2015-04-14 JP JP2015082359A patent/JP6118838B2/ja active Active
- 2015-08-14 US US14/826,527 patent/US9899028B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9899028B2 (en) | 2018-02-20 |
JP2016045487A (ja) | 2016-04-04 |
US20160055850A1 (en) | 2016-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6118838B2 (ja) | 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム | |
JP6574169B2 (ja) | 多方向の復号をする音声認識 | |
US10650802B2 (en) | Voice recognition method, recording medium, voice recognition device, and robot | |
JP2018120212A (ja) | 音声認識方法及び装置 | |
JP6078964B2 (ja) | 音声対話システム及びプログラム | |
EP3061086B1 (en) | Text-to-speech performance evaluation | |
JP5750380B2 (ja) | 音声翻訳装置、音声翻訳方法および音声翻訳プログラム | |
JP6169910B2 (ja) | 音声処理装置 | |
JP6077957B2 (ja) | 音声処理装置、音声処理方法、及び音声処理プログラム | |
US11894008B2 (en) | Signal processing apparatus, training apparatus, and method | |
US11120785B2 (en) | Voice synthesis device | |
JP7040449B2 (ja) | 音声処理装置、情報処理装置、音声処理方法および情報処理方法 | |
WO2007063827A1 (ja) | 声質変換システム | |
JP2004347761A (ja) | 音声認識装置、音声認識方法、該音声認識方法をコンピュータに対して実行させるためのコンピュータ実行可能なプログラムおよび記憶媒体 | |
JP4817250B2 (ja) | 声質変換モデル生成装置及び声質変換システム | |
JP5500100B2 (ja) | 音声案内システム | |
JP4996156B2 (ja) | 音声信号変換装置 | |
JP7339151B2 (ja) | 音声合成装置、音声合成プログラム及び音声合成方法 | |
JP2019015950A (ja) | 音声認識方法、プログラム、音声認識装置、及びロボット | |
Mporas et al. | Robust speech interaction in motorcycle environment | |
KR101611224B1 (ko) | 오디오 인터페이스 | |
JP4877112B2 (ja) | 音声処理装置およびプログラム | |
JP2015187738A (ja) | 音声翻訳装置、音声翻訳方法および音声翻訳プログラム | |
US12002444B1 (en) | Coordinated multi-device noise cancellation | |
JPWO2019021953A1 (ja) | 音声操作装置及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160705 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170214 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170321 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6118838 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |