JPWO2016051519A1 - 音声認識システム - Google Patents

音声認識システム Download PDF

Info

Publication number
JPWO2016051519A1
JPWO2016051519A1 JP2016551392A JP2016551392A JPWO2016051519A1 JP WO2016051519 A1 JPWO2016051519 A1 JP WO2016051519A1 JP 2016551392 A JP2016551392 A JP 2016551392A JP 2016551392 A JP2016551392 A JP 2016551392A JP WO2016051519 A1 JPWO2016051519 A1 JP WO2016051519A1
Authority
JP
Japan
Prior art keywords
voice
user
operation intention
recognition
control mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016551392A
Other languages
English (en)
Other versions
JP6400109B2 (ja
Inventor
友紀 古本
友紀 古本
政信 大沢
政信 大沢
匠 武井
匠 武井
直哉 馬場
直哉 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2016051519A1 publication Critical patent/JPWO2016051519A1/ja
Application granted granted Critical
Publication of JP6400109B2 publication Critical patent/JP6400109B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/22
    • B60K35/80
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • B60K2360/55
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Abstract

ユーザが発話した音声を常時認識し、認識結果に基づいてナビゲーションシステムを制御する音声認識システム10において、認識した発話についてユーザがナビゲーションシステムを操作する意図が有るか無いかを判断する音声操作意図判断部14と、音声操作意図判断部14において操作の意図が無いと判断された場合、操作の意図が有ると判断された場合に比して、ナビゲーションシステムの制御の態様をユーザに意識させない方向に変更する制御態様変更部15とを備える。

Description

この発明は、ユーザの発話を認識する音声認識システムに関するものである。
従来、ユーザの発話を常時認識し、認識結果に対応する処理を実行する音声認識システムが知られている(例えば、特許文献1参照)。このような音声認識システムは、ユーザがシステムに対する音声操作を意図して発話したのか、ただ単にユーザ同士の会話における発話であるかを判断することなく認識処理を行い、認識結果に対応する処理を実行していた。
例えば、ユーザ同士で「スーパーとコンビニどっちがいい?」「コンビニがいいかな」という会話がなされた場合、ユーザは音声操作を意図して発話した訳ではないが、音声認識システムは、ユーザの発話を常時認識しているため「スーパー」および「コンビニ」といった単語を認識してしまい、これらの認識結果に対応する処理を実行する。
また、音声認識システムは、ユーザ発話の認識に失敗した場合、認識に失敗したことおよび認識に失敗した原因等を音声出力しユーザに報知する必要がある。そのため、上述のようなユーザ同士の会話を認識しようとして失敗した場合も、認識失敗の旨の音声を出力する。
特開2008−14818号公報
従来の音声認識システムは以上のように構成されているので、ユーザが音声操作を意図せずに発話したにもかかわらず、勝手に認識結果に対応する処理が実行され表示中の画面と大きく異なる画面が表示されたり、認識失敗の旨の音声が出力されたりする。これは、ユーザにとっては鬱陶しいと感じられ、不快感を増長させる。
一方で、ユーザが音声操作を意図して発話した場合、音声認識システムは認識結果に対応する処理を実行しなければならないし、認識に失敗した場合はその旨をユーザに報知する必要がある。
この発明は、上記のような課題を解決するためになされたものであり、ユーザの発話を常時認識する音声認識システムにおいて、ユーザの不快感を低減させることを目的とする。
この発明に係る音声認識システムは、ユーザが発話した音声を常時認識し、認識結果に基づいて被制御装置を制御する音声認識システムであって、認識した発話について、ユーザが被制御装置を操作する意図が有るか無いかを判断する音声操作意図判断部と、音声操作意図判断部において操作の意図が無いと判断された場合、操作の意図が有ると判断された場合に比して、被制御装置の制御の態様をユーザに意識させない方向に変更する制御態様変更部とを備えるものである。
この発明によれば、ユーザに操作の意図が無いと判断された場合、操作の意図が有ると判断された場合に比して、被制御装置の制御の態様をユーザに意識させない方向に変更するようにしたので、ユーザの不快感を低減させることができる。
この発明の実施の形態1に係る音声認識システムを適用したナビゲーションシステムの一例を示すブロック図である。 音声操作意図の判断項目と信頼度の一例を示す図である。 制御態様の例を示す図である。 制御態様の別の例を示す図である。 「音声操作意図有り」の信頼度に応じて異なる制御態様が定義されている例を示す図である。 「音声操作意図有り」の信頼度に応じて異なる制御態様が定義されている別の例を示す図である。 制御態様に基づいてナビゲーション部が処理を実行した例を示す図である。 実施の形態1に係る音声認識システムの動作を説明するフローチャートである。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
なお、以下の実施の形態では、この発明に係る音声認識システムを車両等の移動体用のナビゲーションシステム(被制御装置)に適用した場合を例に挙げて説明するが、音声操作機能を有するシステムであれば、どのようなシステムに適用してもよい。
実施の形態1.
図1は、この発明の実施の形態1による音声認識システム10を適用したナビゲーションシステムの一例を示すブロック図である。このナビゲーションシステムは、ナビゲーション部1、指示入力部2、ディスプレイ3、スピーカ4、マイク5、カメラ6、音声取得部11、音声認識部12、音声認識辞書13、音声操作意図判断部14、制御態様変更部15、制御態様記憶部16、音声解析部17、状態取得部18、および視線検出部19を備えている。なお、ナビゲーションシステムの構成要件は、ネットワーク上のサーバ、スマートフォン等の携帯端末、車載器に分散されていてもよい。
音声取得部11、音声認識部12、音声認識辞書13、音声操作意図判断部14、制御態様変更部15、制御態様記憶部16、音声解析部17、状態取得部18、および視線検出部19が、音声認識システム10を構成する。
この音声認識システム10は、不図示のCPU(Central Processing Unit)等で構成されており、このCPUが所定のプログラムを実行することによって、音声取得部11、音声認識部12、音声認識辞書13、音声操作意図判断部14、制御態様変更部15、制御態様記憶部16、音声解析部17、状態取得部18、および視線検出部19としての機能を実現する。
ナビゲーション部1は、GPS(Global Positioning System)受信機等から取得した移動体の現在位置情報および地図データベースに格納されている情報を用いて、ディスプレイ3に表示すべき描画情報を生成する。地図データベースには、例えば、道路に関する「道路情報」(道路の位置等)、施設に関する「施設情報」(施設の種別、名称、位置等)、「各種文字情報」(地名、施設名、交差点名、道路名等)、ならびに、施設および道路番号などを表す「各種アイコン情報」等が含まれる。
また、ナビゲーション部1は、指示入力部2からの指示または後述する制御態様変更部15から指示に応じて、移動経路等の検索、ディスプレイ3への表示指示および画面遷移、スピーカ4への音声出力指示等の種々の制御を行う。
例えば、ナビゲーション部1は、指示入力部2に対する操作または音声認識システム10に対する音声操作によりユーザが設定した施設または地点と、移動体の現在位置および地図データベースの情報等とを用いて、現在位置からユーザにより設定された施設等までの経路を計算する。そして、ナビゲーション部1は、当該経路に沿って移動体を案内するための誘導案内図および誘導案内メッセージを生成し、ディスプレイ3およびスピーカ4に対して当該生成した情報を出力するよう指示する。
指示入力部2は、ユーザの手動による指示の入力を受け付けるものである。例えば、ハードウエアのスイッチ、ディスプレイ3に組み込まれているタッチセンサ、あるいはハンドル等に設置されたリモコンもしくは別体のリモコンを介したユーザの指示を認識する認識装置が挙げられる。
ディスプレイ3は、例えばLCD(Liquid Crystal Display)、HUD(Head−Up Display)、またはインストルメントパネル等であり、ナビゲーション部1の指示に基づき画面上に描画を行う。
スピーカ4は、ナビゲーション部1の指示に基づき音声を出力する。
マイク5は、ユーザが発話した音声を取得(集音)する。マイク5には、例えば、全指向性のマイク、複数の全指向性のマイクをアレイ状に配列して指向特性を調整可能としたアレイマイク、あるいは一方向のみに指向性を有しており指向特性を調整できない単一指向性マイク等を用いる。
カメラ6は、ユーザを撮像する。カメラ6の画像情報は、後述する視線検出部19において、ユーザの視線を検出するために使用される。
音声取得部11は、マイク5により取得されたユーザ発話、すなわち、入力された音声を取り込み、例えばPCM(Pulse Code Modulation)によりA/D(Analog/Digital)変換する。また、音声取得部11は、デジタル化した音声信号から、ユーザが発話した内容に該当する音声区間を検出する。
音声認識部12は、音声取得部11により検出された音声区間の音声データの特徴量を抽出し、その特徴量に基づいて音声認識辞書13を用いて認識処理を行い、認識結果を出力する。認識処理としては、例えばHMM(Hidden Markov Model)法のような一般的な方法を用いて行えばよい。
なお、認識結果には認識結果文字列とともに、尤度を表すスコアが含まれていてもよい。
ところで、カーナビゲーションシステム等に搭載されている音声認識機能においては、ユーザが発話の開始をシステムに対して明示(指示)するのが一般的である。そのために、音声認識開始を指示するボタン(以下、「音声認識開始指示部」と呼ぶ)が、タッチパネルに表示されたりハンドルに設置されたりしている。そして、ユーザにより音声認識開始指示部が押下された後に発話された音声を認識する。すなわち、音声認識開始指示部は音声認識開始信号を出力し、音声認識部は当該信号を受けると、当該信号を受けた後に音声取得部により取得された音声データから、ユーザが発話した内容に該当する音声区間を検出し、上述した認識処理を行う。
しかし、この実施の形態1における音声認識部12は、上述したようなユーザによる音声認識開始指示がなくても、常に、ユーザが発話した内容を認識する。すなわち、音声認識部12は、音声認識開始信号を受けなくても、常時、音声取得部11により検出された音声区間の音声データの特徴量を抽出し、その特徴量に基づいて音声認識辞書13を用いて認識処理を行い、音声認識結果を出力する処理を繰り返し行う。
音声操作意図判断部14は、ユーザがシステムに対して音声操作を行う意図をもって発話したか否かを判断し、当該判断結果を出力する。以降においては、ユーザが音声操作を行う意図をもって発話したと音声操作意図判断部14が判断した場合「音声操作意図有り」、そうでない場合は、「音声操作意図無し」として説明する。音声操作意図の有無の判断項目については後述する。
制御態様記憶部16は、音声認識部12における認識対象語毎に、「音声操作意図有り」の場合にナビゲーション部1に対して指示する制御態様と、「音声操作意図無し」の場合にナビゲーション部1に対して指示する制御態様とを、認識対象語に対応付けて記憶している。
また、制御態様記憶部16は、音声認識部12が音声認識に失敗した際に、ナビゲーション部1に対して指示する制御態様を、「音声操作意図有り」の場合と「音声操作意図無し」の場合について定義して記憶している。
制御態様とは、本実施の形態1に係る音声認識システム10を適用する被制御装置の種々の動作である。例えば、ナビゲーションシステムにおいては、画面遷移、応答音声および報知音の出力内容、システムが有する目的地設定等の各機能の実行等の種々の動作である。
「音声操作意図無し」の場合の制御態様は、「音声操作意図有り」の場合の制御態様に比べて、ユーザの邪魔にならないように、すなわち、ユーザがナビゲーションシステムを意識する程度が小さくなるように、定義されている。
「音声操作意図無し」の場合、「音声操作意図有り」の場合に比べて、例えば、音声出力の音量を小さくしたり、音声出力内容または表示内容の情報量を少なくしたり、音声出力を止めたり等、ユーザにナビゲーションシステムを意識させないような制御態様にする。
制御態様の具体例については後述する。
制御態様変更部15は、制御態様記憶部16を参照して、音声認識部12により出力された認識結果と音声操作意図判断部14により出力された判断結果に基づいて制御態様を決定し、当該決定した制御態様をナビゲーション部1に対して出力する。
次に、音声操作意図判断部14による音声操作意図の有無の判断項目と、当該判断の際に用いる情報を取得したり生成したりする構成要素について説明する。
(1)ユーザが発話した音声の音量、ピッチ、明瞭度、ユーザの発話速度、および音声の発声源の方向のうちの少なくとも一つに基づく音声操作意図の有無の判断
(1)の場合、音声認識システム10は、音声解析部17を備える。
音声解析部17は、音声取得部11により出力された音声データを解析し、ユーザが発話した音声の音量、ピッチ、明瞭度、ユーザの発話速度、音声の発声源の方向のうち、少なくとも一つを算出する。
なお、音量、ピッチ、明瞭度、ユーザの発話速度および発声源の方向の算出方法については、公知の技術を用いればよいため説明を省略する。
ここで、まず、明瞭度を例にして説明する。
音声操作意図判断部14は、音声解析部17により算出された明瞭度を取得し、当該明瞭度の大きさが予め定められた閾値以上(または、閾値より大きい)か否か判定する。当該明瞭度が、予め定められた閾値以上である場合、音声操作意図判断部14は「音声操作意図有り」と判断する。一方、当該明瞭度が、予め定められた閾値より小さい場合、音声操作意図判断部14は「音声操作意図無し」と判断する。
または、音声操作意図判断部14は、音声解析部17から取得した明瞭度が、過去複数回取得した明瞭度の平均値以上(または、平均値より大きい)か否か判定する。当該明瞭度が、当該平均値以上の場合、音声操作意図判断部14は「音声操作意図有り」と判断する。一方、当該明瞭度が、当該平均値より小さい場合、音声操作意図判断部14は「音声操作意図無し」と判断する。
音声操作意図判断部14は、明瞭度を用いた音声操作意図の有無の判断と同様の方法で、ユーザが発話した音声の音量またはピッチを用いて、音声操作意図の有無を判断する。
例えば、発話音声の音量を用いる場合、音声操作意図判断部14は、音声解析部17から取得した発話音声の音量が、過去複数回の発話音声の音量の平均値以上(または、平均値より大きい)の場合に「音声操作意図有り」と判断する。
例えば、発話音声のピッチを用いる場合、音声操作意図判断部14は、音声解析部17から取得した発話音声のピッチが、過去複数回の発話音声のピッチの平均値以上(または、平均値より大きい)の場合に「音声操作意図有り」と判断する。
次に、発話速度を例にして説明する。
音声操作意図判断部14は、音声解析部17により算出された発話速度を取得し、当該発話速度が、予め定められた閾値より小さいか(または、平均値以下であるか)否か判定する。当該発話速度が、予め定められた閾値より小さい場合、音声操作意図判断部14は「音声操作意図有り」と判断する。一方、当該発話速度が、予め定められた閾値以上である場合、音声操作意図判断部14は「音声操作意図無し」と判断する。
または、音声操作意図判断部14は、音声解析部17から取得した発話速度が、過去複数回取得した発話速度の平均値より小さい(または、閾値以下の)場合、「音声操作意図有り」と判断し、そうでない場合は、「音声操作意図無し」と判断する。
なお、明瞭度等を過去の平均値と比較して音声操作意図の有無を判断するにあたり、音声解析部17で明瞭度等を算出する際の誤差を考慮して、平均値に予め設定された値を加える(または減じる)ようにしてもよい。平均値に加える(または減じる)値は、誤差と有意な差がある値とする。
次に、音声の発声源の方向を例にして説明する。
音声操作意図判断部14は、音声解析部17により算出された音声の発声源の方向を取得する。音声操作意図判断部14は、複数の方向に発声源がある場合、ユーザが他のユーザと会話しているものとして、「音声操作意図無し」と判断する。一方、発声源が一つである場合、音声操作意図判断部14は「音声操作意図有り」と判断する。
(2)認識結果の種別に基づく音声操作意図の有無の判断
(2)の場合、上述した(1)の音声解析部17は不要である。
音声操作意図判断部14は、音声認識部12により出力された認識結果を取得する。そして、音声操作意図判断部14は、当該認識結果が、本音声認識システム10を適用した被制御装置(本実施の形態1においてはナビゲーションシステム)を操作するためのコマンドであるか否か判定し、当該コマンドである場合は、「音声操作意図有り」と判断する。そうでない場合は、「音声操作意図無し」と判断する。
(3)認識履歴に基づく音声操作意図の有無の判断
(3)の場合、上述した(1)の音声解析部17は不要である。
音声操作意図判断部14は、音声認識部12により出力された認識結果を取得する。
また、音声操作意図判断部14は、音声認識部12から取得した認識結果を認識履歴として少なくとも一つ以上記憶する。
そして、音声操作意図判断部14は、認識履歴に基づいて、認識結果に含まれる認識スコアが予め定められた閾値以下になった場合(すなわち、音声認識部12による認識処理に成功しているが尤度が低い場合)、または、音声認識部12による認識処理に失敗した場合が2回以上連続して生じたときに、「音声操作意図有り」と判断する。音声操作意図判断部14は、認識スコアが予め定められた閾値以下になった場合と認識処理に失敗した場合とを区別してカウントしてもよいし、区別せずにカウントしてもよい。
なお、音声操作意図判断部14は、2回以上連続して、認識結果に含まれる認識スコアが予め定められた閾値以下であり、かつ各認識結果文字列が同一である場合、「音声操作意図有り」と判断するとしてもよい。
車内騒音が大きい等の状況において、ユーザが発話した音声の認識スコアが低かったり認識に失敗したりした場合、ナビゲーション部1はユーザが意図した動作を行わないので、ユーザは操作意図があればもう一度発話を繰り返す可能性が高い。そこで、(3)では、ユーザが発話を繰り返したら音声操作の意図有りとみなし、1度限りの発話であれば音声操作の意図無しとみなしている。例えば、ユーザが2回続けて「コンビニ」と発話し、音声認識部12が2回連続して認識処理に失敗したとき、音声操作意図判断部14は「音声操作意図有り」と判断するので、ユーザの3回目の発話が認識処理に成功した場合には当該3回目の発話の認識結果が「音声操作意図有り」になる。
なお、ユーザが「コンビニ」と発話してその認識スコアが閾値以下だった場合、2回目の発話では「コンビニエンスストア」等に言い換える可能性があるため、各発話の認識結果文字列が同一であっても異なっていても構わない。
(4)音声認識システム10が適用されているシステム等の動作状態に基づく音声操作意図の有無の判断
(4)の場合、音声認識システム10は、状態取得部18を備える。上述した(1)の音声解析部17は不要である。
状態取得部18は、ナビゲーション部1からナビゲーションシステムの動作状態を取得する。
音声操作意図判断部14は、例えば、ユーザによる所定の操作後の結果表示中(例えば、施設検索結果のリスト表示中等)およびユーザによるキー押下等の操作中等、ユーザがナビゲーションシステムを操作しようとしている、または操作中であると推測されるシステムの動作状態を予め定義している。
音声操作意図判断部14は、状態取得部18により取得されたナビゲーションシステムの動作状態が、予め定義された動作状態と一致する場合は、「音声操作意図有り」と判断し、予め定義された動作状態と一致しない場合は、「音声操作意図無し」と判断する。
例えば、施設検索結果リストの表示中、ユーザは、リストから一つの施設を選択する等、ナビゲーションシステムに対する操作を意図した動作を行う可能性が高いため、音声操作意図判断部14は、ナビゲーションシステムの動作状態がリスト表示中の場合、「音声操作意図有り」と判断する。
または、音声操作意図判断部14は、ナビゲーションシステムの動作状態ごとに「音声操作意図有り」か「音声操作意図無し」かを予め定義してもよい。
例えば、ユーザは、施設検索結果リスト等のリストの中から項目を選択する場合には音声操作を行い、施設検索条件設定等のボタンを押して階層メニューを下っていく場合には指示入力部2を介して手動操作を行う傾向がある。そのため、ナビゲーションシステムの動作状態がリスト表示中の場合を「音声操作意図有り」と定義し、階層メニュー表示中の場合を「音声操作意図無し」と定義する。音声操作意図判断部14は、状態取得部18により取得されたナビゲーションシステムの動作状態に一致する定義を検索し、その定義に従って「音声操作意図有り」か「音声操作意図無し」かを判断する。
また例えば、ユーザが手動操作中に音声操作に切り替える可能性は低いので、ナビゲーションシステムの動作状態が手動操作中の場合を「音声操作意図無し」と定義してもよい。具体的には、状態取得部18がナビゲーション部1を介して指示入力部2に対するユーザの操作状態を取得し、音声操作意図判断部14が、当該操作状態に基づいて、表示中のリスト等に対してユーザが手動操作を行っていると判断した場合には、手動操作中の定義に従って「音声操作意図無し」と判断する。
(5)発話中または発話前の視線に基づく音声操作意図の有無の判断
(5)の場合、音声認識システム10は、視線検出部19を備える。上述した(1)の音声解析部17および(4)の状態取得部18は不要である。
視線検出部19は、カメラ6により取得された画像情報を解析して、ユーザの視線を検出する。音声操作意図判断部14は、視線検出部19により検出された視線情報に基づいて、ユーザが、例えば、ディスプレイ3等のナビゲーションシステムの構成要素またはディスプレイ3に表示されているエージェント等の画像を見ているか否か判定する。
なお、視線検出方法および視線情報に基づいて特定の対象を見ているか否かを判定する方法については、公知の技術を用いればよいため説明を省略する。
また、音声操作意図判断部14は、音声取得部11に対して音声区間の音声データを要求する。そして、音声操作意図判断部14は、音声取得部11から音声データを取得できたとき(すなわち、ユーザが発話しているとき)、かつユーザがディスプレイ3等を見ていると判断した場合、「音声操作意図有り」と判断する。一方、音声操作意図判断部14は、ユーザがディスプレイ3等を見ていないと判断した場合は、「音声操作意図無し」と判断する。
ここで、音声操作意図判断部14は、音声取得部11から音声データを取得できたとき、かつ少なくとも所定期間以前(例えば、発話する0.5秒前)にユーザがディスプレイ3等を見ていると判断していた場合に、「音声操作意図有り」と判断するとしてもよい。あるいは、音声操作意図判断部14は、ユーザがディスプレイ3等を見ながら発話した場合に「音声操作意図有り」と判断してもよい。
音声操作意図判断部14は、上述した(1)〜(5)のうちの少なくとも一つの方法によって音声操作意図の有無を判断すればよく、音声解析部17、状態取得部18および視線検出部19は必須の構成要素ではない。
なお、音声操作意図判断部14は、「音声操作意図有り」と判断した場合、当該判断結果とともに、当該判断結果の信頼度(以降の説明において、「信頼度」と記載する。)を出力するとしてもよい。
「信頼度」は、実際にユーザがシステムに対して音声操作を意図して発話した可能性の高さを示すものである。すなわち、音声操作意図判断部14は、低い「信頼度」が定義されている判断項目を用いて「音声操作意図有り」と判断した場合に比べて、高い「信頼度」が定義されている判断項目を用いて「音声操作意図有り」と判断した場合の方が、実際にユーザがシステムに対して音声操作を意図して発話した可能性が高いと判断することとする。
図2に音声操作意図の判断項目と信頼度の一例を示す。この例では、信頼度は「高」と「低」の2値で表され、「高」は信頼度が高いことを示し、「低」は信頼度が低いことを示すこととしているが、例えば、信頼度が「高」「中」「低」のように多段階の値を取ったり、「1〜100」のように連続的な値を取ったりしてもよい。
図3〜図6に、制御態様記憶部16が記憶している制御態様の例を示す。
図3(a)は、認識対象語に対する「音声操作意図有り」および「音声操作意図無し」の制御態様の一例を示したものである。
認識対象語「コンビニ」に対して、「音声操作意図有り」の場合の制御態様として「自車周辺のコンビニを検索し検索結果のリストを表示」が定義されている。一方、「音声操作意図無し」の場合の制御態様として「何もしない」が定義されている。
認識対象語「ミスターチャイルド」に対して、「音声操作意図有り」の場合の制御態様として「ミスターチャイルドのアルバムリストを表示」が定義されている。一方、「音声操作意図無し」の場合の制御態様として「何もしない」が定義されている。この「ミスターチャイルド」はアーティスト名を想定している。
なお、ここでは機能の実行と画面表示の例を示したが、音声出力を含むものとしてもよい。例えば、検索を実行する旨および検索結果をリスト表示する旨等の音声出力をするとしてもよい。
また、図3(b)は音声認識に失敗したときの制御態様を示したものであり、「音声操作意図有り」の場合の制御態様として、認識に失敗した旨を報知する動作、例えば「「認識できませんでした。もう一度発話してください」と音声出力」が定義されている。一方、「音声操作意図無し」の場合の制御態様として「何もしない」が定義されている。
なお、ここでは音声出力の例のみを示したが、画面表示を含むものとしてもよい。例えば、「音声操作意図有り」の場合に、認識に失敗した旨のテロップを画面に表示するとしてもよい。
図4(a)は、認識対象語に対する「音声操作意図有り」および「音声操作意図無し」の制御態様の別の一例を示したものである。図3の例においては、「音声操作意図無し」の場合の制御態様を「何もしない」とすることで、「音声操作意図有り」の場合の制御態様に比べて、ナビゲーションシステムに対してユーザの意識が向かないようにした。それに対して、図4の例においては、「音声操作意図無し」の場合であっても、何らかの動作をするが、その動作によってユーザにナビゲーションシステムを意識させる度合いが、「音声操作意図有り」の場合に比べ小さくなるようにしたものである。
例えば、図4(a)において、認識対象語「コンビニ」に対して、「音声操作意図無し」の場合の制御態様が、「何もしない」ではなく、「自車周辺のコンビニ検索を実行するためのボタンを生成して表示」と定義されている。
ここで、図7に、制御態様に基づいて処理を実行した例を示す。図7(a)は、図4(a)の「自車周辺のコンビニを検索し検索結果のリストを表示」した場合の、ディスプレイ3の画面表示例である。画面上に大きく検索結果のリストが表示されており、ユーザにナビゲーションシステムを意識させやすい。一方、図7(b)は、図4(b)の「自車周辺のコンビニ検索を実行するためのボタンを生成して表示」した場合の、ディスプレイ3の画面表示例である。地図画面上に「コンビニ」というボタンが表示されるのみであり、ユーザにナビゲーションシステムを意識させる度合が、図7(a)の場合に比べて小さい。
なお、検索を実行する旨等の音声出力をする場合に、「音声操作意図有り」の場合に比べて、「音声操作意図無し」の場合の方が、音量が小さくなるように、制御態様を定義してもよい。
また、図4(b)において、音声認識に失敗したときの制御態様として、「音声操作意図有り」の場合、「「認識できませんでした。もう一度発話してください」と音声出力」が定義され、「音声操作意図無し」の場合、「報知音を出力」が定義されている。
このように、「音声操作意図無し」の場合に「ポーン」等の報知音のみ出力することにより、「音声操作意図有り」の場合に比べて、ユーザにナビゲーションシステムを意識させないようにしている。
また、図4(c)に示すように、音声認識に失敗したときの制御態様として、「音声操作意図有り」の場合、「「認識できませんでした。もう一度発話してください」の音声を音量8で出力」と定義され、「音声操作意図無し」の場合、「「認識できませんでした。もう一度発話してください」の音声を音量3で出力」と定義されている。
このように、「音声操作意図無し」の場合にユーザに報知する音声の音量を小さくすることにより、「音声操作意図有り」の場合に比べて、ユーザにナビゲーションシステムを意識させないようにしている。
次に、図5を用いて、「音声操作意図有り」の信頼度に応じて異なる制御態様が定義されている例について説明する。
図5(a)は、認識対象語に対する「音声操作意図有り」の信頼度「高」、「音声操作意図有り」の信頼度「低」、および「音声操作意図無し」の制御態様の一例を示したものである。
例えば、認識対象語「コンビニ」に対して、「音声操作意図有り」かつ信頼度「高」の場合の制御態様として「自車周辺のコンビニを検索し自車位置から最も近いコンビニの情報を表示」が定義されている。一方、「音声操作意図有り」かつ信頼度「低」の場合の制御態様として「自車周辺のコンビニを検索し検索結果のリストを表示」が定義されている。そして、「音声操作意図無し」の場合の制御態様として「自車周辺のコンビニ検索を実行するためのボタンを生成」と定義されている。
また、図5(b)において、音声認識に失敗したときの制御態様として、「音声操作意図有り」かつ信頼度「高」の場合「「認識できませんでした。もう一度発話してください」と音声出力」と定義され、「音声操作意図有り」かつ信頼度「低」の場合「報知音のみを出力」と定義され、「音声操作意図無し」の場合「何もしない」と定義されている。
なお、信頼度が高い場合に音量を大きくし、信頼度が低い場合に音量を小さくするとしてもよい。
なお、「音声操作意図有り」の信頼度が予め定められた基準値以下(または、基準値より小さい)であるか、当該基準値より大きい(または、基準値以上)であるかで制御態様を定義してもよい。すなわち、「音声操作意図有り」であっても、信頼度が予め定められた基準値以下である場合は、「音声操作意図無し」と判断するとしてもよい。
一例を図6(a)(b)に示す。図6(a)の例では、認識対象語に対する「音声操作意図有り」の信頼度が「低」の場合、「音声操作意図無し」の場合と同じ制御態様が定義されている。図6(b)の例では、音声認識に失敗し、かつ「音声操作意図有り」の信頼度が「低」の場合、「音声操作意図無し」の場合と同じ制御態様が定義されている。
次に、図8に示すフローチャートを用いて、実施の形態1の音声認識システム10の動作を説明する。
まず、音声取得部11は、マイク5により取得されたユーザ発話、すなわち、入力された音声を取り込み、例えばPCMによりA/D変換し、音声区間を検出する(ステップST01)。
次に、音声認識部12は、音声取得部11により検出された音声区間の音声データを認識し、認識結果を出力する(ステップST02)。
続いて、音声操作意図判断部14は、音声操作意図の有無を判断するための情報を取得し(ステップST03)、音声操作意図の有無を判断して、判断結果を出力する(ステップST04)。
そして、制御態様変更部15は、制御態様記憶部16を参照して、音声認識部12により出力された認識結果と音声操作意図判断部14により出力された判断結果に基づいて制御態様を決定し、当該決定した制御態様をナビゲーション部1に対して出力する(ステップST05)。
最後に、ナビゲーション部1は、制御態様変更部15により指示された制御態様に基づいて処理を実行する(ステップST06)。
次に、具体例を用いて説明する。
まず、ユーザ発話の音声認識に成功した場合の例を説明する。
ここでは、ユーザAとユーザBが同乗しているものとする。また、音声解析部17はユーザ発話の明瞭度のみを算出するものとし、制御態様記憶部16には図4(a)(b)に示す内容が格納されているものとする。さらに、明瞭度の範囲は「0〜100」であり、予め定められた閾値を「50」とする。
ユーザAがユーザBに対して「どのコンビニのおにぎりが一番好き?」と発話したとする。この発話が、マイク5により集音され、音声取得部11は、マイク5により取得された音声を取り込みA/D変換する(ステップST01)。音声認識部12は、前述したように常時、音声取得部11により取得された音声データに対して認識処理を行っているので、音声取得部11によりデジタル化されたユーザAの発話を認識し、認識結果として「コンビニ」を出力する(ステップST02)。
次に、音声解析部17は、音声取得部11により取得された音声データを解析し、ユーザAの発話の明瞭度を算出し、音声操作意図判断部14は、当該明瞭度を取得する(ステップST03)。
ここで、算出された明瞭度は「40」であったとする。
音声操作意図判断部14は、音声解析部17により算出された明瞭度が予め定められた閾値「50」より小さいため、ユーザが、システムに対して音声操作することを意図して発話したのではないとして、「音声操作意図無し」と判断する(ステップST04)。
その後、制御態様変更部15は、制御態様記憶部16の図4(a)の内容を参照して、認識対象語が「コンビニ」かつ「音声操作意図無し」の場合の制御態様を決定する。この例では、「自車周辺のコンビニ検索を実行するためのボタンを生成して表示」に決定する(ステップST05)。
最後に、ナビゲーション部1は、制御態様変更部15により決定された制御態様に基づいて、処理を実行する。その結果、図7(b)に示すように、自車周辺のコンビニ検索を実行するためのボタンがディスプレイ3に表示される(ステップST06)。
一方、車内騒音が大きい等の状況のため、ステップST02にて音声認識部12により出力された認識結果に含まれる認識スコアが所定の閾値以下であった、または音声認識処理に失敗したとする。
この場合、ステップST05にて、制御態様変更部15は、制御態様記憶部16の図4(b)の内容を参照して、「認識結果が失敗」かつ「音声操作意図無し」の場合の制御態様を決定する。この例では、「報知音を出力」に決定する。
その結果、スピーカ4から例えば「ポーン」のような報知音が出力される(ステップST06)。
次にユーザAがナビゲーションシステムに対して「コンビニに行きたい」と発話した場合の動作を説明する。
図8のステップST01、ステップST02の処理は前述の場合と同様であるため説明を省略する。音声解析部17により明瞭度が「70」と算出されたものとし、音声操作意図判断部14は、当該明瞭度を取得する(ステップST03)。
音声操作意図判断部14は、音声解析部17により算出された明瞭度「70」が、予め定められた閾値「50」以上であるため、ユーザがシステムに対して音声操作することを意図して発話したとして、「音声操作意図有り」と判断する(ステップST04)。
その後、制御態様変更部15は、制御態様記憶部16の図4(a)の内容を参照して、認識対象語が「コンビニ」かつ「音声操作意図有り」の場合の制御態様を決定する。この例では、「自車周辺のコンビニを検索し検索結果のリストを表示」に決定する(ステップST05)。
最後に、ナビゲーション部1は、制御態様変更部15により決定された制御態様に基づいて、処理を実行する。その結果、図7(a)に示すように、自車周辺のコンビニ検索を実行した結果のリストがディスプレイ3に表示される(ステップST06)。
一方、車内騒音が大きく、ステップST02にて音声認識部12により出力された認識結果に含まれる認識スコアが所定の閾値以下であった、または音声認識処理に失敗したとする。
この場合、ステップST05にて、制御態様変更部15は、制御態様記憶部16の図4(b)の内容を参照して、「認識結果が失敗」かつ「音声操作意図有り」の場合の制御態様を決定する。この例では、「「認識できませんでした。もう一度発話してください」と音量出力」に決定する。
その結果、スピーカ4から「認識できませんでした。もう一度発話してください」と音声出力される(ステップST06)。
以上のように、実施の形態1によれば、ユーザが発話した音声を常時認識し、認識結果に基づいてナビゲーションシステムを制御する音声認識システム10において、認識した発話についてユーザがナビゲーションシステムを操作する意図が有るか無いかを判断する音声操作意図判断部14と、音声操作意図判断部14において操作の意図が無いと判断された場合、操作の意図が有ると判断された場合に比して、ナビゲーションシステムの制御の態様をユーザに意識させない方向に変更する制御態様変更部15とを備える構成にした。ユーザが音声操作を意図して発話したと判断した場合に比べ、音声操作を意図していない発話と判断した場合の認識結果に対応する制御態様を、ユーザに意識させないような態様に変更するため、ユーザの不快感および鬱陶しさを低減させることができる。
また、実施の形態1によれば、音声操作意図判断部14は、操作の意図が有ると判断した場合に、当該操作の意図がどの程度有るかを示す信頼度を判断し、制御態様変更部15は、音声操作意図判断部14において判断された信頼度が低い場合、信頼度が高い場合に比してナビゲーションシステムの制御の態様をユーザに意識させない方向に変更するようにした。そのため、実際にユーザが音声操作を意図して発話した可能性の高さに応じて制御態様を変更でき、ユーザの不快感および鬱陶しさをさらに低減させることができる。また、ユーザ同士の自然な会話を認識し、ユーザが所望していそうな動作をユーザ同士の会話を阻害することなく提示することができる。
また、実施の形態1によれば、制御態様変更部15は、ユーザが発話した音声の認識に失敗した場合にナビゲーションシステムを制御してユーザに対し認識失敗を報知させ、当該報知の態様を、発話について操作の意図の信頼度が低い場合、信頼度が高い場合に比してユーザに意識させない方向に変更するようにした。
また、音声によって認識失敗を報知する場合、制御態様変更部15は、発話について操作の意図の信頼度が低い場合、信頼度が高い場合に比して当該音声の音量を小さくするようにした。
そのため、認識失敗をユーザに報知する際の不快感および鬱陶しさを低減させることができる。
また、実施の形態1によれば、音声操作意図判断部14は、発話が複数の方向からあった場合、操作の意図が無いと判断するようにした。そのため、ユーザ同士の会話を阻害することがなく、不快感および鬱陶しさを低減させることができる。
また、実施の形態1によれば、制御態様変更部15は、ユーザが発話した音声の認識に失敗した場合に被制御装置を制御してユーザに対し認識失敗を報知させ、当該報知の態様を、発話について操作の意図が無いと判断された場合、操作の意図が有ると判断された場合に比してユーザに意識させない方向に変更するようにした。そのため、認識失敗をユーザに報知する際の不快感および鬱陶しさを低減させることができる。
なお、本発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、または実施の形態の任意の構成要素の省略が可能である。
この発明に係る音声認識システムは、ユーザが音声操作を意図して発話したか否かに応じて、認識結果に対応する制御態様を切り替えるようにしたので、ユーザの発話を常時認識する音声認識システムなどに用いるのに適している。
1 ナビゲーション部、2 指示入力部、3 ディスプレイ、4 スピーカ、5 マイク、6 カメラ、10 音声認識システム、11 音声取得部、12 音声認識部、13 音声認識辞書、14 音声操作意図判断部、15 制御態様変更部、16 制御態様記憶部、17 音声解析部、18 状態取得部、19 視線検出部。
この発明に係る音声認識システムは、ユーザが発話した音声を常時認識し、認識結果に基づいて被制御装置が常時応答するように制御する音声認識システムであって、認識した発話について、ユーザが被制御装置を操作する意図が有るか無いかを判断する音声操作意図判断部と、音声操作意図判断部において操作の意図が無いと判断された場合、操作の意図が有ると判断された場合に比して、被制御装置の制御の態様をユーザに意識させない方向に変更して前記被制御装置を動作させる制御態様変更部とを備えるものである。

Claims (6)

  1. ユーザが発話した音声を常時認識し、認識結果に基づいて被制御装置を制御する音声認識システムであって、
    認識した発話について、前記ユーザが前記被制御装置を操作する意図が有るか無いかを判断する音声操作意図判断部と、
    前記音声操作意図判断部において操作の意図が無いと判断された場合、操作の意図が有ると判断された場合に比して、前記被制御装置の制御の態様を前記ユーザに意識させない方向に変更する制御態様変更部とを備えることを特徴とする音声認識システム。
  2. 前記音声操作意図判断部は、操作の意図が有ると判断した場合に、当該操作の意図がどの程度有るかを示す信頼度を判断し、
    前記制御態様変更部は、前記音声操作意図判断部において判断された信頼度が低い場合、信頼度が高い場合に比して前記被制御装置の制御の態様を前記ユーザに意識させない方向に変更することを特徴とする請求項1記載の音声認識システム。
  3. 前記制御態様変更部は、前記ユーザが発話した音声の認識に失敗した場合に前記被制御装置を制御して前記ユーザに対し認識失敗を報知させ、当該報知の態様を、前記発話について操作の意図の信頼度が低い場合、信頼度が高い場合に比して前記ユーザに意識させない方向に変更することを特徴とする請求項2記載の音声認識システム。
  4. 前記制御態様変更部は、前記ユーザが発話した音声の認識に失敗した場合に前記被制御装置を制御して音声によって前記ユーザに対し認識失敗を報知させ、前記発話について操作の意図の信頼度が低い場合、信頼度が高い場合に比して前記音声の音量を小さくすることを特徴とする請求項2記載の音声認識システム。
  5. 前記音声操作意図判断部は、発話が複数の方向からあった場合、操作の意図が無いと判断することを特徴とする請求項1記載の音声認識システム。
  6. 前記制御態様変更部は、前記ユーザが発話した音声の認識に失敗した場合に前記被制御装置を制御して前記ユーザに対し認識失敗を報知させ、当該報知の態様を、前記発話について操作の意図が無いと判断された場合、操作の意図が有ると判断された場合に比して前記ユーザに意識させない方向に変更することを特徴とする請求項1記載の音声認識システム。
JP2016551392A 2014-09-30 2014-09-30 音声認識システム Expired - Fee Related JP6400109B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/076121 WO2016051519A1 (ja) 2014-09-30 2014-09-30 音声認識システム

Publications (2)

Publication Number Publication Date
JPWO2016051519A1 true JPWO2016051519A1 (ja) 2017-04-27
JP6400109B2 JP6400109B2 (ja) 2018-10-03

Family

ID=55629611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016551392A Expired - Fee Related JP6400109B2 (ja) 2014-09-30 2014-09-30 音声認識システム

Country Status (5)

Country Link
US (1) US10475448B2 (ja)
JP (1) JP6400109B2 (ja)
CN (1) CN106796786B (ja)
DE (1) DE112014007015B4 (ja)
WO (1) WO2016051519A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
CN104969289B (zh) 2013-02-07 2021-05-28 苹果公司 数字助理的语音触发器
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
CN106796786B (zh) * 2014-09-30 2021-03-02 三菱电机株式会社 语音识别系统
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
JP2018087870A (ja) * 2016-11-28 2018-06-07 アルパイン株式会社 音声出力装置
US10296586B2 (en) * 2016-12-23 2019-05-21 Soundhound, Inc. Predicting human behavior by machine learning of natural language interpretations
US10580405B1 (en) * 2016-12-27 2020-03-03 Amazon Technologies, Inc. Voice control of remote device
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
JP2019204503A (ja) * 2018-05-17 2019-11-28 オリンパス株式会社 情報処理装置、情報処理方法およびプログラム
US10754425B2 (en) * 2018-05-17 2020-08-25 Olympus Corporation Information processing apparatus, information processing method, and non-transitory computer readable recording medium
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870358A1 (en) * 2018-06-03 2020-01-03 Apple Inc. ACCELERATED TASK PERFORMANCE
DE112018007847B4 (de) * 2018-08-31 2022-06-30 Mitsubishi Electric Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
CN109192201A (zh) * 2018-09-14 2019-01-11 苏州亭云智能科技有限公司 基于双模型识别的语音领域命令理解方法
JP2020052145A (ja) * 2018-09-25 2020-04-02 トヨタ自動車株式会社 音声認識装置、音声認識方法、及び音声認識プログラム
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
WO2020121382A1 (ja) * 2018-12-10 2020-06-18 オリンパス株式会社 情報処理装置、情報処理方法、及びプログラム
US10817246B2 (en) * 2018-12-28 2020-10-27 Baidu Usa Llc Deactivating a display of a smart display device based on a sound-based mechanism
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
CN110992940B (zh) 2019-11-25 2021-06-15 百度在线网络技术(北京)有限公司 语音交互的方法、装置、设备和计算机可读存储介质
JP2021131472A (ja) * 2020-02-20 2021-09-09 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
WO2022137534A1 (ja) * 2020-12-25 2022-06-30 三菱電機株式会社 車載用音声認識装置及び車載用音声認識方法
KR20240053240A (ko) * 2022-10-17 2024-04-24 삼성전자주식회사 지능형 어시스턴트의 발화 제공 방법 및 그 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219207A (ja) * 2006-02-17 2007-08-30 Fujitsu Ten Ltd 音声認識装置
JP2011118290A (ja) * 2009-12-07 2011-06-16 Yamaha Corp 音声認識装置
JP2011128766A (ja) * 2009-12-16 2011-06-30 Canon Inc 入力装置及び方法
JP2011227237A (ja) * 2010-04-19 2011-11-10 Honda Motor Co Ltd コミュニケーションロボット
JP2013007917A (ja) * 2011-06-24 2013-01-10 Aisin Aw Co Ltd 音声認識制御システム、音声認識制御方法、及び音声認識制御プログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002336183A (ja) 2001-05-21 2002-11-26 Olympus Optical Co Ltd 内視鏡システム
US7246062B2 (en) * 2002-04-08 2007-07-17 Sbc Technology Resources, Inc. Method and system for voice recognition menu navigation with error prevention and recovery
JP2003308079A (ja) * 2002-04-15 2003-10-31 Nissan Motor Co Ltd 音声入力装置
US8311835B2 (en) * 2003-08-29 2012-11-13 Microsoft Corporation Assisted multi-modal dialogue
JP2005292401A (ja) * 2004-03-31 2005-10-20 Denso Corp カーナビゲーション装置
JP4346571B2 (ja) * 2005-03-16 2009-10-21 富士通株式会社 音声認識システム、音声認識方法、及びコンピュータプログラム
US8265939B2 (en) * 2005-08-31 2012-09-11 Nuance Communications, Inc. Hierarchical methods and apparatus for extracting user intent from spoken utterances
WO2007069372A1 (ja) * 2005-12-14 2007-06-21 Mitsubishi Electric Corporation 音声認識装置
JP4736982B2 (ja) 2006-07-06 2011-07-27 株式会社デンソー 作動制御装置、プログラム
JP4706587B2 (ja) 2006-07-26 2011-06-22 パナソニック電工株式会社 ガス吸着剤とその製造方法
JP2008250236A (ja) * 2007-03-30 2008-10-16 Fujitsu Ten Ltd 音声認識装置および音声認識方法
JP2008298851A (ja) 2007-05-29 2008-12-11 Fujitsu Ten Ltd 音声入力処理装置および音声入力処理方法
JP2008299221A (ja) * 2007-06-01 2008-12-11 Fujitsu Ten Ltd 発話検知装置
CN101436403B (zh) * 2007-11-16 2011-10-12 创而新(中国)科技有限公司 声调识别方法和系统
US20100118200A1 (en) * 2008-11-10 2010-05-13 Geoffrey Michael Gelman Signage
CN101409074A (zh) * 2008-11-24 2009-04-15 杭州鑫方软件有限公司 一种嵌入式语音识别系统功能更新的方法
JP2011033680A (ja) * 2009-07-30 2011-02-17 Sony Corp 音声処理装置及び方法、並びにプログラム
JP5790238B2 (ja) * 2011-07-22 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN103543814B (zh) * 2012-07-16 2016-12-07 瑞昱半导体股份有限公司 信号处理装置以及信号处理方法
CN102945672B (zh) * 2012-09-29 2013-10-16 深圳市国华识别科技开发有限公司 一种多媒体设备语音控制系统及方法
CN104038610A (zh) * 2013-03-08 2014-09-10 中兴通讯股份有限公司 一种通话语音调整方法及装置
US20140308930A1 (en) * 2013-04-12 2014-10-16 Bao Tran Timely, glanceable information on a wearable device
US20150068069A1 (en) * 2013-07-27 2015-03-12 Alexander Bach Tran Personally powered appliance
US20150127340A1 (en) * 2013-11-07 2015-05-07 Alexander Epshteyn Capture
CN103971681A (zh) * 2014-04-24 2014-08-06 百度在线网络技术(北京)有限公司 一种语音识别方法及系统
CN106796786B (zh) * 2014-09-30 2021-03-02 三菱电机株式会社 语音识别系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219207A (ja) * 2006-02-17 2007-08-30 Fujitsu Ten Ltd 音声認識装置
JP2011118290A (ja) * 2009-12-07 2011-06-16 Yamaha Corp 音声認識装置
JP2011128766A (ja) * 2009-12-16 2011-06-30 Canon Inc 入力装置及び方法
JP2011227237A (ja) * 2010-04-19 2011-11-10 Honda Motor Co Ltd コミュニケーションロボット
JP2013007917A (ja) * 2011-06-24 2013-01-10 Aisin Aw Co Ltd 音声認識制御システム、音声認識制御方法、及び音声認識制御プログラム

Also Published As

Publication number Publication date
DE112014007015B4 (de) 2021-01-14
DE112014007015T5 (de) 2017-06-22
JP6400109B2 (ja) 2018-10-03
US10475448B2 (en) 2019-11-12
WO2016051519A1 (ja) 2016-04-07
CN106796786B (zh) 2021-03-02
CN106796786A (zh) 2017-05-31
US20170243580A1 (en) 2017-08-24

Similar Documents

Publication Publication Date Title
JP6400109B2 (ja) 音声認識システム
US11237793B1 (en) Latency reduction for content playback
JP4304952B2 (ja) 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム
US9881605B2 (en) In-vehicle control apparatus and in-vehicle control method
WO2016103988A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP5762660B2 (ja) 音声認識装置、認識結果表示装置および表示方法
JP5677650B2 (ja) 音声認識装置
JP5637131B2 (ja) 音声認識装置
JP2008058409A (ja) 音声認識方法及び音声認識装置
JP2002091466A (ja) 音声認識装置
JP3702867B2 (ja) 音声制御装置
JP4104313B2 (ja) 音声認識装置、プログラム及びナビゲーションシステム
JP6214297B2 (ja) ナビゲーション装置および方法
JP2009230068A (ja) 音声認識装置及びナビゲーションシステム
JP6522009B2 (ja) 音声認識システム
JP2010039099A (ja) 音声認識および車載装置
JP4604377B2 (ja) 音声認識装置
JP3718088B2 (ja) 音声認識修正方式
JP2007057805A (ja) 車両用情報処理装置
JP2011180416A (ja) 音声合成装置、音声合成方法およびカーナビゲーションシステム
JP2010107614A (ja) 音声案内応答方法
JP2004341724A (ja) 対話型情報検索システム
JP2008233009A (ja) カーナビゲーション装置及びカーナビゲーション装置用プログラム
JP2017102320A (ja) 音声認識装置
JP2017187559A (ja) 音声認識装置及びコンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180904

R150 Certificate of patent or registration of utility model

Ref document number: 6400109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees