JP2004029270A - 音声制御装置 - Google Patents

音声制御装置 Download PDF

Info

Publication number
JP2004029270A
JP2004029270A JP2002183927A JP2002183927A JP2004029270A JP 2004029270 A JP2004029270 A JP 2004029270A JP 2002183927 A JP2002183927 A JP 2002183927A JP 2002183927 A JP2002183927 A JP 2002183927A JP 2004029270 A JP2004029270 A JP 2004029270A
Authority
JP
Japan
Prior art keywords
message
voice
command code
function
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002183927A
Other languages
English (en)
Other versions
JP3702867B2 (ja
Inventor
Masahiko Tateishi
立石 雅彦
Kunio Yokoi
横井 邦雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2002183927A priority Critical patent/JP3702867B2/ja
Priority to US10/430,280 priority patent/US7027565B2/en
Publication of JP2004029270A publication Critical patent/JP2004029270A/ja
Application granted granted Critical
Publication of JP3702867B2 publication Critical patent/JP3702867B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/271Devices whereby a plurality of signals may be stored simultaneously controlled by voice recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】音声制御装置において、ユーザが誤認識されたと勘違いを起こさないメッセージを報知する。
【解決手段】音声認識部10は、制御対象の機能を実行するコマンドコード22とともに、ユーザの発話内容に一致する認識語コード21を認識する。機能実行部110は、音声認識部10からのコマンドコード22に対応した機能を実行し、メッセージ出力部111は、音声認識部10からの認識語コード21に対応する認識語を認識語記憶部113から抽出し、この抽出した認識語を用いて最終的なメッセージを生成する。この最終的に生成されるメッセージを、表示装置4やスピーカ5等を介して報知することで、ユーザは自ら発話した内容が正常に認識されたことを確認することができる。
【選択図】    図3

Description

【0001】
【発明の属する技術分野】
本発明は、音声制御装置に関するものである。
【0002】
【従来の技術】
従来、話者の発する音声によってカメラのストロボ制御やシャッター制御等の機能を行うものがある。例えば、特開昭64−56428号公報では、カメラを操作する際に、所望の操作に対応する音声を入力し、この入力された音声を音声認識手段により認識し、認識結果に対応する制御内容に基づいてカメラの機能を制御するといった、音声入力によるカメラの制御方式が記載されている。
【0003】
このような音声制御カメラにおいて、ある特定の機能を実行するには、その特定の機能に一対一に割り付けられた音声を入力することで実現される。例えば、撮影時にストロボの発光を禁止する機能を実行するには、「ノーストロボ」という音声を入力する。しかしながら、カメラの機能に対する呼称は、ユーザによって異なることがあり、上述の機能の場合にも、「ストロボオフ」,「ストロボ禁止」,「フラッシュオフ」等の様々な呼称がある。そのため、ユーザは、一対一に割り付けられた音声以外の呼称を使用することができなかった。
【0004】
これに対し、例えば、特開2000−214525号公報に開示されている音声制御カメラがある。この音声制御カメラは、同一のカメラの機能に対して異なった呼称の音声が入力された場合でも、同一のコマンドコードを出力するものである。この音声制御カメラは、同一のカメラの機能に対して異なった呼称を記憶しており、記憶した呼称の何れか一つの音声が入力されれば、その同一のカメラの機能を実行する。
【0005】
このような、異なる呼称の音声入力にも対応する音声制御カメラは、カメラに限らず、例えば、カーナビゲーション装置にも適用されている。例えば、道路地図の縮尺切り換え機能において、道路地図を詳細表示にしたい場合、ユーザは「詳細」「拡大」何れの呼称で音声を入力しても、カーナビゲーション装置は、道路地図を詳細表示する動作を実行する。さらに、このカーナビゲーション装置は、実行する機能の名称を案内音によってユーザへ報知する。例えば、話者が「詳細」と発話すると、カーナビゲーション装置は「地図を詳細表示にします」という案内音を報知する。
【0006】
【発明が解決しようとする課題】
しかしながら、上述のカーナビゲーション装置では、ユーザが異なる呼称によって音声を入力しても、呼称に対応して実行される機能の名称が同一であれば、同一の案内音を報知していた。すなわち、例えば、ユーザが「拡大」と発話しても「地図を詳細表示にします」という案内音を報知していた。この場合、ユーザの発話した「拡大」とは異なる「詳細」という語句が案内音に含まれるため、ユーザは、自らが発話した音声が、異なる機能に誤認識されたと勘違いを起こすことがあった。
【0007】
本発明は、かかる問題を鑑みてなされたもので、ユーザが誤認識されたと勘違いを起こさない音声制御装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
請求項1に記載の音声制御装置は、ユーザが発話した音声を入力する音声入力手段と、発話内容と制御対象の各種機能を実行するコマンドコードとを関連付けて記憶するコマンドコード記憶手段と、音声入力手段によって入力された音声を認識して、この認識した発話内容に対応するコマンドコードをコマンドコード記憶手段から抽出する抽出手段と、抽出手段によって抽出されたコマンドコードによって、制御対象の機能を実行する制御手段と、制御手段によって実行される機能に対応するメッセージを生成するメッセージ生成手段と、メッセージ生成手段によって生成されたメッセージを報知する報知手段とを備え、コマンドコード記憶手段に記憶されるコマンドコードは、同一のコマンドコードに対して単一、または複数個の異なる発話内容が割り付けられ、メッセージ生成手段は、同一のコマンドコードによる機能が実行される際、認識した発話内容を用いてメッセージを生成することを特徴とする。
【0009】
このように、本発明の音声制御装置は、認識した発話内容を用いてメッセージを生成しているため、報知されるメッセージは、話者自らが発話した音声に対応した内容となる。これにより、話者の発話した音声が、異なる機能に誤認識されたと勘違いを起こすことを防止することができる。
【0010】
請求項2に記載の音声制御装置では、メッセージ生成手段は、メッセージ中に認識した発話内容をそのまま用いてメッセージを生成することを特徴とする。例えば、カーナビゲーション装置において道路地図表示を詳細な表示に変更する際、ユーザが「詳細」と発話した場合には、「地図を(詳細)表示にします」というように、発話内容をそのままメッセージ中に用いて、最終的なメッセージを生成する。この最終的なメッセージを報知することで、ユーザは、自ら発話した内容が正常に認識されたことを確認することができる。
【0011】
請求項3に記載のように、メッセージは、コマンドコードに対応する基本メッセージに基づいて生成することで、制御対象の機能に合致したメッセージを報知することが可能となる。
【0012】
請求項4に記載の音声制御装置によれば、メッセージ生成手段は、制御手段が実行した機能の実行結果に基づいてメッセージを生成することを特徴とする。
【0013】
例えば、カーナビゲーション装置の道路地図表示が最も詳細な表示になっていたとする。このとき、ユーザが誤って「詳細」と発話した場合には、制御手段はより詳細な表示に対応する機能を実行できないため、この場合には「これ以上(詳細)に出来ません」というメッセージを生成する。このように、制御手段の実行結果に応じたメッセージを生成することで、ユーザが誤った発話をした場合でも、実行結果に対応したメッセージを報知することができる。
【0014】
請求項5に記載の音声制御装置では、メッセージ生成手段は、制御手段が実行する機能に対応する基本メッセージと認識した発話内容とを組み合わせてメッセージを生成することを特徴とする。
【0015】
例えば、カーナビゲーション装置において道路地図表示を詳細な表示に変更する際、「地図を(発話内容)表示にします」というような、実行する機能に対応した基本メッセージを採用する。そして、基本メッセージの(発話内容)の箇所を、ユーザが発話した「詳細」という発話内容に置き換えて最終的なメッセージを生成する。これにより、最終的なメッセージを容易に生成することが可能となる。
【0016】
請求項6に記載の音声制御装置のように、制御対象はカーナビゲーション装置であって、コマンドコードは、少なくともカーナビゲーション装置の表示部に表示される道路地図の縮尺切り換え機能に対応するものであれば、上述のような道路地図を詳細表示にしたい場合であっても、ユーザが勘違いを起こすことを防止することができる。
【0017】
【発明の実施の形態】
以下、本発明の実施の形態における音声制御装置に関して、図面に基づいて説明する。なお、本実施形態では、本発明の音声制御装置をカーナビゲーション装置に適用した例について説明する。
【0018】
図1は、本実施形態に係わるカーナビゲーション装置の概略構成を示すブロック図である。同図に示すように、本実施形態のカーナビゲーション装置1は、音声認識部10、経路案内部11、車両位置・車両向き計算部12から構成されている。また、カーナビゲーション装置1は、図示しない道路地図描画部等を有している。さらに、カーナビゲーション装置1は、音声入力に用いられるマイク2、トークスイッチ3、表示装置4、スピーカ5、GPS受信機6、車速センサ7、ヨーレートセンサ8、及び地図データベース9等と接続されている。
【0019】
マイク2、及びトークスイッチ3は、音声入力に用いられる装置である。音声を入力する場合には、例えば、トークスイッチ3の押しボタンを押すことで、入力トリガ14が後述する音声認識部10に送信され、この音声認識部10は、入力トリガ14を受信すると、マイク2から音声入力を受け付けるモードに変更される。
【0020】
この音声入力を受け付けるモードのとき、ユーザが、例えば「現在地」と発話すると、その音声がマイク2によって音声信号13に変換され、音声認識部10に送られる。音声認識部10は、この音声を認識して、音声に対応する操作コマンドに変換し、経路案内部11等に与える。例えば、「現在地」と認識された音声は、「現在地を表示する」という操作コマンドに変換される。この操作コマンドを受けた経路案内部11は、最終的に現在地を中心とする道路地図を表示装置4に表示する。なお、この操作コマンドは、後述する認識語コード21及びコマンドコード22からなるものである。
【0021】
表示装置4は、道路地図等を表示する液晶ディスプレイによって構成され、また、ディスプレイに表示される道路地図は、音声や図示しないリモコンや操作パネルの操作によって縮尺切り換えが可能になっている。なお、このディスプレイにタッチパネルが採用されるものであっても良い。
【0022】
スピーカ5は、音声案内や各種警告音等の出力に使用されるものであり、例えば、車両に装備されたスピーカであっても良いし、カーナビゲーション装置1に内蔵されたものであっても良い。
【0023】
GPS受信機6、車速センサ7、及びヨーレートセンサ8は、周知のごとく、車両の現在位置や車両進行方向等を算出するのに必要な信号(以下、センサ信号17と呼ぶ)を生成するものである。生成されたセンサ信号17は、車両位置・車両向き計算部12に送られる。
【0024】
地図データベース9は、図示しない記憶媒体に格納されるもので、地図情報、道路情報からなる。なお、記憶媒体としては、そのデータ量からCD−ROMやDVD−ROMを用いるのが一般的であるが、メモリカードやハードディスクなどの媒体を用いてもよい。
【0025】
次に、カーナビゲーション装置1の音声認識部10について、図2を用いて説明する。同図に示すように音声認識部10は、AD変換回路101、認識プログラム処理部102、音響モデル記憶部103、認識辞書記憶部104、及びコマンドコード記憶部105等によって構成される。
【0026】
AD変換回路101は、マイク2を介して入力されるアナログの音声信号13を受信し、この信号をデジタル化した信号に変換する。変換されたデジタル音声信号106は、認識プログラム処理部102に送信される。
【0027】
認識プログラム処理部102は、音響モデル記憶部103、及び認識辞書記憶部104を用いて、デジタル音声信号106を認識語コード21に変換するものである。まず、認識プログラム処理部102は、音響モデル記憶部103に記憶される、例えば、周知の隠れマルコフモデル(Hidden Markov Model)等の手法を用いて、デジタル音声信号106に対応する発話内容(以後、認識語読みと呼ぶ)を解析する。
【0028】
この解析された認識語読みは、認識辞書記憶部104に記憶された認識語読みと照合され、最も確からしい認識語読み、及びその認識語読みに対応する認識語コード21が抽出される。この認識辞書記憶部104は、図4に示すように、認識語読みと、その認識語読みと一対一に対応する認識語コード21が記憶された構成となっている。例えば、認識語読みが「げんざいち」である場合には、これに対応する認識語コード21であるR0001が抽出される。この認識語コード21とは、経路案内部11のメッセージ出力部111が認識可能なコードである。
【0029】
また、認識プログラム処理部102は、コマンドコード記憶部105を参照して、この認識語コード21に対応するコマンドコード22を抽出する。コマンドコード記憶部105の構成を図5に示す。例えば、認識語コード21のR0001に対するコマンドコード22はC0001といったように抽出される。このコマンドコード22とは、経路案内部11の機能実行部110が識別可能なコードである。
【0030】
そして、認識プログラム処理部102は、上述の処理により得られた認識語コード21およびコマンドコード22を経路案内部11に出力する。例えば、「現在地」という音声が入力された場合には、認識語コード21(R0001)及びコマンドコード22(C0001)を出力する。
【0031】
なお、認識語読みと認識語コード21とは一対一に対応するが、認識語コード21とコマンドコード22とは、図5に示すように、複数対一で対応する場合がある。この複数対一の対応により、ユーザの異なる呼称に対応可能となる。例えば、音声入力「詳細」「拡大」は、図6に示すように、同一のコマンドコード22であるC0002に変換される。このコマンドコードC0002は、後述する機能実行部110において、「地図を詳細表示にする」という操作に対応する。
【0032】
続いて、カーナビゲーション装置1の経路案内部11について、図3を用いて説明する。同図に示すように経路案内部11は、機能実行部110、メッセージ出力部111、メッセージ記憶部112、及び認識語記憶部113から構成される。
【0033】
機能実行部110は、音声認識部10から受け取ったコマンドコード22に対応する機能を実行する。この機能実行部110が実行する機能としては、例えば、表示装置4に表示される道路地図の縮尺変更や、道路地図表示の向きを変更する機能等がある。例えば、車両の現在位置周辺の道路地図を描画するコマンドコードを受け取った場合には、車両位置・車両向き計算部12から車両位置・車両の進行方向信号19を受信し、地図データベース9から車両位置周辺の地図データ18を読み出し、画像信号15に変換して表示装置4に表示したりする。
【0034】
さらに、機能実行部110は、コマンドコード22と実行した機能の実行結果114とをメッセージ出力部111に送信する。ここで実行結果114は、「成功」又は「失敗」のいずれかであり、すなわち、コマンドコード22に対する機能の実行に成功したか否かを意味するものである。
【0035】
メッセージ出力部111は、コマンドコード22と実行結果114を受け取り、これらに対応するメッセージフォーマットをメッセージ記憶部112から抽出する。そして、抽出したメッセージフォーマットから、出力メッセージを生成する。さらに、メッセージ出力部111は、音声認識部10から認識語コード21を受け取り、受け取った認識語コード21に対応する認識語を認識語記憶部113から検索し、検索した認識語を上述のメッセージフォーマットに追加する。
【0036】
図7に、メッセージ記憶部112が記憶するメッセージフォーマットを示す。同図に示すように、各々のメッセージフォーマットは、コマンドコード22及び実行結果114の組み合わせによって区分けされており、メッセージ出力部111へ対応するメッセージフォーマットを出力する。
【0037】
なお、メッセージフォーマットには、(認識語)と表記された箇所を持つものがある。この(認識語)の箇所には、図8に示すように、認識語記憶部113が記憶する認識語が挿入される。この挿入作業は、メッセージ出力部111において実行され、メッセージ出力部111は、認識語コード21に対応する認識語をメッセージフォーマットに挿入することで、最終的なメッセージを生成する。そして、その最終的なメッセージは、表示装置4やスピーカ5等の装置を介して出力される。
【0038】
なお、図8に示すように、認識語記憶部113が記憶する認識語は、音声認識部10が認識する認識語コード21に対応する認識語が割り付けられており、これら認識語は、認識プログラム102が認識したユーザの発話内容と一致するものとなっている。
【0039】
このように、表示装置4やスピーカ5等によって出力される最終的なメッセージには、音声認識部10から送信される認識語コード21に対応する認識語が含まれる。従って、話者の発話した内容と一致する認識語が報知される。
【0040】
次に、上述のカーナビゲーション装置1において、音声入力によってカーナビゲーション装置1の機能が実行され、かつ、実行結果に対応するメッセージが報知されるまでの一連の処理の流れについて、図9〜図11のフローチャートを用いて説明する。なお、具体的な例として、表示装置4に表示される道路地図の縮尺を変更する際に発せられる「拡大」という音声が入力された場合を想定して説明を進める。
【0041】
先ず、ステップS1は、トークスイッチ3がユーザに押されるまで待機状態を維持し、トークスイッチ3が押された場合には、ステップS2に処理を進める。
【0042】
ステップS2では、音声認識部10が入力モードに切り換わり、音声の入力を受け付ける状態となる。ここで、例えば、「拡大」といった音声が入力された場合には、ステップS3の音声認識処理に処理を進める。
【0043】
ステップS3における処理を、図10を用いて説明する。まず、ステップS30では、入力された音声から認識語読みを解析する。そして、認識語読みに対応する認識語コード21を認識辞書記憶部104から抽出する。ここでは、「拡大」という音声が解析されることで「かくだい」という認識語読みに判定され、この認識語読みに対応する認識語コード21であるR0003が抽出される。
【0044】
ステップS31は、ステップS30で抽出された認識語コード21に対応するコマンドコード22を、コマンドコード記憶部105から抽出する。ここでは、認識語コード21のR0003に対応するコマンドコードC0002が抽出される。ステップS32では、抽出された認識語コード21及びコマンドコード22を経路案内部11に送信する。
【0045】
次に、ステップS4のコマンド実行処理について、図11のフローチャートを用いて説明する。ステップS40では、機能実行部110において、音声認識部10から送信されたコマンドコード22に対応する機能を実行する。ここでは、C0002に対応する機能である、表示装置4に表示される道路地図の拡大表示の機能が実行される。さらに、機能実行部110は、実行が成功したか否かを判定し、実行が成功した場合には、実行結果114「成功」をメッセージ出力部111に送信し、実行が成功しなかった場合には、実行結果114「失敗」をメッセージ出力部111に送信する。ここでは、実行結果114「成功」を送信したとする。
【0046】
ステップS41では、メッセージ出力部111は、機能実行部110から送信されるコマンドコード22及び実行結果114に対応するメッセージフォーマットを、メッセージ記憶部112から抽出する。ここでは、コマンドコード22がC0002、実行結果114が「成功」であるため、「地図を(認識語)表示にします」というメッセージフォーマットが抽出される。
【0047】
ステップS42において、メッセージ出力部111は、音声認識部10から送出される認識語コード21に対応する認識語を認識語記憶部113から抽出する。ここでは、認識語コード21はR0003であるため、「拡大」という認識語が抽出される。
【0048】
ステップS43では、メッセージ出力部111において、抽出したメッセージフォーマットの(認識語)の箇所に、同じく抽出した認識語を挿入して、最終的なメッセージを生成する。ここでは、最終的なメッセージとして「地図を拡大表示にします」が生成される。
【0049】
そして、ステップS44において、最終的なメッセージは画像信号15や案内音16にそれぞれ変換され、表示装置4やスピーカ5から出力される。このようにして、本実施形態のカーナビゲーション装置1では、ユーザの発話に対して望ましいメッセージをユーザに報知することができる。
【0050】
このように、本発明の音声制御装置は、認識した発話内容を用いてメッセージを生成しているため、報知されるメッセージは、話者自らが発話した音声に対応した内容となる。例えば、本実施形態のように、表示装置4に表示される道路地図の縮尺を拡大する場合、報知されるメッセージには、ユーザの発話した内容に対応した認識語が挿入される。従って、ユーザは「拡大」又は「詳細」のどちらを発話しても、発話した内容に対応する認識語を含むメッセージが報知される。これにより、ユーザの発話した音声が、異なる機能に誤認識されたと勘違いを起こすことを防止することができる。
【0051】
さらに、本実施形態のカーナビゲーション装置1においては、実行結果に対応したメッセージが報知される。例えば、表示装置4に表示される道路地図の縮尺が最も詳細になっていたとする。このとき、ユーザが誤って「詳細」と発話した場合には、制御手段はより詳細な表示に対応する機能を実行できないため、この場合には「これ以上(詳細)に出来ません」というメッセージを生成する。このように、実行結果に応じたメッセージが生成されるため、ユーザが誤った発話をした場合でも、実行結果に対応したメッセージを報知することができる。
【0052】
なお、上述した実施形態においては、メッセージ出力部11にコマンドコードと実行結果を送信して、対応するメッセージフォーマットをメッセージ記憶部112から抽出した。しかしながら、音声認識部10からメッセージ出力部111に送信される認識語コードと実行結果から、対応するメッセージフォーマットを抽出することも可能である。
【0053】
また、本発明の適用範囲はカーナビゲーション装置に限定されるものではなく、音声認識により機能を発揮できる機構を備えた、例えば、家電製品やロボット等にも同様に適用できることはいうまでもない。
【図面の簡単な説明】
【図1】本実施形態に係わる、カーナビゲーション装置1の概略構成を示すブロック図である。
【図2】本実施形態に係わる、音声認識部10の構成を示すブロック図である。
【図3】本実施形態に係わる、経路案内部11の構成を示すブロック図である。
【図4】本実施形態に係わる、認識語読みと認識語コード21との対応関係を示す図である。
【図5】本実施形態に係わる、認識語コード21とコマンドコード22との対応関係を示す図である。
【図6】本実施形態に係わる、音声入力、認識語読み、認識語コード21、及びコマンドコード22との対応関係を示す図である。
【図7】本実施形態に係わる、コマンドコード21、実行結果114、及びメッセージフォーマットとの対応関係を示す図である。
【図8】本実施形態に係わる、認識語コード21と認識語との対応関係を示す図である。
【図9】本実施形態に係わる、カーナビゲーション装置1の全体の処理の流れを示すフローチャートである。
【図10】本実施形態に係わる、音声認識処理の流れを示すフローチャートである。
【図11】本実施形態に係わる、コマンド実行処理の流れを示すフローチャートである。
【符号の説明】
1 カーナビゲーション装置
2 マイク
3 トークスイッチ
4 表示装置
5 スピーカ
6 GPS受信機
7 車速センサ
8 ヨーレートセンサ
9 地図データベース
10 音声認識部
11 経路案内部
12 車両位置・車両向き計算部

Claims (6)

  1. ユーザが発話した音声を入力する音声入力手段と、
    発話内容と制御対象の各種機能を実行するコマンドコードとを関連付けて記憶するコマンドコード記憶手段と、
    前記音声入力手段によって入力された音声を認識して、この認識した発話内容に対応するコマンドコードを前記コマンドコード記憶手段から抽出する抽出手段と、
    該抽出手段によって抽出されたコマンドコードによって、前記制御対象の機能を実行する制御手段と、
    該制御手段によって実行される機能に対応するメッセージを生成するメッセージ生成手段と、
    該メッセージ生成手段によって生成されたメッセージを報知する報知手段とを備え、
    前記コマンドコード記憶手段に記憶されるコマンドコードは、同一のコマンドコードに対して単一、または複数個の異なる発話内容が割り付けられ、
    前記メッセージ生成手段は、前記同一のコマンドコードによる機能が実行される際、前記認識した発話内容を用いてメッセージを生成することを特徴とする音声制御装置。
  2. 前記メッセージ生成手段は、前記メッセージ中に前記認識した発話内容をそのまま用いてメッセージを生成することを特徴とする請求項1記載の音声制御装置。
  3. 前記メッセージは、前記コマンドコードに対応する基本メッセージに基づいて生成することを特徴とする請求項1又は2記載の音声制御装置。
  4. 前記メッセージ生成手段は、前記制御手段が実行する機能の実行結果に基づいてメッセージを生成することを特徴とする請求項1〜3のいずれかに記載の音声制御装置。
  5. 前記メッセージ生成手段は、前記制御手段が実行する機能に対応する基本メッセージと前記認識した発話内容とを組み合わせてメッセージを生成することを特徴とする請求項1〜4のいずれかに記載の音声制御装置。
  6. 前記制御対象はカーナビゲーション装置であって、
    前記コマンドコードは、少なくとも前記カーナビゲーション装置の表示部に表示される道路地図の縮尺切り換え機能に対応するものであることを特徴とする請求項1〜5のいずれかに記載の音声制御装置。
JP2002183927A 2002-06-25 2002-06-25 音声制御装置 Expired - Fee Related JP3702867B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002183927A JP3702867B2 (ja) 2002-06-25 2002-06-25 音声制御装置
US10/430,280 US7027565B2 (en) 2002-06-25 2003-05-07 Voice control system notifying execution result including uttered speech content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002183927A JP3702867B2 (ja) 2002-06-25 2002-06-25 音声制御装置

Publications (2)

Publication Number Publication Date
JP2004029270A true JP2004029270A (ja) 2004-01-29
JP3702867B2 JP3702867B2 (ja) 2005-10-05

Family

ID=29728349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002183927A Expired - Fee Related JP3702867B2 (ja) 2002-06-25 2002-06-25 音声制御装置

Country Status (2)

Country Link
US (1) US7027565B2 (ja)
JP (1) JP3702867B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108766441A (zh) * 2018-05-29 2018-11-06 广东声将军科技有限公司 一种基于离线声纹识别和语音识别的语音控制方法及装置
JP2020060571A (ja) * 2019-11-26 2020-04-16 株式会社ユピテル システム及びプログラム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7499531B2 (en) 2003-09-05 2009-03-03 Emc Corporation Method and system for information lifecycle management
US8103873B2 (en) * 2003-09-05 2012-01-24 Emc Corporation Method and system for processing auditory communications
US8209185B2 (en) 2003-09-05 2012-06-26 Emc Corporation Interface for management of auditory communications
US20060004579A1 (en) * 2004-07-01 2006-01-05 Claudatos Christopher H Flexible video surveillance
US8244542B2 (en) * 2004-07-01 2012-08-14 Emc Corporation Video surveillance
US8229904B2 (en) 2004-07-01 2012-07-24 Emc Corporation Storage pools for information management
US20060004818A1 (en) * 2004-07-01 2006-01-05 Claudatos Christopher H Efficient information management
US9268780B2 (en) 2004-07-01 2016-02-23 Emc Corporation Content-driven information lifecycle management
US7707037B2 (en) * 2004-07-01 2010-04-27 Emc Corporation Archiving of surveillance data
US8180743B2 (en) * 2004-07-01 2012-05-15 Emc Corporation Information management
US8180742B2 (en) 2004-07-01 2012-05-15 Emc Corporation Policy-based information management
US7899665B2 (en) * 2004-08-20 2011-03-01 International Business Machines Corporation Methods and systems for detecting the alphabetic order used by different languages
US8626514B2 (en) 2004-08-31 2014-01-07 Emc Corporation Interface for management of multiple auditory communications
US8694322B2 (en) * 2005-08-05 2014-04-08 Microsoft Corporation Selective confirmation for execution of a voice activated user interface
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8599718B2 (en) * 2007-06-26 2013-12-03 At&T Intellectual Property I, L.P. Methods and apparatus to provide enhanced 911 (E911) services for nomadic users
US9087455B2 (en) * 2011-08-11 2015-07-21 Yahoo! Inc. Method and system for providing map interactivity for a visually-impaired user
JP6102588B2 (ja) * 2013-07-10 2017-03-29 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US11691076B2 (en) 2020-08-10 2023-07-04 Jocelyn Tan Communication with in-game characters

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60260094A (ja) 1984-06-06 1985-12-23 株式会社日立製作所 音声認識装置
US4873714A (en) * 1985-11-26 1989-10-10 Kabushiki Kaisha Toshiba Speech recognition system with an accurate recognition function
US5182765A (en) * 1985-11-26 1993-01-26 Kabushiki Kaisha Toshiba Speech recognition system with an accurate recognition function
JPS6456428A (en) 1987-08-27 1989-03-03 Oki Electric Ind Co Ltd Control system for camera by sound
US5652789A (en) * 1994-09-30 1997-07-29 Wildfire Communications, Inc. Network based knowledgeable assistant
JPH11249690A (ja) 1998-03-06 1999-09-17 Mitsubishi Electric Corp 音声認識装置及び音声認識方法
JP2000029490A (ja) 1998-07-15 2000-01-28 Denso Corp 音声認識装置用の単語辞書データ構築方法、音声認識装置及びナビゲーションシステム
JP2000214525A (ja) 1999-01-20 2000-08-04 Olympus Optical Co Ltd 音声制御カメラ
JP2001005491A (ja) 1999-06-21 2001-01-12 Mitsubishi Electric Corp 車載情報装置
US20020049535A1 (en) * 1999-09-20 2002-04-25 Ralf Rigo Wireless interactive voice-actuated mobile telematics system
US6901255B2 (en) * 2001-09-05 2005-05-31 Vocera Communications Inc. Voice-controlled wireless communications system and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108766441A (zh) * 2018-05-29 2018-11-06 广东声将军科技有限公司 一种基于离线声纹识别和语音识别的语音控制方法及装置
JP2020060571A (ja) * 2019-11-26 2020-04-16 株式会社ユピテル システム及びプログラム

Also Published As

Publication number Publication date
JP3702867B2 (ja) 2005-10-05
US7027565B2 (en) 2006-04-11
US20030235276A1 (en) 2003-12-25

Similar Documents

Publication Publication Date Title
JP3702867B2 (ja) 音声制御装置
EP1450349B1 (en) Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus
US8484033B2 (en) Speech recognizer control system, speech recognizer control method, and speech recognizer control program
US6604073B2 (en) Voice recognition apparatus
JP4942860B2 (ja) 認識辞書作成装置、音声認識装置及び音声合成装置
US20110178804A1 (en) Voice recognition device
JP2008145693A (ja) 情報処理装置及び情報処理方法
JP3726783B2 (ja) 音声認識装置
JP4639990B2 (ja) 音声対話装置及び音声理解結果生成方法
JP3718088B2 (ja) 音声認識修正方式
JP4498906B2 (ja) 音声認識装置
JP2011180416A (ja) 音声合成装置、音声合成方法およびカーナビゲーションシステム
JP2004029354A (ja) 音声認識装置、音声認識方法及び音声認識プログラム
JP4930014B2 (ja) 音声認識装置、および音声認識方法
JP2007183516A (ja) 音声対話装置及び音声認識方法
JP2005114964A (ja) 音声認識方法および音声認識処理装置
JP2005309185A (ja) 音声入力装置、および音声入力方法
WO2015102039A1 (ja) 音声認識装置
JP2004061754A (ja) 音声制御装置
JP2008003266A (ja) 行き先設定装置及び行き先設定方法
JP2006023444A (ja) 音声対話装置
JP2001005480A (ja) ユーザー発音判定装置及び記録媒体
JP2017102320A (ja) 音声認識装置
JP2009300696A (ja) 音声認識装置
JP2006184421A (ja) 音声認識装置及び音声認識方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050711

R150 Certificate of patent or registration of utility model

Ref document number: 3702867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110729

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120729

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120729

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130729

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees