JP6155592B2 - 音声認識システム - Google Patents

音声認識システム Download PDF

Info

Publication number
JP6155592B2
JP6155592B2 JP2012220298A JP2012220298A JP6155592B2 JP 6155592 B2 JP6155592 B2 JP 6155592B2 JP 2012220298 A JP2012220298 A JP 2012220298A JP 2012220298 A JP2012220298 A JP 2012220298A JP 6155592 B2 JP6155592 B2 JP 6155592B2
Authority
JP
Japan
Prior art keywords
unit
speech recognition
voice
recognition device
voice recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012220298A
Other languages
English (en)
Other versions
JP2014071446A (ja
JP2014071446A5 (ja
Inventor
鈴木 竜一
竜一 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2012220298A priority Critical patent/JP6155592B2/ja
Priority to US14/430,712 priority patent/US9293142B2/en
Priority to PCT/JP2013/005165 priority patent/WO2014054217A1/ja
Publication of JP2014071446A publication Critical patent/JP2014071446A/ja
Publication of JP2014071446A5 publication Critical patent/JP2014071446A5/ja
Application granted granted Critical
Publication of JP6155592B2 publication Critical patent/JP6155592B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Description

本発明は、複数の音声認識装置を備えた音声認識システムに関する。
複数の音声認識装置を用いて音声認識処理を行う構成として、特許文献1に記載されたシステムが知られている。このシステムでは、複数の音声認識装置を備え、音声認識を行いたい複数の音声ファイルを、上記複数の音声認識装置によってパラレルに音声認識処理を実行するようにしている。
特開2009−198560号公報
上記従来構成の場合、複数の音声ファイルについて並列して音声認識処理を実行するので、大量の音声ファイルを短時間で音声認識処理することには適している。しかし、複数の音声認識装置を備えていても、音声認識の精度を向上させる点については、効果が得られることがなかった。
そこで、本発明の目的は、複数の音声認識装置を備えるものにおいて、音声認識の精度を向上させることができる音声認識システムを提供することにある。
請求項1の発明によれば、車両に搭載され音声認識装置(6)を備えた第1ユニット(2)と、車両に搭載され前記第1ユニット(2)に接続され音声認識装置(7)を備えた第2ユニット(3)とを備えた車両用の音声認識システムであって、前記第1ユニット(2)の音声認識装置(6)は、認識辞書部(12)を有し、前記第2ユニット(3)の音声認識装置(7)は、音声認識装置(6)の前記認識辞書部(12)とは音声認識の得意な分野のデータ部分が異なる認識辞書部(21)を有し、入力された音声が前記第1ユニット(2)の音声認識装置(6)と前記第2ユニット(3)の音声認識装置(7)によってそれぞれ音声認識された後、これら2つの音声認識結果が一致しなかったときには、前記第1ユニット(2)の音声認識装置(6)による音声認識結果を選択してその音声認識結果の処理を前記第1ユニット(2)により実行し、2つの音声認識結果が一致したときには、前記第2ユニット(3)の音声認識装置(7)による音声認識結果を選択してその音声認識結果の処理を前記第2ユニット(3)により実行するように構成されているので、音声認識の精度を向上させることができる。
請求項2の発明によれば、車両に搭載され音声認識装置(6)を備えたディスプレイコントロールユニット(2)と、車両に搭載され前記ディスプレイコントロールユニット(2)に接続され音声認識装置(7)を備えたナビゲーションユニット(3)とを備えた車両用の音声認識システムであって、前記ディスプレイコントロールユニット(2)の音声認識装置(6)は、認識辞書部(12)を有し、前記ナビゲーションユニット(3)の音声認識装置(7)は、前記音声認識装置(6)の認識辞書部(12)とは音声認識の得意な分野のデータ部分が異なる認識辞書部(21)を有し、入力された音声が前記ディスプレイコントロールユニット(2)の音声認識装置(6)と前記ナビゲーションユニット(3)の音声認識装置(7)によってそれぞれ音声認識された後、これら2つの音声認識結果が一致しなかったときには、前記ディスプレイコントロールユニット(2)の音声認識装置(6)による音声認識結果を選択してその音声認識結果の処理を前記ディスプレイコントロールユニット(2)により実行し、2つの音声認識結果が一致したときには、前記ナビゲーションユニット(3)の音声認識装置(7)による音声認識結果を選択してその音声認識結果の処理を前記ナビゲーションユニット(3)により実行するように構成されているので、音声認識の精度を向上させることができる。
本発明の第1実施形態を示す車載システムのブロック図 ディスプレイコントロールユニット及びナビゲーションユニットのブロック図 音声認識制御のフローチャート 音声認識制御の内容を表にして示す図
以下、本発明を車両に搭載した車載システムに適用した第1実施形態について、図1ないし図4を参照して説明する。図1は、本実施形態の車載システム1の電気的構成を概略的に示すブロック図である。この図1に示すように、車載システム1は、ディスプレイコントロールユニット(以下、DCUと称す)2と、ナビゲーションユニット3と、オーディオユニット4と、電話通信ユニット5とを備えている。DCU2とナビゲーションユニット3がそれぞれ音声認識装置6、7(図2参照)を内蔵しており、これらDCU2とナビゲーションユニット3とから音声認識システム8が構成されている。
DCU2は、図2に示すように、制御部(音声認識制御手段)9と、ヒューマンマシンインターフェイス部(以下、HMI部と称す)10と、音声合成装置(TTS部)11と、音声認識装置(VR部)6と、認識辞書部12と、DCU/ナビI/F部13とを備えている。制御部9は、DCU2の各部を制御する機能を有する。HMI部10は、ディスプレイと、ディスプレイの画面表面に設けられたタッチパネルと、ディスプレイの画面の周囲部に設けられた複数の操作スイッチから構成された操作部と、リモコン等とを備えている。
音声合成装置11は、制御部9から与えられたテキストを音声(音声信号)に変換(合成)する機能を有し、変換された音声は制御部9へ与えられる。尚、ここで変換された音声は、制御部9によって、前記オーディオユニット4へ送信され、該オーディオユニット4のスピーカを介して音声出力される。
音声認識装置6は、マイク14を介して入力された音声(アナログ音声信号)について、認識辞書部12の各辞書を使用して音声認識を行う機能を有し、認識結果は制御部9へ与えられる。認識辞書部12は、コマンド対応辞書15と、楽曲対応辞書16と、電話帳対応辞書17とを備えている。これらコマンド対応辞書15、楽曲対応辞書16及び電話帳対応辞書17は、コマンド(DCU2、ナビゲーションユニット3、オーディオユニット4及び電話通信ユニット5用の各種のコマンド)、楽曲及び電話という3つのデータ分野にそれぞれ対応する音声認識用辞書である。尚、認識辞書部12内に、上記3つのデータ分野以外の1つ以上のデータ分野に対応する1つ以上の音声認識用辞書を備えるように構成しても良い。
制御部9は、DCU/ナビI/F部13と、ナビゲーションユニット3内のDCU/ナビI/F部18とを介して、ナビゲーションユニット3との間でデータ通信を行うように構成されている。尚、DCU2内には、DCU2と前記オーディオユニット4または前記電話通信ユニット5との各間でそれぞれデータ通信するためのI/F部(図示しない)が備わっている。
また、ナビゲーションユニット3は、図2に示すように、制御部19と、音声合成装置(TTS部)20と、音声認識装置(VR部)7と、認識辞書部21と、DCU/ナビI/F部18とを備えている。更に、ナビゲーションユニット3は、通常のナビゲーション装置が備えている各構成、即ち、車両の現在位置を検出する位置検出器、地図データ等を入力する地図データ入力器、現在位置から目的地までの経路を算出する経路算出部、経路に沿って案内する経路案内部(いずれも図示しない)等を備えている。
制御部19は、ナビゲーションユニット3の各部を制御する機能を有する。音声合成装置20は、制御部19から与えられたテキストを音声(音声信号)に変換(合成)する機能を有し、変換された音声は制御部19へ与えられる。尚、ここで変換された音声は、制御部19によって、前記DCU2へ送信され、前記オーディオユニット4のスピーカを介して音声出力される。
音声認識装置7は、マイク14を介して入力された音声(アナログ音声信号)をDCU2を介して入力し、この入力した音声について、認識辞書部21の各辞書を使用して音声認識を行う機能を有し、音声認識結果は制御部19へ与えられる。認識辞書部21は、Address対応辞書22と、POI(point of interest)対応辞書23と、コマンド対応辞書24とを備えている。これらAddress対応辞書22、POI対応辞書23及びコマンド対応辞書24は、Address(住所)、POI(施設の名称等)及びコマンド(ナビゲーションユニット3用の各種のコマンド)という3つのデータ分野にそれぞれ対応する音声認識用辞書である。尚、認識辞書部21内に、上記3つのデータ分野以外の1つ以上のデータ分野に対応する1つ以上の音声認識用辞書を備えるように構成しても良い。
制御部19は、DCU/ナビI/F部18と、DCU2内のDCU/ナビI/F部13とを介して、DCU2との間でデータ通信を行う構成となっている。
そして、本実施形態においては、ナビゲーションユニット3は、通常のナビゲーション装置から、ディスプレイ、タッチパネル、操作部及びリモコン等のいわゆるHMI部を取り除いた装置に相当する構成となっている。そして、上記ナビゲーションユニット3は、DCU2をHMI部として使用することが可能な構成となっている。
この構成の場合、ナビゲーションユニット3がDCU2をHMI部として使用する際には、ナビゲーションユニット3側に制御(マスター制御)が移行し、ナビゲーションユニット3がDCU2(スレーブ制御側となっている)をコントロールする制御態様となる。そして、ナビゲーションユニット3側の動作(ナビゲーション処理)が終了すると、DCU2側がマスター制御に戻り、DCU2がナビゲーションユニット3(スレーブ制御側)をコントロールする制御態様に戻る。尚、車両の電源がオンされたときには(初期状態または通常状態では)、DCU2側がマスター制御となっており、DCU2がナビゲーションユニット3(スレーブ制御側)をコントロールする制御態様となっている。
また、オーディオユニット4がDCU2に接続された状態では、DCU2がオーディオユニット4のHMI部として動作する構成となっている。即ち、ユーザーがDCU2のタッチパネル等を操作したり、ユーザーがマイク14を介して音声を入力(DCU2が音声認識)したりして、楽曲の名称を入力すると、DCU2は、その楽曲の名称の楽曲を再生する指示をオーディオユニット4へ送信し、この指示を受けてオーディオユニット4は上記楽曲を再生出力する構成となっている。この場合、DCU2側がマスター制御となっており、DCU2がオーディオユニット4(スレーブ制御側)をコントロールする制御態様となっている。
また、電話通信ユニット5がDCU2に接続された状態では、DCU2が電話通信ユニット5のHMI部として動作する構成となっている。即ち、ユーザーがDCU2のタッチパネル等を操作したり、ユーザーがマイク14を介して音声を入力(DCU2が音声認識)したりして、電話番号(または電話をかけたい相手の名前等)を入力すると、DCU2は、その電話番号に電話をかける(発呼する)指示を電話通信ユニット5へ送信し、この指示を受けて電話通信ユニット5は上記電話番号に電話をかける構成となっている。この場合、DCU2側がマスター制御となっており、DCU2が電話通信ユニット5(スレーブ制御側)をコントロールする制御態様となっている。そして、電話通信ユニット5を介して電話する場合、DCU2のマイク14が電話のマイクとなり、オーディオユニット4のスピーカが電話のスピーカとなる。尚、電話通信ユニット5に着信があった場合、その着信信号はDCU2へ送信され、DCU2は、その着信信号を受けてユーザー対して電話の呼び出しを行い、ユーザーが通話開始を選択すれば、DCU2は通話開始の指示を電話通信ユニット5へ送信し、通話を開始するようになっている。
次に、上記した構成の音声認識システム8(DCU2の音声認識装置6及び制御部9並びにナビゲーションユニット3の音声認識装置7及び制御部19)の動作について、図3のフローチャートも参照して説明する。
音声認識処理が開始されると、まず、ステップS10において、マイク14を介してユーザーが発声した音声が入力される。続いて、ステップS20及びステップS210へ進み、上記入力された音声は、DCU2の音声認識装置6及びナビゲーションユニット3の音声認識装置7によりパラレルに(同時並行的に)音声認識処理される。
そして、ステップS20の後は、ステップS30へ進み、上記DCU2の音声認識装置6による音声認識結果は、DCU2の制御部9へ与えられる。また、ステップS210の後は、ステップS220へ進み、上記ナビゲーションユニット3の音声認識装置7による音声認識結果は、ナビゲーションユニット3の制御部19へ与えられる。
次いで、上記ステップS30の後は、ステップS40へ進み、DCU2の制御部9は、DCU2の音声認識装置6による音声認識結果が階層コマンド(DCU2、ナビゲーションユニット3、オーディオユニット4または電話通信ユニット5の各種のコマンド単体であってデータ部分に相当する音声がないもの)であるか否かを判断する。ここで、音声認識結果が階層コマンドあるときには、ステップS40にて「YES」へ進み、ステップS60へ進み、DCU2の制御部9は、DCU2の音声認識装置6による音声認識結果を採用する。続いて、ステップS70へ進み、DCU2の制御部9は、上記音声認識結果がナビゲーションユニット3のコマンドであるか否かを判断する。
ここで、音声認識結果がナビゲーションユニット3のコマンドでなければ、ステップS70にて「NO」へ進み、ステップS80へ進む。このステップS80では、音声認識結果のコマンドの処理を実行し、その後は、ステップS10へ戻り、次の音声が入力されるのを待つ。一方、音声認識結果がナビゲーションユニット3のコマンドであれば、ステップS70にて「YES」へ進み、ステップS90へ進む。このステップS90では、音声認識結果のコマンドの処理を実行し、以降、ナビゲーションユニット3側で音声認識を実行する。この場合、制御(マスター制御)がDCU2からナビゲーションユニット3側に移行し、ナビゲーションユニット3において、音声認識、目的地の設定、経路探索、経路案内等の各処理が実行される。即ち、これ以後、ナビゲーションユニット3の処理が終了するまで、ナビゲーションユニット3は、DCU2をHMI装置として使用する形態で(即ち、ナビゲーションユニット3側がマスタ制御となり、DCU2側がスレーブ制御となる制御形態で)動作する。
また、前記ステップS40において、音声認識結果が階層コマンドないときには、「NO」へ進み、ステップS50へ進み、DCU2の制御部9は、ナビゲーションユニット3の音声認識装置7による音声認識結果を受信すると共に、このナビゲーションユニット3の音声認識装置7による音声認識結果とDCU2の音声認識装置6による音声認識結果とを比較し、同一の1−shotコマンド(ナビゲーションユニット3のコマンド+データ部分(住所や施設名等のデータ)からなる音声に相当するもの)であるか否かを判断する。
ここで、音声認識結果が異なる1−shotコマンドであるときには、ステップS50にて「NO」へ進み、ステップS100ヘ進む。このステップS100では、前記ステップS90と同様にして、DCU2の音声認識装置6による音声認識結果のコマンドの処理を実行し、以降、ナビゲーションユニット3側で音声認識が実行される。そして、制御(マスター制御)がDCU2からナビゲーションユニット3側に移行し、ナビゲーションユニット3において、音声認識、目的地の設定、経路探索、経路案内等の各処理が実行される。この場合、ナビゲーションユニット3は、DCU2をHMI装置として使用する形態で動作する。
一方、上記ステップS50において、音声認識結果が同一の1−shotコマンドであるときには、ステップS50にて「YES」へ進み、ステップS110ヘ進む。このステップS110では、ナビゲーションユニット3側で音声認識された音声認識結果が採用され、更に、これ以降の音声認識は、ナビゲーションユニット3の音声認識装置7で行われる。そして、上記採用された音声認識結果に基づいて、ナビゲーションユニット3(の制御部19)が動作し、目的地の設定、経路探索、経路案内、必要に応じて音声認識等の各処理が実行される。この場合、制御(マスター制御)がDCU2からナビゲーションユニット3側に移行し、ナビゲーションユニット3は、DCU2をHMI装置として使用する形態で動作する。尚、図3のフローチャートにおいて、ステップS10〜S110の処理はDCU2(制御部9)側の制御であり、ステップS210及びS220の処理はナビゲーションユニット3(制御部19)側の制御である。
ここで、上述した音声認識システム8(DCU2及びナビゲーションユニット3)の音声認識制御を、表にしてまとめたものを、図4に示す。
尚、本実施形態のDCU2は、上記した音声認識の機能、マスター制御の機能及びスレーブ制御の機能等の他に、次の各機能を備えている。即ち、DCU2は、DCU2自身の全コマンド、ナビゲーションユニット3の全コマンド、オーディオユニット4の全コマンド、及び、電話通信ユニット5の全コマンドを音声認識可能な機能を有する。そして、DCU2は、音声認識したコマンドが、DCU2で認識するコマンドであるか、それとも、ナビゲーションユニット3で認識するコマンドであるかの判定を行う機能を有する。また、DCU2は、トークバック音声、音声認識ガイド音声、経路案内音声、Beep音等をオーディオユニット4のスピーカを介して音声出力可能な機能を有している。更に、DCU2は、認識辞書部12の楽曲対応辞書16、電話帳対応辞書17の内容を追加・更新する機能や、種々の動的辞書(例えばVoice Tag辞書、アーティスト辞書、アルバム辞書、プレイリスト辞書、タイトル辞書等)を作成・追加・更新する機能等を有している。
また、本実施形態のナビゲーションユニット3は、自身の全コマンドや目的地等を音声入力するために必要な音声認識機能を有する。そして、ナビゲーションユニット3は、トークバック音声、音声認識ガイド音声、経路案内音声等をオーディオユニット4のスピーカを介して音声出力するためのデータをDCU2へ送信する機能を有している。更に、ナビゲーションユニット3は、認識辞書部21のAddress対応辞書22及びPOI対応辞書23の内容を追加・更新する機能や、種々の動的辞書(例えばAddress book辞書等)を作成・追加・更新する機能等を有している。
上記した構成の本実施形態においては、DCU2とナビゲーションユニット3にそれぞれに音認認識装置6、7が搭載され、ナビゲーションユニット3の音声認識装置7では、地図データに関連した住所や施設名等の音声認識を担当し、DCU2の音声認識装置6では、車載システム1の各ユニットの各種のコマンドや、楽曲名や、電話帳などの音声認識を担当するように構成した。このため、2つの音声認識装置6、7を備える構成において、2つの音声認識装置6、7がそれぞれ音声認識の得意な分野を音声認識することができるから、音声認識の精度を高くすることができる。
尚、上記実施形態では、車載システム1内に、2つの音声認識装置6、7を備える構成に適用したが、これに限られるものではなく、3つ以上の音声認識装置を備える構成に適用しても良い。このように構成した場合、3つ以上の音声認識装置の担当分野の割り当てを適宜制御することにより、3つ以上の音声認識装置がそれぞれ音声認識の得意な分野の音声を音声認識できるように構成すれば良い。
図面中、1は車載システム、2はDCU、3はナビゲーションユニット、6は音声認識装置、7は音声認識装置、8は音声認識システム、9は制御部(音声認識制御手段)、10はHMI部、11は音声合成装置、12は認識辞書部、14はマイク、15はコマンド対応辞書、16は楽曲対応辞書、17は電話帳対応辞書、19は制御部、20は音声合成装置、21は認識辞書部、22はAddress対応辞書、23はPOI対応辞書、24はコマンド対応辞書を示す。

Claims (6)

  1. 車両に搭載され音声認識装置(6)を備えた第1ユニット(2)と、
    車両に搭載され前記第1ユニット(2)に接続され音声認識装置(7)を備えた第2ユニット(3)とを備えた車両用の音声認識システムであって、
    前記第1ユニット(2)の音声認識装置(6)は、認識辞書部(12)を有し、
    前記第2ユニット(3)の音声認識装置(7)は、音声認識装置(6)の前記認識辞書部(12)とは音声認識の得意な分野のデータ部分が異なる認識辞書部(21)を有し、
    入力された音声が前記第1ユニット(2)の音声認識装置(6)と前記第2ユニット(3)の音声認識装置(7)によってそれぞれ音声認識された後、これら2つの音声認識結果が一致しなかったときには、前記第1ユニット(2)の音声認識装置(6)による音声認識結果を選択してその音声認識結果の処理を前記第1ユニット(2)により実行し、2つの音声認識結果が一致したときには、前記第2ユニット(3)の音声認識装置(7)による音声認識結果を選択してその音声認識結果の処理を前記第2ユニット(3)により実行するように構成されていることを特徴とする車両用の音声認識システム。
  2. 車両に搭載され音声認識装置(6)を備えたディスプレイコントロールユニット(2)と、
    車両に搭載され前記ディスプレイコントロールユニット(2)に接続され音声認識装置(7)を備えたナビゲーションユニット(3)とを備えた車両用の音声認識システムであって、
    前記ディスプレイコントロールユニット(2)の音声認識装置(6)は、認識辞書部(12)を有し、
    前記ナビゲーションユニット(3)の音声認識装置(7)は、前記音声認識装置(6)の認識辞書部(12)とは音声認識の得意な分野のデータ部分が異なる認識辞書部(21)を有し、
    入力された音声が前記ディスプレイコントロールユニット(2)の音声認識装置(6)と前記ナビゲーションユニット(3)の音声認識装置(7)によってそれぞれ音声認識された後、これら2つの音声認識結果が一致しなかったときには、前記ディスプレイコントロールユニット(2)の音声認識装置(6)による音声認識結果を選択してその音声認識結果の処理を前記ディスプレイコントロールユニット(2)により実行し、2つの音声認識結果が一致したときには、前記ナビゲーションユニット(3)の音声認識装置(7)による音声認識結果を選択してその音声認識結果の処理を前記ナビゲーションユニット(3)により実行するように構成されていることを特徴とする車両用の音声認識システム。
  3. 記ディスプレイコントロールユニット(2)の音声認識装置(6)によって音声認識された音声認識結果がコマンド単体である場合には、前記ディスプレイコントロールユニット(2)の音声認識装置(6)の音声認識結果を採用するように構成されていることを特徴とする請求項2記載の車両用の音声認識システム。
  4. 記ディスプレイコントロールユニット(2)の音声認識装置(6)の音声認識結果が前記ナビゲーションユニット(3)のコマンドである場合には、以降の音声認識を前記ナビゲーションユニット(3)の音声認識装置(7)で行うように構成されていることを特徴とする請求項3記載の車両用の音声認識システム。
  5. 記ディスプレイコントロールユニット(2)の音声認識装置(6)によって音声認識された音声認識結果がコマンドとデータ部分とであって、前記ディスプレイコントロールユニット(2)の音声認識装置(6)の音声認識結果と前記ナビゲーションユニット(3)の音声認識装置(7)の音声認識結果とが異なる場合には、前記ディスプレイコントロールユニット(2)の音声認識装置(6)の音声認識結果を採用し、それ以降の音声認識を前記ナビゲーションユニット(3)の音声認識装置(7)で行うように構成されていることを特徴とする請求項2記載の車両用の音声認識システム。
  6. 記ディスプレイコントロールユニット(2)の音声認識装置(6)によって音声認識された音声認識結果がコマンドとデータ部分とであって、前記ディスプレイコントロールユニット(2)の音声認識装置(6)の音声認識結果と前記ナビゲーションユニット(3)の音声認識装置(7)の音声認識結果とが一致する場合には、前記ナビゲーションユニット(2)の音声認識装置(6)の音声認識結果を採用し、更に、以降の音声認識を前記ナビゲーションユニット(3)の音声認識装置(7)で行うように構成されていることを特徴とする請求項2記載の車両用の音声認識システム。
JP2012220298A 2012-10-02 2012-10-02 音声認識システム Expired - Fee Related JP6155592B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012220298A JP6155592B2 (ja) 2012-10-02 2012-10-02 音声認識システム
US14/430,712 US9293142B2 (en) 2012-10-02 2013-09-02 Voice recognition system
PCT/JP2013/005165 WO2014054217A1 (ja) 2012-10-02 2013-09-02 音声認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012220298A JP6155592B2 (ja) 2012-10-02 2012-10-02 音声認識システム

Publications (3)

Publication Number Publication Date
JP2014071446A JP2014071446A (ja) 2014-04-21
JP2014071446A5 JP2014071446A5 (ja) 2015-02-19
JP6155592B2 true JP6155592B2 (ja) 2017-07-05

Family

ID=50434563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012220298A Expired - Fee Related JP6155592B2 (ja) 2012-10-02 2012-10-02 音声認識システム

Country Status (3)

Country Link
US (1) US9293142B2 (ja)
JP (1) JP6155592B2 (ja)
WO (1) WO2014054217A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101910383B1 (ko) * 2015-08-05 2018-10-22 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
KR102365757B1 (ko) 2015-09-09 2022-02-18 삼성전자주식회사 인식 장치, 인식 방법 및 협업 처리 장치
US20180025731A1 (en) * 2016-07-21 2018-01-25 Andrew Lovitt Cascading Specialized Recognition Engines Based on a Recognition Policy
US10170110B2 (en) 2016-11-17 2019-01-01 Robert Bosch Gmbh System and method for ranking of hybrid speech recognition results with neural networks
CN106782539A (zh) * 2017-01-16 2017-05-31 上海智臻智能网络科技股份有限公司 一种智能语音交互方法、装置及系统
US10748531B2 (en) * 2017-04-13 2020-08-18 Harman International Industries, Incorporated Management layer for multiple intelligent personal assistant services
US10580406B2 (en) 2017-08-18 2020-03-03 2236008 Ontario Inc. Unified N-best ASR results
JP2019156252A (ja) * 2018-03-15 2019-09-19 有限会社ジェイ・ロード アクセルスイッチ回路
JP7280074B2 (ja) * 2019-03-19 2023-05-23 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
CN110481470B (zh) * 2019-08-15 2021-01-15 中国第一汽车股份有限公司 一种电动汽车主动发声系统设计方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143191A (ja) * 1996-11-13 1998-05-29 Hitachi Ltd 音声認識システム
JPH10282987A (ja) * 1997-04-04 1998-10-23 Hitachi Ltd 音声認識システムおよび方法
JPH1152997A (ja) * 1997-08-07 1999-02-26 Hitachi Eng & Services Co Ltd 音声記録装置,音声記録システムならびに音声記録方法
JP3715469B2 (ja) * 1999-06-30 2005-11-09 パイオニア株式会社 音声操作装置
JP4109414B2 (ja) 2000-12-18 2008-07-02 セイコーエプソン株式会社 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体
JP2004198831A (ja) * 2002-12-19 2004-07-15 Sony Corp 音声認識装置および方法、プログラム、並びに記録媒体
JP2004272134A (ja) 2003-03-12 2004-09-30 Advanced Telecommunication Research Institute International 音声認識装置及びコンピュータプログラム
JP2005003997A (ja) 2003-06-12 2005-01-06 Toyota Motor Corp 音声認識装置および音声認識方法ならびに車両
JP4581441B2 (ja) 2004-03-18 2010-11-17 パナソニック株式会社 家電機器システム、家電機器および音声認識方法
JP4625509B2 (ja) 2008-02-19 2011-02-02 日本電信電話株式会社 音声認識方法、そのシステム、そのプログラム、その記録媒体
JP4890518B2 (ja) 2008-08-29 2012-03-07 ヤフー株式会社 複数言語モデルによる統合音声認識装置
JP5274191B2 (ja) 2008-10-06 2013-08-28 三菱電機株式会社 音声認識装置
US20110131040A1 (en) * 2009-12-01 2011-06-02 Honda Motor Co., Ltd Multi-mode speech recognition
US9045098B2 (en) * 2009-12-01 2015-06-02 Honda Motor Co., Ltd. Vocabulary dictionary recompile for in-vehicle audio system
JP2011227129A (ja) 2010-04-15 2011-11-10 Nec Corp 音声認識システム、データ処理装置、音声認識方法およびプログラム

Also Published As

Publication number Publication date
US20150221308A1 (en) 2015-08-06
JP2014071446A (ja) 2014-04-21
WO2014054217A1 (ja) 2014-04-10
US9293142B2 (en) 2016-03-22

Similar Documents

Publication Publication Date Title
JP6155592B2 (ja) 音声認識システム
JP5234160B2 (ja) 車両用装置および情報表示システム
US20150039316A1 (en) Systems and methods for managing dialog context in speech systems
JP6501217B2 (ja) 情報端末システム
JP5637131B2 (ja) 音声認識装置
EP2581901A2 (en) Information terminal, server device, searching system and corresponding searching method
EP3163457B1 (en) Information processing system, and vehicle-mounted device
US9466314B2 (en) Method for controlling functional devices in a vehicle during voice command operation
CN105222797B (zh) 利用口授和部分匹配搜索的导航系统的系统和方法
JP2013140269A (ja) 音声認識装置
JP2004126413A (ja) 車載制御装置、並びにその操作説明方法をコンピュータに実行させるプログラム
CN106537491B (zh) 带有操作校正的机动车仪器操作
JP2009300537A (ja) 音声作動システム、音声作動方法および車載装置
JP5606951B2 (ja) 音声認識システムおよびこれを用いた検索システム
JP5277704B2 (ja) 音声認識装置及びこれを用いる車両システム
JP6522009B2 (ja) 音声認識システム
US9715878B2 (en) Systems and methods for result arbitration in spoken dialog systems
JP2015028566A (ja) 応答制御システム、車載器、およびセンター
JP5986468B2 (ja) 表示制御装置、表示システム及び表示制御方法
JP2002281145A (ja) 電話番号入力装置
KR20180005828A (ko) 사운드 크기를 직관적으로 조정하기 위한 방법 및 차량 제어기
JP2004301875A (ja) 音声認識装置
WO2013157174A1 (ja) 音声認識装置
JP2013068665A (ja) 音声認識装置
CN108806682B (zh) 获取天气信息的方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170522

R151 Written notification of patent or utility model registration

Ref document number: 6155592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees