JP2018005163A - 運転支援装置および運転支援方法 - Google Patents
運転支援装置および運転支援方法 Download PDFInfo
- Publication number
- JP2018005163A JP2018005163A JP2016135703A JP2016135703A JP2018005163A JP 2018005163 A JP2018005163 A JP 2018005163A JP 2016135703 A JP2016135703 A JP 2016135703A JP 2016135703 A JP2016135703 A JP 2016135703A JP 2018005163 A JP2018005163 A JP 2018005163A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- unit
- driver
- feature amount
- language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Emergency Alarm Devices (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】運転者の応答が無くても、運転者の異常を検出することができる運転支援装置および運転支援方法を提供する。
【解決手段】音声取得部11は、車両の運転者が発する言語および言語でない非言語を含む音声を表す音声情報を取得する。特徴量抽出部12は、音声取得部11で取得された音声情報から特徴量を抽出し、抽出した特徴量が非言語の特徴量であるか否かを判断する。抽出された特徴量が非言語の特徴量でないと判断された場合、音声認識部13は、特徴量抽出部12で抽出された特徴量に基づいて、音声を認識する。判断部14は、特徴量抽出部で抽出された特徴量、または音声認識部で認識された音声を表す認識音声情報に基づいて、運転者に異常が発生しているか否かを判断する。運転者に異常が発生していると判断された場合、運転制御部16は、車両の運転を制御する。
【選択図】図1
【解決手段】音声取得部11は、車両の運転者が発する言語および言語でない非言語を含む音声を表す音声情報を取得する。特徴量抽出部12は、音声取得部11で取得された音声情報から特徴量を抽出し、抽出した特徴量が非言語の特徴量であるか否かを判断する。抽出された特徴量が非言語の特徴量でないと判断された場合、音声認識部13は、特徴量抽出部12で抽出された特徴量に基づいて、音声を認識する。判断部14は、特徴量抽出部で抽出された特徴量、または音声認識部で認識された音声を表す認識音声情報に基づいて、運転者に異常が発生しているか否かを判断する。運転者に異常が発生していると判断された場合、運転制御部16は、車両の運転を制御する。
【選択図】図1
Description
本発明は、車両の運転を支援する運転支援装置および運転支援方法に関する。
運転者が運転操作を行うことなく、車両の運転を行う自動運転の機能を備える車両が普及してきている。自動運転中の死亡事故を防ぐために、自動運転中の運転者に異常があるか否かを確認する必要がある。特に、自動運転から手動運転に切り替わるときには、運転者が運転操作を行うことができる状態であるか否かを確認する必要がある。
自動運転を想定したものではないが、運転者の居眠りを検知し、運転者が運転操作を行うことができる状態であるか否かを検知する技術がある(たとえば、特許文献1〜3参照)。
特許文献1,2に開示される技術では、運転者に応答を促すような音声、たとえば運転者に呼びかける呼びかけ音声を出力し、運転者からの応答を音声として検出することによって、運転者が運転操作を行うことができる状態であるか否かを判断する。特許文献2に開示される技術では、呼びかけに対して応答が返ってこない回数をカウントし、一定回数の呼びかけに運転者が応答しない場合、居眠りとして検出する。
特許文献3に開示される技術では、運転者への呼びかけを行うことに加えて、運転者が居眠りしやすい状態になっているか否かを、タイマーまたは温度センサを利用して検出することによって、居眠りしているか否かを判断する。
前述の特許文献1〜3に開示される技術では、運転者が呼びかけに対して応答する必要があるので、運転者にとって煩わしいという問題がある。また、運転者の応答があった場合でも、運転者に異常が生じていることがあり、運転者に異常が生じているか否かを正しく判断することができないという問題がある。
前述の特許文献3に開示される技術では、運転者が居眠りしやすい状態を検出するために、温度センサなどの、音声以外を検出する手段が必要になるという問題がある。
本発明の目的は、運転者の応答が無くても、運転者の異常を検出することができる運転支援装置および運転支援方法を提供することである。
本発明の運転支援装置は、車両の運転者が発する言語および言語でない非言語を含む音声を表す音声情報を取得する音声取得部と、音声取得部によって取得された音声情報から、音声情報が表す音声の特徴を表す特徴量を抽出し、抽出した特徴量が、非言語の音声を表す非言語音声情報の特徴量であるか否かを判断する特徴量抽出部と、特徴量抽出部によって抽出された特徴量が非言語音声情報の特徴量でないと判断された場合、特徴量抽出部によって抽出された特徴量に基づいて、音声を認識する音声認識部と、特徴量抽出部によって抽出された特徴量、または音声認識部によって認識された音声を表す認識音声情報に基づいて、運転者に異常が発生しているか否かを判断する判断部と、判断部によって運転者に異常が発生していると判断された場合、車両の運転を制御する運転制御部とを備えることを特徴とする。
また本発明の運転支援装置は、車両の運転者が発する言語および言語でない非言語を含む音声を表す音声情報を取得する音声取得部と、音声取得部によって取得された音声情報から、音声情報が表す音声の特徴を表す特徴量を抽出する特徴量抽出部と、特徴量抽出部によって抽出された特徴量と、運転者の平常時の音声の特徴を表す特徴量との比較結果に基づいて、運転者に異常が発生しているか否かを判断する判断部と、判断部によって運転者に異常が発生していると判断された場合、車両の運転を制御する運転制御部とを備えることを特徴とする。
本発明の運転支援方法は、車両の運転者が発する言語および言語でない非言語を含む音声を表す音声情報を取得し、取得した音声情報から、音声情報が表す音声の特徴を表す特徴量を抽出し、抽出した特徴量が、非言語の音声を表す非言語音声情報の特徴量であるか否かを判断し、抽出した特徴量が非言語音声情報の特徴量でないと判断した場合、抽出した特徴量に基づいて、音声を認識し、抽出した特徴量、または認識された音声を表す認識音声情報に基づいて、運転者に異常が発生しているか否かを判断し、運転者に異常が発生していると判断した場合、車両の運転を制御することを特徴とする。
また本発明の運転支援方法は、車両の運転者が発する言語および言語でない非言語を含む音声を表す音声情報を取得し、取得した音声情報から、音声情報が表す音声の特徴を表す特徴量を抽出し、抽出した特徴量と、運転者の平常時の音声の特徴を表す特徴量との比較結果に基づいて、運転者に異常が発生しているか否かを判断し、運転者に異常が発生していると判断した場合、車両の運転を制御することを特徴とする。
本発明の運転支援装置によれば、車両の運転者が発する言語および非言語を含む音声を表す音声情報が、音声取得部によって取得される。音声取得部によって取得された音声情報から、音声情報が表す音声の特徴を表す特徴量が、特徴量抽出部によって抽出され、抽出された特徴量が、非言語の音声を表す非言語音声情報の特徴量であるか否かが判断される。特徴量抽出部によって抽出された特徴量が非言語音声情報の特徴量でないと判断された場合、特徴量抽出部によって抽出された特徴量に基づいて、音声認識部によって音声が認識される。特徴量抽出部によって抽出された特徴量、または音声認識部によって認識された音声を表す認識音声情報に基づいて、運転者に異常が発生しているか否かが、判断部によって判断される。運転者に異常が発生していると判断部によって判断された場合、車両の運転が運転制御部によって制御される。これによって、運転者の応答が無くても、運転者の異常を検出することができる。
また本発明の運転支援装置によれば、車両の運転者が発する言語および非言語を含む音声を表す音声情報が、音声取得部によって取得される。音声取得部によって取得された音声情報から、音声情報が表す音声の特徴を表す特徴量が、特徴量抽出部によって抽出される。特徴量抽出部によって抽出された特徴量と、運転者の平常時の音声の特徴を表す特徴量との比較結果に基づいて、運転者に異常が発生しているか否かが、判断部によって判断される。運転者に異常が発生していると判断部によって判断された場合、車両の運転が運転制御部によって制御される。これによって、運転者の応答が無くても、運転者の異常を検出することができる。
本発明の運転支援方法によれば、車両の運転者が発する言語および非言語を含む音声を表す音声情報が取得される。取得された音声情報から、音声情報が表す音声の特徴を表す特徴量が抽出される。抽出された特徴量が、非言語の音声を表す非言語音声情報の特徴量であるか否かが判断される。抽出された特徴量が非言語音声情報の特徴量でないと判断された場合、抽出された特徴量に基づいて、音声が認識される。抽出された特徴量、または認識された音声を表す認識音声情報に基づいて、運転者に異常が発生しているか否かが判断される。運転者に異常が発生していると判断された場合、車両の運転が制御される。これによって、運転者の応答が無くても、運転者の異常を検出することができる。
また本発明の運転支援方法によれば、車両の運転者が発する言語および非言語を含む音声を表す音声情報が取得される。取得された音声情報から、音声情報が表す音声の特徴を表す特徴量が抽出される。抽出された特徴量と、運転者の平常時の音声の特徴を表す特徴量との比較結果に基づいて、運転者に異常が発生しているか否かが判断される。運転者に異常が発生していると判断された場合、車両の運転が制御される。これによって、運転者の応答が無くても、運転者の異常を検出することができる。
<第1の実施の形態>
図1は、本発明の第1の実施の形態における運転支援装置1を含む車載装置10の構成を示すブロック図である。車載装置10は、運転支援装置1、音声入力部21、非言語認識データベース22、言語認識データベース23および音声出力部24を備えて構成される。運転支援装置1は、音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、音声出力制御部17および通信部18を備えて構成される。
図1は、本発明の第1の実施の形態における運転支援装置1を含む車載装置10の構成を示すブロック図である。車載装置10は、運転支援装置1、音声入力部21、非言語認識データベース22、言語認識データベース23および音声出力部24を備えて構成される。運転支援装置1は、音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、音声出力制御部17および通信部18を備えて構成される。
車載装置10は、車両、たとえば自動車に搭載可能に構成される。本実施の形態では、車載装置10は、経路を案内するナビゲーション機能を有するナビゲーション装置によって実現される。本発明の他の実施の形態である運転支援方法は、本実施の形態の運転支援装置1によって実行される。
音声入力部21は、マイクロフォンによって実現される。音声入力部21には、車内の音声が入力される。たとえば、音声入力部21には、運転者の音声が入力される。音声は、言語、および言語でない非言語を含む。音声入力部21は、音声取得部11に接続される。音声入力部21は、入力された音声を表す音声情報を音声取得部11に与える。
音声取得部11は、音声入力部21から与えられる音声情報を取得する。音声取得部11は、取得した音声情報がアナログ信号である場合は、アナログ/ディジタル(A/D)変換を行い、PCM(Pulse Code Modulation)形式などのディジタル形式の信号に変換する。音声取得部11は、音声認識部13による音声の認識率を向上させるために、ノイズリダクションおよびビームフォーミングなどの処理を行ってもよい。音声取得部11は、A/D変換などの処理を施した音声情報を特徴量抽出部12に与える。
特徴量抽出部12は、非言語認識データベース22に接続される。非言語認識データベース22は、たとえばハードディスクドライブ(Hard Disk Drive;略称:HDD)装置、または半導体メモリなどの記憶装置によって実現される。非言語認識データベース22は、運転支援装置1の利用者、たとえば車両の運転者が発する、うめき声、いびき、叫び声などの非言語の音声を認識するための非言語認識情報を記憶する。
特徴量抽出部12は、音声取得部11から与えられる音声情報から、音声情報が表す音声の特徴を表す特徴量(以下「音声情報の特徴量」という場合がある)を抽出する。具体的には、特徴量抽出部12は、音声取得部11から与えられる音声情報から、運転支援装置1の利用者、たとえば運転者の発話などの内容に該当する音声区間を検出し、検出した音声区間の音声情報の特徴量を抽出する。音声情報の特徴量は、たとえば言語を話す速さ(以下「話速」という場合がある)、声の高さ、声の大きさである。
特徴量抽出部12は、非言語認識データベース22に記憶される非言語認識情報を用いて、抽出した特徴量が、非言語の音声を表す非言語音声情報の特徴量であるか否かを判断する。特徴量抽出部12は、抽出した特徴量が非言語音声情報の特徴量であると判断した場合、抽出した特徴量を判断部14に与える。特徴量抽出部12は、抽出した特徴量が非言語音声情報の特徴量でないと判断した場合は、抽出した特徴量を音声認識部13に与える。
音声認識部13は、言語認識データベース23に接続される。言語認識データベース23は、たとえばHDD装置、または半導体メモリなどの記憶装置によって実現される。言語認識データベース23は、言語を認識するための言語認識情報を記憶する。
音声認識部13は、言語認識データベース23に記憶される言語認識情報を用いて、特徴量抽出部12から与えられる音声情報の特徴量に基づいて、音声を認識する。音声認識部13は、認識した音声を表す認識音声情報を判断部14に与える。
判断部14は、特徴量抽出部12から与えられる音声情報の特徴量、または音声認識部13から与えられる認識音声情報に基づいて、運転者に異常が発生しているか否かを判断する。判断部14は、運転者に異常が発生しているか否かの判断結果を主制御部15に与える。
具体的には、判断部14は、特徴量抽出部12から音声情報の特徴量が与えられる場合、与えられる音声情報の特徴量に基づいて、運転者に異常が発生しているか否かを判断する。
判断部14は、音声認識部13から認識音声情報が与えられる場合、与えられる認識音声情報に基づいて、運転者に異常が発生しているか否かを判断する。
この場合、判断部14は、与えられる認識音声情報に基づいて、認識された音声が、運転者の異常を表す音声であるか否かを判断する。判断部14は、認識された音声が、運転者の異常を表す音声であると判断した場合、運転者に異常が発生していると判断する。判断部14は、認識された音声が、運転者の異常を表す音声でないと判断した場合、運転者に異常が発生していないと判断する。
主制御部15は、判断部14から与えられる判断結果に基づいて、運転制御部16、音声出力制御部17および通信部18を制御する。たとえば、判断部14から運転者に異常が発生しているという判断結果が与えられた場合、主制御部15は、車両を路肩などに停車させる運転制御を行うように、運転制御部16に指示を与える。また主制御部15は、運転者の安否を確認する音声を音声出力部24から出力させる制御を行うように、音声出力制御部17に指示を与える。また主制御部15は、車両の外部と通信を行うように、通信部18に指示を与える。
運転制御部16は、主制御部15から与えられる指示に基づいて、車両の運転に関する制御を行う。たとえば主制御部15から、車両を路肩などに停車させる運転制御を行うように指示が与えられた場合、運転制御部16は、不図示のフットブレーキ、サイドブレーキ、方向変更装置などを制御して、車両を路肩などに停車させる。
音声出力制御部17は、主制御部15から与えられる指示に基づいて、音声出力部24から音声を出力させる。具体的には、音声出力制御部17は、運転者の安否を確認する音声などを、音声出力部24で取り扱い可能な音声信号に変換して、音声出力部24に与える。
音声出力部24は、音声出力制御部17から与えられる音声信号が表す音声を出力する。音声出力部24は、スピーカによって実現される。
通信部18は、主制御部15から与えられる指示に基づいて、車両の外部と通信を行う。通信部18は、たとえば、運転者に異常が発生した場合の連絡先として予め定める連絡先と通信を行い、運転者に異常が発生したことを知らせる。
図2は、本発明の第1の実施の形態における運転支援装置1のハードウェア構成を示すブロック図である。運転支援装置1は、プロセッサ31およびメモリ32を含んで構成される。
運転支援装置1における音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、音声出力制御部17および通信部18の各機能は、処理回路によって実現される。すなわち、処理回路は、音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、音声出力制御部17および通信部18を備える。
処理回路には、専用のハードウェアが適用されてもよいし、メモリに記憶されるプログラムを実行するプロセッサが適用されてもよい。プロセッサは、たとえば中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)などである。
処理回路が専用のハードウェアである場合、処理回路は、たとえば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、音声出力制御部17および通信部18の各機能は、それぞれ、複数の処理回路で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。
処理回路がプロセッサである場合、音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、音声出力制御部17および通信部18の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせによって実現される。ソフトウェアおよびファームウェアは、プログラムとして記述され、メモリに記憶される。
図2に示すように、処理回路に適用されるプロセッサ31は、メモリ32に記憶されたプログラムを読み出して実行することによって、各部の機能を実現する。すなわち、運転支援装置1は、処理回路によって実行されるときに、車両の運転者が発する言語および言語でない非言語を含む音声を表す音声情報を取得するステップと、取得した音声情報から、音声情報が表す音声の特徴を表す特徴量を抽出するステップと、抽出した特徴量が、非言語の音声を表す非言語音声情報の特徴量であるか否かを判断するステップと、抽出した特徴量が非言語音声情報の特徴量でないと判断した場合、抽出した特徴量に基づいて、音声を認識するステップと、抽出した特徴量、または認識された音声を表す認識音声情報に基づいて、運転者に異常が発生しているか否かを判断するステップと、運転者に異常が発生していると判断した場合、車両の運転を制御するステップと、が結果的に実行されることになるプログラムを記憶するためのメモリ32を備える。
また、これらのプログラムは、音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、音声出力制御部17および通信部18が行う処理の手順および方法をコンピュータに実行させるものであるともいえる。
ここで、メモリ32には、たとえば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Electrically Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、ならびに磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)およびそのドライブ装置の少なくともいずれか1つが含まれる。
以上のように、本実施の形態では、音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、音声出力制御部17および通信部18の各機能は、ハードウェアおよびソフトウェアなどのいずれか一方で実現される構成について説明した。しかし、これらの構成に限られるものではなく、音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、音声出力制御部17および通信部18の一部を専用のハードウェアで実現し、別の一部をソフトウェアなどで実現する構成であってもよい。たとえば、主制御部15については専用のハードウェアとしての処理回路でその機能を実現し、それ以外についてはプロセッサとしての処理回路がメモリ32に記憶されたプログラムを読み出して実行することによって、その機能を実現することが可能である。
以上のように、処理回路は、ハードウェア、ソフトウェアなど、またはこれらの組み合わせによって、前述の各機能を実現することができる。
図3は、本発明の第1の実施の形態の運転支援装置1における異常確認処理に関する処理手順を示すフローチャートである。図3に示すフローチャートの各ステップは、運転支援装置1を構成する音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16および通信部18によって実行される。図3に示すフローチャートの処理は、運転支援装置1の電源が投入されると開始され、ステップa1に移行する。図3に示すフローチャートは、予め定める異常確認周期毎に繰り返し実行される。異常確認周期は、運転者に異常が発生しているか否かを確認する周期であり、たとえば、30分、1時間などである。異常確認周期は、利用者が任意に設定可能に構成される。
ステップa1において、音声取得部11は、車内の音声情報を取得する。ステップa1の処理が終了すると、ステップa2に移行する。
ステップa2において、特徴量抽出部12は、音声取得部11によって取得された音声情報から特徴量を抽出する。ステップa2の処理が終了すると、ステップa3に移行する。
ステップa3において、特徴量抽出部12は、非言語認識データベース22に記憶される非言語認識情報を用いて、抽出した特徴量が、非言語の音声を表す非言語音声情報の特徴量であるか否かを判断する。特徴量抽出部12は、抽出した特徴量が非言語音声情報の特徴量であると判断した場合は、抽出した特徴量を判断部14に与えて、ステップa5に移行する。特徴量抽出部12は、抽出した特徴量が非言語音声情報の特徴量でないと判断した場合は、抽出した特徴量を音声認識部13に与えて、ステップa4に移行する。
ステップa4において、音声認識部13は、特徴量抽出部12によって抽出された特徴量に基づいて、音声を認識する。音声認識部13は、認識した音声を表す認識音声情報を判断部14に与える。ステップa4の処理が終了すると、ステップa5に移行する。
ステップa5において、判断部14は、ステップa3で与えられた音声情報の特徴量、またはステップa4で与えられた認識音声情報に基づいて、運転者に異常が発生しているか否かを判断する。
具体的には、ステップa4からステップa5に移行した場合、ステップa5において、判断部14は、ステップa4で与えられた認識音声情報に基づいて、音声認識部13によって認識された音声が、運転者の異常を表す音声であるか否かを判断する。判断部14は、運転者の異常を表す音声であると判断すると、運転者に異常が発生していると判断して、ステップa6に移行する。判断部14は、運転者の異常を表す音声でないと判断すると、運転者に異常は発生していないと判断し、全ての処理手順を終了する。
ステップa3からステップa5に移行した場合、ステップa5において、判断部14は、特徴量抽出部12から与えられた音声情報の特徴量に基づいて、運転者に異常が発生しているか否かを判断する。運転者に異常が発生していると判断された場合は、ステップa6に移行し、運転者に異常が発生していないと判断された場合は、全ての処理手順を終了する。
ステップa6において、主制御部15は、運転者の安否を確認する音声を音声出力部24から出力するように、音声出力制御部17を制御する。ステップa6の処理が終了すると、ステップa7に移行する。
ステップa7において、主制御部15は、運転者の安全が確認されたか否かを判断する。運転者の安全が確認されたと判断された場合は、全ての処理手順を終了し、運転者の安全が確認されていないと判断された場合は、ステップa8に移行する。
ステップa8において、主制御部15は、車両を路肩に停車するように、運転制御部16を制御する。これによって運転制御部16は、車両を路肩に停車するように、車両の各部を制御する。ステップa8の処理が終了すると、ステップa9に移行する。
ステップa9において、通信部18は、主制御部15からの指示に従って、車両の外部と通信を行う。ステップa9の処理が終了すると、全ての処理手順を終了する。
以上のように本実施の形態によれば、車両の運転者が発する言語および非言語を含む音声を表す音声情報が、音声取得部11によって取得される。音声取得部11によって取得された音声情報から、音声情報の特徴量が、特徴量抽出部12によって抽出される。抽出された特徴量が非言語音声情報の特徴量であるか否かが判断される。特徴量抽出部12によって抽出された特徴量が非言語音声情報の特徴量でないと判断された場合、特徴量抽出部12によって抽出された特徴量に基づいて、音声認識部13によって音声が認識される。特徴量抽出部12によって抽出された特徴量、または音声認識部13によって認識された音声を表す認識音声情報に基づいて、運転者に異常が発生しているか否かが、判断部14によって判断される。運転者に異常が発生していると判断部14によって判断された場合、車両の運転が運転制御部16によって制御される。これによって、運転者の応答が無くても、運転者の異常を検出することができる。
<第2の実施の形態>
図4は、本発明の第2の実施の形態における運転支援装置2を含む車載装置40の構成を示すブロック図である。車載装置40は、運転支援装置2、音声入力部21、非言語認識データベース22、言語認識データベース23、音声出力部24および構文解析データベース42を備えて構成される。運転支援装置2は、第1の実施の形態の運転支援装置1の構成に、さらに構文解析部41を備えて構成される。すなわち、運転支援装置2は、音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、音声出力制御部17、通信部18および構文解析部41を備えて構成される。
図4は、本発明の第2の実施の形態における運転支援装置2を含む車載装置40の構成を示すブロック図である。車載装置40は、運転支援装置2、音声入力部21、非言語認識データベース22、言語認識データベース23、音声出力部24および構文解析データベース42を備えて構成される。運転支援装置2は、第1の実施の形態の運転支援装置1の構成に、さらに構文解析部41を備えて構成される。すなわち、運転支援装置2は、音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、音声出力制御部17、通信部18および構文解析部41を備えて構成される。
車載装置40は、車両、たとえば自動車に搭載可能に構成される。本実施の形態では、車載装置40は、経路を案内するナビゲーション機能を有するナビゲーション装置によって実現される。本発明の他の実施の形態である運転支援方法は、本実施の形態の運転支援装置2によって実行される。
本実施の形態の運転支援装置2は、第1の実施の形態の運転支援装置1と同一の構成を含んでいるので、同一の構成については同一の参照符号を付して、共通する説明を省略する。本実施の形態では、音声認識部13は、認識した音声を表す認識音声情報を構文解析部41に与える。
構文解析部41は、構文解析データベース42に接続される。構文解析データベース42は、たとえばHDD装置、または半導体メモリなどの記憶装置によって実現される。構文解析データベース42は、音声認識部13で認識された音声に含まれる構文を解析するための構文解析情報を記憶する。構文解析情報は、たとえば、構文解析辞書を含む。構文解析辞書は、たとえば、主語となる文言、述語となる文言、および目的語となる文言の具体例、ならびに運転者が発すると予測される構文の具体例を含む。
構文解析部41は、構文解析データベース42に記憶される構文解析情報を用いて、音声認識部13から与えられる認識音声情報に基づいて、音声認識部13で認識された音声の構文を解析し、運転者が発した音声の主語、述語および目的語などを同定する。構文解析部41は、構文の解析結果を判断部14に与える。
判断部14は、構文解析部41から与えられる構文の解析結果に基づいて、音声認識部13で認識された音声が、運転者の異常を表す音声か否かを判断する。判断部14に特徴量抽出部12から音声情報の特徴量が与えられる場合の判断部14の動作は、第1の実施の形態と同様である。
図5は、本発明の第2の実施の形態の運転支援装置2における異常確認処理に関する処理手順を示すフローチャートである。図5に示すフローチャートの各ステップは、運転支援装置2を構成する音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、通信部18および構文解析部41によって実行される。図5に示すフローチャートは、図3に示すフローチャートと同一のステップを含んでいるので、同一のステップには同一のステップ番号を付して、共通する説明を省略する。
図5に示すフローチャートの処理は、運転支援装置2の電源が投入されると開始され、ステップa1に移行する。図5に示すフローチャートは、予め定める異常確認周期毎に繰り返し実行される。異常確認周期は、運転者に異常が発生しているか否かを確認する周期であり、たとえば、30分、1時間などである。異常確認周期は、利用者が任意に設定可能に構成される。
ステップa1およびステップa2の処理が行われると、ステップa3に移行する。
ステップa3において、抽出した特徴量が非言語音声情報の特徴量であると判断された場合は、特徴量抽出部12は、抽出した特徴量を判断部14に与えて、ステップa5に移行する。抽出した特徴量が非言語音声情報の特徴量でないと判断された場合は、特徴量抽出部12は、抽出した特徴量を音声認識部13に与えて、ステップa4に移行する。
ステップa4の処理が終了すると、ステップb1に移行する。ステップb1において、構文解析部41は、構文解析データベース42に記憶される構文解析情報を用いて、音声認識部13から与えられた音声情報に基づいて、音声認識部13で認識された音声の構文を解析する。構文解析部41は、構文の解析結果を判断部14に与える。ステップb1の処理が終了すると、ステップa5に移行する。
ステップb1で構文解析部41から構文の解析結果が与えられた場合、ステップa5において、判断部14は、ステップb1で与えられた構文の解析結果に基づいて、音声認識部13によって認識された音声が、運転者の異常を表す音声であるか否かを判断する。運転者の異常を表す音声であると判断された場合は、ステップa6に移行し、運転者の異常を表す音声でないと判断された場合は、全ての処理手順を終了する。
ステップa3からステップa5に移行した場合は、ステップa5において、判断部14は、第1の実施の形態と同様の処理を行う。その後、ステップa6〜ステップa9の処理を行う。
以上のように本実施の形態によれば、音声認識部13から与えられる認識音声情報に基づいて、音声認識部13によって認識された音声の構文が、構文解析部41によって解析される。判断部14は、認識音声情報に基づいて運転者に異常が発生しているか否かを判断する場合、構文解析部41による構文の解析結果に基づいて、運転者に異常が発生しているか否かを判断する。これによって、運転者の発話の意味を解析することができるので、運転者の異常を検出する精度を向上させることができる。
たとえば、本実施の形態とは異なり、「苦しい」などの単語のみを認識する場合、「家計が苦しい」などの、運転者が異常を発する発話でない場合にも運転者の異常と誤って検出されるおそれがある。本実施の形態では、前述のように構文解析部41によって音声の構文が解析され、その解析結果に基づいて、運転者に異常が発生しているか否かが判断部14によって判断される。したがって、前述のような誤検出を防ぐことができるので、前述のように運転者の異常を検出する精度を向上させることができる。
<第3の実施の形態>
図6は、本発明の第3の実施の形態における運転支援装置3を含む車載装置50の構成を示すブロック図である。車載装置50は、運転支援装置3、音声入力部21、非言語認識データベース22、言語認識データベース23、音声出力部24および音声特徴量データベース51を備えて構成される。運転支援装置3は、第1の実施の形態の運転支援装置1と同様に構成される。すなわち、運転支援装置3は、音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、音声出力制御部17および通信部18を備えて構成される。
図6は、本発明の第3の実施の形態における運転支援装置3を含む車載装置50の構成を示すブロック図である。車載装置50は、運転支援装置3、音声入力部21、非言語認識データベース22、言語認識データベース23、音声出力部24および音声特徴量データベース51を備えて構成される。運転支援装置3は、第1の実施の形態の運転支援装置1と同様に構成される。すなわち、運転支援装置3は、音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16、音声出力制御部17および通信部18を備えて構成される。
車載装置50は、車両、たとえば自動車に搭載可能に構成される。本実施の形態では、車載装置50は、経路を案内するナビゲーション機能を有するナビゲーション装置によって実現される。本発明の他の実施の形態である運転支援方法は、本実施の形態の運転支援装置3によって実行される。
本実施の形態の運転支援装置2は、第1の実施の形態の運転支援装置1と同一の構成を含んでいるので、同一の構成については同一の参照符号を付して、共通する説明を省略する。
本実施の形態では、特徴量抽出部12は、非言語認識データベース22および音声特徴量データベース51に接続される。音声特徴量データベース51は、たとえばHDD装置、または半導体メモリなどの記憶装置によって実現される。
音声特徴量データベース51は、運転者の平常時の音声の特徴を表す特徴量(以下「平常時の特徴量」という場合がある)を記憶する。平常時の特徴量は、たとえば、運転者が日常で話すときの音声の特徴量、具体的には話速、声の高さ、声の大きさなどである。
特徴量抽出部12は、第1の実施の形態と同様に、音声取得部11から与えられる音声情報から、音声情報の特徴量を抽出する。特徴量抽出部12は、第1の実施の形態と同様に、非言語認識データベース22に記憶される非言語認識情報を用いて、抽出した特徴量が、非言語の音声を表す非言語音声情報の特徴量であるか否かを判断する。特徴量抽出部12は、抽出した特徴量が非言語音声情報の特徴量であると判断した場合、抽出した特徴量を判断部14に与える。特徴量抽出部12は、抽出した特徴量が非言語音声情報の特徴量でないと判断した場合、抽出した特徴量を音声認識部13に与える。
本実施の形態では、特徴量抽出部12は、抽出した特徴量と、音声特徴量データベースに記憶される平常時の特徴量とを比較する。特徴量抽出部12は、特徴量の比較結果を判断部14に与える。
判断部14は、特徴量抽出部12から与えられる特徴量の比較結果に基づいて、運転者に異常が発生しているか否かを判断する。判断部14は、たとえば、特徴量抽出部12で抽出された特徴量と、平常時の特徴量とが、予め定める値以上離れている場合、運転者に異常が発生していると判断する。すなわち、判断部14は、特徴量抽出部12で抽出された特徴量と、平常時の特徴量との差が、予め定める値以上である場合、運転者に異常が発生していると判断する。判断部14は、特徴量抽出部12で抽出された特徴量と、平常時の特徴量との差が、予め定める値未満である場合、運転者に異常が発生していないと判断する。判断部14は、判断結果を主制御部15に与える。
図7は、本発明の第3の実施の形態の運転支援装置3における異常確認処理に関する処理手順を示すフローチャートである。図7に示すフローチャートの各ステップは、運転支援装置3を構成する音声取得部11、特徴量抽出部12、音声認識部13、判断部14、主制御部15、運転制御部16および通信部18によって実行される。図7に示すフローチャートは、図3に示すフローチャートと同一のステップを含んでいるので、同一のステップには同一のステップ番号を付して、共通する説明を省略する。
図7に示すフローチャートの処理は、運転支援装置3の電源が投入されると開始され、ステップa1に移行する。図7に示すフローチャートは、予め定める異常確認周期毎に繰り返し実行される。異常確認周期は、運転者に異常が発生しているか否かを確認する周期であり、たとえば、30分、1時間などである。異常確認周期は、利用者が任意に設定可能に構成される。
本実施の形態では、ステップa1およびステップa2の処理が行われると、ステップc1に移行する。ステップc1において、特徴量抽出部12は、抽出された特徴量と、平常時の特徴量とを比較する。特徴量抽出部12は、特徴量の比較結果を判断部14に与える。ステップc1の処理が終了すると、ステップa5に移行する。
ステップa5において、判断部14は、特徴量抽出部12から与えられた特徴量の比較結果に基づいて、運転者に異常が発生しているか否かを判断する。運転者に異常が発生していると判断された場合は、ステップa6に移行し、運転者に異常が発生していないと判断された場合は、全ての処理手順を終了する。ステップa6〜ステップa9の処理は、第1の実施の形態と同様に行われる。
以上に述べたように本実施の形態によれば、車両の運転者が発する言語および非言語を含む音声を表す音声情報が、音声取得部11によって取得される。音声取得部11によって取得された音声情報から、音声情報の特徴量が、特徴量抽出部12によって抽出される。特徴量抽出部12によって抽出された特徴量と、運転者の平常時の音声の特徴を表す特徴量との比較結果に基づいて、運転者に異常が発生しているか否かが、判断部14によって判断される。運転者に異常が発生していると判断部13によって判断された場合、車両の運転が運転制御部16によって制御される。これによって、運転者の応答が無くても、運転者の異常を検出することができる。
特に本実施の形態では、判断部14は、抽出された特徴量と、平常時の特徴量との比較結果に基づいて、運転者に異常が発生しているか否かを判断するので、運転者の異常を検出する精度を向上させることができる。
本実施の形態は、前述の第1の実施の形態および第2の実施の形態のいずれか、または両方と組合せてもよい。たとえば、本実施の形態と前述の第1の実施の形態とを組合せる場合、判断部14は、特徴量抽出部12から与えられる特徴量の比較結果と、特徴量抽出部12から与えられる音声情報の特徴量、または音声認識部13から与えられる認識音声情報とに基づいて、運転者に異常が発生しているか否かを判断する。
図8は、本発明の第3の実施の形態の運転支援装置3における異常確認処理に関する処理手順の他の例を示すフローチャートである。本実施の形態と前述の第1の実施の形態とが組合せられる場合、図8に示すように、前述の図7に示すフローチャートのステップa2とステップc1との間に、前述の図3に示すフローチャートのステップa3およびステップa4が設けられる。ステップa3およびステップa4の処理は、第1の実施の形態と同様に行われる。
この場合、ステップa5において、判断部14は、ステップc1の特徴量抽出部12による特徴量の比較結果と、ステップa2で特徴量抽出部12によって抽出される音声情報の特徴量、またはステップa4で音声認識部13から与えられる認識音声情報とに基づいて、運転者に異常が発生しているか否かを判断する。
このように本実施の形態と前述の第1の実施の形態とを組合せても、本実施の形態と同様に、運転者の応答が無くても、運転者の異常を検出することができる。また、運転者の異常を検出する精度を向上させることができる。
本実施の形態と前述の第1および第2の実施の形態とを組合せた場合には、特徴量の比較結果と、音声認識結果で得られた運転者の発話内容とに基づいて、運転者に異常が発生しているか否かを判断することができるので、運転者の異常を検出する精度を更に向上させることができる。
このように本実施の形態と前述の第1および第2の実施の形態とを組合せる場合には、図8のフローチャートのステップa4とステップc1との間に、前述の図5に示すフローチャートのステップb1を設ければよい。
以上に述べたように、本実施の形態の運転支援装置3では、音声特徴量データベース51に、運転者の平常時の音声の特徴を表す特徴量を記憶しておき、抽出された特徴量と、平常時の特徴量とを比較して、その比較結果に基づいて、判断部14によって運転者に異常が発生しているか否かを判断する。運転支援装置3の構成は、これに限定されない。
たとえば、音声特徴量データベース51には、運転者の呼吸のピッチを記憶しておいてもよい。この場合、特徴量抽出部12は、特徴量として運転者の呼吸のピッチを抽出し、抽出した呼吸のピッチと、音声特徴量データベース51に記憶される呼吸のピッチとを比較する。判断部14は、比較結果に基づいて、運転者に異常が発生しているか否かを判断する。たとえば、特徴量として抽出された呼吸のピッチが、音声特徴量データベース51に記憶される呼吸のピッチと、予め定める値以上の差があった場合、判断部14は、運転者に異常が発生していると判断する。呼吸のピッチは、たとえば、1分間の呼吸音の回数で表される。
以上に述べた本実施の形態の運転支援装置1〜3は、車両に搭載可能なナビゲーション装置だけでなく、通信端末装置、およびサーバ装置などを適宜に組み合わせてシステムとして構築される駐車支援システムに適用することができる。通信端末装置は、たとえばサーバ装置と通信を行う機能を有するPND(Portable Navigation Device)および携帯通信装置である。携帯通信装置は、たとえば携帯電話機、スマートフォンおよびタブレット型端末装置である。
前述のようにナビゲーション装置と通信端末装置とサーバ装置とを適宜に組み合わせてシステムが構築される場合、本実施の形態の運転支援装置の各構成要素は、前記システムを構築する各装置に分散して配置されてもよいし、いずれかの装置に集中して配置されてもよい。
たとえば、運転支援装置に備えられる特徴量抽出部12、音声認識部13および判断部14は、サーバ装置に配置されてもよいし、携帯通信装置などの通信端末装置に配置されてもよい。
前述の運転支援装置1に備えられる特徴量抽出部12、音声認識部13および判断部14がサーバ装置に配置される場合の運転支援装置は、たとえば、以下の第4の実施の形態に示す構成を有する。また、前述の運転支援装置1に備えられる特徴量抽出部12、音声認識部13および判断部14が携帯通信装置に配置される場合の運転支援装置は、たとえば、以下の第5の実施の形態に示す構成を有する。
<第4の実施の形態>
図9は、本発明の第4の実施の形態における運転支援装置4の構成を示すブロック図である。車載装置60は、音声入力部21、音声出力部24および車載装置本体61を備えて構成される。車載装置本体61は、音声取得部11、運転制御部16、音声出力制御部17、車載側制御部62および車載側通信部63を備える。
図9は、本発明の第4の実施の形態における運転支援装置4の構成を示すブロック図である。車載装置60は、音声入力部21、音声出力部24および車載装置本体61を備えて構成される。車載装置本体61は、音声取得部11、運転制御部16、音声出力制御部17、車載側制御部62および車載側通信部63を備える。
サーバ装置70は、非言語認識データベース22、言語認識データベース23およびサーバ装置本体71を備えて構成される。サーバ装置本体71は、特徴量抽出部12、音声認識部13、判断部14、サーバ側制御部72およびサーバ側通信部73を備える。
本実施の形態の運転支援装置4は、車載装置本体61と、サーバ装置本体71とを備えて構成される。
車載装置60は、車両、たとえば自動車に搭載可能に構成される。本実施の形態では、車載装置60は、経路を案内するナビゲーション機能を有するナビゲーション装置によって実現される。本発明の他の実施の形態である運転支援方法は、本実施の形態の運転支援装置4によって実行される。
本実施の形態における車載装置60およびサーバ装置70は、前述の第1の実施の形態の運転支援装置1と同一の構成を含んでいるので、同一の構成については同一の参照符号を付して、共通する説明を省略する。
車載側制御部62は、たとえばCPU(Central Processing Unit)と、書き込み可能なRAMなどのメモリとによって構成される。メモリは、制御プログラムを記憶する。CPUが、メモリに記憶されている制御プログラムを実行することによって、運転制御部16、音声出力制御部17および車載側通信部63を統括的に制御する。
車載側通信部63は、サーバ装置70と通信を行う。車載側通信部63は、たとえばインターネットなどの通信網を介して、サーバ装置70と通信可能に構成される。
車載側制御部62は、音声取得部11によって取得された音声情報を、車載側通信部63を介して、サーバ装置70に送信する。
サーバ側通信部73は、車載装置60と通信を行う。サーバ側通信部73は、たとえばインターネットなどの通信網を介して、車載装置60と通信可能に構成される。
サーバ側制御部72は、たとえばCPUと、書き込み可能なRAMなどのメモリとによって構成される。メモリは、制御プログラムを記憶する。CPUが、メモリに記憶されている制御プログラムを実行することによって、サーバ側通信部73を制御する。
サーバ側通信部73は、車載側通信部63を介して車載装置60から送信された音声情報を受信すると、サーバ側制御部72からの指示に基づいて、受信した音声情報を特徴量抽出部12に与える。
判断部14は、運転者に異常が発生しているか否かの判断結果をサーバ側制御部72に与える。サーバ側制御部72は、判断部14から与えられた、運転者に異常が発生しているか否かの判断結果を、サーバ側通信部73を介して、車載装置60に送信する。
車載側通信部63は、サーバ側通信部73を介してサーバ装置70から送信された、運転者に異常が発生しているか否かの判断結果を受信すると、受信した判断結果を車載側制御部62に与える。
車載側制御部62は、車載側通信部63から与えられた判断結果に基づいて、運転制御部16および音声出力制御部17を制御する。
以上のように本実施の形態では、特徴量抽出部12、音声認識部13及び判断部14は、サーバ装置70に配置される。このように配置される場合でも、前述の第1の実施の形態と同様の効果を得ることができる。
<第5の実施の形態>
図10は、本発明の第5の実施の形態における運転支援装置5の構成を示すブロック図である。車載装置60は、図9と同様に、音声入力部21、音声出力部24および車載装置本体61を備えて構成される。車載装置本体61は、図9と同様に、音声取得部11、運転制御部16、音声出力制御部17、車載側制御部62および車載側通信部63を備える。
図10は、本発明の第5の実施の形態における運転支援装置5の構成を示すブロック図である。車載装置60は、図9と同様に、音声入力部21、音声出力部24および車載装置本体61を備えて構成される。車載装置本体61は、図9と同様に、音声取得部11、運転制御部16、音声出力制御部17、車載側制御部62および車載側通信部63を備える。
携帯通信装置80は、特徴量抽出部12、音声認識部13、判断部14、携帯側制御部81および携帯側通信部82を備えて構成される。サーバ装置90は、非言語認識データベース22、言語認識データベース23、サーバ側制御部91およびサーバ側通信部92を備えて構成される。
本実施の形態の運転支援装置5は、車載装置本体61と、携帯通信装置80とを備えて構成される。
本発明の他の実施の形態である運転支援方法は、本実施の形態の運転支援装置5によって実行される。
本実施の形態における車載装置60、携帯通信装置80およびサーバ装置90は、前述の第1の実施の形態の運転支援装置1と同一の構成を含んでいるので、同一の構成については同一の参照符号を付して、共通する説明を省略する。
車載側制御部62は、音声取得部11によって取得された音声情報を、車載側通信部63を介して、携帯通信装置80に送信する。
携帯通信装置80は、たとえば携帯電話機、スマートフォンまたはタブレット型端末装置によって実現される。携帯側通信部82は、車載装置60およびサーバ装置90と通信を行う。携帯側通信部82は、たとえばインターネットなどの通信網を介して、車載装置60およびサーバ装置90と通信可能に構成される。
携帯側通信部82は、車載装置60と通信を行う場合、たとえば、近距離無線通信規格であるブルートゥース(Bluetooth(登録商標))または無線LAN(Local Area Network)などの無線によって、車載装置60と通信可能に構成されてもよい。また、携帯側通信部82は、USB(Universal Serial Bus)ケーブルまたはLANケーブルなどの有線によって、車載装置60と通信可能に構成されてもよい。
携帯側制御部81は、たとえばCPUと、書き込み可能なRAMなどのメモリとによって構成される。メモリは、制御プログラムを記憶する。CPUが、メモリに記憶されている制御プログラムを実行することによって、携帯側通信部82を制御する。
携帯側通信部82は、車載側通信部63を介して車載装置60から送信された音声情報を受信すると、携帯側制御部81からの指示に基づいて、受信した音声情報を特徴量抽出部12に与える。
また携帯側通信部82は、携帯側制御部81からの指示に基づいて、サーバ装置90に備えられる非言語認識データベース22に記憶される非言語認識情報、および言語認識データベース23に記憶される言語認識情報の送信要求をサーバ装置90に送信する。
サーバ側通信部92は、携帯側通信部82を介して携帯通信装置80から送信された非言語認識情報および言語認識情報の送信要求を受信すると、サーバ側制御部91を介して、非言語認識データベース22および言語認識データベース23から、非言語認識情報および言語認識情報を取得する。
サーバ側通信部92は、非言語認識情報および言語認識情報を取得すると、取得した非言語認識情報および言語認識情報を、携帯通信装置80に送信する。
携帯側通信部82は、サーバ装置90から送信された非言語認識情報および言語認識情報を受信すると、非言語認識情報を特徴量抽出部12に与えるとともに、言語認識情報を音声認識部13に与える。
判断部14は、運転者に異常が発生しているか否かの判断結果を携帯側制御部81に与える。携帯側制御部81は、判断部14から与えられた、運転者に異常が発生しているか否かの判断結果を、携帯側通信部82を介して、車載装置60に送信する。
車載側通信部63は、携帯側通信部82を介して携帯通信装置80から送信された、運転者に異常が発生しているか否かの判断結果を受信すると、受信した判断結果を車載側制御部62に与える。
車載側制御部62は、車載側通信部63から与えられた判断結果に基づいて、運転制御部16および音声出力制御部17を制御する。
以上のように本実施の形態では、特徴量抽出部12、音声認識部13および判断部14は、携帯通信装置80に配置される。このように配置される場合でも、前述の第1の実施の形態と同様の効果を得ることができる。
前述の第4の実施の形態では、第1の実施の形態の運転支援装置1に備えられる特徴量抽出部12、音声認識部13および判断部14がサーバ装置に配置される場合の運転支援装置の構成を説明したが、このような構成に限られるものではない。たとえば、第2の実施の形態の運転支援装置2に備えられる特徴量抽出部12、音声認識部13、判断部14および構文解析部41がサーバ装置に配置される場合でも、前述の第2の実施の形態と同様の効果を得ることができる。また、たとえば、第3の実施の形態の運転支援装置3に備えられる特徴量抽出部12、音声認識部13および判断部14がサーバ装置に配置される場合でも、前述の第3の実施の形態と同様の効果を得ることができる。
また前述の第5の実施の形態では、第1の実施の形態の運転支援装置1に備えられる特徴量抽出部12、音声認識部13および判断部14が携帯通信装置に配置される場合の運転支援装置の構成を説明したが、このような構成に限られるものではない。たとえば、第2の実施の形態の運転支援装置2に備えられる特徴量抽出部12、音声認識部13、判断部14および構文解析部41が携帯通信装置に配置される場合でも、前述の第2の実施の形態と同様の効果を得ることができる。また、たとえば、第3の実施の形態の運転支援装置3に備えられる特徴量抽出部12、音声認識部13および判断部14が携帯通信装置に配置される場合でも、前述の第3の実施の形態と同様の効果を得ることができる。
なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせることが可能である。また、各実施の形態の任意の構成要素を適宜、変更または省略することが可能である。
1,2,3,4,5 運転支援装置、10,40,50,60 車載装置、11 音声取得部、12 特徴量抽出部、13 音声認識部、14 判断部、15 主制御部、16 運転制御部、17 音声出力制御部、18 通信部、21 音声入力部、22 非言語認識データベース、23 言語認識データベース、24 音声出力部、31 プロセッサ、32 メモリ、41 構文解析部、42 構文解析データベース、51 音声特徴量データベース、61 車載装置本体、62 車載側制御部、63 車載側通信部、70,90 サーバ装置、71 サーバ装置本体、72,91 サーバ側制御部、73,92 サーバ側通信部、80 携帯通信装置、81 携帯側制御部、82 携帯側通信部。
Claims (6)
- 車両の運転者が発する言語および言語でない非言語を含む音声を表す音声情報を取得する音声取得部と、
前記音声取得部によって取得された音声情報から、前記音声情報が表す音声の特徴を表す特徴量を抽出し、抽出した前記特徴量が、前記非言語の音声を表す非言語音声情報の特徴量であるか否かを判断する特徴量抽出部と、
前記特徴量抽出部によって抽出された前記特徴量が前記非言語音声情報の特徴量でないと判断された場合、前記特徴量抽出部によって抽出された前記特徴量に基づいて、前記音声を認識する音声認識部と、
前記特徴量抽出部によって抽出された前記特徴量、または前記音声認識部によって認識された音声を表す認識音声情報に基づいて、前記運転者に異常が発生しているか否かを判断する判断部と、
前記判断部によって前記運転者に異常が発生していると判断された場合、前記車両の運転を制御する運転制御部とを備えることを特徴とする運転支援装置。 - 前記認識音声情報に基づいて、前記音声認識部によって認識された音声の構文を解析する構文解析部を備え、
前記判断部は、前記認識音声情報に基づいて前記運転者に異常が発生しているか否かを判断する場合、前記構文解析部による前記構文の解析結果に基づいて、前記運転者に異常が発生しているか否かを判断することを特徴とする請求項1に記載の運転支援装置。 - 前記判断部は、前記特徴量抽出部によって抽出された前記特徴量と、前記運転者の平常時の音声の特徴を表す特徴量との比較結果に基づいて、前記運転者に異常が発生しているか否かを判断することを特徴とする請求項1または2に記載の運転支援装置。
- 車両の運転者が発する言語および言語でない非言語を含む音声を表す音声情報を取得する音声取得部と、
前記音声取得部によって取得された音声情報から、前記音声情報が表す音声の特徴を表す特徴量を抽出する特徴量抽出部と、
前記特徴量抽出部によって抽出された前記特徴量と、前記運転者の平常時の音声の特徴を表す特徴量との比較結果に基づいて、前記運転者に異常が発生しているか否かを判断する判断部と、
前記判断部によって前記運転者に異常が発生していると判断された場合、前記車両の運転を制御する運転制御部とを備えることを特徴とする運転支援装置。 - 車両の運転者が発する言語および言語でない非言語を含む音声を表す音声情報を取得し、
取得した音声情報から、前記音声情報が表す音声の特徴を表す特徴量を抽出し、
抽出した前記特徴量が、前記非言語の音声を表す非言語音声情報の特徴量であるか否かを判断し、
抽出した前記特徴量が前記非言語音声情報の特徴量でないと判断した場合、抽出した前記特徴量に基づいて、前記音声を認識し、
抽出した前記特徴量、または認識された音声を表す認識音声情報に基づいて、前記運転者に異常が発生しているか否かを判断し、
前記運転者に異常が発生していると判断した場合、前記車両の運転を制御することを特徴とする運転支援方法。 - 車両の運転者が発する言語および言語でない非言語を含む音声を表す音声情報を取得し、
取得した音声情報から、前記音声情報が表す音声の特徴を表す特徴量を抽出し、
抽出した前記特徴量と、前記運転者の平常時の音声の特徴を表す特徴量との比較結果に基づいて、前記運転者に異常が発生しているか否かを判断し、
前記運転者に異常が発生していると判断した場合、前記車両の運転を制御することを特徴とする運転支援方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016135703A JP2018005163A (ja) | 2016-07-08 | 2016-07-08 | 運転支援装置および運転支援方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016135703A JP2018005163A (ja) | 2016-07-08 | 2016-07-08 | 運転支援装置および運転支援方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018005163A true JP2018005163A (ja) | 2018-01-11 |
Family
ID=60949077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016135703A Pending JP2018005163A (ja) | 2016-07-08 | 2016-07-08 | 運転支援装置および運転支援方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018005163A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111128143A (zh) * | 2018-10-31 | 2020-05-08 | 丰田自动车株式会社 | 驾驶辅助设备、车辆、驾驶辅助方法及存储程序的非暂时性存储介质 |
JP7501548B2 (ja) | 2022-01-18 | 2024-06-18 | トヨタ自動車株式会社 | ドライバモニタ装置、ドライバモニタ方法及びドライバモニタ用コンピュータプログラム |
-
2016
- 2016-07-08 JP JP2016135703A patent/JP2018005163A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111128143A (zh) * | 2018-10-31 | 2020-05-08 | 丰田自动车株式会社 | 驾驶辅助设备、车辆、驾驶辅助方法及存储程序的非暂时性存储介质 |
CN111128143B (zh) * | 2018-10-31 | 2023-06-30 | 丰田自动车株式会社 | 驾驶辅助设备、车辆、驾驶辅助方法及存储程序的非暂时性存储介质 |
JP7501548B2 (ja) | 2022-01-18 | 2024-06-18 | トヨタ自動車株式会社 | ドライバモニタ装置、ドライバモニタ方法及びドライバモニタ用コンピュータプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106209138B (zh) | 一种车辆谨慎紧急响应系统及方法 | |
US9230538B2 (en) | Voice recognition device and navigation device | |
JP5601419B2 (ja) | エレベーターの呼び登録装置 | |
US10176806B2 (en) | Motor vehicle operating device with a correction strategy for voice recognition | |
JP2006350567A (ja) | 対話システム | |
JP5077107B2 (ja) | 車両用飲酒検知装置及び車両用飲酒検知方法 | |
EP2963644A1 (en) | Audio command intent determination system and method | |
CN112397065A (zh) | 语音交互方法、装置、计算机可读存储介质及电子设备 | |
JP6459330B2 (ja) | 音声認識装置、音声認識方法、及び音声認識プログラム | |
JP2018097029A (ja) | 音声認識装置および音声認識方法 | |
CN111199735A (zh) | 车载装置以及语音识别方法 | |
CN108352167B (zh) | 包括可佩戴设备的车辆语音识别 | |
JP2018005163A (ja) | 運転支援装置および運転支援方法 | |
JP5326843B2 (ja) | 感情推定装置及び感情推定方法 | |
JP2008046299A (ja) | 音声認識装置 | |
JP5074759B2 (ja) | 対話制御装置、対話制御方法及び対話制御プログラム | |
JP2020148805A (ja) | 音声認識システム、及び、音声認識方法 | |
US11869488B2 (en) | Agent device, agent system, and computer-readable storage medium | |
JP2016143050A (ja) | 音声認識装置および音声認識方法 | |
US10127910B2 (en) | Speech recognition apparatus and computer program product for speech recognition | |
US20150039312A1 (en) | Controlling speech dialog using an additional sensor | |
CN107195298B (zh) | 根本原因分析以及校正系统和方法 | |
WO2019175960A1 (ja) | 音声処理装置および音声処理方法 | |
JP7242873B2 (ja) | 音声認識補助装置および音声認識補助方法 | |
WO2019030810A1 (ja) | 音声認識装置および音声認識方法 |