JP7087919B2 - 運転支援装置、車両、運転支援方法およびプログラム - Google Patents

運転支援装置、車両、運転支援方法およびプログラム Download PDF

Info

Publication number
JP7087919B2
JP7087919B2 JP2018205421A JP2018205421A JP7087919B2 JP 7087919 B2 JP7087919 B2 JP 7087919B2 JP 2018205421 A JP2018205421 A JP 2018205421A JP 2018205421 A JP2018205421 A JP 2018205421A JP 7087919 B2 JP7087919 B2 JP 7087919B2
Authority
JP
Japan
Prior art keywords
voice
information
content
driver
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018205421A
Other languages
English (en)
Other versions
JP2020069920A (ja
Inventor
直樹 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018205421A priority Critical patent/JP7087919B2/ja
Priority to CN201910739751.8A priority patent/CN111128143B/zh
Priority to US16/538,204 priority patent/US11386891B2/en
Publication of JP2020069920A publication Critical patent/JP2020069920A/ja
Application granted granted Critical
Publication of JP7087919B2 publication Critical patent/JP7087919B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0051Handover processes from occupants to vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Navigation (AREA)
  • Steering Controls (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、運転支援装置、車両、運転支援方法およびプログラムに関する。
音声認識端末装置において、運転者が発話した音声コマンドを受け付けたことを対話形式で運転者に理解させる技術が知られている(例えば特許文献1参照)。この技術では、運転者が音声コマンドを発話したタイミングから音声認識装置が音声コマンドを認識するタイミングまでの待ち時間中に、つなぎ言葉を音声情報として出力することによって運転者に音声コマンドを受け付けたことを認識させる。
特開2015-135419号公報
しかしながら、上述した特許文献1では、音声認識装置が認識した発話内容に応じた処理を実行するため、音声認識装置が誤認識している場合、運転者が意図した処理と異なる処理が実行されてしまうという問題点があった。
本発明は、上記に鑑みてなされたものであって、運転者が意図した処理を確実に実行することができる運転支援装置、車両、運転支援方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る運転支援装置は、メモリと、ハードウェアを有するプロセッサと、を備え、前記プロセッサは、運転者が発話した音声情報を取得し、前記音声情報の内容を認識し、前記音声情報の認識結果に応じた処理を実行する前に、該処理に関する情報を出力し、運転者が把持して車両を操舵可能なステアリングホイールに配置された操作部材から前記処理の実行を承認する承認信号が入力された場合、前記処理を実行する。
また、本発明に係る運転支援装置は、前記プロセッサは、前記処理の内容と自動運転による操舵との相関関係を示すレベルが所定のレベル以上であるか否かを判定し、前記処理の内容と自動運転による操舵との相関関係を示すレベルが所定のレベル以上である場合、前記情報を出力してもよい。
これによれば、音声情報の認識結果に応じた処理が所定のレベル以上である場合、音声情報の認識結果に応じた処理に関する情報がメータに表示されるので、運転者が意図しない車両に対する操舵が自動的に実行されることを防止することができる。
また、本発明に係る運転支援装置は、前記プロセッサは、前記承認信号の入力時間が前記処理のレベルに応じた時間に到達したか否かを判定し、前記時間に到達した場合、前記処理を実行してもよい。
これによれば、処理の内容のレベルに応じた時間だけ承認スイッチを押下し続けなければならないため、安全性を高めることができる。
また、本発明に係る車両は、上記の運転支援装置と、運転者が発話した音声の入力を受け付けて前記音声情報を生成するマイクロフォンと、前記情報を表示可能なメータと、前記ステアリングホイールと、を備え、前記操作部材は、運転者が前記ステアリングホイールを把持した状態で操作可能な位置に配置される。
これによれば、運転者がステアリングホイールから手を離すことなく、発話に応じた処理の実行を承認することができる。
また、本発明に係る車両は、前記ステアリングホイールは、前記操作部材に隣接して配置され、前記マイクロフォンを起動する起動スイッチを有してもよい。
これによれば、運転者が手元を確認することなく、発話に応じた処理の実行を承認することができる。
また、本発明に係る運転支援方法は、運転者が発話した音声情報を取得し、メモリに記憶した前記音声情報の内容を認識し、前記音声情報の認識結果に応じた処理を実行する前に、該処理を実行するか否かを確認する情報を出力し、運転者が把持して車両を操舵可能なステアリングホイールに配置された操作部材から前記処理の実行を承認する承認信号が入力された場合、前記処理を実行する。
また、本発明に係るプログラムは、運転者が発話した音声情報を取得し、前記音声情報の内容を認識し、前記音声情報の認識結果に応じた処理を実行する前に、該処理を実行するか否かを確認する情報を出力し、運転者が把持して車両を操舵可能なステアリングホイールに配置された操作部材から前記処理の実行を承認する承認信号が入力された場合、前記処理を実行する。
本発明によれば、音声情報の認識結果に応じた処理の内容に関する情報を出力した後に、処理の実行を承認する承認信号が入力された場合に処理を実行するので、運転者が意図した処理のみを確実に実行することができる効果を奏する。
図1は、一実施の形態に係る車両の機能構成を示すブロック図である。 図2は、レベル情報記憶部が記憶するレベル情報の一例を示す図である。 図3は、音声ECUが実行する処理の概要を示すフローチャートである。 図4は、メータが表示する表示の一例を示す模式図である。
以下、本発明を実施するための形態を図面とともに詳細に説明する。なお、以下の実施の形態により本発明が限定されるものでない。また、以下において、同一の部分には同一の符号を付して説明する。
〔車両の構成〕
まず、一実施の形態に係る車両の構成について説明する。図1は、一実施の形態に係る車両の機能構成を示すブロック図である。図1に示す車両1は、マイクロフォン10と、メータ11と、ステアリングホイール12と、駆動(Electronic Control Unit)ECU13と、アクチュエータ14と、カーナビゲーションシステム15と、記憶部16と、通信部17と、音声ECU18と、を備える。
マイクロフォン10は、音声ECU18の制御のもと、運転者が発話した音声の入力を受け付け、受け付けた音声に対して所定の音声処理、例えば増幅処理、A/D変換処理およびゲイン調整処理等を行って音声情報を生成して音声ECU18へ出力する。マイクロフォン10は、指向性マイクロフォンまたはステレオマイクロフォンおよびDSP(Digital Signal Processing)等を用いて構成される。
メータ11は、運転者が車両1の運転中に運転状態を認識するための情報を表示する。メータ11は、車両1の現在の速度情報やエンジンの現在の回転数を表示するタコメータ等の計器類および音声ECU18から入力された情報を表示する液晶や有機EL(Electro Luminescence)等の表示ディスプレイを用いて構成される。
ステアリングホイール12は、運転者の操作に応じて、車両1の操舵輪を操舵する。ステアリングホイール12は、音声認識の起動する起動信号の入力を受け付ける起動スイッチ121と、音声認識による認識結果に応じた処理を承認する承認信号の入力を受け付ける承認スイッチ122と、を有する。起動スイッチ121および承認スイッチ122の各々は、運転者がステアリングホイール12を把持した状態で操作可能な位置に配置される。さらに、起動スイッチ121および承認スイッチ122は、互いに隣接してステアリングホイール12に配置される。
駆動ECU13は、ステアリングホイール12の操作に応じてアクチュエータ14の駆動を制御する。また、駆動ECU13は、音声ECU18から入力された処理に応じて、アクチュエータ14の駆動を制御する。駆動ECU13は、メモリと、CPU(Central Processing Unit)等のハードウェアを有するプロセッサを用いて構成される。
アクチュエータ14は、駆動ECU13の制御のもと、駆動する。アクチュエータ14は、例えばエンジン等を用いて構成される。
カーナビゲーションシステム15は、GPS(Global Positioning System)部151と、地図データベース152と、報知装置153と、を有する。
GPS151は、GPS衛星からの信号を受信し、受信した信号に基づいて車両1の位置を算出する。GPS151は、GPS受信センサ等を用いて構成される。
地図データベース152は、各種の地図データを記憶する。地図データベース152は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記録媒体を用いて構成される。
報知装置153は、画像、映像および文字情報を表示する表示部153aと、音声や警報音等の音を発生する音声出力部153bと、を有する。表示部153aは、液晶や有機EL等の表示ディスプレイを用いて構成される。音声出力部153bは、スピーカ等を用いて構成される。
このように構成されたカーナビゲーションシステム15は、GPS151によって取得した現在の車両1の位置を、地図データベース152が記憶する地図データに重ねることによって、車両1が現在走行している道路および目的地までの経路等を含む情報を、表示部153aと音声出力部153bとによって運転者に対して報知する。
記憶部16は、音声ECU18が音声認識時に音声情報を認識するために使用する辞書データを記憶する辞書データ記憶部161と、音声ECU18による音声認識結果に応じた処理毎のレベルを示すレベル情報を記憶するレベル情報記憶部162と、を有する。記憶部16は、ROM(Read Only Memory)およびRAM(Random Access Memory)等の半導体メモリおよびHDDやSSD等の記録媒体を用いて構成される。
ここで、レベル情報記憶部162が記憶するレベル情報について説明する。図2は、レベル情報記憶部162が記憶するレベル情報の一例を示す図である。
図2に示すレベル情報T1は、音声ECU18による音声認識結果に応じた処理の内容とレベルとを対応付けた情報である。ここで、レベルとは、音声認識に応じた処理の内容と車両1の自動運転による操作との相関関係を示す値である。具体的には、レベルが高いほど、自動運転による操作との相関関係が高い値となるように設定する。例えば、図2に示すように、レベル情報T1では、処理内容が音声データを再生する「音声再生」の場合、車両1の自動運転の操舵に全く関係しないため、レベルを「1」として対応付けている。また、レベル情報T1では、車両1の目的地へのルートを変更する「ルート変更」の場合、車両1の自動運転の操舵に小さく関係するため、レベルを「3」として対応付けている。さらに、レベル情報T1では、車両1を先頭車に自動的に追尾しながら自動操縦に切り替える「クルーズコントール」の場合、車両1の自動運転の操舵に大きく関係するため、レベルを「5」として対応付けている。
図1に戻り、車両1の構成の説明を続ける。
通信部17は、音声ECU18の制御のもと、基地局およびネットワークを介して所定の通信規格に従って各種情報を送信するとともに、各種情報を受信する。通信部17は、無線通信可能な通信モジュールを用いて構成される。
音声ECU18は、マイクロフォン10から運転者が発話した音声情報を取得する。音声ECU18は、マイクロフォン10から取得した音声情報の内容を認識し、この音声情報の認識結果に応じた処理を実行する前に、この処理に関する情報をメータ11に出力する。音声ECU18は、運転者が把持して車両1を操舵可能なステアリングホイール12に配置された承認スイッチ122から処理の実行を承認する承認信号が入力された場合、この処理を実行する。また、音声ECU18は、処理に対応付けられたレベルが所定のレベル以上であるか否かを判定し、音声情報の認識結果に応じた処理の内容が所定のレベル以上(例えば図2に示す場合、レベル3以上)である場合、この処理に関する情報をメータ11に出力する。音声ECU18は、メモリと、CPU等のハードウェアを有するプロセッサを用いて構成される。なお、一実施の形態では、音声ECU18が運転支援装置として機能する。
〔音声ECUの処理〕
次に、音声ECU18が実行する処理について説明する。図3は、音声ECU18が実行する処理の概要を示すフローチャートである。
図3に示すように、起動スイッチ121から起動信号が入力された場合(ステップS101:Yes)、音声ECU18は、マイクロフォン10を起動し(ステップS102)、所定の時間内で運転者が発話することによって入力された音声情報をマイクロフォン10から取得する(ステップS103)。
続いて、音声ECU18は、マイクロフォン10を停止し(ステップS104)、音声ECU18は、辞書データ記憶部161が記憶する辞書データを用いて、マイクロフォン10から取得した音声情報を認識する(ステップS105)。
その後、音声ECU18は、レベル情報記憶部162が記憶するレベル情報T1に基づいて、音声情報の認識結果に応じた処理の内容が所定のレベル以上であるか否かを判定する(ステップS106)。音声ECU18は、音声情報の認識結果に応じた処理の内容が所定のレベル以上である場合(ステップS106:Yes)、後述するステップS107へ移行する。これに対して、音声ECU18は、音声情報の認識結果に応じた処理の内容が所定のレベル以上でない場合(ステップS106:No)、後述するステップS113へ移行する。
ステップS107において、音声ECU18は、音声情報の認識結果に応じた処理に関する情報をメータ11に出力することによって、メータ11に情報を表示させる。具体的には、図4に示すように、音声ECU18は、メータ11に情報として「○○を実行しても良いですか?」のメッセージM1をメータ11に表示させる。さらに、音声ECU18は、音声情報の認識結果に応じた処理の実行を承認するアイコンA1および処理の実行を中止するアイコンA2をメータ11に表示させる。これにより、運転者は、音声ECU18が音声情報の認識結果に応じた処理を実行する前に、メータ11に処理の内容に関する情報が表示されるので、意図する処理の内容であるか否かを把握することができる。
続いて、音声ECU18は、承認スイッチ122から音声情報の認識結果に応じた処理の実行を承認する承認信号が入力された場合(ステップS108:Yes)において、承認信号の入力時間が処理の内容のレベルに応じた時間に到達したとき(ステップS109:Yes)、音声情報に応じた処理を実行する(ステップS110)。ここで、処理の内容のレベルに応じた時間は、レベルが大きいほど長く設定する。例えば、レベル3の場合、0.5秒であり、レベル5の場合、3秒等である。これにより、運転者は、誤って承認スイッチ122を操作した場合した場合であっても、処理の内容のレベルに応じた時間だけ承認スイッチ122を押下し続けなければならないため、安全性を高めることができる。ステップS110の後、音声ECU18は、本処理を終了する。
ステップS108において、承認スイッチ122から音声認識結果に応じた処理の実行を承認する承認信号が入力された場合(ステップS108:Yes)において、承認信号の入力時間が処理の内容のレベルに応じた時間に到達していないとき(ステップS109:No)、音声ECU18は、ステップS107へ戻る。
ステップS108において、承認スイッチ122から音声認識結果に応じた処理の実行を承認する承認信号が入力されていない場合(ステップS108:No)、音声ECU18は、ステップS111へ移行する。
続いて、メータ11に情報を表示してから所定時間経過している場合(ステップS111:Yes)、音声ECU18は、音声情報に応じた処理を中止する(ステップS112)。ステップS112の後、音声ECU18は、本処理を終了する。なお、音声ECU18は、所定時間経過することなく、起動スイッチ121が再度押下された場合、音声情報に応じた処理を中止してもよい。
ステップS111において、承認スイッチ122から音声認識結果に応じた処理の実行を承認する承認信号が入力されていない場合(ステップS111:No)、音声ECU18は、上述したステップS107へ戻る。
ステップS113において、音声ECU18は、音声情報の認識結果に応じた処理を実行する。ステップS113の後、音声ECU18は、本処理を終了する。
以上説明した一実施の形態によれば、運転者が発話した音声情報の認識結果に応じた処理を実行する前に、音声ECU18が音声情報の認識結果に応じた処理に関する情報をメータ11に出力し、承認スイッチ122から処理の実行を承認する承認信号が入力された場合、音声ECU18が音声情報の認識結果に応じた処理を実行するので、運転者が意図した処理を確実に実行することができる。
また、一実施の形態によれば、音声ECU18が音声情報の認識結果に応じた処理の内容のレベルが所定のレベル以上である場合、メータ11に情報を出力するので、運転者が意図しない車両1に対する操舵が自動的に実行されることを防止することができる。
また、一実施の形態によれば、音声ECU18が承認スイッチ122からの承認信号の入力時間が音声情報の認識結果に応じた処理の内容のレベルに応じた時間に到達した場合、音声情報の認識結果に応じた処理を実行するので、処理のレベルに応じた時間だけ承認スイッチ122を押下し続けなければならないため、誤って承認スイッチ122が操作された場合であっても、安全性を高めることができる。
また、一実施の形態によれば、運転者がステアリングホイール12を把持した状態で操作可能な位置に承認スイッチ122を配置したので、運転者がステアリングホイール12から手を離すことなく、発話に応じた処理の実行を承認することができる。
また、一実施の形態によれば、承認スイッチ122がステアリングホイール12の起動スイッチ121に隣接した位置に配置されているので、運転者が手元を確認することなく、発話に応じた処理の実行を承認することができる。
なお、一実施の形態では、音声ECU18が音声情報の認識結果に応じた処理に関する情報をメータ11に出力していたが、音声情報の認識結果とカーナビゲーションシステム15による車両1の現在位値とに基づいて、処理に関する情報をメータ11に出力してもよい。例えば、音声ECU18は、音声情報の認識結果の処理がクルーズコントールであり、時速100kmの場合において、カーナビゲーションシステム15による車両1の現在位値に応じた道の法定速度が80kmのとき、車両1を80kmでクルーズコントールを行う旨の情報をメータ11に出力してもよい。
また、一実施の形態では、音声ECU18がマイクロフォン10から取得した音声情報に対して音声認識を行っていたが、例えば通信部17を介して外部の音声認識を実行可能なサーバと連携しながら音声情報に対する音声認識処理を行ってもよい。もちろん、音声認識が可能なサーバが車両1の通信部17を介して音声情報を取得し、取得した音声情報の認識結果を音声ECU18へ出力してもよいし、音声ECU18を介して音声情報の音声認識に応じた処理に関する情報をメータ11に出力してもよい。
また、一実施の形態では、音声情報の認識結果に応じた処理が所定のレベル以上でない場合、音声ECU18が音声情報の認識結果に応じた処理を実行していたが、例えば音声情報の認識結果に応じた処理が所定のレベル以上でない場合、処理の内容に関する情報をメータ11に出力し、運転者による発話によって音声情報の認識結果に応じた処理を実行するようにしてもよい。即ち、一実施の形態では、音声情報の認識結果に応じた処理のレベルに応じて、操作部材である承認スイッチ122または運転者の発話によって処理を実行するか否かを切り替えてもよい。
(その他の実施の形態)
また、一実施の形態に係る車両では、上述してきた「部」は、「回路」などに読み替えることができる。例えば、通信部は、通信回路に読み替えることができる。
また、一実施の形態に係る運転支援装置に実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、一実施の形態に係る運転支援装置に実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。
なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本実施の形態を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施の形態に限定されるものではない。従って、添付のクレームおよびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 車両
10 マイクロフォン
11 メータ
12 ステアリングホイール
13 駆動ECU
14 アクチュエータ
15 カーナビゲーションシステム
16 記憶部
17 通信部
18 音声ECU
111 メータ
121 起動スイッチ
122 承認スイッチ
151 GPS部
152 地図データベース
153 報知装置
153a 表示部
153b 音声出力部
161 辞書データ記憶部
162 レベル情報記憶部

Claims (6)

  1. メモリと、
    ハードウェアを有するプロセッサと、
    を備え、
    前記プロセッサは、
    運転者が発話した音声情報を取得し、
    前記音声情報の内容を認識し、
    前記音声情報の認識結果に応じた処理を実行する前に、該処理の内容と自動運転による操舵との相関関係を示すレベルが所定のレベル以上であるか否かを判定し、
    前記処理の内容と自動運転による操舵との相関関係を示すレベルが所定のレベル以上である場合、前記処理の内容に関する情報を出力し、
    運転者が把持して車両を操舵可能なステアリングホイールに配置された操作部材から前記処理の実行を承認する承認信号が入力された場合、前記処理を実行する、
    運転支援装置。
  2. 請求項に記載の運転支援装置であって、
    前記プロセッサは、
    前記承認信号の入力時間が前記処理の内容のレベルに応じた時間に到達したか否かを判定し、
    前記時間に到達した場合、前記処理を実行する、
    運転支援装置。
  3. 請求項1または2に記載の運転支援装置と、
    運転者が発話した音声の入力を受け付けて前記音声情報を生成するマイクロフォンと、
    前記情報を表示可能なメータと、
    前記ステアリングホイールと、
    を備え、
    前記操作部材は、運転者が前記ステアリングホイールを把持した状態で操作可能な位置に配置される、
    車両。
  4. 請求項に記載の車両であって、
    前記ステアリングホイールは、前記操作部材に隣接して配置され、前記マイクロフォンを起動する起動スイッチを有する、
    車両。
  5. 運転支援装置が実行する運転支援方法であって、
    運転者が発話した音声情報を取得し、
    メモリに記憶した前記音声情報の内容を認識し、
    前記音声情報の認識結果に応じた処理を実行する前に、該処理の内容に関する情報を出力し、
    前記音声情報の認識結果に応じた処理を実行する前に、該処理の内容と自動運転による操舵との相関関係を示すレベルが所定のレベル以上であるか否かを判定し、
    前記処理の内容と自動運転による操舵との相関関係を示すレベルが所定のレベル以上である場合、前記処理の内容に関する情報を出力し、
    運転者が把持して車両を操舵可能なステアリングホイールに配置された操作部材から前記処理の実行を承認する承認信号が入力された場合、前記処理を実行する、
    運転支援方法。
  6. 運転支援装置が実行するプログラムであって、
    運転者が発話した音声情報を取得し、
    前記音声情報の内容を認識し、
    前記音声情報の認識結果に応じた処理を実行する前に、該処理の内容と自動運転による操舵との相関関係を示すレベルが所定のレベル以上であるか否かを判定し、
    前記処理の内容と自動運転による操舵との相関関係を示すレベルが所定のレベル以上である場合、前記処理の内容に関する情報を出力し、
    運転者が把持して車両を操舵可能なステアリングホイールに配置された操作部材から前記処理の実行を承認する承認信号が入力された場合、前記処理を実行する
    プログラム。
JP2018205421A 2018-10-31 2018-10-31 運転支援装置、車両、運転支援方法およびプログラム Active JP7087919B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018205421A JP7087919B2 (ja) 2018-10-31 2018-10-31 運転支援装置、車両、運転支援方法およびプログラム
CN201910739751.8A CN111128143B (zh) 2018-10-31 2019-08-12 驾驶辅助设备、车辆、驾驶辅助方法及存储程序的非暂时性存储介质
US16/538,204 US11386891B2 (en) 2018-10-31 2019-08-12 Driving assistance apparatus, vehicle, driving assistance method, and non-transitory storage medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018205421A JP7087919B2 (ja) 2018-10-31 2018-10-31 運転支援装置、車両、運転支援方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020069920A JP2020069920A (ja) 2020-05-07
JP7087919B2 true JP7087919B2 (ja) 2022-06-21

Family

ID=70327106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018205421A Active JP7087919B2 (ja) 2018-10-31 2018-10-31 運転支援装置、車両、運転支援方法およびプログラム

Country Status (3)

Country Link
US (1) US11386891B2 (ja)
JP (1) JP7087919B2 (ja)
CN (1) CN111128143B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4174636A4 (en) * 2020-06-30 2023-07-26 Nissan Motor Co., Ltd. INFORMATION PROCESSING DEVICE AND METHOD
JP2022084136A (ja) * 2020-11-26 2022-06-07 株式会社東海理化電機製作所 無線通信装置、システムおよびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163091A (ja) 1998-11-27 2000-06-16 Denso Corp 音声認識装置
JP2002012100A (ja) 2000-06-29 2002-01-15 Jatco Transtechnology Ltd 車両制御装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000039898A (ja) * 1998-07-22 2000-02-08 Tokai Rika Co Ltd 車両用音声認識装置
KR20040035151A (ko) * 2002-10-18 2004-04-29 현대모비스 주식회사 차량용 음성인식 장치 및 작동방법
JP2007249364A (ja) * 2006-03-14 2007-09-27 Denso Corp 安全運転支援システム及び安全運転支援装置
US20130204457A1 (en) * 2012-02-06 2013-08-08 Ford Global Technologies, Llc Interacting with vehicle controls through gesture recognition
CN104221067A (zh) * 2012-03-29 2014-12-17 丰田自动车株式会社 驾驶支援装置
CN103287362B (zh) * 2013-06-25 2015-11-25 安科智慧城市技术(中国)有限公司 一种车载语音控制系统、方法和电动汽车
DE102013222048B4 (de) * 2013-10-30 2023-10-05 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Aktivieren oder Deaktivieren einer automatischen Fahrfunktion
JP6024675B2 (ja) 2014-01-17 2016-11-16 株式会社デンソー 音声認識端末装置、音声認識システム、音声認識方法
JP6558734B2 (ja) * 2015-04-21 2019-08-14 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
JP6617534B2 (ja) * 2015-11-30 2019-12-11 株式会社デンソー 運転支援装置
JP2018005163A (ja) * 2016-07-08 2018-01-11 三菱電機株式会社 運転支援装置および運転支援方法
CN106828102A (zh) * 2016-11-25 2017-06-13 未来汽车科技(深圳)有限公司 汽车仪表盘及控制方法
US10906554B2 (en) * 2017-05-23 2021-02-02 Magna Electronics Inc. Autonomous driving system
CN108682419A (zh) * 2018-03-30 2018-10-19 京东方科技集团股份有限公司 语音控制方法及设备、计算机可读存储介质及设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163091A (ja) 1998-11-27 2000-06-16 Denso Corp 音声認識装置
JP2002012100A (ja) 2000-06-29 2002-01-15 Jatco Transtechnology Ltd 車両制御装置

Also Published As

Publication number Publication date
CN111128143A (zh) 2020-05-08
JP2020069920A (ja) 2020-05-07
CN111128143B (zh) 2023-06-30
US20200135193A1 (en) 2020-04-30
US11386891B2 (en) 2022-07-12

Similar Documents

Publication Publication Date Title
JP4292646B2 (ja) ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体
EP1450349B1 (en) Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus
JP2004037998A (ja) 音声制御装置
JP6150077B2 (ja) 車両用音声対話装置
US20110288871A1 (en) Information presentation system
JP7087919B2 (ja) 運転支援装置、車両、運転支援方法およびプログラム
JP2006317573A (ja) 情報端末
JP2004029270A (ja) 音声制御装置
JP5181533B2 (ja) 音声対話装置
JP4942406B2 (ja) ナビゲーション装置及びその音声出力方法
JP3505982B2 (ja) 音声対話装置
US11501767B2 (en) Method for operating a motor vehicle having an operating device
JP7434016B2 (ja) 起動語登録の支援方法、支援装置、音声認識装置、およびプログラム
JP6741387B2 (ja) 音声出力装置
KR20210073461A (ko) 에이전트 관리 장치, 프로그램, 및 에이전트 관리 방법
JP2011180416A (ja) 音声合成装置、音声合成方法およびカーナビゲーションシステム
JP2008310344A (ja) 提示装置及び提示方法
JP2009025753A (ja) 音声認識装置及び音声認識方法
JP2002132290A (ja) 車載用音声認識装置
JP2005309185A (ja) 音声入力装置、および音声入力方法
JP2006023444A (ja) 音声対話装置
KR20060057726A (ko) 대화형 네비게이션 시스템 및 그 제어방법
JP4760200B2 (ja) 走行支援装置
JP2003271193A (ja) 車載用電子機器、車載用電子機器の音声認識結果報知方法、音声認識確認通知用プログラム及びナビゲーションシステム
JP2005134436A (ja) 音声認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220523

R151 Written notification of patent or utility model registration

Ref document number: 7087919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151