JP2019073255A - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
JP2019073255A
JP2019073255A JP2017202837A JP2017202837A JP2019073255A JP 2019073255 A JP2019073255 A JP 2019073255A JP 2017202837 A JP2017202837 A JP 2017202837A JP 2017202837 A JP2017202837 A JP 2017202837A JP 2019073255 A JP2019073255 A JP 2019073255A
Authority
JP
Japan
Prior art keywords
unit
speaker
voice
driving
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017202837A
Other languages
English (en)
Inventor
晋 大須賀
Susumu Osuga
晋 大須賀
博幸 森▲崎▼
Hiroyuki Morisaki
博幸 森▲崎▼
和久 永石
Kazuhisa Nagaishi
和久 永石
教英 北岡
Norihide Kitaoka
教英 北岡
祥生 石黒
Yoshio Ishiguro
祥生 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2017202837A priority Critical patent/JP2019073255A/ja
Publication of JP2019073255A publication Critical patent/JP2019073255A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】利便性と安全性の両立を図る。【解決手段】運転支援装置は、音声を取得する第1取得部と、前記音声を発した発話者に関する情報を取得する第2取得部と、前記第1取得部および前記第2取得部の取得結果に基づいて、前記音声によって示される車両機能の作動に関する命令を実行するか否かを判断する判断部と、を備える。【選択図】図7

Description

本発明の実施形態は、運転支援装置に関する。
ユーザによる操作指示を介さずに、発話者の発した音声を認識し、該音声によって示される命令を実行するシステムが知られている。例えば、発話者の音声認識結果に従って、ナビゲーション装置が動作する技術が開示されている(例えば、特許文献1参照)。
特開平11−352987号公報
しかしながら、従来技術では、命令を発生した発話者が誰であるかに拘らず、音声認識結果に示される命令が実行されていた。このため、従来技術では、本来受付けるべきではない発話者から発せられた命令であっても、実行される場合があった。すなわち、従来技術では、利便性と安全性の両立を図る事は困難であった。
本発明の実施の形態にかかる運転支援装置は、音声を取得する第1取得部と、前記音声を発した発話者に関する情報を取得する第2取得部と、前記第1取得部および前記第2取得部の取得結果に基づいて、前記音声によって示される車両機能の作動に関する命令を実行するか否かを判断する判断部と、を備える。この構成により、例えば、利便性と安全性の両立を図ることができる。
また、例えば、本発明の実施の形態にかかる運転支援装置は、前記第2取得部の取得結果に基づいて、前記発話者を特定する特定部を更に備え、前記判断部は、特定された前記発話者に応じて、前記命令を実行するか否かを判断する。この構成により、例えば、利便性と安全性の両立をより図ることができる。
また、例えば、前記判断部は、前記発話者の発話者情報と前記発話者が指示可能な命令とを対応づけた命令管理情報に、特定された前記発話者の発話者情報に対応する前記音声によって示される命令が登録されている場合、該音声によって示される命令を実行すると判断する。この構成により、利便性と安全性の両立を、より図ることができる。
また、例えば、前記命令管理情報は、運転介入権利者を示す前記発話者情報と運転介入に関する命令とを対応付けると共に、運転介入非権利者を示す前記発話者情報と運転に非介入の命令とを対応づけた情報である。この構成により、利便性と安全性の両立を、より図ることができる。
また、例えば、前記特定部は、車内を撮影する撮像部によって撮影された撮影画像に基づいて、前記発話者を特定する。この構成により、例えば、上記効果に加えて、より正確に発話者を特定することができる。
また、例えば、前記特定部は、複数の乗員を撮影した前記撮影画像に基づいて、前記発話者を特定する。この構成により、例えば、上記効果に加えて、より正確かつ効率よく発話者を特定することができる。
図1は、実施の形態の車両の一例を示す模式図である。 図2は、車室内の一例を示す模式図である。 図3は、撮像部の配置の一例を示す図である。 図4は、車両の上面図の一例である。 図5は、撮影画像の一例を示す模式図である。 図6は、運転支援装置のハードウェア構成の一例を示す図である。 図7は、実施の形態のECUの機能的構成の一例を示すブロック図である。 図8は、命令管理情報のデータ構成の一例を示す図である。 図9は、実施の形態の運転支援処理の手順の一例を示すフローチャートである。 図10は、ユーザ管理情報のデータ構成の一例を示す模式図である。 図11は、変形例の音声入力部の配置位置の説明図である。 図12は、変形例の運転支援装置の一例を示す模式図である。 図13は、変形例の運転支援装置の一例を示す模式図である。
以下、添付図面を参照して、本実施の形態の運転支援装置の詳細を説明する。なお、本実施の形態では、運転支援装置を車両に搭載した形態を、一例として説明する。
図1は、本実施の形態の運転支援装置10を搭載した車両1の一例を示す模式図である。図1には、車両1の車室2aの一部が透視された状態の、車両1の斜視図の一例を示した。
車両1は、例えば、内燃機関自動車、電気自動車、燃料電池自動車、ハイブリッド自動車、などである。内燃機関自動車は、内燃機関を駆動源とする自動車である。電気自動車や燃料電池自動車は、電動機を駆動源とする自動車である。ハイブリッド自動車は、内燃機関および電動機の双方を駆動源とする自動車である。車両1は、種々の変速装置を搭載してもよいし、内燃機関や電動機を駆動するのに必要な種々の装置や部品を搭載してもよい。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウトなどは、種々に設定することができる。
車両1の駆動方法は、限定されない。車両1の駆動方法は、例えば、二輪駆動、三輪駆動、四輪駆動である。例えば、車両1は、4つの車輪3を有する四輪駆動である。この場合、車両1は、左右2つの前輪3Fと、左右2つの後輪3Rとを有する。車両1は、前輪3Fのタイヤ角が操舵部4の操作に対応して変化する。
車両1は、車室2aを備える。車室2aは、乗員の乗車する空間である。乗員は、車両1に乗車しているユーザである。乗員は、例えば、ドライバ、助手席乗員、後部座席乗員などである。なお、乗員の種類は、上記に限定されない。
車室2a内には、操舵部4、加速操作部5、制動操作部6、および、変速操作部7、などが設けられている。操舵部4は、ダッシュボードから突出したステアリングホイールである。加速操作部5は、ドライバの足下に配置されたアクセルペダルである。制動操作部6は、ドライバの足下に配置されたブレーキペダルである。変速操作部7は、センターコンソールから突出したシフトレバーである。なお、車室2a内に設けられた部品は、これらに限定されない。
また、車室2aには、モニタ装置11が設けられている。図2は、車室2a内を示す模式図である。モニタ装置11は、例えば、ダッシュボード12の車幅方向の中央部に配置されている。モニタ装置11には、表示装置8a、音声出力装置8b、操作入力部8cなどが設けられている。
表示装置8aは、表示部の一例である。表示装置8aは、例えば、LCD(Liquid Crystal Display)や、OELD(Organic Electro-Luminescent Display)などである。音声出力装置8bは、例えば、スピーカである。操作入力部8cは、ユーザの操作入力を受付ける。操作入力部8cは、例えば、タッチパネル、スイッチ、ダイヤル、ジョイスティック、押しボタンなどである。
本実施の形態では、操作入力部8cは、タッチパネルであり、表示装置8aの表面を覆うように配置されている。ユーザは、操作入力部8cを介して、表示装置8aに表示された画像を視認することができる。また、ユーザは、操作入力部8cを介して、表示装置8aに表示された画像に対応する位置を操作指示することで、各種の操作入力を行う。
また、車両1の車室2aには、撮像部15が設けられている。撮像部15は、車室2a内を撮影し、撮影画像データ(以下、撮影画像と称する)を得る。撮像部15は、車室2a内を撮影可能な位置に設置されている。
撮像部15は、例えば、CCD(Charge Coupled Device)やCIS(CMOS Image Sensor)等の撮影素子を内蔵したデジタルカメラである。撮像部15は、所定のフレームレートで撮影を行い、撮影画像を得る。撮像部15は、広角レンズを有してもよい。
本実施の形態では、撮像部15は、撮像部15Aと、撮像部15Bと、を含む。
図3は、撮像部15Aの配置の一例を示す図である。撮像部15Aは、車両1のドライバ42aを撮影可能な位置に配置されている。
ドライバ42aは、車両1の乗員42の一例である。ドライバ42aは、車両1の運転に関する操作を行う乗員42である。例えば、ドライバ42aは、操舵部4を操作する乗員42である。本実施の形態では、ドライバ42aは、運転席40aに着座した乗員42である。なお、車両1が、ユーザによる運転操作の少なくとも一部を受付けることなく自動運転走行可能な車両1である場合、ドライバ42aの着座位置は、運転席40aに限定されない。本実施の形態では、運転席40aに着座した乗員42が、ドライバ42aである場合を一例として説明する。
撮像部15Aは、例えば、ハンドルコラム41に設置されている。撮像部15Aは、運転席40aに着座したドライバ42aの顔が視野中心に位置するように、視野角および姿勢が調整されている。このため、撮像部15Aは、ドライバ42aの顔を撮影した撮影画像を得る。
図2に戻り説明を続ける。一方、撮像部15Bは、車両1に乗車している複数の乗員42を撮影する。撮像部15Bは、車両1に乗車している複数の乗員42を撮影可能な位置に配置されている。例えば、撮像部15Bは、ダッシュボード12における、車幅方向の中央部に配置されている。撮像部15Bは、車両1内に乗車している全ての乗員42を撮影可能となるように、視野角および姿勢が調整されている。例えば、撮像部15Bは、広角レンズを有し、水平方向に140°〜190°の範囲(視野角)を撮影する。
図4は、車両1の上面図の一例である。図4に示すように、撮像部15Aは、運転席40aに着座したドライバ42aの顔を撮影し、撮影画像を得る。一方、撮像部15Bは、車室2a内を撮影することで、車両1に乗車している全ての乗員42(例えば、ドライバ42a、助手席乗員42b、後部座席乗員42c、後部座席乗員42d)の各々の顔を撮影し、撮影画像を得る。
図5は、撮影画像60の一例を示す模式図である。図5(A)は、撮像部15Aによって撮影された撮影画像60Aの一例を示す模式図である。撮影画像60Aは、ドライバ42aの顔を含む。図5(B)は、撮像部15Bによって撮影された撮影画像60Bの一例を示す模式図である。撮影画像60Bは、複数の乗員42、例えば、ドライバ42a、助手席乗員42b、後部座席乗員42c、後部座席乗員42dの各々の顔を含む。
本実施の形態では、撮像部15Aは、ドライバ42aの顔を時系列に沿って順次撮影し、撮影画像60Aを順次出力する。同様に、撮像部15Bは、車室2a内を時系列に沿って順次撮影し、複数の乗員42を含む撮影画像60Bを、順次出力する。すなわち、撮影画像60(撮影画像60A、撮影画像60B)は、撮影時間の異なる1または複数の静止画像であってもよいし、動画像であってもよい。
図2に戻り説明を続ける。車両1には、音声入力部24が設けられている。音声入力部24は、乗員42の発した音声の入力を受付ける。音声入力部24は、例えば、マイクロホンである。
本実施の形態では、音声入力部24は、車両1内の全ての乗員42の発した音声の入力を受付け可能な位置に、配置されている。例えば、音声入力部24は、車室2a内のフロントガラスの上部や、バックミラー(リアビューミラー)の支柱などに配置されている。
次に、車両1に搭載された運転支援装置10のハードウェア構成の一例を説明する。図6は、運転支援装置10のハードウェア構成の一例を示す図である。
運転支援装置10は、ECU(Electronic Control Unit)14と、モニタ装置11と、操舵システム13と、測距部17と、ブレーキシステム18と、舵角センサ19と、アクセルセンサ20と、シフトセンサ21と、車輪速センサ22と、音声入力部24と、を備える。
これらのECU14、モニタ装置11、操舵システム13、測距部17、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、および音声入力部24は、車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(Controller Area Network)である。
操舵システム13は、アクチュエータ13aおよびトルクセンサ13bに電気的に接続されている。測距部17は、車両1周辺の物体の有無や物体に対する距離を測定する。ブレーキシステム18は、アクチュエータ18aおよびブレーキセンサ18bに電気的に接続されている。ブレーキシステム18は、ブレーキのロックや、ブレーキ力の増強などを行う。ブレーキセンサ18bは、制動操作部6の可動部の位置を検出する。舵角センサ19は、操舵部4の操舵量を検出する。アクセルセンサ20は、加速操作部5の可動部の位置を検出するセンサである。車輪速センサ22は、車輪3の回転量や単位時間当たりの回転数を検出する。シフトセンサ21は、変速操作部7の可動部の位置を検出する。
ECU14は、車両1に搭載された電子機器の各々を制御する。ECU14は、車内ネットワーク23を介して、車両1に設けられた電子機器の各部に電気的に接続されている。また、ECU14は、撮像部15、撮像装置16、およびモニタ装置11に電気的に接続されている。撮像装置16は、車両1の周辺を撮影し、周辺撮影画像を出力する。
ECU14は、運転支援装置10の一例である。ECU14は、CPU14a(Central Processing Unit)と、ROM14b(Read Only Memory)と、RAM14c(Random Access Memory)と、表示制御部14dと、音声制御部14eと、SSD14f(Solid State Drive、フラッシュメモリ)と、を有する。
CPU14aは、車両1全体の制御を行う。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行する。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。
表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15で得られた撮影画像60や撮像装置16で得られた周辺撮影画像の画像処理を行う。また、表示制御部14dは、表示装置8aへの画像の表示を制御する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置8bで出力される音声データの処理を実行する。SSD14fは、書き換え可能な不揮発性の記憶部である。SSD14fは、ECU14の電源がオフされた場合であっても、データを記憶することができる。
なお、CPU14a、ROM14b、RAM14c等は、同一パッケージ内に集積可能である。また、ECU14は、CPU14aに替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等によって実現してもよい。また、SSD14fに替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。
なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。
次に、本実施の形態のECU14の機能的構成を説明する。図7は、本実施の形態のECU14の機能的構成の一例を示すブロック図である。
ECU14は、第1取得部30Aと、第2取得部30Bと、特定部31と、解析部32と、判断部33と、実行部34と、記憶部35と、を含む。
第1取得部30A、第2取得部30B、特定部31、解析部32、判断部33、および実行部34は、例えば、1または複数のプロセッサにより実現される。例えば、これらの各部は、CPU14a(図6参照)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のIC(Integrated Circuit)などのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
本実施の形態では、CPU14aが、ROM14b等の記憶装置にインストールされ記憶されたプログラムを読み出し、実行することで、上記各部が実現される。
記憶部35は、各種データを記憶する。記憶部35は、例えば、SSD14f等の記憶媒体である。本実施の形態では、記憶部35は、命令管理情報36等の各種データを記憶する。
図8は、命令管理情報36のデータ構成の一例を示す図である。命令管理情報36には、発話者が車両1に対して指示可能な命令が、発話者ごとに予め登録されている。発話者が車両1に対して指示可能な命令とは、すなわち、発話者が該命令を発する権限を有することを示す。
命令管理情報36は、発話者情報と、命令と、を対応づけた情報である。命令管理情報36のデータ形式は、例えば、データベースであるが、データベースに限定されない。
発話者情報は、発話者を示す情報である。発話者は、音声を発したユーザである。
発話者情報は、例えば、発話者を一意に識別可能な識別情報や、発話者の種類を示す情報である。本実施の形態では、発話者情報は、発話者の種類を示す情報である場合を、一例として説明する。
発話者の種類は、予め定めた規則に従ってユーザを複数のグループに分類したときの、各グループの属性を示す。例えば、発話者の種類は、運転に介入する権利を有するか否かに応じて、ユーザを複数のグループに分類したときの、各グループの属性を示す。この場合、発話者の種類は、例えば、運転介入権利者、運転介入非権利者、である。なお、発話者の種類は、これらに限定されない。また、発話者の種類は、3種類以上であってもよい。
本実施の形態では、発話者の種類が、運転介入権利者、運転介入非権利者、である場合を、一例として説明する。
運転介入権利者とは、乗車中の車両1の運転に介入する権利を有するユーザを示す。運転に介入する権利を有する条件は、予め定めればよい。運転に介入する権利を有する条件は、例えば、車両1の運転席40aに着座していること、車両1の前部座席(例えば、運転席40aまたは助手席40b)に着座していること、運転免許証を取得していること、運転免許証を携帯していること、車両1を運転可能な年齢であること、の少なくとも1つ等である。なお、運転に介入する権利を有する条件は、上記に限定されない。
本実施の形態では、運転に介入する権利を有する条件は、少なくとも、運転席40aに着座していることを示す場合を、一例として説明する。すなわち、本実施の形態では、運転介入権利者は、運転席40aに着座しているドライバ42aを示す場合を、一例として説明する。
運転介入非権利者とは、乗車中の車両1の運転に介入する権利を有さないユーザを示す。運転に介入する権利を有さない条件は、運転に介入する権利を有する条件を満たさないことであり、予め定めればよい。運転に介入する権利を有さない条件は、例えば、車両1の運転席40a以外に着座していること、車両1の後部座席40cに着座していること(図4参照)、運転免許証を非取得であること、運転免許証を非携帯であること、車両1を運転可能な年齢ではないこと、の少なくとも1つ等である。なお、運転に介入する権利を有さない条件は、上記に限定されない。
本実施の形態では、運転に介入する権利を有さない条件は、運転席40a以外(助手席40b、後部座席40c)に着座していることを示す場合を、一例として説明する。すなわち、本実施の形態では、運転介入非権利者は、運転席40a以外(助手席40b、後部座席40c)に着座している乗員42(助手席乗員42b、後部座席乗員42c、後部座席乗員42d)を示す場合を、一例として説明する(図4も参照)。
次に、命令管理情報36に登録されている命令について説明する。本実施の形態における命令とは、車両1の機能(車両機能)の作動に関する命令である。すなわち、命令とは、車両1に搭載された各種機器に対して、各種処理の実行を指示するための情報である。命令管理情報36には、対応する発話者情報に示される発話者が車両1に搭載された各種の電子機器に対して指示可能な命令が、予め登録されている。すなわち、命令管理情報36には、発話者情報ごとに、指示可能な権限を付与された1または複数の命令が、予め登録されている。
本実施の形態では、命令は、運転介入に関する命令37Aと、運転に非介入の命令37Bと、に分類される。
運転介入に関する命令37Aとは、車両1の運転制御に影響を及ぼす電子機器に対する、車両1の運転条件の変更を指示するための情報である。例えば、運転介入に関する命令37Aは、操舵部4の操舵量、加速操作部5の踏み込み量、制動操作部6の踏み込み量、変速操作部7によるトランスミッションの切替え、などの各々の変更指示である。具体的には、制動操作部6の踏み込み量の変更の命令は、止まれ、等である。また、操舵部4の操舵量の変更の命令は、例えば、左に曲がれ、右に曲がれ、等である。また、加速操作部5の踏み込み量の変更の命令は、例えば、スピードアップ等である。
運転に非介入の命令37Bとは、車両1の運転制御に影響を及ぼさない電子機器に対する、運転制御以外の制御条件の変更を指示するための情報である。例えば、運転に非介入の命令37Bは、車両1に設けられたオーディオ機器の音量の変更指示や、エアコンの温度設定の変更指示などである。具体的には、オーディオ機器の音量調整の変更指示は、音量アップ、音量ダウン、等である。
本実施の形態では、命令管理情報36には、発話者情報に応じた命令が予め登録されている。すなわち、本実施の形態では、命令管理情報36には、対応する発話者情報によって示される発話者の、運転介入に関する権利に応じた命令が、予め対応づけて登録されている。
詳細には、本実施の形態では、発話者情報“運転介入権利者”には、少なくとも、運転介入に関する命令37Aが対応づけて命令管理情報36に予め登録されている。本実施の形態では、発話者情報“運転介入権利者”には、運転介入に関する命令37および運転に非介入の命令37Bと、が対応づけて命令管理情報36に登録されている。
一方、発話者情報“運転介入非権利者”には、運転に非介入の命令37Bが対応付けて命令管理情報36に登録されている。また、発話者情報“運転介入非権利者”には、運転介入に関する命令37Aは対応づけられていない。
なお、命令は、運転介入に関する命令37Aと、運転に非介入の命令37Bと、に分類される形態に限定されない。命令は、3種類以上に分類されていてもよい。また、命令の数や命令の内容についても、図8に示す形態に限定されない。
図7に戻り説明を続ける。第1取得部30Aは、音声入力部24から音声を取得する。本実施の形態では、第1取得部30Aは、発話者の音声を取得する。
第2取得部30Bは、音声を発した発話者に関する情報を取得する。音声を発した発話者に関する情報とは、音声を発した発話者の特定に用いる事の可能な情報である。例えば、音声を発した発話者に関する情報は、撮像部15で撮影された撮影画像60である。本実施の形態では、第2取得部30Bは、音声を発した発話者に関する情報として、撮像部15から撮影画像60を取得する。詳細には、第2取得部30Bは、音声入力部24から取得した音声の発話期間に撮影された撮影画像60を、撮像部15から取得する。
特定部31は、第2取得部30Bの取得結果に基づいて、音声を発した発話者を特定する。本実施の形態では、特定部31は、撮影画像60に基づいて、発話者を特定する。詳細には、特定部31は、撮影画像60Aおよび撮影画像60B(図5参照)を用いて、発話者を特定する。なお、特定部31は、撮影画像60Aおよび撮影画像60Bの何れか1方を用いて、発話者を特定してもよい。
本実施の形態では、撮影画像60Bを用いて、発話者を特定する場合を説明する。
図5(B)を用いて説明したように、撮影画像60Bは、複数の乗員42(例えば、ドライバ42a、助手席乗員42b、後部座席乗員42c、後部座席乗員42d)を含む、撮影画像60である。
第2取得部30Bは、取得した音声の発話期間に撮影された撮影画像60Bを、特定部31へ出力する。特定部31は、第2取得部30Bから受付けた撮影画像60Bについて、撮影画像60Bに含まれる乗員42の各々の口唇の動きを画像解析することで、該音声を発話した発話者を特定する。口唇の動きの画像解析方法には、公知の画像認識方法を用いればよい。
なお、本実施の形態では、特定部31は、発話者の種類を、発話者として特定する場合を説明する。また、上述したように、本実施の形態では、発話者の種類である運転介入権利者とは、運転席40aに着座しているドライバ42aを示す場合を説明する。また、発話者の種類である運転介入非権利者とは、運転席40a以外(助手席40b、後部座席40c)に着座している乗員42を示す場合を説明する。また、撮像部15は、車室2a内に固定して配置されており、撮影画角が固定されているものとする。
例えば、本実施の形態では、特定部31は、音声を発話したとして特定した発話者の、撮影画像60Bにおける位置を用いて、該発話者の着座している座席40の種類を特定する。座席40の種類は、座席40の位置によって異なる。例えば、座席40の種類は、運転席40a、助手席40b、後部座席40cの何れかである。特定部31は、撮影画像60Bを複数の領域に分割し、各領域内に撮影される座席40の種類を、記憶部35に予め記憶する。特定部31は、撮影画像60Bにおける、音声を発話したとして特定した発話者の占める領域に対応する座席40の種類を、記憶部35から読取る。
図5(B)に示す撮影画像60Bを用いて発話者を特定すると仮定する。撮影画像60Bから解析した、音声を発話した発話者の座席40の種類が運転席40aである場合、特定部31は、音声を発話した発話者の種類を、運転介入権利者と特定する。
例えば、特定部31が、撮影画像60Bを画像解析することで、撮影画像60Bの画角の左下の領域に位置する乗員42が、音声を発話したと特定したと仮定する。この場合、特定部31は、該左下の領域に対応する座席40の種類を記憶部35から読取ることで、発話した乗員42の着座している座席40の種類が、運転席40aであると特定する。すなわち、この場合、特定部31は、発話者がドライバ42aであると特定する。そして、この場合、特定部31は、音声を発話した発話者の種類を、運転介入権利者と特定する。
一方、撮影画像60Bから解析した、音声を発話した発話者の座席40の種類が運転席40a以外である場合、特定部31は、音声を発話した発話者の種類を、運転介入非権利者と特定する。
例えば、特定部31が、撮影画像60Bを画像解析することで、撮影画像60Bの画角の上側の領域に位置する乗員42が、音声を発話したと特定したと仮定する。この場合、特定部31は、該上側の領域に対応する座席40の種類を記憶部35から読取ることで、発話した乗員42の着座している座席40の種類が、後部座席40cであると特定する。すなわち、この場合、特定部31は、発話者が後部座席乗員42cまたは後部座席乗員42dであると特定する。そして、この場合、特定部31は、音声を発話した発話者の種類を、運転介入非権利者と特定する。
なお、特定部31は、予め定めた、運転に介入する権利を有する条件および運転に介入する権利を有さない条件に応じて、上記と同様にして、運転介入権利者および運転介入非権利者の特定を行えばよい。
例えば、運転に介入する権利を有する条件が、車両1の前部座席(例えば、運転席40aまたは助手席40b)に着座していること、として予め定める場合がある。この場合、特定部31は、撮影画像60Bから解析した、音声を発話した発話者の座席40の種類が運転席40aまたは助手席40bである場合に、音声を発話した発話者の種類を運転介入権利者と特定すればよい。
次に、解析部32について説明する。解析部32は、第1取得部30Aが取得した音声を解析することで、音声によって示される命令を解析する。解析部32は、公知の音声認識技術を用いて音声を解析することで、該音声によって示される命令を解析すればよい。
例えば、複数種類の各々の命令について、命令を示す音の解析結果を示す音基準情報と、命令と、を対応づけて予め記憶部35に記憶する。そして、解析部32は、音声の解析結果に一致または最も類似する音基準情報に対応する命令を、記憶部35から読取ることで、命令を解析する。
なお、音声の解析結果に一致または予め定めた閾値以下の差異で近似する音基準情報が、記憶部35に記憶されていない場合がある。この場合、解析部32は、第1取得部30Aで取得した音声が命令ではないと判別すればよい。
判断部33は、第1取得部30Aおよび第2取得部30Bの取得結果に基づいて、発話者の音声によって示される命令を実行するか否かを判断する。
例えば、判断部33は、RNN(Recurrent Neural Network)、CNN(Convolution Neural Network)、LSTM(Long Short−Term Memory)などのディープラーニング技術を用いた、学習済モデルを予め生成する。
なお、学習済モデルの生成に用いる学習データには、入力データと出力データのペアを用いる。入力データには、第1取得部30Aで取得した音声や第2取得部30Bで取得した発話者に関する情報を用いる。出力データには、命令の実行または命令の実行不可を示す情報を用いる。
具体的には、出力データには、ペアとなる入力データに示される音声の示す命令が該音声を発した発話者によって指示可能な命令である場合、該命令の実行を示す情報を用いる。一方、ペアとなる入力データに示される音声の示す命令が該音声を発した発話者によって指示可能な命令ではない場合、出力データには、該命令の実行不可を示す情報を用いる。
判断部33は、複数種類の上記入力データと出力データのペアを複数用いて、学習済モデルを予め生成する。
そして、判断部33は、第1取得部30Aおよび第2取得部30Bの取得結果を学習済モデルに入力することで、命令の実行または命令の実行不可を示す情報を得る。そして、判断部33は、命令の実行を示す情報を得た場合、音声によって示される命令を実行すると判断する。一方、判断部33は、命令の実行不可を示す情報を得た場合、音声によって示される命令を実行しないと判断する。
なお、判断部33は、特定部31によって特定された発話者に応じて、発話者の発した音声によって示される命令を実行するか否かを判断してもよい。すなわち、判断部33は、第1取得部30Aおよび第2取得部30Bの取得結果に基づいて特定部31で特定された発話者と、解析部32で解析された該発話者の発した音声によって示される命令と、を用いて、命令を実行するか否かを判断してもよい。
この場合、判断部33は、特定部31によって特定された発話者の発した音声によって示される命令が該発話者によって指示可能な命令である場合に、該命令を実行すると判断する。言い換えると、判断部33は、命令を示す音声が発せられた場合、該命令が該命令を発する権限を有する発話者から発せられた命令である場合に、該命令を実行すると判断する。
一方、判断部33は、発話者の発した音声によって示される命令が該発話者によって指示可能な命令ではない場合、該命令を実行しないと判断する。言い換えると、判断部33は、命令を示す音声が発せられた場合、該命令が該命令を発する権限を有さない発話者から発せられた命令である場合、該命令を実行しないと判断する。
具体的には、判断部33は、命令管理情報36に、特定部31によって特定された発話者の発話者情報に対応する、解析部32によって解析された音声によって示される命令が登録されている場合、該音声によって示される命令を実行すると判断する。
一方、判断部33は、命令管理情報36に、特定部31によって特定された発話者の発話者情報に対応する、解析部32によって解析された音声によって示される命令が登録されていない場合、該音声によって示される命令を実行しない、と判断する。
ここで、上述したように、命令管理情報36の発話者情報“運転介入権利者”には、運転介入に関する命令37Aと、運転に非介入の命令37Bと、が対応づけられている。一方、発話者情報“運転介入非権利者”には、運転に非介入の命令37Bが対応づけられているが、運転介入に関する命令37Aは対応づけられていない。
このため、本実施の形態では、判断部33は、発話者が運転介入権利者である場合、音声によって示される命令が運転介入に関する命令37Aおよび運転に非介入の命令37Bの何れである場合であっても、該命令を実行すると判断する。一方、判断部33は、発話者が運転介入非権利者である場合、音声によって示される命令が運転に非介入の命令37Bであれば、該命令を実行すると判断する。しかし、判断部33は、発話者が運転介入非権利者である場合、音声によって示される命令が運転介入に関する命令37Aである場合、該命令を実行しないと判断する。
実行部34は、判断部33が音声によって示される命令を実行すると判断した場合、該命令を実行する。このため、命令に応じて、操舵部4の操舵量や加速操作部5の踏み込み量が変更され、車両1の左折または右折、車両1の減速、などが実行される。また、命令に応じて、車両1に設けられたオーディオ機器の音量調整などが実行される。
次に、本実施の形態における、運転支援処理の手順の一例を説明する。図9は、本実施の形態の運転支援処理の手順の一例を示す、フローチャートである。例えば、車両1に搭載されたECU14を含む各電子機器の各々に電力が供給されると、ECU14は、図9に示すフローチャートを繰り返し実行する。
まず、第1取得部30Aが、音声入力部24から音声を取得したか否かを判断する(ステップS100)。ステップS100で否定判断すると(ステップS100:No)、本ルーチンを終了する。一方、ステップS100で肯定判断すると(ステップS100:Yes)、ステップS102へ進む。
ステップS102では、第2取得部30Bが、ステップS100で取得した音声を発した発話者に関する情報を取得する(ステップS102)。
次に、特定部31が、ステップS012の取得結果に基づいて、発話者を特定する(ステップS104)。本実施の形態では、特定部31は、音声を発した発話者の種類を特定する。
次に、解析部32が、ステップS100で取得した音声を解析することで、音声によって示される命令を解析する(ステップS106)。次に、解析部32は、解析結果が命令を示すか否かを判断する(ステップS108)。命令を示さないと判断した場合(ステップS108:No)、本ルーチンを終了する。一方、命令を示すと判断した場合(ステップS108:Yes)、ステップS110へ進む。
ステップS110では、判断部33が、ステップS104で特定された発話者に応じて、発話者の発した音声によって示される命令を実行するか否かを判断する(ステップS110)。命令を実行しないと判断した場合(ステップS110:No)、本ルーチンを終了する。一方、命令を実行すると判断した場合(ステップS110:Yes)、ステップS112へ進む。
ステップS112では、実行部34が、ステップS100で取得した音声によって示される命令を実行する(ステップS112)。そして、本ルーチンを終了する。
以上説明したように、本実施の形態の運転支援装置10は、第1取得部30Aと、第2取得部30Bと、判断部33と、を備える。第1取得部30Aは、音声を取得する。第2取得部30Bは、音声を発した発話者に関する情報を取得する。判断部33は、第1取得部30Aおよび第2取得部30Bの取得結果に基づいて、音声によって示される車両機能の作動に関する命令を実行するか否かを判断する。
このように、本実施の形態の運転支援装置10は、音声を発した発話者に関する情報に応じて、該音声によって示される命令を実行するか否かを判断する。
このため、本実施の形態の運転支援装置10では、発話者によって発せられた音声によって示される命令が、該発話者によって指示可能な命令である場合に、該命令を実行すると判断することができる。言い換えると、運転支援装置10は、命令を示す音声が発せられた場合、該命令が該命令を発する権限を有する発話者から発せられた命令である場合に、該命令を実行すると判断することができる。また、運転支援装置10は、本来受付けるべきではない発話者から発せられた音声によって示される命令の実行を抑制することができる。
従って、本実施の形態の運転支援装置10は、利便性と安全性の両立を図る事ができる。
(変形例1)
なお、上記実施の形態では、特定部31は、運転介入権利者や運転介入非権利者等の発話者の種類を、発話者として特定する場合を説明した。しかし、特定部31は、発話者を一意に識別可能な識別情報を、発話者として特定してもよい。
この場合、命令管理情報36には、発話者情報として、ユーザを一意に識別可能な識別情報(以下、ユーザIDと称する)を予め登録すればよい。このため、この場合、命令管理情報36は、ユーザIDと、該ユーザIDによって識別されるユーザが車両1に搭載された各種の電子機器に対して指示可能な命令と、を対応づけたものとなる。
また、記憶部35には、ユーザIDと、ユーザIDによって識別されるユーザの顔認識結果と、を予め対応づけて記憶すればよい。顔認識結果には、人物の顔を特定するための公知の顔認証技術を用いた顔認証結果を用いればよい。
そして、特定部31は、撮影画像60に含まれる乗員42の各々の口唇の動きを画像解析することで、該音声を発話した発話者を特定する。また、特定部31は、撮影画像60における、発話した発話者の顔を画像解析することで、顔の特徴を抽出する。画像解析には、上記顔認識結果の導出に用いた公知の顔認証技術を用いる。そして、特定部31は、抽出した顔の特徴に一致または最も類似する顔認証結果に対応するユーザIDを、記憶部35から読取ることで、発話者としてのユーザIDを特定すればよい。
特定部31が、ユーザIDを発話者として特定した場合、判断部33は、特定されたユーザIDに対応する命令が命令管理情報36に登録されているか否かを判別することで、該発話者の音声によって示される命令を実行するか否かを判断すればよい。
(変形例2)
なお、上記実施の形態では、特定部31が、撮影画像60を用いて発話者を特定する場合を説明した。しかし、特定部31は、音声入力部24から入力された音声を用いて、発話者を特定してもよい。
この場合、第2取得部30Bは、音声を発した発話者に関する情報として、音声入力部24から入力された音声を取得する。そして、特定部31は、第2取得部30Bで取得した音声を、公知の音声認識方法を用いて音声解析する。この音声解析により、特定部31は、音声を発した発話者を特定すればよい。
具体的には、記憶部35は、ユーザ管理情報を更に記憶する。図10は、ユーザ管理情報38Aのデータ構成の一例を示す模式図である。ユーザ管理情報38Aは、ユーザIDと、音声特徴情報と、属性と、を予め対応づけたデータベースである。なお、ユーザ管理情報38Aのデータ形式は、データベースに限定されない。ユーザIDは、ユーザを一意に識別するための識別情報である。音声特徴情報は、対応するユーザIDによって識別されるユーザの、音声の特徴を示す情報である。属性は、対応するユーザIDによって識別されるユーザの種類の特定に用いるための情報である。例えば、属性は、運転免許保有の有無や、ユーザの年齢等である。
特定部31は、第2取得部30Bで取得した音声を解析することで、該音声の音声特徴を得る。特定部31は、解析した音声特徴を示す音声特徴情報に対応するユーザIDをユーザ管理情報38Aから読取ることで、音声を発した発話者のユーザIDを特定する。
上記実施の形態と同様に、特定部31は、発話者の種類を発話者として特定すると仮定する。この場合、特定部31は、解析した音声特徴を示す音声特徴情報に対応する属性を、ユーザ管理情報38Aから読取る。そして、特定部31は、読取った属性に示される情報が、予め定めた運転に介入する権利を有する条件を満たすか否かを判別する。
本変形例では、運転に介入する権利を有する条件が、運転免許証を取得していること、および、車両1を運転可能な年齢であること、であると仮定する。この場合、例えば、特定部31は、読取った属性が、運転免許証を有しており、且つ、運転可能な年齢を示す場合、該音声特徴情報の解析に用いた音声の発話者の種類を、運転介入権利者と特定する。一方、特定部31は、読取った属性が、運転免許証を有していない、または、運転可能な年齢ではないことを示す場合、該音声特徴情報の解析に用いた音声の発話者の種類を、運転介入非権利者と特定すればよい。
なお、特定部31が、発話者を一意に識別可能な識別情報を、発話者として特定する場合、特定部31は、解析した音声特徴を示す音声特徴情報に対応するユーザIDをユーザ管理情報38Aから読取ることで、発話者を特定すればよい。
この場合、判断部33は、上記変形例1と同様にして、発話者の音声によって示される命令を実行するか否かを判断すればよい。
このように、特定部31は、音声を発した発話者に関する情報として、音声入力部24から入力された音声を用いて、発話者を特定してもよい。
(変形例3)
なお、特定部31は、音声の発せられた音源の位置または方向を特定することで、発話者を特定してもよい。
この場合、第2取得部30Bは、音声を発した発話者に関する情報として、音声入力部24から入力された音声を取得する。そして、この場合、音声入力部24として、ビームフォーミング技術を用いたマイクロホンを用いればよい。図11および図12は、本変形例の車両1Aの運転支援装置10Aに搭載した、音声入力部26の配置位置の説明図である。
なお、車両1Aおよび運転支援装置10Aは、音声入力部24に代えて音声入力部26を備えた点以外は、上記実施の形態の車両1および運転支援装置10と同様である。
音声入力部26は、音声入力部24と同様に、乗員42の発した音声の入力を受付ける。音声入力部26は、更に、音声の音源の位置や方向を検知する機能を有する。音声入力部26は、例えば、オートビームフォーミングマイクロホンである。具体的には、音声入力部26は、何れの方向から音声入力部26に向かって音声が発せられたかを検知する。例えば、音声入力部26は、複数(例えば4個)のマイクロホンを含む構成である。
この場合、特定部31は、音声入力部26で受付けた音声と、該音声の音源方向情報と、を音声入力部26から第1取得部30Aおよび第2取得部30Bを介して受付ける。音源方向情報は、音声入力部26に対する音源の方向を示す情報である。
そして、特定部31は、音声入力部26から受付けた、音源方向情報によって示される方向から、発話者の着座している座席40の種類を特定する。上記実施の形態で説明したように、座席40の種類は、例えば、運転席40a、助手席40b、後部座席40cの何れかである。特定部31は、音声入力部26を基準とした音源方向と、音源方向に位置する座席40の種類と、を対応づけて予め記憶部35に記憶する。
そして、特定部31は、音声入力部26から受付けた音源方向情報によって示される音源方向に対応する座席40の種類を、記憶部35から読取る。音源方向に対応する座席40の種類が運転席40aである場合、特定部31は、音声を発話した発話者の種類を、運転介入権利者と特定する。一方、音源方向に対応する座席40の種類が運転席40a以外である場合、特定部31は、音声を発話した発話者の種類を、運転介入非権利者と特定する。
図12を用いて説明する。例えば、音源方向情報によって示される方向が、音声入力部26を基準として運転席40aの方向であると仮定する。この場合、特定部31は、該音源方向情報に対応する座席40の種類を記憶部35から読取ることで、音声を発話した発話者の座席40の種類が運転席40aであると特定する。そして、特定部31は、音声を発話した発話者の種類を、運転介入権利者と特定する。
同様に、音源方向情報によって示される方向が、音声入力部26に対する後部座席乗員42cの方向を示す場合、特定部31は、発話者の種類として、運転介入非権利者を特定する。
このように、特定部31は、音声の発せられた音源の位置または方向を特定することで、発話者を特定してもよい。
(変形例4)
なお、特定部31は、音声の入力を受付けた位置を特定することで、発話者を特定してもよい。
図13は、本変形例の車両1Bに搭載された運転支援装置10Bの一例を示す模式図である。
なお、車両1Bおよび運転支援装置10Bは、音声入力部24に代えて、音声入力部28を備えた点以外は、上記実施の形態の車両1および運転支援装置10と同様である。
音声入力部28は、音声入力部24と同様に、乗員42の発した音声の入力を受付ける。音声入力部28は、複数の音声入力部28(音声入力部28a〜28d)を含む。これらの複数の音声入力部28は、車室2a内における、互いに異なる位置に配置されている。詳細には、複数の音声入力部28は、車室2a内の異なる位置の各々に着座した乗員42の音声を、個別に受付けることの可能な位置に配置されている。
例えば、音声入力部28aは、ドライバ42aの音声を受付け可能な位置に配置されている。音声入力部28bは、助手席乗員42bの音声を受付可能な位置に配置されている。音声入力部28cは、後部座席乗員42cの音声を受付可能な位置に配置されている。音声入力部28dは、後部座席乗員42dの音声を受付可能な位置に配置されている。
具体的には、音声入力部28aは、運転席40aや操舵部4等に配置されている。また、音声入力部28bは、ダッシュボード12における助手席40bに対向する位置や、助手席40b側のAピラー等に配置されている。また、音声入力部28cは、後部座席40cにおけるドライバ42aの後ろ側のBピラーまたはCピラー等に配置されている。また、音声入力部28dは、後部座席40cにおける助手席乗員42bの後ろ側のBピラーまたはCピラー等に配置されている。
なお、複数の音声入力部28は、互いに異なる範囲の音声の入力を受付け可能であればよい。互いに異なる範囲とは、具体的には、互いに異なる種類の座席40の範囲である。具体的には、音声入力部28aは、運転席40aに相当する領域の音声の入力を受付る。音声入力部28bは、助手席40bに相当する領域の音声を受付ける。音声入力部28cおよび音声入力部28dは、後部座席40cに相当する領域の音声を受付ける。
なお、複数の音声入力部28は、車室2a内の音声を受付け、閾値以上のレベルの音声のみを、ECU14へ出力する構成であってもよい。この場合、複数の音声入力部28は、設置位置を基準として互いに異なる範囲の音声のみを出力可能となるように、該閾値を予め調整すればよい。該“互いに異なる範囲”の定義は、上記と同じである。
なお、車室2a内に配置される音声入力部28の数は、4個に限定されない。車室2a内に配置される音声入力部28の数は、2個〜3個、または、5個以上であってもよい。
本変形例では、記憶部35は、音声入力部28の識別情報と、音声入力部28の担当する範囲の座席40の種類と、を予め対応付けて記憶する。座席40の種類は、例えば、運転席40a、助手席40b、後部座席40cなどである。
そして、第2取得部30Bは、音声を発した発話者に関する情報として、音声の入力を受付けた音声入力部28の識別情報を取得する。そして、特定部31は、音声の入力を受付けた音声入力部28の識別情報に対応する座席40の種類を、記憶部35から読取る。そして、読取った座席40の種類が運転席40aである場合、特定部31は、音声を発話した発話者の種類を、運転介入権利者と特定する。一方、読取った座席40の種類が運転席40a以外である場合、特定部31は、音声を発話した発話者の種類を、運転介入非権利者と特定する。
このように、特定部31は、音声の入力を受付けた音声入力部28を特定することで、発話者を特定してもよい。
なお、特定部31は、上記実施の形態および上記変形例1〜変形例4で用いた特定方法の2以上を組み合わせることで、音声を発した発話者を特定してもよい。
なお、本実施の形態の運転支援装置10で実行される、上記処理を実行するためのプログラムは、ROM14bなどに予め組み込んで提供される。
なお、上記実施の形態の運転支援装置10で実行されるプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供するように構成してもよい。
また、上記実施の形態の運転支援装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上記実施の形態の運転支援装置10における上記各処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。
以上、本発明の実施の形態を説明したが、これらの実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施の形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1,1A,1B…車両、30A…第1取得部、30B…第2取得部、31…特定部、33…判断部

Claims (6)

  1. 音声を取得する第1取得部と、
    前記音声を発した発話者に関する情報を取得する第2取得部と、
    前記第1取得部および前記第2取得部の取得結果に基づいて、前記音声によって示される車両機能の作動に関する命令を実行するか否かを判断する判断部と、
    を備える、運転支援装置。
  2. 前記第2取得部の取得結果に基づいて、前記発話者を特定する特定部を更に備え、
    前記判断部は、特定された前記発話者に応じて、前記命令を実行するか否かを判断する、
    請求項1に記載の運転支援装置。
  3. 前記判断部は、
    前記発話者の発話者情報と前記発話者が指示可能な命令とを対応づけた命令管理情報に、特定された前記発話者の発話者情報に対応する前記音声によって示される命令が登録されている場合、該音声によって示される命令を実行すると判断する、
    請求項1または請求項2に記載の運転支援装置。
  4. 前記命令管理情報は、
    運転介入権利者を示す前記発話者情報と運転介入に関する命令とを対応付けると共に、
    運転介入非権利者を示す前記発話者情報と運転に非介入の命令とを対応づけた情報である、
    請求項3に記載の運転支援装置。
  5. 前記特定部は、
    車内を撮影する撮像部によって撮影された撮影画像に基づいて、前記発話者を特定する、
    請求項2に記載の運転支援装置。
  6. 前記特定部は、
    複数の乗員を撮影した前記撮影画像に基づいて、前記発話者を特定する、
    請求項5に記載の運転支援装置。
JP2017202837A 2017-10-19 2017-10-19 運転支援装置 Pending JP2019073255A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017202837A JP2019073255A (ja) 2017-10-19 2017-10-19 運転支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017202837A JP2019073255A (ja) 2017-10-19 2017-10-19 運転支援装置

Publications (1)

Publication Number Publication Date
JP2019073255A true JP2019073255A (ja) 2019-05-16

Family

ID=66544651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017202837A Pending JP2019073255A (ja) 2017-10-19 2017-10-19 運転支援装置

Country Status (1)

Country Link
JP (1) JP2019073255A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3567016A1 (en) 2018-05-11 2019-11-13 Shin-Etsu Chemical Co., Ltd. Method for preparing ceramic molded body for sintering and method for producing ceramic sintered body
WO2021186679A1 (ja) * 2020-03-19 2021-09-23 日産自動車株式会社 音声認識装置及び音声認識方法
CN113782020A (zh) * 2021-09-14 2021-12-10 合众新能源汽车有限公司 车内语音交互方法和系统
US20220287451A1 (en) * 2018-09-28 2022-09-15 Peter Hurley Multi-purpose portable platform stage

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003186492A (ja) * 2001-12-18 2003-07-04 Nissan Motor Co Ltd 音声認識装置
JP2016161754A (ja) * 2015-03-02 2016-09-05 クラリオン株式会社 車載装置
JP2017090612A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム
JP2017090611A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003186492A (ja) * 2001-12-18 2003-07-04 Nissan Motor Co Ltd 音声認識装置
JP2016161754A (ja) * 2015-03-02 2016-09-05 クラリオン株式会社 車載装置
JP2017090612A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム
JP2017090611A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3567016A1 (en) 2018-05-11 2019-11-13 Shin-Etsu Chemical Co., Ltd. Method for preparing ceramic molded body for sintering and method for producing ceramic sintered body
US20220287451A1 (en) * 2018-09-28 2022-09-15 Peter Hurley Multi-purpose portable platform stage
WO2021186679A1 (ja) * 2020-03-19 2021-09-23 日産自動車株式会社 音声認識装置及び音声認識方法
JP7392827B2 (ja) 2020-03-19 2023-12-06 日産自動車株式会社 音声認識装置及び音声認識方法
CN113782020A (zh) * 2021-09-14 2021-12-10 合众新能源汽车有限公司 车内语音交互方法和系统

Similar Documents

Publication Publication Date Title
JP2019073255A (ja) 運転支援装置
JP6304162B2 (ja) 車両用シート制御装置
CN105539287B (zh) 周边监视装置
JP7290930B2 (ja) 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム
JP2018106530A (ja) 運転支援装置および運転支援方法
JP2008162376A (ja) 車両用作動システム、車両
JP2014096632A (ja) 撮像システム
JP2021066275A (ja) 車両制御装置
JP2019087875A (ja) 周辺監視装置
JP2023181338A (ja) 車両用表示制御装置、車両用表示制御方法及びプログラム
CN112644469A (zh) 停车辅助装置、停车辅助方法以及记录介质
CN108885867B (zh) 车用效果声发生装置
JP6840998B2 (ja) 障害物検知装置
US11783823B2 (en) Vehicle control apparatus
US10976993B2 (en) Audio control system and audio control method
JP7227106B2 (ja) 操作制御装置、操作制御方法、およびプログラム
JP7047709B2 (ja) 駐車支援装置
JP2021062750A (ja) 駐車支援装置、駐車支援方法、および駐車支援プログラム
JP2016149014A (ja) 対話装置
JP2020043395A (ja) カメラキャリブレーション装置
US11501561B2 (en) Occupant monitoring device, occupant monitoring method, and occupant monitoring program
JP2003048449A (ja) 運転者の心理状態判定装置
JP7020161B2 (ja) 駐車支援装置
US10812924B2 (en) Control apparatus configured to control sound output apparatus, method for controlling sound output apparatus, and vehicle
JP2021163236A (ja) 情報提供装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220329