JP2017159692A - 車両用入力装置 - Google Patents
車両用入力装置 Download PDFInfo
- Publication number
- JP2017159692A JP2017159692A JP2016043460A JP2016043460A JP2017159692A JP 2017159692 A JP2017159692 A JP 2017159692A JP 2016043460 A JP2016043460 A JP 2016043460A JP 2016043460 A JP2016043460 A JP 2016043460A JP 2017159692 A JP2017159692 A JP 2017159692A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- voice
- input
- hand
- operation target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】車両に搭載された車載機器に対する操作を容易に入力することを可能とした車両用入力装置を提供すること。【解決手段】車両用入力装置10は、車両Cに搭載された車載機器30に対する操作入力を受け付けて車載機器30に制御指示を通知する。車両用入力装置10は、音声認識部11、画像認識部13を有する。音声認識部11は、車両の運転者Dの音声を認識し、認識結果に基づいて車載機器30のうちの1つを操作対象機器とし、操作対象機器に対する操作入力の受け付けを許可する状態とする。画像認識部13は、操作入力の受け付けを許可された状態にあるとき、車両CのステアリングホイールSWを含む領域を撮影した画像に基づいて、ステアリングホイールSWの周方向における手HAの動きを認識し、認識結果に応じた制御指示を操作対象機器に通知する。【選択図】図1
Description
本発明は、車両に搭載された車載機器を操作するために用いられる車両用入力装置に関する。
従来、車両に搭載された各種の車載機器に対する制御指示は、車両のインスツルメントパネルやステアリングホイールに配設された操作部の操作により行われる。例えば、特許文献1には、車両のステアリングに配設されたタッチセンサを用いて、車載機器に対する操作を入力する技術が開示されている。
ところが、上記の技術では、制御対象となる車載機器毎にタッチセンサを設ける必要がある。また、車載機器に応じて配置されたタッチセンサに手を伸ばして操作する必要がある。例えば、ステアリングホイールに配置されたタッチセンサを操作する場合、ステアリングホイールが中立位置に無いと、操作対象との対応が判断しにくく誤操作を招く虞がある。
本発明は、このような実情に鑑みなされたものであって、その目的は、車両に搭載された車載機器に対する操作を容易に入力することを可能とした車両用入力装置を提供することにある。
以下、上記課題を解決するための手段及びその作用効果を記載する。
上記課題を解決する車両用入力装置は、車両に搭載された車載機器に対する操作入力を受け付けて前記車載機器に制御指示を通知する車両用入力装置であって、前記車両の乗員の音声を認識し、認識結果に基づいて前記車載機器のうちの1つを操作対象機器とし、前記操作対象機器に対する操作入力の受け付けを許可する状態とする音声認識部と、前記操作入力の受け付けを許可された状態にあるとき、前記車両のステアリングホイールを含む領域を撮影した画像に基づいて、前記ステアリングホイールの周方向における手の動きを認識し、認識結果に応じた制御指示を前記操作対象機器に通知する画像認識部と、を有する。
上記課題を解決する車両用入力装置は、車両に搭載された車載機器に対する操作入力を受け付けて前記車載機器に制御指示を通知する車両用入力装置であって、前記車両の乗員の音声を認識し、認識結果に基づいて前記車載機器のうちの1つを操作対象機器とし、前記操作対象機器に対する操作入力の受け付けを許可する状態とする音声認識部と、前記操作入力の受け付けを許可された状態にあるとき、前記車両のステアリングホイールを含む領域を撮影した画像に基づいて、前記ステアリングホイールの周方向における手の動きを認識し、認識結果に応じた制御指示を前記操作対象機器に通知する画像認識部と、を有する。
上記構成によれば、車両の乗員の音声の認識結果に基づいて車載機器のうちの1つが操作対象機器とされる。そして、その操作対象機器に対して、ステアリングホイールの周方向における手の動きの認識結果に応じた制御指示が通知される。このため、車載機器毎に操作部を設ける必要がなく、容易に車載機器に対する操作入力を行うことができる。また、ステアリングホイールの周方向における手の動きを認識することで、操舵中であっても操作入力を行うことができる。また、乗員の音声の認識結果に基づいて操作対象機器に対する操作入力の受け付けを許可するため、操舵のための手の動きと操作入力とを区別することができ、誤って操作対象機器に対して操作指令を通知することを防止することができる。
以下、車両用入力装置の一実施の形態について説明する。
本実施の形態の車両用入力装置は、乗員の音声の認識結果と、ステアリングホイールを含む領域を撮影した画像の認識結果とに基づいて、車載機器に対する制御指示を通知するものである。詳しくは、音声の認識結果に基づいて車載機器のうちから制御対象機器を特定し、その制御対象機器に対する操作入力の受け付けを許可した状態において、画像からステアリングホイールの周方向における手の動きを認識し、認識した手の動きに対応する制御指示を制御対象機器に通知するようにしている。
本実施の形態の車両用入力装置は、乗員の音声の認識結果と、ステアリングホイールを含む領域を撮影した画像の認識結果とに基づいて、車載機器に対する制御指示を通知するものである。詳しくは、音声の認識結果に基づいて車載機器のうちから制御対象機器を特定し、その制御対象機器に対する操作入力の受け付けを許可した状態において、画像からステアリングホイールの周方向における手の動きを認識し、認識した手の動きに対応する制御指示を制御対象機器に通知するようにしている。
はじめに、本実施の形態の装置の構成について図面を参照して説明する。
図1に示す車両Cは乗用車であり、乗車している運転者Dによるアクセルの操作、ブレーキの操作、及びステアリングホイールSWなどの操作を通じて運転される。
図1に示す車両Cは乗用車であり、乗車している運転者Dによるアクセルの操作、ブレーキの操作、及びステアリングホイールSWなどの操作を通じて運転される。
車両Cに搭載された車両用入力装置10は、車載機器30に対する操作入力と車載機器30に対して制御指示を通知する処理を行う。車載機器30には、例えばエアコン31、ラジオ32、等が含まれる。
車両用入力装置10は、車両Cに設置されたマイク21、カメラ22と接続され、マイク21、カメラ22からの入力(音声、画像)を認識し、その認識結果に基づいて車載機器を制御する。また、車両用入力装置10は、スピーカ23と接続され、スピーカ23による音声案内によって、認識結果等を通知する。
マイク21は、乗員としての運転者Dの発する音声を取得するように設置されている。
カメラ22は、車両Cの車内空間の所定の撮影範囲PAを撮影した画像を出力する。撮影範囲PAは、車両CのステアリングホイールSWを含むように設定されている。カメラ22は、車両用入力装置10からの制御信号に基づいて、撮影範囲PAを撮影した画像を順次出力する。
カメラ22は、車両Cの車内空間の所定の撮影範囲PAを撮影した画像を出力する。撮影範囲PAは、車両CのステアリングホイールSWを含むように設定されている。カメラ22は、車両用入力装置10からの制御信号に基づいて、撮影範囲PAを撮影した画像を順次出力する。
スピーカ23としては、例えばラジオ32等のスピーカが用いられる。なお、マイク21及びスピーカ23として、ヘッドセット等の運転者Dに装着した装置が用いられてもよい。
車両用入力装置10は、音声認識部11、音声認識辞書12、画像認識部13、画像認識辞書14を有している。
音声認識部11は、運転者Dの音声情報をマイク21により入力し、音声認識辞書12を用いて所定の音声分析処理を行い、その分析による認識結果を画像認識部13に出力する。認識結果は、運転者Dの音声に基づいて選択した車載機器の情報を含む。音声認識部11は、音声分析によって、運転者Dが選択した車載機器を判定し、その車載機器を操作対象機器とする。そして、音声認識部11は、操作対象機器を示す情報を画像認識部13に通知する。この通知によって、操作対象機器に対する画像認識部13の処理が行われる。つまり、音声認識部11は、認識結果に基づいて、操作対象機器に対する画像認識部13の処理を許可する。
音声認識部11は、運転者Dの音声情報をマイク21により入力し、音声認識辞書12を用いて所定の音声分析処理を行い、その分析による認識結果を画像認識部13に出力する。認識結果は、運転者Dの音声に基づいて選択した車載機器の情報を含む。音声認識部11は、音声分析によって、運転者Dが選択した車載機器を判定し、その車載機器を操作対象機器とする。そして、音声認識部11は、操作対象機器を示す情報を画像認識部13に通知する。この通知によって、操作対象機器に対する画像認識部13の処理が行われる。つまり、音声認識部11は、認識結果に基づいて、操作対象機器に対する画像認識部13の処理を許可する。
画像認識部13は、ステアリングホイールSWと運転者Dの手HAを撮影した画像(画像データ)をカメラ22より入力し、画像認識辞書14を用いて所定の画像認識処理を行い、手HAの動きを認識する。手HAの動きは、運転者Dによる手HAのジェスチャである。つまり、画像認識部13は、運転者Dによるジェスチャを認識する。そして、画像認識部13は、画像認識辞書14を利用してジェスチャを分析し、操作対象機器に対する制御指示を得て、その制御指示を操作対象機器に通知する。
車載機器30(図ではエアコン31、ラジオ32)は、制御指示に基づいて設定を変更する。
音声認識辞書12には、車両Cに搭載された車載機器30に対応する機器情報が含まれている。機器情報としては、例えば、車載機器30を識別する識別情報と、車載機器30の名称の特徴データとを含み、それらは互いに対応付けられている。例えば、車載機器30に含まれるエアコン31やラジオ32等に対応して、音声認識辞書12に「エアコン」や「ラジオ」等の単語の特徴データが含まれている。車載機器30は、例えば所定のネットワーク(例えばCAN:コントローラエリアネットワーク)により車両用入力装置10と接続されている。車載機器30の識別情報は、ネットワークを介して通信するために必要な識別番号である。
音声認識辞書12には、車両Cに搭載された車載機器30に対応する機器情報が含まれている。機器情報としては、例えば、車載機器30を識別する識別情報と、車載機器30の名称の特徴データとを含み、それらは互いに対応付けられている。例えば、車載機器30に含まれるエアコン31やラジオ32等に対応して、音声認識辞書12に「エアコン」や「ラジオ」等の単語の特徴データが含まれている。車載機器30は、例えば所定のネットワーク(例えばCAN:コントローラエリアネットワーク)により車両用入力装置10と接続されている。車載機器30の識別情報は、ネットワークを介して通信するために必要な識別番号である。
音声認識部11は、マイク21より入力した音声の音声分析を行う。詳しくは、音声認識部11は、マイク21より入力した音声を、音声認識辞書12に格納された特徴データと照合する。そして、音声分析が成功した、つまり入力音声を認識した場合、その操作対象機器を特定する。音声認識部11は、音声情報に含まれる機器情報に対応する車載機器を、操作対象機器として特定する。そして、音声認識部11は、特定した車載機器の情報を含む認識結果を画像認識部13に通知する。
一方、音声分析が不成功、つまり音声情報に機器情報が含まれていない場合や、音声情報が不鮮明で機器情報が確定できない場合、音声認識部11は、スピーカ23による音声案内により、音声認識の失敗を通知する。
画像認識辞書14には、撮影画像より抽出する対象物の特徴情報が含まれる。本実施形態において、対象物は、運転者Dの手HAである。また、画像認識辞書14には、車載機器の情報と、手HAの動き(ジェスチャ)に対する制御指示が関連付けて記憶されている。例えば、車載機器30に含まれるエアコン31に対して、手HAの動き、例えば左手の動きに対する制御指示として設定温度の変更(上昇、下降)が関連付けられている。また、手HAの移動方向として例えばステアリングホイールSWの周方向において右回り方向(時計回転方向)の動きに対する制御指示として設定温度の上昇が関連付けられ、左回り方向(反時計回転方向)の動きに対する制御指示として設定温度の下降が関連付けられている。
画像認識部13は、撮影画像からステアリングホイールSWの位置を検出する。そして、画像認識部13は、運転者Dの手HAの位置を検出する。さらに、画像認識部13は、複数の撮影画像により、運転者Dの手HAの動きを検出する。手HAの動きは、手の移動量と手の移動方向の少なくとも1つを含む。画像認識部13は、画像認識辞書14を利用して、手HAの動き、つまり手HAにおけるジェスチャを分析し、上記の音声認識部11において特定した操作対象機器に対する制御指示を画像認識辞書14から得る。そして、画像認識部13は、制御指示を操作対象機器へ通知する。
次に、図2及び図3を参照して、車載機器制御の手順を説明する。
車両用入力装置10は、図2に示すフェーズと図3に示すフェーズとを実行する。図2に示すフェーズは操作対象機器選択フェーズである。図3に示すフェーズはジェスチャ検出フェーズである。
車両用入力装置10は、図2に示すフェーズと図3に示すフェーズとを実行する。図2に示すフェーズは操作対象機器選択フェーズである。図3に示すフェーズはジェスチャ検出フェーズである。
操作対象機器選択フェーズにおいては、入力された音声データを音声認識辞書と照合し、操作対象の車載機器を選択する。ジェスチャ検出フェーズにおいては、画像検出によりステアリングホイールの位置及び、ステアリングホイール上のドライバの手の位置を検出し、ドライバの手の動きを画像認識辞書と照合しジェスチャを分析する。そして、分析したジェスチャの結果(制御指示)を操作対象機器へ通知する。
次に、各フェーズの処理手順を詳述する。
<操作対象機器選択フェーズ>
図2に示すように、音声認識を開始する(ステップS10)。
<操作対象機器選択フェーズ>
図2に示すように、音声認識を開始する(ステップS10)。
外部からの音声入力があると、音声入力検出を行う(ステップS11)。
次に、音声入力検出の開始から終了までの時間が所定時間(図では10秒)未満か否かを判定する(ステップS12)。開始から終了までの時間が所定時間(10秒)以上の場合(ステップS12でNO)、音声案内で音声認識の失敗を通知し(ステップS13)、処理を終了する。判定のための時間(10秒)は、図1に示す車載機器30に含まれる各種機器の名称を発するために十分な時間に設定されている。この処理により、間違った語の入力音声や通常の会話などを除外する。
次に、音声入力検出の開始から終了までの時間が所定時間(図では10秒)未満か否かを判定する(ステップS12)。開始から終了までの時間が所定時間(10秒)以上の場合(ステップS12でNO)、音声案内で音声認識の失敗を通知し(ステップS13)、処理を終了する。判定のための時間(10秒)は、図1に示す車載機器30に含まれる各種機器の名称を発するために十分な時間に設定されている。この処理により、間違った語の入力音声や通常の会話などを除外する。
開始から終了までの時間が所定時間(10秒)未満の場合(ステップS12でYES)、音声認識辞書12を利用して音声分析を行う(ステップS14)。音声分析において、上記のステップS11において検出した音声を、音声認識辞書12の特徴データと照合することにより、発話された単語を認識する。
次に、音声分析の結果が成功か否かを判定する(ステップS15)。音声分析が不成功、つまり発話された単語を認識できないかった場合(ステップS15でNO)、音声案内で音声認識の失敗を通知し(ステップS16)、処理を終了する。
一方、音声分析が成功、つまり発話された単語を認識した場合(ステップS15でYES)、音声分析による操作対象機器を特定する(ステップS17)。このように、発話された単語と一致する特徴データに関連付けられた車載機器を、操作対象機器として選択する。そして、選択した機器に対して、次のフェーズ(ジェスチャ検出フェーズ)を実行し、機器に対する制御指示を発する。
<ジェスチャ検出フェーズ>
図3に示すように、画像認識開始を開始する(ステップS20)。外部からの画像入力があると、画像検出を行う(ステップS21)。次に、入力した画像において、ステアリングホイールSWの位置検出を行う(ステップS22)。
図3に示すように、画像認識開始を開始する(ステップS20)。外部からの画像入力があると、画像検出を行う(ステップS21)。次に、入力した画像において、ステアリングホイールSWの位置検出を行う(ステップS22)。
そして、ステアリングホイールSWの検出が成功したか否かを判定する(ステップS23)。ステアリングホイールSWの検出が不成功の場合(ステップS23でNO)、音声案内で画像認識の失敗を通知し(ステップS24)、処理を終了する。ステアリングホイールSWの検出を成功した場合(ステップS23でYES)、画像認識辞書14を利用してステアリングホイールSW上のドライバ(運転者D)の手HAの位置の検出を行う(ステップS25)。
次に、ドライバの手の位置の検出に成功したか否かを判定する(ステップS26)。手の位置の検出が不成功の場合(ステップS26でNO)、音声案内で画像認識の失敗を通知し(ステップS27)、処理を終了する。ドライバの手の位置の検出に成功した場合(ステップS26でYES)、次に、音声入力検出完了から経過時間が所定値(図では5秒)未満か否かを判定する(ステップS28)。
経過時間が所定値(5秒)以上の場合(ステップS28でNO)、音声案内で画像認識の失敗を通知し(ステップS27)、処理を終了する。経過時間が所定値(5秒)未満の場合(ステップS28でYES)、画像認識辞書14を利用し、ドライバのジェスチャ分析を行う(ステップS29)。
次に、ジェスチャ分析の結果が成功か否かを判定する(ステップS30)。ジェスチャ分析の結果が不成功の場合(ステップS30でNO),音声案内でジェスチャ認識の失敗を通知し(ステップS31)、処理を終了する。ジェスチャ分析の結果が成功の場合(ステップS30でYES)、操作対象機器への制御指示の通知を行う(ステップS32)。そして、音声案内で制御内容を通知し(ステップS33)、処理を終了する。
次に、本実施の形態の車両用入力装置10の作用について説明する。
図4(a)に示すように、[操作対象機器選択フェーズ]において、運転者Dが発する「エアコン」の音声により、図1に示すエアコン31を操作対象機器とする。
図4(a)に示すように、[操作対象機器選択フェーズ]において、運転者Dが発する「エアコン」の音声により、図1に示すエアコン31を操作対象機器とする。
図4(b)に示すように、[ジェスチャ検出フェーズ]において、運転者Dが手HA(左手HL)をステアリングホイールSWに沿って右回り方向(時計回転方向)に移動させる。この左手HLの動き(ジェスチャ)を検出し、この左手HLの動きに対応する制御指示として「設定温度上昇」を得る。そして、この制御指示を図1に示すエアコン31に通知する。エアコン31は、制御指示に従って設定温度を変更する。
なお、エアコン31を操作対象機器とした場合、図示しないが、左手HLをステアリングホイールSWに沿って左回り方向(反時計回転方向)に移動させた場合、その動きに応じて制御指示として「設定温度下降」を得て、この制御指示を図1に示すエアコン31に通知することにより、エアコン31の設定温度を下降させることが可能となる。また、図示しないが、[ジェスチャ検出フェーズ]において、右手HRを移動させることにより、エアコンの吹き出し口の変更を行うことが可能となる。
図5(a)に示すように、[操作対象機器選択フェーズ]において、運転者Dが発する「ラジオ」の音声により、図1に示すラジオ32を操作対象機器とする。
図5(b)に示すように、[ジェスチャ検出フェーズ]において、運転者Dが手HA(右手HR)をステアリングホイールSWに沿って左回り方向(反時計回転方向)に移動させる。この右手HRの動き(ジェスチャ)を検出し、この右手HRの動きに対応する制御指示として「ラジオ局の選択」を得る。そして、この制御指示を図1に示すラジオ32に通知する。ラジオ32は、制御指示に従ってラジオ局を選択する。例えば、予め複数のラジオ局が選局番号に設定されている場合、制御指示に従って選局番号を選択(変更)する。
図5(b)に示すように、[ジェスチャ検出フェーズ]において、運転者Dが手HA(右手HR)をステアリングホイールSWに沿って左回り方向(反時計回転方向)に移動させる。この右手HRの動き(ジェスチャ)を検出し、この右手HRの動きに対応する制御指示として「ラジオ局の選択」を得る。そして、この制御指示を図1に示すラジオ32に通知する。ラジオ32は、制御指示に従ってラジオ局を選択する。例えば、予め複数のラジオ局が選局番号に設定されている場合、制御指示に従って選局番号を選択(変更)する。
なお、ラジオ32を操作対象機器とした場合、図示しないが、[ジェスチャ検出フェーズ]において、左手HLを移動させることにより、ラジオの音量を変更(上昇、下降)することが可能となる。
以上記述したように、本実施形態によれば、以下の効果を奏する。
(1)本実施形態では、車両Cの運転者Dの音声と、ステアリングホイールSWを含む領域を撮影した画像における手HAの動きとを操作入力とする。そして、音声認識に基づいて車載機器30のうちの1つを操作対象機器とし、その操作対象機器に対して画像認識に基づいて得た制御指示を通知する。このため、車載機器毎に操作部を設ける必要がなく、容易に車載機器30に対する操作入力を行うことができる。
(1)本実施形態では、車両Cの運転者Dの音声と、ステアリングホイールSWを含む領域を撮影した画像における手HAの動きとを操作入力とする。そして、音声認識に基づいて車載機器30のうちの1つを操作対象機器とし、その操作対象機器に対して画像認識に基づいて得た制御指示を通知する。このため、車載機器毎に操作部を設ける必要がなく、容易に車載機器30に対する操作入力を行うことができる。
(2)ステアリングホイールSWの周方向における手HA(右手HR,左手HL)の動き(ジェスチャ)を認識することで、操舵中であっても操作入力を行うことができる。そして、ステアリングホイールSWの周方向における手HAの動きを認識するため、ステアリングホイールSWが中立位置に無くても、操作入力を誤判定することが無い。このため、常に同じ操作(手HAの動き)にて車載機器30を操作することができる。
(3)運転者Dの音声の認識結果に基づいて操作対象機器に対する画像処理行う、つまり操作対象機器に対する操作入力の受け付けを許可する。したがって、音声認識により受け付けを許可されていない場合には、手HAの動きを操作入力として認識しない。このため、操舵のための手HAの動きと操作入力とを区別することができ、誤って操作対象機器に対して操作指令を通知することを防止することができる。
(4)例えば、手HAの形状(伸ばしている指の数、等)により操作対象機器を選択する方向が考えられる。車両用入力装置10は、音声認識により操作対象機器を選択し、画像認識により操作対象機器に対する操作指示を得る。したがって、操作対象機器の選択のために、手HAを様々な形状とする必要がない。このため、容易に操作対象機器を選択することができ、その操作対象機器を操作することができる。
なお、上記実施の形態は、以下のような形態にて実施することもできる。
・上記実施の形態において、操作対象機器を特定した場合(図2のステップS17)、音声案内により機器の特定を通知することも可能である。
・上記実施の形態において、操作対象機器を特定した場合(図2のステップS17)、音声案内により機器の特定を通知することも可能である。
・上記実施の形態において、音声入力検出開始から終了までの時間を10秒としたが、判定のための時間を適宜変更してもよい。同様に、音声入力検出完了からの経過時間を5秒(図3のステップS28)としたが、経過時間を適宜変更してもよい。
・上記実施の形態においては、車載機器30としてエアコン31とラジオ32を例示し、エアコン31に対する操作入力一例を図4(a)及び図4(b)に、ラジオ32に対する操作入力の一例を図5(a)及び図5(b)に示した。これに限らず、例えばテレビ、ルームランプ、ナビゲーション等、その他の車載機器を制御対象とすることも可能である。
・上記実施の形態では、音声案内にて音声認識等の失敗を通知したが、音(単音、和音、メロディ、等)によって認識結果を通知することも可能である。
・上記実施形態では、車両Cが乗用車である場合について説明したが、これに限らず、車両は、農工業用の車両、工事や土木作業用の車両であってもよい。
・上記実施形態では、車両Cが乗用車である場合について説明したが、これに限らず、車両は、農工業用の車両、工事や土木作業用の車両であってもよい。
10…車両用入力装置、11…音声認識部、12…音声認識辞書、13…画像認識部、14…画像認識辞書、21…マイク、22…カメラ、23…スピーカ、30…車載機器、C…車両、D…運転者、SW…ステアリングホイール、HA…手。
Claims (1)
- 車両に搭載された車載機器に対する操作入力を受け付けて前記車載機器に制御指示を通知する車両用入力装置であって、
前記車両の乗員の音声を認識し、認識結果に基づいて前記車載機器のうちの1つを操作対象機器とし、前記操作対象機器に対する操作入力の受け付けを許可する状態とする音声認識部と、
前記操作入力の受け付けを許可された状態にあるとき、前記車両のステアリングホイールを含む領域を撮影した画像に基づいて、前記ステアリングホイールの周方向における手の動きを認識し、認識結果に応じた制御指示を前記操作対象機器に通知する画像認識部と、
を有することを特徴とする車両用入力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016043460A JP2017159692A (ja) | 2016-03-07 | 2016-03-07 | 車両用入力装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016043460A JP2017159692A (ja) | 2016-03-07 | 2016-03-07 | 車両用入力装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017159692A true JP2017159692A (ja) | 2017-09-14 |
Family
ID=59853409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016043460A Pending JP2017159692A (ja) | 2016-03-07 | 2016-03-07 | 車両用入力装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017159692A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112018004731T5 (de) | 2017-08-22 | 2020-06-04 | Denso Corporation | Gassensorelement und Gassensor |
JP2021041800A (ja) * | 2019-09-10 | 2021-03-18 | 株式会社Subaru | 車両用制御装置 |
JP2022051402A (ja) * | 2020-09-18 | 2022-03-31 | 株式会社高知丸高 | 水中ブルドーザー |
WO2022084709A1 (ja) | 2020-10-22 | 2022-04-28 | 日産自動車株式会社 | 情報処理装置及び情報処理方法 |
WO2022084708A1 (ja) | 2020-10-22 | 2022-04-28 | 日産自動車株式会社 | 情報処理装置及び情報処理方法 |
-
2016
- 2016-03-07 JP JP2016043460A patent/JP2017159692A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112018004731T5 (de) | 2017-08-22 | 2020-06-04 | Denso Corporation | Gassensorelement und Gassensor |
JP2021041800A (ja) * | 2019-09-10 | 2021-03-18 | 株式会社Subaru | 車両用制御装置 |
US11783823B2 (en) | 2019-09-10 | 2023-10-10 | Subaru Corporation | Vehicle control apparatus |
JP2022051402A (ja) * | 2020-09-18 | 2022-03-31 | 株式会社高知丸高 | 水中ブルドーザー |
JP7117024B2 (ja) | 2020-09-18 | 2022-08-12 | 株式会社高知丸高 | 水中ブルドーザー |
WO2022084709A1 (ja) | 2020-10-22 | 2022-04-28 | 日産自動車株式会社 | 情報処理装置及び情報処理方法 |
WO2022084708A1 (ja) | 2020-10-22 | 2022-04-28 | 日産自動車株式会社 | 情報処理装置及び情報処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017159692A (ja) | 車両用入力装置 | |
EP3168839B1 (en) | Voice recognition device and voice recognition system | |
US20180033429A1 (en) | Extendable vehicle system | |
CN104737226A (zh) | 机动车中的语音识别 | |
JP2008058409A (ja) | 音声認識方法及び音声認識装置 | |
KR101736109B1 (ko) | 음성인식 장치, 이를 포함하는 차량, 및 그 제어방법 | |
CN106537492A (zh) | 具有用于语音识别的校正策略的机动车操作装置 | |
WO2018047223A1 (ja) | 障害物判定方法、駐車支援方法、出庫支援方法、及び障害物判定装置 | |
US10655981B2 (en) | Method for updating parking area information in a navigation system and navigation system | |
JP2008309966A (ja) | 音声入力処理装置および音声入力処理方法 | |
KR20160037484A (ko) | 음성 인식 장치 및 방법 | |
US9128517B2 (en) | Vehicular terminal with input switching | |
JP2016222136A (ja) | ドライバ推定装置、制御方法、プログラム及び記憶媒体 | |
JP2000338993A (ja) | 音声認識装置、その装置を用いたナビゲーションシステム | |
WO2017212569A1 (ja) | 車載情報処理装置、車載装置および車載情報処理方法 | |
JP2019046371A (ja) | 交通標識を認識する車両制御装置及びその方法 | |
JP2000276187A (ja) | 音声認識方法及び音声認識装置 | |
JP7392827B2 (ja) | 音声認識装置及び音声認識方法 | |
JP6406000B2 (ja) | 車両制御システム | |
JP6962878B2 (ja) | 操作補助システムおよび操作補助方法 | |
JP7187812B2 (ja) | 機器の操作支援装置及び操作支援方法 | |
JP2003084795A (ja) | 車載用音声認識システム | |
US20230365141A1 (en) | Information processing device and information processing method | |
JP2019003244A (ja) | 情報提供装置及び情報提供方法並びに車両 | |
JP2016142614A (ja) | 車載装置 |