JP2015168304A - 検知装置 - Google Patents
検知装置 Download PDFInfo
- Publication number
- JP2015168304A JP2015168304A JP2014043142A JP2014043142A JP2015168304A JP 2015168304 A JP2015168304 A JP 2015168304A JP 2014043142 A JP2014043142 A JP 2014043142A JP 2014043142 A JP2014043142 A JP 2014043142A JP 2015168304 A JP2015168304 A JP 2015168304A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- gesture
- sensor
- steering
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】ジェスチャ入力に伴う操作負担を軽減すると共に、安全運転に寄与できる検知装置を提供する。
【解決手段】車両に搭載されて、操作者の指のジェスチャを検知する検知装置は、車両のステアリング10の背面側となるステアリングコラム10a、あるいはステアリングコラム10aの近傍11に配置されて、配置された位置からステアリング10側に向けて所定範囲の空間を検知対象とするようにする。
【選択図】図2
【解決手段】車両に搭載されて、操作者の指のジェスチャを検知する検知装置は、車両のステアリング10の背面側となるステアリングコラム10a、あるいはステアリングコラム10aの近傍11に配置されて、配置された位置からステアリング10側に向けて所定範囲の空間を検知対象とするようにする。
【選択図】図2
Description
本発明は、操作者のジェスチャ操作を検知する検知装置に関するものである。
従来の操作入力装置として、例えば、特許文献1に記載されたものが知られている。即ち、特許文献1の操作入力装置では、運転席付近を撮影するカメラを備えている。そして、カメラにより撮影された撮影画図から操作者の手のジェスチャが検出され、検出されたジェスチャから操作者の意図する操作が判定されると共に、判定された操作に基づいて車両に搭載される装置が作動されるようになっている。
具体的には、カメラが撮影する領域内には、ハンドルの上部に対応する第1操作領域、あるいはダッシュボードの上部に対応する第2操作領域等が予め設定されている。そして、例えば、ナビゲーション装置への入力要領として、操作者(運転者)は、ハンドルの上部(第1操作領域)、あるいはダッシュボードの上部(第2操作領域)に対して、2本数の指を立てて左右にこする、あるいは、1本の指でタッチする等の操作(ジェスチャ)を行うことで、ナビ操作用の各種メニュー項目(第1属性、第2属性等)の選択、あるいは決定が実行されるようになっている。
しかしながら、上記特許文献1では、操作者は、運転時においてハンドルから手を離して、所定の操作領域へ手を移動させて入力操作する必要があり、操作の負担が高いものとなっている。また、運転時にハンドルから手を離す必要があることから、安全運転上の面で不安が残る。
本発明の目的は、上記問題に鑑み、ジェスチャ入力に伴う操作負担を軽減すると共に、安全運転に寄与できる検知装置を提供することにある。
本発明は上記目的を達成するために、以下の技術的手段を採用する。
本発明では、車両に搭載されて、操作者の指のジェスチャを検知する検知装置であって、
車両のステアリング(10)の背面側となるステアリングコラム(10a)、あるいはステアリングコラム(10a)の近傍(11)に配置されて、配置された位置からステアリング(10)側に向けて所定範囲の空間を検知対象とすることを特徴としている。
車両のステアリング(10)の背面側となるステアリングコラム(10a)、あるいはステアリングコラム(10a)の近傍(11)に配置されて、配置された位置からステアリング(10)側に向けて所定範囲の空間を検知対象とすることを特徴としている。
この発明によれば、操作者がステアリング(10)を握った状態において、握った指のうちのいずれかの指を所定範囲の空間側に延ばして動かすことで、検知装置(110)は、指の動きをジェスチャとして検知することが可能となる。よって、操作者にとっては、運転時にステアリング(10)から手を離すことなく、入力操作が可能となるので、ジェスチャ入力に伴う操作負担を軽減することが可能となり、ひいては安全運転に寄与することが可能となる。
また、検知装置(110)が検知する検知対象は、検知装置(110)の配置位置からステアリング(10)側に向けて所定範囲の空間としている。よって、通常、操作者がステアリング(10)を握っている状態では、指の動きをジェスチャとしては捉えないようにすることができるので、誤認識を防止することができる。
尚、上記各手段の括弧内の符号は、後述する実施形態記載の具体的手段との対応関係を示すものである。
以下に、図面を参照しながら本発明を実施するための複数の形態を説明する。各形態において先行する形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各形態において構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の形態を適用することができる。各実施形態で具体的に組み合わせが可能であることを明示している部分同士の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても実施形態同士を部分的に組み合せることも可能である。
(第1実施形態)
第1実施形態の検知装置110について図1〜図4を用いて説明する。本実施形態の検知装置110は、車両に搭載される操作入力装置100に適用されたものである。
第1実施形態の検知装置110について図1〜図4を用いて説明する。本実施形態の検知装置110は、車両に搭載される操作入力装置100に適用されたものである。
車両には、操舵用のステアリング10と、ステアリング10の背面側(車両前方側)でステアリングシャフトを内包するステアリングコラム10aとが設けられている。また、ステアリング10の背面側にはインストルメントパネル11が設けられ、このインストルメントパネル11において、ステアリング10の上側半分と対向する位置には、各種車両情報を総合的に表示するコンビネーションメータ12が設けられている。また、ステアリングコラム10aの車両進行方向右側には、運転者の右手操作によって右左折する際の方向を示すウインカーを点滅させるためのウインカーレバー13が設けられている。
操作入力装置100は、検知装置110、制御部120、および車両機器130を備えている。操作入力装置100は、検知装置110によって検出された運転者(操作者)の体の動きを基にして、制御部120によって、車両機器130の表示部130aにおける表示画像の切替えや作動入力が行われるものとなっている。
検知装置110は、運転者の体の動きを検出するものとなっている。検知装置110は、例えば、運転者の体の一部(手、指等)を3次元画像によって捉え、時間経過に対する画像の変化から、運転者の体の一部の動きを検知するようになっている。検知装置110としては、例えば、近赤外線を用いた近赤外線センサ、あるいは遠赤外線を用いた遠赤外線センサ等が用いられている。以下、検知装置110をセンサ110と呼ぶことにする。
センサ110は、図1、図2に示すように、車両のステアリング10の背面側で、ステアリングコラム10aの近傍となるインストルメントパネル11に配置されている。更に詳しく説明すると、センサ110は、例えば、ステアリング10において、10時10分方向に運転者が握る左右の手のうち、運転席側から車両進行方向に見たときに、右手と対向する位置に配置されている。よって、センサ110の光軸は、概ね、水平方向となって、インストルメントパネル11側からステアリング10の手前側(背面側)に向かうようになっている。
センサ110の検知対象となる領域は、図3に示すように、センサ110が配置される位置からステアリング10側に向けて所定範囲の空間領域となっている。以下、この領域を検知エリアと呼ぶことにする。また、検知エリアの先端域と、ステアリング10の背面との間は、非検知エリアとなっている。非検知エリアは、通常の運転時において、ステアリング10を握る指が位置するエリアであり、このときの指の動きは、センサ110によって検知されないものとなっている。
よって、検知エリアは、非検知エリアを超えて運転者の指が入り込んだときに、その指の動きを検知するエリアとなっている。図4に示すように、例えば、運転者は、右手の人差し指と中指とを、または人差し指あるいは中指をセンサ110側に延ばすことで、各指は、検知エリア内に入り込むことになり、センサ110は、運転者の右手の指の動きを検知するようになっている。
指の動き(以下、ジェスチャ)は、予め、種々のパターンを決めておくことができるが、ここでは、説明を簡単にするために、例えば、指を左右方向に振るもの、および指を上下方向に振るものを定めている。上記各ジェスチャは、例えば、スマートフォンの画面上におけるスワイプ操作をイメージさせるものとなっている。センサ110が検知した指のジェスチャ信号は、後述する制御部120に出力されるようになっている。
図1に戻って、制御部120は、センサ110からの指のジェスチャ信号を受けて、車両機器130の表示部130aにおける表示制御と、車両機器130の作動制御を行う制御手段となっている。制御部120においては、指のジェスチャ信号に応じた制御内容が予め定められている。つまり、制御部120は、指のジェスチャ信号に応じて、表示部130aにおいて必要とされる表示画像を生成し、更に表示画像の切替えを行うと共に、車両機器130の作動状態を変更させていく。
車両機器130は、例えば、オーディオ機能を備えるナビゲーション装置と、車両用エアコン装置に対する作動条件を入力するエアコン入力装置とが一体的に形成されたものである。車両機器130は、表示部130aを備えており、例えば、インストルメントパネル11の車両左右方向のほぼ中央に配置されている。
表示部130aは、例えば、液晶ディスプレイ、あるいは有機ELディスプレイ等によって形成されている。表示部130aには、メインメニューとして、ナビ、オーディオ、およびエアコンのいずれかを選択する選択スイッチが左右方向に並ぶように表示されている。
そして、表示部130aには、ナビゲーション機能を発揮させる場合では、経路誘導に係る地図画像、自車位置画像、目的地検索画像、文字あるいは図の表示等による目的地案内画像等のナビゲーション画像が表示される。また、オーディオ機能を発揮させる場合では、曲名リスト、ボリューム調整スイッチ等のオーディオ画像が表示される。また、エアコン入力装置としての機能を発揮させる場合では、設定温度スイッチ、風量調整スイッチ、吹出しモード切替えスイッチ、内外気切替えスイッチ、および現在の作動状態等のエアコン画像が表示される。
本実施形態においては、指の左右方向のジェスチャは、例えば、車両機器130の機能を選択するためのジェスチャとなっている。また、指の上下方向のジェスチャは、例えば、ナビゲーション画像では地図画像の拡大縮小するためのジェスチャ、オーディオ画像ではボリューム調整スイッチを操作するためのジェスチャ、エアコン画像では設定温度スイッチを操作するためのジェスチャとなっている。
具体的には、運転者は、ステアリング10を握って運転操作をしている際に、右手の人差し指および/あるいは中指をセンサ110側に延ばして、指の左右方向のジェスチャを行うと(図4)、指は、検知エリア内に入る形となって、センサ110は、指の左右方向のジェスチャを検知する。そして、左右方向のジェスチャ信号は、制御部120に出力され、制御部120は、指が左、あるいは右に振られるたびに、選択スイッチのいずれかを選択決定状態として、表示部130aにおける表示をナビゲーション、オーディオ、およびエアコンのいずれかの画像に順次切替えていく。
そして、運転者が指の上下方向のジェスチャを行うと(図4)、センサ110は、指の上下方向のジェスチャを検知する。そして、上下方向のジェスチャ信号は、制御部120に出力される。制御部120は、表示部130aにおける表示がナビゲーション画像の場合に、指が上側に振られると地図画像を拡大表示し、また、指が下側に振られると地図画像を縮小表示する。また、制御部120は、オーディオ画像の場合に、指が上側に振られるとボリューム調整スイッチの操作に対応付けて音量を大きくし、また、指が下側に振られると音量を小さくする。また、制御部120は、エアコン画像の場合に、指が上側に振られると設定温度スイッチの操作に対応付けて設定温度を高くし、また、指が下側に振られると設定温度を低くする。
以上のように、本実施形態では、運転者がステアリング10を握った状態において、握った指のうちのいずれかの指(人差し指および/あるいは中指)を検知エリア側に延ばして動かすことで、センサ110は、指の動きをジェスチャとして検知することが可能となる。よって、運転者にとっては、運転時にステアリング10から手を離すことなく、車両機器130に対する入力操作が可能となるので、ジェスチャ入力に伴う操作負担を軽減することが可能となり、ひいては安全運転に寄与することが可能となる。
また、センサ110が検知する検知対象は、センサ110の配置位置からステアリング10側に向けて所定範囲の空間(検知エリア)としている。よって、通常、運転者がステアリング10を握っている状態では、指が非検知エリアに入る形となり、指の動きをジェスチャとしては捉えないようにすることができるので、誤認識を防止することができる。
(第1実施形態の変形例)
上記第1実施形態では、センサ110をステアリングコラム10aの近傍となるインストルメントパネル11に配置し、ステアリング10において、10時10分方向に運転者が握る左右の手のうち、運転席側から車両進行方向に見たときに、右手と対向する位置に配置するようにした。よって、センサ110の光軸は、概ね、水平方向となって、インストルメントパネル11側からステアリング10の手前側(背面側)に向かうようにした(図2、図3の配置1)。
上記第1実施形態では、センサ110をステアリングコラム10aの近傍となるインストルメントパネル11に配置し、ステアリング10において、10時10分方向に運転者が握る左右の手のうち、運転席側から車両進行方向に見たときに、右手と対向する位置に配置するようにした。よって、センサ110の光軸は、概ね、水平方向となって、インストルメントパネル11側からステアリング10の手前側(背面側)に向かうようにした(図2、図3の配置1)。
しかしながら、センサ110を設定する位置は、これに限定されることなく、図5〜図9に示すように、例えば、配置2〜配置6等としてもよい。
配置2は、図5に示すように、配置1に対してセンサ110をステアリングコラム10aに設けて、センサ110の光軸が概ね、上向きとなるようにしたものである。この場合のセンサ110は、人差し指および/あるいは中指の動きを3次元画像によって捉えるものに加えて、2次元画像によって捉えるものも採用することができる。2次元画像センサ110の場合は、上向きとなる光軸に対して交差して左右方向に動く指を検知可能であり、指のジェスチャとしては左右方向に振るジェスチャを採用することができる。
また、配置3は、図6に示すように、配置1に対してセンサ110をステアリングコラム10aの左右2か所に設けて、センサ110の光軸が概ね、ステアリング10の径方向外向きで上向きとなるようにしたものである。この場合のセンサ110は、配置1の場合と同様に、人差し指および/あるいは中指の動きを3次元画像によって捉えるものでの対応が可能であり、指のジェスチャとしは、左右方向、および上下方向に振るジェスチャを採用することができる。
また、配置4〜配置6は、例えば、ステアリング10において、8時20分の方向に運転者が握る場合の薬指および/あるいは小指によるジェスチャを検知するようにしたものである。
配置4は、図7に示すように、配置1と同様に、センサ110の光軸が概ね、水平方向となって、ステアリング10の水平中心よりも下側に位置する手の指の動きを検知するようにしたものである。配置4では、配置1の場合と同様に、3次元画像センサ110を用いて、指を左右方向、および上下方向に振るジェスチャを採用することができる。
また、配置5は、図8に示すように、配置1に対してセンサ110をステアリングコラム10aに設けて、センサ110の光軸が概ね、下向きとなるようにしたものである。この場合のセンサ110は、薬指および/あるいは小指の動きを3次元画像によって捉えるものに加えて、2次元画像によって捉えるものも採用することができる。2次元画像センサ110の場合は、下向きとなる光軸に対して交差して左右方向に動く指を検知可能であり、指のジェスチャとしては左右方向に振るジェスチャを採用することができる。
また、配置6は、図9に示すように、配置1に対してセンサ110をステアリングコラム10aの左右2か所に設けて、センサ110の光軸が概ね、ステアリング10の径方向外向きで下向きとなるようにしたものである。この場合のセンサ110は、配置1の場合と同様に、薬指および/あるいは小指の動きを3次元画像によって捉えるものでの対応が可能であり、指のジェスチャとしは、左右方向、および上下方向に振るジェスチャを採用することができる。
上記第1実施形態の配置1、および各配置2〜配置6におけるセンサの種類と、取得可能なジェスチャ操作との関係を、図10にまとめて示す。尚、図10中、2Dは2次元、3Dは3次元を示す。
(第2実施形態)
第2実施形態の検知装置110、および操作入力装置100Aを図11、図12に示す。第2実施形態は、上記第1実施形態に対して、ウインカーレバー13の操作があった場合に、ジェスチャの誤入力を防止するものである。
第2実施形態の検知装置110、および操作入力装置100Aを図11、図12に示す。第2実施形態は、上記第1実施形態に対して、ウインカーレバー13の操作があった場合に、ジェスチャの誤入力を防止するものである。
センサ110には、ウインカーレバー13が操作(入力)されたときの操作信号(入力信号)が入力されるようになっている。ウインカーレバー13は、本発明のスイッチ部に対応する。ウインカーレバー13は、ステアリングコラム10aに設けられていることから、運転者がウインカーレバー13を操作すると、指がセンサ110の検知エリア内に入り込む。ウインカーレバー13を操作する際の指の動きが、上下方向のジェスチャとして検知されると、運転者の意思に反して、表示部130aの表示内容が変更されてしまうおそれが生ずる。
本実施形態では、このような誤入力を防止するために、センサ110は、図13に示すフローチャートに基づく、誤入力防止制御を行う。
即ち、センサ110は、ステップS100で、運転者の指の動きを検知したか否かを判定する。そして、ステップS100で、肯定判定すると、ステップS110に移行する。
ステップS110では、センサ110は、予め定めた一定時間(例えば、200mms程度)の間に、ウインカーレバー13からの操作信号があったか否かを判定する。ステップS110で、否と判定すると、センサ110は、運転者によるウインカーレバー13の操作はなく、本来の指によるジェスチャを行ったものと捉えて、ステップS120で、ジェスチャがあったものと認識する。そして、このジェスチャ信号を制御部120に出力する。
一方、ステップS110で、センサ110は、肯定判定すると、運転者によるウインカーレバー13の操作があり、本来の指によるジェスチャを行ったものではないと捉えて、ステップS130で、ジェスチャはないものと認識する。つまり、センサ110は、ジェスチャの検知を無効として、この場合は、制御部120への出力は行わないようにする。
これにより、ウインカーレバー13に対する運転者の操作は、ジェスチャとして検知されないので、ウインカーレバー13の操作を誤入力として検知してしまうことを防止できる。
尚、上記のように本実施形態では、ウインカーレバー13の操作信号がセンサ110に入力されるようにしたが、これに限定されるものではない。例えば、センサ110が運転者の左手に対応する位置に配置された場合に、ステアリングコラム10aの左側に配置されるワイパーレバーをスイッチ部と捉えて、適用するものとしてもよい。つまり、ワイパーレバーの操作信号をセンサ110に入力するようにして、ワイパーレバーの操作があった場合には、指の動きをジェスチャと認識しないようにするのである。これにより、ワイパーレバーの操作を誤入力として検知してしまうことを防止できる。
(その他の実施形態)
上記各実施形態では、検知装置110として、近赤外線センサ、あるいは遠赤外線センサとしたが、この他にも、複数の方向から同時に撮影して奥行方向の情報も記録できるステレオカメラ、あるいは、ToF(Time of Flight)方式を用いて対象物を立体的に撮影するToFカメラ等を用いてもよい。
上記各実施形態では、検知装置110として、近赤外線センサ、あるいは遠赤外線センサとしたが、この他にも、複数の方向から同時に撮影して奥行方向の情報も記録できるステレオカメラ、あるいは、ToF(Time of Flight)方式を用いて対象物を立体的に撮影するToFカメラ等を用いてもよい。
また、指のジェスチャを左右方向のもの、あるいは上下方向のものとしたが、これに限定されることなく、指とセンサ110との位置関係を考慮することで、斜め方向のジェスチャ、前後方向のジェスチャ等を定義付けして、対応することが可能である。
また、検知したジェスチャと制御内容との対応付けも、上記実施形態に限定されることなく、種々設定が可能である。
10 ステアリング
10a ステアリングコラム
11 インストルメントパネル(ステアリングコラムの近傍)
13 ウインカーレバー(スイッチ部)
100、100A 操作入力装置
110 センサ(検知装置)
10a ステアリングコラム
11 インストルメントパネル(ステアリングコラムの近傍)
13 ウインカーレバー(スイッチ部)
100、100A 操作入力装置
110 センサ(検知装置)
Claims (2)
- 車両に搭載されて、操作者の指のジェスチャを検知する検知装置であって、
前記車両のステアリング(10)の背面側となるステアリングコラム(10a)、あるいは前記ステアリングコラム(10a)の近傍(11)に配置されて、前記配置された位置から前記ステアリング(10)側に向けて所定範囲の空間を検知対象とすることを特徴とする検知装置。 - 前記ステアリング(10)の背面側には、前記操作者が操作するスイッチ部(13)が設けられ、
前記スイッチ部(13)による入力信号が入力されるようになっており、
前記所定範囲の空間における前記ジェスチャを検知しても、前記入力信号があると、前記ジェスチャの検知を無効にすることを特徴とする請求項1に記載の検知装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014043142A JP2015168304A (ja) | 2014-03-05 | 2014-03-05 | 検知装置 |
US15/112,715 US9939912B2 (en) | 2014-03-05 | 2015-01-29 | Detection device and gesture input device |
PCT/JP2015/000391 WO2015133057A1 (ja) | 2014-03-05 | 2015-01-29 | 検知装置及びジェスチャ入力装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014043142A JP2015168304A (ja) | 2014-03-05 | 2014-03-05 | 検知装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015168304A true JP2015168304A (ja) | 2015-09-28 |
JP2015168304A5 JP2015168304A5 (ja) | 2016-04-14 |
Family
ID=54201442
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014043142A Pending JP2015168304A (ja) | 2014-03-05 | 2014-03-05 | 検知装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015168304A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210010007A (ko) * | 2019-07-19 | 2021-01-27 | 경북대학교 산학협력단 | 운전자위험도 추정시스템 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001216069A (ja) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
JP2003067108A (ja) * | 2001-08-23 | 2003-03-07 | Hitachi Ltd | 情報表示装置とその操作認識方法 |
JP2005047412A (ja) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | 非接触式情報入力装置 |
JP2005063092A (ja) * | 2003-08-11 | 2005-03-10 | Keio Gijuku | ハンドパターンスイッチ装置 |
JP2007164814A (ja) * | 2007-02-09 | 2007-06-28 | Toshiba Corp | インタフェース装置 |
JP2009248629A (ja) * | 2008-04-02 | 2009-10-29 | Hitachi Ltd | 車載機器の入力装置及び車載機器の入力方法 |
-
2014
- 2014-03-05 JP JP2014043142A patent/JP2015168304A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001216069A (ja) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
JP2003067108A (ja) * | 2001-08-23 | 2003-03-07 | Hitachi Ltd | 情報表示装置とその操作認識方法 |
JP2005047412A (ja) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | 非接触式情報入力装置 |
JP2005063092A (ja) * | 2003-08-11 | 2005-03-10 | Keio Gijuku | ハンドパターンスイッチ装置 |
JP2007164814A (ja) * | 2007-02-09 | 2007-06-28 | Toshiba Corp | インタフェース装置 |
JP2009248629A (ja) * | 2008-04-02 | 2009-10-29 | Hitachi Ltd | 車載機器の入力装置及び車載機器の入力方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210010007A (ko) * | 2019-07-19 | 2021-01-27 | 경북대학교 산학협력단 | 운전자위험도 추정시스템 |
KR102226842B1 (ko) | 2019-07-19 | 2021-03-11 | 경북대학교 산학협력단 | 운전자위험도 추정시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2015133057A1 (ja) | 検知装置及びジェスチャ入力装置 | |
KR102311551B1 (ko) | 자동 조정장치가 활성화되는 동안에 차량 내의 통신 단말기를 사용하기 위한 방법 및 차량 | |
JP5572761B2 (ja) | 車両用操作装置 | |
JP2013096736A (ja) | 車両用表示装置 | |
JP2007302116A (ja) | 車両搭載機器の操作装置 | |
JP6464869B2 (ja) | 操作システム | |
JP6331567B2 (ja) | 車両用表示入力装置 | |
JP6515028B2 (ja) | 車両用操作装置 | |
US20170147080A1 (en) | Operation apparatus for vehicle | |
US20180208212A1 (en) | User Interface Device for Selecting an Operating Mode for an Automated Drive | |
JP2013193670A (ja) | 表示制御装置 | |
JP6406088B2 (ja) | 操作システム | |
JP2006264615A (ja) | 車両用表示装置 | |
JP6477123B2 (ja) | 操作システム | |
JP2018144582A (ja) | 車載機器操作装置 | |
JP2010108185A (ja) | 表示制御システム、表示制御方法、及び表示制御プログラム | |
JP2010179828A (ja) | 車両用操作入力装置 | |
JP2010254199A (ja) | 車両用操作装置 | |
JP2017210027A (ja) | 車両の安全運転支援システムおよび安全運転支援方法 | |
JP2015184841A (ja) | ジェスチャ入力装置 | |
JP2015168304A (ja) | 検知装置 | |
JP2013224050A (ja) | 車両用表示装置 | |
JP6819539B2 (ja) | ジェスチャ入力装置 | |
JP2016051288A (ja) | 車両用入力インターフェイス | |
JP2016149094A (ja) | 車両用情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160229 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171205 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180605 |