JP6515028B2 - 車両用操作装置 - Google Patents

車両用操作装置 Download PDF

Info

Publication number
JP6515028B2
JP6515028B2 JP2015247110A JP2015247110A JP6515028B2 JP 6515028 B2 JP6515028 B2 JP 6515028B2 JP 2015247110 A JP2015247110 A JP 2015247110A JP 2015247110 A JP2015247110 A JP 2015247110A JP 6515028 B2 JP6515028 B2 JP 6515028B2
Authority
JP
Japan
Prior art keywords
image
vehicle
occupant
gesture
dashboard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015247110A
Other languages
English (en)
Other versions
JP2017111711A (ja
Inventor
智 羽田
智 羽田
和田 直樹
直樹 和田
杉山 晃
晃 杉山
絹枝 飯野
絹枝 飯野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2015247110A priority Critical patent/JP6515028B2/ja
Publication of JP2017111711A publication Critical patent/JP2017111711A/ja
Application granted granted Critical
Publication of JP6515028B2 publication Critical patent/JP6515028B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

この発明は、車両の操作入力として乗員のジェスチャを認識する車両用操作装置に関する。
特許文献1には、車両に搭載されるカーナビゲーション装置の画面の正面で乗員の手の動きを検知し、この手の動きに基づいてカーナビゲーション装置の一部の機能の操作を行う所謂ジェスチャ操作が開示されている。
特許文献2には、ステアリングホイールのパッド部分にバーチャルキーボード画像を投影し、乗員が触れた位置を検知することでキーボード入力を可能とする装置が開示されている。
特開2010−184600号公報 特開2005−321948号公報
特許文献1の装置では、操作対象(スイッチ操作部)がカーナビゲーション装置の画面に表示される。特許文献2の装置では、操作対象(バーチャルキーボード画像)がステアリングホイールのパッド部分に表示される。カーナビゲーション装置の画面やステアリングホイールのパッド部分は表面積が狭いため、ジェスチャによる操作領域が狭く操作しづらい。このため、乗員はジェスチャ操作に集中しなければならないうえ、誤操作も生じやすいという問題がある。更に、特許文献2の装置では、バーチャルキーボード画像の表示位置に直接触れて操作を行う必要があるため、主に操作を行う運転者から離れた位置に配置すると操作性が著しく低下するという問題がある。
本発明はこのような課題を考慮してなされたものであり、ジェスチャ操作でも誤操作が生じにくく、且つ、操作性のよい車両用操作装置を提供することを目的とする。
本発明は、車両の内装部材に設けられて乗員による操作の対象となる操作画像を表示する表示部と、前記操作画像に対する操作入力として前記乗員のジェスチャを認識するジェスチャ認識部と、前記操作画像に対する前記操作入力に応じて所定の制御を行う制御部と、を備える車両用操作装置であって、前記表示部は、前記車両の内装部材である助手席側のダッシュボード上に配置され、前記ジェスチャ認識部は、前記車両の車幅方向における運転席と助手席との間の位置で行われる前記乗員の身体の動きを前記ジェスチャとして認識することを特徴とする。
助手席側のダッシュボードには計器等が配置されない。たとえメータの表示領域拡大等で多少計器が配置されたとしてもその他に運転操作に必要な操作手段は配置されない。したがって、一般に助手席側のダッシュボードには広い領域が空いている。本発明によれば、助手席側のダッシュボードに操作画像を表示する。このため、操作画像の表示領域を広く確保することができ、ジェスチャ操作でも誤操作が生じにくいGUI(Graphical User Interface)を構成することが可能となる。また、運転席と助手席との間でジェスチャを認識する。このため、運転席に着座した乗員からでも助手席側の操作画像に対する操作が可能となり、操作性を確保することができる。
本発明において、前記操作画像は、選択対象として定位置に表示される固定画像と、前記ジェスチャ認識部により認識された前記ジェスチャに対応して前記操作画像の中を移動することで前記固定画像を選択可能に表示されるポインタ画像とを含んで構成されてもよい。ジェスチャ操作によりポインタ画像を操作可能にすると、操作画像はより操作しやすくなり、誤操作の少ないGUIを構成できる。また、操作画像が操作しやすくなると、乗員がジェスチャ操作に気をとられることがなくなる。
本発明において、前記制御部は、前記ポインタ画像が前記固定画像の領域に接触又は所定距離以下に接近したときに前記固定画像を選択し、前記固定画像の機能に応じた前記所定の制御を行うようにしてもよい。本発明によれば、ポインタ画像で固定画像を選択するのみで機能が実行されるため、より操作性をよくすることができる。また、操作性がよくなると、乗員がジェスチャ操作に気をとられることがなくなる。
本発明において、前記表示部は、前記操作画像を投影するプロジェクタを備え、前記ダッシュボードの表面に、凹形状となる凹部と、該凹部に対して凸形状となる凸部とが形成されており、前記プロジェクタは、前記操作画像を投影する際に、前記操作画像を構成する画像のうち所定の領域を区画する境界線である画像境界線を、前記凹部と前記凸部との境界線である凹凸境界線と一致させることも可能である。本発明によれば、操作画像上の領域とダッシュボードの凹凸とが対応するようにプロジェクションマッピングを行うため、乗員にとって操作画像の領域がより認識しやすくなり、より操作性をよくすることができる。また、操作性がよくなると、乗員がジェスチャ操作に気をとられることがなくなる。
本発明において、前記操作画像を構成する画像のうち、選択対象として定位置に表示される前記固定画像と、前記固定画像とは異なるその他の画像の領域とを区画する境界線が、前記画像境界線として設定されてもよい。本発明によれば、ポインタ画像による選択対象である固定画像とその他の画像との区画と、ダッシュボード上の凹凸とを対応させるため、乗員にとって固定画像の領域が認識しやすくなる。また、固定画像の領域が認識しやすくなると、乗員がジェスチャ操作に気をとられることがなくなる。
本発明において、前記凹部は、前記ダッシュボードの一般面として形成され、前記凸部は、前記一般面に対して車両室内側に凸となるように形成され、前記凸部は、前記ダッシュボードに対する取り付け及び前記ダッシュボードからの取り外しが可能としてもよい。本発明によれば、凸部を着脱可能に構成することで、GUIの変更やジェスチャ操作を用いない場合の汎用性が高まる。
本発明において、前記車両の天井には、後席用ルーフコンソールが備えられ、前記プロジェクタは、前記後席用ルーフコンソールに一体に設けられてもよい。
本発明によれば、操作画像を投影するプロジェクション方式を用いる場合でも乗員に遮られる可能性が低い。また、助手席側ダッシュボードから運転席側インストルメントパネルにかけて表示部を拡大した場合でも対応可能である。
本発明において、前記ジェスチャ認識部は、認識した前記ジェスチャが前記運転席側の乗員によるものか前記助手席側の乗員によるものかを判別し、前記制御部は、前記ジェスチャ認識部による前記判別の結果に応じて異なる制御を行うようにしてもよい。本発明によれば、運転席側からの操作と助手席側からの操作を判別することにより利便性が向上する。例えば、煩雑な操作に関しては、運転席側からは禁止する一方で、助手席側からは許容する等の対応をすることができる。
本発明において、前記ジェスチャ認識部は、前記車両室内の所定箇所に設けられて前記乗員の手腕を撮像するカメラを備え、前記カメラの撮像情報により前記ジェスチャを認識するとともに、前記カメラの撮像範囲に対する前記手腕の進入位置又は進入角度により前記判別を行うようにしてもよい。本発明によれば、運転席側からの操作と助手席側からの操作との判別を、特別な構成を追加することなく画像解析のみで容易に行うことができる。
本発明において、前記車両には、加減速操作及び操舵操作を前記乗員の操作により行う手動運転モードと、前記車両の加減速操作及び操舵操作のうち少なくとも一方を前記車両が自律的に行う運転支援モードとが切替可能に設定され、前記表示部は、前記運転支援モードの間に表示する前記操作画像を、前記手動運転モードの間に表示する前記操作画像よりも拡大してもよい。本発明によれば、操作画像の表示時点での運転モードに応じて自動的に表示領域を変更することで、適切なコンテンツを表示することができ、利便性が向上する。
本発明によれば、操作画像の表示領域を広く確保することができ、ジェスチャ操作でも誤操作が生じにくいGUIを構成することが可能となる。また、運転席に着座した乗員からでも助手席側の操作画像に対する操作が可能となり、操作性を確保することができる。
図1は車両の内装を簡略化した模式図である。 図2Aはダッシュボードの正面図であり、図2Bはダッシュボードの断面図である。 図3は本実施形態に係る車両用操作装置のブロック図である。 図4は第1操作画像を模式化した模式図である。 図5は第1操作画像を模式化した模式図である。 図6は第1操作画像を模式化した模式図である。 図7は第2操作画像を模式化した模式図である。 図8は第2操作画像を模式化した模式図である。 図9は第2操作画像を模式化した模式図である。 図10は車両用操作装置の動作1のフローチャートである。 図11は車両用操作装置の動作2のフローチャートである。 図12は車両用操作装置の動作3のフローチャートである。 図13は車両用操作装置の動作4のフローチャートである。 図14は本実施形態の関連技術に関する車両の外観図である。 図15は本実施形態に係る車両用操作装置の変形例のブロック図である。
以下、本発明に係る車両用操作装置40について、好適な実施形態を挙げ、添付の図面を参照して詳細に説明する。
[1.車両10の内装]
図1を用いて車両10の内装について説明する。図1では説明の容易化のため、車両10の内装をデフォルメして示している。車両10の車室12内には正面に向けて運転席14と助手席16とが設けられる。運転席14と助手席16の正面にはダッシュボード18が設けられる。ダッシュボード18の上方にはフロントウインドウ20が設けられ、フロントウインドウ20の上部中央にはルームミラー22が設けられる。ルームミラー22の近傍のルーフ24にはカメラ26が設けられる。また、ルーフ24において、車幅方向の略中央であり、且つ、運転席14及び助手席16の上方又は後方には、後席用ルーフコンソール28が設けられる。後席用ルーフコンソール28には、モニタやルームランプの他に、プロジェクタ30が一体に設けられる。
カメラ26は、予め定められた空間、例えば、車両10の車幅方向における運転席14と助手席16との間であってダッシュボード18に近い空間に向けて配置されており、この空間内で乗員が行うジェスチャ操作を撮影する。カメラ26は2次元又は3次元の位置検出用センサを備えており、例えば、TOF(Time Of Flight)カメラやCCDカメラ等を使用可能である。カメラ26がモーションセンサを備えていてもよい。この場合、乗員がジェスチャによる入力操作を行うときに撮像を開始できる。カメラ26は、撮像情報を後述する操作装置ECU42に有線又は無線にて送信する。
プロジェクタ30は、主に助手席16側のダッシュボード18に向けて配置される。プロジェクタ30は、後述する操作装置ECU42により制御され、車両10を操作するための操作画像(動画又は静止画)をダッシュボード18に投影する。すなわち、プロジェクタ30の投影面30aがダッシュボード18の表面に配置される。本実施形態では操作装置ECU42の制御部46がプロジェクタ30の投影位置及び操作画像等を制御する所謂プロジェクションマッピングが行われる。
[2.ダッシュボード18]
図2A、図2Bを用いてダッシュボード18について説明する。ダッシュボード18の表面はプロジェクタ30の投影面30a(図1参照)となる。ダッシュボード18の表面は、操作画像が鮮明に投影されるように表面加工が施される。例えば、特殊な塗料が塗布される。また、ダッシュボード18には、プロジェクタ30により投影される操作画像の中の立体表示物を実際の立体物に似せるために、車室12内に凸形状の立体物が設けられる。
具体的には、図2Aで示すように、ダッシュボード18の表面の所定位置には正面視で略円形の第1凸部34が設けられる。第1凸部34の車幅方向両側には正面視で略円形の第2凸部36、第3凸部38が設けられる。本明細書では、ダッシュボード18の表面のうち、第1凸部34、第2凸部36、第3凸部38以外の部分を一般面32と称する。図2Aで示す実施形態では、ダッシュボード18の表面のうち、第1凸部34、第2凸部36、第3凸部38と一般面32とを比較すると、一般面32の方が広い。一般面32に対して第1凸部34、第2凸部36、第3凸部38は凸形状となる。言い換えると、第1凸部34、第2凸部36、第3凸部38に対して一般面32は凹形状の凹部となる。
第1凸部34、第2凸部36、第3凸部38はダッシュボード18に固定されていてもよいし、ダッシュボード18の本体に取り付けることが可能であり且つダッシュボード18の本体から取り外すことが可能であってもよい。例えば、図2Bで示すように、第1凸部34の裏側には雄部34aが形成され、ダッシュボード18の本体表面には雌部18aが形成される。雄部34aが雌部18aに嵌められることにより、第1凸部34がダッシュボード18の本体に取り付けられる。第1凸部34は、正面視で中心部の高さ(表面32に対する垂直方向の高さ)が最も高く、中心部から放射方向に向かって徐々に高さが低くなる。なお、第2凸部36、第3凸部38は第1凸部34よりも小径であることを除いて、同じ形状、構造である。
なお、第1凸部34、第2凸部36、第3凸部38の大きさ、形状及び配置は図2A、図2Bで示す実施形態に限られない。雌部18aが複数の箇所に形成され、且つ、様々な形状の凸部が用意されていれば、ダッシュボード18の表面に様々なパターンの凹凸形状を形成することが可能となる。
[3.車両用操作装置40の構成]
図3を用いて車両用操作装置40の構成について説明する。本実施形態に係る車両用操作装置40は、乗員の手腕を撮像するカメラ26と、各種処理を行う操作装置ECU42と、操作画像が表示されるダッシュボード18と、ダッシュボード18に操作画像を投影するプロジェクタ30と、プロジェクタ30により投影される操作画像の情報を記憶する記憶装置48とを有する。カメラ26とプロジェクタ30に関しては図1を用いて既に説明している。また、ダッシュボード18に関しては図2A、図2Bを用いて既に説明している。
操作装置ECU42は、カメラ26で撮像された画像情報に基づいて所定の制御行う制御回路である。操作装置ECU42は、マイクロコンピュータを含む計算機であり、CPU(中央処理装置)、ROM(EEPROMも含む。)、RAM(ランダムアクセスメモリ)、その他、A/D変換器、D/A変換器等の入出力装置等を有する。操作装置ECU42は、CPUがROMに記録されているプログラムを読み出し実行することで各種機能実現部として機能する。本実施形態において、操作装置ECU42は、プログラムを実行することにより、認識部44、制御部46として機能する。操作装置ECU42は複数に分割されていてもよく、又は、他のECUと統合されてもよい。なお、操作装置ECU42は、他のハードウエアにより実現することも可能である。
認識部66は、カメラ26で撮像された画像情報から乗員の手腕を認識するとともに、手腕により行われるジェスチャ操作を認識するように構成される。制御部46は、操作画像(図4〜図6で示される第1操作画像62及び図7〜図9で示される第2操作画像80)の情報を読み込み、その操作画像をプロジェクタ30に投影させるように構成される。また、制御部46は、認識部44により認識されたジェスチャ操作に応じて、操作画像内の表示物を動作させるように構成される。更に、制御部46は、操作画像内で行われる操作に応じて、各種制御、例えばプロジェクタ30の画像遷移や車載ネットワーク上の他の機器の制御を行うように構成される。制御部46はダッシュボード18の各部の位置と操作画像の内容に基づいて、プロジェクタ30の投影面31の位置を制御する。
記憶装置48は、1以上の操作画像を記憶する。記憶装置48は、操作装置ECU42から画像要求を入力し、要求に応じた操作画像の情報を操作装置ECU42に出力する。記憶装置48に記憶される操作画像の情報は、磁気ディスク、光学ディスク、フラッシュメモリのような記憶媒体、又は、通信等により更新可能である。
操作装置ECU42はバス50に接続される。バス50には他に運転支援ECU52、メータECU54、エアコンECU56、オーディオ装置58、カーナビゲーション装置60等が接続される。運転支援ECU52、操作装置ECU42、メータECU54、エアコンECU56、オーディオ装置58、カーナビゲーション装置60等により車載ネットワーク(例えばCAN)が構成される。操作装置ECU42、メータECU54、エアコンECU56、オーディオ装置58、カーナビゲーション装置60等はバス50を介して情報通信できる。
運転支援ECU52は、乗員のスイッチ操作により自動運転モード又は半自動運転モードが選択されているときに、駆動支援、制動支援、操舵支援の制御を行う。メータECU54は、メータの表示の制御を行う。エアコンECU56はエアコンの制御を行う。
[4.第1操作画像62]
図4〜図6を用いてダッシュボード18の表面に投影される第1操作画像62について説明する。操作装置ECU42の制御部46は、記憶装置48から図4で示すような第1操作画像62の情報を読み込んで、プロジェクタ30に対して表示指示を出力する。プロジェクタ30は表示指示を受けて、ダッシュボード18の表面に第1操作画像62を投影する。なお、図4で示す第1操作画像62は本実施形態で行われる画像遷移のうちの初期画像である。勿論、第1操作画像62は図4で示されるようなコンテンツに限らず、様々なコンテンツが可能である。
第1操作画像62はCG画像であって、車速のイメージを示す速度画像64と、レーダ探知のイメージを示すレーダ画像66と、燃料の残量のイメージを示す燃料画像68と、その他の画像70とを含む。
速度画像64は、車速に応じて動作する円形の表示物64aを有する。表示物64aは、速度画像64の中心から出現して放射方向に拡がり、縁部で消失する動作を繰り返す。表示物64aは、メータECU54(図3参照)から出力される速度情報又は車速センサ(図示せず)から出力される速度情報に基づいて動作する。プロジェクタ30は、速度画像64を第1凸部34の表面に投影する。この際、速度画像64とその周囲の画像とを区画する境界線である画像境界線64bを、一般面(凹部)32と第1凸部34との境界線である凹凸境界線34bと一致させる。
レーダ画像66は、車載レーダ(図示せず)の検知方向を示す表示物66aを有する。表示物66aは、一定周期でレーダ画像66の中心の回りを一方向に回転する。車載レーダが障害物を検知した場合、障害物の位置は、レーダ画像66の中で車両10を中心とする相対的な位置で示される。プロジェクタ30は、レーダ画像66を第2凸部36の表面に投影する。この際、レーダ画像66とその周囲の画像とを区画する境界線である画像境界線66bを、一般面(凹部)32と第2凸部36との境界線である凹凸境界線36bと一致させる。
燃料画像68は、燃料タンク内における燃料の増減に応じて動作する表示物68aを有する。表示物68aは、メータECU54(図3参照)から出力される燃料情報又は燃料の残量を計測するセンサ、例えばサーミスタ(図示せず)等から出力される残量情報に基づいて動作する。プロジェクタ30は、燃料画像68を第3凸部38の表面に投影する。この際、燃料画像68とその周囲の画像とを区画する境界線である画像境界線68bを、一般面(凹部)32と第3凸部38との境界線である凹凸境界線38bと一致させる。
ここで、ダッシュボード18の表面に図4で示す第1操作画像62が投影された状態で、カメラ26により乗員の手腕が撮像されたとする。このとき、第1操作画像62内の所定位置、ここでは右側に、図5で示すような領域画像74が表示される。更に、領域画像74からポインタ画像76が出現する。制御部46は、ポインタ画像76が出現した時点で、撮像空間内の乗員の手の位置とポインタ画像76の位置とを対応付ける。このようにすることで、乗員が手を移動させるジェスチャ操作を行うと、ポインタ画像76は第1操作画像62の中を移動する。
図6で示すように、乗員の手の動作に連動して、ポインタ画像76が第1操作画像62内の定位置近傍、ここでは下側近傍に移動したとする。このとき、移動先の定位置に第1固定画像78が表示される。第1固定画像78は、次画像への遷移を行うためのスイッチに相当する。ポインタ画像76が第1固定画像78に接触、又は、所定距離以下に接近すると、第1固定画像78に対応付けられた機能が選択される。本実施形態で、第1固定画像78に対応付けられた機能は、第1操作画像62から図7で示す第2操作画像80への遷移である。制御部46は、投影する画像を第1操作画像62から第2操作画像80に遷移させる。
[5.第2操作画像80]
図7〜図9を用いて第1操作画像62から遷移する第2操作画像80について説明する。操作装置ECU42の制御部46は、記憶装置48から図7で示すような第2操作画像80の情報を読み込んで、プロジェクタ30に対して表示指示を出力する。プロジェクタ30は表示指示を受けて、ダッシュボード18の表面に第2操作画像80を投影する。なお、図7で示す第2操作画像80は本実施形態で行われる画像遷移のうちの初期画像の次の階層の画像である。第1操作画像62と同様に、第2操作画像80も図5で示されるようなコンテンツに限らず、様々なコンテンツが可能である。
第2操作画像80はCG画像であって、メータのイメージを示すメータ画像82と、オーディオ装置58のイメージを示すオーディオ画像84と、カーナビゲーション装置60のイメージを示すナビ画像86と、エアコンのイメージを示すエアコン画像88とを含む。メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88は、各機器の表示画像又は操作画像への遷移を行うためのスイッチに相当する。更に、第2操作画像80は、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88の中心に第2固定画像90を有し、第2固定画像90を巡る軌道画像92を有する。
プロジェクタ30は、第2固定画像90を第1凸部34の表面に投影する。この際、第2固定画像90とその周囲の画像とを区画する境界線である画像境界線90bを、一般面(凹部)32と第1凸部34との境界線である凹凸境界線34bと一致させる。
乗員が予め定められた第1ジェスチャ操作、例えば掌を回転させる第1ジェスチャ操作を行うと、図8で示すように、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88は、軌道92に沿って回転する。また、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88のいずれかが第2固定画像90の正面に配置されているときに、乗員が予め定められた第2ジェスチャ操作、例えば手首を跳ね上げる第2ジェスチャ操作を行うと、図9で示すように、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88は、第2固定画像90の内部に移動する。すると、移動した画像82、84、86、88に対応付けられた機能が選択される。
乗員がメータ画像82を第2固定画像90の内部に移動させた場合、制御部46は、ダッシュボード18の表面の画像を第2操作画像80からメータパネルの表示画面の画像(図示なし)に遷移させる。このとき、メータECU54から車速等の表示値の情報を入力し、メータパネルの表示画面の画像に表示させる。更に、ダッシュボード18の表面にメータパネルの表示画面が投影されている状態で行われるジェスチャ操作に応じて、メータパネルに対して表示切り替え等の操作指示を出力する。
乗員がオーディオ画像84を第2固定画像90の内部に移動させた場合、制御部46は、ダッシュボード18の表面の画像を第2操作画像80からオーディオ装置58の操作画面の画像(図示なし)に遷移させる。このとき、オーディオ装置58から各種情報を入力し、オーディオ装置58の操作画面の画像に表示させる。更に、ダッシュボード18の表面にオーディオ装置58の操作画面が投影されている状態で行われるジェスチャ操作に応じて、オーディオ装置58に対してオーディオ操作の操作指示を出力する。
乗員がナビ画像86を第2固定画像90の内部に移動させた場合、制御部46は、ダッシュボード18の表面の画像を第2操作画像80からカーナビゲーション装置60の表示画面の画像(図示なし)に遷移させる。このとき、カーナビゲーション装置60から各種情報を入力し、カーナビゲーション装置60の表示画面の画像に表示させる。更に、ダッシュボード18の表面にカーナビゲーション装置60の表示画面が投影されている状態で行われるジェスチャ操作に応じて、カーナビゲーション装置60に対してナビ操作の操作指示を出力する。
乗員がエアコン画像88を第2固定画像90の内部に移動させた場合、制御部46は、ダッシュボード18の表面の画像を第2操作画像80からエアコンの操作画面の画像(図示なし)に遷移させる。このとき、エアコンECU56から設定温度等の設定値の情報を入力し、エアコンの操作画面を画像に表示させる。更に、ダッシュボード18にエアコンの操作画面が投影されている状態で行われるジェスチャ操作に応じて、エアコンECU56に対してエアコン操作の操作指示を出力する。
[6.車両用操作装置40の動作]
[6−1.動作1]
図10を用いて車両用操作装置40の動作1について説明する。以下の処理は所定のタイミング、例えば車両用操作装置40の電源が投入された時点で開始される。以下の処理では、ダッシュボード18の表面に、図4〜図6で示す第1操作画像62が投影されるものとする。
ステップS1にて、プロジェクタ30による第1操作画像62の投影と、カメラ26によるジェスチャ操作空間の撮像とが行われる。また、制御部46から投影指示を受けたプロジェクタ30はダッシュボード18の表面に第1操作画像62を投影する。また、カメラ26は運転席14と助手席16の間の空間を撮像する。操作装置ECU42の認識部44はカメラ26により撮像された撮像情報を入力して認識処理を行う。前述したように、カメラ26による撮像はモーションセンサの検知結果に応じて行われてもよいし、常時行われてもよい。また、動作が所定時間撮像されない場合にカメラ26による撮像を停止してもよい。
ステップS2にて、カメラ26の撮像情報から乗員の手が認識されたか否かが判定される。乗員がジェスチャ操作空間に手をかざすと、カメラ26により手が撮像され、認識部44により乗員の手が認識される。認識部44により乗員の手が認識された場合(ステップS2:YES)、ステップS3の処理に移行する。一方、認識部44により乗員の手が認識されない場合(ステップS2:NO)、ステップS2の処理が繰り返し実行される。
ステップS3にて、第1操作画像62においてポインタ画像76が表示される。制御部46はプロジェクタ30に対して表示指示を出力する。プロジェクタ30は表示指示にしたがって第1操作画像62を投影する。このとき、図5で示すように、第1操作画像62内には領域画像74が表示され、次いで領域画像74からポインタ画像76が出現する。
ステップS4にて、ポインタ画像76と乗員の手の対応付けが行われる。制御部46は、ポインタ画像76が出現した時点で、撮像空間内の乗員の手の位置とポインタ画像76の位置とを対応付ける。乗員が手を移動させた場合、認識部44で認識される手の移動量及び移動方向をポインタ画像76の移動量及び移動方向に変換する。そして、第1操作画像62の情報、及び、第1操作画像62の中で移動するポインタ画像76の情報をプロジェクタ30に出力する。このとき、手の所定部位、例えば指先の位置をポインタ画像76の位置と対応付けてもよいし、掌の位置をポインタ画像76の位置と対応付けてもよい。
ステップS5にて、ポインタ画像76による指示があるか否かが判定される。乗員の手腕の動作に連動してポインタ画像76は移動する。図6で示すように、ポインタ画像76が第1固定画像78に接触、又は、所定距離以下に接近した場合(ステップS5:YES)、ステップS6の処理に移行する。一方、ポインタ画像76が第1固定画像78に接触、又は、所定距離以下に接近していない場合(ステップS5:NO)、ステップS7の処理に移行する。
ステップS6にて、ジェスチャ操作により指示された処理が実行される。ポインタ画像76が接触した第1固定画像78に対応付けられた機能は、第1操作画像62から図7で示す第2操作画像80への遷移である。制御部46は、ダッシュボード18の表面に投影する画像を第1操作画像62から第2操作画像80に遷移させる。
ステップS7にて、カメラ26の撮像情報から乗員の手が認識されたか否かが判定される。認識部44により乗員の手が認識された場合(ステップS7:YES)、ステップS5の処理に移行する。ここでは乗員によるポインタ画像76の操作が継続される。一方、認識部44により乗員の手が認識されない場合(ステップS7:NO)、ステップS8の処理に移行する。
ステップS8にて、第1操作画像62においてポインタ画像76が非表示とされる。このとき、既に乗員の手腕がカメラ26により撮像されていないものと推定されるため、ポインタ画像76は非表示とされる。
[6−2.動作2]
図11を用いて車両用操作装置40の動作2について説明する。以下の処理は図10のステップS6処理の一例である。以下の処理では、ダッシュボード18の表面に、図7〜図9で示す第2操作画像80が投影されるものとする。
ステップS11にて、プロジェクタ30による第2操作画像80の投影と、カメラ26によるジェスチャ操作空間の撮像とが行われる。制御部46から投影指示を受けたプロジェクタ30はダッシュボード18の表面に第2操作画像80を投影する。また、カメラ26は運転席14と助手席16の間の空間を撮像する。操作装置ECU42の認識部44はカメラ26により撮像された撮像情報を入力して認識処理を行う。
ステップS12にて、カメラ26の撮像情報から乗員の手が認識されたか否かが判定される。乗員がジェスチャ操作空間に手をかざすと、カメラ26により手が撮像され、認識部44により乗員の手が認識される。認識部44により乗員の手が認識された場合(ステップS12:YES)、ステップS13の処理に移行する。一方、認識部44により乗員の手が認識されない場合(ステップS12:NO)、ステップS12の処理が繰り返し実行される。
ステップS13にて、カメラ26の撮像情報から乗員のジェスチャ操作による指示があるか否かが判定される。乗員が掌を回転させる第1ジェスチャを行うと、図8で示すように、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88は、軌道92に沿って回転する。また、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88のいずれかが第2固定画像90の正面に配置されているときに、乗員が予め定められた第2ジェスチャ操作、例えば手首を跳ね上げる第2ジェスチャ操作を行うと、図9で示すように、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88のいずれかは、第2固定画像90の内部に移動する。すると、移動した画像82、84、86、88に対応付けられた機能が選択される。
ステップS14にて、ジェスチャ操作により指示された処理が実行される。制御部46は、ダッシュボード18の表面に投影する画像を、第1操作画像62から、第2固定画像90に動かされた画像82、84、86、88に対応する操作画像又は表示画像に遷移させる。更に、ダッシュボード18の表面にその操作画像又は表示画像が投影された状態で行われるジェスチャ操作に応じて、メータパネル、エアコン、オーディオ装置58、カーナビゲーション装置60に操作指示を出力する。
[6−3.動作3]
図12を用いて車両用操作装置40の動作3について説明する。図12で示すステップS21〜ステップS24の処理は、図10で示すステップS1〜ステップS4の処理と一致する。また、図12で示すステップS27〜ステップS30の処理は、図10で示すステップS5〜ステップS8の処理と一致する。つまり、動作3は図10を用いて説明した動作1にステップS25及びステップS26の処理を付加したものである。以下では図10を用いて説明した動作1と同じ処理の説明を省略し、付加した処理のみを説明する。
ステップS24にて、ポインタ画像76と乗員の手の対応付けが行われた後、ステップS25にて、手腕の進入方向が判定される。認識部44は認識している手及び/又は腕が撮像領域に対して運転席側から進入するか、助手席側から進入するかを判別する。進入方向は、手腕の進入位置又は進入角度により判定可能である。運転席側から進入する場合(ステップS25:運転席側)、ステップS26の処理に移行する。一方、助手席側から進入する場合(ステップS25:助手席側)、ステップS27の処理に移行する。
ステップS26にて、一部操作が規制される。この処理は、ジェスチャ操作を行っている乗員が運転者である可能性が高い場合に行われる。制御部46は一部の操作、例えば、図7〜図9で示すナビ画像86を選択できなくしたり、オーディオ装置58の一部操作をできなくする。
[6−4.動作4]
図13を用いて車両用操作装置40の動作4について説明する。図10で示すステップS1、図12で示すステップS21の各処理で第1操作画像62を投影する際、及び/又は、図11で示すステップS11の処理で第2操作画像80を投影する際に図13で示すステップS41〜S43の処理が行われてもよい。
ステップS41にて、運転モードが判定される。制御部46は運転支援ECU52から出力される運転モード情報に基づいて運転モードを判定する。車両10が自動運転(半自動運転を含む)モードである場合(ステップS41:自動運転モード)、ステップS42の処理に移行する。一方、車両10が手動運転モードである場合(ステップS41:手動運転モード)、ステップS43の処理に移行する。
ステップS42にて、プロジェクタ30は操作画像(第1操作画像62、第2操作画像80)の表示範囲を拡大して投影する。このとき、制御部46はプロジェクタ30に対して表示領域の拡大を指示し、プロジェクタ30は指示に応じて操作画像を投影する。
ステップS43にて、プロジェクタ30は操作画像(第1操作画像62、第2操作画像80)の表示範囲を拡大せずに投影する。このとき、制御部46はプロジェクタ30に対して通常の表示領域を指示し、プロジェクタ30は指示に応じて操作画像を投影する。
[6−5.他の動作]
なお、ダッシュボード18には第1凸部34、第2凸部36、第3凸部38が設けられていなくてもよい。そのような場合は、投影面30aをずらしてもよい。例えば、次のような本実施形態では他の動作が行われてもよい。
カメラ26が3次元の位置を検知できる場合、例えばTOFカメラである場合、ジェスチャ操作を行う手腕の高さに応じて、第1操作画像62、第2操作画像80の投影高さを変えることも可能である。認識部44で認識される手の位置が高い場合、ジェスチャ操作している乗員が高身長である可能性が高い。この場合、第1操作画像62、第2操作画像80はダッシュボード18の上部に投影されることが好ましい。このため、制御部46はプロジェクタ30に対して表示領域をダッシュボード18の上部にするように指示し、プロジェクタ30は指示に応じて操作画像を投影する。一方、認識部44で認識される手の位置が低い場合、ジェスチャ操作している乗員が低身長である可能性が高い。この場合、第1操作画像62、第2操作画像80はダッシュボード18の下部に投影されることが好ましい。このため、制御部46はプロジェクタ30に対して表示領域をダッシュボード18の下部にするように指示し、プロジェクタ30は指示に応じて操作画像を投影する。
[7.関連技術]
本実施形態は次の構成を備えていてもよい。図14で示すように、車両10のルーフ100の側端にはカメラ102が設けられる。カメラ102は車両10の側方に向けて配置される。車室12内にはプロジェクタ104が設けられる。プロジェクタ104は後部スライドドア106のウインドウ108に向けて配置される。サイドミラー110にはプロジェクタ112が設けられる。プロジェクタ112は下方に向けて配置される。
この実施形態は次のように動作する。車両10に乗員が近づくと、カメラ102は乗員を撮像する。図示しないECUは、カメラ102の撮像情報に基づいて画像認識処理を行う。乗員であると同定された場合、更に乗員の位置を判定する。乗員の位置が後部スライドドア106周辺である場合、プロジェクタ104がウインドウ108に対して出迎え画像114を投影する。乗員の位置が前部ドア118周辺である場合、プロジェクタ112が地面に対して出迎え画像118を投影する。プロジェクタ104、112の投影等の制御主体はECUである。
なお、画像認識により乗員を認識する代わりに、運転者が携帯するキーと車両10との間の通信により乗員(運転者)を認識してもよい。
[8.変形例]
図3で示す車両用操作装置40は表示部としてプロジェクタ30を備えているが、図15で示す車両用操作装置40´のように表示部としてディスプレイ120を備えることも可能である。を備える。この場合、ダッシュボード18にディスプレイ120が埋め込まれる。また、ダッシュボード18の表面にディスプレイ120が取り付けられてもよい。ディスプレイ120は液晶パネルでもよいし有機ELでもよい。
[9.本実施形態のまとめ]
本実施形態に係る車両用操作装置40、40´は、車両10の内装部材に設けられて乗員による操作の対象となる操作画像(第1操作画像62、第2操作画像80、以下、操作画像62、80ともいう。)を表示する表示部(プロジェクタ30、投影面30a、ディスプレイ120、以下、表示部30、30a、120ともいう。)と、操作画像62、80に対する操作入力として乗員のジェスチャを認識するジェスチャ認識部(カメラ26、認識部44、以下ジェスチャ認識部26、44ともいう。)と、操作画像62、80に対する操作入力に応じて所定の制御を行う制御部46と、を備える。表示部30a、120は、車両10の内装部材である助手席16側のダッシュボード18上に配置される。ジェスチャ認識部26、44は、車両10の車幅方向における運転席14と助手席16との間の位置で行われる乗員の身体の動きをジェスチャとして認識する。
助手席16側のダッシュボード18には計器等が配置されない。たとえメータの表示領域拡大等で多少計器が配置されたとしてもその他に運転操作に必要な操作手段は配置されない。したがって、一般に助手席16側のダッシュボード18には広い領域が空いている。本実施形態によれば、助手席16側のダッシュボード18に操作画像62、80を表示する。このため、操作画像62、80の表示領域を広く確保することができ、ジェスチャ操作でも誤操作が生じにくいGUIを構成することが可能となる。また、運転席14と助手席16との間でジェスチャを認識する。このため、運転席14に着座した乗員からでも助手席16側の操作画像62、80に対する操作が可能となり、操作性を確保することができる。
操作画像62は、選択対象として定位置に表示される固定画像(第1固定画像78、以下、固定画像78ともいう。)と、ジェスチャ認識部26、44により認識されたジェスチャに対応して操作画像62の中を移動することで固定画像78を選択可能に表示されるポインタ画像76とを含んで構成される。ジェスチャ操作によりポインタ画像76を操作可能にすると、操作画像26はより操作しやすくなり、誤操作の少ないGUIを構成できる。また、操作画像が操作しやすくなると、乗員がジェスチャ操作に気をとられることがなくなる。
制御部46は、ポインタ画像76が固定画像78の領域に接触又は所定距離以下に接近したときに固定画像78を選択し、固定画像78の機能に応じた所定の制御を行う。このようにすることにより、ポインタ画像76で固定画像78を選択するのみで機能が実行されるため、より操作性をよくすることができる。また、操作性がよくなると、乗員がジェスチャ操作に気をとられることがなくなる。
表示部30は、操作画像62、80を投影するプロジェクタ30を備える。ダッシュボード18の表面には、凹形状となる凹部(一般面32、以下、凹部32ともいう。)と、凹部32に対して凸形状となる凸部(第1凸部34、第2凸部36、第3凸部38、以下、凸部34、36、38ともいう。)とが形成されている。プロジェクタ30は、操作画像62、80を投影する際に、操作画像62、80を構成する画像のうち所定の領域を区画する境界線である画像境界線64b、66b、68b、90bを、凹部32と凸部34、36、38との境界線である凹凸境界線34b、36b、38bと一致させる。このように、操作画像62、80上の領域とダッシュボード18の凹凸とが対応するようにプロジェクションマッピングを行うため、乗員にとって操作画像62、80の領域がより認識しやすくなり、より操作性をよくすることができる。また、操作性がよくなると、乗員がジェスチャ操作に気をとられることがなくなる。
操作画像62、80を構成する画像のうち、選択対象として定位置に表示される固定画像(第2固定画像90、以下、固定画像90という。)と、固定画像90とは異なるその他の画像の領域とを区画する境界線が、画像境界線90bとして設定される。このように、固定画像90とその他の画像との区画と、ダッシュボード18上の凹凸とを対応させるため、乗員にとって固定画像90の領域が認識しやすくなる。また、固定画像90の領域が認識しやすくなると、乗員がジェスチャ操作に気をとられることがなくなる。
凹部32は、ダッシュボード18の一般面32として形成される。また、凸部34、36、38は、一般面32に対して車室12内側に凸となるように形成される。そして、凸部34、36、38は、ダッシュボード18に対する取り付け及びダッシュボード18からの取り外しが可能である。このように凸部34、36、38を着脱可能に構成することで、GUIの変更やジェスチャ操作を用いない場合の汎用性が高まる。
車両10の天井(ルーフ24)には、後席用ルーフコンソール28が備えられる。プロジェクタ30は、後席用ルーフコンソール28に一体に設けられる。このようにすることにより、操作画像62、80を投影するプロジェクション方式を用いる場合でも乗員に遮られる可能性が低い。また、助手席16側のダッシュボード18から運転席14側のインストルメントパネルにかけて表示部30a、120を拡大した場合でも対応可能である。
ジェスチャ認識部26、44は、認識したジェスチャが運転席14側の乗員によるものか助手席16側の乗員によるものかを判別する。制御部46は、ジェスチャ認識部26、44による判別の結果に応じて異なる制御を行う。運転席14側からの操作と助手席16側からの操作を判別することにより利便性が向上する。例えば、煩雑な操作(例えばカーナビゲーション装置60の操作)に関しては、運転席14側からは禁止する一方で、助手席16側からは許容する等の対応をすることができる。
ジェスチャ認識部26、44は、車室12内の所定箇所に設けられて乗員の手腕を撮像するカメラ26を備え、カメラ26の撮像情報によりジェスチャを認識するし、カメラ26の撮像範囲に対する手腕の進入位置又は進入角度により判別を行う。このようにすることで、運転席14側からの操作と助手席16側からの操作との判別を、特別な構成を追加することなく画像解析のみで容易に行うことができる。
車両10には、加減速操作及び操舵操作を乗員の操作により行う手動運転モードと、車両10の加減速操作及び操舵操作のうち少なくとも一方を車両10が自律的に行う運転支援モードとが切替可能に設定される。表示部30a、120は、運転支援モードの間に表示する操作画像62、80を、手動運転モードの間に表示する操作画像62、80よりも拡大する。操作画像62、80の表示時点での運転モードに応じて自動的に表示領域を変更することで、適切なコンテンツを表示することができ、利便性が向上する。
10…車両 12…車室
14…運転席 16…助手席
26…カメラ 28…後席用ルーフコンソール
30…プロジェクタ 30a…投影面
32…一般面(凹部) 34…第1凸部
36…第2凸部 38…第3凸部
34b、36b、38b…凹凸境界線 40、40´…車両用操作装置
42…操作装置ECU 44…認識部
46…制御部 62…第1操作画像
64b、66b、68b、90b…画像境界線
78…第1固定画像 80…第2操作画像
90…第2固定画像 120…ディスプレイ

Claims (9)

  1. 車両の内装部材に設けられて乗員による操作の対象となる操作画像を表示する表示部と、
    前記操作画像に対する操作入力として前記乗員のジェスチャを認識するジェスチャ認識部と、
    前記操作画像に対する前記操作入力に応じて所定の制御を行う制御部と、を備える車両用操作装置であって、
    前記表示部は、前記車両の内装部材である助手席側のダッシュボード上に配置され、
    前記ジェスチャ認識部は、前記車両の車幅方向における運転席と助手席との間の位置で行われる前記乗員の身体の動きを前記ジェスチャとして認識するとともに、
    前記表示部は、前記操作画像を投影するプロジェクタを備え、前記ダッシュボードの一般面に、該一般面に対して凸形状となる凸部が形成されており、
    前記プロジェクタは、前記操作画像を投影する際に、前記操作画像を構成する画像のうち所定の領域を区画する境界線である画像境界線を、前記凸部と前記一般面との境界線に一致させること
    を特徴とする車両用操作装置。
  2. 請求項1に記載の車両用操作装置において、
    前記操作画像は、選択対象として定位置に表示される固定画像と、前記ジェスチャ認識部により認識された前記ジェスチャに対応して前記操作画像の中を移動することで前記固定画像を選択可能に表示されるポインタ画像とを含んで構成されること
    を特徴とする車両用操作装置。
  3. 請求項2に記載の車両用操作装置において、
    前記制御部は、前記ポインタ画像が前記固定画像の領域に接触又は所定距離以下に接近したときに前記固定画像を選択し、前記固定画像の機能に応じた前記所定の制御を行うこと
    を特徴とする車両用操作装置。
  4. 請求項2または3に記載の車両用操作装置において、
    前記操作画像を構成する画像のうち、選択対象として定位置に表示される前記固定画像と、前記固定画像とは異なるその他の画像の領域とを区画する境界線が、前記画像境界線として設定されること
    を特徴とする車両用操作装置。
  5. 請求項1〜4のいずれか1項に記載の車両用操作装置において
    記凸部は、前記ダッシュボードの前記一般面に対して車両室内側に凸形状となるように形成され、
    前記凸部は、前記ダッシュボードに対する取り付け及び前記ダッシュボードからの取り外しが可能であること
    を特徴とする車両用操作装置。
  6. 請求項1〜5のいずれか1項に記載の車両用操作装置において、
    前記車両の天井には、後席用ルーフコンソールが備えられ、
    前記プロジェクタは、前記後席用ルーフコンソールに一体に設けられること
    を特徴とする車両用操作装置。
  7. 請求項1〜のいずれか1項に記載の車両用操作装置において、
    前記ジェスチャ認識部は、認識した前記ジェスチャが前記運転席側の乗員によるものか前記助手席側の乗員によるものかを判別し、
    前記制御部は、前記ジェスチャ認識部による前記判別の結果に応じて異なる制御を行うこと
    を特徴とする車両用操作装置。
  8. 請求項に記載の車両用操作装置において、
    前記ジェスチャ認識部は、前記車両室内の所定箇所に設けられて前記乗員の手腕を撮像するカメラを備え、前記カメラの撮像情報により前記ジェスチャを認識するとともに、前記カメラの撮像範囲に対する前記手腕の進入位置又は進入角度により前記判別を行うこと
    を特徴とする車両用操作装置。
  9. 請求項1〜のいずれか1項に記載の車両用操作装置において、
    前記車両には、加減速操作及び操舵操作を前記乗員の操作により行う手動運転モードと、前記車両の加減速操作及び操舵操作のうち少なくとも一方を前記車両が自律的に行う運転支援モードとが切替可能に設定され、
    前記表示部は、前記運転支援モードの間に表示する前記操作画像を、前記手動運転モードの間に表示する前記操作画像よりも拡大すること
    を特徴とする車両用操作装置。
JP2015247110A 2015-12-18 2015-12-18 車両用操作装置 Active JP6515028B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015247110A JP6515028B2 (ja) 2015-12-18 2015-12-18 車両用操作装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015247110A JP6515028B2 (ja) 2015-12-18 2015-12-18 車両用操作装置

Publications (2)

Publication Number Publication Date
JP2017111711A JP2017111711A (ja) 2017-06-22
JP6515028B2 true JP6515028B2 (ja) 2019-05-15

Family

ID=59080790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015247110A Active JP6515028B2 (ja) 2015-12-18 2015-12-18 車両用操作装置

Country Status (1)

Country Link
JP (1) JP6515028B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107526239A (zh) * 2017-08-03 2017-12-29 深圳市奈士迪技术研发有限公司 一种用于汽车电影投影的智能投影设备
US10770035B2 (en) 2018-08-22 2020-09-08 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10698603B2 (en) 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US10788880B2 (en) 2018-10-22 2020-09-29 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
JP7354854B2 (ja) * 2019-05-14 2023-10-03 トヨタ紡織株式会社 プロジェクタ付き車両用ドア
KR102303422B1 (ko) * 2019-07-04 2021-09-23 한양대학교 에리카산학협력단 자율성 극대화를 위한 자율주행차량 제어 시스템 및 이를 위한 자율성 제공 서버
KR102443980B1 (ko) * 2020-11-17 2022-09-21 주식회사 아르비존 차량 제어 방법

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162783A (ja) * 1993-12-02 1995-06-23 Sony Corp 車載用プロジェクター装置
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US20080122799A1 (en) * 2001-02-22 2008-05-29 Pryor Timothy R Human interfaces for vehicles, homes, and other applications
JP2003237477A (ja) * 2002-02-13 2003-08-27 Mazda Motor Corp 車両のオーバーヘッドコンソール構造
JP2004065562A (ja) * 2002-08-06 2004-03-04 Heiwa Corp 投影型遊技機及び画面表示媒体
US20100231506A1 (en) * 2004-09-07 2010-09-16 Timothy Pryor Control of appliances, kitchen and home
JP2007286089A (ja) * 2006-04-12 2007-11-01 Seiko Epson Corp リアプロジェクションシステム、および遊技機
JP2010184600A (ja) * 2009-02-12 2010-08-26 Autonetworks Technologies Ltd 車載用ジェスチャースイッチ装置
EP2441635B1 (en) * 2010-10-06 2015-01-21 Harman Becker Automotive Systems GmbH Vehicle User Interface System
DE102011112447A1 (de) * 2011-09-03 2013-03-07 Volkswagen Aktiengesellschaft Verfahren und Anordnung zum Bereitstellen einer graphischen Nutzerschnittstelle, insbesondere in einem Fahrzeug
JP5916566B2 (ja) * 2012-08-29 2016-05-11 アルパイン株式会社 情報システム
JP5998839B2 (ja) * 2012-10-22 2016-09-28 株式会社デンソー 表示装置
JP2014089327A (ja) * 2012-10-30 2014-05-15 Toyota Motor Corp 画像表示システム、画像表示方法
JP2014235222A (ja) * 2013-05-31 2014-12-15 株式会社Jvcケンウッド 画像表示装置、画像表示システム
JP5962595B2 (ja) * 2013-06-14 2016-08-03 株式会社デンソー 車両用表示装置
JP2015019279A (ja) * 2013-07-11 2015-01-29 京セラディスプレイ株式会社 電子機器
JP6244822B2 (ja) * 2013-10-30 2017-12-13 トヨタ車体株式会社 車載用表示システム
KR101537936B1 (ko) * 2013-11-08 2015-07-21 현대자동차주식회사 차량 및 그 제어방법
US9430046B2 (en) * 2014-01-16 2016-08-30 Denso International America, Inc. Gesture based image capturing system for vehicle
JP2015217798A (ja) * 2014-05-16 2015-12-07 三菱電機株式会社 車載情報表示制御装置

Also Published As

Publication number Publication date
JP2017111711A (ja) 2017-06-22

Similar Documents

Publication Publication Date Title
JP6515028B2 (ja) 車両用操作装置
EP2914475B1 (en) System and method for using gestures in autonomous parking
JP6801787B2 (ja) 駐車支援方法及び駐車支援装置
JP6555599B2 (ja) 表示システム、表示方法、およびプログラム
US10732760B2 (en) Vehicle and method for controlling the vehicle
KR102029842B1 (ko) 차량 제스처 인식 시스템 및 그 제어 방법
JP6244822B2 (ja) 車載用表示システム
US9205846B2 (en) Method and device for the control of functions in a vehicle using gestures performed in three-dimensional space, and related computer program product
US20160170495A1 (en) Gesture recognition apparatus, vehicle having the same, and method for controlling the vehicle
JP2010537288A (ja) 車両における情報表示方法および車両用表示装置
JP2007237919A (ja) 車両用入力操作装置
JP6014162B2 (ja) 入力装置
JP6464869B2 (ja) 操作システム
JP6805223B2 (ja) 車両用表示装置、車両用表示方法、およびプログラム
JP2007302116A (ja) 車両搭載機器の操作装置
KR20180091732A (ko) 사용자 인터페이스, 운송 수단 및 사용자 구별을 위한 방법
WO2019016936A1 (ja) 操作支援装置および操作支援方法
KR101946746B1 (ko) 차량에서 비-차량 오브젝트의 위치 결정
JP5067576B2 (ja) 表示制御システム、表示制御方法、及び表示制御プログラム
WO2018061603A1 (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP2020042417A (ja) 表示制御装置
JP2017007409A (ja) 車両用情報処理装置、車両用情報処理システム、および車両用情報処理プログラム
JP6662655B2 (ja) 車両用画像表示装置
JP2018190275A (ja) 車両用操作装置
WO2017017938A1 (ja) ジェスチャ操作システム、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R150 Certificate of patent or registration of utility model

Ref document number: 6515028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150