JP2017111711A - Operation device for vehicle - Google Patents
Operation device for vehicle Download PDFInfo
- Publication number
- JP2017111711A JP2017111711A JP2015247110A JP2015247110A JP2017111711A JP 2017111711 A JP2017111711 A JP 2017111711A JP 2015247110 A JP2015247110 A JP 2015247110A JP 2015247110 A JP2015247110 A JP 2015247110A JP 2017111711 A JP2017111711 A JP 2017111711A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- gesture
- operating device
- occupant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
この発明は、車両の操作入力として乗員のジェスチャを認識する車両用操作装置に関する。 The present invention relates to an operation device for a vehicle that recognizes an occupant's gesture as an operation input of the vehicle.
特許文献1には、車両に搭載されるカーナビゲーション装置の画面の正面で乗員の手の動きを検知し、この手の動きに基づいてカーナビゲーション装置の一部の機能の操作を行う所謂ジェスチャ操作が開示されている。
特許文献2には、ステアリングホイールのパッド部分にバーチャルキーボード画像を投影し、乗員が触れた位置を検知することでキーボード入力を可能とする装置が開示されている。
特許文献1の装置では、操作対象(スイッチ操作部)がカーナビゲーション装置の画面に表示される。特許文献2の装置では、操作対象(バーチャルキーボード画像)がステアリングホイールのパッド部分に表示される。カーナビゲーション装置の画面やステアリングホイールのパッド部分は表面積が狭いため、ジェスチャによる操作領域が狭く操作しづらい。このため、乗員はジェスチャ操作に集中しなければならないうえ、誤操作も生じやすいという問題がある。更に、特許文献2の装置では、バーチャルキーボード画像の表示位置に直接触れて操作を行う必要があるため、主に操作を行う運転者から離れた位置に配置すると操作性が著しく低下するという問題がある。
In the device of
本発明はこのような課題を考慮してなされたものであり、ジェスチャ操作でも誤操作が生じにくく、且つ、操作性のよい車両用操作装置を提供することを目的とする。 The present invention has been made in consideration of such problems, and an object of the present invention is to provide a vehicular operating device that is less likely to be erroneously operated even by a gesture operation and that has good operability.
本発明は、車両の内装部材に設けられて乗員による操作の対象となる操作画像を表示する表示部と、前記操作画像に対する操作入力として前記乗員のジェスチャを認識するジェスチャ認識部と、前記操作画像に対する前記操作入力に応じて所定の制御を行う制御部と、を備える車両用操作装置であって、前記表示部は、前記車両の内装部材である助手席側のダッシュボード上に配置され、前記ジェスチャ認識部は、前記車両の車幅方向における運転席と助手席との間の位置で行われる前記乗員の身体の動きを前記ジェスチャとして認識することを特徴とする。 The present invention provides a display unit that is provided on an interior member of a vehicle and displays an operation image to be operated by an occupant, a gesture recognition unit that recognizes the occupant's gesture as an operation input for the operation image, and the operation image A control unit that performs a predetermined control in response to the operation input to the vehicle, wherein the display unit is disposed on a dashboard on a passenger seat side that is an interior member of the vehicle, The gesture recognizing unit recognizes the movement of the occupant's body performed at the position between the driver's seat and the passenger seat in the vehicle width direction of the vehicle as the gesture.
助手席側のダッシュボードには計器等が配置されない。たとえメータの表示領域拡大等で多少計器が配置されたとしてもその他に運転操作に必要な操作手段は配置されない。したがって、一般に助手席側のダッシュボードには広い領域が空いている。本発明によれば、助手席側のダッシュボードに操作画像を表示する。このため、操作画像の表示領域を広く確保することができ、ジェスチャ操作でも誤操作が生じにくいGUI(Graphical User Interface)を構成することが可能となる。また、運転席と助手席との間でジェスチャを認識する。このため、運転席に着座した乗員からでも助手席側の操作画像に対する操作が可能となり、操作性を確保することができる。 There are no instruments on the passenger side dashboard. Even if some instruments are arranged due to expansion of the display area of the meter or the like, no other operation means necessary for driving operation is arranged. Therefore, in general, a wide area is available on the dashboard on the passenger seat side. According to the present invention, the operation image is displayed on the passenger side dashboard. For this reason, a wide display area of the operation image can be secured, and it is possible to configure a GUI (Graphical User Interface) that is unlikely to cause an erroneous operation even in a gesture operation. In addition, a gesture is recognized between the driver seat and the passenger seat. For this reason, it is possible to operate the operation image on the passenger seat side even from an occupant seated in the driver's seat, thereby ensuring operability.
本発明において、前記操作画像は、選択対象として定位置に表示される固定画像と、前記ジェスチャ認識部により認識された前記ジェスチャに対応して前記操作画像の中を移動することで前記固定画像を選択可能に表示されるポインタ画像とを含んで構成されてもよい。ジェスチャ操作によりポインタ画像を操作可能にすると、操作画像はより操作しやすくなり、誤操作の少ないGUIを構成できる。また、操作画像が操作しやすくなると、乗員がジェスチャ操作に気をとられることがなくなる。 In the present invention, the operation image is a fixed image displayed at a fixed position as a selection target, and the fixed image is moved by moving in the operation image corresponding to the gesture recognized by the gesture recognition unit. A pointer image displayed in a selectable manner may be included. When the pointer image can be operated by a gesture operation, the operation image becomes easier to operate, and a GUI with fewer erroneous operations can be configured. In addition, when the operation image becomes easy to operate, the occupant will not be concerned about the gesture operation.
本発明において、前記制御部は、前記ポインタ画像が前記固定画像の領域に接触又は所定距離以下に接近したときに前記固定画像を選択し、前記固定画像の機能に応じた前記所定の制御を行うようにしてもよい。本発明によれば、ポインタ画像で固定画像を選択するのみで機能が実行されるため、より操作性をよくすることができる。また、操作性がよくなると、乗員がジェスチャ操作に気をとられることがなくなる。 In the present invention, the control unit selects the fixed image when the pointer image is in contact with the fixed image area or approaches a predetermined distance or less, and performs the predetermined control according to the function of the fixed image. You may do it. According to the present invention, since the function is executed only by selecting the fixed image from the pointer image, the operability can be improved. Also, if the operability is improved, the passenger will not be concerned about the gesture operation.
本発明において、前記表示部は、前記操作画像を投影するプロジェクタを備え、前記ダッシュボードの表面に、凹形状となる凹部と、該凹部に対して凸形状となる凸部とが形成されており、前記プロジェクタは、前記操作画像を投影する際に、前記操作画像を構成する画像のうち所定の領域を区画する境界線である画像境界線を、前記凹部と前記凸部との境界線である凹凸境界線と一致させることも可能である。本発明によれば、操作画像上の領域とダッシュボードの凹凸とが対応するようにプロジェクションマッピングを行うため、乗員にとって操作画像の領域がより認識しやすくなり、より操作性をよくすることができる。また、操作性がよくなると、乗員がジェスチャ操作に気をとられることがなくなる。 In the present invention, the display unit includes a projector that projects the operation image, and a concave portion having a concave shape and a convex portion having a convex shape with respect to the concave portion are formed on the surface of the dashboard. When the projector projects the operation image, an image boundary line that is a boundary line that divides a predetermined area in the image constituting the operation image is a boundary line between the concave portion and the convex portion. It is also possible to match the uneven boundary line. According to the present invention, since the projection mapping is performed so that the region on the operation image corresponds to the unevenness of the dashboard, the region of the operation image can be more easily recognized by the occupant, and the operability can be improved. . Also, if the operability is improved, the passenger will not be concerned about the gesture operation.
本発明において、前記操作画像を構成する画像のうち、選択対象として定位置に表示される前記固定画像と、前記固定画像とは異なるその他の画像の領域とを区画する境界線が、前記画像境界線として設定されてもよい。本発明によれば、ポインタ画像による選択対象である固定画像とその他の画像との区画と、ダッシュボード上の凹凸とを対応させるため、乗員にとって固定画像の領域が認識しやすくなる。また、固定画像の領域が認識しやすくなると、乗員がジェスチャ操作に気をとられることがなくなる。 In the present invention, among the images constituting the operation image, a boundary line that divides the fixed image displayed at a fixed position as a selection target and a region of another image different from the fixed image is the image boundary. It may be set as a line. According to the present invention, since the section between the fixed image and the other image to be selected by the pointer image is associated with the unevenness on the dashboard, the area of the fixed image is easily recognized by the occupant. In addition, when the area of the fixed image becomes easy to recognize, the occupant does not care about the gesture operation.
本発明において、前記凹部は、前記ダッシュボードの一般面として形成され、前記凸部は、前記一般面に対して車両室内側に凸となるように形成され、前記凸部は、前記ダッシュボードに対する取り付け及び前記ダッシュボードからの取り外しが可能としてもよい。本発明によれば、凸部を着脱可能に構成することで、GUIの変更やジェスチャ操作を用いない場合の汎用性が高まる。 In this invention, the said recessed part is formed as a general surface of the said dashboard, the said convex part is formed so that it may protrude in a vehicle interior side with respect to the said general surface, and the said convex part is with respect to the said dashboard. Attachment and removal from the dashboard may be possible. According to the present invention, by configuring the convex portion to be detachable, versatility when a GUI change or a gesture operation is not used is enhanced.
本発明において、前記車両の天井には、後席用ルーフコンソールが備えられ、前記プロジェクタは、前記後席用ルーフコンソールに一体に設けられてもよい。 In the present invention, a rear seat roof console may be provided on a ceiling of the vehicle, and the projector may be provided integrally with the rear seat roof console.
本発明によれば、操作画像を投影するプロジェクション方式を用いる場合でも乗員に遮られる可能性が低い。また、助手席側ダッシュボードから運転席側インストルメントパネルにかけて表示部を拡大した場合でも対応可能である。 According to the present invention, even when a projection method for projecting an operation image is used, the possibility of being blocked by an occupant is low. Moreover, even when the display part is enlarged from the passenger side dashboard to the driver side instrument panel, it is possible to cope.
本発明において、前記ジェスチャ認識部は、認識した前記ジェスチャが前記運転席側の乗員によるものか前記助手席側の乗員によるものかを判別し、前記制御部は、前記ジェスチャ認識部による前記判別の結果に応じて異なる制御を行うようにしてもよい。本発明によれば、運転席側からの操作と助手席側からの操作を判別することにより利便性が向上する。例えば、煩雑な操作に関しては、運転席側からは禁止する一方で、助手席側からは許容する等の対応をすることができる。 In the present invention, the gesture recognizing unit determines whether the recognized gesture is by the driver's side passenger or the passenger's side passenger, and the control unit performs the determination by the gesture recognizing unit. Different control may be performed according to the result. According to the present invention, the convenience is improved by discriminating the operation from the driver seat side and the operation from the passenger seat side. For example, complicated operations can be prohibited from the driver's seat side but allowed from the passenger seat side.
本発明において、前記ジェスチャ認識部は、前記車両室内の所定箇所に設けられて前記乗員の手腕を撮像するカメラを備え、前記カメラの撮像情報により前記ジェスチャを認識するとともに、前記カメラの撮像範囲に対する前記手腕の進入位置又は進入角度により前記判別を行うようにしてもよい。本発明によれば、運転席側からの操作と助手席側からの操作との判別を、特別な構成を追加することなく画像解析のみで容易に行うことができる。 In the present invention, the gesture recognition unit includes a camera that is provided at a predetermined location in the vehicle cabin and images the hand of the occupant. The gesture recognition unit recognizes the gesture based on imaging information of the camera, and corresponds to an imaging range of the camera. You may make it perform the said determination by the approach position or approach angle of the said hand and arm. According to the present invention, it is possible to easily discriminate between an operation from the driver's seat side and an operation from the passenger seat side only by image analysis without adding a special configuration.
本発明において、前記車両には、加減速操作及び操舵操作を前記乗員の操作により行う手動運転モードと、前記車両の加減速操作及び操舵操作のうち少なくとも一方を前記車両が自律的に行う運転支援モードとが切替可能に設定され、前記表示部は、前記運転支援モードの間に表示する前記操作画像を、前記手動運転モードの間に表示する前記操作画像よりも拡大してもよい。本発明によれば、操作画像の表示時点での運転モードに応じて自動的に表示領域を変更することで、適切なコンテンツを表示することができ、利便性が向上する。 In the present invention, the vehicle has a driving support in which the vehicle autonomously performs at least one of a manual operation mode in which an acceleration / deceleration operation and a steering operation are performed by an operation of the occupant and an acceleration / deceleration operation and a steering operation of the vehicle. The mode may be set to be switchable, and the display unit may enlarge the operation image displayed during the driving support mode than the operation image displayed during the manual driving mode. According to the present invention, it is possible to display appropriate content by automatically changing the display area according to the operation mode at the time of displaying the operation image, and convenience is improved.
本発明によれば、操作画像の表示領域を広く確保することができ、ジェスチャ操作でも誤操作が生じにくいGUIを構成することが可能となる。また、運転席に着座した乗員からでも助手席側の操作画像に対する操作が可能となり、操作性を確保することができる。 According to the present invention, it is possible to secure a wide display area of an operation image, and it is possible to configure a GUI that is unlikely to cause an erroneous operation even with a gesture operation. In addition, even an occupant seated in the driver's seat can operate the operation image on the passenger seat side, and operability can be ensured.
以下、本発明に係る車両用操作装置40について、好適な実施形態を挙げ、添付の図面を参照して詳細に説明する。
DESCRIPTION OF EMBODIMENTS Hereinafter, a
[1.車両10の内装]
図1を用いて車両10の内装について説明する。図1では説明の容易化のため、車両10の内装をデフォルメして示している。車両10の車室12内には正面に向けて運転席14と助手席16とが設けられる。運転席14と助手席16の正面にはダッシュボード18が設けられる。ダッシュボード18の上方にはフロントウインドウ20が設けられ、フロントウインドウ20の上部中央にはルームミラー22が設けられる。ルームミラー22の近傍のルーフ24にはカメラ26が設けられる。また、ルーフ24において、車幅方向の略中央であり、且つ、運転席14及び助手席16の上方又は後方には、後席用ルーフコンソール28が設けられる。後席用ルーフコンソール28には、モニタやルームランプの他に、プロジェクタ30が一体に設けられる。
[1. Interior of vehicle 10]
The interior of the
カメラ26は、予め定められた空間、例えば、車両10の車幅方向における運転席14と助手席16との間であってダッシュボード18に近い空間に向けて配置されており、この空間内で乗員が行うジェスチャ操作を撮影する。カメラ26は2次元又は3次元の位置検出用センサを備えており、例えば、TOF(Time Of Flight)カメラやCCDカメラ等を使用可能である。カメラ26がモーションセンサを備えていてもよい。この場合、乗員がジェスチャによる入力操作を行うときに撮像を開始できる。カメラ26は、撮像情報を後述する操作装置ECU42に有線又は無線にて送信する。
The
プロジェクタ30は、主に助手席16側のダッシュボード18に向けて配置される。プロジェクタ30は、後述する操作装置ECU42により制御され、車両10を操作するための操作画像(動画又は静止画)をダッシュボード18に投影する。すなわち、プロジェクタ30の投影面30aがダッシュボード18の表面に配置される。本実施形態では操作装置ECU42の制御部46がプロジェクタ30の投影位置及び操作画像等を制御する所謂プロジェクションマッピングが行われる。
The
[2.ダッシュボード18]
図2A、図2Bを用いてダッシュボード18について説明する。ダッシュボード18の表面はプロジェクタ30の投影面30a(図1参照)となる。ダッシュボード18の表面は、操作画像が鮮明に投影されるように表面加工が施される。例えば、特殊な塗料が塗布される。また、ダッシュボード18には、プロジェクタ30により投影される操作画像の中の立体表示物を実際の立体物に似せるために、車室12内に凸形状の立体物が設けられる。
[2. Dashboard 18]
The
具体的には、図2Aで示すように、ダッシュボード18の表面の所定位置には正面視で略円形の第1凸部34が設けられる。第1凸部34の車幅方向両側には正面視で略円形の第2凸部36、第3凸部38が設けられる。本明細書では、ダッシュボード18の表面のうち、第1凸部34、第2凸部36、第3凸部38以外の部分を一般面32と称する。図2Aで示す実施形態では、ダッシュボード18の表面のうち、第1凸部34、第2凸部36、第3凸部38と一般面32とを比較すると、一般面32の方が広い。一般面32に対して第1凸部34、第2凸部36、第3凸部38は凸形状となる。言い換えると、第1凸部34、第2凸部36、第3凸部38に対して一般面32は凹形状の凹部となる。
Specifically, as shown in FIG. 2A, a first
第1凸部34、第2凸部36、第3凸部38はダッシュボード18に固定されていてもよいし、ダッシュボード18の本体に取り付けることが可能であり且つダッシュボード18の本体から取り外すことが可能であってもよい。例えば、図2Bで示すように、第1凸部34の裏側には雄部34aが形成され、ダッシュボード18の本体表面には雌部18aが形成される。雄部34aが雌部18aに嵌められることにより、第1凸部34がダッシュボード18の本体に取り付けられる。第1凸部34は、正面視で中心部の高さ(表面32に対する垂直方向の高さ)が最も高く、中心部から放射方向に向かって徐々に高さが低くなる。なお、第2凸部36、第3凸部38は第1凸部34よりも小径であることを除いて、同じ形状、構造である。
The 1st
なお、第1凸部34、第2凸部36、第3凸部38の大きさ、形状及び配置は図2A、図2Bで示す実施形態に限られない。雌部18aが複数の箇所に形成され、且つ、様々な形状の凸部が用意されていれば、ダッシュボード18の表面に様々なパターンの凹凸形状を形成することが可能となる。
In addition, the magnitude | size, the shape, and arrangement | positioning of the 1st
[3.車両用操作装置40の構成]
図3を用いて車両用操作装置40の構成について説明する。本実施形態に係る車両用操作装置40は、乗員の手腕を撮像するカメラ26と、各種処理を行う操作装置ECU42と、操作画像が表示されるダッシュボード18と、ダッシュボード18に操作画像を投影するプロジェクタ30と、プロジェクタ30により投影される操作画像の情報を記憶する記憶装置48とを有する。カメラ26とプロジェクタ30に関しては図1を用いて既に説明している。また、ダッシュボード18に関しては図2A、図2Bを用いて既に説明している。
[3. Configuration of Vehicle Operation Device 40]
The configuration of the
操作装置ECU42は、カメラ26で撮像された画像情報に基づいて所定の制御行う制御回路である。操作装置ECU42は、マイクロコンピュータを含む計算機であり、CPU(中央処理装置)、ROM(EEPROMも含む。)、RAM(ランダムアクセスメモリ)、その他、A/D変換器、D/A変換器等の入出力装置等を有する。操作装置ECU42は、CPUがROMに記録されているプログラムを読み出し実行することで各種機能実現部として機能する。本実施形態において、操作装置ECU42は、プログラムを実行することにより、認識部44、制御部46として機能する。操作装置ECU42は複数に分割されていてもよく、又は、他のECUと統合されてもよい。なお、操作装置ECU42は、他のハードウエアにより実現することも可能である。
The
認識部66は、カメラ26で撮像された画像情報から乗員の手腕を認識するとともに、手腕により行われるジェスチャ操作を認識するように構成される。制御部46は、操作画像(図4〜図6で示される第1操作画像62及び図7〜図9で示される第2操作画像80)の情報を読み込み、その操作画像をプロジェクタ30に投影させるように構成される。また、制御部46は、認識部44により認識されたジェスチャ操作に応じて、操作画像内の表示物を動作させるように構成される。更に、制御部46は、操作画像内で行われる操作に応じて、各種制御、例えばプロジェクタ30の画像遷移や車載ネットワーク上の他の機器の制御を行うように構成される。制御部46はダッシュボード18の各部の位置と操作画像の内容に基づいて、プロジェクタ30の投影面31の位置を制御する。
The
記憶装置48は、1以上の操作画像を記憶する。記憶装置48は、操作装置ECU42から画像要求を入力し、要求に応じた操作画像の情報を操作装置ECU42に出力する。記憶装置48に記憶される操作画像の情報は、磁気ディスク、光学ディスク、フラッシュメモリのような記憶媒体、又は、通信等により更新可能である。
The
操作装置ECU42はバス50に接続される。バス50には他に運転支援ECU52、メータECU54、エアコンECU56、オーディオ装置58、カーナビゲーション装置60等が接続される。運転支援ECU52、操作装置ECU42、メータECU54、エアコンECU56、オーディオ装置58、カーナビゲーション装置60等により車載ネットワーク(例えばCAN)が構成される。操作装置ECU42、メータECU54、エアコンECU56、オーディオ装置58、カーナビゲーション装置60等はバス50を介して情報通信できる。
The
運転支援ECU52は、乗員のスイッチ操作により自動運転モード又は半自動運転モードが選択されているときに、駆動支援、制動支援、操舵支援の制御を行う。メータECU54は、メータの表示の制御を行う。エアコンECU56はエアコンの制御を行う。
The driving
[4.第1操作画像62]
図4〜図6を用いてダッシュボード18の表面に投影される第1操作画像62について説明する。操作装置ECU42の制御部46は、記憶装置48から図4で示すような第1操作画像62の情報を読み込んで、プロジェクタ30に対して表示指示を出力する。プロジェクタ30は表示指示を受けて、ダッシュボード18の表面に第1操作画像62を投影する。なお、図4で示す第1操作画像62は本実施形態で行われる画像遷移のうちの初期画像である。勿論、第1操作画像62は図4で示されるようなコンテンツに限らず、様々なコンテンツが可能である。
[4. First operation image 62]
The
第1操作画像62はCG画像であって、車速のイメージを示す速度画像64と、レーダ探知のイメージを示すレーダ画像66と、燃料の残量のイメージを示す燃料画像68と、その他の画像70とを含む。
The
速度画像64は、車速に応じて動作する円形の表示物64aを有する。表示物64aは、速度画像64の中心から出現して放射方向に拡がり、縁部で消失する動作を繰り返す。表示物64aは、メータECU54(図3参照)から出力される速度情報又は車速センサ(図示せず)から出力される速度情報に基づいて動作する。プロジェクタ30は、速度画像64を第1凸部34の表面に投影する。この際、速度画像64とその周囲の画像とを区画する境界線である画像境界線64bを、一般面(凹部)32と第1凸部34との境界線である凹凸境界線34bと一致させる。
The
レーダ画像66は、車載レーダ(図示せず)の検知方向を示す表示物66aを有する。表示物66aは、一定周期でレーダ画像66の中心の回りを一方向に回転する。車載レーダが障害物を検知した場合、障害物の位置は、レーダ画像66の中で車両10を中心とする相対的な位置で示される。プロジェクタ30は、レーダ画像66を第2凸部36の表面に投影する。この際、レーダ画像66とその周囲の画像とを区画する境界線である画像境界線66bを、一般面(凹部)32と第2凸部36との境界線である凹凸境界線36bと一致させる。
The
燃料画像68は、燃料タンク内における燃料の増減に応じて動作する表示物68aを有する。表示物68aは、メータECU54(図3参照)から出力される燃料情報又は燃料の残量を計測するセンサ、例えばサーミスタ(図示せず)等から出力される残量情報に基づいて動作する。プロジェクタ30は、燃料画像68を第3凸部38の表面に投影する。この際、燃料画像68とその周囲の画像とを区画する境界線である画像境界線68bを、一般面(凹部)32と第3凸部38との境界線である凹凸境界線38bと一致させる。
The
ここで、ダッシュボード18の表面に図4で示す第1操作画像62が投影された状態で、カメラ26により乗員の手腕が撮像されたとする。このとき、第1操作画像62内の所定位置、ここでは右側に、図5で示すような領域画像74が表示される。更に、領域画像74からポインタ画像76が出現する。制御部46は、ポインタ画像76が出現した時点で、撮像空間内の乗員の手の位置とポインタ画像76の位置とを対応付ける。このようにすることで、乗員が手を移動させるジェスチャ操作を行うと、ポインタ画像76は第1操作画像62の中を移動する。
Here, it is assumed that the occupant's arm is imaged by the
図6で示すように、乗員の手の動作に連動して、ポインタ画像76が第1操作画像62内の定位置近傍、ここでは下側近傍に移動したとする。このとき、移動先の定位置に第1固定画像78が表示される。第1固定画像78は、次画像への遷移を行うためのスイッチに相当する。ポインタ画像76が第1固定画像78に接触、又は、所定距離以下に接近すると、第1固定画像78に対応付けられた機能が選択される。本実施形態で、第1固定画像78に対応付けられた機能は、第1操作画像62から図7で示す第2操作画像80への遷移である。制御部46は、投影する画像を第1操作画像62から第2操作画像80に遷移させる。
As shown in FIG. 6, it is assumed that the
[5.第2操作画像80]
図7〜図9を用いて第1操作画像62から遷移する第2操作画像80について説明する。操作装置ECU42の制御部46は、記憶装置48から図7で示すような第2操作画像80の情報を読み込んで、プロジェクタ30に対して表示指示を出力する。プロジェクタ30は表示指示を受けて、ダッシュボード18の表面に第2操作画像80を投影する。なお、図7で示す第2操作画像80は本実施形態で行われる画像遷移のうちの初期画像の次の階層の画像である。第1操作画像62と同様に、第2操作画像80も図5で示されるようなコンテンツに限らず、様々なコンテンツが可能である。
[5. Second operation image 80]
The
第2操作画像80はCG画像であって、メータのイメージを示すメータ画像82と、オーディオ装置58のイメージを示すオーディオ画像84と、カーナビゲーション装置60のイメージを示すナビ画像86と、エアコンのイメージを示すエアコン画像88とを含む。メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88は、各機器の表示画像又は操作画像への遷移を行うためのスイッチに相当する。更に、第2操作画像80は、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88の中心に第2固定画像90を有し、第2固定画像90を巡る軌道画像92を有する。
The
プロジェクタ30は、第2固定画像90を第1凸部34の表面に投影する。この際、第2固定画像90とその周囲の画像とを区画する境界線である画像境界線90bを、一般面(凹部)32と第1凸部34との境界線である凹凸境界線34bと一致させる。
The
乗員が予め定められた第1ジェスチャ操作、例えば掌を回転させる第1ジェスチャ操作を行うと、図8で示すように、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88は、軌道92に沿って回転する。また、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88のいずれかが第2固定画像90の正面に配置されているときに、乗員が予め定められた第2ジェスチャ操作、例えば手首を跳ね上げる第2ジェスチャ操作を行うと、図9で示すように、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88は、第2固定画像90の内部に移動する。すると、移動した画像82、84、86、88に対応付けられた機能が選択される。
When the occupant performs a predetermined first gesture operation, for example, a first gesture operation for rotating the palm, as shown in FIG. 8, the
乗員がメータ画像82を第2固定画像90の内部に移動させた場合、制御部46は、ダッシュボード18の表面の画像を第2操作画像80からメータパネルの表示画面の画像(図示なし)に遷移させる。このとき、メータECU54から車速等の表示値の情報を入力し、メータパネルの表示画面の画像に表示させる。更に、ダッシュボード18の表面にメータパネルの表示画面が投影されている状態で行われるジェスチャ操作に応じて、メータパネルに対して表示切り替え等の操作指示を出力する。
When the occupant moves the
乗員がオーディオ画像84を第2固定画像90の内部に移動させた場合、制御部46は、ダッシュボード18の表面の画像を第2操作画像80からオーディオ装置58の操作画面の画像(図示なし)に遷移させる。このとき、オーディオ装置58から各種情報を入力し、オーディオ装置58の操作画面の画像に表示させる。更に、ダッシュボード18の表面にオーディオ装置58の操作画面が投影されている状態で行われるジェスチャ操作に応じて、オーディオ装置58に対してオーディオ操作の操作指示を出力する。
When the occupant moves the
乗員がナビ画像86を第2固定画像90の内部に移動させた場合、制御部46は、ダッシュボード18の表面の画像を第2操作画像80からカーナビゲーション装置60の表示画面の画像(図示なし)に遷移させる。このとき、カーナビゲーション装置60から各種情報を入力し、カーナビゲーション装置60の表示画面の画像に表示させる。更に、ダッシュボード18の表面にカーナビゲーション装置60の表示画面が投影されている状態で行われるジェスチャ操作に応じて、カーナビゲーション装置60に対してナビ操作の操作指示を出力する。
When the occupant moves the
乗員がエアコン画像88を第2固定画像90の内部に移動させた場合、制御部46は、ダッシュボード18の表面の画像を第2操作画像80からエアコンの操作画面の画像(図示なし)に遷移させる。このとき、エアコンECU56から設定温度等の設定値の情報を入力し、エアコンの操作画面を画像に表示させる。更に、ダッシュボード18にエアコンの操作画面が投影されている状態で行われるジェスチャ操作に応じて、エアコンECU56に対してエアコン操作の操作指示を出力する。
When the occupant moves the
[6.車両用操作装置40の動作]
[6−1.動作1]
図10を用いて車両用操作装置40の動作1について説明する。以下の処理は所定のタイミング、例えば車両用操作装置40の電源が投入された時点で開始される。以下の処理では、ダッシュボード18の表面に、図4〜図6で示す第1操作画像62が投影されるものとする。
[6. Operation of
[6-1. Operation 1]
The
ステップS1にて、プロジェクタ30による第1操作画像62の投影と、カメラ26によるジェスチャ操作空間の撮像とが行われる。また、制御部46から投影指示を受けたプロジェクタ30はダッシュボード18の表面に第1操作画像62を投影する。また、カメラ26は運転席14と助手席16の間の空間を撮像する。操作装置ECU42の認識部44はカメラ26により撮像された撮像情報を入力して認識処理を行う。前述したように、カメラ26による撮像はモーションセンサの検知結果に応じて行われてもよいし、常時行われてもよい。また、動作が所定時間撮像されない場合にカメラ26による撮像を停止してもよい。
In step S1, the projection of the
ステップS2にて、カメラ26の撮像情報から乗員の手が認識されたか否かが判定される。乗員がジェスチャ操作空間に手をかざすと、カメラ26により手が撮像され、認識部44により乗員の手が認識される。認識部44により乗員の手が認識された場合(ステップS2:YES)、ステップS3の処理に移行する。一方、認識部44により乗員の手が認識されない場合(ステップS2:NO)、ステップS2の処理が繰り返し実行される。
In step S <b> 2, it is determined whether or not a passenger's hand has been recognized from the imaging information of the
ステップS3にて、第1操作画像62においてポインタ画像76が表示される。制御部46はプロジェクタ30に対して表示指示を出力する。プロジェクタ30は表示指示にしたがって第1操作画像62を投影する。このとき、図5で示すように、第1操作画像62内には領域画像74が表示され、次いで領域画像74からポインタ画像76が出現する。
In step S <b> 3, a
ステップS4にて、ポインタ画像76と乗員の手の対応付けが行われる。制御部46は、ポインタ画像76が出現した時点で、撮像空間内の乗員の手の位置とポインタ画像76の位置とを対応付ける。乗員が手を移動させた場合、認識部44で認識される手の移動量及び移動方向をポインタ画像76の移動量及び移動方向に変換する。そして、第1操作画像62の情報、及び、第1操作画像62の中で移動するポインタ画像76の情報をプロジェクタ30に出力する。このとき、手の所定部位、例えば指先の位置をポインタ画像76の位置と対応付けてもよいし、掌の位置をポインタ画像76の位置と対応付けてもよい。
In step S4, the
ステップS5にて、ポインタ画像76による指示があるか否かが判定される。乗員の手腕の動作に連動してポインタ画像76は移動する。図6で示すように、ポインタ画像76が第1固定画像78に接触、又は、所定距離以下に接近した場合(ステップS5:YES)、ステップS6の処理に移行する。一方、ポインタ画像76が第1固定画像78に接触、又は、所定距離以下に接近していない場合(ステップS5:NO)、ステップS7の処理に移行する。
In step S5, it is determined whether or not there is an instruction by the
ステップS6にて、ジェスチャ操作により指示された処理が実行される。ポインタ画像76が接触した第1固定画像78に対応付けられた機能は、第1操作画像62から図7で示す第2操作画像80への遷移である。制御部46は、ダッシュボード18の表面に投影する画像を第1操作画像62から第2操作画像80に遷移させる。
In step S6, the process instructed by the gesture operation is executed. The function associated with the first
ステップS7にて、カメラ26の撮像情報から乗員の手が認識されたか否かが判定される。認識部44により乗員の手が認識された場合(ステップS7:YES)、ステップS5の処理に移行する。ここでは乗員によるポインタ画像76の操作が継続される。一方、認識部44により乗員の手が認識されない場合(ステップS7:NO)、ステップS8の処理に移行する。
In step S <b> 7, it is determined whether or not the passenger's hand is recognized from the imaging information of the
ステップS8にて、第1操作画像62においてポインタ画像76が非表示とされる。このとき、既に乗員の手腕がカメラ26により撮像されていないものと推定されるため、ポインタ画像76は非表示とされる。
In step S8, the
[6−2.動作2]
図11を用いて車両用操作装置40の動作2について説明する。以下の処理は図10のステップS6処理の一例である。以下の処理では、ダッシュボード18の表面に、図7〜図9で示す第2操作画像80が投影されるものとする。
[6-2. Operation 2]
The
ステップS11にて、プロジェクタ30による第2操作画像80の投影と、カメラ26によるジェスチャ操作空間の撮像とが行われる。制御部46から投影指示を受けたプロジェクタ30はダッシュボード18の表面に第2操作画像80を投影する。また、カメラ26は運転席14と助手席16の間の空間を撮像する。操作装置ECU42の認識部44はカメラ26により撮像された撮像情報を入力して認識処理を行う。
In step S11, projection of the
ステップS12にて、カメラ26の撮像情報から乗員の手が認識されたか否かが判定される。乗員がジェスチャ操作空間に手をかざすと、カメラ26により手が撮像され、認識部44により乗員の手が認識される。認識部44により乗員の手が認識された場合(ステップS12:YES)、ステップS13の処理に移行する。一方、認識部44により乗員の手が認識されない場合(ステップS12:NO)、ステップS12の処理が繰り返し実行される。
In step S12, it is determined whether or not the passenger's hand is recognized from the imaging information of the
ステップS13にて、カメラ26の撮像情報から乗員のジェスチャ操作による指示があるか否かが判定される。乗員が掌を回転させる第1ジェスチャを行うと、図8で示すように、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88は、軌道92に沿って回転する。また、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88のいずれかが第2固定画像90の正面に配置されているときに、乗員が予め定められた第2ジェスチャ操作、例えば手首を跳ね上げる第2ジェスチャ操作を行うと、図9で示すように、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88のいずれかは、第2固定画像90の内部に移動する。すると、移動した画像82、84、86、88に対応付けられた機能が選択される。
In step S13, it is determined whether there is an instruction by the occupant's gesture operation from the imaging information of the
ステップS14にて、ジェスチャ操作により指示された処理が実行される。制御部46は、ダッシュボード18の表面に投影する画像を、第1操作画像62から、第2固定画像90に動かされた画像82、84、86、88に対応する操作画像又は表示画像に遷移させる。更に、ダッシュボード18の表面にその操作画像又は表示画像が投影された状態で行われるジェスチャ操作に応じて、メータパネル、エアコン、オーディオ装置58、カーナビゲーション装置60に操作指示を出力する。
In step S14, the process instructed by the gesture operation is executed. The
[6−3.動作3]
図12を用いて車両用操作装置40の動作3について説明する。図12で示すステップS21〜ステップS24の処理は、図10で示すステップS1〜ステップS4の処理と一致する。また、図12で示すステップS27〜ステップS30の処理は、図10で示すステップS5〜ステップS8の処理と一致する。つまり、動作3は図10を用いて説明した動作1にステップS25及びステップS26の処理を付加したものである。以下では図10を用いて説明した動作1と同じ処理の説明を省略し、付加した処理のみを説明する。
[6-3. Operation 3]
The operation |
ステップS24にて、ポインタ画像76と乗員の手の対応付けが行われた後、ステップS25にて、手腕の進入方向が判定される。認識部44は認識している手及び/又は腕が撮像領域に対して運転席側から進入するか、助手席側から進入するかを判別する。進入方向は、手腕の進入位置又は進入角度により判定可能である。運転席側から進入する場合(ステップS25:運転席側)、ステップS26の処理に移行する。一方、助手席側から進入する場合(ステップS25:助手席側)、ステップS27の処理に移行する。
After the
ステップS26にて、一部操作が規制される。この処理は、ジェスチャ操作を行っている乗員が運転者である可能性が高い場合に行われる。制御部46は一部の操作、例えば、図7〜図9で示すナビ画像86を選択できなくしたり、オーディオ装置58の一部操作をできなくする。
In step S26, some operations are restricted. This process is performed when there is a high possibility that the occupant performing the gesture operation is a driver. The
[6−4.動作4]
図13を用いて車両用操作装置40の動作4について説明する。図10で示すステップS1、図12で示すステップS21の各処理で第1操作画像62を投影する際、及び/又は、図11で示すステップS11の処理で第2操作画像80を投影する際に図13で示すステップS41〜S43の処理が行われてもよい。
[6-4. Operation 4]
The
ステップS41にて、運転モードが判定される。制御部46は運転支援ECU52から出力される運転モード情報に基づいて運転モードを判定する。車両10が自動運転(半自動運転を含む)モードである場合(ステップS41:自動運転モード)、ステップS42の処理に移行する。一方、車両10が手動運転モードである場合(ステップS41:手動運転モード)、ステップS43の処理に移行する。
In step S41, the operation mode is determined. The
ステップS42にて、プロジェクタ30は操作画像(第1操作画像62、第2操作画像80)の表示範囲を拡大して投影する。このとき、制御部46はプロジェクタ30に対して表示領域の拡大を指示し、プロジェクタ30は指示に応じて操作画像を投影する。
In step S42, the
ステップS43にて、プロジェクタ30は操作画像(第1操作画像62、第2操作画像80)の表示範囲を拡大せずに投影する。このとき、制御部46はプロジェクタ30に対して通常の表示領域を指示し、プロジェクタ30は指示に応じて操作画像を投影する。
In step S43, the
[6−5.他の動作]
なお、ダッシュボード18には第1凸部34、第2凸部36、第3凸部38が設けられていなくてもよい。そのような場合は、投影面30aをずらしてもよい。例えば、次のような本実施形態では他の動作が行われてもよい。
[6-5. Other actions]
The
カメラ26が3次元の位置を検知できる場合、例えばTOFカメラである場合、ジェスチャ操作を行う手腕の高さに応じて、第1操作画像62、第2操作画像80の投影高さを変えることも可能である。認識部44で認識される手の位置が高い場合、ジェスチャ操作している乗員が高身長である可能性が高い。この場合、第1操作画像62、第2操作画像80はダッシュボード18の上部に投影されることが好ましい。このため、制御部46はプロジェクタ30に対して表示領域をダッシュボード18の上部にするように指示し、プロジェクタ30は指示に応じて操作画像を投影する。一方、認識部44で認識される手の位置が低い場合、ジェスチャ操作している乗員が低身長である可能性が高い。この場合、第1操作画像62、第2操作画像80はダッシュボード18の下部に投影されることが好ましい。このため、制御部46はプロジェクタ30に対して表示領域をダッシュボード18の下部にするように指示し、プロジェクタ30は指示に応じて操作画像を投影する。
When the
[7.関連技術]
本実施形態は次の構成を備えていてもよい。図14で示すように、車両10のルーフ100の側端にはカメラ102が設けられる。カメラ102は車両10の側方に向けて配置される。車室12内にはプロジェクタ104が設けられる。プロジェクタ104は後部スライドドア106のウインドウ108に向けて配置される。サイドミラー110にはプロジェクタ112が設けられる。プロジェクタ112は下方に向けて配置される。
[7. Related technology]
The present embodiment may have the following configuration. As shown in FIG. 14, a
この実施形態は次のように動作する。車両10に乗員が近づくと、カメラ102は乗員を撮像する。図示しないECUは、カメラ102の撮像情報に基づいて画像認識処理を行う。乗員であると同定された場合、更に乗員の位置を判定する。乗員の位置が後部スライドドア106周辺である場合、プロジェクタ104がウインドウ108に対して出迎え画像114を投影する。乗員の位置が前部ドア118周辺である場合、プロジェクタ112が地面に対して出迎え画像118を投影する。プロジェクタ104、112の投影等の制御主体はECUである。
なお、画像認識により乗員を認識する代わりに、運転者が携帯するキーと車両10との間の通信により乗員(運転者)を認識してもよい。
This embodiment operates as follows. When an occupant approaches the
Instead of recognizing the occupant by image recognition, the occupant (driver) may be recognized by communication between the key carried by the driver and the
[8.変形例]
図3で示す車両用操作装置40は表示部としてプロジェクタ30を備えているが、図15で示す車両用操作装置40´のように表示部としてディスプレイ120を備えることも可能である。を備える。この場合、ダッシュボード18にディスプレイ120が埋め込まれる。また、ダッシュボード18の表面にディスプレイ120が取り付けられてもよい。ディスプレイ120は液晶パネルでもよいし有機ELでもよい。
[8. Modified example]
The
[9.本実施形態のまとめ]
本実施形態に係る車両用操作装置40、40´は、車両10の内装部材に設けられて乗員による操作の対象となる操作画像(第1操作画像62、第2操作画像80、以下、操作画像62、80ともいう。)を表示する表示部(プロジェクタ30、投影面30a、ディスプレイ120、以下、表示部30、30a、120ともいう。)と、操作画像62、80に対する操作入力として乗員のジェスチャを認識するジェスチャ認識部(カメラ26、認識部44、以下ジェスチャ認識部26、44ともいう。)と、操作画像62、80に対する操作入力に応じて所定の制御を行う制御部46と、を備える。表示部30a、120は、車両10の内装部材である助手席16側のダッシュボード18上に配置される。ジェスチャ認識部26、44は、車両10の車幅方向における運転席14と助手席16との間の位置で行われる乗員の身体の動きをジェスチャとして認識する。
[9. Summary of this embodiment]
The
助手席16側のダッシュボード18には計器等が配置されない。たとえメータの表示領域拡大等で多少計器が配置されたとしてもその他に運転操作に必要な操作手段は配置されない。したがって、一般に助手席16側のダッシュボード18には広い領域が空いている。本実施形態によれば、助手席16側のダッシュボード18に操作画像62、80を表示する。このため、操作画像62、80の表示領域を広く確保することができ、ジェスチャ操作でも誤操作が生じにくいGUIを構成することが可能となる。また、運転席14と助手席16との間でジェスチャを認識する。このため、運転席14に着座した乗員からでも助手席16側の操作画像62、80に対する操作が可能となり、操作性を確保することができる。
No instrument or the like is arranged on the
操作画像62は、選択対象として定位置に表示される固定画像(第1固定画像78、以下、固定画像78ともいう。)と、ジェスチャ認識部26、44により認識されたジェスチャに対応して操作画像62の中を移動することで固定画像78を選択可能に表示されるポインタ画像76とを含んで構成される。ジェスチャ操作によりポインタ画像76を操作可能にすると、操作画像26はより操作しやすくなり、誤操作の少ないGUIを構成できる。また、操作画像が操作しやすくなると、乗員がジェスチャ操作に気をとられることがなくなる。
The
制御部46は、ポインタ画像76が固定画像78の領域に接触又は所定距離以下に接近したときに固定画像78を選択し、固定画像78の機能に応じた所定の制御を行う。このようにすることにより、ポインタ画像76で固定画像78を選択するのみで機能が実行されるため、より操作性をよくすることができる。また、操作性がよくなると、乗員がジェスチャ操作に気をとられることがなくなる。
The
表示部30は、操作画像62、80を投影するプロジェクタ30を備える。ダッシュボード18の表面には、凹形状となる凹部(一般面32、以下、凹部32ともいう。)と、凹部32に対して凸形状となる凸部(第1凸部34、第2凸部36、第3凸部38、以下、凸部34、36、38ともいう。)とが形成されている。プロジェクタ30は、操作画像62、80を投影する際に、操作画像62、80を構成する画像のうち所定の領域を区画する境界線である画像境界線64b、66b、68b、90bを、凹部32と凸部34、36、38との境界線である凹凸境界線34b、36b、38bと一致させる。このように、操作画像62、80上の領域とダッシュボード18の凹凸とが対応するようにプロジェクションマッピングを行うため、乗員にとって操作画像62、80の領域がより認識しやすくなり、より操作性をよくすることができる。また、操作性がよくなると、乗員がジェスチャ操作に気をとられることがなくなる。
The
操作画像62、80を構成する画像のうち、選択対象として定位置に表示される固定画像(第2固定画像90、以下、固定画像90という。)と、固定画像90とは異なるその他の画像の領域とを区画する境界線が、画像境界線90bとして設定される。このように、固定画像90とその他の画像との区画と、ダッシュボード18上の凹凸とを対応させるため、乗員にとって固定画像90の領域が認識しやすくなる。また、固定画像90の領域が認識しやすくなると、乗員がジェスチャ操作に気をとられることがなくなる。
Of the images constituting the
凹部32は、ダッシュボード18の一般面32として形成される。また、凸部34、36、38は、一般面32に対して車室12内側に凸となるように形成される。そして、凸部34、36、38は、ダッシュボード18に対する取り付け及びダッシュボード18からの取り外しが可能である。このように凸部34、36、38を着脱可能に構成することで、GUIの変更やジェスチャ操作を用いない場合の汎用性が高まる。
The
車両10の天井(ルーフ24)には、後席用ルーフコンソール28が備えられる。プロジェクタ30は、後席用ルーフコンソール28に一体に設けられる。このようにすることにより、操作画像62、80を投影するプロジェクション方式を用いる場合でも乗員に遮られる可能性が低い。また、助手席16側のダッシュボード18から運転席14側のインストルメントパネルにかけて表示部30a、120を拡大した場合でも対応可能である。
A rear
ジェスチャ認識部26、44は、認識したジェスチャが運転席14側の乗員によるものか助手席16側の乗員によるものかを判別する。制御部46は、ジェスチャ認識部26、44による判別の結果に応じて異なる制御を行う。運転席14側からの操作と助手席16側からの操作を判別することにより利便性が向上する。例えば、煩雑な操作(例えばカーナビゲーション装置60の操作)に関しては、運転席14側からは禁止する一方で、助手席16側からは許容する等の対応をすることができる。
The
ジェスチャ認識部26、44は、車室12内の所定箇所に設けられて乗員の手腕を撮像するカメラ26を備え、カメラ26の撮像情報によりジェスチャを認識するし、カメラ26の撮像範囲に対する手腕の進入位置又は進入角度により判別を行う。このようにすることで、運転席14側からの操作と助手席16側からの操作との判別を、特別な構成を追加することなく画像解析のみで容易に行うことができる。
The
車両10には、加減速操作及び操舵操作を乗員の操作により行う手動運転モードと、車両10の加減速操作及び操舵操作のうち少なくとも一方を車両10が自律的に行う運転支援モードとが切替可能に設定される。表示部30a、120は、運転支援モードの間に表示する操作画像62、80を、手動運転モードの間に表示する操作画像62、80よりも拡大する。操作画像62、80の表示時点での運転モードに応じて自動的に表示領域を変更することで、適切なコンテンツを表示することができ、利便性が向上する。
The
10…車両 12…車室
14…運転席 16…助手席
26…カメラ 28…後席用ルーフコンソール
30…プロジェクタ 30a…投影面
32…一般面(凹部) 34…第1凸部
36…第2凸部 38…第3凸部
34b、36b、38b…凹凸境界線 40、40´…車両用操作装置
42…操作装置ECU 44…認識部
46…制御部 62…第1操作画像
64b、66b、68b、90b…画像境界線
78…第1固定画像 80…第2操作画像
90…第2固定画像 120…ディスプレイ
DESCRIPTION OF
Claims (10)
前記操作画像に対する操作入力として前記乗員のジェスチャを認識するジェスチャ認識部と、
前記操作画像に対する前記操作入力に応じて所定の制御を行う制御部と、を備える車両用操作装置であって、
前記表示部は、前記車両の内装部材である助手席側のダッシュボード上に配置され、
前記ジェスチャ認識部は、前記車両の車幅方向における運転席と助手席との間の位置で行われる前記乗員の身体の動きを前記ジェスチャとして認識すること
を特徴とする車両用操作装置。 A display unit that is provided on an interior member of the vehicle and displays an operation image to be operated by an occupant;
A gesture recognition unit for recognizing the occupant's gesture as an operation input for the operation image;
A vehicle operation device comprising: a control unit that performs predetermined control according to the operation input with respect to the operation image;
The display unit is disposed on a dashboard on the passenger seat side which is an interior member of the vehicle,
The said gesture recognition part recognizes the motion of the said passenger | crew's body performed in the position between the driver's seat and front passenger seat in the vehicle width direction of the said vehicle as said gesture.
前記操作画像は、選択対象として定位置に表示される固定画像と、前記ジェスチャ認識部により認識された前記ジェスチャに対応して前記操作画像の中を移動することで前記固定画像を選択可能に表示されるポインタ画像とを含んで構成されること
を特徴とする車両用操作装置。 The vehicle operating device according to claim 1,
The operation image is a fixed image displayed at a fixed position as a selection target, and the fixed image can be selected by moving in the operation image corresponding to the gesture recognized by the gesture recognition unit. A vehicle operating device comprising a pointer image.
前記制御部は、前記ポインタ画像が前記固定画像の領域に接触又は所定距離以下に接近したときに前記固定画像を選択し、前記固定画像の機能に応じた前記所定の制御を行うこと
を特徴とする車両用操作装置。 The vehicle operating device according to claim 2,
The control unit selects the fixed image when the pointer image is in contact with the fixed image region or approaches a predetermined distance or less, and performs the predetermined control according to the function of the fixed image. A vehicle operating device.
前記表示部は、前記操作画像を投影するプロジェクタを備え、
前記ダッシュボードの表面に、凹形状となる凹部と、該凹部に対して凸形状となる凸部とが形成されており、
前記プロジェクタは、前記操作画像を投影する際に、前記操作画像を構成する画像のうち所定の領域を区画する境界線である画像境界線を、前記凹部と前記凸部との境界線である凹凸境界線と一致させること
を特徴とする車両用操作装置。 In the vehicle operating device according to any one of claims 1 to 3,
The display unit includes a projector that projects the operation image,
On the surface of the dashboard, a concave portion having a concave shape and a convex portion having a convex shape with respect to the concave portion are formed,
When the projector projects the operation image, the projector defines an image boundary line that is a boundary line that divides a predetermined region in the image constituting the operation image, and an unevenness that is a boundary line between the concave portion and the convex portion. An operating device for a vehicle, characterized by being matched with a boundary line.
前記操作画像を構成する画像のうち、選択対象として定位置に表示される前記固定画像と、前記固定画像とは異なるその他の画像の領域とを区画する境界線が、前記画像境界線として設定されること
を特徴とする車両用操作装置。 The vehicle operating device according to claim 4,
Of the images constituting the operation image, a boundary line that divides the fixed image displayed at a fixed position as a selection target and a region of another image different from the fixed image is set as the image boundary line. A vehicle operating device characterized by the above.
前記凹部は、前記ダッシュボードの一般面として形成され、
前記凸部は、前記一般面に対して車両室内側に凸となるように形成され、
前記凸部は、前記ダッシュボードに対する取り付け及び前記ダッシュボードからの取り外しが可能であること
を特徴とする車両用操作装置。 In the vehicle operating device according to claim 4 or 5,
The recess is formed as a general surface of the dashboard;
The convex portion is formed to be convex toward the vehicle interior side with respect to the general surface,
The vehicle operating device, wherein the convex portion is attachable to and detachable from the dashboard.
前記車両の天井には、後席用ルーフコンソールが備えられ、
前記プロジェクタは、前記後席用ルーフコンソールに一体に設けられること
を特徴とする車両用操作装置。 In the vehicle operating device according to any one of claims 4 to 6,
A roof console for the rear seat is provided on the ceiling of the vehicle,
The vehicle operating device, wherein the projector is provided integrally with the rear seat roof console.
前記ジェスチャ認識部は、認識した前記ジェスチャが前記運転席側の乗員によるものか前記助手席側の乗員によるものかを判別し、
前記制御部は、前記ジェスチャ認識部による前記判別の結果に応じて異なる制御を行うこと
を特徴とする車両用操作装置。 In the operating device for vehicles according to any one of claims 1 to 7,
The gesture recognizing unit determines whether the recognized gesture is by the driver's side passenger or the passenger's side passenger,
The vehicle operation device according to claim 1, wherein the control unit performs different control according to a result of the determination by the gesture recognition unit.
前記ジェスチャ認識部は、前記車両室内の所定箇所に設けられて前記乗員の手腕を撮像するカメラを備え、前記カメラの撮像情報により前記ジェスチャを認識するとともに、前記カメラの撮像範囲に対する前記手腕の進入位置又は進入角度により前記判別を行うこと
を特徴とする車両用操作装置。 The vehicle operating device according to claim 8, wherein
The gesture recognizing unit includes a camera that is provided at a predetermined location in the vehicle interior and images the hand and arm of the occupant, recognizes the gesture based on imaging information of the camera, and enters the hand and arm with respect to an imaging range of the camera. The vehicle operating device characterized in that the determination is performed based on a position or an approach angle.
前記車両には、加減速操作及び操舵操作を前記乗員の操作により行う手動運転モードと、前記車両の加減速操作及び操舵操作のうち少なくとも一方を前記車両が自律的に行う運転支援モードとが切替可能に設定され、
前記表示部は、前記運転支援モードの間に表示する前記操作画像を、前記手動運転モードの間に表示する前記操作画像よりも拡大すること
を特徴とする車両用操作装置。 In the vehicle operating device according to any one of claims 1 to 9,
The vehicle is switched between a manual driving mode in which an acceleration / deceleration operation and a steering operation are performed by an operation of the occupant, and a driving support mode in which the vehicle autonomously performs at least one of the acceleration / deceleration operation and the steering operation of the vehicle. Set to possible,
The operation device for a vehicle, wherein the display unit enlarges the operation image displayed during the driving support mode as compared with the operation image displayed during the manual operation mode.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015247110A JP6515028B2 (en) | 2015-12-18 | 2015-12-18 | Vehicle control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015247110A JP6515028B2 (en) | 2015-12-18 | 2015-12-18 | Vehicle control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017111711A true JP2017111711A (en) | 2017-06-22 |
JP6515028B2 JP6515028B2 (en) | 2019-05-15 |
Family
ID=59080790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015247110A Active JP6515028B2 (en) | 2015-12-18 | 2015-12-18 | Vehicle control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6515028B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107526239A (en) * | 2017-08-03 | 2017-12-29 | 深圳市奈士迪技术研发有限公司 | A kind of intelligent projector equipment for automobile motion-picture projection |
CN111752382A (en) * | 2019-03-27 | 2020-10-09 | 株式会社斯巴鲁 | Non-contact operation device of vehicle and vehicle |
JP2020189622A (en) * | 2019-05-14 | 2020-11-26 | トヨタ紡織株式会社 | Vehicular door with projector |
US10890653B2 (en) | 2018-08-22 | 2021-01-12 | Google Llc | Radar-based gesture enhancement for voice interfaces |
KR20210005761A (en) * | 2019-07-04 | 2021-01-15 | 한양대학교 에리카산학협력단 | Autonomous vehicle control system for maximizing autonomy, and Autonomy providing server for the same |
JP2021504771A (en) * | 2018-08-24 | 2021-02-15 | グーグル エルエルシーGoogle LLC | Smartphones, systems and methods with radar systems |
US10930251B2 (en) | 2018-08-22 | 2021-02-23 | Google Llc | Smartphone-based radar system for facilitating awareness of user presence and orientation |
US11314312B2 (en) | 2018-10-22 | 2022-04-26 | Google Llc | Smartphone-based radar system for determining user intention in a lower-power mode |
KR20220067434A (en) * | 2020-11-17 | 2022-05-24 | 주식회사 아르비존 | Vehicle control method |
Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07162783A (en) * | 1993-12-02 | 1995-06-23 | Sony Corp | On-vehicle projector |
JP2003237477A (en) * | 2002-02-13 | 2003-08-27 | Mazda Motor Corp | Overhead console structure for vehicle |
JP2004065562A (en) * | 2002-08-06 | 2004-03-04 | Heiwa Corp | Projection type game machine and screen display |
JP2007286089A (en) * | 2006-04-12 | 2007-11-01 | Seiko Epson Corp | Rear projection system and game machine |
US20100182137A1 (en) * | 2002-07-03 | 2010-07-22 | Pryor Timothy R | Control systems involving novel physical controls and touch screens |
JP2010184600A (en) * | 2009-02-12 | 2010-08-26 | Autonetworks Technologies Ltd | Onboard gesture switch device |
US20110018832A1 (en) * | 2000-02-22 | 2011-01-27 | Pryor Timothy R | Human interfaces for vehicles, homes, and other applications |
EP2441635A1 (en) * | 2010-10-06 | 2012-04-18 | Harman Becker Automotive Systems GmbH | Vehicle User Interface System |
JP2012527847A (en) * | 2009-05-19 | 2012-11-08 | アップル インコーポレイテッド | Control of kitchen and household appliances |
JP2014048680A (en) * | 2012-08-29 | 2014-03-17 | Alpine Electronics Inc | Information system |
JP2014083923A (en) * | 2012-10-22 | 2014-05-12 | Denso Corp | Display device |
JP2014089327A (en) * | 2012-10-30 | 2014-05-15 | Toyota Motor Corp | Image display system and image display method |
US20140331185A1 (en) * | 2011-09-03 | 2014-11-06 | Volkswagen Ag | Method and array for providing a graphical user interface, in particular in a vehicle |
JP2014235222A (en) * | 2013-05-31 | 2014-12-15 | 株式会社Jvcケンウッド | Image display device and image display system |
JP2015001621A (en) * | 2013-06-14 | 2015-01-05 | 株式会社デンソー | Vehicle display device |
JP2015019279A (en) * | 2013-07-11 | 2015-01-29 | 京セラディスプレイ株式会社 | Electronic apparatus |
JP2015085807A (en) * | 2013-10-30 | 2015-05-07 | トヨタ車体株式会社 | On-vehicle display system |
US20150131857A1 (en) * | 2013-11-08 | 2015-05-14 | Hyundai Motor Company | Vehicle recognizing user gesture and method for controlling the same |
US20150199019A1 (en) * | 2014-01-16 | 2015-07-16 | Denso Corporation | Gesture based image capturing system for vehicle |
JP2015217798A (en) * | 2014-05-16 | 2015-12-07 | 三菱電機株式会社 | On-vehicle information display control device |
-
2015
- 2015-12-18 JP JP2015247110A patent/JP6515028B2/en active Active
Patent Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07162783A (en) * | 1993-12-02 | 1995-06-23 | Sony Corp | On-vehicle projector |
US20110018832A1 (en) * | 2000-02-22 | 2011-01-27 | Pryor Timothy R | Human interfaces for vehicles, homes, and other applications |
JP2003237477A (en) * | 2002-02-13 | 2003-08-27 | Mazda Motor Corp | Overhead console structure for vehicle |
US20100182137A1 (en) * | 2002-07-03 | 2010-07-22 | Pryor Timothy R | Control systems involving novel physical controls and touch screens |
JP2004065562A (en) * | 2002-08-06 | 2004-03-04 | Heiwa Corp | Projection type game machine and screen display |
JP2007286089A (en) * | 2006-04-12 | 2007-11-01 | Seiko Epson Corp | Rear projection system and game machine |
JP2010184600A (en) * | 2009-02-12 | 2010-08-26 | Autonetworks Technologies Ltd | Onboard gesture switch device |
JP2012527847A (en) * | 2009-05-19 | 2012-11-08 | アップル インコーポレイテッド | Control of kitchen and household appliances |
EP2441635A1 (en) * | 2010-10-06 | 2012-04-18 | Harman Becker Automotive Systems GmbH | Vehicle User Interface System |
US20140331185A1 (en) * | 2011-09-03 | 2014-11-06 | Volkswagen Ag | Method and array for providing a graphical user interface, in particular in a vehicle |
JP2014048680A (en) * | 2012-08-29 | 2014-03-17 | Alpine Electronics Inc | Information system |
JP2014083923A (en) * | 2012-10-22 | 2014-05-12 | Denso Corp | Display device |
JP2014089327A (en) * | 2012-10-30 | 2014-05-15 | Toyota Motor Corp | Image display system and image display method |
JP2014235222A (en) * | 2013-05-31 | 2014-12-15 | 株式会社Jvcケンウッド | Image display device and image display system |
JP2015001621A (en) * | 2013-06-14 | 2015-01-05 | 株式会社デンソー | Vehicle display device |
JP2015019279A (en) * | 2013-07-11 | 2015-01-29 | 京セラディスプレイ株式会社 | Electronic apparatus |
JP2015085807A (en) * | 2013-10-30 | 2015-05-07 | トヨタ車体株式会社 | On-vehicle display system |
US20150131857A1 (en) * | 2013-11-08 | 2015-05-14 | Hyundai Motor Company | Vehicle recognizing user gesture and method for controlling the same |
US20150199019A1 (en) * | 2014-01-16 | 2015-07-16 | Denso Corporation | Gesture based image capturing system for vehicle |
JP2015217798A (en) * | 2014-05-16 | 2015-12-07 | 三菱電機株式会社 | On-vehicle information display control device |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107526239A (en) * | 2017-08-03 | 2017-12-29 | 深圳市奈士迪技术研发有限公司 | A kind of intelligent projector equipment for automobile motion-picture projection |
US11435468B2 (en) | 2018-08-22 | 2022-09-06 | Google Llc | Radar-based gesture enhancement for voice interfaces |
US10890653B2 (en) | 2018-08-22 | 2021-01-12 | Google Llc | Radar-based gesture enhancement for voice interfaces |
US10930251B2 (en) | 2018-08-22 | 2021-02-23 | Google Llc | Smartphone-based radar system for facilitating awareness of user presence and orientation |
US11176910B2 (en) | 2018-08-22 | 2021-11-16 | Google Llc | Smartphone providing radar-based proxemic context |
JP2021504771A (en) * | 2018-08-24 | 2021-02-15 | グーグル エルエルシーGoogle LLC | Smartphones, systems and methods with radar systems |
US10936185B2 (en) | 2018-08-24 | 2021-03-02 | Google Llc | Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface |
US11204694B2 (en) | 2018-08-24 | 2021-12-21 | Google Llc | Radar system facilitating ease and accuracy of user interactions with a user interface |
US11314312B2 (en) | 2018-10-22 | 2022-04-26 | Google Llc | Smartphone-based radar system for determining user intention in a lower-power mode |
CN111752382A (en) * | 2019-03-27 | 2020-10-09 | 株式会社斯巴鲁 | Non-contact operation device of vehicle and vehicle |
JP2020189622A (en) * | 2019-05-14 | 2020-11-26 | トヨタ紡織株式会社 | Vehicular door with projector |
JP7354854B2 (en) | 2019-05-14 | 2023-10-03 | トヨタ紡織株式会社 | Vehicle door with projector |
KR102303422B1 (en) * | 2019-07-04 | 2021-09-23 | 한양대학교 에리카산학협력단 | Autonomous vehicle control system for maximizing autonomy, and Autonomy providing server for the same |
KR20210005761A (en) * | 2019-07-04 | 2021-01-15 | 한양대학교 에리카산학협력단 | Autonomous vehicle control system for maximizing autonomy, and Autonomy providing server for the same |
KR20220067434A (en) * | 2020-11-17 | 2022-05-24 | 주식회사 아르비존 | Vehicle control method |
KR102443980B1 (en) * | 2020-11-17 | 2022-09-21 | 주식회사 아르비존 | Vehicle control method |
Also Published As
Publication number | Publication date |
---|---|
JP6515028B2 (en) | 2019-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6515028B2 (en) | Vehicle control device | |
KR102311551B1 (en) | Method for using a communication terminal in a motor vehicle while autopilot is activated and motor vehicle | |
KR102204250B1 (en) | Method for calculating an augmented reality-overlaying for displaying a navigation route on ar-display unit, device for carrying out the method, as well as motor vehicle and computer program | |
JP6555599B2 (en) | Display system, display method, and program | |
EP2914475B1 (en) | System and method for using gestures in autonomous parking | |
US10732760B2 (en) | Vehicle and method for controlling the vehicle | |
US20160132126A1 (en) | System for information transmission in a motor vehicle | |
US9205846B2 (en) | Method and device for the control of functions in a vehicle using gestures performed in three-dimensional space, and related computer program product | |
CN110395182B (en) | Motor vehicle with electronic rear view mirror | |
JP6244822B2 (en) | In-vehicle display system | |
JP2013119370A (en) | System for preventing driver from shifting line of sight during traveling | |
JP2010537288A (en) | INFORMATION DISPLAY METHOD IN VEHICLE AND DISPLAY DEVICE FOR VEHICLE | |
JP2007237919A (en) | Input operation device for vehicle | |
JP6014162B2 (en) | Input device | |
KR102084032B1 (en) | User interface, means of transport and method for distinguishing a user | |
US20180239441A1 (en) | Operation system | |
JP2007302116A (en) | Operating device of on-vehicle equipment | |
KR101946746B1 (en) | Positioning of non-vehicle objects in the vehicle | |
JPWO2019016936A1 (en) | Operation support apparatus and operation support method | |
US10691122B2 (en) | In-vehicle system | |
KR101928637B1 (en) | Operating method and operating system in a vehicle | |
JP2006264615A (en) | Display device for vehicle | |
US20180239424A1 (en) | Operation system | |
CN111483406B (en) | Vehicle-mounted infotainment device, control method thereof and vehicle comprising vehicle-mounted infotainment device | |
US20240001763A1 (en) | Vehicle display system, vehicle display method, and computer-readable non-transitory storage medium storing vehicle display program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180821 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6515028 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |