JP2017111711A - Operation device for vehicle - Google Patents

Operation device for vehicle Download PDF

Info

Publication number
JP2017111711A
JP2017111711A JP2015247110A JP2015247110A JP2017111711A JP 2017111711 A JP2017111711 A JP 2017111711A JP 2015247110 A JP2015247110 A JP 2015247110A JP 2015247110 A JP2015247110 A JP 2015247110A JP 2017111711 A JP2017111711 A JP 2017111711A
Authority
JP
Japan
Prior art keywords
image
vehicle
gesture
operating device
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015247110A
Other languages
Japanese (ja)
Other versions
JP6515028B2 (en
Inventor
智 羽田
Satoshi Haneda
智 羽田
和田 直樹
Naoki Wada
直樹 和田
杉山 晃
Akira Sugiyama
晃 杉山
絹枝 飯野
Kinue Iino
絹枝 飯野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2015247110A priority Critical patent/JP6515028B2/en
Publication of JP2017111711A publication Critical patent/JP2017111711A/en
Application granted granted Critical
Publication of JP6515028B2 publication Critical patent/JP6515028B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an operation device for a vehicle which hardly causes an operational error, even in a gesture operation and is excellent in operability.SOLUTION: The vehicle includes a display part (a projector 30 and a projection surface 30a) which displays operation images (a first operation image and a second operation image) which are operation targets by an occupant, a gesture recognition part (a camera 26 and a recognition part 44) which recognizes the gesture of the occupant as operation input with respect to the operation images, and a control part 46 which performs predetermined control according to the operation input with respect to the operation images. The display part is arranged on a dash board 18 on the side of a front passenger seat. The gesture recognition part recognizes the motion of the body of the occupant taken in a position between a driver seat and the front passenger seat as a gesture.SELECTED DRAWING: Figure 3

Description

この発明は、車両の操作入力として乗員のジェスチャを認識する車両用操作装置に関する。   The present invention relates to an operation device for a vehicle that recognizes an occupant's gesture as an operation input of the vehicle.

特許文献1には、車両に搭載されるカーナビゲーション装置の画面の正面で乗員の手の動きを検知し、この手の動きに基づいてカーナビゲーション装置の一部の機能の操作を行う所謂ジェスチャ操作が開示されている。   Patent Document 1 discloses a so-called gesture operation in which a movement of a passenger's hand is detected in front of a screen of a car navigation apparatus mounted on a vehicle, and some functions of the car navigation apparatus are operated based on the movement of the hand. Is disclosed.

特許文献2には、ステアリングホイールのパッド部分にバーチャルキーボード画像を投影し、乗員が触れた位置を検知することでキーボード入力を可能とする装置が開示されている。   Patent Document 2 discloses a device that enables keyboard input by projecting a virtual keyboard image onto a pad portion of a steering wheel and detecting a position touched by an occupant.

特開2010−184600号公報JP 2010-184600 A 特開2005−321948号公報JP 2005-321948 A

特許文献1の装置では、操作対象(スイッチ操作部)がカーナビゲーション装置の画面に表示される。特許文献2の装置では、操作対象(バーチャルキーボード画像)がステアリングホイールのパッド部分に表示される。カーナビゲーション装置の画面やステアリングホイールのパッド部分は表面積が狭いため、ジェスチャによる操作領域が狭く操作しづらい。このため、乗員はジェスチャ操作に集中しなければならないうえ、誤操作も生じやすいという問題がある。更に、特許文献2の装置では、バーチャルキーボード画像の表示位置に直接触れて操作を行う必要があるため、主に操作を行う運転者から離れた位置に配置すると操作性が著しく低下するという問題がある。   In the device of Patent Document 1, an operation target (switch operation unit) is displayed on the screen of the car navigation device. In the device of Patent Document 2, the operation target (virtual keyboard image) is displayed on the pad portion of the steering wheel. Since the screen of the car navigation device and the pad portion of the steering wheel have a small surface area, the operation area by the gesture is narrow and difficult to operate. For this reason, the occupant must concentrate on the gesture operation, and there is a problem that erroneous operation is likely to occur. Furthermore, in the apparatus of Patent Document 2, since it is necessary to perform an operation by directly touching the display position of the virtual keyboard image, there is a problem in that the operability is remarkably deteriorated if it is disposed at a position away from the driver who mainly performs the operation. is there.

本発明はこのような課題を考慮してなされたものであり、ジェスチャ操作でも誤操作が生じにくく、且つ、操作性のよい車両用操作装置を提供することを目的とする。   The present invention has been made in consideration of such problems, and an object of the present invention is to provide a vehicular operating device that is less likely to be erroneously operated even by a gesture operation and that has good operability.

本発明は、車両の内装部材に設けられて乗員による操作の対象となる操作画像を表示する表示部と、前記操作画像に対する操作入力として前記乗員のジェスチャを認識するジェスチャ認識部と、前記操作画像に対する前記操作入力に応じて所定の制御を行う制御部と、を備える車両用操作装置であって、前記表示部は、前記車両の内装部材である助手席側のダッシュボード上に配置され、前記ジェスチャ認識部は、前記車両の車幅方向における運転席と助手席との間の位置で行われる前記乗員の身体の動きを前記ジェスチャとして認識することを特徴とする。   The present invention provides a display unit that is provided on an interior member of a vehicle and displays an operation image to be operated by an occupant, a gesture recognition unit that recognizes the occupant's gesture as an operation input for the operation image, and the operation image A control unit that performs a predetermined control in response to the operation input to the vehicle, wherein the display unit is disposed on a dashboard on a passenger seat side that is an interior member of the vehicle, The gesture recognizing unit recognizes the movement of the occupant's body performed at the position between the driver's seat and the passenger seat in the vehicle width direction of the vehicle as the gesture.

助手席側のダッシュボードには計器等が配置されない。たとえメータの表示領域拡大等で多少計器が配置されたとしてもその他に運転操作に必要な操作手段は配置されない。したがって、一般に助手席側のダッシュボードには広い領域が空いている。本発明によれば、助手席側のダッシュボードに操作画像を表示する。このため、操作画像の表示領域を広く確保することができ、ジェスチャ操作でも誤操作が生じにくいGUI(Graphical User Interface)を構成することが可能となる。また、運転席と助手席との間でジェスチャを認識する。このため、運転席に着座した乗員からでも助手席側の操作画像に対する操作が可能となり、操作性を確保することができる。   There are no instruments on the passenger side dashboard. Even if some instruments are arranged due to expansion of the display area of the meter or the like, no other operation means necessary for driving operation is arranged. Therefore, in general, a wide area is available on the dashboard on the passenger seat side. According to the present invention, the operation image is displayed on the passenger side dashboard. For this reason, a wide display area of the operation image can be secured, and it is possible to configure a GUI (Graphical User Interface) that is unlikely to cause an erroneous operation even in a gesture operation. In addition, a gesture is recognized between the driver seat and the passenger seat. For this reason, it is possible to operate the operation image on the passenger seat side even from an occupant seated in the driver's seat, thereby ensuring operability.

本発明において、前記操作画像は、選択対象として定位置に表示される固定画像と、前記ジェスチャ認識部により認識された前記ジェスチャに対応して前記操作画像の中を移動することで前記固定画像を選択可能に表示されるポインタ画像とを含んで構成されてもよい。ジェスチャ操作によりポインタ画像を操作可能にすると、操作画像はより操作しやすくなり、誤操作の少ないGUIを構成できる。また、操作画像が操作しやすくなると、乗員がジェスチャ操作に気をとられることがなくなる。   In the present invention, the operation image is a fixed image displayed at a fixed position as a selection target, and the fixed image is moved by moving in the operation image corresponding to the gesture recognized by the gesture recognition unit. A pointer image displayed in a selectable manner may be included. When the pointer image can be operated by a gesture operation, the operation image becomes easier to operate, and a GUI with fewer erroneous operations can be configured. In addition, when the operation image becomes easy to operate, the occupant will not be concerned about the gesture operation.

本発明において、前記制御部は、前記ポインタ画像が前記固定画像の領域に接触又は所定距離以下に接近したときに前記固定画像を選択し、前記固定画像の機能に応じた前記所定の制御を行うようにしてもよい。本発明によれば、ポインタ画像で固定画像を選択するのみで機能が実行されるため、より操作性をよくすることができる。また、操作性がよくなると、乗員がジェスチャ操作に気をとられることがなくなる。   In the present invention, the control unit selects the fixed image when the pointer image is in contact with the fixed image area or approaches a predetermined distance or less, and performs the predetermined control according to the function of the fixed image. You may do it. According to the present invention, since the function is executed only by selecting the fixed image from the pointer image, the operability can be improved. Also, if the operability is improved, the passenger will not be concerned about the gesture operation.

本発明において、前記表示部は、前記操作画像を投影するプロジェクタを備え、前記ダッシュボードの表面に、凹形状となる凹部と、該凹部に対して凸形状となる凸部とが形成されており、前記プロジェクタは、前記操作画像を投影する際に、前記操作画像を構成する画像のうち所定の領域を区画する境界線である画像境界線を、前記凹部と前記凸部との境界線である凹凸境界線と一致させることも可能である。本発明によれば、操作画像上の領域とダッシュボードの凹凸とが対応するようにプロジェクションマッピングを行うため、乗員にとって操作画像の領域がより認識しやすくなり、より操作性をよくすることができる。また、操作性がよくなると、乗員がジェスチャ操作に気をとられることがなくなる。   In the present invention, the display unit includes a projector that projects the operation image, and a concave portion having a concave shape and a convex portion having a convex shape with respect to the concave portion are formed on the surface of the dashboard. When the projector projects the operation image, an image boundary line that is a boundary line that divides a predetermined area in the image constituting the operation image is a boundary line between the concave portion and the convex portion. It is also possible to match the uneven boundary line. According to the present invention, since the projection mapping is performed so that the region on the operation image corresponds to the unevenness of the dashboard, the region of the operation image can be more easily recognized by the occupant, and the operability can be improved. . Also, if the operability is improved, the passenger will not be concerned about the gesture operation.

本発明において、前記操作画像を構成する画像のうち、選択対象として定位置に表示される前記固定画像と、前記固定画像とは異なるその他の画像の領域とを区画する境界線が、前記画像境界線として設定されてもよい。本発明によれば、ポインタ画像による選択対象である固定画像とその他の画像との区画と、ダッシュボード上の凹凸とを対応させるため、乗員にとって固定画像の領域が認識しやすくなる。また、固定画像の領域が認識しやすくなると、乗員がジェスチャ操作に気をとられることがなくなる。   In the present invention, among the images constituting the operation image, a boundary line that divides the fixed image displayed at a fixed position as a selection target and a region of another image different from the fixed image is the image boundary. It may be set as a line. According to the present invention, since the section between the fixed image and the other image to be selected by the pointer image is associated with the unevenness on the dashboard, the area of the fixed image is easily recognized by the occupant. In addition, when the area of the fixed image becomes easy to recognize, the occupant does not care about the gesture operation.

本発明において、前記凹部は、前記ダッシュボードの一般面として形成され、前記凸部は、前記一般面に対して車両室内側に凸となるように形成され、前記凸部は、前記ダッシュボードに対する取り付け及び前記ダッシュボードからの取り外しが可能としてもよい。本発明によれば、凸部を着脱可能に構成することで、GUIの変更やジェスチャ操作を用いない場合の汎用性が高まる。   In this invention, the said recessed part is formed as a general surface of the said dashboard, the said convex part is formed so that it may protrude in a vehicle interior side with respect to the said general surface, and the said convex part is with respect to the said dashboard. Attachment and removal from the dashboard may be possible. According to the present invention, by configuring the convex portion to be detachable, versatility when a GUI change or a gesture operation is not used is enhanced.

本発明において、前記車両の天井には、後席用ルーフコンソールが備えられ、前記プロジェクタは、前記後席用ルーフコンソールに一体に設けられてもよい。   In the present invention, a rear seat roof console may be provided on a ceiling of the vehicle, and the projector may be provided integrally with the rear seat roof console.

本発明によれば、操作画像を投影するプロジェクション方式を用いる場合でも乗員に遮られる可能性が低い。また、助手席側ダッシュボードから運転席側インストルメントパネルにかけて表示部を拡大した場合でも対応可能である。   According to the present invention, even when a projection method for projecting an operation image is used, the possibility of being blocked by an occupant is low. Moreover, even when the display part is enlarged from the passenger side dashboard to the driver side instrument panel, it is possible to cope.

本発明において、前記ジェスチャ認識部は、認識した前記ジェスチャが前記運転席側の乗員によるものか前記助手席側の乗員によるものかを判別し、前記制御部は、前記ジェスチャ認識部による前記判別の結果に応じて異なる制御を行うようにしてもよい。本発明によれば、運転席側からの操作と助手席側からの操作を判別することにより利便性が向上する。例えば、煩雑な操作に関しては、運転席側からは禁止する一方で、助手席側からは許容する等の対応をすることができる。   In the present invention, the gesture recognizing unit determines whether the recognized gesture is by the driver's side passenger or the passenger's side passenger, and the control unit performs the determination by the gesture recognizing unit. Different control may be performed according to the result. According to the present invention, the convenience is improved by discriminating the operation from the driver seat side and the operation from the passenger seat side. For example, complicated operations can be prohibited from the driver's seat side but allowed from the passenger seat side.

本発明において、前記ジェスチャ認識部は、前記車両室内の所定箇所に設けられて前記乗員の手腕を撮像するカメラを備え、前記カメラの撮像情報により前記ジェスチャを認識するとともに、前記カメラの撮像範囲に対する前記手腕の進入位置又は進入角度により前記判別を行うようにしてもよい。本発明によれば、運転席側からの操作と助手席側からの操作との判別を、特別な構成を追加することなく画像解析のみで容易に行うことができる。   In the present invention, the gesture recognition unit includes a camera that is provided at a predetermined location in the vehicle cabin and images the hand of the occupant. The gesture recognition unit recognizes the gesture based on imaging information of the camera, and corresponds to an imaging range of the camera. You may make it perform the said determination by the approach position or approach angle of the said hand and arm. According to the present invention, it is possible to easily discriminate between an operation from the driver's seat side and an operation from the passenger seat side only by image analysis without adding a special configuration.

本発明において、前記車両には、加減速操作及び操舵操作を前記乗員の操作により行う手動運転モードと、前記車両の加減速操作及び操舵操作のうち少なくとも一方を前記車両が自律的に行う運転支援モードとが切替可能に設定され、前記表示部は、前記運転支援モードの間に表示する前記操作画像を、前記手動運転モードの間に表示する前記操作画像よりも拡大してもよい。本発明によれば、操作画像の表示時点での運転モードに応じて自動的に表示領域を変更することで、適切なコンテンツを表示することができ、利便性が向上する。   In the present invention, the vehicle has a driving support in which the vehicle autonomously performs at least one of a manual operation mode in which an acceleration / deceleration operation and a steering operation are performed by an operation of the occupant and an acceleration / deceleration operation and a steering operation of the vehicle. The mode may be set to be switchable, and the display unit may enlarge the operation image displayed during the driving support mode than the operation image displayed during the manual driving mode. According to the present invention, it is possible to display appropriate content by automatically changing the display area according to the operation mode at the time of displaying the operation image, and convenience is improved.

本発明によれば、操作画像の表示領域を広く確保することができ、ジェスチャ操作でも誤操作が生じにくいGUIを構成することが可能となる。また、運転席に着座した乗員からでも助手席側の操作画像に対する操作が可能となり、操作性を確保することができる。 According to the present invention, it is possible to secure a wide display area of an operation image, and it is possible to configure a GUI that is unlikely to cause an erroneous operation even with a gesture operation. In addition, even an occupant seated in the driver's seat can operate the operation image on the passenger seat side, and operability can be ensured.

図1は車両の内装を簡略化した模式図である。FIG. 1 is a schematic diagram showing a simplified interior of a vehicle. 図2Aはダッシュボードの正面図であり、図2Bはダッシュボードの断面図である。FIG. 2A is a front view of the dashboard, and FIG. 2B is a cross-sectional view of the dashboard. 図3は本実施形態に係る車両用操作装置のブロック図である。FIG. 3 is a block diagram of the vehicle operating device according to the present embodiment. 図4は第1操作画像を模式化した模式図である。FIG. 4 is a schematic diagram schematically showing the first operation image. 図5は第1操作画像を模式化した模式図である。FIG. 5 is a schematic diagram schematically showing the first operation image. 図6は第1操作画像を模式化した模式図である。FIG. 6 is a schematic diagram schematically showing the first operation image. 図7は第2操作画像を模式化した模式図である。FIG. 7 is a schematic diagram schematically showing the second operation image. 図8は第2操作画像を模式化した模式図である。FIG. 8 is a schematic diagram schematically showing the second operation image. 図9は第2操作画像を模式化した模式図である。FIG. 9 is a schematic diagram schematically showing the second operation image. 図10は車両用操作装置の動作1のフローチャートである。FIG. 10 is a flowchart of operation 1 of the vehicle operating device. 図11は車両用操作装置の動作2のフローチャートである。FIG. 11 is a flowchart of operation 2 of the vehicle operating device. 図12は車両用操作装置の動作3のフローチャートである。FIG. 12 is a flowchart of operation 3 of the vehicle operating device. 図13は車両用操作装置の動作4のフローチャートである。FIG. 13 is a flowchart of operation 4 of the vehicle operating device. 図14は本実施形態の関連技術に関する車両の外観図である。FIG. 14 is an external view of a vehicle related to the related technology of the present embodiment. 図15は本実施形態に係る車両用操作装置の変形例のブロック図である。FIG. 15 is a block diagram of a modified example of the vehicle operating device according to the present embodiment.

以下、本発明に係る車両用操作装置40について、好適な実施形態を挙げ、添付の図面を参照して詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, a vehicle operation device 40 according to the present invention will be described in detail with reference to the accompanying drawings by giving preferred embodiments.

[1.車両10の内装]
図1を用いて車両10の内装について説明する。図1では説明の容易化のため、車両10の内装をデフォルメして示している。車両10の車室12内には正面に向けて運転席14と助手席16とが設けられる。運転席14と助手席16の正面にはダッシュボード18が設けられる。ダッシュボード18の上方にはフロントウインドウ20が設けられ、フロントウインドウ20の上部中央にはルームミラー22が設けられる。ルームミラー22の近傍のルーフ24にはカメラ26が設けられる。また、ルーフ24において、車幅方向の略中央であり、且つ、運転席14及び助手席16の上方又は後方には、後席用ルーフコンソール28が設けられる。後席用ルーフコンソール28には、モニタやルームランプの他に、プロジェクタ30が一体に設けられる。
[1. Interior of vehicle 10]
The interior of the vehicle 10 will be described with reference to FIG. In FIG. 1, the interior of the vehicle 10 is shown deformed for ease of explanation. A driver's seat 14 and a passenger seat 16 are provided in the passenger compartment 12 of the vehicle 10 toward the front. A dashboard 18 is provided in front of the driver seat 14 and the passenger seat 16. A front window 20 is provided above the dashboard 18, and a room mirror 22 is provided in the upper center of the front window 20. A camera 26 is provided on the roof 24 in the vicinity of the room mirror 22. Further, a roof console 28 for the rear seat is provided in the roof 24 at the approximate center in the vehicle width direction and above or behind the driver seat 14 and the passenger seat 16. In addition to the monitor and the room lamp, the rear seat roof console 28 is integrally provided with a projector 30.

カメラ26は、予め定められた空間、例えば、車両10の車幅方向における運転席14と助手席16との間であってダッシュボード18に近い空間に向けて配置されており、この空間内で乗員が行うジェスチャ操作を撮影する。カメラ26は2次元又は3次元の位置検出用センサを備えており、例えば、TOF(Time Of Flight)カメラやCCDカメラ等を使用可能である。カメラ26がモーションセンサを備えていてもよい。この場合、乗員がジェスチャによる入力操作を行うときに撮像を開始できる。カメラ26は、撮像情報を後述する操作装置ECU42に有線又は無線にて送信する。   The camera 26 is arranged toward a predetermined space, for example, a space between the driver seat 14 and the passenger seat 16 in the vehicle width direction of the vehicle 10 and close to the dashboard 18. Take pictures of gestures performed by the crew. The camera 26 includes a two-dimensional or three-dimensional position detection sensor. For example, a TOF (Time Of Flight) camera, a CCD camera, or the like can be used. The camera 26 may include a motion sensor. In this case, imaging can be started when the occupant performs an input operation using a gesture. The camera 26 transmits imaging information to an operation device ECU 42 described later by wire or wirelessly.

プロジェクタ30は、主に助手席16側のダッシュボード18に向けて配置される。プロジェクタ30は、後述する操作装置ECU42により制御され、車両10を操作するための操作画像(動画又は静止画)をダッシュボード18に投影する。すなわち、プロジェクタ30の投影面30aがダッシュボード18の表面に配置される。本実施形態では操作装置ECU42の制御部46がプロジェクタ30の投影位置及び操作画像等を制御する所謂プロジェクションマッピングが行われる。   The projector 30 is disposed mainly toward the dashboard 18 on the passenger seat 16 side. The projector 30 is controlled by an operation device ECU 42 described later, and projects an operation image (moving image or still image) for operating the vehicle 10 onto the dashboard 18. That is, the projection surface 30 a of the projector 30 is arranged on the surface of the dashboard 18. In the present embodiment, so-called projection mapping is performed in which the control unit 46 of the operation device ECU 42 controls the projection position, operation image, and the like of the projector 30.

[2.ダッシュボード18]
図2A、図2Bを用いてダッシュボード18について説明する。ダッシュボード18の表面はプロジェクタ30の投影面30a(図1参照)となる。ダッシュボード18の表面は、操作画像が鮮明に投影されるように表面加工が施される。例えば、特殊な塗料が塗布される。また、ダッシュボード18には、プロジェクタ30により投影される操作画像の中の立体表示物を実際の立体物に似せるために、車室12内に凸形状の立体物が設けられる。
[2. Dashboard 18]
The dashboard 18 will be described with reference to FIGS. 2A and 2B. The surface of the dashboard 18 becomes a projection surface 30a (see FIG. 1) of the projector 30. The surface of the dashboard 18 is subjected to surface processing so that the operation image is projected clearly. For example, a special paint is applied. The dashboard 18 is provided with a convex three-dimensional object in the passenger compartment 12 in order to make the three-dimensional display object in the operation image projected by the projector 30 resemble an actual three-dimensional object.

具体的には、図2Aで示すように、ダッシュボード18の表面の所定位置には正面視で略円形の第1凸部34が設けられる。第1凸部34の車幅方向両側には正面視で略円形の第2凸部36、第3凸部38が設けられる。本明細書では、ダッシュボード18の表面のうち、第1凸部34、第2凸部36、第3凸部38以外の部分を一般面32と称する。図2Aで示す実施形態では、ダッシュボード18の表面のうち、第1凸部34、第2凸部36、第3凸部38と一般面32とを比較すると、一般面32の方が広い。一般面32に対して第1凸部34、第2凸部36、第3凸部38は凸形状となる。言い換えると、第1凸部34、第2凸部36、第3凸部38に対して一般面32は凹形状の凹部となる。   Specifically, as shown in FIG. 2A, a first convex portion 34 having a substantially circular shape in front view is provided at a predetermined position on the surface of the dashboard 18. On both sides of the first convex portion 34 in the vehicle width direction, there are provided a second convex portion 36 and a third convex portion 38 that are substantially circular in a front view. In the present specification, a portion of the surface of the dashboard 18 other than the first convex portion 34, the second convex portion 36, and the third convex portion 38 is referred to as a general surface 32. In the embodiment shown in FIG. 2A, the general surface 32 is wider than the first surface 34, the second surface 36, the third surface 38 and the general surface 32 of the surface of the dashboard 18. The first convex portion 34, the second convex portion 36, and the third convex portion 38 have a convex shape with respect to the general surface 32. In other words, the general surface 32 is a concave portion with respect to the first convex portion 34, the second convex portion 36, and the third convex portion 38.

第1凸部34、第2凸部36、第3凸部38はダッシュボード18に固定されていてもよいし、ダッシュボード18の本体に取り付けることが可能であり且つダッシュボード18の本体から取り外すことが可能であってもよい。例えば、図2Bで示すように、第1凸部34の裏側には雄部34aが形成され、ダッシュボード18の本体表面には雌部18aが形成される。雄部34aが雌部18aに嵌められることにより、第1凸部34がダッシュボード18の本体に取り付けられる。第1凸部34は、正面視で中心部の高さ(表面32に対する垂直方向の高さ)が最も高く、中心部から放射方向に向かって徐々に高さが低くなる。なお、第2凸部36、第3凸部38は第1凸部34よりも小径であることを除いて、同じ形状、構造である。   The 1st convex part 34, the 2nd convex part 36, and the 3rd convex part 38 may be fixed to the dashboard 18, can be attached to the main body of the dashboard 18, and are removed from the main body of the dashboard 18. It may be possible. For example, as shown in FIG. 2B, a male part 34 a is formed on the back side of the first convex part 34, and a female part 18 a is formed on the main body surface of the dashboard 18. The first convex portion 34 is attached to the main body of the dashboard 18 by fitting the male portion 34a to the female portion 18a. The first convex portion 34 has the highest height in the central portion (height in the direction perpendicular to the surface 32) in front view, and the height gradually decreases from the central portion in the radial direction. The second convex portion 36 and the third convex portion 38 have the same shape and structure except that they have a smaller diameter than the first convex portion 34.

なお、第1凸部34、第2凸部36、第3凸部38の大きさ、形状及び配置は図2A、図2Bで示す実施形態に限られない。雌部18aが複数の箇所に形成され、且つ、様々な形状の凸部が用意されていれば、ダッシュボード18の表面に様々なパターンの凹凸形状を形成することが可能となる。   In addition, the magnitude | size, the shape, and arrangement | positioning of the 1st convex part 34, the 2nd convex part 36, and the 3rd convex part 38 are not restricted to embodiment shown in FIG. 2A and FIG. 2B. If the female portion 18a is formed at a plurality of locations and convex portions having various shapes are prepared, it is possible to form uneven shapes having various patterns on the surface of the dashboard 18.

[3.車両用操作装置40の構成]
図3を用いて車両用操作装置40の構成について説明する。本実施形態に係る車両用操作装置40は、乗員の手腕を撮像するカメラ26と、各種処理を行う操作装置ECU42と、操作画像が表示されるダッシュボード18と、ダッシュボード18に操作画像を投影するプロジェクタ30と、プロジェクタ30により投影される操作画像の情報を記憶する記憶装置48とを有する。カメラ26とプロジェクタ30に関しては図1を用いて既に説明している。また、ダッシュボード18に関しては図2A、図2Bを用いて既に説明している。
[3. Configuration of Vehicle Operation Device 40]
The configuration of the vehicle operating device 40 will be described with reference to FIG. The vehicle operation device 40 according to the present embodiment projects a camera 26 that captures the occupant's arms, an operation device ECU 42 that performs various processes, a dashboard 18 on which operation images are displayed, and an operation image projected on the dashboard 18. And a storage device 48 that stores information of operation images projected by the projector 30. The camera 26 and the projector 30 have already been described with reference to FIG. The dashboard 18 has already been described with reference to FIGS. 2A and 2B.

操作装置ECU42は、カメラ26で撮像された画像情報に基づいて所定の制御行う制御回路である。操作装置ECU42は、マイクロコンピュータを含む計算機であり、CPU(中央処理装置)、ROM(EEPROMも含む。)、RAM(ランダムアクセスメモリ)、その他、A/D変換器、D/A変換器等の入出力装置等を有する。操作装置ECU42は、CPUがROMに記録されているプログラムを読み出し実行することで各種機能実現部として機能する。本実施形態において、操作装置ECU42は、プログラムを実行することにより、認識部44、制御部46として機能する。操作装置ECU42は複数に分割されていてもよく、又は、他のECUと統合されてもよい。なお、操作装置ECU42は、他のハードウエアにより実現することも可能である。   The operating device ECU 42 is a control circuit that performs predetermined control based on image information captured by the camera 26. The operation device ECU 42 is a computer including a microcomputer, such as a CPU (Central Processing Unit), ROM (including EEPROM), RAM (Random Access Memory), A / D converter, D / A converter, etc. I / O device etc. The operating device ECU 42 functions as various function realizing units when the CPU reads and executes a program recorded in the ROM. In the present embodiment, the operating device ECU 42 functions as the recognition unit 44 and the control unit 46 by executing a program. The operating device ECU 42 may be divided into a plurality of parts, or may be integrated with other ECUs. Note that the operating device ECU 42 can also be realized by other hardware.

認識部66は、カメラ26で撮像された画像情報から乗員の手腕を認識するとともに、手腕により行われるジェスチャ操作を認識するように構成される。制御部46は、操作画像(図4〜図6で示される第1操作画像62及び図7〜図9で示される第2操作画像80)の情報を読み込み、その操作画像をプロジェクタ30に投影させるように構成される。また、制御部46は、認識部44により認識されたジェスチャ操作に応じて、操作画像内の表示物を動作させるように構成される。更に、制御部46は、操作画像内で行われる操作に応じて、各種制御、例えばプロジェクタ30の画像遷移や車載ネットワーク上の他の機器の制御を行うように構成される。制御部46はダッシュボード18の各部の位置と操作画像の内容に基づいて、プロジェクタ30の投影面31の位置を制御する。   The recognition unit 66 is configured to recognize an occupant's hand and arm from image information captured by the camera 26 and to recognize a gesture operation performed by the hand and arm. The control unit 46 reads the information of the operation image (the first operation image 62 shown in FIGS. 4 to 6 and the second operation image 80 shown in FIGS. 7 to 9), and causes the projector 30 to project the operation image. Configured as follows. Further, the control unit 46 is configured to operate the display object in the operation image in accordance with the gesture operation recognized by the recognition unit 44. Furthermore, the control unit 46 is configured to perform various types of control, for example, image transition of the projector 30 and control of other devices on the in-vehicle network according to operations performed in the operation image. The control unit 46 controls the position of the projection surface 31 of the projector 30 based on the position of each part of the dashboard 18 and the contents of the operation image.

記憶装置48は、1以上の操作画像を記憶する。記憶装置48は、操作装置ECU42から画像要求を入力し、要求に応じた操作画像の情報を操作装置ECU42に出力する。記憶装置48に記憶される操作画像の情報は、磁気ディスク、光学ディスク、フラッシュメモリのような記憶媒体、又は、通信等により更新可能である。   The storage device 48 stores one or more operation images. The storage device 48 receives an image request from the operation device ECU 42 and outputs information on an operation image corresponding to the request to the operation device ECU 42. The operation image information stored in the storage device 48 can be updated by a storage medium such as a magnetic disk, an optical disk, or a flash memory, or by communication.

操作装置ECU42はバス50に接続される。バス50には他に運転支援ECU52、メータECU54、エアコンECU56、オーディオ装置58、カーナビゲーション装置60等が接続される。運転支援ECU52、操作装置ECU42、メータECU54、エアコンECU56、オーディオ装置58、カーナビゲーション装置60等により車載ネットワーク(例えばCAN)が構成される。操作装置ECU42、メータECU54、エアコンECU56、オーディオ装置58、カーナビゲーション装置60等はバス50を介して情報通信できる。   The operating device ECU 42 is connected to the bus 50. In addition, a driving support ECU 52, a meter ECU 54, an air conditioner ECU 56, an audio device 58, a car navigation device 60, and the like are connected to the bus 50. The driving support ECU 52, the operation device ECU 42, the meter ECU 54, the air conditioner ECU 56, the audio device 58, the car navigation device 60, and the like constitute an in-vehicle network (for example, CAN). The operation device ECU 42, the meter ECU 54, the air conditioner ECU 56, the audio device 58, the car navigation device 60, etc. can communicate information via the bus 50.

運転支援ECU52は、乗員のスイッチ操作により自動運転モード又は半自動運転モードが選択されているときに、駆動支援、制動支援、操舵支援の制御を行う。メータECU54は、メータの表示の制御を行う。エアコンECU56はエアコンの制御を行う。   The driving assistance ECU 52 controls driving assistance, braking assistance, and steering assistance when the automatic driving mode or the semi-automatic driving mode is selected by the occupant's switch operation. The meter ECU 54 controls meter display. The air conditioner ECU 56 controls the air conditioner.

[4.第1操作画像62]
図4〜図6を用いてダッシュボード18の表面に投影される第1操作画像62について説明する。操作装置ECU42の制御部46は、記憶装置48から図4で示すような第1操作画像62の情報を読み込んで、プロジェクタ30に対して表示指示を出力する。プロジェクタ30は表示指示を受けて、ダッシュボード18の表面に第1操作画像62を投影する。なお、図4で示す第1操作画像62は本実施形態で行われる画像遷移のうちの初期画像である。勿論、第1操作画像62は図4で示されるようなコンテンツに限らず、様々なコンテンツが可能である。
[4. First operation image 62]
The first operation image 62 projected on the surface of the dashboard 18 will be described with reference to FIGS. The control unit 46 of the operation device ECU 42 reads information on the first operation image 62 as shown in FIG. 4 from the storage device 48 and outputs a display instruction to the projector 30. In response to the display instruction, the projector 30 projects the first operation image 62 on the surface of the dashboard 18. Note that the first operation image 62 shown in FIG. 4 is an initial image among the image transitions performed in the present embodiment. Of course, the first operation image 62 is not limited to the content shown in FIG.

第1操作画像62はCG画像であって、車速のイメージを示す速度画像64と、レーダ探知のイメージを示すレーダ画像66と、燃料の残量のイメージを示す燃料画像68と、その他の画像70とを含む。   The first operation image 62 is a CG image, and includes a speed image 64 indicating an image of the vehicle speed, a radar image 66 indicating an image of radar detection, a fuel image 68 indicating an image of the remaining amount of fuel, and other images 70. Including.

速度画像64は、車速に応じて動作する円形の表示物64aを有する。表示物64aは、速度画像64の中心から出現して放射方向に拡がり、縁部で消失する動作を繰り返す。表示物64aは、メータECU54(図3参照)から出力される速度情報又は車速センサ(図示せず)から出力される速度情報に基づいて動作する。プロジェクタ30は、速度画像64を第1凸部34の表面に投影する。この際、速度画像64とその周囲の画像とを区画する境界線である画像境界線64bを、一般面(凹部)32と第1凸部34との境界線である凹凸境界線34bと一致させる。   The speed image 64 includes a circular display object 64a that operates according to the vehicle speed. The display object 64a repeats the operation of appearing from the center of the velocity image 64, expanding in the radial direction, and disappearing at the edge. The display object 64a operates based on speed information output from the meter ECU 54 (see FIG. 3) or speed information output from a vehicle speed sensor (not shown). The projector 30 projects the speed image 64 on the surface of the first convex portion 34. At this time, the image boundary line 64b that is a boundary line that divides the velocity image 64 and the surrounding image is made to coincide with the uneven boundary line 34b that is the boundary line between the general surface (concave portion) 32 and the first convex portion 34. .

レーダ画像66は、車載レーダ(図示せず)の検知方向を示す表示物66aを有する。表示物66aは、一定周期でレーダ画像66の中心の回りを一方向に回転する。車載レーダが障害物を検知した場合、障害物の位置は、レーダ画像66の中で車両10を中心とする相対的な位置で示される。プロジェクタ30は、レーダ画像66を第2凸部36の表面に投影する。この際、レーダ画像66とその周囲の画像とを区画する境界線である画像境界線66bを、一般面(凹部)32と第2凸部36との境界線である凹凸境界線36bと一致させる。   The radar image 66 has a display object 66a indicating the detection direction of an on-vehicle radar (not shown). The display object 66a rotates in one direction around the center of the radar image 66 at a constant period. When the in-vehicle radar detects an obstacle, the position of the obstacle is indicated by a relative position centered on the vehicle 10 in the radar image 66. The projector 30 projects the radar image 66 on the surface of the second convex portion 36. At this time, the image boundary line 66 b that is a boundary line that divides the radar image 66 and the surrounding image is made to coincide with the uneven boundary line 36 b that is the boundary line between the general surface (concave portion) 32 and the second convex portion 36. .

燃料画像68は、燃料タンク内における燃料の増減に応じて動作する表示物68aを有する。表示物68aは、メータECU54(図3参照)から出力される燃料情報又は燃料の残量を計測するセンサ、例えばサーミスタ(図示せず)等から出力される残量情報に基づいて動作する。プロジェクタ30は、燃料画像68を第3凸部38の表面に投影する。この際、燃料画像68とその周囲の画像とを区画する境界線である画像境界線68bを、一般面(凹部)32と第3凸部38との境界線である凹凸境界線38bと一致させる。   The fuel image 68 has a display object 68a that operates according to the increase or decrease of the fuel in the fuel tank. The display object 68a operates based on fuel information output from the meter ECU 54 (see FIG. 3) or remaining amount information output from a sensor that measures the remaining amount of fuel, such as a thermistor (not shown). The projector 30 projects the fuel image 68 on the surface of the third convex portion 38. At this time, an image boundary line 68b that is a boundary line that divides the fuel image 68 and the surrounding image is made to coincide with an uneven boundary line 38b that is a boundary line between the general surface (concave portion) 32 and the third convex portion 38. .

ここで、ダッシュボード18の表面に図4で示す第1操作画像62が投影された状態で、カメラ26により乗員の手腕が撮像されたとする。このとき、第1操作画像62内の所定位置、ここでは右側に、図5で示すような領域画像74が表示される。更に、領域画像74からポインタ画像76が出現する。制御部46は、ポインタ画像76が出現した時点で、撮像空間内の乗員の手の位置とポインタ画像76の位置とを対応付ける。このようにすることで、乗員が手を移動させるジェスチャ操作を行うと、ポインタ画像76は第1操作画像62の中を移動する。   Here, it is assumed that the occupant's arm is imaged by the camera 26 in a state where the first operation image 62 shown in FIG. 4 is projected on the surface of the dashboard 18. At this time, a region image 74 as shown in FIG. 5 is displayed at a predetermined position in the first operation image 62, here on the right side. Further, a pointer image 76 appears from the area image 74. The control unit 46 associates the position of the occupant's hand in the imaging space with the position of the pointer image 76 when the pointer image 76 appears. In this way, when the occupant performs a gesture operation to move the hand, the pointer image 76 moves in the first operation image 62.

図6で示すように、乗員の手の動作に連動して、ポインタ画像76が第1操作画像62内の定位置近傍、ここでは下側近傍に移動したとする。このとき、移動先の定位置に第1固定画像78が表示される。第1固定画像78は、次画像への遷移を行うためのスイッチに相当する。ポインタ画像76が第1固定画像78に接触、又は、所定距離以下に接近すると、第1固定画像78に対応付けられた機能が選択される。本実施形態で、第1固定画像78に対応付けられた機能は、第1操作画像62から図7で示す第2操作画像80への遷移である。制御部46は、投影する画像を第1操作画像62から第2操作画像80に遷移させる。   As shown in FIG. 6, it is assumed that the pointer image 76 is moved to the vicinity of the fixed position in the first operation image 62, in this case, the lower side in conjunction with the movement of the passenger's hand. At this time, the first fixed image 78 is displayed at the fixed position of the movement destination. The first fixed image 78 corresponds to a switch for making a transition to the next image. When the pointer image 76 touches the first fixed image 78 or approaches a predetermined distance or less, the function associated with the first fixed image 78 is selected. In the present embodiment, the function associated with the first fixed image 78 is a transition from the first operation image 62 to the second operation image 80 shown in FIG. The control unit 46 changes the image to be projected from the first operation image 62 to the second operation image 80.

[5.第2操作画像80]
図7〜図9を用いて第1操作画像62から遷移する第2操作画像80について説明する。操作装置ECU42の制御部46は、記憶装置48から図7で示すような第2操作画像80の情報を読み込んで、プロジェクタ30に対して表示指示を出力する。プロジェクタ30は表示指示を受けて、ダッシュボード18の表面に第2操作画像80を投影する。なお、図7で示す第2操作画像80は本実施形態で行われる画像遷移のうちの初期画像の次の階層の画像である。第1操作画像62と同様に、第2操作画像80も図5で示されるようなコンテンツに限らず、様々なコンテンツが可能である。
[5. Second operation image 80]
The second operation image 80 that transitions from the first operation image 62 will be described with reference to FIGS. The control unit 46 of the operation device ECU 42 reads information on the second operation image 80 as shown in FIG. 7 from the storage device 48 and outputs a display instruction to the projector 30. In response to the display instruction, the projector 30 projects the second operation image 80 on the surface of the dashboard 18. Note that the second operation image 80 shown in FIG. 7 is an image in a layer next to the initial image in the image transition performed in the present embodiment. Similar to the first operation image 62, the second operation image 80 is not limited to the content as shown in FIG.

第2操作画像80はCG画像であって、メータのイメージを示すメータ画像82と、オーディオ装置58のイメージを示すオーディオ画像84と、カーナビゲーション装置60のイメージを示すナビ画像86と、エアコンのイメージを示すエアコン画像88とを含む。メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88は、各機器の表示画像又は操作画像への遷移を行うためのスイッチに相当する。更に、第2操作画像80は、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88の中心に第2固定画像90を有し、第2固定画像90を巡る軌道画像92を有する。   The second operation image 80 is a CG image, a meter image 82 showing an image of a meter, an audio image 84 showing an image of the audio device 58, a navigation image 86 showing an image of the car navigation device 60, and an image of an air conditioner. And an air-conditioner image 88 showing. The meter image 82, the audio image 84, the navigation image 86, and the air conditioner image 88 correspond to a switch for making a transition to a display image or an operation image of each device. Further, the second operation image 80 has a second fixed image 90 at the center of the meter image 82, the audio image 84, the navigation image 86, and the air conditioner image 88, and has a trajectory image 92 around the second fixed image 90.

プロジェクタ30は、第2固定画像90を第1凸部34の表面に投影する。この際、第2固定画像90とその周囲の画像とを区画する境界線である画像境界線90bを、一般面(凹部)32と第1凸部34との境界線である凹凸境界線34bと一致させる。   The projector 30 projects the second fixed image 90 on the surface of the first convex portion 34. At this time, an image boundary line 90b that is a boundary line that divides the second fixed image 90 and the surrounding image is changed into an uneven boundary line 34b that is a boundary line between the general surface (concave portion) 32 and the first convex portion 34. Match.

乗員が予め定められた第1ジェスチャ操作、例えば掌を回転させる第1ジェスチャ操作を行うと、図8で示すように、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88は、軌道92に沿って回転する。また、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88のいずれかが第2固定画像90の正面に配置されているときに、乗員が予め定められた第2ジェスチャ操作、例えば手首を跳ね上げる第2ジェスチャ操作を行うと、図9で示すように、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88は、第2固定画像90の内部に移動する。すると、移動した画像82、84、86、88に対応付けられた機能が選択される。   When the occupant performs a predetermined first gesture operation, for example, a first gesture operation for rotating the palm, as shown in FIG. 8, the meter image 82, the audio image 84, the navigation image 86, and the air conditioner image 88 are displayed on the trajectory 92. Rotate along. When any one of the meter image 82, the audio image 84, the navigation image 86, and the air conditioner image 88 is arranged in front of the second fixed image 90, the occupant performs a predetermined second gesture operation, for example, a wrist. When the second gesture operation for flipping up is performed, the meter image 82, the audio image 84, the navigation image 86, and the air conditioner image 88 move to the inside of the second fixed image 90 as shown in FIG. 9. Then, the function associated with the moved images 82, 84, 86, 88 is selected.

乗員がメータ画像82を第2固定画像90の内部に移動させた場合、制御部46は、ダッシュボード18の表面の画像を第2操作画像80からメータパネルの表示画面の画像(図示なし)に遷移させる。このとき、メータECU54から車速等の表示値の情報を入力し、メータパネルの表示画面の画像に表示させる。更に、ダッシュボード18の表面にメータパネルの表示画面が投影されている状態で行われるジェスチャ操作に応じて、メータパネルに対して表示切り替え等の操作指示を出力する。   When the occupant moves the meter image 82 into the second fixed image 90, the control unit 46 changes the image of the surface of the dashboard 18 from the second operation image 80 to an image (not shown) on the display screen of the meter panel. Transition. At this time, display value information such as the vehicle speed is input from the meter ECU 54 and displayed on the display screen image of the meter panel. Further, in response to a gesture operation performed while the display screen of the meter panel is projected on the surface of the dashboard 18, an operation instruction such as display switching is output to the meter panel.

乗員がオーディオ画像84を第2固定画像90の内部に移動させた場合、制御部46は、ダッシュボード18の表面の画像を第2操作画像80からオーディオ装置58の操作画面の画像(図示なし)に遷移させる。このとき、オーディオ装置58から各種情報を入力し、オーディオ装置58の操作画面の画像に表示させる。更に、ダッシュボード18の表面にオーディオ装置58の操作画面が投影されている状態で行われるジェスチャ操作に応じて、オーディオ装置58に対してオーディオ操作の操作指示を出力する。   When the occupant moves the audio image 84 into the second fixed image 90, the control unit 46 changes the image of the surface of the dashboard 18 from the second operation image 80 to the operation screen image of the audio device 58 (not shown). Transition to. At this time, various information is input from the audio device 58 and displayed on the operation screen image of the audio device 58. Furthermore, in response to a gesture operation performed while the operation screen of the audio device 58 is projected on the surface of the dashboard 18, an operation instruction for audio operation is output to the audio device 58.

乗員がナビ画像86を第2固定画像90の内部に移動させた場合、制御部46は、ダッシュボード18の表面の画像を第2操作画像80からカーナビゲーション装置60の表示画面の画像(図示なし)に遷移させる。このとき、カーナビゲーション装置60から各種情報を入力し、カーナビゲーション装置60の表示画面の画像に表示させる。更に、ダッシュボード18の表面にカーナビゲーション装置60の表示画面が投影されている状態で行われるジェスチャ操作に応じて、カーナビゲーション装置60に対してナビ操作の操作指示を出力する。   When the occupant moves the navigation image 86 into the second fixed image 90, the control unit 46 changes the image of the surface of the dashboard 18 from the second operation image 80 to the image of the display screen of the car navigation device 60 (not shown). ). At this time, various types of information are input from the car navigation device 60 and displayed on the display screen image of the car navigation device 60. Further, in response to a gesture operation performed while the display screen of the car navigation device 60 is projected on the surface of the dashboard 18, an operation instruction for a navigation operation is output to the car navigation device 60.

乗員がエアコン画像88を第2固定画像90の内部に移動させた場合、制御部46は、ダッシュボード18の表面の画像を第2操作画像80からエアコンの操作画面の画像(図示なし)に遷移させる。このとき、エアコンECU56から設定温度等の設定値の情報を入力し、エアコンの操作画面を画像に表示させる。更に、ダッシュボード18にエアコンの操作画面が投影されている状態で行われるジェスチャ操作に応じて、エアコンECU56に対してエアコン操作の操作指示を出力する。   When the occupant moves the air conditioner image 88 into the second fixed image 90, the control unit 46 changes the image of the surface of the dashboard 18 from the second operation image 80 to an image of the operation screen of the air conditioner (not shown). Let At this time, information on a set value such as a set temperature is input from the air conditioner ECU 56, and an operation screen of the air conditioner is displayed on the image. Further, in response to a gesture operation performed while the operation screen of the air conditioner is projected on the dashboard 18, an operation instruction for operating the air conditioner is output to the air conditioner ECU 56.

[6.車両用操作装置40の動作]
[6−1.動作1]
図10を用いて車両用操作装置40の動作1について説明する。以下の処理は所定のタイミング、例えば車両用操作装置40の電源が投入された時点で開始される。以下の処理では、ダッシュボード18の表面に、図4〜図6で示す第1操作画像62が投影されるものとする。
[6. Operation of operation device 40 for vehicle]
[6-1. Operation 1]
The operation 1 of the vehicle operation device 40 will be described with reference to FIG. The following process is started at a predetermined timing, for example, when the vehicle operating device 40 is turned on. In the following process, the first operation image 62 shown in FIGS. 4 to 6 is projected on the surface of the dashboard 18.

ステップS1にて、プロジェクタ30による第1操作画像62の投影と、カメラ26によるジェスチャ操作空間の撮像とが行われる。また、制御部46から投影指示を受けたプロジェクタ30はダッシュボード18の表面に第1操作画像62を投影する。また、カメラ26は運転席14と助手席16の間の空間を撮像する。操作装置ECU42の認識部44はカメラ26により撮像された撮像情報を入力して認識処理を行う。前述したように、カメラ26による撮像はモーションセンサの検知結果に応じて行われてもよいし、常時行われてもよい。また、動作が所定時間撮像されない場合にカメラ26による撮像を停止してもよい。   In step S1, the projection of the first operation image 62 by the projector 30 and the imaging of the gesture operation space by the camera 26 are performed. Further, the projector 30 that has received a projection instruction from the control unit 46 projects the first operation image 62 on the surface of the dashboard 18. Further, the camera 26 images the space between the driver's seat 14 and the passenger seat 16. The recognizing unit 44 of the operating device ECU 42 receives image information captured by the camera 26 and performs a recognition process. As described above, imaging by the camera 26 may be performed according to the detection result of the motion sensor, or may be performed constantly. Further, when the operation is not imaged for a predetermined time, the imaging by the camera 26 may be stopped.

ステップS2にて、カメラ26の撮像情報から乗員の手が認識されたか否かが判定される。乗員がジェスチャ操作空間に手をかざすと、カメラ26により手が撮像され、認識部44により乗員の手が認識される。認識部44により乗員の手が認識された場合(ステップS2:YES)、ステップS3の処理に移行する。一方、認識部44により乗員の手が認識されない場合(ステップS2:NO)、ステップS2の処理が繰り返し実行される。   In step S <b> 2, it is determined whether or not a passenger's hand has been recognized from the imaging information of the camera 26. When the occupant holds his hand over the gesture operation space, the hand is imaged by the camera 26 and the occupant's hand is recognized by the recognition unit 44. When the occupant's hand is recognized by the recognition unit 44 (step S2: YES), the process proceeds to step S3. On the other hand, when the occupant's hand is not recognized by the recognition unit 44 (step S2: NO), the process of step S2 is repeatedly executed.

ステップS3にて、第1操作画像62においてポインタ画像76が表示される。制御部46はプロジェクタ30に対して表示指示を出力する。プロジェクタ30は表示指示にしたがって第1操作画像62を投影する。このとき、図5で示すように、第1操作画像62内には領域画像74が表示され、次いで領域画像74からポインタ画像76が出現する。   In step S <b> 3, a pointer image 76 is displayed in the first operation image 62. The control unit 46 outputs a display instruction to the projector 30. The projector 30 projects the first operation image 62 according to the display instruction. At this time, as shown in FIG. 5, a region image 74 is displayed in the first operation image 62, and then a pointer image 76 appears from the region image 74.

ステップS4にて、ポインタ画像76と乗員の手の対応付けが行われる。制御部46は、ポインタ画像76が出現した時点で、撮像空間内の乗員の手の位置とポインタ画像76の位置とを対応付ける。乗員が手を移動させた場合、認識部44で認識される手の移動量及び移動方向をポインタ画像76の移動量及び移動方向に変換する。そして、第1操作画像62の情報、及び、第1操作画像62の中で移動するポインタ画像76の情報をプロジェクタ30に出力する。このとき、手の所定部位、例えば指先の位置をポインタ画像76の位置と対応付けてもよいし、掌の位置をポインタ画像76の位置と対応付けてもよい。   In step S4, the pointer image 76 is associated with the passenger's hand. The control unit 46 associates the position of the occupant's hand in the imaging space with the position of the pointer image 76 when the pointer image 76 appears. When the occupant moves the hand, the movement amount and movement direction of the hand recognized by the recognition unit 44 are converted into the movement amount and movement direction of the pointer image 76. Then, the information on the first operation image 62 and the information on the pointer image 76 that moves in the first operation image 62 are output to the projector 30. At this time, a predetermined part of the hand, for example, the position of the fingertip may be associated with the position of the pointer image 76, or the position of the palm may be associated with the position of the pointer image 76.

ステップS5にて、ポインタ画像76による指示があるか否かが判定される。乗員の手腕の動作に連動してポインタ画像76は移動する。図6で示すように、ポインタ画像76が第1固定画像78に接触、又は、所定距離以下に接近した場合(ステップS5:YES)、ステップS6の処理に移行する。一方、ポインタ画像76が第1固定画像78に接触、又は、所定距離以下に接近していない場合(ステップS5:NO)、ステップS7の処理に移行する。   In step S5, it is determined whether or not there is an instruction by the pointer image 76. The pointer image 76 moves in conjunction with the movement of the occupant's hands and arms. As shown in FIG. 6, when the pointer image 76 contacts the first fixed image 78 or approaches a predetermined distance or less (step S5: YES), the process proceeds to step S6. On the other hand, when the pointer image 76 is in contact with the first fixed image 78 or not approaching the predetermined distance or less (step S5: NO), the process proceeds to step S7.

ステップS6にて、ジェスチャ操作により指示された処理が実行される。ポインタ画像76が接触した第1固定画像78に対応付けられた機能は、第1操作画像62から図7で示す第2操作画像80への遷移である。制御部46は、ダッシュボード18の表面に投影する画像を第1操作画像62から第2操作画像80に遷移させる。   In step S6, the process instructed by the gesture operation is executed. The function associated with the first fixed image 78 touched by the pointer image 76 is a transition from the first operation image 62 to the second operation image 80 shown in FIG. The control unit 46 causes the image projected on the surface of the dashboard 18 to transition from the first operation image 62 to the second operation image 80.

ステップS7にて、カメラ26の撮像情報から乗員の手が認識されたか否かが判定される。認識部44により乗員の手が認識された場合(ステップS7:YES)、ステップS5の処理に移行する。ここでは乗員によるポインタ画像76の操作が継続される。一方、認識部44により乗員の手が認識されない場合(ステップS7:NO)、ステップS8の処理に移行する。   In step S <b> 7, it is determined whether or not the passenger's hand is recognized from the imaging information of the camera 26. When the occupant's hand is recognized by the recognition unit 44 (step S7: YES), the process proceeds to step S5. Here, the operation of the pointer image 76 by the passenger is continued. On the other hand, when the occupant's hand is not recognized by the recognition unit 44 (step S7: NO), the process proceeds to step S8.

ステップS8にて、第1操作画像62においてポインタ画像76が非表示とされる。このとき、既に乗員の手腕がカメラ26により撮像されていないものと推定されるため、ポインタ画像76は非表示とされる。   In step S8, the pointer image 76 is not displayed in the first operation image 62. At this time, since it is presumed that the hand of the occupant has not been captured by the camera 26, the pointer image 76 is not displayed.

[6−2.動作2]
図11を用いて車両用操作装置40の動作2について説明する。以下の処理は図10のステップS6処理の一例である。以下の処理では、ダッシュボード18の表面に、図7〜図9で示す第2操作画像80が投影されるものとする。
[6-2. Operation 2]
The operation 2 of the vehicle operating device 40 will be described with reference to FIG. The following processing is an example of step S6 in FIG. In the following process, the second operation image 80 shown in FIGS. 7 to 9 is projected on the surface of the dashboard 18.

ステップS11にて、プロジェクタ30による第2操作画像80の投影と、カメラ26によるジェスチャ操作空間の撮像とが行われる。制御部46から投影指示を受けたプロジェクタ30はダッシュボード18の表面に第2操作画像80を投影する。また、カメラ26は運転席14と助手席16の間の空間を撮像する。操作装置ECU42の認識部44はカメラ26により撮像された撮像情報を入力して認識処理を行う。   In step S11, projection of the second operation image 80 by the projector 30 and imaging of the gesture operation space by the camera 26 are performed. Receiving the projection instruction from the control unit 46, the projector 30 projects the second operation image 80 on the surface of the dashboard 18. Further, the camera 26 images the space between the driver's seat 14 and the passenger seat 16. The recognizing unit 44 of the operating device ECU 42 receives image information captured by the camera 26 and performs a recognition process.

ステップS12にて、カメラ26の撮像情報から乗員の手が認識されたか否かが判定される。乗員がジェスチャ操作空間に手をかざすと、カメラ26により手が撮像され、認識部44により乗員の手が認識される。認識部44により乗員の手が認識された場合(ステップS12:YES)、ステップS13の処理に移行する。一方、認識部44により乗員の手が認識されない場合(ステップS12:NO)、ステップS12の処理が繰り返し実行される。   In step S12, it is determined whether or not the passenger's hand is recognized from the imaging information of the camera 26. When the occupant holds his hand over the gesture operation space, the hand is imaged by the camera 26 and the occupant's hand is recognized by the recognition unit 44. When the occupant's hand is recognized by the recognition unit 44 (step S12: YES), the process proceeds to step S13. On the other hand, when the occupant's hand is not recognized by the recognition unit 44 (step S12: NO), the process of step S12 is repeatedly executed.

ステップS13にて、カメラ26の撮像情報から乗員のジェスチャ操作による指示があるか否かが判定される。乗員が掌を回転させる第1ジェスチャを行うと、図8で示すように、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88は、軌道92に沿って回転する。また、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88のいずれかが第2固定画像90の正面に配置されているときに、乗員が予め定められた第2ジェスチャ操作、例えば手首を跳ね上げる第2ジェスチャ操作を行うと、図9で示すように、メータ画像82とオーディオ画像84とナビ画像86とエアコン画像88のいずれかは、第2固定画像90の内部に移動する。すると、移動した画像82、84、86、88に対応付けられた機能が選択される。   In step S13, it is determined whether there is an instruction by the occupant's gesture operation from the imaging information of the camera 26. When the occupant performs the first gesture for rotating the palm, as shown in FIG. 8, the meter image 82, the audio image 84, the navigation image 86, and the air conditioner image 88 rotate along the track 92. When any one of the meter image 82, the audio image 84, the navigation image 86, and the air conditioner image 88 is arranged in front of the second fixed image 90, the occupant performs a predetermined second gesture operation, for example, a wrist. When the second gesture operation for flipping up is performed, any one of the meter image 82, the audio image 84, the navigation image 86, and the air conditioner image 88 moves into the second fixed image 90 as shown in FIG. 9. Then, the function associated with the moved images 82, 84, 86, 88 is selected.

ステップS14にて、ジェスチャ操作により指示された処理が実行される。制御部46は、ダッシュボード18の表面に投影する画像を、第1操作画像62から、第2固定画像90に動かされた画像82、84、86、88に対応する操作画像又は表示画像に遷移させる。更に、ダッシュボード18の表面にその操作画像又は表示画像が投影された状態で行われるジェスチャ操作に応じて、メータパネル、エアコン、オーディオ装置58、カーナビゲーション装置60に操作指示を出力する。   In step S14, the process instructed by the gesture operation is executed. The control unit 46 changes the image projected on the surface of the dashboard 18 from the first operation image 62 to an operation image or display image corresponding to the images 82, 84, 86, 88 moved to the second fixed image 90. Let Furthermore, an operation instruction is output to the meter panel, the air conditioner, the audio device 58, and the car navigation device 60 in accordance with a gesture operation performed in a state where the operation image or the display image is projected on the surface of the dashboard 18.

[6−3.動作3]
図12を用いて車両用操作装置40の動作3について説明する。図12で示すステップS21〜ステップS24の処理は、図10で示すステップS1〜ステップS4の処理と一致する。また、図12で示すステップS27〜ステップS30の処理は、図10で示すステップS5〜ステップS8の処理と一致する。つまり、動作3は図10を用いて説明した動作1にステップS25及びステップS26の処理を付加したものである。以下では図10を用いて説明した動作1と同じ処理の説明を省略し、付加した処理のみを説明する。
[6-3. Operation 3]
The operation | movement 3 of the operating device 40 for vehicles is demonstrated using FIG. The process of step S21 to step S24 shown in FIG. 12 is the same as the process of step S1 to step S4 shown in FIG. Moreover, the process of step S27-step S30 shown in FIG. 12 corresponds with the process of step S5-step S8 shown in FIG. That is, the operation 3 is obtained by adding the processes of steps S25 and S26 to the operation 1 described with reference to FIG. Hereinafter, the description of the same process as that of the operation 1 described with reference to FIG. 10 is omitted, and only the added process will be described.

ステップS24にて、ポインタ画像76と乗員の手の対応付けが行われた後、ステップS25にて、手腕の進入方向が判定される。認識部44は認識している手及び/又は腕が撮像領域に対して運転席側から進入するか、助手席側から進入するかを判別する。進入方向は、手腕の進入位置又は進入角度により判定可能である。運転席側から進入する場合(ステップS25:運転席側)、ステップS26の処理に移行する。一方、助手席側から進入する場合(ステップS25:助手席側)、ステップS27の処理に移行する。   After the pointer image 76 and the occupant's hand are associated in step S24, the approach direction of the hand and arm is determined in step S25. The recognizing unit 44 determines whether the recognized hand and / or arm enters the imaging area from the driver seat side or the passenger seat side. The approach direction can be determined by the approach position or the approach angle of the hand and arm. When entering from the driver's seat side (step S25: driver's seat side), the process proceeds to step S26. On the other hand, when entering from the passenger seat side (step S25: passenger seat side), the process proceeds to step S27.

ステップS26にて、一部操作が規制される。この処理は、ジェスチャ操作を行っている乗員が運転者である可能性が高い場合に行われる。制御部46は一部の操作、例えば、図7〜図9で示すナビ画像86を選択できなくしたり、オーディオ装置58の一部操作をできなくする。   In step S26, some operations are restricted. This process is performed when there is a high possibility that the occupant performing the gesture operation is a driver. The control unit 46 cannot select some operations, for example, the navigation image 86 shown in FIGS. 7 to 9 or cannot partially operate the audio device 58.

[6−4.動作4]
図13を用いて車両用操作装置40の動作4について説明する。図10で示すステップS1、図12で示すステップS21の各処理で第1操作画像62を投影する際、及び/又は、図11で示すステップS11の処理で第2操作画像80を投影する際に図13で示すステップS41〜S43の処理が行われてもよい。
[6-4. Operation 4]
The operation 4 of the vehicle operation device 40 will be described with reference to FIG. When projecting the first operation image 62 in each process of step S1 shown in FIG. 10 and step S21 shown in FIG. 12, and / or projecting the second operation image 80 in the process of step S11 shown in FIG. Processing of steps S41 to S43 shown in FIG. 13 may be performed.

ステップS41にて、運転モードが判定される。制御部46は運転支援ECU52から出力される運転モード情報に基づいて運転モードを判定する。車両10が自動運転(半自動運転を含む)モードである場合(ステップS41:自動運転モード)、ステップS42の処理に移行する。一方、車両10が手動運転モードである場合(ステップS41:手動運転モード)、ステップS43の処理に移行する。   In step S41, the operation mode is determined. The control unit 46 determines the driving mode based on the driving mode information output from the driving support ECU 52. When the vehicle 10 is in the automatic driving (including semi-automatic driving) mode (step S41: automatic driving mode), the process proceeds to step S42. On the other hand, when the vehicle 10 is in the manual operation mode (step S41: manual operation mode), the process proceeds to step S43.

ステップS42にて、プロジェクタ30は操作画像(第1操作画像62、第2操作画像80)の表示範囲を拡大して投影する。このとき、制御部46はプロジェクタ30に対して表示領域の拡大を指示し、プロジェクタ30は指示に応じて操作画像を投影する。   In step S42, the projector 30 projects an enlarged display range of the operation image (first operation image 62, second operation image 80). At this time, the control unit 46 instructs the projector 30 to enlarge the display area, and the projector 30 projects an operation image according to the instruction.

ステップS43にて、プロジェクタ30は操作画像(第1操作画像62、第2操作画像80)の表示範囲を拡大せずに投影する。このとき、制御部46はプロジェクタ30に対して通常の表示領域を指示し、プロジェクタ30は指示に応じて操作画像を投影する。   In step S43, the projector 30 projects the display range of the operation images (the first operation image 62 and the second operation image 80) without enlarging them. At this time, the control unit 46 instructs the projector 30 to display a normal display area, and the projector 30 projects an operation image according to the instruction.

[6−5.他の動作]
なお、ダッシュボード18には第1凸部34、第2凸部36、第3凸部38が設けられていなくてもよい。そのような場合は、投影面30aをずらしてもよい。例えば、次のような本実施形態では他の動作が行われてもよい。
[6-5. Other actions]
The dashboard 18 may not be provided with the first convex portion 34, the second convex portion 36, and the third convex portion 38. In such a case, the projection plane 30a may be shifted. For example, other operations may be performed in the following embodiment.

カメラ26が3次元の位置を検知できる場合、例えばTOFカメラである場合、ジェスチャ操作を行う手腕の高さに応じて、第1操作画像62、第2操作画像80の投影高さを変えることも可能である。認識部44で認識される手の位置が高い場合、ジェスチャ操作している乗員が高身長である可能性が高い。この場合、第1操作画像62、第2操作画像80はダッシュボード18の上部に投影されることが好ましい。このため、制御部46はプロジェクタ30に対して表示領域をダッシュボード18の上部にするように指示し、プロジェクタ30は指示に応じて操作画像を投影する。一方、認識部44で認識される手の位置が低い場合、ジェスチャ操作している乗員が低身長である可能性が高い。この場合、第1操作画像62、第2操作画像80はダッシュボード18の下部に投影されることが好ましい。このため、制御部46はプロジェクタ30に対して表示領域をダッシュボード18の下部にするように指示し、プロジェクタ30は指示に応じて操作画像を投影する。   When the camera 26 can detect a three-dimensional position, for example, when the camera 26 is a TOF camera, the projection height of the first operation image 62 and the second operation image 80 may be changed according to the height of the hand performing the gesture operation. Is possible. When the position of the hand recognized by the recognition unit 44 is high, there is a high possibility that the occupant performing the gesture operation is tall. In this case, the first operation image 62 and the second operation image 80 are preferably projected on the upper portion of the dashboard 18. For this reason, the control unit 46 instructs the projector 30 to place the display area above the dashboard 18, and the projector 30 projects an operation image in accordance with the instruction. On the other hand, when the position of the hand recognized by the recognition unit 44 is low, there is a high possibility that the occupant performing the gesture operation is short. In this case, the first operation image 62 and the second operation image 80 are preferably projected on the lower part of the dashboard 18. Therefore, the control unit 46 instructs the projector 30 to place the display area below the dashboard 18, and the projector 30 projects an operation image in accordance with the instruction.

[7.関連技術]
本実施形態は次の構成を備えていてもよい。図14で示すように、車両10のルーフ100の側端にはカメラ102が設けられる。カメラ102は車両10の側方に向けて配置される。車室12内にはプロジェクタ104が設けられる。プロジェクタ104は後部スライドドア106のウインドウ108に向けて配置される。サイドミラー110にはプロジェクタ112が設けられる。プロジェクタ112は下方に向けて配置される。
[7. Related technology]
The present embodiment may have the following configuration. As shown in FIG. 14, a camera 102 is provided at the side end of the roof 100 of the vehicle 10. The camera 102 is arranged toward the side of the vehicle 10. A projector 104 is provided in the passenger compartment 12. The projector 104 is disposed toward the window 108 of the rear sliding door 106. The side mirror 110 is provided with a projector 112. The projector 112 is disposed downward.

この実施形態は次のように動作する。車両10に乗員が近づくと、カメラ102は乗員を撮像する。図示しないECUは、カメラ102の撮像情報に基づいて画像認識処理を行う。乗員であると同定された場合、更に乗員の位置を判定する。乗員の位置が後部スライドドア106周辺である場合、プロジェクタ104がウインドウ108に対して出迎え画像114を投影する。乗員の位置が前部ドア118周辺である場合、プロジェクタ112が地面に対して出迎え画像118を投影する。プロジェクタ104、112の投影等の制御主体はECUである。
なお、画像認識により乗員を認識する代わりに、運転者が携帯するキーと車両10との間の通信により乗員(運転者)を認識してもよい。
This embodiment operates as follows. When an occupant approaches the vehicle 10, the camera 102 images the occupant. An ECU (not shown) performs image recognition processing based on imaging information of the camera 102. If it is identified as an occupant, the position of the occupant is further determined. When the position of the passenger is around the rear slide door 106, the projector 104 projects a welcome image 114 onto the window 108. When the position of the occupant is around the front door 118, the projector 112 projects the welcome image 118 on the ground. The control body such as the projection of the projectors 104 and 112 is an ECU.
Instead of recognizing the occupant by image recognition, the occupant (driver) may be recognized by communication between the key carried by the driver and the vehicle 10.

[8.変形例]
図3で示す車両用操作装置40は表示部としてプロジェクタ30を備えているが、図15で示す車両用操作装置40´のように表示部としてディスプレイ120を備えることも可能である。を備える。この場合、ダッシュボード18にディスプレイ120が埋め込まれる。また、ダッシュボード18の表面にディスプレイ120が取り付けられてもよい。ディスプレイ120は液晶パネルでもよいし有機ELでもよい。
[8. Modified example]
The vehicle operation device 40 shown in FIG. 3 includes the projector 30 as a display unit. However, the vehicle operation device 40 ′ illustrated in FIG. 15 may include the display 120 as a display unit. Is provided. In this case, the display 120 is embedded in the dashboard 18. Further, the display 120 may be attached to the surface of the dashboard 18. The display 120 may be a liquid crystal panel or an organic EL.

[9.本実施形態のまとめ]
本実施形態に係る車両用操作装置40、40´は、車両10の内装部材に設けられて乗員による操作の対象となる操作画像(第1操作画像62、第2操作画像80、以下、操作画像62、80ともいう。)を表示する表示部(プロジェクタ30、投影面30a、ディスプレイ120、以下、表示部30、30a、120ともいう。)と、操作画像62、80に対する操作入力として乗員のジェスチャを認識するジェスチャ認識部(カメラ26、認識部44、以下ジェスチャ認識部26、44ともいう。)と、操作画像62、80に対する操作入力に応じて所定の制御を行う制御部46と、を備える。表示部30a、120は、車両10の内装部材である助手席16側のダッシュボード18上に配置される。ジェスチャ認識部26、44は、車両10の車幅方向における運転席14と助手席16との間の位置で行われる乗員の身体の動きをジェスチャとして認識する。
[9. Summary of this embodiment]
The vehicle operation devices 40, 40 ′ according to the present embodiment are operation images (first operation image 62, second operation image 80, hereinafter referred to as operation images) that are provided on the interior member of the vehicle 10 and are to be operated by a passenger. 62, 80)) and a display unit (projector 30, projection surface 30a, display 120, hereinafter also referred to as display units 30, 30a, 120), and an occupant's gesture as an operation input to operation images 62, 80. A gesture recognizing unit (camera 26, recognizing unit 44, hereinafter also referred to as gesture recognizing unit 26, 44), and a control unit 46 that performs predetermined control in response to an operation input on the operation images 62, 80. . The display units 30 a and 120 are arranged on the dashboard 18 on the passenger seat 16 side which is an interior member of the vehicle 10. The gesture recognition units 26 and 44 recognize the movement of the occupant's body performed as a gesture at a position between the driver's seat 14 and the passenger seat 16 in the vehicle width direction of the vehicle 10.

助手席16側のダッシュボード18には計器等が配置されない。たとえメータの表示領域拡大等で多少計器が配置されたとしてもその他に運転操作に必要な操作手段は配置されない。したがって、一般に助手席16側のダッシュボード18には広い領域が空いている。本実施形態によれば、助手席16側のダッシュボード18に操作画像62、80を表示する。このため、操作画像62、80の表示領域を広く確保することができ、ジェスチャ操作でも誤操作が生じにくいGUIを構成することが可能となる。また、運転席14と助手席16との間でジェスチャを認識する。このため、運転席14に着座した乗員からでも助手席16側の操作画像62、80に対する操作が可能となり、操作性を確保することができる。   No instrument or the like is arranged on the dashboard 18 on the passenger seat 16 side. Even if some instruments are arranged due to expansion of the display area of the meter or the like, no other operation means necessary for driving operation is arranged. Therefore, generally, the dashboard 18 on the passenger seat 16 side has a wide area. According to this embodiment, the operation images 62 and 80 are displayed on the dashboard 18 on the passenger seat 16 side. For this reason, it is possible to secure a wide display area for the operation images 62 and 80, and it is possible to configure a GUI that is unlikely to cause an erroneous operation even with a gesture operation. A gesture is recognized between the driver's seat 14 and the passenger seat 16. Therefore, even an occupant seated in the driver's seat 14 can operate the operation images 62 and 80 on the passenger seat 16 side, and operability can be ensured.

操作画像62は、選択対象として定位置に表示される固定画像(第1固定画像78、以下、固定画像78ともいう。)と、ジェスチャ認識部26、44により認識されたジェスチャに対応して操作画像62の中を移動することで固定画像78を選択可能に表示されるポインタ画像76とを含んで構成される。ジェスチャ操作によりポインタ画像76を操作可能にすると、操作画像26はより操作しやすくなり、誤操作の少ないGUIを構成できる。また、操作画像が操作しやすくなると、乗員がジェスチャ操作に気をとられることがなくなる。   The operation image 62 is operated corresponding to a fixed image (first fixed image 78, hereinafter also referred to as a fixed image 78) displayed at a fixed position as a selection target, and a gesture recognized by the gesture recognition units 26 and 44. The pointer image 76 is displayed so that the fixed image 78 can be selected by moving in the image 62. When the pointer image 76 can be operated by a gesture operation, the operation image 26 can be operated more easily, and a GUI with few erroneous operations can be configured. In addition, when the operation image becomes easy to operate, the occupant will not be concerned about the gesture operation.

制御部46は、ポインタ画像76が固定画像78の領域に接触又は所定距離以下に接近したときに固定画像78を選択し、固定画像78の機能に応じた所定の制御を行う。このようにすることにより、ポインタ画像76で固定画像78を選択するのみで機能が実行されるため、より操作性をよくすることができる。また、操作性がよくなると、乗員がジェスチャ操作に気をとられることがなくなる。   The control unit 46 selects the fixed image 78 when the pointer image 76 contacts the area of the fixed image 78 or approaches a predetermined distance or less, and performs predetermined control according to the function of the fixed image 78. In this way, since the function is executed only by selecting the fixed image 78 from the pointer image 76, the operability can be improved. Also, if the operability is improved, the passenger will not be concerned about the gesture operation.

表示部30は、操作画像62、80を投影するプロジェクタ30を備える。ダッシュボード18の表面には、凹形状となる凹部(一般面32、以下、凹部32ともいう。)と、凹部32に対して凸形状となる凸部(第1凸部34、第2凸部36、第3凸部38、以下、凸部34、36、38ともいう。)とが形成されている。プロジェクタ30は、操作画像62、80を投影する際に、操作画像62、80を構成する画像のうち所定の領域を区画する境界線である画像境界線64b、66b、68b、90bを、凹部32と凸部34、36、38との境界線である凹凸境界線34b、36b、38bと一致させる。このように、操作画像62、80上の領域とダッシュボード18の凹凸とが対応するようにプロジェクションマッピングを行うため、乗員にとって操作画像62、80の領域がより認識しやすくなり、より操作性をよくすることができる。また、操作性がよくなると、乗員がジェスチャ操作に気をとられることがなくなる。   The display unit 30 includes a projector 30 that projects operation images 62 and 80. On the surface of the dashboard 18, a concave portion having a concave shape (general surface 32, hereinafter also referred to as a concave portion 32) and a convex portion having a convex shape with respect to the concave portion 32 (first convex portion 34, second convex portion). 36, a third convex portion 38, hereinafter also referred to as convex portions 34, 36, 38). When the projector 30 projects the operation images 62 and 80, the image boundary lines 64b, 66b, 68b, and 90b, which are boundary lines that divide a predetermined area among the images constituting the operation images 62 and 80, are formed in the concave portion 32. And the concavo-convex boundary lines 34b, 36b, and 38b, which are boundary lines between the convex portions 34, 36, and 38. In this way, projection mapping is performed so that the regions on the operation images 62 and 80 correspond to the unevenness of the dashboard 18, so that the region of the operation images 62 and 80 can be more easily recognized by the occupant, and the operability can be improved. Can do well. Also, if the operability is improved, the passenger will not be concerned about the gesture operation.

操作画像62、80を構成する画像のうち、選択対象として定位置に表示される固定画像(第2固定画像90、以下、固定画像90という。)と、固定画像90とは異なるその他の画像の領域とを区画する境界線が、画像境界線90bとして設定される。このように、固定画像90とその他の画像との区画と、ダッシュボード18上の凹凸とを対応させるため、乗員にとって固定画像90の領域が認識しやすくなる。また、固定画像90の領域が認識しやすくなると、乗員がジェスチャ操作に気をとられることがなくなる。   Of the images constituting the operation images 62 and 80, a fixed image (second fixed image 90, hereinafter referred to as a fixed image 90) displayed at a fixed position as a selection target, and other images different from the fixed image 90 are displayed. A boundary line that divides the region is set as an image boundary line 90b. As described above, since the section between the fixed image 90 and other images and the unevenness on the dashboard 18 are made to correspond to each other, it is easy for the passenger to recognize the area of the fixed image 90. Further, when the area of the fixed image 90 is easily recognized, the occupant will not be distracted by the gesture operation.

凹部32は、ダッシュボード18の一般面32として形成される。また、凸部34、36、38は、一般面32に対して車室12内側に凸となるように形成される。そして、凸部34、36、38は、ダッシュボード18に対する取り付け及びダッシュボード18からの取り外しが可能である。このように凸部34、36、38を着脱可能に構成することで、GUIの変更やジェスチャ操作を用いない場合の汎用性が高まる。   The recess 32 is formed as a general surface 32 of the dashboard 18. Further, the convex portions 34, 36, and 38 are formed so as to be convex toward the inside of the passenger compartment 12 with respect to the general surface 32. The convex portions 34, 36, and 38 can be attached to and detached from the dashboard 18. As described above, the convex portions 34, 36, and 38 are configured to be detachable, so that versatility when a GUI change or a gesture operation is not used is enhanced.

車両10の天井(ルーフ24)には、後席用ルーフコンソール28が備えられる。プロジェクタ30は、後席用ルーフコンソール28に一体に設けられる。このようにすることにより、操作画像62、80を投影するプロジェクション方式を用いる場合でも乗員に遮られる可能性が低い。また、助手席16側のダッシュボード18から運転席14側のインストルメントパネルにかけて表示部30a、120を拡大した場合でも対応可能である。   A rear seat roof console 28 is provided on the ceiling (roof 24) of the vehicle 10. The projector 30 is provided integrally with the rear seat roof console 28. By doing in this way, even when using the projection system which projects the operation images 62 and 80, possibility that it will be obstruct | occluded by a passenger | crew is low. In addition, even when the display units 30a and 120 are enlarged from the dashboard 18 on the passenger seat 16 side to the instrument panel on the driver seat 14 side, it can be dealt with.

ジェスチャ認識部26、44は、認識したジェスチャが運転席14側の乗員によるものか助手席16側の乗員によるものかを判別する。制御部46は、ジェスチャ認識部26、44による判別の結果に応じて異なる制御を行う。運転席14側からの操作と助手席16側からの操作を判別することにより利便性が向上する。例えば、煩雑な操作(例えばカーナビゲーション装置60の操作)に関しては、運転席14側からは禁止する一方で、助手席16側からは許容する等の対応をすることができる。   The gesture recognition units 26 and 44 determine whether the recognized gesture is caused by an occupant on the driver's seat 14 side or an occupant on the passenger seat 16 side. The control unit 46 performs different control according to the determination result by the gesture recognition units 26 and 44. The convenience is improved by discriminating the operation from the driver's seat 14 side and the operation from the passenger seat 16 side. For example, a complicated operation (for example, an operation of the car navigation device 60) can be prohibited from the driver's seat 14 side but allowed from the passenger seat 16 side.

ジェスチャ認識部26、44は、車室12内の所定箇所に設けられて乗員の手腕を撮像するカメラ26を備え、カメラ26の撮像情報によりジェスチャを認識するし、カメラ26の撮像範囲に対する手腕の進入位置又は進入角度により判別を行う。このようにすることで、運転席14側からの操作と助手席16側からの操作との判別を、特別な構成を追加することなく画像解析のみで容易に行うことができる。   The gesture recognition units 26 and 44 include a camera 26 that is provided at a predetermined location in the passenger compartment 12 and images the occupant's hands and arms, recognizes the gesture based on the imaging information of the camera 26, and moves the hands and arms with respect to the imaging range of the camera 26. The determination is made based on the approach position or the approach angle. By doing in this way, it is possible to easily discriminate between the operation from the driver's seat 14 side and the operation from the passenger seat 16 side only by image analysis without adding a special configuration.

車両10には、加減速操作及び操舵操作を乗員の操作により行う手動運転モードと、車両10の加減速操作及び操舵操作のうち少なくとも一方を車両10が自律的に行う運転支援モードとが切替可能に設定される。表示部30a、120は、運転支援モードの間に表示する操作画像62、80を、手動運転モードの間に表示する操作画像62、80よりも拡大する。操作画像62、80の表示時点での運転モードに応じて自動的に表示領域を変更することで、適切なコンテンツを表示することができ、利便性が向上する。   The vehicle 10 can be switched between a manual driving mode in which an acceleration / deceleration operation and a steering operation are performed by an occupant operation, and a driving support mode in which the vehicle 10 autonomously performs at least one of an acceleration / deceleration operation and a steering operation of the vehicle 10. Set to The display units 30a and 120 enlarge the operation images 62 and 80 displayed during the driving support mode than the operation images 62 and 80 displayed during the manual operation mode. By automatically changing the display area according to the operation mode at the time when the operation images 62 and 80 are displayed, appropriate content can be displayed, and convenience is improved.

10…車両 12…車室
14…運転席 16…助手席
26…カメラ 28…後席用ルーフコンソール
30…プロジェクタ 30a…投影面
32…一般面(凹部) 34…第1凸部
36…第2凸部 38…第3凸部
34b、36b、38b…凹凸境界線 40、40´…車両用操作装置
42…操作装置ECU 44…認識部
46…制御部 62…第1操作画像
64b、66b、68b、90b…画像境界線
78…第1固定画像 80…第2操作画像
90…第2固定画像 120…ディスプレイ
DESCRIPTION OF SYMBOLS 10 ... Vehicle 12 ... Vehicle compartment 14 ... Driver's seat 16 ... Passenger seat 26 ... Camera 28 ... Rear seat roof console 30 ... Projector 30a ... Projection surface 32 ... General surface (concave part) 34 ... First convex part 36 ... Second convex part Part 38 ... Third convex parts 34b, 36b, 38b ... Concave and convex boundary lines 40, 40 '... Vehicle operation device 42 ... Operation device ECU 44 ... Recognition part 46 ... Control part 62 ... First operation images 64b, 66b, 68b, 90b ... image boundary line 78 ... first fixed image 80 ... second operation image 90 ... second fixed image 120 ... display

Claims (10)

車両の内装部材に設けられて乗員による操作の対象となる操作画像を表示する表示部と、
前記操作画像に対する操作入力として前記乗員のジェスチャを認識するジェスチャ認識部と、
前記操作画像に対する前記操作入力に応じて所定の制御を行う制御部と、を備える車両用操作装置であって、
前記表示部は、前記車両の内装部材である助手席側のダッシュボード上に配置され、
前記ジェスチャ認識部は、前記車両の車幅方向における運転席と助手席との間の位置で行われる前記乗員の身体の動きを前記ジェスチャとして認識すること
を特徴とする車両用操作装置。
A display unit that is provided on an interior member of the vehicle and displays an operation image to be operated by an occupant;
A gesture recognition unit for recognizing the occupant's gesture as an operation input for the operation image;
A vehicle operation device comprising: a control unit that performs predetermined control according to the operation input with respect to the operation image;
The display unit is disposed on a dashboard on the passenger seat side which is an interior member of the vehicle,
The said gesture recognition part recognizes the motion of the said passenger | crew's body performed in the position between the driver's seat and front passenger seat in the vehicle width direction of the said vehicle as said gesture.
請求項1に記載の車両用操作装置において、
前記操作画像は、選択対象として定位置に表示される固定画像と、前記ジェスチャ認識部により認識された前記ジェスチャに対応して前記操作画像の中を移動することで前記固定画像を選択可能に表示されるポインタ画像とを含んで構成されること
を特徴とする車両用操作装置。
The vehicle operating device according to claim 1,
The operation image is a fixed image displayed at a fixed position as a selection target, and the fixed image can be selected by moving in the operation image corresponding to the gesture recognized by the gesture recognition unit. A vehicle operating device comprising a pointer image.
請求項2に記載の車両用操作装置において、
前記制御部は、前記ポインタ画像が前記固定画像の領域に接触又は所定距離以下に接近したときに前記固定画像を選択し、前記固定画像の機能に応じた前記所定の制御を行うこと
を特徴とする車両用操作装置。
The vehicle operating device according to claim 2,
The control unit selects the fixed image when the pointer image is in contact with the fixed image region or approaches a predetermined distance or less, and performs the predetermined control according to the function of the fixed image. A vehicle operating device.
請求項1〜3のいずれか1項に記載の車両用操作装置において、
前記表示部は、前記操作画像を投影するプロジェクタを備え、
前記ダッシュボードの表面に、凹形状となる凹部と、該凹部に対して凸形状となる凸部とが形成されており、
前記プロジェクタは、前記操作画像を投影する際に、前記操作画像を構成する画像のうち所定の領域を区画する境界線である画像境界線を、前記凹部と前記凸部との境界線である凹凸境界線と一致させること
を特徴とする車両用操作装置。
In the vehicle operating device according to any one of claims 1 to 3,
The display unit includes a projector that projects the operation image,
On the surface of the dashboard, a concave portion having a concave shape and a convex portion having a convex shape with respect to the concave portion are formed,
When the projector projects the operation image, the projector defines an image boundary line that is a boundary line that divides a predetermined region in the image constituting the operation image, and an unevenness that is a boundary line between the concave portion and the convex portion. An operating device for a vehicle, characterized by being matched with a boundary line.
請求項4に記載の車両用操作装置において、
前記操作画像を構成する画像のうち、選択対象として定位置に表示される前記固定画像と、前記固定画像とは異なるその他の画像の領域とを区画する境界線が、前記画像境界線として設定されること
を特徴とする車両用操作装置。
The vehicle operating device according to claim 4,
Of the images constituting the operation image, a boundary line that divides the fixed image displayed at a fixed position as a selection target and a region of another image different from the fixed image is set as the image boundary line. A vehicle operating device characterized by the above.
請求項4又は5に記載の車両用操作装置において、
前記凹部は、前記ダッシュボードの一般面として形成され、
前記凸部は、前記一般面に対して車両室内側に凸となるように形成され、
前記凸部は、前記ダッシュボードに対する取り付け及び前記ダッシュボードからの取り外しが可能であること
を特徴とする車両用操作装置。
In the vehicle operating device according to claim 4 or 5,
The recess is formed as a general surface of the dashboard;
The convex portion is formed to be convex toward the vehicle interior side with respect to the general surface,
The vehicle operating device, wherein the convex portion is attachable to and detachable from the dashboard.
請求項4〜6のいずれか1項に記載の車両用操作装置において、
前記車両の天井には、後席用ルーフコンソールが備えられ、
前記プロジェクタは、前記後席用ルーフコンソールに一体に設けられること
を特徴とする車両用操作装置。
In the vehicle operating device according to any one of claims 4 to 6,
A roof console for the rear seat is provided on the ceiling of the vehicle,
The vehicle operating device, wherein the projector is provided integrally with the rear seat roof console.
請求項1〜7のいずれか1項に記載の車両用操作装置において、
前記ジェスチャ認識部は、認識した前記ジェスチャが前記運転席側の乗員によるものか前記助手席側の乗員によるものかを判別し、
前記制御部は、前記ジェスチャ認識部による前記判別の結果に応じて異なる制御を行うこと
を特徴とする車両用操作装置。
In the operating device for vehicles according to any one of claims 1 to 7,
The gesture recognizing unit determines whether the recognized gesture is by the driver's side passenger or the passenger's side passenger,
The vehicle operation device according to claim 1, wherein the control unit performs different control according to a result of the determination by the gesture recognition unit.
請求項8に記載の車両用操作装置において、
前記ジェスチャ認識部は、前記車両室内の所定箇所に設けられて前記乗員の手腕を撮像するカメラを備え、前記カメラの撮像情報により前記ジェスチャを認識するとともに、前記カメラの撮像範囲に対する前記手腕の進入位置又は進入角度により前記判別を行うこと
を特徴とする車両用操作装置。
The vehicle operating device according to claim 8, wherein
The gesture recognizing unit includes a camera that is provided at a predetermined location in the vehicle interior and images the hand and arm of the occupant, recognizes the gesture based on imaging information of the camera, and enters the hand and arm with respect to an imaging range of the camera. The vehicle operating device characterized in that the determination is performed based on a position or an approach angle.
請求項1〜9のいずれか1項に記載の車両用操作装置において、
前記車両には、加減速操作及び操舵操作を前記乗員の操作により行う手動運転モードと、前記車両の加減速操作及び操舵操作のうち少なくとも一方を前記車両が自律的に行う運転支援モードとが切替可能に設定され、
前記表示部は、前記運転支援モードの間に表示する前記操作画像を、前記手動運転モードの間に表示する前記操作画像よりも拡大すること
を特徴とする車両用操作装置。
In the vehicle operating device according to any one of claims 1 to 9,
The vehicle is switched between a manual driving mode in which an acceleration / deceleration operation and a steering operation are performed by an operation of the occupant, and a driving support mode in which the vehicle autonomously performs at least one of the acceleration / deceleration operation and the steering operation of the vehicle. Set to possible,
The operation device for a vehicle, wherein the display unit enlarges the operation image displayed during the driving support mode as compared with the operation image displayed during the manual operation mode.
JP2015247110A 2015-12-18 2015-12-18 Vehicle control device Active JP6515028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015247110A JP6515028B2 (en) 2015-12-18 2015-12-18 Vehicle control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015247110A JP6515028B2 (en) 2015-12-18 2015-12-18 Vehicle control device

Publications (2)

Publication Number Publication Date
JP2017111711A true JP2017111711A (en) 2017-06-22
JP6515028B2 JP6515028B2 (en) 2019-05-15

Family

ID=59080790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015247110A Active JP6515028B2 (en) 2015-12-18 2015-12-18 Vehicle control device

Country Status (1)

Country Link
JP (1) JP6515028B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107526239A (en) * 2017-08-03 2017-12-29 深圳市奈士迪技术研发有限公司 A kind of intelligent projector equipment for automobile motion-picture projection
CN111752382A (en) * 2019-03-27 2020-10-09 株式会社斯巴鲁 Non-contact operation device of vehicle and vehicle
JP2020189622A (en) * 2019-05-14 2020-11-26 トヨタ紡織株式会社 Vehicular door with projector
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
KR20210005761A (en) * 2019-07-04 2021-01-15 한양대학교 에리카산학협력단 Autonomous vehicle control system for maximizing autonomy, and Autonomy providing server for the same
JP2021504771A (en) * 2018-08-24 2021-02-15 グーグル エルエルシーGoogle LLC Smartphones, systems and methods with radar systems
US10930251B2 (en) 2018-08-22 2021-02-23 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US11314312B2 (en) 2018-10-22 2022-04-26 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
KR20220067434A (en) * 2020-11-17 2022-05-24 주식회사 아르비존 Vehicle control method

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162783A (en) * 1993-12-02 1995-06-23 Sony Corp On-vehicle projector
JP2003237477A (en) * 2002-02-13 2003-08-27 Mazda Motor Corp Overhead console structure for vehicle
JP2004065562A (en) * 2002-08-06 2004-03-04 Heiwa Corp Projection type game machine and screen display
JP2007286089A (en) * 2006-04-12 2007-11-01 Seiko Epson Corp Rear projection system and game machine
US20100182137A1 (en) * 2002-07-03 2010-07-22 Pryor Timothy R Control systems involving novel physical controls and touch screens
JP2010184600A (en) * 2009-02-12 2010-08-26 Autonetworks Technologies Ltd Onboard gesture switch device
US20110018832A1 (en) * 2000-02-22 2011-01-27 Pryor Timothy R Human interfaces for vehicles, homes, and other applications
EP2441635A1 (en) * 2010-10-06 2012-04-18 Harman Becker Automotive Systems GmbH Vehicle User Interface System
JP2012527847A (en) * 2009-05-19 2012-11-08 アップル インコーポレイテッド Control of kitchen and household appliances
JP2014048680A (en) * 2012-08-29 2014-03-17 Alpine Electronics Inc Information system
JP2014083923A (en) * 2012-10-22 2014-05-12 Denso Corp Display device
JP2014089327A (en) * 2012-10-30 2014-05-15 Toyota Motor Corp Image display system and image display method
US20140331185A1 (en) * 2011-09-03 2014-11-06 Volkswagen Ag Method and array for providing a graphical user interface, in particular in a vehicle
JP2014235222A (en) * 2013-05-31 2014-12-15 株式会社Jvcケンウッド Image display device and image display system
JP2015001621A (en) * 2013-06-14 2015-01-05 株式会社デンソー Vehicle display device
JP2015019279A (en) * 2013-07-11 2015-01-29 京セラディスプレイ株式会社 Electronic apparatus
JP2015085807A (en) * 2013-10-30 2015-05-07 トヨタ車体株式会社 On-vehicle display system
US20150131857A1 (en) * 2013-11-08 2015-05-14 Hyundai Motor Company Vehicle recognizing user gesture and method for controlling the same
US20150199019A1 (en) * 2014-01-16 2015-07-16 Denso Corporation Gesture based image capturing system for vehicle
JP2015217798A (en) * 2014-05-16 2015-12-07 三菱電機株式会社 On-vehicle information display control device

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162783A (en) * 1993-12-02 1995-06-23 Sony Corp On-vehicle projector
US20110018832A1 (en) * 2000-02-22 2011-01-27 Pryor Timothy R Human interfaces for vehicles, homes, and other applications
JP2003237477A (en) * 2002-02-13 2003-08-27 Mazda Motor Corp Overhead console structure for vehicle
US20100182137A1 (en) * 2002-07-03 2010-07-22 Pryor Timothy R Control systems involving novel physical controls and touch screens
JP2004065562A (en) * 2002-08-06 2004-03-04 Heiwa Corp Projection type game machine and screen display
JP2007286089A (en) * 2006-04-12 2007-11-01 Seiko Epson Corp Rear projection system and game machine
JP2010184600A (en) * 2009-02-12 2010-08-26 Autonetworks Technologies Ltd Onboard gesture switch device
JP2012527847A (en) * 2009-05-19 2012-11-08 アップル インコーポレイテッド Control of kitchen and household appliances
EP2441635A1 (en) * 2010-10-06 2012-04-18 Harman Becker Automotive Systems GmbH Vehicle User Interface System
US20140331185A1 (en) * 2011-09-03 2014-11-06 Volkswagen Ag Method and array for providing a graphical user interface, in particular in a vehicle
JP2014048680A (en) * 2012-08-29 2014-03-17 Alpine Electronics Inc Information system
JP2014083923A (en) * 2012-10-22 2014-05-12 Denso Corp Display device
JP2014089327A (en) * 2012-10-30 2014-05-15 Toyota Motor Corp Image display system and image display method
JP2014235222A (en) * 2013-05-31 2014-12-15 株式会社Jvcケンウッド Image display device and image display system
JP2015001621A (en) * 2013-06-14 2015-01-05 株式会社デンソー Vehicle display device
JP2015019279A (en) * 2013-07-11 2015-01-29 京セラディスプレイ株式会社 Electronic apparatus
JP2015085807A (en) * 2013-10-30 2015-05-07 トヨタ車体株式会社 On-vehicle display system
US20150131857A1 (en) * 2013-11-08 2015-05-14 Hyundai Motor Company Vehicle recognizing user gesture and method for controlling the same
US20150199019A1 (en) * 2014-01-16 2015-07-16 Denso Corporation Gesture based image capturing system for vehicle
JP2015217798A (en) * 2014-05-16 2015-12-07 三菱電機株式会社 On-vehicle information display control device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107526239A (en) * 2017-08-03 2017-12-29 深圳市奈士迪技术研发有限公司 A kind of intelligent projector equipment for automobile motion-picture projection
US11435468B2 (en) 2018-08-22 2022-09-06 Google Llc Radar-based gesture enhancement for voice interfaces
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10930251B2 (en) 2018-08-22 2021-02-23 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US11176910B2 (en) 2018-08-22 2021-11-16 Google Llc Smartphone providing radar-based proxemic context
JP2021504771A (en) * 2018-08-24 2021-02-15 グーグル エルエルシーGoogle LLC Smartphones, systems and methods with radar systems
US10936185B2 (en) 2018-08-24 2021-03-02 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US11204694B2 (en) 2018-08-24 2021-12-21 Google Llc Radar system facilitating ease and accuracy of user interactions with a user interface
US11314312B2 (en) 2018-10-22 2022-04-26 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
CN111752382A (en) * 2019-03-27 2020-10-09 株式会社斯巴鲁 Non-contact operation device of vehicle and vehicle
JP2020189622A (en) * 2019-05-14 2020-11-26 トヨタ紡織株式会社 Vehicular door with projector
JP7354854B2 (en) 2019-05-14 2023-10-03 トヨタ紡織株式会社 Vehicle door with projector
KR102303422B1 (en) * 2019-07-04 2021-09-23 한양대학교 에리카산학협력단 Autonomous vehicle control system for maximizing autonomy, and Autonomy providing server for the same
KR20210005761A (en) * 2019-07-04 2021-01-15 한양대학교 에리카산학협력단 Autonomous vehicle control system for maximizing autonomy, and Autonomy providing server for the same
KR20220067434A (en) * 2020-11-17 2022-05-24 주식회사 아르비존 Vehicle control method
KR102443980B1 (en) * 2020-11-17 2022-09-21 주식회사 아르비존 Vehicle control method

Also Published As

Publication number Publication date
JP6515028B2 (en) 2019-05-15

Similar Documents

Publication Publication Date Title
JP6515028B2 (en) Vehicle control device
KR102311551B1 (en) Method for using a communication terminal in a motor vehicle while autopilot is activated and motor vehicle
KR102204250B1 (en) Method for calculating an augmented reality-overlaying for displaying a navigation route on ar-display unit, device for carrying out the method, as well as motor vehicle and computer program
JP6555599B2 (en) Display system, display method, and program
EP2914475B1 (en) System and method for using gestures in autonomous parking
US10732760B2 (en) Vehicle and method for controlling the vehicle
US20160132126A1 (en) System for information transmission in a motor vehicle
US9205846B2 (en) Method and device for the control of functions in a vehicle using gestures performed in three-dimensional space, and related computer program product
CN110395182B (en) Motor vehicle with electronic rear view mirror
JP6244822B2 (en) In-vehicle display system
JP2013119370A (en) System for preventing driver from shifting line of sight during traveling
JP2010537288A (en) INFORMATION DISPLAY METHOD IN VEHICLE AND DISPLAY DEVICE FOR VEHICLE
JP2007237919A (en) Input operation device for vehicle
JP6014162B2 (en) Input device
KR102084032B1 (en) User interface, means of transport and method for distinguishing a user
US20180239441A1 (en) Operation system
JP2007302116A (en) Operating device of on-vehicle equipment
KR101946746B1 (en) Positioning of non-vehicle objects in the vehicle
JPWO2019016936A1 (en) Operation support apparatus and operation support method
US10691122B2 (en) In-vehicle system
KR101928637B1 (en) Operating method and operating system in a vehicle
JP2006264615A (en) Display device for vehicle
US20180239424A1 (en) Operation system
CN111483406B (en) Vehicle-mounted infotainment device, control method thereof and vehicle comprising vehicle-mounted infotainment device
US20240001763A1 (en) Vehicle display system, vehicle display method, and computer-readable non-transitory storage medium storing vehicle display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R150 Certificate of patent or registration of utility model

Ref document number: 6515028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150