JP2021135841A - Operating device - Google Patents

Operating device Download PDF

Info

Publication number
JP2021135841A
JP2021135841A JP2020032599A JP2020032599A JP2021135841A JP 2021135841 A JP2021135841 A JP 2021135841A JP 2020032599 A JP2020032599 A JP 2020032599A JP 2020032599 A JP2020032599 A JP 2020032599A JP 2021135841 A JP2021135841 A JP 2021135841A
Authority
JP
Japan
Prior art keywords
image
gesture
hand
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020032599A
Other languages
Japanese (ja)
Other versions
JP7375611B2 (en
Inventor
瑛 原
Akira Hara
瑛 原
康之 藤塚
Yasuyuki Fujitsuka
康之 藤塚
輝子 石川
Teruko Ishikawa
輝子 石川
英一 室橋
Hidekazu Murohashi
英一 室橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2020032599A priority Critical patent/JP7375611B2/en
Publication of JP2021135841A publication Critical patent/JP2021135841A/en
Application granted granted Critical
Publication of JP7375611B2 publication Critical patent/JP7375611B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an operating device that can prevent a user from repeating a meaningless gesture.SOLUTION: An operating device 100 comprises: a detection unit 41a that detects a hand of a user based on information from a non-contact type sensor 10; a gesture specification unit 41b that specifies a gesture made by the hand detected by the detection unit 41a; an operation control unit 41c that specifies an operation corresponding to the gesture specified by the gesture specification unit 41b and outputs information indicating the details of the specified operation to a target of operation; and a projector 20. When the detection unit 41a detects the hand, the projector 20 projects a first image on the hand, and when the gesture specification unit 41b specifies the gesture, the projector projects a second image different from the first image on the hand.SELECTED DRAWING: Figure 1

Description

本発明は、操作装置に関する。 The present invention relates to an operating device.

従来の操作装置として、例えば特許文献1には、カメラ等の非接触式センサからの情報に基づいてユーザのジェスチャによる操作を判定するものが記載されている。特許文献1に記載の操作装置では、ユーザが予め設定された検出領域でジェスチャを行うことで所定機器に対する操作が可能となる。 As a conventional operation device, for example, Patent Document 1 describes a device that determines an operation by a user's gesture based on information from a non-contact sensor such as a camera. In the operating device described in Patent Document 1, the user can operate a predetermined device by performing a gesture in a preset detection area.

特許第6559359号公報Japanese Patent No. 6559359

予め設定された検出領域でジェスチャ操作を判定する技術では、ユーザは、ジェスチャを行う手などの部位が検出領域に入っていないことを認識できていない場合がある。この場合、ユーザが装置に認識されない無意味なジェスチャを繰り返してしまう虞がある。 In the technique of determining the gesture operation in the preset detection area, the user may not be able to recognize that the part such as the hand performing the gesture is not in the detection area. In this case, the user may repeat a meaningless gesture that is not recognized by the device.

本発明は、上記実情に鑑みてなされたものであり、ユーザが無意味なジェスチャを繰り返してしまうことを抑制することができる操作装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an operating device capable of suppressing a user from repeating meaningless gestures.

上記目的を達成するため、本発明に係る操作装置は、
非接触式センサからの情報に基づいて、乗り物内に予め設定された検出領域においてユーザの部位を検出する検出部と、
前記検出部が検出した前記部位によるジェスチャを特定するジェスチャ特定部と、
前記ジェスチャ特定部が特定した前記ジェスチャに対応する操作を特定し、特定した操作の内容を示す情報を操作対象へ出力する操作制御部と、
前記乗り物内に存在する物体に画像を投影可能な投影部と、を備え、
前記投影部は、
前記検出部が前記部位を検出した場合に、第1画像を前記部位に投影し、
前記ジェスチャ特定部が前記ジェスチャを特定した場合に、前記第1画像とは異なる第2画像を前記部位に投影する。
In order to achieve the above object, the operating device according to the present invention is
A detector that detects the user's part in a preset detection area in the vehicle based on information from the non-contact sensor.
A gesture identification unit that identifies a gesture by the site detected by the detection unit, and a gesture identification unit.
An operation control unit that identifies an operation corresponding to the gesture specified by the gesture specifying unit and outputs information indicating the content of the specified operation to the operation target.
A projection unit capable of projecting an image onto an object existing in the vehicle is provided.
The projection unit
When the detection unit detects the site, a first image is projected onto the site.
When the gesture specifying portion identifies the gesture, a second image different from the first image is projected onto the portion.

本発明によれば、ユーザが無意味なジェスチャを繰り返してしまうことを抑制することができる。 According to the present invention, it is possible to prevent the user from repeating meaningless gestures.

本発明の一実施形態に係る操作装置のブロック図である。It is a block diagram of the operation apparatus which concerns on one Embodiment of this invention. 同上実施形態に係る操作装置が搭載される車両を示した模式図である。It is a schematic diagram which showed the vehicle which is equipped with the operation device which concerns on the said embodiment. 同上実施形態に係る操作装置の検出領域、第1の領域及び第2の領域を説明するための模式図である。It is a schematic diagram for demonstrating the detection area, the 1st area and the 2nd area of the operation apparatus which concerns on the said embodiment. 同上実施形態に係る第1操作パターン及び第2操作パターンの構成例を示す図である。It is a figure which shows the structural example of the 1st operation pattern and the 2nd operation pattern which concerns on the said embodiment. 同上実施形態に係る表示部に表示される画像と投影画像の一例を示す模式図である。FIG. 5 is a schematic diagram showing an example of an image and a projected image displayed on the display unit according to the same embodiment. (a)〜(d)は、同上実施形態に係る投影画像の遷移例を説明するための図である。(A) to (d) are diagrams for explaining a transition example of the projected image according to the same embodiment. (a)及び(b)は、同上実施形態に係る投影画像の遷移例を説明するための図である。(A) and (b) are diagrams for explaining a transition example of the projected image according to the same embodiment. 同上実施形態に係る操作状況報知処理の一例を示すフローチャートである。It is the flowchart which shows an example of the operation situation notification processing which concerns on the said embodiment. 同上実施形態に係るユーザ特定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the user identification process which concerns on the said embodiment. 同上実施形態に係る操作対象報知処理の一例を示すフローチャートである。It is the flowchart which shows an example of the operation target notification processing which concerns on the said embodiment. (a)及び(b)は、変形例に係る投影画像の遷移例を説明するための図である。(A) and (b) are diagrams for explaining the transition example of the projected image according to the modified example.

本発明の一実施形態について図面を参照して説明する。 An embodiment of the present invention will be described with reference to the drawings.

本実施形態の一実施形態に係る操作装置100は、図1に示すように、車両1に搭載され、ユーザUの手H(図2参照)によるジェスチャで所定機器の操作を可能とするものである。操作装置100を利用しての操作は、図2に示すように、車両1の運転席4に着座したドライバU1と、助手席5に着座した同乗者U2の双方によって可能となっている。この実施形態では、車両1がRHD(Right Hand Drive)であるものとする。 As shown in FIG. 1, the operation device 100 according to one embodiment of the present embodiment is mounted on the vehicle 1 and enables the operation of the predetermined device by the gesture by the hand H (see FIG. 2) of the user U. be. As shown in FIG. 2, the operation using the operation device 100 is possible by both the driver U1 seated in the driver's seat 4 of the vehicle 1 and the passenger U2 seated in the passenger seat 5. In this embodiment, it is assumed that the vehicle 1 is an RHD (Right Hand Drive).

操作装置100は、図1に示すように、非接触式センサ10と、プロジェクタ20と、表示部30と、制御装置40と、を備える。 As shown in FIG. 1, the operation device 100 includes a non-contact sensor 10, a projector 20, a display unit 30, and a control device 40.

非接触式センサ10は、可視光カメラ、赤外線カメラ、TOF(Time of Flight)カメラ、ミリ波センサ等から構成され、検出対象の二次元又は三次元情報(以下、検出対象情報)を計測し、制御装置40に送信する。非接触式センサ10は、例えば車両1の天井に設置される。この実施形態では、非接触式センサ10は、図2に示すように、車両1の室内に予め設定された検出領域Ad内にあるユーザUの手Hを検出する。したがって、検出領域Adと重なる空間がユーザUのジェスチャによる操作が可能な入力空間となる。つまり、非接触式センサ10の撮影範囲又は電磁波の照射範囲は、検出領域Adを含む。検出領域Adは、例えば、車両1の前席の中央部であって、センターコンソール2やダッシュボード3と重なる部分に設定されている。 The non-contact sensor 10 is composed of a visible light camera, an infrared camera, a TOF (Time of Flight) camera, a millimeter wave sensor, and the like, and measures two-dimensional or three-dimensional information of a detection target (hereinafter, detection target information). It is transmitted to the control device 40. The non-contact sensor 10 is installed on the ceiling of the vehicle 1, for example. In this embodiment, the non-contact sensor 10 detects the hand H of the user U in the detection area Ad preset in the interior of the vehicle 1, as shown in FIG. Therefore, the space overlapping the detection area Ad becomes an input space that can be operated by the gesture of the user U. That is, the photographing range of the non-contact sensor 10 or the irradiation range of the electromagnetic wave includes the detection area Ad. The detection area Ad is set, for example, in the central portion of the front seat of the vehicle 1 and in a portion overlapping the center console 2 and the dashboard 3.

プロジェクタ20は、制御装置40の制御の下、車両1の室内に予め設定された投影領域Apに存在する物体に画像を投影する。図2に示すように、投影領域Apは、検出領域Adを含み、且つ、検出領域Adよりも広い領域に設定されている。また、投影領域Apは、表示部30の一部と重畳して設定されている。プロジェクタ20としては、液晶デバイス、デジタルミラーデバイス等を利用した公知のプロジェクタを用いることができる。プロジェクタ20は、例えば車両1の天井に設置されている。 Under the control of the control device 40, the projector 20 projects an image onto an object existing in a projection area Ap preset in the interior of the vehicle 1. As shown in FIG. 2, the projection region Ap includes the detection region Ad and is set to a region wider than the detection region Ad. Further, the projection area Ap is set so as to overlap with a part of the display unit 30. As the projector 20, a known projector using a liquid crystal device, a digital mirror device, or the like can be used. The projector 20 is installed on the ceiling of the vehicle 1, for example.

表示部30は、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diodes)等から構成され、制御装置40の制御の下で画像を表示する。表示部30は、図2に示すように、車両1の室内において、ドライバU1及び同乗者U2の双方に視認可能な位置に設けられている。表示部30は、例えば、センターコンソール2の上方であってダッシュボード3に設けられている。 The display unit 30 is composed of an LCD (Liquid Crystal Display), an OLED (Organic Light Emitting Diodes), and the like, and displays an image under the control of the control device 40. As shown in FIG. 2, the display unit 30 is provided at a position visible to both the driver U1 and the passenger U2 in the interior of the vehicle 1. The display unit 30 is provided on the dashboard 3 above the center console 2, for example.

制御装置40は、操作装置100の全体動作を制御するマイクロコンピュータからなり、CPU(Central Processing Unit)等から構成される制御部41と、ROM(Read Only Memory)、RAM(Random Access Memory)等から構成される記憶部42と、を備える。記憶部42のROMには、後述する操作状況報知処理を実行するためのプログラムPG、第1操作パターンPA、第2操作パターンPBのデータが記憶されている。また、記憶部42のROMには、プロジェクタ20の投影画像や表示部30の表示画像を生成するための画像パーツデータが記憶されている。また、制御装置40は、図示しない構成として、プロジェクタ20や表示部30を駆動するための駆動回路、機器群200と通信を行うための入出力回路等を備える。なお、制御装置40は、後述の機能を充足する限りにおいては、その構成や配置は任意である。例えば、制御装置40は、互いに通信する複数のコンピュータによって実現されてもよい。 The control device 40 is composed of a microcomputer that controls the overall operation of the operation device 100, and is composed of a control unit 41 composed of a CPU (Central Processing Unit) and the like, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. It includes a storage unit 42 that is configured. The ROM of the storage unit 42 stores data of the program PG, the first operation pattern PA, and the second operation pattern PB for executing the operation status notification process described later. Further, the ROM of the storage unit 42 stores image part data for generating the projected image of the projector 20 and the display image of the display unit 30. Further, the control device 40 includes a drive circuit for driving the projector 20 and the display unit 30, an input / output circuit for communicating with the device group 200, and the like, as a configuration (not shown). The configuration and arrangement of the control device 40 is arbitrary as long as it satisfies the functions described later. For example, the control device 40 may be realized by a plurality of computers communicating with each other.

機器群200は、車両1の各部を制御するECU(Electronic Control Unit)、カーナビゲーション(カーナビ)装置、車内温度を調整するエア・コンディショナー(エアコン)装置、メディアプレイヤー等の周知の車載システムから構成されている。また、機器群200は、ユーザUによって持ち込まれ、無線又は有線により制御装置40と通信可能なスマートフォン、タブレット端末等の携帯端末も含む。例えば、制御部41は、機器群200を構成する各機器と通信を行い、各機器の状況を示す画像、各機器を操作するための画像等を表示部30に表示させる。また、制御部41は、ユーザUによってなされたジェスチャに応じて、表示部30の表示動作や、機器群200の動作を制御する。この実施形態では、機器群200を構成する各機器、及び、表示部30がユーザUのジェスチャにより操作可能な対象である操作対象となる。 The device group 200 includes a well-known in-vehicle system such as an ECU (Electronic Control Unit) for controlling each part of the vehicle 1, a car navigation (car navigation) device, an air conditioner (air conditioner) device for adjusting the temperature inside the vehicle, and a media player. ing. The device group 200 also includes a mobile terminal such as a smartphone or tablet terminal that is brought in by the user U and can communicate with the control device 40 wirelessly or by wire. For example, the control unit 41 communicates with each device constituting the device group 200, and causes the display unit 30 to display an image showing the status of each device, an image for operating each device, and the like. Further, the control unit 41 controls the display operation of the display unit 30 and the operation of the device group 200 according to the gesture made by the user U. In this embodiment, each device constituting the device group 200 and the display unit 30 are operation targets that can be operated by the gesture of the user U.

制御部41は、図1に示すように、主な機能として、検出部41aと、ジェスチャ特定部41bと、操作制御部41cと、投影制御部41dと、表示制御部41eと、を備える。 As shown in FIG. 1, the control unit 41 includes a detection unit 41a, a gesture identification unit 41b, an operation control unit 41c, a projection control unit 41d, and a display control unit 41e as main functions.

検出部41aは、非接触式センサ10からの検出対象情報に基づいて、検出領域AdにおいてユーザUの手Hを検出する。例えば、検出部41aは、非接触式センサ10から所定の検出周期で送信される検出対象情報の周期毎の差分を演算し、手Hの領域を検出する。そして、検出部41aは、検出した手Hの領域を示す情報に基づいて手Hの指先、掌などの特徴点の座標情報を抽出する。なお、手Hの領域の検出手法や特徴点の抽出手法は任意であり、公知の手法を用いることができる。例えば、パターンマッチング法や、HOG(Histogram of Oriented Gradients)、SIFT(Scale-Invariant Feature Transform)、LBP(Local Binary Pattern)、Haar−Likeなどの特徴点算出手法を用いることができる。なお、検出部41aが検出領域AdにおいてユーザUの手Hを検出する際には、検出領域Ad内にユーザUの手Hの全体が含まれていなくともよく、物体が手Hであることを検出部41aが特定可能な程度に、手Hの一部分が検出領域Ad内に位置していればよい。 The detection unit 41a detects the hand H of the user U in the detection region Ad based on the detection target information from the non-contact sensor 10. For example, the detection unit 41a calculates the difference of the detection target information transmitted from the non-contact sensor 10 in a predetermined detection cycle for each cycle, and detects the region of the hand H. Then, the detection unit 41a extracts the coordinate information of the feature points such as the fingertip and the palm of the hand H based on the information indicating the detected region of the hand H. The method for detecting the region of the hand H and the method for extracting the feature points are arbitrary, and a known method can be used. For example, a pattern matching method or a feature point calculation method such as HOG (Histogram of Oriented Gradients), SIFT (Scale-Invariant Feature Transform), LBP (Local Binary Pattern), and Haar-Like can be used. When the detection unit 41a detects the user U's hand H in the detection area Ad, the detection area Ad does not have to include the entire user U's hand H, and the object is the hand H. It suffices that a part of the hand H is located in the detection region Ad to the extent that the detection unit 41a can be identified.

また、検出部41aは、検出領域Adで検出した手Hが、ドライバU1の手H1であるか同乗者U2の手H2であるかを特定することができる。ここで、検出領域Adは、図3に示すように、区分線Bにより区分される第1の領域A1及び第2の領域A2から構成されている。第1の領域A1は区分線Bの右側に位置し、第2の領域A2は区分線Bの左側に位置する。この実施形態では、車両1がRHDであるため、第1の領域A1は第2の領域A2よりもドライバU1に近く、第2の領域A2は第1の領域A1よりも同乗者U2に近い。したがって、第1の領域A1内に位置する手HをドライバU1の手H1と推定することができ、第2の領域A2内に位置する手Hを同乗者U2の手H2と推定することができる。これを考慮して、検出部41aは、第1の領域A1内で検出した手HをドライバU1の手H1と特定し、第2の領域A2内で検出した手Hを同乗者U2の手H2と特定する。なお、検出領域Ad、第1の領域A1、第2の領域A2の各々を規定する座標情報は、予め記憶部42のROMに記憶されている。 Further, the detection unit 41a can identify whether the hand H detected in the detection area Ad is the hand H1 of the driver U1 or the hand H2 of the passenger U2. Here, as shown in FIG. 3, the detection region Ad is composed of a first region A1 and a second region A2 classified by the division line B. The first region A1 is located on the right side of the dividing line B, and the second region A2 is located on the left side of the dividing line B. In this embodiment, since the vehicle 1 is RHD, the first region A1 is closer to the driver U1 than the second region A2, and the second region A2 is closer to the passenger U2 than the first region A1. Therefore, the hand H located in the first region A1 can be estimated as the hand H1 of the driver U1, and the hand H located in the second region A2 can be estimated as the hand H2 of the passenger U2. .. In consideration of this, the detection unit 41a identifies the hand H detected in the first region A1 as the hand H1 of the driver U1, and the hand H detected in the second region A2 is the hand H2 of the passenger U2. To identify. The coordinate information that defines each of the detection area Ad, the first area A1, and the second area A2 is stored in advance in the ROM of the storage unit 42.

なお、第1の領域A1は、ドライバU1の手H1が届き易く、且つ、同乗者U2の手H2が届きにくい領域として設定されていればよい。反対に、第2の領域A2は、同乗者U2の手H2が届き易く、且つ、ドライバU1の手H1が届きにくい領域として設定されていればよい。つまり、第1の領域A1と第2の領域A2の境界線である区分線Bの位置や形状は任意である。例えば、区分線Bは直線状でなくともよい。また、第1の領域A1及び第2の領域A2は、検出領域Adに含まれていればよく、例えば、双方の領域が間隔を空けて配置された構成を採用してもよい。当該構成を採用した場合、検出部41aが検出領域Ad内であって、第1の領域A1及び第2の領域A2以外の領域で手Hを検出した際は、検出した手Hによるジェスチャを無効としてもよい。また、車両1がLHD(Left Hand Drive)である場合は、第1の領域A1及び第2の領域A2の関係を上記と左右反対に設定すればよい。また、第1の領域A1と第2の領域A2のいずれかの領域(以下、一の領域と言う。)において、同時に複数の手Hが検出される状況も想定される。この状況では、例えば、検出部41aは、一の領域に含まれる手Hが一つになるまでユーザUの特定を待機したり、先に検出された手Hに基づいてユーザUを特定したりすればよい。 The first area A1 may be set as an area where the hand H1 of the driver U1 is easily reachable and the hand H2 of the passenger U2 is hard to reach. On the contrary, the second region A2 may be set as an region where the hand H2 of the passenger U2 is easily reachable and the hand H1 of the driver U1 is hard to reach. That is, the position and shape of the dividing line B, which is the boundary line between the first region A1 and the second region A2, is arbitrary. For example, the dividing line B does not have to be linear. Further, the first region A1 and the second region A2 may be included in the detection region Ad, and for example, a configuration in which both regions are arranged at intervals may be adopted. When this configuration is adopted, when the detection unit 41a detects the hand H in a region other than the first region A1 and the second region A2 in the detection region Ad, the gesture by the detected hand H is invalidated. May be. When the vehicle 1 is an LHD (Left Hand Drive), the relationship between the first region A1 and the second region A2 may be set to be opposite to the above. Further, it is assumed that a plurality of hands H are detected at the same time in any of the first region A1 and the second region A2 (hereinafter referred to as one region). In this situation, for example, the detection unit 41a waits for the identification of the user U until the hands H included in one area become one, or identifies the user U based on the previously detected hand H. do it.

ジェスチャ特定部41bは、検出部41aが検出した手Hによるジェスチャを特定する。例えば、ジェスチャ特定部41bは、検出部41aが抽出した手Hの座標情報に基づいてユーザUの手Hの動作軌跡を作成する。そして、ジェスチャ特定部41bは、作成した手Hの動作軌跡と記憶部42のROMに記憶されたジェスチャパターンとを比較し、手Hによるジェスチャを特定する。ジェスチャパターンは、予め定められた複数種別のジェスチャの軌跡を示すデータとして、予めROMに記憶されている。なお、ジェスチャ特定部41bによるジェスチャの特定手法は任意であり、例えば、NN法(Nearest Neighbor algorithm)、k-NN法(k-Nearest Neighbor algorithm)、パターンマッチング法などの公知の手法を用いることができる。また、入力を可能とするジェスチャの態様は任意であるが、例えば、検出領域Adにおいてなされるスワイプ、スクロール、ピンチイン、ピンチアウト等の種々の動作や、サムズアップ、ピースサイン等のポーズであればよい。 The gesture identification unit 41b identifies the gesture by the hand H detected by the detection unit 41a. For example, the gesture identification unit 41b creates an operation locus of the user U's hand H based on the coordinate information of the hand H extracted by the detection unit 41a. Then, the gesture specifying unit 41b compares the operation locus of the created hand H with the gesture pattern stored in the ROM of the storage unit 42, and identifies the gesture by the hand H. The gesture pattern is stored in the ROM in advance as data indicating a predetermined plurality of types of gesture trajectories. The gesture identification method by the gesture identification unit 41b is arbitrary, and for example, a known method such as an NN method (Nearest Neighbor algorithm), a k-NN method (k-Nearest Neighbor algorithm), or a pattern matching method can be used. can. The gesture mode that enables input is arbitrary, but for example, if it is various actions such as swipe, scroll, pinch-in, pinch-out, etc. performed in the detection area Ad, or a pose such as thumbs-up or peace sign. good.

操作制御部41cは、ジェスチャ特定部41bが特定したジェスチャに対応する操作を特定し、特定した操作の内容を示す情報を操作対象へ出力する。具体的に、操作制御部41cは、記憶部42のROMに記憶された操作パターンのデータを参照し、特定したジェスチャに対応する操作を特定する。操作パターンとしては、図4に構成を例示する第1操作パターンPA及び第2操作パターンPBが設けられている。 The operation control unit 41c identifies the operation corresponding to the gesture specified by the gesture specifying unit 41b, and outputs information indicating the content of the specified operation to the operation target. Specifically, the operation control unit 41c refers to the operation pattern data stored in the ROM of the storage unit 42, and identifies the operation corresponding to the specified gesture. As the operation pattern, a first operation pattern PA and a second operation pattern PB for which the configuration is illustrated in FIG. 4 are provided.

第1操作パターンPAは、ドライバU1に許可された複数種別の操作を規定したものである。第1操作パターンPAに規定された操作は、ドライバU1にのみ許可された操作(以下、ドライバ許可操作と言う。)と、ドライバU1及び同乗者U2の両者に許可された操作(以下、両者許可操作と言う。)を含む。ドライバ許可操作は、車両1の操縦に関する操作であり、例えば、走行モード、ADAS(Advanced Driver-Assistance Systems)、ワイパー、ヘッドライト等の設定操作である。両者許可操作は、ドライバU1及び同乗者U2が操作しても走行の安全上、支障がない操作であり、例えば、エアコン、ミュージック(楽曲再生)、ラジオ等の設定操作である。操作制御部41cは、特定されたジェスチャがドライバU1の手H1によるものである場合は、第1操作パターンPAを参照し、特定されたジェスチャに対応する操作を特定し、特定した操作の内容を示す信号を操作対象へ出力する。例えば、操作制御部41cは、走行モードの設定操作を特定した場合には、車両1の走行モードを制御するECUに当該操作内容に示す信号を出力し、これに応じてECUは走行モードを制御する。なお、当該ECUは、走行モードの設定操作の内容に応じた、車両1の走行モードの制御が完了すると、その旨を示すアンサーバック信号を操作制御部41cに供給する。 The first operation pattern PA defines a plurality of types of operations permitted to the driver U1. The operations specified in the first operation pattern PA are an operation permitted only to the driver U1 (hereinafter referred to as a driver permission operation) and an operation permitted to both the driver U1 and the passenger U2 (hereinafter, both permission). It is called operation.) Includes. The driver permission operation is an operation related to the operation of the vehicle 1, and is, for example, a setting operation of a traveling mode, ADAS (Advanced Driver-Assistance Systems), wiper, headlight, and the like. The both permission operations are operations that do not hinder driving safety even when operated by the driver U1 and the passenger U2, and are, for example, setting operations of an air conditioner, music (music reproduction), radio, and the like. When the specified gesture is due to the hand H1 of the driver U1, the operation control unit 41c refers to the first operation pattern PA, identifies the operation corresponding to the specified gesture, and determines the content of the specified operation. The indicated signal is output to the operation target. For example, when the operation control unit 41c specifies a driving mode setting operation, the operation control unit 41c outputs a signal indicating the operation content to the ECU that controls the driving mode of the vehicle 1, and the ECU controls the driving mode accordingly. do. When the control of the travel mode of the vehicle 1 is completed according to the content of the travel mode setting operation, the ECU supplies an answerback signal to that effect to the operation control unit 41c.

第2操作パターンPBは、同乗者U2に許可された複数種別の操作を規定したものである。第2操作パターンPBに規定された操作は、同乗者U2にのみ許可された操作(以下、同乗者許可操作と言う。)と、前述の両者許可操作を含む。同乗者許可操作は、車両1の走行中の安全を担保する上でドライバU1には許容されない操作であり、例えば、カーナビ、動画再生、メール、SNS等を利用するための操作である。操作制御部41cは、特定されたジェスチャが同乗者U2の手H2によるものである場合は、第2操作パターンPBを参照し、特定されたジェスチャに対応する操作を特定し、特定した操作の内容を示す信号を操作対象へ出力する。例えば、操作制御部41cは、カーナビの設定操作を特定した場合には、カーナビ装置に当該操作内容に示す信号を出力し、これに応じてカーナビ装置は設定を反映する。なお、当該カーナビ装置は、カーナビの設定操作の内容に応じた制御が完了すると、その旨を示すアンサーバック信号を操作制御部41cに供給する。 The second operation pattern PB defines a plurality of types of operations permitted to the passenger U2. The operation defined in the second operation pattern PB includes an operation permitted only to the passenger U2 (hereinafter referred to as a passenger permission operation) and the above-mentioned both permission operation. The passenger permission operation is an operation that is not allowed by the driver U1 in order to ensure the safety of the vehicle 1 while traveling, and is an operation for using, for example, a car navigation system, video playback, e-mail, SNS, or the like. When the specified gesture is due to the hand H2 of the passenger U2, the operation control unit 41c refers to the second operation pattern PB, identifies the operation corresponding to the specified gesture, and the content of the specified operation. Is output to the operation target. For example, when the operation control unit 41c specifies a car navigation setting operation, the operation control unit 41c outputs a signal indicating the operation content to the car navigation device, and the car navigation device reflects the setting accordingly. When the control according to the content of the car navigation setting operation is completed, the car navigation device supplies an answerback signal to that effect to the operation control unit 41c.

投影制御部41dは、プロジェクタ20の動作を制御し、投影領域Apに存在する物体に画像を投影する。 The projection control unit 41d controls the operation of the projector 20 and projects an image onto an object existing in the projection area Ap.

具体的に、投影制御部41dは、検出部41aが手Hを検出した場合に、図5、図6(a)に示すように、その旨をユーザUに報知するための第1画像Caを手Hの任意の位置に投影する。例えば、投影制御部41dは、第1画像Caを手Hの手首に投影される帯状の画像として投影する。ここで、投影制御部41dは、検出部41aがドライバU1の手H1を検出した場合には、検出された手H1に、第1の色を有する第1色画像Ca1を第1画像Caとして投影する。また、検出部41aが同乗者U2の手H2を検出した場合には、検出された手H2に、第1の色とは異なる第2の色を有する第2色画像Ca2を第1画像Caとして投影する。第1の色と第2の色は、異なる色であれば任意であり、例えば一方が赤色、他方が青色などであればよい。 Specifically, when the detection unit 41a detects the hand H, the projection control unit 41d provides a first image Ca for notifying the user U to that effect, as shown in FIGS. 5 and 6A. Project to any position on the hand H. For example, the projection control unit 41d projects the first image Ca as a band-shaped image projected on the wrist of the hand H. Here, when the detection unit 41a detects the hand H1 of the driver U1, the projection control unit 41d projects the first color image Ca1 having the first color on the detected hand H1 as the first image Ca. do. When the detection unit 41a detects the hand H2 of the passenger U2, the detected hand H2 is designated as the second color image Ca2 having a second color different from the first color as the first image Ca. Project. The first color and the second color are arbitrary as long as they are different colors, for example, one may be red and the other may be blue.

また、投影制御部41dは、ジェスチャ特定部41bがジェスチャを特定した場合に、図5、図6(b)に示すように、その旨をユーザUに報知するための第2画像Cbを手Hの任意の位置に投影する。例えば、投影制御部41dは、第2画像Cbを手Hの指先に投影される円状の画像として投影する。この実施形態で、第2画像Cbは、例えば、前述の第1の色及び第2の色とは異なる色の画像であり、ユーザUがドライバU1である場合も同乗者U2である場合も同じ態様で投影表示される。第2画像Cbの色は、前述の第1の色及び第2の色とは異なる色であれば任意であり、例えば白色や黄色であればよい。 Further, when the gesture specifying unit 41b identifies the gesture, the projection control unit 41d hands H the second image Cb for notifying the user U to that effect, as shown in FIGS. 5 and 6 (b). Project to any position of. For example, the projection control unit 41d projects the second image Cb as a circular image projected on the fingertip of the hand H. In this embodiment, the second image Cb is, for example, an image having a color different from the first color and the second color described above, and is the same regardless of whether the user U is the driver U1 or the passenger U2. It is projected and displayed in the mode. The color of the second image Cb is arbitrary as long as it is a color different from the first color and the second color described above, and may be, for example, white or yellow.

また、投影制御部41dは、操作制御部41cがジェスチャに対応する操作を特定した場合、図6(c)に示すように、第2画像Cbを変化させた操作有効画像Ccを手Hに投影する。操作有効画像Ccは、例えば、第2画像Cbを延伸、拡大した態様の画像である。一方、投影制御部41dは、操作制御部41cがジェスチャに対応する操作を特定できなかった場合、図6(d)に示すように、第2画像Cbを変化させた画像であって、操作有効画像Ccとは異なる表示態様の操作無効画像Cdを手Hに投影する。操作無効画像Cdは、例えば、第2画像Cbと同じ形状の画像を点滅表示したものである。なお、操作有効画像Cc及び操作無効画像Cdの表示態様は設計に応じて任意である。例えば、操作有効画像Cc及び操作無効画像Cdは、互いに表示態様が異なるとともに、サイズ、表示位置、色及び点灯パターンの少なくともいずれかが第2画像Cbとは異なっていればよい。 Further, when the operation control unit 41c specifies the operation corresponding to the gesture, the projection control unit 41d projects the operation effective image Cc obtained by changing the second image Cb onto the hand H as shown in FIG. 6 (c). do. The operation effective image Cc is, for example, an image in which the second image Cb is stretched and enlarged. On the other hand, when the operation control unit 41c cannot specify the operation corresponding to the gesture, the projection control unit 41d is an image obtained by changing the second image Cb as shown in FIG. 6D, and the operation is effective. An operation-invalid image Cd having a display mode different from that of the image Cc is projected onto the hand H. The operation invalid image Cd is, for example, a blinking display of an image having the same shape as the second image Cb. The display mode of the operation valid image Cc and the operation invalid image Cd is arbitrary depending on the design. For example, the operation valid image Cc and the operation invalid image Cd may be displayed differently from each other, and at least one of the size, the display position, the color, and the lighting pattern may be different from the second image Cb.

また、投影制御部41dは、操作制御部41cが特定した操作が、予め定めた種別の特別操作である場合、図7(a)、(b)に示すように、軌跡画像Ceを投影表示することによって、特別操作の対象をユーザUに報知することができる。特別操作は、例えば、その操作対象をユーザUに報知する重要度が高い種別の操作として1又は複数定められ、記憶部42のROM内に記憶されていればよい。例えば、ドライバU1によるワイパー駆動操作やヘッドライト点灯操作については、ドライバU1の目視により容易に操作がなされたことを認識できるので、このような操作を特別操作から排除することが可能である。 Further, when the operation specified by the operation control unit 41c is a special operation of a predetermined type, the projection control unit 41d projects and displays the locus image Ce as shown in FIGS. 7A and 7B. Thereby, the target of the special operation can be notified to the user U. The special operation may be defined as, for example, one or a plurality of operations of a high importance of notifying the user U of the operation target, and may be stored in the ROM of the storage unit 42. For example, with respect to the wiper drive operation and the headlight lighting operation by the driver U1, it is possible to visually recognize that the operation has been performed by the driver U1, so that such an operation can be excluded from the special operation.

軌跡画像Ceは、ユーザUの手Hから表示部30に表示されている後述の対象画像Dへ向かう第1軌跡画像Ce1と、対象画像Dから手Hへ向かう第2軌跡画像Ce2と、を含む。第1軌跡画像Ce1は、例えば、手Hの指先から対象画像Dへ向かって動く軌跡状の画像である。第1軌跡画像Ce1は、ユーザUが行ったジェスチャに対応した操作が特定された場合に、プロジェクタ20により投影される画像である。第2軌跡画像Ce2は、例えば、対象画像Dから手Hの指先に向かって動く軌跡状の画像である。第2軌跡画像Ce2は、特定された操作がその操作対象に反映された場合にプロジェクタ20により投影される画像である。なお、第1軌跡画像Ce1及び第2軌跡画像Ce2の表示条件については後述の操作状況報知処理と併せて説明する。 The locus image Ce includes a first locus image Ce1 from the user U's hand H toward the target image D, which will be described later, and a second locus image Ce2 from the target image D toward the hand H. .. The first locus image Ce1 is, for example, a locus-shaped image that moves from the fingertip of the hand H toward the target image D. The first locus image Ce1 is an image projected by the projector 20 when the operation corresponding to the gesture performed by the user U is specified. The second locus image Ce2 is, for example, a locus-shaped image that moves from the target image D toward the fingertip of the hand H. The second locus image Ce2 is an image projected by the projector 20 when the specified operation is reflected in the operation target. The display conditions of the first locus image Ce1 and the second locus image Ce2 will be described together with the operation status notification process described later.

軌跡画像Ceは、車両1内の物体、つまり、検出された手H、センターコンソール2及び表示部30に投影されることで、手Hと対象画像Dとを結ぶように表示される。例えば、投影制御部41dは、予め記憶部42のROMに記憶された、車両1の室内における投影領域Apを規定する投影位置情報に基づいて軌跡画像Ceを所望の位置に投影する。投影制御部41dは、検出部41aから手H1の位置を示す座標情報を取得するとともに、表示制御部41eから表示部30における対象画像Dの表示位置を示す位置情報を取得する。そして、投影制御部41dは、座標情報及び位置情報の各々に対応する投影位置を算出し、算出した投影位置に基づき軌跡画像Ceを投影する。なお、図7(a)、(b)では、軌跡画像Ceが表す直線状の軌跡を表す例を示したが、軌跡画像Ceの表示態様は任意である。例えば、軌跡画像Ceは、検出した手Hと対象画像Dとの一方から他方へと向かうものであれば、曲線状の軌跡やランダムな軌跡を表していてもよい。また、軌跡画像Ceは、線状に限られず、帯状、放射状などの形状であってもよい。また、軌跡画像Ceは、検出した手Hと対象画像Dとの一方から他方へと向かうものであれば、手Hと対象画像Dとの双方に重畳して表示されなくともよく、手Hと対象画像Dの間に表示されてもよい。 The locus image Ce is projected onto an object in the vehicle 1, that is, the detected hand H, the center console 2, and the display unit 30, so as to connect the hand H and the target image D. For example, the projection control unit 41d projects the locus image Ce to a desired position based on the projection position information that defines the projection area Ap in the interior of the vehicle 1 stored in the ROM of the storage unit 42 in advance. The projection control unit 41d acquires the coordinate information indicating the position of the hand H1 from the detection unit 41a, and also acquires the position information indicating the display position of the target image D on the display unit 30 from the display control unit 41e. Then, the projection control unit 41d calculates the projection position corresponding to each of the coordinate information and the position information, and projects the locus image Ce based on the calculated projection position. Although FIGS. 7A and 7B show an example of representing a linear locus represented by the locus image Ce, the display mode of the locus image Ce is arbitrary. For example, the locus image Ce may represent a curved locus or a random locus as long as it goes from one of the detected hand H and the target image D to the other. Further, the locus image Ce is not limited to a linear shape, but may have a strip-shaped shape, a radial shape, or the like. Further, the locus image Ce does not have to be superimposed on both the hand H and the target image D as long as it is directed from one of the detected hand H and the target image D to the other. It may be displayed between the target images D.

表示制御部41eは、図5に示すように、ユーザUのジェスチャにより操作可能な対象に関する情報を示す対象画像Dを表示部30に表示させる。なお、当該対象に関する情報とは、対象機器そのものを示す情報だけでなく、対象機器の操作項目、対象機器の一部機能を示す情報なども含む。対象画像Dは、当該対象に関する情報を、文字、図形、アイコン等で表す構成であればよい。 As shown in FIG. 5, the display control unit 41e causes the display unit 30 to display a target image D showing information about a target that can be operated by the gesture of the user U. The information about the target includes not only the information indicating the target device itself, but also the operation items of the target device, the information indicating some functions of the target device, and the like. The target image D may have a configuration in which information about the target is represented by characters, figures, icons, and the like.

対象画像Dは、第1操作パターンPAに規定された操作の対象に関する情報を示す第1対象画像D1と、第2操作パターンPBに規定された操作の対象に関する情報を示す第2対象画像D2と、を含む。図5は、ドライバU1に走行モードの操作が可能であることを示す第1対象画像D1と、同乗者U2に制御装置40と接続された携帯端末の操作が可能であることを示す第2対象画像D2が表示部30に表示されている例である。 The target image D includes a first target image D1 showing information about the operation target specified in the first operation pattern PA, and a second target image D2 showing information about the operation target specified in the second operation pattern PB. ,including. FIG. 5 shows a first target image D1 showing that the driver U1 can operate the driving mode, and a second target showing that the passenger U2 can operate the mobile terminal connected to the control device 40. This is an example in which the image D2 is displayed on the display unit 30.

表示制御部41eは、図5に示すように、第1対象画像D1を第1色画像Ca1の色(前述の第1の色)と同色又は関連する色を含む態様で表示部30に表示させ、第2対象画像D2を第2色画像Ca2の色(前述の第2の色)と同色又は関連する色を含む態様で表示部30に表示させる。これにより、ドライバU1は、第1色画像Ca1が自身の手H1に投影されることで、第1対象画像D1が示す対象の操作が可能な状態であることを直感的に認識することができる。また、同乗者U2は、第2色画像Ca2が自身の手H2に投影されることで、第2対象画像D2が示す対象の操作が可能な状態であることを直感的に認識することができる。第1の色と関連する色とは、第1の色の同系色又は類似色であればよい。例えば、第1の色の同系色は、第1の色と色相は同じで、明度と彩度の違う色であればよい。また、第1の色の類似色は、第1の色と類似した色相を組み合わせた色であればよい。この関係は、第2の色と関連する色についても同様である。 As shown in FIG. 5, the display control unit 41e causes the display unit 30 to display the first target image D1 in a manner including the same color as the color of the first color image Ca1 (the first color described above) or a related color. , The second target image D2 is displayed on the display unit 30 in a manner including the same color as the color of the second color image Ca2 (the above-mentioned second color) or a related color. As a result, the driver U1 can intuitively recognize that the target indicated by the first target image D1 can be operated by projecting the first color image Ca1 onto its own hand H1. .. Further, the passenger U2 can intuitively recognize that the target indicated by the second target image D2 can be operated by projecting the second color image Ca2 onto his / her hand H2. .. The color associated with the first color may be a similar color or a similar color of the first color. For example, a similar color of the first color may be a color having the same hue as the first color but different in lightness and saturation. Further, the similar color of the first color may be a color that is a combination of hues similar to the first color. This relationship is the same for the colors associated with the second color.

なお、第1対象画像D1が第1の色と同色又は関連する色(以下、対応色とも言う。)を含む態様は任意であり、第1対象画像D1を構成する枠、文字等のパーツが対応色を有していてもよいし、第1対象画像D1全体が対応色で表示されていてもよい。表示制御部41eは、第1対象画像D1を、表示部30に常時表示してもよいし、所定の操作を受け付けたことを契機に表示部30に表示してもよい。また、表示制御部41eは、第1色画像Ca1がドライバU1に投影されたことを条件に、第1対象画像D1を、第1色画像Ca1の対応色を含んだ態様の表示に切り替えてもよい。第2対象画像D2についても同様である。 It should be noted that the mode in which the first target image D1 includes the same color as or related to the first color (hereinafter, also referred to as a corresponding color) is arbitrary, and parts such as frames and characters constituting the first target image D1 are included. It may have a corresponding color, or the entire first target image D1 may be displayed in the corresponding color. The display control unit 41e may constantly display the first target image D1 on the display unit 30, or may display the first target image D1 on the display unit 30 when a predetermined operation is received. Further, the display control unit 41e may switch the display of the first target image D1 to a display including the corresponding color of the first color image Ca1 on condition that the first color image Ca1 is projected on the driver U1. good. The same applies to the second target image D2.

続いて、制御部41が実行する操作状況報知処理について図8〜図10を参照して説明する。制御部41は、図8に示す操作状況報知処理を開始すると、まず、ユーザUを特定済みであるか否かを判別する(ステップS101)。ユーザUが未だ特定されていない場合(ステップS101;No)、制御部41は、ユーザ特定処理(ステップS200)として図9に示す処理を実行し、検出領域Adで手Hが検出されているかを判別する(ステップS201)。手Hが検出された場合(ステップS201;Yes)、制御部41は、前述のように、検出領域Adに設定された第1の領域A1及び第2の領域A2に基づき、ユーザUを特定する(ステップS202)。ステップS202の処理後、又は、手Hが検出されていない場合(ステップS201;No)、制御部41は、ユーザ特定処理を終了する。 Subsequently, the operation status notification process executed by the control unit 41 will be described with reference to FIGS. 8 to 10. When the operation status notification process shown in FIG. 8 is started, the control unit 41 first determines whether or not the user U has been specified (step S101). When the user U has not been specified yet (step S101; No), the control unit 41 executes the process shown in FIG. 9 as the user identification process (step S200), and determines whether or not the hand H is detected in the detection area Ad. Determine (step S201). When the hand H is detected (step S201; Yes), the control unit 41 identifies the user U based on the first region A1 and the second region A2 set in the detection region Ad as described above. (Step S202). After the process of step S202, or when the hand H is not detected (step S201; No), the control unit 41 ends the user identification process.

図8に戻って、ユーザUが特定された場合(ステップS101;Yes)、制御部41は、ユーザ特定処理で特定されたユーザUの手Hが検出されている状態か否かを判別する(ステップS102)。ここで、特定されたユーザUは、ドライバU1と同乗者U2の少なくともいずれかであればよい。ドライバU1の手H1と同乗者U2の手H2とが同時に検出されている場合、制御部41は、ステップS102以降の処理を特定されたユーザU毎に並列して実行する。 Returning to FIG. 8, when the user U is specified (step S101; Yes), the control unit 41 determines whether or not the hand H of the user U specified in the user identification process is detected (step S101; Yes). Step S102). Here, the specified user U may be at least one of the driver U1 and the passenger U2. When the hand H1 of the driver U1 and the hand H2 of the passenger U2 are detected at the same time, the control unit 41 executes the processes after step S102 in parallel for each specified user U.

特定されたユーザUの手Hを検出した場合(ステップS102;Yes)、制御部41は、図6(a)に示すように、手Hの手首に第1画像Caを投影し(ステップS103)、ユーザUに手Hが検出領域Ad内にあることを報知する。特定されたユーザUがドライバU1である場合は、ドライバU1の手H1に第1色画像Ca1が第1画像Caとして投影される。特定されたユーザUが同乗者U2である場合は、同乗者U2の手H2に第2色画像Ca2が第1画像Caとして投影される。特定されたユーザUの手Hが検出されない場合(ステップS102;No)、制御部41は、第1画像Caを非表示とし(ステップS104)、ステップS101に戻って処理を実行する。 When the specified user U's hand H is detected (step S102; Yes), the control unit 41 projects the first image Ca on the wrist of the hand H as shown in FIG. 6 (a) (step S103). , Notifies the user U that the hand H is in the detection area Ad. When the identified user U is the driver U1, the first color image Ca1 is projected as the first image Ca on the hand H1 of the driver U1. When the identified user U is the passenger U2, the second color image Ca2 is projected as the first image Ca on the hand H2 of the passenger U2. When the specified user U's hand H is not detected (step S102; No), the control unit 41 hides the first image Ca (step S104) and returns to step S101 to execute the process.

ステップS103に続いて、制御部41は、ステップS102で検出した手Hによるジェスチャを特定する(ステップS105)。ジェスチャが特定された場合(ステップS105;Yes)、制御部41は、図6(b)に示すように、手Hの指先に第2画像Cbを投影し(ステップS106)、ユーザUにジェスチャが受け付けられていることを報知する。ジェスチャを特定することができなかった場合(ステップS105;No)、制御部41は、第2画像Cbを非表示とし(ステップS107)、ステップS101に戻って処理を実行する。 Following step S103, the control unit 41 identifies the gesture by the hand H detected in step S102 (step S105). When the gesture is specified (step S105; Yes), the control unit 41 projects the second image Cb on the fingertip of the hand H (step S106) as shown in FIG. 6 (b), and the gesture is given to the user U. Notify that it is being accepted. When the gesture cannot be specified (step S105; No), the control unit 41 hides the second image Cb (step S107), returns to step S101, and executes the process.

ステップS106に続いて、制御部41は、ユーザUに応じた操作パターンを参照する(ステップS108)。具体的に、制御部41は、ユーザUがドライバU1である場合は第1操作パターンPAを参照し、ユーザが同乗者U2である場合は第2操作パターンPBを参照する。 Following step S106, the control unit 41 refers to the operation pattern according to the user U (step S108). Specifically, the control unit 41 refers to the first operation pattern PA when the user U is the driver U1, and refers to the second operation pattern PB when the user is the passenger U2.

続いて、制御部41は、ステップS105で特定したジェスチャに対応する操作が操作パターン内にあるか否かを判別する(ステップS109)。制御部41は、操作パターンを参照して、ジェスチャに対応する操作を特定した場合(ステップS109;Yes)、特定した操作の内容を示す信号を操作対象へ出力し、ステップS110の処理を実行する。制御部41は、特定されたジェスチャがドライバU1の手H1によるものである場合は、第1操作パターンPAを参照し、特定されたジェスチャに対応する操作を特定し、特定した操作の内容を示す信号を操作対象へ出力する。これによりドライバU1に許可された操作が実行可能となる。制御部41は、特定されたジェスチャが同乗者U2の手H2によるものである場合は、第2操作パターンPBを参照し、特定されたジェスチャに対応する操作を特定し、特定した操作の内容を示す信号を操作対象へ出力する。これにより同乗者U2に許可された操作が実行可能となる。 Subsequently, the control unit 41 determines whether or not the operation corresponding to the gesture specified in step S105 is within the operation pattern (step S109). When the operation corresponding to the gesture is specified by referring to the operation pattern (step S109; Yes), the control unit 41 outputs a signal indicating the content of the specified operation to the operation target, and executes the process of step S110. .. When the specified gesture is due to the hand H1 of the driver U1, the control unit 41 refers to the first operation pattern PA, identifies the operation corresponding to the specified gesture, and indicates the content of the specified operation. Output the signal to the operation target. As a result, the operation permitted by the driver U1 can be executed. When the specified gesture is due to the hand H2 of the passenger U2, the control unit 41 refers to the second operation pattern PB, identifies the operation corresponding to the specified gesture, and determines the content of the specified operation. The indicated signal is output to the operation target. As a result, the operation permitted to the passenger U2 can be executed.

ステップS110で制御部41は、特定した操作の種別が予め定められた特別操作であるか否か判別し、特別操作でない場合(ステップS110;No)、図6(b)に示す第2画像Cbを変化させた態様の操作有効画像Ccを、図6(c)に示すように、ユーザUの手Hに投影する(ステップS111)。一方、ステップS109で、ジェスチャに対応する操作が特定されなかった場合(ステップS109;No)、制御部41は、図6(b)に示す第2画像Cbを変化させた態様の操作無効画像Cdを、図6(d)に示すように、ユーザUの手Hに投影する(ステップS112)。 In step S110, the control unit 41 determines whether or not the specified operation type is a predetermined special operation, and if it is not a special operation (step S110; No), the second image Cb shown in FIG. 6 (b). As shown in FIG. 6 (c), the operation effective image Cc of the modified mode is projected onto the hand H of the user U (step S111). On the other hand, when the operation corresponding to the gesture is not specified in step S109 (step S109; No), the control unit 41 changes the second image Cb shown in FIG. Is projected onto the hand H of the user U as shown in FIG. 6 (d) (step S112).

ステップS110で、特定した操作の種別が特別操作である場合(ステップS110;Yes)、制御部41は、操作対象報知処理(ステップS300)として図10に示す処理を実行すし、図7(a)に示すように、第1軌跡画像Ce1を一定期間だけ投影表示する(ステップS301)。続いて、制御部41は、操作の内容を示す信号を出力した操作対象から、当該操作の内容に応じた制御が完了した旨を示すアンサーバック信号を受信したか否かを判別する(ステップS302)。アンサーバック信号を受信した場合(ステップS302;Yes)、制御部41は、図7(b)に示すように、第2軌跡画像Ce2を一定期間だけ投影表示する(ステップS303)。なお、第1軌跡画像Ce1、第2軌跡画像Ce2を投影する期間は、例えば数秒といった期間であればよい。ステップS303の実行後、又は、アンサーバック信号を受信しなかった場合(ステップS302;No)、制御部41は、操作対象報知処理を終了する。 When the type of the specified operation is a special operation in step S110 (step S110; Yes), the control unit 41 executes the process shown in FIG. 10 as the operation target notification process (step S300), and FIG. 7 (a) shows. As shown in the above, the first locus image Ce1 is projected and displayed for a certain period of time (step S301). Subsequently, the control unit 41 determines whether or not a answerback signal indicating that the control according to the content of the operation has been completed has been received from the operation target that has output the signal indicating the content of the operation (step S302). ). When the answerback signal is received (step S302; Yes), the control unit 41 projects and displays the second locus image Ce2 for a certain period of time as shown in FIG. 7B (step S303). The period for projecting the first locus image Ce1 and the second locus image Ce2 may be, for example, a period of several seconds. After the execution of step S303 or when the answerback signal is not received (step S302; No), the control unit 41 ends the operation target notification process.

図8に戻って、ステップS111、S112、S300の処理後、制御部41は、ステップS101に戻って処理を実行する。以上の操作状況報知処理は、例えば操作装置100の起動中において継続して実行される。 Returning to FIG. 8, after the processing of steps S111, S112, and S300, the control unit 41 returns to step S101 to execute the processing. The above operation status notification process is continuously executed, for example, while the operation device 100 is being activated.

なお、操作状況報知処理は、車両1の走行時など一定の条件下で実行されてもよい。例えば、制御部41は、車両1のエンジン又はモータである原動機の起動中、且つ、車両1のパーキングブレーキ解除時に操作状況報知処理を実行してもよい。また、操作状況報知処理において、制御部41は、ステップS101、S102、及びステップS200を構成する各処理を検出部41aの機能で実行する。また、制御部41は、ステップS105をジェスチャ特定部41bの機能で実行する。また、制御部41は、ステップS108〜S110、S302を操作制御部41cの機能で実行する。また、制御部41は、ステップS103、S104、S106、S107、S111、S112、S301、S303を投影制御部41dの機能で実行する。 The operation status notification process may be executed under certain conditions such as when the vehicle 1 is traveling. For example, the control unit 41 may execute the operation status notification process while the prime mover, which is the engine or motor of the vehicle 1, is being activated and when the parking brake of the vehicle 1 is released. Further, in the operation status notification process, the control unit 41 executes each process constituting steps S101, S102, and step S200 by the function of the detection unit 41a. Further, the control unit 41 executes step S105 by the function of the gesture identification unit 41b. Further, the control unit 41 executes steps S108 to S110 and S302 by the function of the operation control unit 41c. Further, the control unit 41 executes steps S103, S104, S106, S107, S111, S112, S301, and S303 by the function of the projection control unit 41d.

なお、本発明は以上の実施形態及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。 The present invention is not limited to the above embodiments and drawings. Changes (including deletion of components) can be made as appropriate without changing the gist of the present invention.

以上の実施形態では、操作装置100が、その機能として表示部30を含む例を示したが、表示部30を含むことは任意である。表示部30を備えず、あるいは、表示部30に加えて、車両1の室内に設置され、操作装置100と通信可能な表示装置に各機器の状態や操作のための各画像を表示してもよく、ユーザUによって車両1の室内に持ち込まれる表示装置に各画像を表示してもよい。また、音声出力部を備え、各機器の状態や操作のための音声を出力してもよい。 In the above embodiment, the operation device 100 includes the display unit 30 as its function, but it is optional to include the display unit 30. Even if the display unit 30 is not provided, or in addition to the display unit 30, a display device installed in the room of the vehicle 1 and capable of communicating with the operation device 100 displays the state of each device and each image for operation. Often, each image may be displayed on a display device brought into the room of the vehicle 1 by the user U. Further, an audio output unit may be provided to output audio for the state and operation of each device.

以上の実施形態では、第2画像Cbが手Hの指先に投影される例を示したが、手Hにおける第2画像Cbの投影位置は任意である。例えば、図11(a)に示すように、第2画像Cbは、手Hの甲に投影されてもよい。また、操作有効画像Ccは、図11(b)に示すように、第2画像Cbに枠などの画像パーツを付加した態様であってもよい。 In the above embodiment, the example in which the second image Cb is projected on the fingertip of the hand H is shown, but the projection position of the second image Cb on the hand H is arbitrary. For example, as shown in FIG. 11A, the second image Cb may be projected onto the back of the hand H. Further, as shown in FIG. 11B, the operation effective image Cc may have an aspect in which an image part such as a frame is added to the second image Cb.

第1画像Ca、第2画像Cb、操作有効画像Cc及び操作無効画像Cdの形状、投影位置は以上の例に限られず任意である。例えば、第2画像Cbも第1画像Caと同様に、ユーザU毎に色を異ならせてもよい。また、第1画像Ca及び第2画像Cbは、手Hの互いに異なる位置に投影されなくともよく、例えば、第2画像Cbは、第1画像Caを変形させた態様であってもよい。 The shapes and projection positions of the first image Ca, the second image Cb, the operation valid image Cc, and the operation invalid image Cd are not limited to the above examples and are arbitrary. For example, the color of the second image Cb may be different for each user U as in the case of the first image Ca. Further, the first image Ca and the second image Cb do not have to be projected at different positions of the hand H. For example, the second image Cb may be a modified form of the first image Ca.

以上では、検出領域Adに設けた第1の領域A1及び第2の領域A2に基づいて、ユーザUの特定を行う例を示したが、ユーザUの特定手法は任意である。例えば、車両1を使用する者の手Hに関する情報を予め操作装置100に登録しておき、登録情報に基づいてユーザUを特定する構成を採用することもできる。また、車両1がRHDの場合、検出した手Hが左手である場合にドライバU1の手H1と特定し、検出した手Hが右手である場合に同乗者U2の手H2と特定してもよい。検出領域Adが車両1の中央部に位置する場合、ドライバU1は左手でジェスチャを行い、同乗者U2は右手でジェスチャを行う可能性が高いためである。車両1がLHDの場合は、これと逆の関係を考えればよい。手Hが左手であるか右手であるかの判別は、例えば、パターンマッチング法などの公知の手法を用いることができる。 In the above, an example of identifying the user U based on the first region A1 and the second region A2 provided in the detection region Ad has been shown, but the method for identifying the user U is arbitrary. For example, it is possible to adopt a configuration in which information about the hand H of the person who uses the vehicle 1 is registered in the operation device 100 in advance and the user U is specified based on the registered information. Further, when the vehicle 1 is RHD, if the detected hand H is the left hand, it may be specified as the driver U1's hand H1, and if the detected hand H is the right hand, it may be specified as the passenger U2's hand H2. .. This is because when the detection region Ad is located in the center of the vehicle 1, the driver U1 is likely to make a gesture with the left hand and the passenger U2 is likely to make a gesture with the right hand. When the vehicle 1 is an LHD, the opposite relationship may be considered. A known method such as a pattern matching method can be used to determine whether the hand H is the left hand or the right hand.

以上では、軌跡画像Ceとして、手H及び対象画像Dの一方から他方へと向かう軌跡状の画像を投影した例を示したが、軌跡画像Ceは、手H及び次に述べる対象部の一方から他方へと向かう軌跡状の画像であってもよい。対象部は、操作対象(つまり、機器群200を構成する各機器や表示部30)、又は、当該操作対象と関連する関連部であればよい。関連部は、前記の対象画像Dを含む。また、関連部は、例えば、エアコン装置が操作対象である場合の送風口、走行モードを制御するECUが操作対象である場合の走行モードを報知するためのインジケータ等であってもよい。 In the above, an example in which a locus-shaped image directed from one of the hand H and the target image D to the other is projected as the locus image Ce has been shown, but the locus image Ce is from one of the hand H and the target portion described below. It may be a locus-shaped image toward the other side. The target unit may be an operation target (that is, each device or display unit 30 constituting the device group 200) or a related unit related to the operation target. The related part includes the target image D described above. Further, the related part may be, for example, an air outlet when the air conditioner device is the operation target, an indicator for notifying the travel mode when the ECU that controls the traveling mode is the operating target, or the like.

非接触式センサ10、プロジェクタ20及び表示部30の車両1内における配置は任意であり、適宜変更することができる。また、操作装置100が搭載される乗り物は、車両1に限られず任意であり、船舶、航空機などの車両1以外の乗り物であってもよい。 The arrangement of the non-contact sensor 10, the projector 20, and the display unit 30 in the vehicle 1 is arbitrary and can be changed as appropriate. Further, the vehicle on which the operation device 100 is mounted is not limited to the vehicle 1, and may be any vehicle other than the vehicle 1, such as a ship or an aircraft.

以上に説明した操作状況報知処理を実行するプログラムPGは、記憶部42に予め記憶されているものとしたが、着脱自在の記録媒体により配布・提供されてもよい。また、プログラムPGは、操作装置100と接続された他の機器からダウンロードされるものであってもよい。また、操作装置100は、他の機器と電気通信ネットワークなどを介して各種データの交換を行うことによりプログラムPGに従う各処理を実行してもよい。 The program PG that executes the operation status notification process described above is assumed to be stored in the storage unit 42 in advance, but may be distributed and provided by a detachable recording medium. Further, the program PG may be downloaded from another device connected to the operating device 100. Further, the operating device 100 may execute each process according to the program PG by exchanging various data with other devices via a telecommunication network or the like.

以上では、検出部41aが検出する人体の部位が、ユーザUの手Hである例を説明したが、これに限られない。乗り物内において安全にジェスチャが可能である部位であれば、足などであってもよい。なお、本明細書における「手」とは、人体の肩から先にある部分を言い、指や掌はもちろん、肘なども含む。 In the above, the example in which the part of the human body detected by the detection unit 41a is the hand H of the user U has been described, but the present invention is not limited to this. As long as it is a part of the vehicle where gestures can be safely performed, it may be a foot or the like. The term "hand" in the present specification refers to a part of the human body beyond the shoulder, and includes not only fingers and palms but also elbows and the like.

以上では、制御部41がユーザUを特定する例を示したが、ユーザUを特定せずに操作状況報知処理を実行してもよい。例えば、操作状況報知処理のステップS101及びステップS200の処理を省略することもできる。また、以上では、所定の場合に軌跡画像Ceを投影する例を示したが、軌跡画像Ceを投影する処理を省いてもよい。例えば、操作状況報知処理のステップS300の処理を省略することもできる。 In the above, the control unit 41 has shown an example of specifying the user U, but the operation status notification process may be executed without specifying the user U. For example, the processing of step S101 and step S200 of the operation status notification processing can be omitted. Further, although the example of projecting the locus image Ce in a predetermined case is shown above, the process of projecting the locus image Ce may be omitted. For example, the process of step S300 of the operation status notification process can be omitted.

以上に説明した操作装置100は、非接触式センサ10からの情報に基づいて、車両1(乗り物の一例)内に予め設定された検出領域AdにおいてユーザUの手H(部位の一例)を検出する検出部41aと、検出部41aが検出した手Hによるジェスチャを特定するジェスチャ特定部41bと、ジェスチャ特定部41bが特定したジェスチャに対応する操作を特定し、特定した操作の内容を示す情報を操作対象へ出力する操作制御部41cと、車両1内に存在する物体に画像を投影可能な投影部(例えば、投影制御部41dの制御により動作するプロジェクタ20)と、を備える。 The operating device 100 described above detects the hand H (an example of a part) of the user U in the detection area Ad preset in the vehicle 1 (an example of a vehicle) based on the information from the non-contact sensor 10. The detection unit 41a, the gesture identification unit 41b that identifies the gesture by the hand H detected by the detection unit 41a, and the operation corresponding to the gesture specified by the gesture identification unit 41b are specified, and information indicating the content of the specified operation is provided. It includes an operation control unit 41c that outputs to an operation target, and a projection unit that can project an image on an object existing in the vehicle 1 (for example, a projector 20 that operates under the control of the projection control unit 41d).

(1−1)操作装置100において、投影部は、検出部41aが手Hを検出した場合に、第1画像Caを手Hに投影し、ジェスチャ特定部41bがジェスチャを特定した場合に、第1画像Caとは異なる第2画像Cbを手Hに投影する。この構成によれば、ユーザUは、手Hが検出されていること、及び、ジェスチャが受け付けられていることを投影画像によって把握することができる。したがって、ユーザUが無意味なジェスチャを繰り返してしまうことを抑制することができる。 (1-1) In the operating device 100, the projection unit projects the first image Ca onto the hand H when the detection unit 41a detects the hand H, and the gesture identification unit 41b identifies the gesture. A second image Cb different from the first image Ca is projected onto the hand H. According to this configuration, the user U can grasp from the projected image that the hand H is detected and that the gesture is accepted. Therefore, it is possible to prevent the user U from repeating meaningless gestures.

(1−2)また、投影部は、操作制御部41cがジェスチャに対応する操作を特定した場合、第2画像Cbを変化させた操作有効画像Ccを手Hに投影する。この構成によれば、ユーザUに操作が受け付けられていることを報知することができる。 (1-2) Further, when the operation control unit 41c specifies the operation corresponding to the gesture, the projection unit projects the operation effective image Cc obtained by changing the second image Cb onto the hand H. According to this configuration, it is possible to notify the user U that the operation is being accepted.

(1−3)また、投影部は、操作制御部41cがジェスチャに対応する操作を特定できなかった場合、第2画像Cbを変化させた画像であって、操作有効画像Ccとは異なる表示態様の操作無効画像Cdを手Hに投影する。この構成によれば、ユーザUに操作が受け付けられていないことを報知することができる。 (1-3) Further, the projection unit is an image obtained by changing the second image Cb when the operation control unit 41c cannot specify the operation corresponding to the gesture, and is a display mode different from the operation effective image Cc. The operation invalid image Cd of is projected on the hand H. According to this configuration, it is possible to notify the user U that the operation is not accepted.

(1−4)具体的に、操作有効画像Cc及び操作無効画像Cdは、互いに表示態様が異なるとともに、サイズ、表示位置、色及び点灯パターンの少なくともいずれかが第2画像Cbとは異なる。 (1-4) Specifically, the operation valid image Cc and the operation invalid image Cd are different from each other in the display mode, and at least one of the size, the display position, the color, and the lighting pattern is different from the second image Cb.

(1−5)また、第1画像Caと第2画像Cbとは、手Hの互いに異なる位置に投影されてもよい。 (1-5) Further, the first image Ca and the second image Cb may be projected at different positions of the hand H.

(2−1)操作装置100において、検出部41aは、手HがドライバU1(第1のユーザの一例)の手H1であるか同乗者U2(第2のユーザの一例)の手H2であるかを特定可能である。また、操作制御部41cは、ドライバU1の手H1によるジェスチャを特定した場合は、ドライバU1に許可される複数種別の操作を規定した第1操作パターンPAに基づいて当該ジェスチャに対応する操作を特定し、同乗者U2の手H2によるジェスチャを特定した場合は、同乗者U2に許可される複数種別の操作を規定した第2操作パターンPBに基づいて当該ジェスチャに対応する操作を特定する。また、第1操作パターンPAと第2操作パターンPBとは、少なくとも一部が異なる。この構成によれば、ユーザの種別に応じて設定された操作を適切に特定することができる。 (2-1) In the operating device 100, in the detection unit 41a, the hand H is the hand H1 of the driver U1 (an example of the first user) or the hand H2 of the passenger U2 (an example of the second user). Can be specified. Further, when the operation control unit 41c specifies the gesture by the hand H1 of the driver U1, the operation control unit 41c specifies the operation corresponding to the gesture based on the first operation pattern PA that defines a plurality of types of operations permitted to the driver U1. Then, when the gesture by the hand H2 of the passenger U2 is specified, the operation corresponding to the gesture is specified based on the second operation pattern PB that defines a plurality of types of operations permitted to the passenger U2. Further, at least a part of the first operation pattern PA and the second operation pattern PB is different. According to this configuration, the operation set according to the type of the user can be appropriately specified.

(2−2)また、投影部は、ドライバU1の手H1に第1の色を有する第1色画像Ca1を投影し、同乗者U2の手H2に第1の色とは異なる第2の色を有する第2色画像Ca2を投影する。この構成によれば、複数のユーザUの各々が自身で操作可能な対象を把握することができる。 (2-2) Further, the projection unit projects the first color image Ca1 having the first color on the hand H1 of the driver U1, and the second color different from the first color is projected on the hand H2 of the passenger U2. The second color image Ca2 having the above is projected. According to this configuration, each of the plurality of users U can grasp the target that can be operated by itself.

(2−3)また、操作装置100が備える表示部30は、第1対象画像D1を第1の色と同色又は関連する色を含む態様で表示し、第2対象画像D2を第2の色と同色又は関連する色を含む態様で表示する。この構成によれば、ユーザUは、より直感的に操作可能な対象を把握することができる。 (2-3) Further, the display unit 30 included in the operation device 100 displays the first target image D1 in a mode including the same color as the first color or a color related to the first color, and displays the second target image D2 in the second color. Display in a mode including the same color as or related to. According to this configuration, the user U can grasp the target that can be operated more intuitively.

(2−4)具体的に、検出部41aは、検出領域Adのうち第1の領域A1で検出した手HをドライバU1の手H1と特定し、検出領域Adのうち第1の領域A1とは異なる第2の領域A2で検出した手Hを同乗者U2の手H2と特定することができる。 (2-4) Specifically, the detection unit 41a identifies the hand H detected in the first region A1 of the detection region Ad as the hand H1 of the driver U1, and sets it as the first region A1 of the detection region Ad. Can identify the hand H detected in the different second region A2 as the hand H2 of the passenger U2.

(3−1)操作装置100において、投影部は、操作制御部41cがジェスチャに対応する操作を特定した場合、手H及び対象部の一方から他方へと向かう軌跡状の軌跡画像Ceを投影する。対象部は、操作対象、又は、操作対象と関連する関連部(例えば、対象画像D)である。この構成によれば、ユーザUに操作した対象を容易に把握させることができる。 (3-1) In the operation device 100, when the operation control unit 41c specifies an operation corresponding to the gesture, the projection unit projects a locus-shaped locus image Ce from one of the hand H and the target unit to the other. .. The target unit is an operation target or a related portion related to the operation target (for example, the target image D). According to this configuration, the user U can easily grasp the operated target.

(3−2)投影部は、操作制御部41cがジェスチャに対応する操作を特定した場合、手Hから対象部へ向かう第1軌跡画像Ce1を投影した後に、対象部から手Hへ向かう第2軌跡画像Ce2を投影可能である。 (3-2) When the operation control unit 41c specifies the operation corresponding to the gesture, the projection unit projects the first trajectory image Ce1 from the hand H toward the target unit, and then the second projection unit from the target unit toward the hand H. The locus image Ce2 can be projected.

(3−3)具体的に、投影部は、操作制御部41cによって特定された操作が操作対象に反映された場合に第2軌跡画像Ce2を投影する。この構成によれば、操作が反映されたことを直感的にユーザUに把握させることができる。 (3-3) Specifically, the projection unit projects the second locus image Ce2 when the operation specified by the operation control unit 41c is reflected in the operation target. According to this configuration, the user U can intuitively grasp that the operation is reflected.

(3−4)投影部は、操作制御部41cが特定したジェスチャに対応する操作が、予め定められた種別の特別操作である場合に軌跡画像Ceを投影し、特別操作でない場合には軌跡画像Ceを投影しない。この構成によれば、必要性の高い操作に関する報知を軌跡画像Ceで直感的に行うことができる。また、あらゆる操作時に軌跡画像Ceが投影され、ユーザUに煩わしさを与えてしまうことを抑制することができる。 (3-4) The projection unit projects the locus image Ce when the operation corresponding to the gesture specified by the operation control unit 41c is a special operation of a predetermined type, and the locus image when it is not a special operation. Do not project Ce. According to this configuration, it is possible to intuitively notify the highly necessary operation with the locus image Ce. In addition, it is possible to prevent the locus image Ce from being projected at every operation and causing trouble to the user U.

(3−5)関連部は、車両1内の表示部30に表示された画像であって、操作対象に関する情報を示す対象画像Dであってもよい。 (3-5) The related part may be an image displayed on the display unit 30 in the vehicle 1 and may be a target image D showing information about the operation target.

以上の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略した。 In the above description, in order to facilitate the understanding of the present invention, the description of known technical matters has been omitted as appropriate.

1…車両、2…センターコンソール、3…ダッシュボード、4…運転席、5…助手席
U…ユーザ、U1…ドライバ、U2…同乗者、H,H1,H2…手
100…操作装置
10…非接触式センサ、20…プロジェクタ、30…表示部
40…制御装置、41…制御部、42…記憶部
41a…検出部
41b…ジェスチャ特定部
41c…操作制御部
41d…投影制御部
41e…表示制御部
Ad…検出領域、A1…第1の領域、A2…第2の領域
Ap…投影領域
B…区分線
Ca…第1画像、Ca1…第1色画像、Ca2…第2色画像
Cb…第2画像
Cc…操作有効画像
Cd…操作無効画像
Ce…軌跡画像、Ce1…第1軌跡画像、Ce2…第2軌跡画像
D…対象画像、D1…第1対象画像、D2…第2対象画像
1 ... Vehicle, 2 ... Center console, 3 ... Dashboard, 4 ... Driver's seat, 5 ... Passenger seat U ... User, U1 ... Driver, U2 ... Passenger, H, H1, H2 ... Hand 100 ... Operating device 10 ... Non Contact type sensor, 20 ... Projector, 30 ... Display unit 40 ... Control device, 41 ... Control unit, 42 ... Storage unit 41a ... Detection unit 41b ... Gesture identification unit 41c ... Operation control unit 41d ... Projection control unit 41e ... Display control unit Ad ... detection area, A1 ... first area, A2 ... second area Ap ... projection area B ... division line Ca ... first image, Ca1 ... first color image, Ca2 ... second color image Cb ... second image Cc ... Operation valid image Cd ... Operation invalid image Ce ... Trajectory image, Ce1 ... First trajectory image, Ce2 ... Second trajectory image D ... Target image, D1 ... First target image, D2 ... Second target image

Claims (5)

非接触式センサからの情報に基づいて、乗り物内に予め設定された検出領域においてユーザの部位を検出する検出部と、
前記検出部が検出した前記部位によるジェスチャを特定するジェスチャ特定部と、
前記ジェスチャ特定部が特定した前記ジェスチャに対応する操作を特定し、特定した操作の内容を示す情報を操作対象へ出力する操作制御部と、
前記乗り物内に存在する物体に画像を投影可能な投影部と、を備え、
前記投影部は、
前記検出部が前記部位を検出した場合に、第1画像を前記部位に投影し、
前記ジェスチャ特定部が前記ジェスチャを特定した場合に、前記第1画像とは異なる第2画像を前記部位に投影する、
操作装置。
A detector that detects the user's part in a preset detection area in the vehicle based on information from the non-contact sensor.
A gesture identification unit that identifies a gesture by the site detected by the detection unit, and a gesture identification unit.
An operation control unit that identifies an operation corresponding to the gesture specified by the gesture specifying unit and outputs information indicating the content of the specified operation to the operation target.
A projection unit capable of projecting an image onto an object existing in the vehicle is provided.
The projection unit
When the detection unit detects the site, a first image is projected onto the site.
When the gesture specifying portion identifies the gesture, a second image different from the first image is projected onto the portion.
Operating device.
前記投影部は、前記操作制御部が前記ジェスチャに対応する操作を特定した場合、前記第2画像を変化させた操作有効画像を前記部位に投影する、
請求項1に記載の操作装置。
When the operation control unit identifies an operation corresponding to the gesture, the projection unit projects an operation effective image obtained by changing the second image onto the portion.
The operating device according to claim 1.
前記投影部は、
前記操作制御部が前記ジェスチャに対応する操作を特定した場合、前記操作有効画像を前記部位に投影し、
前記操作制御部が前記ジェスチャに対応する操作を特定できなかった場合、前記第2画像を変化させた画像であって、前記操作有効画像とは異なる表示態様の操作無効画像を前記部位に投影する、
請求項2に記載の操作装置。
The projection unit
When the operation control unit identifies an operation corresponding to the gesture, the operation effective image is projected onto the portion.
When the operation control unit cannot specify the operation corresponding to the gesture, an operation invalid image having a display mode different from that of the operation valid image, which is an image obtained by changing the second image, is projected onto the portion. ,
The operating device according to claim 2.
前記操作有効画像及び前記操作無効画像は、互いに表示態様が異なるとともに、サイズ、表示位置、色及び点灯パターンの少なくともいずれかが前記第2画像とは異なる、
請求項3に記載の操作装置。
The operation valid image and the operation invalid image are different from each other in display mode, and at least one of the size, display position, color, and lighting pattern is different from the second image.
The operating device according to claim 3.
前記第1画像と前記第2画像とは、前記部位の互いに異なる位置に投影される、
請求項1乃至4のいずれか1項に記載の操作装置。
The first image and the second image are projected at different positions of the portion.
The operating device according to any one of claims 1 to 4.
JP2020032599A 2020-02-28 2020-02-28 operating device Active JP7375611B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020032599A JP7375611B2 (en) 2020-02-28 2020-02-28 operating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020032599A JP7375611B2 (en) 2020-02-28 2020-02-28 operating device

Publications (2)

Publication Number Publication Date
JP2021135841A true JP2021135841A (en) 2021-09-13
JP7375611B2 JP7375611B2 (en) 2023-11-08

Family

ID=77661357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020032599A Active JP7375611B2 (en) 2020-02-28 2020-02-28 operating device

Country Status (1)

Country Link
JP (1) JP7375611B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7378677B1 (en) * 2022-10-13 2023-11-13 三菱電機株式会社 Interface system, control device, and operation support method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004067031A (en) * 2002-08-08 2004-03-04 Nissan Motor Co Ltd Operator determining device and on-vehicle device using the same
JP2014153954A (en) * 2013-02-08 2014-08-25 Tokai Rika Co Ltd Gesture operation device and gesture operation program
JP2015508211A (en) * 2012-02-23 2015-03-16 インテル コーポレイション Method and apparatus for controlling a screen by tracking a user's head through a camera module and computer-readable recording medium thereof
JP2017059103A (en) * 2015-09-18 2017-03-23 パナソニックIpマネジメント株式会社 Determination device, determination method, determination program and recording medium
JP2018073170A (en) * 2016-10-31 2018-05-10 パナソニックIpマネジメント株式会社 Information input device
JP2018180851A (en) * 2017-04-11 2018-11-15 トヨタ紡織株式会社 User interface system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004067031A (en) * 2002-08-08 2004-03-04 Nissan Motor Co Ltd Operator determining device and on-vehicle device using the same
JP2015508211A (en) * 2012-02-23 2015-03-16 インテル コーポレイション Method and apparatus for controlling a screen by tracking a user's head through a camera module and computer-readable recording medium thereof
JP2014153954A (en) * 2013-02-08 2014-08-25 Tokai Rika Co Ltd Gesture operation device and gesture operation program
JP2017059103A (en) * 2015-09-18 2017-03-23 パナソニックIpマネジメント株式会社 Determination device, determination method, determination program and recording medium
JP2018073170A (en) * 2016-10-31 2018-05-10 パナソニックIpマネジメント株式会社 Information input device
JP2018180851A (en) * 2017-04-11 2018-11-15 トヨタ紡織株式会社 User interface system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7378677B1 (en) * 2022-10-13 2023-11-13 三菱電機株式会社 Interface system, control device, and operation support method
WO2024079831A1 (en) * 2022-10-13 2024-04-18 三菱電機株式会社 Interface system, control device, and operation assistance method

Also Published As

Publication number Publication date
JP7375611B2 (en) 2023-11-08

Similar Documents

Publication Publication Date Title
US9977593B2 (en) Gesture recognition for on-board display
US9290153B2 (en) Vehicle-based multimode discovery
US9082239B2 (en) Intelligent vehicle for assisting vehicle occupants
US20180232195A1 (en) Electronic device and method for sharing images
EP3051784A1 (en) Operating a vehicle and a wearable device
KR20240074777A (en) Vehicle and mobile device interface for vehicle occupant assistance
KR20240067906A (en) Vehicle and mobile device interface for vehicle occupant assistance
JPWO2018230527A1 (en) Driving support method, driving support program, and vehicle control device
KR20150072074A (en) System and control method for gesture recognition of vehicle
US10477155B2 (en) Driving assistance method, driving assistance device, and recording medium recording program using same
JP2024518333A (en) Multi-screen interaction method and device, terminal device, and vehicle
JP2014149640A (en) Gesture operation device and gesture operation program
JP2010036762A (en) Device for estimating behavior and program
JP7375611B2 (en) operating device
JP2021135843A (en) Operating device
JP6057755B2 (en) Gesture operation device and gesture operation program
CN112383826A (en) Control method and device of vehicle-mounted entertainment terminal, storage medium, terminal and automobile
JP2021135842A (en) Operating device
US10870436B2 (en) Operation assistance system and operation assistance method
JP7163649B2 (en) GESTURE DETECTION DEVICE, GESTURE DETECTION METHOD, AND GESTURE DETECTION CONTROL PROGRAM
WO2017017938A1 (en) Gesture operating system, method, and program
CN118322859A (en) Control method and control system for vehicle-mounted central control display screen

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231009

R150 Certificate of patent or registration of utility model

Ref document number: 7375611

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150