JP2021135841A - Operating device - Google Patents
Operating device Download PDFInfo
- Publication number
- JP2021135841A JP2021135841A JP2020032599A JP2020032599A JP2021135841A JP 2021135841 A JP2021135841 A JP 2021135841A JP 2020032599 A JP2020032599 A JP 2020032599A JP 2020032599 A JP2020032599 A JP 2020032599A JP 2021135841 A JP2021135841 A JP 2021135841A
- Authority
- JP
- Japan
- Prior art keywords
- image
- gesture
- hand
- unit
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 67
- 238000000034 method Methods 0.000 description 41
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 210000004247 hand Anatomy 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、操作装置に関する。 The present invention relates to an operating device.
従来の操作装置として、例えば特許文献1には、カメラ等の非接触式センサからの情報に基づいてユーザのジェスチャによる操作を判定するものが記載されている。特許文献1に記載の操作装置では、ユーザが予め設定された検出領域でジェスチャを行うことで所定機器に対する操作が可能となる。 As a conventional operation device, for example, Patent Document 1 describes a device that determines an operation by a user's gesture based on information from a non-contact sensor such as a camera. In the operating device described in Patent Document 1, the user can operate a predetermined device by performing a gesture in a preset detection area.
予め設定された検出領域でジェスチャ操作を判定する技術では、ユーザは、ジェスチャを行う手などの部位が検出領域に入っていないことを認識できていない場合がある。この場合、ユーザが装置に認識されない無意味なジェスチャを繰り返してしまう虞がある。 In the technique of determining the gesture operation in the preset detection area, the user may not be able to recognize that the part such as the hand performing the gesture is not in the detection area. In this case, the user may repeat a meaningless gesture that is not recognized by the device.
本発明は、上記実情に鑑みてなされたものであり、ユーザが無意味なジェスチャを繰り返してしまうことを抑制することができる操作装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an operating device capable of suppressing a user from repeating meaningless gestures.
上記目的を達成するため、本発明に係る操作装置は、
非接触式センサからの情報に基づいて、乗り物内に予め設定された検出領域においてユーザの部位を検出する検出部と、
前記検出部が検出した前記部位によるジェスチャを特定するジェスチャ特定部と、
前記ジェスチャ特定部が特定した前記ジェスチャに対応する操作を特定し、特定した操作の内容を示す情報を操作対象へ出力する操作制御部と、
前記乗り物内に存在する物体に画像を投影可能な投影部と、を備え、
前記投影部は、
前記検出部が前記部位を検出した場合に、第1画像を前記部位に投影し、
前記ジェスチャ特定部が前記ジェスチャを特定した場合に、前記第1画像とは異なる第2画像を前記部位に投影する。
In order to achieve the above object, the operating device according to the present invention is
A detector that detects the user's part in a preset detection area in the vehicle based on information from the non-contact sensor.
A gesture identification unit that identifies a gesture by the site detected by the detection unit, and a gesture identification unit.
An operation control unit that identifies an operation corresponding to the gesture specified by the gesture specifying unit and outputs information indicating the content of the specified operation to the operation target.
A projection unit capable of projecting an image onto an object existing in the vehicle is provided.
The projection unit
When the detection unit detects the site, a first image is projected onto the site.
When the gesture specifying portion identifies the gesture, a second image different from the first image is projected onto the portion.
本発明によれば、ユーザが無意味なジェスチャを繰り返してしまうことを抑制することができる。 According to the present invention, it is possible to prevent the user from repeating meaningless gestures.
本発明の一実施形態について図面を参照して説明する。 An embodiment of the present invention will be described with reference to the drawings.
本実施形態の一実施形態に係る操作装置100は、図1に示すように、車両1に搭載され、ユーザUの手H(図2参照)によるジェスチャで所定機器の操作を可能とするものである。操作装置100を利用しての操作は、図2に示すように、車両1の運転席4に着座したドライバU1と、助手席5に着座した同乗者U2の双方によって可能となっている。この実施形態では、車両1がRHD(Right Hand Drive)であるものとする。
As shown in FIG. 1, the
操作装置100は、図1に示すように、非接触式センサ10と、プロジェクタ20と、表示部30と、制御装置40と、を備える。
As shown in FIG. 1, the
非接触式センサ10は、可視光カメラ、赤外線カメラ、TOF(Time of Flight)カメラ、ミリ波センサ等から構成され、検出対象の二次元又は三次元情報(以下、検出対象情報)を計測し、制御装置40に送信する。非接触式センサ10は、例えば車両1の天井に設置される。この実施形態では、非接触式センサ10は、図2に示すように、車両1の室内に予め設定された検出領域Ad内にあるユーザUの手Hを検出する。したがって、検出領域Adと重なる空間がユーザUのジェスチャによる操作が可能な入力空間となる。つまり、非接触式センサ10の撮影範囲又は電磁波の照射範囲は、検出領域Adを含む。検出領域Adは、例えば、車両1の前席の中央部であって、センターコンソール2やダッシュボード3と重なる部分に設定されている。
The
プロジェクタ20は、制御装置40の制御の下、車両1の室内に予め設定された投影領域Apに存在する物体に画像を投影する。図2に示すように、投影領域Apは、検出領域Adを含み、且つ、検出領域Adよりも広い領域に設定されている。また、投影領域Apは、表示部30の一部と重畳して設定されている。プロジェクタ20としては、液晶デバイス、デジタルミラーデバイス等を利用した公知のプロジェクタを用いることができる。プロジェクタ20は、例えば車両1の天井に設置されている。
Under the control of the
表示部30は、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diodes)等から構成され、制御装置40の制御の下で画像を表示する。表示部30は、図2に示すように、車両1の室内において、ドライバU1及び同乗者U2の双方に視認可能な位置に設けられている。表示部30は、例えば、センターコンソール2の上方であってダッシュボード3に設けられている。
The
制御装置40は、操作装置100の全体動作を制御するマイクロコンピュータからなり、CPU(Central Processing Unit)等から構成される制御部41と、ROM(Read Only Memory)、RAM(Random Access Memory)等から構成される記憶部42と、を備える。記憶部42のROMには、後述する操作状況報知処理を実行するためのプログラムPG、第1操作パターンPA、第2操作パターンPBのデータが記憶されている。また、記憶部42のROMには、プロジェクタ20の投影画像や表示部30の表示画像を生成するための画像パーツデータが記憶されている。また、制御装置40は、図示しない構成として、プロジェクタ20や表示部30を駆動するための駆動回路、機器群200と通信を行うための入出力回路等を備える。なお、制御装置40は、後述の機能を充足する限りにおいては、その構成や配置は任意である。例えば、制御装置40は、互いに通信する複数のコンピュータによって実現されてもよい。
The
機器群200は、車両1の各部を制御するECU(Electronic Control Unit)、カーナビゲーション(カーナビ)装置、車内温度を調整するエア・コンディショナー(エアコン)装置、メディアプレイヤー等の周知の車載システムから構成されている。また、機器群200は、ユーザUによって持ち込まれ、無線又は有線により制御装置40と通信可能なスマートフォン、タブレット端末等の携帯端末も含む。例えば、制御部41は、機器群200を構成する各機器と通信を行い、各機器の状況を示す画像、各機器を操作するための画像等を表示部30に表示させる。また、制御部41は、ユーザUによってなされたジェスチャに応じて、表示部30の表示動作や、機器群200の動作を制御する。この実施形態では、機器群200を構成する各機器、及び、表示部30がユーザUのジェスチャにより操作可能な対象である操作対象となる。
The
制御部41は、図1に示すように、主な機能として、検出部41aと、ジェスチャ特定部41bと、操作制御部41cと、投影制御部41dと、表示制御部41eと、を備える。
As shown in FIG. 1, the control unit 41 includes a
検出部41aは、非接触式センサ10からの検出対象情報に基づいて、検出領域AdにおいてユーザUの手Hを検出する。例えば、検出部41aは、非接触式センサ10から所定の検出周期で送信される検出対象情報の周期毎の差分を演算し、手Hの領域を検出する。そして、検出部41aは、検出した手Hの領域を示す情報に基づいて手Hの指先、掌などの特徴点の座標情報を抽出する。なお、手Hの領域の検出手法や特徴点の抽出手法は任意であり、公知の手法を用いることができる。例えば、パターンマッチング法や、HOG(Histogram of Oriented Gradients)、SIFT(Scale-Invariant Feature Transform)、LBP(Local Binary Pattern)、Haar−Likeなどの特徴点算出手法を用いることができる。なお、検出部41aが検出領域AdにおいてユーザUの手Hを検出する際には、検出領域Ad内にユーザUの手Hの全体が含まれていなくともよく、物体が手Hであることを検出部41aが特定可能な程度に、手Hの一部分が検出領域Ad内に位置していればよい。
The
また、検出部41aは、検出領域Adで検出した手Hが、ドライバU1の手H1であるか同乗者U2の手H2であるかを特定することができる。ここで、検出領域Adは、図3に示すように、区分線Bにより区分される第1の領域A1及び第2の領域A2から構成されている。第1の領域A1は区分線Bの右側に位置し、第2の領域A2は区分線Bの左側に位置する。この実施形態では、車両1がRHDであるため、第1の領域A1は第2の領域A2よりもドライバU1に近く、第2の領域A2は第1の領域A1よりも同乗者U2に近い。したがって、第1の領域A1内に位置する手HをドライバU1の手H1と推定することができ、第2の領域A2内に位置する手Hを同乗者U2の手H2と推定することができる。これを考慮して、検出部41aは、第1の領域A1内で検出した手HをドライバU1の手H1と特定し、第2の領域A2内で検出した手Hを同乗者U2の手H2と特定する。なお、検出領域Ad、第1の領域A1、第2の領域A2の各々を規定する座標情報は、予め記憶部42のROMに記憶されている。
Further, the
なお、第1の領域A1は、ドライバU1の手H1が届き易く、且つ、同乗者U2の手H2が届きにくい領域として設定されていればよい。反対に、第2の領域A2は、同乗者U2の手H2が届き易く、且つ、ドライバU1の手H1が届きにくい領域として設定されていればよい。つまり、第1の領域A1と第2の領域A2の境界線である区分線Bの位置や形状は任意である。例えば、区分線Bは直線状でなくともよい。また、第1の領域A1及び第2の領域A2は、検出領域Adに含まれていればよく、例えば、双方の領域が間隔を空けて配置された構成を採用してもよい。当該構成を採用した場合、検出部41aが検出領域Ad内であって、第1の領域A1及び第2の領域A2以外の領域で手Hを検出した際は、検出した手Hによるジェスチャを無効としてもよい。また、車両1がLHD(Left Hand Drive)である場合は、第1の領域A1及び第2の領域A2の関係を上記と左右反対に設定すればよい。また、第1の領域A1と第2の領域A2のいずれかの領域(以下、一の領域と言う。)において、同時に複数の手Hが検出される状況も想定される。この状況では、例えば、検出部41aは、一の領域に含まれる手Hが一つになるまでユーザUの特定を待機したり、先に検出された手Hに基づいてユーザUを特定したりすればよい。
The first area A1 may be set as an area where the hand H1 of the driver U1 is easily reachable and the hand H2 of the passenger U2 is hard to reach. On the contrary, the second region A2 may be set as an region where the hand H2 of the passenger U2 is easily reachable and the hand H1 of the driver U1 is hard to reach. That is, the position and shape of the dividing line B, which is the boundary line between the first region A1 and the second region A2, is arbitrary. For example, the dividing line B does not have to be linear. Further, the first region A1 and the second region A2 may be included in the detection region Ad, and for example, a configuration in which both regions are arranged at intervals may be adopted. When this configuration is adopted, when the
ジェスチャ特定部41bは、検出部41aが検出した手Hによるジェスチャを特定する。例えば、ジェスチャ特定部41bは、検出部41aが抽出した手Hの座標情報に基づいてユーザUの手Hの動作軌跡を作成する。そして、ジェスチャ特定部41bは、作成した手Hの動作軌跡と記憶部42のROMに記憶されたジェスチャパターンとを比較し、手Hによるジェスチャを特定する。ジェスチャパターンは、予め定められた複数種別のジェスチャの軌跡を示すデータとして、予めROMに記憶されている。なお、ジェスチャ特定部41bによるジェスチャの特定手法は任意であり、例えば、NN法(Nearest Neighbor algorithm)、k-NN法(k-Nearest Neighbor algorithm)、パターンマッチング法などの公知の手法を用いることができる。また、入力を可能とするジェスチャの態様は任意であるが、例えば、検出領域Adにおいてなされるスワイプ、スクロール、ピンチイン、ピンチアウト等の種々の動作や、サムズアップ、ピースサイン等のポーズであればよい。
The
操作制御部41cは、ジェスチャ特定部41bが特定したジェスチャに対応する操作を特定し、特定した操作の内容を示す情報を操作対象へ出力する。具体的に、操作制御部41cは、記憶部42のROMに記憶された操作パターンのデータを参照し、特定したジェスチャに対応する操作を特定する。操作パターンとしては、図4に構成を例示する第1操作パターンPA及び第2操作パターンPBが設けられている。
The operation control unit 41c identifies the operation corresponding to the gesture specified by the
第1操作パターンPAは、ドライバU1に許可された複数種別の操作を規定したものである。第1操作パターンPAに規定された操作は、ドライバU1にのみ許可された操作(以下、ドライバ許可操作と言う。)と、ドライバU1及び同乗者U2の両者に許可された操作(以下、両者許可操作と言う。)を含む。ドライバ許可操作は、車両1の操縦に関する操作であり、例えば、走行モード、ADAS(Advanced Driver-Assistance Systems)、ワイパー、ヘッドライト等の設定操作である。両者許可操作は、ドライバU1及び同乗者U2が操作しても走行の安全上、支障がない操作であり、例えば、エアコン、ミュージック(楽曲再生)、ラジオ等の設定操作である。操作制御部41cは、特定されたジェスチャがドライバU1の手H1によるものである場合は、第1操作パターンPAを参照し、特定されたジェスチャに対応する操作を特定し、特定した操作の内容を示す信号を操作対象へ出力する。例えば、操作制御部41cは、走行モードの設定操作を特定した場合には、車両1の走行モードを制御するECUに当該操作内容に示す信号を出力し、これに応じてECUは走行モードを制御する。なお、当該ECUは、走行モードの設定操作の内容に応じた、車両1の走行モードの制御が完了すると、その旨を示すアンサーバック信号を操作制御部41cに供給する。 The first operation pattern PA defines a plurality of types of operations permitted to the driver U1. The operations specified in the first operation pattern PA are an operation permitted only to the driver U1 (hereinafter referred to as a driver permission operation) and an operation permitted to both the driver U1 and the passenger U2 (hereinafter, both permission). It is called operation.) Includes. The driver permission operation is an operation related to the operation of the vehicle 1, and is, for example, a setting operation of a traveling mode, ADAS (Advanced Driver-Assistance Systems), wiper, headlight, and the like. The both permission operations are operations that do not hinder driving safety even when operated by the driver U1 and the passenger U2, and are, for example, setting operations of an air conditioner, music (music reproduction), radio, and the like. When the specified gesture is due to the hand H1 of the driver U1, the operation control unit 41c refers to the first operation pattern PA, identifies the operation corresponding to the specified gesture, and determines the content of the specified operation. The indicated signal is output to the operation target. For example, when the operation control unit 41c specifies a driving mode setting operation, the operation control unit 41c outputs a signal indicating the operation content to the ECU that controls the driving mode of the vehicle 1, and the ECU controls the driving mode accordingly. do. When the control of the travel mode of the vehicle 1 is completed according to the content of the travel mode setting operation, the ECU supplies an answerback signal to that effect to the operation control unit 41c.
第2操作パターンPBは、同乗者U2に許可された複数種別の操作を規定したものである。第2操作パターンPBに規定された操作は、同乗者U2にのみ許可された操作(以下、同乗者許可操作と言う。)と、前述の両者許可操作を含む。同乗者許可操作は、車両1の走行中の安全を担保する上でドライバU1には許容されない操作であり、例えば、カーナビ、動画再生、メール、SNS等を利用するための操作である。操作制御部41cは、特定されたジェスチャが同乗者U2の手H2によるものである場合は、第2操作パターンPBを参照し、特定されたジェスチャに対応する操作を特定し、特定した操作の内容を示す信号を操作対象へ出力する。例えば、操作制御部41cは、カーナビの設定操作を特定した場合には、カーナビ装置に当該操作内容に示す信号を出力し、これに応じてカーナビ装置は設定を反映する。なお、当該カーナビ装置は、カーナビの設定操作の内容に応じた制御が完了すると、その旨を示すアンサーバック信号を操作制御部41cに供給する。 The second operation pattern PB defines a plurality of types of operations permitted to the passenger U2. The operation defined in the second operation pattern PB includes an operation permitted only to the passenger U2 (hereinafter referred to as a passenger permission operation) and the above-mentioned both permission operation. The passenger permission operation is an operation that is not allowed by the driver U1 in order to ensure the safety of the vehicle 1 while traveling, and is an operation for using, for example, a car navigation system, video playback, e-mail, SNS, or the like. When the specified gesture is due to the hand H2 of the passenger U2, the operation control unit 41c refers to the second operation pattern PB, identifies the operation corresponding to the specified gesture, and the content of the specified operation. Is output to the operation target. For example, when the operation control unit 41c specifies a car navigation setting operation, the operation control unit 41c outputs a signal indicating the operation content to the car navigation device, and the car navigation device reflects the setting accordingly. When the control according to the content of the car navigation setting operation is completed, the car navigation device supplies an answerback signal to that effect to the operation control unit 41c.
投影制御部41dは、プロジェクタ20の動作を制御し、投影領域Apに存在する物体に画像を投影する。
The projection control unit 41d controls the operation of the
具体的に、投影制御部41dは、検出部41aが手Hを検出した場合に、図5、図6(a)に示すように、その旨をユーザUに報知するための第1画像Caを手Hの任意の位置に投影する。例えば、投影制御部41dは、第1画像Caを手Hの手首に投影される帯状の画像として投影する。ここで、投影制御部41dは、検出部41aがドライバU1の手H1を検出した場合には、検出された手H1に、第1の色を有する第1色画像Ca1を第1画像Caとして投影する。また、検出部41aが同乗者U2の手H2を検出した場合には、検出された手H2に、第1の色とは異なる第2の色を有する第2色画像Ca2を第1画像Caとして投影する。第1の色と第2の色は、異なる色であれば任意であり、例えば一方が赤色、他方が青色などであればよい。
Specifically, when the
また、投影制御部41dは、ジェスチャ特定部41bがジェスチャを特定した場合に、図5、図6(b)に示すように、その旨をユーザUに報知するための第2画像Cbを手Hの任意の位置に投影する。例えば、投影制御部41dは、第2画像Cbを手Hの指先に投影される円状の画像として投影する。この実施形態で、第2画像Cbは、例えば、前述の第1の色及び第2の色とは異なる色の画像であり、ユーザUがドライバU1である場合も同乗者U2である場合も同じ態様で投影表示される。第2画像Cbの色は、前述の第1の色及び第2の色とは異なる色であれば任意であり、例えば白色や黄色であればよい。
Further, when the
また、投影制御部41dは、操作制御部41cがジェスチャに対応する操作を特定した場合、図6(c)に示すように、第2画像Cbを変化させた操作有効画像Ccを手Hに投影する。操作有効画像Ccは、例えば、第2画像Cbを延伸、拡大した態様の画像である。一方、投影制御部41dは、操作制御部41cがジェスチャに対応する操作を特定できなかった場合、図6(d)に示すように、第2画像Cbを変化させた画像であって、操作有効画像Ccとは異なる表示態様の操作無効画像Cdを手Hに投影する。操作無効画像Cdは、例えば、第2画像Cbと同じ形状の画像を点滅表示したものである。なお、操作有効画像Cc及び操作無効画像Cdの表示態様は設計に応じて任意である。例えば、操作有効画像Cc及び操作無効画像Cdは、互いに表示態様が異なるとともに、サイズ、表示位置、色及び点灯パターンの少なくともいずれかが第2画像Cbとは異なっていればよい。 Further, when the operation control unit 41c specifies the operation corresponding to the gesture, the projection control unit 41d projects the operation effective image Cc obtained by changing the second image Cb onto the hand H as shown in FIG. 6 (c). do. The operation effective image Cc is, for example, an image in which the second image Cb is stretched and enlarged. On the other hand, when the operation control unit 41c cannot specify the operation corresponding to the gesture, the projection control unit 41d is an image obtained by changing the second image Cb as shown in FIG. 6D, and the operation is effective. An operation-invalid image Cd having a display mode different from that of the image Cc is projected onto the hand H. The operation invalid image Cd is, for example, a blinking display of an image having the same shape as the second image Cb. The display mode of the operation valid image Cc and the operation invalid image Cd is arbitrary depending on the design. For example, the operation valid image Cc and the operation invalid image Cd may be displayed differently from each other, and at least one of the size, the display position, the color, and the lighting pattern may be different from the second image Cb.
また、投影制御部41dは、操作制御部41cが特定した操作が、予め定めた種別の特別操作である場合、図7(a)、(b)に示すように、軌跡画像Ceを投影表示することによって、特別操作の対象をユーザUに報知することができる。特別操作は、例えば、その操作対象をユーザUに報知する重要度が高い種別の操作として1又は複数定められ、記憶部42のROM内に記憶されていればよい。例えば、ドライバU1によるワイパー駆動操作やヘッドライト点灯操作については、ドライバU1の目視により容易に操作がなされたことを認識できるので、このような操作を特別操作から排除することが可能である。
Further, when the operation specified by the operation control unit 41c is a special operation of a predetermined type, the projection control unit 41d projects and displays the locus image Ce as shown in FIGS. 7A and 7B. Thereby, the target of the special operation can be notified to the user U. The special operation may be defined as, for example, one or a plurality of operations of a high importance of notifying the user U of the operation target, and may be stored in the ROM of the
軌跡画像Ceは、ユーザUの手Hから表示部30に表示されている後述の対象画像Dへ向かう第1軌跡画像Ce1と、対象画像Dから手Hへ向かう第2軌跡画像Ce2と、を含む。第1軌跡画像Ce1は、例えば、手Hの指先から対象画像Dへ向かって動く軌跡状の画像である。第1軌跡画像Ce1は、ユーザUが行ったジェスチャに対応した操作が特定された場合に、プロジェクタ20により投影される画像である。第2軌跡画像Ce2は、例えば、対象画像Dから手Hの指先に向かって動く軌跡状の画像である。第2軌跡画像Ce2は、特定された操作がその操作対象に反映された場合にプロジェクタ20により投影される画像である。なお、第1軌跡画像Ce1及び第2軌跡画像Ce2の表示条件については後述の操作状況報知処理と併せて説明する。
The locus image Ce includes a first locus image Ce1 from the user U's hand H toward the target image D, which will be described later, and a second locus image Ce2 from the target image D toward the hand H. .. The first locus image Ce1 is, for example, a locus-shaped image that moves from the fingertip of the hand H toward the target image D. The first locus image Ce1 is an image projected by the
軌跡画像Ceは、車両1内の物体、つまり、検出された手H、センターコンソール2及び表示部30に投影されることで、手Hと対象画像Dとを結ぶように表示される。例えば、投影制御部41dは、予め記憶部42のROMに記憶された、車両1の室内における投影領域Apを規定する投影位置情報に基づいて軌跡画像Ceを所望の位置に投影する。投影制御部41dは、検出部41aから手H1の位置を示す座標情報を取得するとともに、表示制御部41eから表示部30における対象画像Dの表示位置を示す位置情報を取得する。そして、投影制御部41dは、座標情報及び位置情報の各々に対応する投影位置を算出し、算出した投影位置に基づき軌跡画像Ceを投影する。なお、図7(a)、(b)では、軌跡画像Ceが表す直線状の軌跡を表す例を示したが、軌跡画像Ceの表示態様は任意である。例えば、軌跡画像Ceは、検出した手Hと対象画像Dとの一方から他方へと向かうものであれば、曲線状の軌跡やランダムな軌跡を表していてもよい。また、軌跡画像Ceは、線状に限られず、帯状、放射状などの形状であってもよい。また、軌跡画像Ceは、検出した手Hと対象画像Dとの一方から他方へと向かうものであれば、手Hと対象画像Dとの双方に重畳して表示されなくともよく、手Hと対象画像Dの間に表示されてもよい。
The locus image Ce is projected onto an object in the vehicle 1, that is, the detected hand H, the
表示制御部41eは、図5に示すように、ユーザUのジェスチャにより操作可能な対象に関する情報を示す対象画像Dを表示部30に表示させる。なお、当該対象に関する情報とは、対象機器そのものを示す情報だけでなく、対象機器の操作項目、対象機器の一部機能を示す情報なども含む。対象画像Dは、当該対象に関する情報を、文字、図形、アイコン等で表す構成であればよい。
As shown in FIG. 5, the
対象画像Dは、第1操作パターンPAに規定された操作の対象に関する情報を示す第1対象画像D1と、第2操作パターンPBに規定された操作の対象に関する情報を示す第2対象画像D2と、を含む。図5は、ドライバU1に走行モードの操作が可能であることを示す第1対象画像D1と、同乗者U2に制御装置40と接続された携帯端末の操作が可能であることを示す第2対象画像D2が表示部30に表示されている例である。
The target image D includes a first target image D1 showing information about the operation target specified in the first operation pattern PA, and a second target image D2 showing information about the operation target specified in the second operation pattern PB. ,including. FIG. 5 shows a first target image D1 showing that the driver U1 can operate the driving mode, and a second target showing that the passenger U2 can operate the mobile terminal connected to the
表示制御部41eは、図5に示すように、第1対象画像D1を第1色画像Ca1の色(前述の第1の色)と同色又は関連する色を含む態様で表示部30に表示させ、第2対象画像D2を第2色画像Ca2の色(前述の第2の色)と同色又は関連する色を含む態様で表示部30に表示させる。これにより、ドライバU1は、第1色画像Ca1が自身の手H1に投影されることで、第1対象画像D1が示す対象の操作が可能な状態であることを直感的に認識することができる。また、同乗者U2は、第2色画像Ca2が自身の手H2に投影されることで、第2対象画像D2が示す対象の操作が可能な状態であることを直感的に認識することができる。第1の色と関連する色とは、第1の色の同系色又は類似色であればよい。例えば、第1の色の同系色は、第1の色と色相は同じで、明度と彩度の違う色であればよい。また、第1の色の類似色は、第1の色と類似した色相を組み合わせた色であればよい。この関係は、第2の色と関連する色についても同様である。
As shown in FIG. 5, the
なお、第1対象画像D1が第1の色と同色又は関連する色(以下、対応色とも言う。)を含む態様は任意であり、第1対象画像D1を構成する枠、文字等のパーツが対応色を有していてもよいし、第1対象画像D1全体が対応色で表示されていてもよい。表示制御部41eは、第1対象画像D1を、表示部30に常時表示してもよいし、所定の操作を受け付けたことを契機に表示部30に表示してもよい。また、表示制御部41eは、第1色画像Ca1がドライバU1に投影されたことを条件に、第1対象画像D1を、第1色画像Ca1の対応色を含んだ態様の表示に切り替えてもよい。第2対象画像D2についても同様である。
It should be noted that the mode in which the first target image D1 includes the same color as or related to the first color (hereinafter, also referred to as a corresponding color) is arbitrary, and parts such as frames and characters constituting the first target image D1 are included. It may have a corresponding color, or the entire first target image D1 may be displayed in the corresponding color. The
続いて、制御部41が実行する操作状況報知処理について図8〜図10を参照して説明する。制御部41は、図8に示す操作状況報知処理を開始すると、まず、ユーザUを特定済みであるか否かを判別する(ステップS101)。ユーザUが未だ特定されていない場合(ステップS101;No)、制御部41は、ユーザ特定処理(ステップS200)として図9に示す処理を実行し、検出領域Adで手Hが検出されているかを判別する(ステップS201)。手Hが検出された場合(ステップS201;Yes)、制御部41は、前述のように、検出領域Adに設定された第1の領域A1及び第2の領域A2に基づき、ユーザUを特定する(ステップS202)。ステップS202の処理後、又は、手Hが検出されていない場合(ステップS201;No)、制御部41は、ユーザ特定処理を終了する。 Subsequently, the operation status notification process executed by the control unit 41 will be described with reference to FIGS. 8 to 10. When the operation status notification process shown in FIG. 8 is started, the control unit 41 first determines whether or not the user U has been specified (step S101). When the user U has not been specified yet (step S101; No), the control unit 41 executes the process shown in FIG. 9 as the user identification process (step S200), and determines whether or not the hand H is detected in the detection area Ad. Determine (step S201). When the hand H is detected (step S201; Yes), the control unit 41 identifies the user U based on the first region A1 and the second region A2 set in the detection region Ad as described above. (Step S202). After the process of step S202, or when the hand H is not detected (step S201; No), the control unit 41 ends the user identification process.
図8に戻って、ユーザUが特定された場合(ステップS101;Yes)、制御部41は、ユーザ特定処理で特定されたユーザUの手Hが検出されている状態か否かを判別する(ステップS102)。ここで、特定されたユーザUは、ドライバU1と同乗者U2の少なくともいずれかであればよい。ドライバU1の手H1と同乗者U2の手H2とが同時に検出されている場合、制御部41は、ステップS102以降の処理を特定されたユーザU毎に並列して実行する。 Returning to FIG. 8, when the user U is specified (step S101; Yes), the control unit 41 determines whether or not the hand H of the user U specified in the user identification process is detected (step S101; Yes). Step S102). Here, the specified user U may be at least one of the driver U1 and the passenger U2. When the hand H1 of the driver U1 and the hand H2 of the passenger U2 are detected at the same time, the control unit 41 executes the processes after step S102 in parallel for each specified user U.
特定されたユーザUの手Hを検出した場合(ステップS102;Yes)、制御部41は、図6(a)に示すように、手Hの手首に第1画像Caを投影し(ステップS103)、ユーザUに手Hが検出領域Ad内にあることを報知する。特定されたユーザUがドライバU1である場合は、ドライバU1の手H1に第1色画像Ca1が第1画像Caとして投影される。特定されたユーザUが同乗者U2である場合は、同乗者U2の手H2に第2色画像Ca2が第1画像Caとして投影される。特定されたユーザUの手Hが検出されない場合(ステップS102;No)、制御部41は、第1画像Caを非表示とし(ステップS104)、ステップS101に戻って処理を実行する。 When the specified user U's hand H is detected (step S102; Yes), the control unit 41 projects the first image Ca on the wrist of the hand H as shown in FIG. 6 (a) (step S103). , Notifies the user U that the hand H is in the detection area Ad. When the identified user U is the driver U1, the first color image Ca1 is projected as the first image Ca on the hand H1 of the driver U1. When the identified user U is the passenger U2, the second color image Ca2 is projected as the first image Ca on the hand H2 of the passenger U2. When the specified user U's hand H is not detected (step S102; No), the control unit 41 hides the first image Ca (step S104) and returns to step S101 to execute the process.
ステップS103に続いて、制御部41は、ステップS102で検出した手Hによるジェスチャを特定する(ステップS105)。ジェスチャが特定された場合(ステップS105;Yes)、制御部41は、図6(b)に示すように、手Hの指先に第2画像Cbを投影し(ステップS106)、ユーザUにジェスチャが受け付けられていることを報知する。ジェスチャを特定することができなかった場合(ステップS105;No)、制御部41は、第2画像Cbを非表示とし(ステップS107)、ステップS101に戻って処理を実行する。 Following step S103, the control unit 41 identifies the gesture by the hand H detected in step S102 (step S105). When the gesture is specified (step S105; Yes), the control unit 41 projects the second image Cb on the fingertip of the hand H (step S106) as shown in FIG. 6 (b), and the gesture is given to the user U. Notify that it is being accepted. When the gesture cannot be specified (step S105; No), the control unit 41 hides the second image Cb (step S107), returns to step S101, and executes the process.
ステップS106に続いて、制御部41は、ユーザUに応じた操作パターンを参照する(ステップS108)。具体的に、制御部41は、ユーザUがドライバU1である場合は第1操作パターンPAを参照し、ユーザが同乗者U2である場合は第2操作パターンPBを参照する。 Following step S106, the control unit 41 refers to the operation pattern according to the user U (step S108). Specifically, the control unit 41 refers to the first operation pattern PA when the user U is the driver U1, and refers to the second operation pattern PB when the user is the passenger U2.
続いて、制御部41は、ステップS105で特定したジェスチャに対応する操作が操作パターン内にあるか否かを判別する(ステップS109)。制御部41は、操作パターンを参照して、ジェスチャに対応する操作を特定した場合(ステップS109;Yes)、特定した操作の内容を示す信号を操作対象へ出力し、ステップS110の処理を実行する。制御部41は、特定されたジェスチャがドライバU1の手H1によるものである場合は、第1操作パターンPAを参照し、特定されたジェスチャに対応する操作を特定し、特定した操作の内容を示す信号を操作対象へ出力する。これによりドライバU1に許可された操作が実行可能となる。制御部41は、特定されたジェスチャが同乗者U2の手H2によるものである場合は、第2操作パターンPBを参照し、特定されたジェスチャに対応する操作を特定し、特定した操作の内容を示す信号を操作対象へ出力する。これにより同乗者U2に許可された操作が実行可能となる。 Subsequently, the control unit 41 determines whether or not the operation corresponding to the gesture specified in step S105 is within the operation pattern (step S109). When the operation corresponding to the gesture is specified by referring to the operation pattern (step S109; Yes), the control unit 41 outputs a signal indicating the content of the specified operation to the operation target, and executes the process of step S110. .. When the specified gesture is due to the hand H1 of the driver U1, the control unit 41 refers to the first operation pattern PA, identifies the operation corresponding to the specified gesture, and indicates the content of the specified operation. Output the signal to the operation target. As a result, the operation permitted by the driver U1 can be executed. When the specified gesture is due to the hand H2 of the passenger U2, the control unit 41 refers to the second operation pattern PB, identifies the operation corresponding to the specified gesture, and determines the content of the specified operation. The indicated signal is output to the operation target. As a result, the operation permitted to the passenger U2 can be executed.
ステップS110で制御部41は、特定した操作の種別が予め定められた特別操作であるか否か判別し、特別操作でない場合(ステップS110;No)、図6(b)に示す第2画像Cbを変化させた態様の操作有効画像Ccを、図6(c)に示すように、ユーザUの手Hに投影する(ステップS111)。一方、ステップS109で、ジェスチャに対応する操作が特定されなかった場合(ステップS109;No)、制御部41は、図6(b)に示す第2画像Cbを変化させた態様の操作無効画像Cdを、図6(d)に示すように、ユーザUの手Hに投影する(ステップS112)。 In step S110, the control unit 41 determines whether or not the specified operation type is a predetermined special operation, and if it is not a special operation (step S110; No), the second image Cb shown in FIG. 6 (b). As shown in FIG. 6 (c), the operation effective image Cc of the modified mode is projected onto the hand H of the user U (step S111). On the other hand, when the operation corresponding to the gesture is not specified in step S109 (step S109; No), the control unit 41 changes the second image Cb shown in FIG. Is projected onto the hand H of the user U as shown in FIG. 6 (d) (step S112).
ステップS110で、特定した操作の種別が特別操作である場合(ステップS110;Yes)、制御部41は、操作対象報知処理(ステップS300)として図10に示す処理を実行すし、図7(a)に示すように、第1軌跡画像Ce1を一定期間だけ投影表示する(ステップS301)。続いて、制御部41は、操作の内容を示す信号を出力した操作対象から、当該操作の内容に応じた制御が完了した旨を示すアンサーバック信号を受信したか否かを判別する(ステップS302)。アンサーバック信号を受信した場合(ステップS302;Yes)、制御部41は、図7(b)に示すように、第2軌跡画像Ce2を一定期間だけ投影表示する(ステップS303)。なお、第1軌跡画像Ce1、第2軌跡画像Ce2を投影する期間は、例えば数秒といった期間であればよい。ステップS303の実行後、又は、アンサーバック信号を受信しなかった場合(ステップS302;No)、制御部41は、操作対象報知処理を終了する。 When the type of the specified operation is a special operation in step S110 (step S110; Yes), the control unit 41 executes the process shown in FIG. 10 as the operation target notification process (step S300), and FIG. 7 (a) shows. As shown in the above, the first locus image Ce1 is projected and displayed for a certain period of time (step S301). Subsequently, the control unit 41 determines whether or not a answerback signal indicating that the control according to the content of the operation has been completed has been received from the operation target that has output the signal indicating the content of the operation (step S302). ). When the answerback signal is received (step S302; Yes), the control unit 41 projects and displays the second locus image Ce2 for a certain period of time as shown in FIG. 7B (step S303). The period for projecting the first locus image Ce1 and the second locus image Ce2 may be, for example, a period of several seconds. After the execution of step S303 or when the answerback signal is not received (step S302; No), the control unit 41 ends the operation target notification process.
図8に戻って、ステップS111、S112、S300の処理後、制御部41は、ステップS101に戻って処理を実行する。以上の操作状況報知処理は、例えば操作装置100の起動中において継続して実行される。
Returning to FIG. 8, after the processing of steps S111, S112, and S300, the control unit 41 returns to step S101 to execute the processing. The above operation status notification process is continuously executed, for example, while the
なお、操作状況報知処理は、車両1の走行時など一定の条件下で実行されてもよい。例えば、制御部41は、車両1のエンジン又はモータである原動機の起動中、且つ、車両1のパーキングブレーキ解除時に操作状況報知処理を実行してもよい。また、操作状況報知処理において、制御部41は、ステップS101、S102、及びステップS200を構成する各処理を検出部41aの機能で実行する。また、制御部41は、ステップS105をジェスチャ特定部41bの機能で実行する。また、制御部41は、ステップS108〜S110、S302を操作制御部41cの機能で実行する。また、制御部41は、ステップS103、S104、S106、S107、S111、S112、S301、S303を投影制御部41dの機能で実行する。
The operation status notification process may be executed under certain conditions such as when the vehicle 1 is traveling. For example, the control unit 41 may execute the operation status notification process while the prime mover, which is the engine or motor of the vehicle 1, is being activated and when the parking brake of the vehicle 1 is released. Further, in the operation status notification process, the control unit 41 executes each process constituting steps S101, S102, and step S200 by the function of the
なお、本発明は以上の実施形態及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。 The present invention is not limited to the above embodiments and drawings. Changes (including deletion of components) can be made as appropriate without changing the gist of the present invention.
以上の実施形態では、操作装置100が、その機能として表示部30を含む例を示したが、表示部30を含むことは任意である。表示部30を備えず、あるいは、表示部30に加えて、車両1の室内に設置され、操作装置100と通信可能な表示装置に各機器の状態や操作のための各画像を表示してもよく、ユーザUによって車両1の室内に持ち込まれる表示装置に各画像を表示してもよい。また、音声出力部を備え、各機器の状態や操作のための音声を出力してもよい。
In the above embodiment, the
以上の実施形態では、第2画像Cbが手Hの指先に投影される例を示したが、手Hにおける第2画像Cbの投影位置は任意である。例えば、図11(a)に示すように、第2画像Cbは、手Hの甲に投影されてもよい。また、操作有効画像Ccは、図11(b)に示すように、第2画像Cbに枠などの画像パーツを付加した態様であってもよい。 In the above embodiment, the example in which the second image Cb is projected on the fingertip of the hand H is shown, but the projection position of the second image Cb on the hand H is arbitrary. For example, as shown in FIG. 11A, the second image Cb may be projected onto the back of the hand H. Further, as shown in FIG. 11B, the operation effective image Cc may have an aspect in which an image part such as a frame is added to the second image Cb.
第1画像Ca、第2画像Cb、操作有効画像Cc及び操作無効画像Cdの形状、投影位置は以上の例に限られず任意である。例えば、第2画像Cbも第1画像Caと同様に、ユーザU毎に色を異ならせてもよい。また、第1画像Ca及び第2画像Cbは、手Hの互いに異なる位置に投影されなくともよく、例えば、第2画像Cbは、第1画像Caを変形させた態様であってもよい。 The shapes and projection positions of the first image Ca, the second image Cb, the operation valid image Cc, and the operation invalid image Cd are not limited to the above examples and are arbitrary. For example, the color of the second image Cb may be different for each user U as in the case of the first image Ca. Further, the first image Ca and the second image Cb do not have to be projected at different positions of the hand H. For example, the second image Cb may be a modified form of the first image Ca.
以上では、検出領域Adに設けた第1の領域A1及び第2の領域A2に基づいて、ユーザUの特定を行う例を示したが、ユーザUの特定手法は任意である。例えば、車両1を使用する者の手Hに関する情報を予め操作装置100に登録しておき、登録情報に基づいてユーザUを特定する構成を採用することもできる。また、車両1がRHDの場合、検出した手Hが左手である場合にドライバU1の手H1と特定し、検出した手Hが右手である場合に同乗者U2の手H2と特定してもよい。検出領域Adが車両1の中央部に位置する場合、ドライバU1は左手でジェスチャを行い、同乗者U2は右手でジェスチャを行う可能性が高いためである。車両1がLHDの場合は、これと逆の関係を考えればよい。手Hが左手であるか右手であるかの判別は、例えば、パターンマッチング法などの公知の手法を用いることができる。
In the above, an example of identifying the user U based on the first region A1 and the second region A2 provided in the detection region Ad has been shown, but the method for identifying the user U is arbitrary. For example, it is possible to adopt a configuration in which information about the hand H of the person who uses the vehicle 1 is registered in the
以上では、軌跡画像Ceとして、手H及び対象画像Dの一方から他方へと向かう軌跡状の画像を投影した例を示したが、軌跡画像Ceは、手H及び次に述べる対象部の一方から他方へと向かう軌跡状の画像であってもよい。対象部は、操作対象(つまり、機器群200を構成する各機器や表示部30)、又は、当該操作対象と関連する関連部であればよい。関連部は、前記の対象画像Dを含む。また、関連部は、例えば、エアコン装置が操作対象である場合の送風口、走行モードを制御するECUが操作対象である場合の走行モードを報知するためのインジケータ等であってもよい。
In the above, an example in which a locus-shaped image directed from one of the hand H and the target image D to the other is projected as the locus image Ce has been shown, but the locus image Ce is from one of the hand H and the target portion described below. It may be a locus-shaped image toward the other side. The target unit may be an operation target (that is, each device or
非接触式センサ10、プロジェクタ20及び表示部30の車両1内における配置は任意であり、適宜変更することができる。また、操作装置100が搭載される乗り物は、車両1に限られず任意であり、船舶、航空機などの車両1以外の乗り物であってもよい。
The arrangement of the
以上に説明した操作状況報知処理を実行するプログラムPGは、記憶部42に予め記憶されているものとしたが、着脱自在の記録媒体により配布・提供されてもよい。また、プログラムPGは、操作装置100と接続された他の機器からダウンロードされるものであってもよい。また、操作装置100は、他の機器と電気通信ネットワークなどを介して各種データの交換を行うことによりプログラムPGに従う各処理を実行してもよい。
The program PG that executes the operation status notification process described above is assumed to be stored in the
以上では、検出部41aが検出する人体の部位が、ユーザUの手Hである例を説明したが、これに限られない。乗り物内において安全にジェスチャが可能である部位であれば、足などであってもよい。なお、本明細書における「手」とは、人体の肩から先にある部分を言い、指や掌はもちろん、肘なども含む。
In the above, the example in which the part of the human body detected by the
以上では、制御部41がユーザUを特定する例を示したが、ユーザUを特定せずに操作状況報知処理を実行してもよい。例えば、操作状況報知処理のステップS101及びステップS200の処理を省略することもできる。また、以上では、所定の場合に軌跡画像Ceを投影する例を示したが、軌跡画像Ceを投影する処理を省いてもよい。例えば、操作状況報知処理のステップS300の処理を省略することもできる。 In the above, the control unit 41 has shown an example of specifying the user U, but the operation status notification process may be executed without specifying the user U. For example, the processing of step S101 and step S200 of the operation status notification processing can be omitted. Further, although the example of projecting the locus image Ce in a predetermined case is shown above, the process of projecting the locus image Ce may be omitted. For example, the process of step S300 of the operation status notification process can be omitted.
以上に説明した操作装置100は、非接触式センサ10からの情報に基づいて、車両1(乗り物の一例)内に予め設定された検出領域AdにおいてユーザUの手H(部位の一例)を検出する検出部41aと、検出部41aが検出した手Hによるジェスチャを特定するジェスチャ特定部41bと、ジェスチャ特定部41bが特定したジェスチャに対応する操作を特定し、特定した操作の内容を示す情報を操作対象へ出力する操作制御部41cと、車両1内に存在する物体に画像を投影可能な投影部(例えば、投影制御部41dの制御により動作するプロジェクタ20)と、を備える。
The operating
(1−1)操作装置100において、投影部は、検出部41aが手Hを検出した場合に、第1画像Caを手Hに投影し、ジェスチャ特定部41bがジェスチャを特定した場合に、第1画像Caとは異なる第2画像Cbを手Hに投影する。この構成によれば、ユーザUは、手Hが検出されていること、及び、ジェスチャが受け付けられていることを投影画像によって把握することができる。したがって、ユーザUが無意味なジェスチャを繰り返してしまうことを抑制することができる。
(1-1) In the
(1−2)また、投影部は、操作制御部41cがジェスチャに対応する操作を特定した場合、第2画像Cbを変化させた操作有効画像Ccを手Hに投影する。この構成によれば、ユーザUに操作が受け付けられていることを報知することができる。 (1-2) Further, when the operation control unit 41c specifies the operation corresponding to the gesture, the projection unit projects the operation effective image Cc obtained by changing the second image Cb onto the hand H. According to this configuration, it is possible to notify the user U that the operation is being accepted.
(1−3)また、投影部は、操作制御部41cがジェスチャに対応する操作を特定できなかった場合、第2画像Cbを変化させた画像であって、操作有効画像Ccとは異なる表示態様の操作無効画像Cdを手Hに投影する。この構成によれば、ユーザUに操作が受け付けられていないことを報知することができる。 (1-3) Further, the projection unit is an image obtained by changing the second image Cb when the operation control unit 41c cannot specify the operation corresponding to the gesture, and is a display mode different from the operation effective image Cc. The operation invalid image Cd of is projected on the hand H. According to this configuration, it is possible to notify the user U that the operation is not accepted.
(1−4)具体的に、操作有効画像Cc及び操作無効画像Cdは、互いに表示態様が異なるとともに、サイズ、表示位置、色及び点灯パターンの少なくともいずれかが第2画像Cbとは異なる。 (1-4) Specifically, the operation valid image Cc and the operation invalid image Cd are different from each other in the display mode, and at least one of the size, the display position, the color, and the lighting pattern is different from the second image Cb.
(1−5)また、第1画像Caと第2画像Cbとは、手Hの互いに異なる位置に投影されてもよい。 (1-5) Further, the first image Ca and the second image Cb may be projected at different positions of the hand H.
(2−1)操作装置100において、検出部41aは、手HがドライバU1(第1のユーザの一例)の手H1であるか同乗者U2(第2のユーザの一例)の手H2であるかを特定可能である。また、操作制御部41cは、ドライバU1の手H1によるジェスチャを特定した場合は、ドライバU1に許可される複数種別の操作を規定した第1操作パターンPAに基づいて当該ジェスチャに対応する操作を特定し、同乗者U2の手H2によるジェスチャを特定した場合は、同乗者U2に許可される複数種別の操作を規定した第2操作パターンPBに基づいて当該ジェスチャに対応する操作を特定する。また、第1操作パターンPAと第2操作パターンPBとは、少なくとも一部が異なる。この構成によれば、ユーザの種別に応じて設定された操作を適切に特定することができる。
(2-1) In the
(2−2)また、投影部は、ドライバU1の手H1に第1の色を有する第1色画像Ca1を投影し、同乗者U2の手H2に第1の色とは異なる第2の色を有する第2色画像Ca2を投影する。この構成によれば、複数のユーザUの各々が自身で操作可能な対象を把握することができる。 (2-2) Further, the projection unit projects the first color image Ca1 having the first color on the hand H1 of the driver U1, and the second color different from the first color is projected on the hand H2 of the passenger U2. The second color image Ca2 having the above is projected. According to this configuration, each of the plurality of users U can grasp the target that can be operated by itself.
(2−3)また、操作装置100が備える表示部30は、第1対象画像D1を第1の色と同色又は関連する色を含む態様で表示し、第2対象画像D2を第2の色と同色又は関連する色を含む態様で表示する。この構成によれば、ユーザUは、より直感的に操作可能な対象を把握することができる。
(2-3) Further, the
(2−4)具体的に、検出部41aは、検出領域Adのうち第1の領域A1で検出した手HをドライバU1の手H1と特定し、検出領域Adのうち第1の領域A1とは異なる第2の領域A2で検出した手Hを同乗者U2の手H2と特定することができる。
(2-4) Specifically, the
(3−1)操作装置100において、投影部は、操作制御部41cがジェスチャに対応する操作を特定した場合、手H及び対象部の一方から他方へと向かう軌跡状の軌跡画像Ceを投影する。対象部は、操作対象、又は、操作対象と関連する関連部(例えば、対象画像D)である。この構成によれば、ユーザUに操作した対象を容易に把握させることができる。
(3-1) In the
(3−2)投影部は、操作制御部41cがジェスチャに対応する操作を特定した場合、手Hから対象部へ向かう第1軌跡画像Ce1を投影した後に、対象部から手Hへ向かう第2軌跡画像Ce2を投影可能である。 (3-2) When the operation control unit 41c specifies the operation corresponding to the gesture, the projection unit projects the first trajectory image Ce1 from the hand H toward the target unit, and then the second projection unit from the target unit toward the hand H. The locus image Ce2 can be projected.
(3−3)具体的に、投影部は、操作制御部41cによって特定された操作が操作対象に反映された場合に第2軌跡画像Ce2を投影する。この構成によれば、操作が反映されたことを直感的にユーザUに把握させることができる。 (3-3) Specifically, the projection unit projects the second locus image Ce2 when the operation specified by the operation control unit 41c is reflected in the operation target. According to this configuration, the user U can intuitively grasp that the operation is reflected.
(3−4)投影部は、操作制御部41cが特定したジェスチャに対応する操作が、予め定められた種別の特別操作である場合に軌跡画像Ceを投影し、特別操作でない場合には軌跡画像Ceを投影しない。この構成によれば、必要性の高い操作に関する報知を軌跡画像Ceで直感的に行うことができる。また、あらゆる操作時に軌跡画像Ceが投影され、ユーザUに煩わしさを与えてしまうことを抑制することができる。 (3-4) The projection unit projects the locus image Ce when the operation corresponding to the gesture specified by the operation control unit 41c is a special operation of a predetermined type, and the locus image when it is not a special operation. Do not project Ce. According to this configuration, it is possible to intuitively notify the highly necessary operation with the locus image Ce. In addition, it is possible to prevent the locus image Ce from being projected at every operation and causing trouble to the user U.
(3−5)関連部は、車両1内の表示部30に表示された画像であって、操作対象に関する情報を示す対象画像Dであってもよい。
(3-5) The related part may be an image displayed on the
以上の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略した。 In the above description, in order to facilitate the understanding of the present invention, the description of known technical matters has been omitted as appropriate.
1…車両、2…センターコンソール、3…ダッシュボード、4…運転席、5…助手席
U…ユーザ、U1…ドライバ、U2…同乗者、H,H1,H2…手
100…操作装置
10…非接触式センサ、20…プロジェクタ、30…表示部
40…制御装置、41…制御部、42…記憶部
41a…検出部
41b…ジェスチャ特定部
41c…操作制御部
41d…投影制御部
41e…表示制御部
Ad…検出領域、A1…第1の領域、A2…第2の領域
Ap…投影領域
B…区分線
Ca…第1画像、Ca1…第1色画像、Ca2…第2色画像
Cb…第2画像
Cc…操作有効画像
Cd…操作無効画像
Ce…軌跡画像、Ce1…第1軌跡画像、Ce2…第2軌跡画像
D…対象画像、D1…第1対象画像、D2…第2対象画像
1 ... Vehicle, 2 ... Center console, 3 ... Dashboard, 4 ... Driver's seat, 5 ... Passenger seat U ... User, U1 ... Driver, U2 ... Passenger, H, H1, H2 ...
Claims (5)
前記検出部が検出した前記部位によるジェスチャを特定するジェスチャ特定部と、
前記ジェスチャ特定部が特定した前記ジェスチャに対応する操作を特定し、特定した操作の内容を示す情報を操作対象へ出力する操作制御部と、
前記乗り物内に存在する物体に画像を投影可能な投影部と、を備え、
前記投影部は、
前記検出部が前記部位を検出した場合に、第1画像を前記部位に投影し、
前記ジェスチャ特定部が前記ジェスチャを特定した場合に、前記第1画像とは異なる第2画像を前記部位に投影する、
操作装置。 A detector that detects the user's part in a preset detection area in the vehicle based on information from the non-contact sensor.
A gesture identification unit that identifies a gesture by the site detected by the detection unit, and a gesture identification unit.
An operation control unit that identifies an operation corresponding to the gesture specified by the gesture specifying unit and outputs information indicating the content of the specified operation to the operation target.
A projection unit capable of projecting an image onto an object existing in the vehicle is provided.
The projection unit
When the detection unit detects the site, a first image is projected onto the site.
When the gesture specifying portion identifies the gesture, a second image different from the first image is projected onto the portion.
Operating device.
請求項1に記載の操作装置。 When the operation control unit identifies an operation corresponding to the gesture, the projection unit projects an operation effective image obtained by changing the second image onto the portion.
The operating device according to claim 1.
前記操作制御部が前記ジェスチャに対応する操作を特定した場合、前記操作有効画像を前記部位に投影し、
前記操作制御部が前記ジェスチャに対応する操作を特定できなかった場合、前記第2画像を変化させた画像であって、前記操作有効画像とは異なる表示態様の操作無効画像を前記部位に投影する、
請求項2に記載の操作装置。 The projection unit
When the operation control unit identifies an operation corresponding to the gesture, the operation effective image is projected onto the portion.
When the operation control unit cannot specify the operation corresponding to the gesture, an operation invalid image having a display mode different from that of the operation valid image, which is an image obtained by changing the second image, is projected onto the portion. ,
The operating device according to claim 2.
請求項3に記載の操作装置。 The operation valid image and the operation invalid image are different from each other in display mode, and at least one of the size, display position, color, and lighting pattern is different from the second image.
The operating device according to claim 3.
請求項1乃至4のいずれか1項に記載の操作装置。 The first image and the second image are projected at different positions of the portion.
The operating device according to any one of claims 1 to 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020032599A JP7375611B2 (en) | 2020-02-28 | 2020-02-28 | operating device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020032599A JP7375611B2 (en) | 2020-02-28 | 2020-02-28 | operating device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021135841A true JP2021135841A (en) | 2021-09-13 |
JP7375611B2 JP7375611B2 (en) | 2023-11-08 |
Family
ID=77661357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020032599A Active JP7375611B2 (en) | 2020-02-28 | 2020-02-28 | operating device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7375611B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7378677B1 (en) * | 2022-10-13 | 2023-11-13 | 三菱電機株式会社 | Interface system, control device, and operation support method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004067031A (en) * | 2002-08-08 | 2004-03-04 | Nissan Motor Co Ltd | Operator determining device and on-vehicle device using the same |
JP2014153954A (en) * | 2013-02-08 | 2014-08-25 | Tokai Rika Co Ltd | Gesture operation device and gesture operation program |
JP2015508211A (en) * | 2012-02-23 | 2015-03-16 | インテル コーポレイション | Method and apparatus for controlling a screen by tracking a user's head through a camera module and computer-readable recording medium thereof |
JP2017059103A (en) * | 2015-09-18 | 2017-03-23 | パナソニックIpマネジメント株式会社 | Determination device, determination method, determination program and recording medium |
JP2018073170A (en) * | 2016-10-31 | 2018-05-10 | パナソニックIpマネジメント株式会社 | Information input device |
JP2018180851A (en) * | 2017-04-11 | 2018-11-15 | トヨタ紡織株式会社 | User interface system |
-
2020
- 2020-02-28 JP JP2020032599A patent/JP7375611B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004067031A (en) * | 2002-08-08 | 2004-03-04 | Nissan Motor Co Ltd | Operator determining device and on-vehicle device using the same |
JP2015508211A (en) * | 2012-02-23 | 2015-03-16 | インテル コーポレイション | Method and apparatus for controlling a screen by tracking a user's head through a camera module and computer-readable recording medium thereof |
JP2014153954A (en) * | 2013-02-08 | 2014-08-25 | Tokai Rika Co Ltd | Gesture operation device and gesture operation program |
JP2017059103A (en) * | 2015-09-18 | 2017-03-23 | パナソニックIpマネジメント株式会社 | Determination device, determination method, determination program and recording medium |
JP2018073170A (en) * | 2016-10-31 | 2018-05-10 | パナソニックIpマネジメント株式会社 | Information input device |
JP2018180851A (en) * | 2017-04-11 | 2018-11-15 | トヨタ紡織株式会社 | User interface system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7378677B1 (en) * | 2022-10-13 | 2023-11-13 | 三菱電機株式会社 | Interface system, control device, and operation support method |
WO2024079831A1 (en) * | 2022-10-13 | 2024-04-18 | 三菱電機株式会社 | Interface system, control device, and operation assistance method |
Also Published As
Publication number | Publication date |
---|---|
JP7375611B2 (en) | 2023-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9977593B2 (en) | Gesture recognition for on-board display | |
US9290153B2 (en) | Vehicle-based multimode discovery | |
US9082239B2 (en) | Intelligent vehicle for assisting vehicle occupants | |
US20180232195A1 (en) | Electronic device and method for sharing images | |
EP3051784A1 (en) | Operating a vehicle and a wearable device | |
KR20240074777A (en) | Vehicle and mobile device interface for vehicle occupant assistance | |
KR20240067906A (en) | Vehicle and mobile device interface for vehicle occupant assistance | |
JPWO2018230527A1 (en) | Driving support method, driving support program, and vehicle control device | |
KR20150072074A (en) | System and control method for gesture recognition of vehicle | |
US10477155B2 (en) | Driving assistance method, driving assistance device, and recording medium recording program using same | |
JP2024518333A (en) | Multi-screen interaction method and device, terminal device, and vehicle | |
JP2014149640A (en) | Gesture operation device and gesture operation program | |
JP2010036762A (en) | Device for estimating behavior and program | |
JP7375611B2 (en) | operating device | |
JP2021135843A (en) | Operating device | |
JP6057755B2 (en) | Gesture operation device and gesture operation program | |
CN112383826A (en) | Control method and device of vehicle-mounted entertainment terminal, storage medium, terminal and automobile | |
JP2021135842A (en) | Operating device | |
US10870436B2 (en) | Operation assistance system and operation assistance method | |
JP7163649B2 (en) | GESTURE DETECTION DEVICE, GESTURE DETECTION METHOD, AND GESTURE DETECTION CONTROL PROGRAM | |
WO2017017938A1 (en) | Gesture operating system, method, and program | |
CN118322859A (en) | Control method and control system for vehicle-mounted central control display screen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230620 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231009 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7375611 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |