JP2021135842A - 操作装置 - Google Patents

操作装置 Download PDF

Info

Publication number
JP2021135842A
JP2021135842A JP2020032601A JP2020032601A JP2021135842A JP 2021135842 A JP2021135842 A JP 2021135842A JP 2020032601 A JP2020032601 A JP 2020032601A JP 2020032601 A JP2020032601 A JP 2020032601A JP 2021135842 A JP2021135842 A JP 2021135842A
Authority
JP
Japan
Prior art keywords
image
user
hand
gesture
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020032601A
Other languages
English (en)
Inventor
英一 室橋
Hidekazu Murohashi
英一 室橋
康之 藤塚
Yasuyuki Fujitsuka
康之 藤塚
輝子 石川
Teruko Ishikawa
輝子 石川
瑛 原
Akira Hara
瑛 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2020032601A priority Critical patent/JP2021135842A/ja
Publication of JP2021135842A publication Critical patent/JP2021135842A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザの種別に応じて設定された操作を適切に特定することができる操作装置を提供する。【解決手段】操作装置100は、非接触式センサ10からの情報に基づいてユーザの手を検出する検出部41aと、手によるジェスチャを特定するジェスチャ特定部41bと、操作制御部41cと、を備える。検出部41aは、検出した手が第1のユーザの手か第2のユーザの手であるかを特定可能である。操作制御部41cは、第1のユーザの手によるジェスチャを特定した場合は、第1のユーザに許可される複数種別の操作を規定した第1操作パターンPAに基づいて当該ジェスチャに対応する操作を特定し、第2のユーザの手によるジェスチャを特定した場合は、第2のユーザに許可される複数種別の操作を規定した第2操作パターンPBに基づいて当該ジェスチャに対応する操作を特定する。【選択図】図1

Description

本発明は、操作装置に関する。
従来の操作装置として、例えば特許文献1には、カメラ等の非接触式センサからの情報に基づいてユーザのジェスチャによる操作を判定するものが記載されている。
特許第6559359号公報
上記のような操作装置を車両等の乗り物に用いる場合、例えばドライバと同乗者の両者がジェスチャによる操作を実行可能で、両者のそれぞれに許可された操作を設けた構成を採用することができる。しかしながら、当該構成を採用した場合に、ユーザの種別を考慮せずにジェスチャによる操作を判定するだけでは、一方のユーザにのみ許可された操作を他方のユーザが実行可能となってしまう。
本発明は、上記実情に鑑みてなされたものであり、ユーザの種別に応じて設定された操作を適切に特定することができる操作装置を提供することを目的とする。
上記目的を達成するため、本発明に係る操作装置は、
非接触式センサからの情報に基づいて、乗り物内に予め設定された検出領域においてユーザの部位を検出する検出部と、
前記検出部が検出した前記部位によるジェスチャを特定するジェスチャ特定部と、
前記ジェスチャ特定部が特定した前記ジェスチャに対応する操作を特定し、特定した操作の内容を示す情報を操作対象へ出力する操作制御部と、を備え、
前記検出部は、前記部位が第1のユーザの部位であるか第2のユーザの部位であるかを特定可能であり、
前記操作制御部は、
前記第1のユーザの部位によるジェスチャを特定した場合は、前記第1のユーザに許可される複数種別の操作を規定した第1操作パターンに基づいて当該ジェスチャに対応する操作を特定し、
前記第2のユーザの部位によるジェスチャを特定した場合は、前記第2のユーザに許可される複数種別の操作を規定した第2操作パターンに基づいて当該ジェスチャに対応する操作を特定し、
前記第1操作パターンと前記第2操作パターンとは、少なくとも一部が異なる。
本発明によれば、ユーザの種別に応じて設定された操作を適切に特定することができる。
本発明の一実施形態に係る操作装置のブロック図である。 同上実施形態に係る操作装置が搭載される車両を示した模式図である。 同上実施形態に係る操作装置の検出領域、第1の領域及び第2の領域を説明するための模式図である。 同上実施形態に係る第1操作パターン及び第2操作パターンの構成例を示す図である。 同上実施形態に係る表示部に表示される画像と投影画像の一例を示す模式図である。 (a)〜(d)は、同上実施形態に係る投影画像の遷移例を説明するための図である。 (a)及び(b)は、同上実施形態に係る投影画像の遷移例を説明するための図である。 同上実施形態に係る操作状況報知処理の一例を示すフローチャートである。 同上実施形態に係るユーザ特定処理の一例を示すフローチャートである。 同上実施形態に係る操作対象報知処理の一例を示すフローチャートである。 (a)及び(b)は、変形例に係る投影画像の遷移例を説明するための図である。
本発明の一実施形態について図面を参照して説明する。
本実施形態の一実施形態に係る操作装置100は、図1に示すように、車両1に搭載され、ユーザUの手H(図2参照)によるジェスチャで所定機器の操作を可能とするものである。操作装置100を利用しての操作は、図2に示すように、車両1の運転席4に着座したドライバU1と、助手席5に着座した同乗者U2の双方によって可能となっている。この実施形態では、車両1がRHD(Right Hand Drive)であるものとする。
操作装置100は、図1に示すように、非接触式センサ10と、プロジェクタ20と、表示部30と、制御装置40と、を備える。
非接触式センサ10は、可視光カメラ、赤外線カメラ、TOF(Time of Flight)カメラ、ミリ波センサ等から構成され、検出対象の二次元又は三次元情報(以下、検出対象情報)を計測し、制御装置40に送信する。非接触式センサ10は、例えば車両1の天井に設置される。この実施形態では、非接触式センサ10は、図2に示すように、車両1の室内に予め設定された検出領域Ad内にあるユーザUの手Hを検出する。したがって、検出領域Adと重なる空間がユーザUのジェスチャによる操作が可能な入力空間となる。つまり、非接触式センサ10の撮影範囲又は電磁波の照射範囲は、検出領域Adを含む。検出領域Adは、例えば、車両1の前席の中央部であって、センターコンソール2やダッシュボード3と重なる部分に設定されている。
プロジェクタ20は、制御装置40の制御の下、車両1の室内に予め設定された投影領域Apに存在する物体に画像を投影する。図2に示すように、投影領域Apは、検出領域Adを含み、且つ、検出領域Adよりも広い領域に設定されている。また、投影領域Apは、表示部30の一部と重畳して設定されている。プロジェクタ20としては、液晶デバイス、デジタルミラーデバイス等を利用した公知のプロジェクタを用いることができる。プロジェクタ20は、例えば車両1の天井に設置されている。
表示部30は、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diodes)等から構成され、制御装置40の制御の下で画像を表示する。表示部30は、図2に示すように、車両1の室内において、ドライバU1及び同乗者U2の双方に視認可能な位置に設けられている。表示部30は、例えば、センターコンソール2の上方であってダッシュボード3に設けられている。
制御装置40は、操作装置100の全体動作を制御するマイクロコンピュータからなり、CPU(Central Processing Unit)等から構成される制御部41と、ROM(Read Only Memory)、RAM(Random Access Memory)等から構成される記憶部42と、を備える。記憶部42のROMには、後述する操作状況報知処理を実行するためのプログラムPG、第1操作パターンPA、第2操作パターンPBのデータが記憶されている。また、記憶部42のROMには、プロジェクタ20の投影画像や表示部30の表示画像を生成するための画像パーツデータが記憶されている。また、制御装置40は、図示しない構成として、プロジェクタ20や表示部30を駆動するための駆動回路、機器群200と通信を行うための入出力回路等を備える。なお、制御装置40は、後述の機能を充足する限りにおいては、その構成や配置は任意である。例えば、制御装置40は、互いに通信する複数のコンピュータによって実現されてもよい。
機器群200は、車両1の各部を制御するECU(Electronic Control Unit)、カーナビゲーション(カーナビ)装置、車内温度を調整するエア・コンディショナー(エアコン)装置、メディアプレイヤー等の周知の車載システムから構成されている。また、機器群200は、ユーザUによって持ち込まれ、無線又は有線により制御装置40と通信可能なスマートフォン、タブレット端末等の携帯端末も含む。例えば、制御部41は、機器群200を構成する各機器と通信を行い、各機器の状況を示す画像、各機器を操作するための画像等を表示部30に表示させる。また、制御部41は、ユーザUによってなされたジェスチャに応じて、表示部30の表示動作や、機器群200の動作を制御する。この実施形態では、機器群200を構成する各機器、及び、表示部30がユーザUのジェスチャにより操作可能な対象である操作対象となる。
制御部41は、図1に示すように、主な機能として、検出部41aと、ジェスチャ特定部41bと、操作制御部41cと、投影制御部41dと、表示制御部41eと、を備える。
検出部41aは、非接触式センサ10からの検出対象情報に基づいて、検出領域AdにおいてユーザUの手Hを検出する。例えば、検出部41aは、非接触式センサ10から所定の検出周期で送信される検出対象情報の周期毎の差分を演算し、手Hの領域を検出する。そして、検出部41aは、検出した手Hの領域を示す情報に基づいて手Hの指先、掌などの特徴点の座標情報を抽出する。なお、手Hの領域の検出手法や特徴点の抽出手法は任意であり、公知の手法を用いることができる。例えば、パターンマッチング法や、HOG(Histogram of Oriented Gradients)、SIFT(Scale-Invariant Feature Transform)、LBP(Local Binary Pattern)、Haar−Likeなどの特徴点算出手法を用いることができる。なお、検出部41aが検出領域AdにおいてユーザUの手Hを検出する際には、検出領域Ad内にユーザUの手Hの全体が含まれていなくともよく、物体が手Hであることを検出部41aが特定可能な程度に、手Hの一部分が検出領域Ad内に位置していればよい。
また、検出部41aは、検出領域Adで検出した手Hが、ドライバU1の手H1であるか同乗者U2の手H2であるかを特定することができる。ここで、検出領域Adは、図3に示すように、区分線Bにより区分される第1の領域A1及び第2の領域A2から構成されている。第1の領域A1は区分線Bの右側に位置し、第2の領域A2は区分線Bの左側に位置する。この実施形態では、車両1がRHDであるため、第1の領域A1は第2の領域A2よりもドライバU1に近く、第2の領域A2は第1の領域A1よりも同乗者U2に近い。したがって、第1の領域A1内に位置する手HをドライバU1の手H1と推定することができ、第2の領域A2内に位置する手Hを同乗者U2の手H2と推定することができる。これを考慮して、検出部41aは、第1の領域A1内で検出した手HをドライバU1の手H1と特定し、第2の領域A2内で検出した手Hを同乗者U2の手H2と特定する。なお、検出領域Ad、第1の領域A1、第2の領域A2の各々を規定する座標情報は、予め記憶部42のROMに記憶されている。
なお、第1の領域A1は、ドライバU1の手H1が届き易く、且つ、同乗者U2の手H2が届きにくい領域として設定されていればよい。反対に、第2の領域A2は、同乗者U2の手H2が届き易く、且つ、ドライバU1の手H1が届きにくい領域として設定されていればよい。つまり、第1の領域A1と第2の領域A2の境界線である区分線Bの位置や形状は任意である。例えば、区分線Bは直線状でなくともよい。また、第1の領域A1及び第2の領域A2は、検出領域Adに含まれていればよく、例えば、双方の領域が間隔を空けて配置された構成を採用してもよい。当該構成を採用した場合、検出部41aが検出領域Ad内であって、第1の領域A1及び第2の領域A2以外の領域で手Hを検出した際は、検出した手Hによるジェスチャを無効としてもよい。また、車両1がLHD(Left Hand Drive)である場合は、第1の領域A1及び第2の領域A2の関係を上記と左右反対に設定すればよい。また、第1の領域A1と第2の領域A2のいずれかの領域(以下、一の領域と言う。)において、同時に複数の手Hが検出される状況も想定される。この状況では、例えば、検出部41aは、一の領域に含まれる手Hが一つになるまでユーザUの特定を待機したり、先に検出された手Hに基づいてユーザUを特定したりすればよい。
ジェスチャ特定部41bは、検出部41aが検出した手Hによるジェスチャを特定する。例えば、ジェスチャ特定部41bは、検出部41aが抽出した手Hの座標情報に基づいてユーザUの手Hの動作軌跡を作成する。そして、ジェスチャ特定部41bは、作成した手Hの動作軌跡と記憶部42のROMに記憶されたジェスチャパターンとを比較し、手Hによるジェスチャを特定する。ジェスチャパターンは、予め定められた複数種別のジェスチャの軌跡を示すデータとして、予めROMに記憶されている。なお、ジェスチャ特定部41bによるジェスチャの特定手法は任意であり、例えば、NN法(Nearest Neighbor algorithm)、k-NN法(k-Nearest Neighbor algorithm)、パターンマッチング法などの公知の手法を用いることができる。また、入力を可能とするジェスチャの態様は任意であるが、例えば、検出領域Adにおいてなされるスワイプ、スクロール、ピンチイン、ピンチアウト等の種々の動作や、サムズアップ、ピースサイン等のポーズであればよい。
操作制御部41cは、ジェスチャ特定部41bが特定したジェスチャに対応する操作を特定し、特定した操作の内容を示す情報を操作対象へ出力する。具体的に、操作制御部41cは、記憶部42のROMに記憶された操作パターンのデータを参照し、特定したジェスチャに対応する操作を特定する。操作パターンとしては、図4に構成を例示する第1操作パターンPA及び第2操作パターンPBが設けられている。
第1操作パターンPAは、ドライバU1に許可された複数種別の操作を規定したものである。第1操作パターンPAに規定された操作は、ドライバU1にのみ許可された操作(以下、ドライバ許可操作と言う。)と、ドライバU1及び同乗者U2の両者に許可された操作(以下、両者許可操作と言う。)を含む。ドライバ許可操作は、車両1の操縦に関する操作であり、例えば、走行モード、ADAS(Advanced Driver-Assistance Systems)、ワイパー、ヘッドライト等の設定操作である。両者許可操作は、ドライバU1及び同乗者U2が操作しても走行の安全上、支障がない操作であり、例えば、エアコン、ミュージック(楽曲再生)、ラジオ等の設定操作である。操作制御部41cは、特定されたジェスチャがドライバU1の手H1によるものである場合は、第1操作パターンPAを参照し、特定されたジェスチャに対応する操作を特定し、特定した操作の内容を示す信号を操作対象へ出力する。例えば、操作制御部41cは、走行モードの設定操作を特定した場合には、車両1の走行モードを制御するECUに当該操作内容に示す信号を出力し、これに応じてECUは走行モードを制御する。なお、当該ECUは、走行モードの設定操作の内容に応じた、車両1の走行モードの制御が完了すると、その旨を示すアンサーバック信号を操作制御部41cに供給する。
第2操作パターンPBは、同乗者U2に許可された複数種別の操作を規定したものである。第2操作パターンPBに規定された操作は、同乗者U2にのみ許可された操作(以下、同乗者許可操作と言う。)と、前述の両者許可操作を含む。同乗者許可操作は、車両1の走行中の安全を担保する上でドライバU1には許容されない操作であり、例えば、カーナビ、動画再生、メール、SNS等を利用するための操作である。操作制御部41cは、特定されたジェスチャが同乗者U2の手H2によるものである場合は、第2操作パターンPBを参照し、特定されたジェスチャに対応する操作を特定し、特定した操作の内容を示す信号を操作対象へ出力する。例えば、操作制御部41cは、カーナビの設定操作を特定した場合には、カーナビ装置に当該操作内容に示す信号を出力し、これに応じてカーナビ装置は設定を反映する。なお、当該カーナビ装置は、カーナビの設定操作の内容に応じた制御が完了すると、その旨を示すアンサーバック信号を操作制御部41cに供給する。
投影制御部41dは、プロジェクタ20の動作を制御し、投影領域Apに存在する物体に画像を投影する。
具体的に、投影制御部41dは、検出部41aが手Hを検出した場合に、図5、図6(a)に示すように、その旨をユーザUに報知するための第1画像Caを手Hの任意の位置に投影する。例えば、投影制御部41dは、第1画像Caを手Hの手首に投影される帯状の画像として投影する。ここで、投影制御部41dは、検出部41aがドライバU1の手H1を検出した場合には、検出された手H1に、第1の色を有する第1色画像Ca1を第1画像Caとして投影する。また、検出部41aが同乗者U2の手H2を検出した場合には、検出された手H2に、第1の色とは異なる第2の色を有する第2色画像Ca2を第1画像Caとして投影する。第1の色と第2の色は、異なる色であれば任意であり、例えば一方が赤色、他方が青色などであればよい。
また、投影制御部41dは、ジェスチャ特定部41bがジェスチャを特定した場合に、図5、図6(b)に示すように、その旨をユーザUに報知するための第2画像Cbを手Hの任意の位置に投影する。例えば、投影制御部41dは、第2画像Cbを手Hの指先に投影される円状の画像として投影する。この実施形態で、第2画像Cbは、例えば、前述の第1の色及び第2の色とは異なる色の画像であり、ユーザUがドライバU1である場合も同乗者U2である場合も同じ態様で投影表示される。第2画像Cbの色は、前述の第1の色及び第2の色とは異なる色であれば任意であり、例えば白色や黄色であればよい。
また、投影制御部41dは、操作制御部41cがジェスチャに対応する操作を特定した場合、図6(c)に示すように、第2画像Cbを変化させた操作有効画像Ccを手Hに投影する。操作有効画像Ccは、例えば、第2画像Cbを延伸、拡大した態様の画像である。一方、投影制御部41dは、操作制御部41cがジェスチャに対応する操作を特定できなかった場合、図6(d)に示すように、第2画像Cbを変化させた画像であって、操作有効画像Ccとは異なる表示態様の操作無効画像Cdを手Hに投影する。操作無効画像Cdは、例えば、第2画像Cbと同じ形状の画像を点滅表示したものである。なお、操作有効画像Cc及び操作無効画像Cdの表示態様は設計に応じて任意である。例えば、操作有効画像Cc及び操作無効画像Cdは、互いに表示態様が異なるとともに、サイズ、表示位置、色及び点灯パターンの少なくともいずれかが第2画像Cbとは異なっていればよい。
また、投影制御部41dは、操作制御部41cが特定した操作が、予め定めた種別の特別操作である場合、図7(a)、(b)に示すように、軌跡画像Ceを投影表示することによって、特別操作の対象をユーザUに報知することができる。特別操作は、例えば、その操作対象をユーザUに報知する重要度が高い種別の操作として1又は複数定められ、記憶部42のROM内に記憶されていればよい。例えば、ドライバU1によるワイパー駆動操作やヘッドライト点灯操作については、ドライバU1の目視により容易に操作がなされたことを認識できるので、このような操作を特別操作から排除することが可能である。
軌跡画像Ceは、ユーザUの手Hから表示部30に表示されている後述の対象画像Dへ向かう第1軌跡画像Ce1と、対象画像Dから手Hへ向かう第2軌跡画像Ce2と、を含む。第1軌跡画像Ce1は、例えば、手Hの指先から対象画像Dへ向かって動く軌跡状の画像である。第1軌跡画像Ce1は、ユーザUが行ったジェスチャに対応した操作が特定された場合に、プロジェクタ20により投影される画像である。第2軌跡画像Ce2は、例えば、対象画像Dから手Hの指先に向かって動く軌跡状の画像である。第2軌跡画像Ce2は、特定された操作がその操作対象に反映された場合にプロジェクタ20により投影される画像である。なお、第1軌跡画像Ce1及び第2軌跡画像Ce2の表示条件については後述の操作状況報知処理と併せて説明する。
軌跡画像Ceは、車両1内の物体、つまり、検出された手H、センターコンソール2及び表示部30に投影されることで、手Hと対象画像Dとを結ぶように表示される。例えば、投影制御部41dは、予め記憶部42のROMに記憶された、車両1の室内における投影領域Apを規定する投影位置情報に基づいて軌跡画像Ceを所望の位置に投影する。投影制御部41dは、検出部41aから手H1の位置を示す座標情報を取得するとともに、表示制御部41eから表示部30における対象画像Dの表示位置を示す位置情報を取得する。そして、投影制御部41dは、座標情報及び位置情報の各々に対応する投影位置を算出し、算出した投影位置に基づき軌跡画像Ceを投影する。なお、図7(a)、(b)では、軌跡画像Ceが表す直線状の軌跡を表す例を示したが、軌跡画像Ceの表示態様は任意である。例えば、軌跡画像Ceは、検出した手Hと対象画像Dとの一方から他方へと向かうものであれば、曲線状の軌跡やランダムな軌跡を表していてもよい。また、軌跡画像Ceは、線状に限られず、帯状、放射状などの形状であってもよい。また、軌跡画像Ceは、検出した手Hと対象画像Dとの一方から他方へと向かうものであれば、手Hと対象画像Dとの双方に重畳して表示されなくともよく、手Hと対象画像Dの間に表示されてもよい。
表示制御部41eは、図5に示すように、ユーザUのジェスチャにより操作可能な対象に関する情報を示す対象画像Dを表示部30に表示させる。なお、当該対象に関する情報とは、対象機器そのものを示す情報だけでなく、対象機器の操作項目、対象機器の一部機能を示す情報なども含む。対象画像Dは、当該対象に関する情報を、文字、図形、アイコン等で表す構成であればよい。
対象画像Dは、第1操作パターンPAに規定された操作の対象に関する情報を示す第1対象画像D1と、第2操作パターンPBに規定された操作の対象に関する情報を示す第2対象画像D2と、を含む。図5は、ドライバU1に走行モードの操作が可能であることを示す第1対象画像D1と、同乗者U2に制御装置40と接続された携帯端末の操作が可能であることを示す第2対象画像D2が表示部30に表示されている例である。
表示制御部41eは、図5に示すように、第1対象画像D1を第1色画像Ca1の色(前述の第1の色)と同色又は関連する色を含む態様で表示部30に表示させ、第2対象画像D2を第2色画像Ca2の色(前述の第2の色)と同色又は関連する色を含む態様で表示部30に表示させる。これにより、ドライバU1は、第1色画像Ca1が自身の手H1に投影されることで、第1対象画像D1が示す対象の操作が可能な状態であることを直感的に認識することができる。また、同乗者U2は、第2色画像Ca2が自身の手H2に投影されることで、第2対象画像D2が示す対象の操作が可能な状態であることを直感的に認識することができる。第1の色と関連する色とは、第1の色の同系色又は類似色であればよい。例えば、第1の色の同系色は、第1の色と色相は同じで、明度と彩度の違う色であればよい。また、第1の色の類似色は、第1の色と類似した色相を組み合わせた色であればよい。この関係は、第2の色と関連する色についても同様である。
なお、第1対象画像D1が第1の色と同色又は関連する色(以下、対応色とも言う。)を含む態様は任意であり、第1対象画像D1を構成する枠、文字等のパーツが対応色を有していてもよいし、第1対象画像D1全体が対応色で表示されていてもよい。表示制御部41eは、第1対象画像D1を、表示部30に常時表示してもよいし、所定の操作を受け付けたことを契機に表示部30に表示してもよい。また、表示制御部41eは、第1色画像Ca1がドライバU1に投影されたことを条件に、第1対象画像D1を、第1色画像Ca1の対応色を含んだ態様の表示に切り替えてもよい。第2対象画像D2についても同様である。
続いて、制御部41が実行する操作状況報知処理について図8〜図10を参照して説明する。制御部41は、図8に示す操作状況報知処理を開始すると、まず、ユーザUを特定済みであるか否かを判別する(ステップS101)。ユーザUが未だ特定されていない場合(ステップS101;No)、制御部41は、ユーザ特定処理(ステップS200)として図9に示す処理を実行し、検出領域Adで手Hが検出されているかを判別する(ステップS201)。手Hが検出された場合(ステップS201;Yes)、制御部41は、前述のように、検出領域Adに設定された第1の領域A1及び第2の領域A2に基づき、ユーザUを特定する(ステップS202)。ステップS202の処理後、又は、手Hが検出されていない場合(ステップS201;No)、制御部41は、ユーザ特定処理を終了する。
図8に戻って、ユーザUが特定された場合(ステップS101;Yes)、制御部41は、ユーザ特定処理で特定されたユーザUの手Hが検出されている状態か否かを判別する(ステップS102)。ここで、特定されたユーザUは、ドライバU1と同乗者U2の少なくともいずれかであればよい。ドライバU1の手H1と同乗者U2の手H2とが同時に検出されている場合、制御部41は、ステップS102以降の処理を特定されたユーザU毎に並列して実行する。
特定されたユーザUの手Hを検出した場合(ステップS102;Yes)、制御部41は、図6(a)に示すように、手Hの手首に第1画像Caを投影し(ステップS103)、ユーザUに手Hが検出領域Ad内にあることを報知する。特定されたユーザUがドライバU1である場合は、ドライバU1の手H1に第1色画像Ca1が第1画像Caとして投影される。特定されたユーザUが同乗者U2である場合は、同乗者U2の手H2に第2色画像Ca2が第1画像Caとして投影される。特定されたユーザUの手Hが検出されない場合(ステップS102;No)、制御部41は、第1画像Caを非表示とし(ステップS104)、ステップS101に戻って処理を実行する。
ステップS103に続いて、制御部41は、ステップS102で検出した手Hによるジェスチャを特定する(ステップS105)。ジェスチャが特定された場合(ステップS105;Yes)、制御部41は、図6(b)に示すように、手Hの指先に第2画像Cbを投影し(ステップS106)、ユーザUにジェスチャが受け付けられていることを報知する。ジェスチャを特定することができなかった場合(ステップS105;No)、制御部41は、第2画像Cbを非表示とし(ステップS107)、ステップS101に戻って処理を実行する。
ステップS106に続いて、制御部41は、ユーザUに応じた操作パターンを参照する(ステップS108)。具体的に、制御部41は、ユーザUがドライバU1である場合は第1操作パターンPAを参照し、ユーザが同乗者U2である場合は第2操作パターンPBを参照する。
続いて、制御部41は、ステップS105で特定したジェスチャに対応する操作が操作パターン内にあるか否かを判別する(ステップS109)。制御部41は、操作パターンを参照して、ジェスチャに対応する操作を特定した場合(ステップS109;Yes)、特定した操作の内容を示す信号を操作対象へ出力し、ステップS110の処理を実行する。制御部41は、特定されたジェスチャがドライバU1の手H1によるものである場合は、第1操作パターンPAを参照し、特定されたジェスチャに対応する操作を特定し、特定した操作の内容を示す信号を操作対象へ出力する。これによりドライバU1に許可された操作が実行可能となる。制御部41は、特定されたジェスチャが同乗者U2の手H2によるものである場合は、第2操作パターンPBを参照し、特定されたジェスチャに対応する操作を特定し、特定した操作の内容を示す信号を操作対象へ出力する。これにより同乗者U2に許可された操作が実行可能となる。
ステップS110で制御部41は、特定した操作の種別が予め定められた特別操作であるか否か判別し、特別操作でない場合(ステップS110;No)、図6(b)に示す第2画像Cbを変化させた態様の操作有効画像Ccを、図6(c)に示すように、ユーザUの手Hに投影する(ステップS111)。一方、ステップS109で、ジェスチャに対応する操作が特定されなかった場合(ステップS109;No)、制御部41は、図6(b)に示す第2画像Cbを変化させた態様の操作無効画像Cdを、図6(d)に示すように、ユーザUの手Hに投影する(ステップS112)。
ステップS110で、特定した操作の種別が特別操作である場合(ステップS110;Yes)、制御部41は、操作対象報知処理(ステップS300)として図10に示す処理を実行すし、図7(a)に示すように、第1軌跡画像Ce1を一定期間だけ投影表示する(ステップS301)。続いて、制御部41は、操作の内容を示す信号を出力した操作対象から、当該操作の内容に応じた制御が完了した旨を示すアンサーバック信号を受信したか否かを判別する(ステップS302)。アンサーバック信号を受信した場合(ステップS302;Yes)、制御部41は、図7(b)に示すように、第2軌跡画像Ce2を一定期間だけ投影表示する(ステップS303)。なお、第1軌跡画像Ce1、第2軌跡画像Ce2を投影する期間は、例えば数秒といった期間であればよい。ステップS303の実行後、又は、アンサーバック信号を受信しなかった場合(ステップS302;No)、制御部41は、操作対象報知処理を終了する。
図8に戻って、ステップS111、S112、S300の処理後、制御部41は、ステップS101に戻って処理を実行する。以上の操作状況報知処理は、例えば操作装置100の起動中において継続して実行される。
なお、操作状況報知処理は、車両1の走行時など一定の条件下で実行されてもよい。例えば、制御部41は、車両1のエンジン又はモータである原動機の起動中、且つ、車両1のパーキングブレーキ解除時に操作状況報知処理を実行してもよい。また、操作状況報知処理において、制御部41は、ステップS101、S102、及びステップS200を構成する各処理を検出部41aの機能で実行する。また、制御部41は、ステップS105をジェスチャ特定部41bの機能で実行する。また、制御部41は、ステップS108〜S110、S302を操作制御部41cの機能で実行する。また、制御部41は、ステップS103、S104、S106、S107、S111、S112、S301、S303を投影制御部41dの機能で実行する。
なお、本発明は以上の実施形態及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。
以上の実施形態では、操作装置100が、その機能として表示部30を含む例を示したが、表示部30を含むことは任意である。表示部30を備えず、あるいは、表示部30に加えて、車両1の室内に設置され、操作装置100と通信可能な表示装置に各機器の状態や操作のための各画像を表示してもよく、ユーザUによって車両1の室内に持ち込まれる表示装置に各画像を表示してもよい。また、音声出力部を備え、各機器の状態や操作のための音声を出力してもよい。
以上の実施形態では、第2画像Cbが手Hの指先に投影される例を示したが、手Hにおける第2画像Cbの投影位置は任意である。例えば、図11(a)に示すように、第2画像Cbは、手Hの甲に投影されてもよい。また、操作有効画像Ccは、図11(b)に示すように、第2画像Cbに枠などの画像パーツを付加した態様であってもよい。
第1画像Ca、第2画像Cb、操作有効画像Cc及び操作無効画像Cdの形状、投影位置は以上の例に限られず任意である。例えば、第2画像Cbも第1画像Caと同様に、ユーザU毎に色を異ならせてもよい。また、第1画像Ca及び第2画像Cbは、手Hの互いに異なる位置に投影されなくともよく、例えば、第2画像Cbは、第1画像Caを変形させた態様であってもよい。
以上では、検出領域Adに設けた第1の領域A1及び第2の領域A2に基づいて、ユーザUの特定を行う例を示したが、ユーザUの特定手法は任意である。例えば、車両1を使用する者の手Hに関する情報を予め操作装置100に登録しておき、登録情報に基づいてユーザUを特定する構成を採用することもできる。また、車両1がRHDの場合、検出した手Hが左手である場合にドライバU1の手H1と特定し、検出した手Hが右手である場合に同乗者U2の手H2と特定してもよい。検出領域Adが車両1の中央部に位置する場合、ドライバU1は左手でジェスチャを行い、同乗者U2は右手でジェスチャを行う可能性が高いためである。車両1がLHDの場合は、これと逆の関係を考えればよい。手Hが左手であるか右手であるかの判別は、例えば、パターンマッチング法などの公知の手法を用いることができる。
以上では、軌跡画像Ceとして、手H及び対象画像Dの一方から他方へと向かう軌跡状の画像を投影した例を示したが、軌跡画像Ceは、手H及び次に述べる対象部の一方から他方へと向かう軌跡状の画像であってもよい。対象部は、操作対象(つまり、機器群200を構成する各機器や表示部30)、又は、当該操作対象と関連する関連部であればよい。関連部は、前記の対象画像Dを含む。また、関連部は、例えば、エアコン装置が操作対象である場合の送風口、走行モードを制御するECUが操作対象である場合の走行モードを報知するためのインジケータ等であってもよい。
非接触式センサ10、プロジェクタ20及び表示部30の車両1内における配置は任意であり、適宜変更することができる。また、操作装置100が搭載される乗り物は、車両1に限られず任意であり、船舶、航空機などの車両1以外の乗り物であってもよい。
以上に説明した操作状況報知処理を実行するプログラムPGは、記憶部42に予め記憶されているものとしたが、着脱自在の記録媒体により配布・提供されてもよい。また、プログラムPGは、操作装置100と接続された他の機器からダウンロードされるものであってもよい。また、操作装置100は、他の機器と電気通信ネットワークなどを介して各種データの交換を行うことによりプログラムPGに従う各処理を実行してもよい。
以上では、検出部41aが検出する人体の部位が、ユーザUの手Hである例を説明したが、これに限られない。乗り物内において安全にジェスチャが可能である部位であれば、足などであってもよい。なお、本明細書における「手」とは、人体の肩から先にある部分を言い、指や掌はもちろん、肘なども含む。
操作状況報知処理において、第2画像Cb、操作有効画像Cc、操作無効画像Cdを投影する処理を省略してもよい。また、以上では、所定の場合に軌跡画像Ceを投影する例を示したが、軌跡画像Ceを投影する処理を省いてもよい。例えば、操作状況報知処理のステップS300の処理を省略することもできる。
以上に説明した操作装置100は、非接触式センサ10からの情報に基づいて、車両1(乗り物の一例)内に予め設定された検出領域AdにおいてユーザUの手H(部位の一例)を検出する検出部41aと、検出部41aが検出した手Hによるジェスチャを特定するジェスチャ特定部41bと、ジェスチャ特定部41bが特定したジェスチャに対応する操作を特定し、特定した操作の内容を示す情報を操作対象へ出力する操作制御部41cと、車両1内に存在する物体に画像を投影可能な投影部(例えば、投影制御部41dの制御により動作するプロジェクタ20)と、を備える。
(1−1)操作装置100において、投影部は、検出部41aが手Hを検出した場合に、第1画像Caを手Hに投影し、ジェスチャ特定部41bがジェスチャを特定した場合に、第1画像Caとは異なる第2画像Cbを手Hに投影する。この構成によれば、ユーザUは、手Hが検出されていること、及び、ジェスチャが受け付けられていることを投影画像によって把握することができる。したがって、ユーザUが無意味なジェスチャを繰り返してしまうことを抑制することができる。
(1−2)また、投影部は、操作制御部41cがジェスチャに対応する操作を特定した場合、第2画像Cbを変化させた操作有効画像Ccを手Hに投影する。この構成によれば、ユーザUに操作が受け付けられていることを報知することができる。
(1−3)また、投影部は、操作制御部41cがジェスチャに対応する操作を特定できなかった場合、第2画像Cbを変化させた画像であって、操作有効画像Ccとは異なる表示態様の操作無効画像Cdを手Hに投影する。この構成によれば、ユーザUに操作が受け付けられていないことを報知することができる。
(1−4)具体的に、操作有効画像Cc及び操作無効画像Cdは、互いに表示態様が異なるとともに、サイズ、表示位置、色及び点灯パターンの少なくともいずれかが第2画像Cbとは異なる。
(1−5)また、第1画像Caと第2画像Cbとは、手Hの互いに異なる位置に投影されてもよい。
(2−1)操作装置100において、検出部41aは、手HがドライバU1(第1のユーザの一例)の手H1であるか同乗者U2(第2のユーザの一例)の手H2であるかを特定可能である。また、操作制御部41cは、ドライバU1の手H1によるジェスチャを特定した場合は、ドライバU1に許可される複数種別の操作を規定した第1操作パターンPAに基づいて当該ジェスチャに対応する操作を特定し、同乗者U2の手H2によるジェスチャを特定した場合は、同乗者U2に許可される複数種別の操作を規定した第2操作パターンPBに基づいて当該ジェスチャに対応する操作を特定する。また、第1操作パターンPAと第2操作パターンPBとは、少なくとも一部が異なる。この構成によれば、ユーザの種別に応じて設定された操作を適切に特定することができる。
(2−2)また、投影部は、ドライバU1の手H1に第1の色を有する第1色画像Ca1を投影し、同乗者U2の手H2に第1の色とは異なる第2の色を有する第2色画像Ca2を投影する。この構成によれば、複数のユーザUの各々が自身で操作可能な対象を把握することができる。
(2−3)また、操作装置100が備える表示部30は、第1対象画像D1を第1の色と同色又は関連する色を含む態様で表示し、第2対象画像D2を第2の色と同色又は関連する色を含む態様で表示する。この構成によれば、ユーザUは、より直感的に操作可能な対象を把握することができる。
(2−4)具体的に、検出部41aは、検出領域Adのうち第1の領域A1で検出した手HをドライバU1の手H1と特定し、検出領域Adのうち第1の領域A1とは異なる第2の領域A2で検出した手Hを同乗者U2の手H2と特定することができる。
(3−1)操作装置100において、投影部は、操作制御部41cがジェスチャに対応する操作を特定した場合、手H及び対象部の一方から他方へと向かう軌跡状の軌跡画像Ceを投影する。対象部は、操作対象、又は、操作対象と関連する関連部(例えば、対象画像D)である。この構成によれば、ユーザUに操作した対象を容易に把握させることができる。
(3−2)投影部は、操作制御部41cがジェスチャに対応する操作を特定した場合、手Hから対象部へ向かう第1軌跡画像Ce1を投影した後に、対象部から手Hへ向かう第2軌跡画像Ce2を投影可能である。
(3−3)具体的に、投影部は、操作制御部41cによって特定された操作が操作対象に反映された場合に第2軌跡画像Ce2を投影する。この構成によれば、操作が反映されたことを直感的にユーザUに把握させることができる。
(3−4)投影部は、操作制御部41cが特定したジェスチャに対応する操作が、予め定められた種別の特別操作である場合に軌跡画像Ceを投影し、特別操作でない場合には軌跡画像Ceを投影しない。この構成によれば、必要性の高い操作に関する報知を軌跡画像Ceで直感的に行うことができる。また、あらゆる操作時に軌跡画像Ceが投影され、ユーザUに煩わしさを与えてしまうことを抑制することができる。
(3−5)関連部は、車両1内の表示部30に表示された画像であって、操作対象に関する情報を示す対象画像Dであってもよい。
以上の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略した。
1…車両、2…センターコンソール、3…ダッシュボード、4…運転席、5…助手席
U…ユーザ、U1…ドライバ、U2…同乗者、H,H1,H2…手
100…操作装置
10…非接触式センサ、20…プロジェクタ、30…表示部
40…制御装置、41…制御部、42…記憶部
41a…検出部
41b…ジェスチャ特定部
41c…操作制御部
41d…投影制御部
41e…表示制御部
Ad…検出領域、A1…第1の領域、A2…第2の領域
Ap…投影領域
B…区分線
Ca…第1画像、Ca1…第1色画像、Ca2…第2色画像
Cb…第2画像
Cc…操作有効画像
Cd…操作無効画像
Ce…軌跡画像、Ce1…第1軌跡画像、Ce2…第2軌跡画像
D…対象画像、D1…第1対象画像、D2…第2対象画像

Claims (4)

  1. 非接触式センサからの情報に基づいて、乗り物内に予め設定された検出領域においてユーザの部位を検出する検出部と、
    前記検出部が検出した前記部位によるジェスチャを特定するジェスチャ特定部と、
    前記ジェスチャ特定部が特定した前記ジェスチャに対応する操作を特定し、特定した操作の内容を示す情報を操作対象へ出力する操作制御部と、を備え、
    前記検出部は、前記部位が第1のユーザの部位であるか第2のユーザの部位であるかを特定可能であり、
    前記操作制御部は、
    前記第1のユーザの部位によるジェスチャを特定した場合は、前記第1のユーザに許可される複数種別の操作を規定した第1操作パターンに基づいて当該ジェスチャに対応する操作を特定し、
    前記第2のユーザの部位によるジェスチャを特定した場合は、前記第2のユーザに許可される複数種別の操作を規定した第2操作パターンに基づいて当該ジェスチャに対応する操作を特定し、
    前記第1操作パターンと前記第2操作パターンとは、少なくとも一部が異なる、
    操作装置。
  2. 前記乗り物内に存在する物体に画像を投影可能な投影部をさらに備え、
    前記投影部は、前記第1のユーザの部位に第1の色を有する第1色画像を投影し、前記第2のユーザの部位に前記第1の色とは異なる第2の色を有する第2色画像を投影する、
    請求項1に記載の操作装置。
  3. 前記第1操作パターンに規定された操作の対象に関する情報を示す第1対象画像、及び、前記第2操作パターンに規定された操作の対象に関する情報を示す第2対象画像を表示可能な表示部をさらに備え、
    前記表示部は、
    前記第1対象画像を前記第1の色と同色又は関連する色を含む態様で表示し、
    前記第2対象画像を前記第2の色と同色又は関連する色を含む態様で表示する、
    請求項2に記載の操作装置。
  4. 前記検出部は、
    前記検出領域のうち第1の領域で検出した前記部位を前記第1のユーザの部位と特定し、
    前記検出領域のうち前記第1の領域とは異なる第2の領域で検出した前記部位を前記第2のユーザの部位と特定する、
    請求項1乃至3のいずれか1項に記載の操作装置。
JP2020032601A 2020-02-28 2020-02-28 操作装置 Pending JP2021135842A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020032601A JP2021135842A (ja) 2020-02-28 2020-02-28 操作装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020032601A JP2021135842A (ja) 2020-02-28 2020-02-28 操作装置

Publications (1)

Publication Number Publication Date
JP2021135842A true JP2021135842A (ja) 2021-09-13

Family

ID=77661418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020032601A Pending JP2021135842A (ja) 2020-02-28 2020-02-28 操作装置

Country Status (1)

Country Link
JP (1) JP2021135842A (ja)

Similar Documents

Publication Publication Date Title
US9977593B2 (en) Gesture recognition for on-board display
US9290153B2 (en) Vehicle-based multimode discovery
US20140309806A1 (en) Intelligent vehicle for assisting vehicle occupants
EP3051784A1 (en) Operating a vehicle and a wearable device
US20160167578A1 (en) Warning method and system therefor
KR20150072074A (ko) 차량 제스처 인식 시스템 및 그 제어 방법
JPWO2018230527A1 (ja) 運転支援方法、運転支援プログラム及び車両制御装置
US10477155B2 (en) Driving assistance method, driving assistance device, and recording medium recording program using same
JP2014149640A (ja) ジェスチャ操作装置及びジェスチャ操作プログラム
JP2017111711A (ja) 車両用操作装置
JP2010036762A (ja) 行動推定装置、プログラム
JP7375611B2 (ja) 操作装置
JP2021135843A (ja) 操作装置
JP6057755B2 (ja) ジェスチャ操作装置及びジェスチャ操作プログラム
JP6821124B2 (ja) 運転支援装置、運転支援方法およびプログラム
JP2021135842A (ja) 操作装置
CN112383826A (zh) 车载娱乐终端的控制方法、装置、存储介质、终端及汽车
US10870436B2 (en) Operation assistance system and operation assistance method
JP7163649B2 (ja) ジェスチャ検出装置、ジェスチャ検出方法、およびジェスチャ検出制御プログラム
WO2017017938A1 (ja) ジェスチャ操作システム、方法およびプログラム
KR20240067906A (ko) 차량 탑승자 보조를 위한 차량 및 모바일 디바이스 인터페이스
KR20240074777A (ko) 차량 탑승자 보조를 위한 차량 및 모바일 디바이스 인터페이스
JP2020055430A (ja) 光通知制御装置、プログラム、および光通知システム