JP3933139B2 - Command input device - Google Patents
Command input device Download PDFInfo
- Publication number
- JP3933139B2 JP3933139B2 JP2004065708A JP2004065708A JP3933139B2 JP 3933139 B2 JP3933139 B2 JP 3933139B2 JP 2004065708 A JP2004065708 A JP 2004065708A JP 2004065708 A JP2004065708 A JP 2004065708A JP 3933139 B2 JP3933139 B2 JP 3933139B2
- Authority
- JP
- Japan
- Prior art keywords
- occupant
- detection
- hand
- operation switch
- command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、車載機器に対するコマンドであって、乗員の手など体の一部の動きにより表現されるコマンドの入力を受け付けるコマンド入力装置に関し、特に、虚像の操作スイッチを表示し、この操作スイッチに向けてエアーが吹き出される仮想スイッチを用いたコマンド入力装置に関する。 The present invention relates to a command input device that receives a command input to a vehicle-mounted device and is expressed by a movement of a part of a body such as an occupant's hand, and in particular, displays a virtual image operation switch. The present invention relates to a command input device using a virtual switch in which air is blown out.
ホログラムを用いて操作スイッチパネルの3次元立体虚像の仮想スイッチを生成し、スイッチ選択を受け付ける選択装置がある(特許文献1参照)。この選択装置によれば、センターコンソールの張り出しを抑え、車内の居住空間の拡張を図ることができる。 There is a selection device that generates a virtual switch of a three-dimensional stereoscopic virtual image of an operation switch panel using a hologram and receives switch selection (see Patent Document 1). According to this selection device, the overhang of the center console can be suppressed and the living space in the vehicle can be expanded.
しかしながら、虚像の操作スイッチに対して入力操作を行うため、ユーザは操作スイッチへの物理的接触が得られず、入力操作を行っている実感が得られないという問題があった。このため、どの部分を操作すればよいかを知覚するのが難しく、コマンド入力時の操作性が劣るという不都合があった。
本発明は、操作性の高いコマンド入力装置を提供することを目的とする。
この発明によれば、車両に搭載され、乗員により表現されるコマンドの入力を受け付けるコマンド入力装置であって、車内の所定の検出領域を撮像する撮像手段と、前記撮像手段により撮像された画像から、前記検出領域にある検出対象の位置、形状または動きのいずれか一つ以上を検出する検出手段と、車内の空間に虚像の操作スイッチを表示するとともに、表示された操作スイッチの虚像に向けてエアーが吹き出される仮想スイッチを生成する仮想スイッチ生成手段と、前記仮想スイッチ生成手段により表示された操作スイッチの像と、前記検出手段により検出された前記検出対象の像とから、前記コマンドを認識するコマンド認識手段と、前記コマンド認識手段により認識されたコマンドを実行させる実行手段とを有するコマンド入力装置が提供される。
これにより、虚像の操作スイッチに対する視覚的認識とエアーによる物理的認識とにより、ユーザはどの部分を操作すればよいのかを認識できるため、操作性の高いコマンド入力装置を提供することができる。
An object of this invention is to provide the command input device with high operativity.
According to the present invention, a command input device that is mounted on a vehicle and receives an input of a command expressed by an occupant, the imaging unit that images a predetermined detection area in the vehicle, and the image captured by the imaging unit , Detecting means for detecting any one or more of the position, shape or movement of the detection target in the detection area, and displaying a virtual image operation switch in a space in the vehicle, and toward the virtual image of the displayed operation switch The command is recognized from a virtual switch generating unit that generates a virtual switch from which air is blown, an operation switch image displayed by the virtual switch generating unit, and an image of the detection target detected by the detecting unit. Command input means comprising: command recognition means for executing; and execution means for executing a command recognized by the command recognition means Location is provided.
Thereby, since the user can recognize which part should be operated by visual recognition with respect to the operation switch of a virtual image and physical recognition by air, a command input device with high operability can be provided.
以下、本発明の実施形態を図面に基づいて説明する。
本実施形態のコマンド入力装置100は、車両の乗員、具体的には運転するドライバにより表現されるコマンドの入力を受け付ける。コマンド入力装置100は、これらの車載装置と車載LANにより情報授受が可能なように接続されている。すなわち、コマンド入力装置100が受け付けたコマンドは、車載LANを介して、命令実行のため各装置に向けて送出される。なお、コマンド入力手段100を操作するのはドライバに限定されるものではなく、コマンド入力装置100に手の届く乗員のハンドコマンドの入力を受け付けるようにすることもできる。本実施形態のコマンドは、乗員、例えばドライバが車載装置を制御するコンピュータに与える命令であり、車両に搭載されたナビゲーション装置200、オーディオ装置300、エアコン制御装置400、通信装置500に対する制御命令である。コマンドは、乗員の腕、乗員の肘、乗員の手若しくは乗員の指の形態、又は乗員の腕、乗員の肘、乗員の手若しくは乗員の指の動きによって表現される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The command input device 100 of this embodiment receives an input of a command expressed by an occupant of a vehicle, specifically, a driving driver. The command input device 100 is connected to these in-vehicle devices so as to be able to exchange information via the in-vehicle LAN. That is, the command received by the command input device 100 is sent to each device for command execution via the in-vehicle LAN. The operation of the command input means 100 is not limited to the driver, and it is also possible to accept an input of an occupant's hand command that can reach the command input device 100. The command of the present embodiment is a command given by a passenger, for example, a driver to a computer that controls the in-vehicle device, and is a control command for the navigation device 200, the audio device 300, the air conditioner control device 400, and the communication device 500 mounted on the vehicle. . The command is expressed by the form of the occupant's arm, occupant's elbow, occupant's hand or occupant's finger, or the movement of the occupant's arm, occupant's elbow, occupant's hand, or occupant's finger.
本実施形態のコマンド入力装置100のブロック構成を図1に示した。図1に示すように、コマンド入力装置100は、撮像手段1と、検出手段2と、コマンド認識手段3と、仮想スイッチ生成手段4と、実行手段5を備えている。
A block configuration of the command input device 100 of the present embodiment is shown in FIG. As illustrated in FIG. 1, the command input device 100 includes an imaging unit 1, a
「撮像手段1」は、所定の検出領域を撮像する。本実施形態では、撮像手段1として赤外線カメラ11を用いた。赤外線カメラ11は、検出対象が発する赤外線を撮像し、輝度値の分布として赤外線画像を出力する。赤外線カメラ11の設置位置を図2に示した。図2に示すように、本実施形態の赤外線カメラ11は車両のセンターコンソールに設けられる。この赤外線カメラ11は、図2に示す、車両のステアリングを含む「所定の検出領域11A」を撮像する。つまり、赤外線カメラ11は、ステアリングを握る乗員の手をその撮像領域に含むように設置されている。赤外線カメラ11は、撮像において運転する乗員の妨げとなる照明手段を必要としないため、車載のコマンド入力装置に適している。もちろん、撮像手段1は赤外線カメラ11に限定されず、検出対象の像を取得できるCCDカメラ12を用いてもよい。
The “imaging means 1” images a predetermined detection area. In the present embodiment, an
「検出手段2」は、撮像手段1により撮像された画像から、検出領域にある検出対象の位置、形状または動きのいずれか1以上を検出する。検出手段2は、検出対象の位置を検出する位置検出部21と、検出対象の形状を検出する形状検出部22と、検出対象の動きを検出する動き検出部23とを有している。
The “detecting means 2” detects any one or more of the position, shape or movement of the detection target in the detection area from the image picked up by the image pickup means 1. The
位置検出部21は、撮像手段1により撮像された二次元画像により検出領域面に沿った検出対象の2次元位置(xy座標上の位置)を求める。また、撮像手段1が赤外線カメラ11である場合、赤外線画像における検出対象の輝度値に基づいて、検出領域面に対して垂直方向の検出対象の3次元位置(z軸方向の位置)を求める。
The position detection unit 21 obtains a two-dimensional position (a position on the xy coordinates) of the detection target along the detection area surface from the two-dimensional image captured by the imaging unit 1. When the imaging unit 1 is the
撮像手段1(赤外線カメラ11)がステアリングを握る乗員の手を撮像する場合における、検索手段2の位置検出部21の機能を図3に基づいて説明する。図3に示すように、検出領域11Aはステアリングの車両中央側の一部を含む。11Bは検出領域11Aの空間座標である。赤外線カメラ11は、コマンドの入力処理を行う前にステアリング40を握る乗員50の手53を撮像する。ステアリング40の位置は固定されているので、本実施形態では、ステアリング40を握る乗員50の手53の位置を基準位置とし、この時の手53が発する赤外線の輝度値を基準輝度値とする。検出領域11Aの中で乗員が手53を動かした場合の手の位置を検出する手法を説明する。まず、撮像した赤外線画像から検出対象となる手53(ステアリングから動かされた手)のx-y座標位置を取得する。そして、検出対象となる手53(ステアリングから動かされた手)の輝度値と基準輝度値(乗員50がステアリング40を握っているときの手53の輝度値)とを比較することにより、基準位置に対する手53の距離を求めることができ、z座標位置(検出領域面に対して垂直な方向)を得ることができる。基準位置と基準輝度に基づいて検出対象の位置を判断できるため、正確な位置を検出することができる。
The function of the position detection unit 21 of the search means 2 when the image pickup means 1 (infrared camera 11) picks up the hand of the passenger gripping the steering will be described with reference to FIG. As shown in FIG. 3, the
また、位置検出部21は、検出した腕、肘又は手の位置に基づいて、乗員の腕と乗員の手との位置関係を求め、それから乗員の手の向きを得ることが出来る。 Further, the position detection unit 21 can obtain the positional relationship between the occupant's arm and the occupant's hand based on the detected position of the arm, elbow or hand, and can obtain the direction of the occupant's hand therefrom.
形状検出部22は、所定の又は所定範囲の輝度値を有する画素の形状から検出対象の形状を検出する。ここで検出対象の形状は、乗員の腕、肘、手又は指の形状を含み、ジャンケンの「パー」「グー」「チョキ」などの手の形状や、5本指のうちのいずれか1以上の指を伸ばした形状、人差し指と親指で丸を作るといった手によって表現されるさまざまな形状を含む。検出対象の形状は、一般的なパターンマッチングにより判定してもよい。動き検出部23は、形状検出部22により検出された検出対象の形状の経時的変化に基づいて検出対象の動きを検出する。 The shape detection unit 22 detects the shape of the detection target from the shape of a pixel having a predetermined or predetermined range of luminance values. Here, the shape of the detection target includes the shape of an occupant's arm, elbow, hand, or finger, and the shape of a hand such as “Par”, “Goo”, or “Cho” of Janken, or any one or more of five fingers. This includes various shapes that are expressed by the hand, such as a shape with the fingers extended and a circle with the index finger and thumb. The shape of the detection target may be determined by general pattern matching. The motion detection unit 23 detects the motion of the detection target based on the temporal change in the shape of the detection target detected by the shape detection unit 22.
「仮想スイッチ生成手段4」は、操作スイッチ表示部41とエアー吹き出し部42とを有し、車内の空間に虚像の操作スイッチを表示するとともに、表示された操作スイッチの虚像に向けてエアーが吹き出される仮想スイッチを生成する。仮想スイッチは、各車載装置200〜500のインタフェースとして機能する。
The “virtual switch generation means 4” has an operation
操作スイッチ表示部41は、車内の空間に虚像の操作スイッチを表示する。本実施形態の操作スイッチ表示部41は、ホログラムを用いて車内空間に三次元虚像の操作スイッチを生成する。操作スイッチ表示部41は、図2に示すように、車両のセンターコンソールに設けられ、乗員に向かって操作スイッチの虚像4Aを生成する。この操作スイッチの虚像の一例を図4に示した。図4に示す操作スイッチの虚像4Aは、エアコン制御装置400の温度を調節する「TEMP」を上下させる操作スイッチと、オーディオ装置300のボリュームを調節する「Volume」を上下させる操作スイッチと、オーディオ装置300の選局又は再生コンテンツの選択を行う「Select」を遷移させる操作スイッチとを備えている。
The operation
操作スイッチ表示部41は、位置決定部411と表示制御部412とを有している。位置決定部411は、検出手段2により検出された検出対象の位置に応じて、操作スイッチの虚像の表示位置を決定する。具体的には、乗員の腕と乗員の手との位置関係を検出し、乗員の手の向きに応じて操作スイッチの向きを、乗員の手の位置に応じて操作スイッチの空間位置を決定する。
The operation
図5に操作スイッチの表示例を示した。図5は、車両の運転席に座る運転者50を頭上から見た図である。位置決定部411は、検出された運転者50の腕51と肘52と手53(検出対象)との位置関係を求め、操作スイッチの虚像面が、運転者50の肘52から手53への方向Xに対して所定の角度となるように、操作スイッチの虚像を表示する。本実施形態では、運転者50の手の向き(肘52から手53への方向X)に対して略垂直となるように、操作スイッチの虚像を表示する。表示制御部412は、位置決定部411が決定した位置に操作スイッチを表示する。決定した位置は、図3のような座標系において特定される。
FIG. 5 shows a display example of the operation switch. FIG. 5 is a top view of the
表示制御部412は、検出手段2により検出された検出対象の形状又は動きに応じて操作スイッチの表示を開始又は終了する。本実施形態の表示制御部412は、所定の形状の検出対象(乗員の腕、肘、手、指など)や所定の動きを示す検出対象(乗員の腕、肘、手、指など)と操作スイッチの表示開始又は表示終了とを対応づけ、所定の形状又は動きの検出対象を手の形状等が検出された場合、操作スイッチの表示を開始又は終了する。具体的に、ジャンケンの「パー」が検出されると表示制御部412は操作スイッチの表示を開始させ、ジャンケンの「グー」が検出されると表示制御部412の操作スイッチの表示を終了させる。もちろん、操作スイッチの表示開始又は表示終了の命令は、手の形状の代わりに、手の動きによって行うことも可能である。例えば人差し指でボタンを押すようなしぐさをすれば、操作スイッチの表示を開始し、表示された操作スイッチ4Aを払いのけるような動作をすれば操作スイッチ4Aの表示を終了するようにしてもよい。この場合、しぐさの画像パターン、動作の画像パターンを予め取得し、この基準となるパターンとの比較によりしぐさや動作を判断する。
The display control unit 412 starts or ends the display of the operation switch according to the shape or movement of the detection target detected by the
なお、本実施形態では、運転者50だけでなく、助手席搭乗者による操作も可能である。この場合は操作スイッチの表示位置(向き、位置)を助手席搭乗者の手の位置に応じて決定する。助手席搭乗者の手の位置を検出するために、例えばアームレスト上に仮想スイッチ生成手段4の起動用ボタンを設けておき、起動用ボタンを押す助手席搭乗者の手の輝度値を基準として助手席搭乗者の手の位置を検出することが好ましい。このボタンを押すことで操作スイッチの虚像4Aを表示させ、助手席方向からのコマンド入力を可能とすることができる。
In this embodiment, not only the
「エアー吹き出し部42」は、操作スイッチ表示部41により表示された操作スイッチの虚像に向けて、エアーを吹き出す。エアー吹き出し口421は、図2に示すようにセンターコンソールに設けられている。エアー吹き出し部42は、エアーを吹き出す吹き出し口421と、エアー制御部422とを有している。操作スイッチの虚像は車内空間に表示され、乗員はその操作スイッチを操作しても物理的な知覚を得ることができない。このため、乗員は操作スイッチを操作しても実感がなく操作性が低かった。本実施形態では、表示された虚像の操作スイッチに向けてエアーを吹き出すエアー吹き出し部42を設けた。このエアー吹き出し部42から吹き出されるエアーはドライバの手の触覚により知覚される。ドライバは操作スイッチに向けて吹きだされるエアーの物理的な知覚に基づいて、操作スイッチへの入力を確認することができる。エアー吹き出し部42から供給されるエアーは指向性を有し、乗員の手に所定の圧力を与えるため、乗員は手に物理的な触覚を得ることができる。特に限定されないが、本実施形態のエアー吹き出し部42は、エアーが検出対象(ドライバの手)に衝突する際の圧力が0.1MPa以下となるようにエアーを供給する。ドライバは、エアー吹き出し手段から供給されるエアーを手がかりに操作スイッチを操作することができる。
The “
本実施形態のエアー吹き出し部42は、車両室内の空調に用いられるエアーを取り込んで、操作スイッチに向けてエアーを吹き出す。また、エアー吹き出し部42は、エアーを吹き出す吹き出し口421を有する。吹き出し口421は、空調に用いられるエアーを取り込むエアー流路の端部に設けられる。エアー流路は吹き出し口421に近づくに従い狭められており、吹き出し口421から絞られたエアーが吹き出される。吹き出し口421の形態は特に限定されず、操作スイッチの位置に応じて適宜設計する。好ましくは、各操作スイッチを示す領域よりも狭い領域にエアーが流れるように吹き出し口421を絞ることが好ましい。
The
図6に、仮想スイッチ生成手段4により生成されたスイッチ1〜スイッチ3が示された操作スイッチの虚像4Aと、エアー吹き出し部42とを示した。本例では、3つのエアー吹き出し部42を設けた。このエアー吹き出し部42の3つの吹き出し口421A〜421Cから、それぞれエアーが吹き出される。エアー吹き出し口421Aはスイッチ1に向けてエアー42A1を吹き出し、エアー吹き出し口421Bはスイッチ2に向けてエアー42A2を吹き出し、エアー吹き出し口421Cはスイッチ3に向けてエアー42A3を吹き出す。乗員は、3つの指向性のあるエアーの流れを知覚することにより、スイッチ1〜スイッチ3を正確に識別することができる。
FIG. 6 shows a
エアー制御部422は、エアーを吹き出すタイミングと、エアーの方向を制御する。エアー制御部422は、位置決定部411が決定した操作スイッチの表示位置の情報を取得し、表示される操作スイッチに向けてエアーが吹き出されるように吹き出し口421の吹き出し方向を調節する。また、エアー制御部422は、表示制御部412による操作スイッチの表示のオン/オフに応じてエアーの吹き出しのオン/オフを制御する。つまり、操作スイッチの表示が開始されたらエアーの吹き出しを開始し、操作スイッチの表示が終了したらエアーの吹き出しを停止する。これにより必要な場合にだけエアーの吹き出しを行えるため、エネルギーを節約することができる。
The air control unit 422 controls the timing of blowing air and the direction of air. The air control unit 422 acquires information on the display position of the operation switch determined by the position determination unit 411, and adjusts the blowing direction of the blowing
「コマンド認識手段3」は、仮想スイッチ生成手段4により表示された操作スイッチの像と、検出手段2により検出された検出対象(乗員の腕、肘、手又は指)の像とからコマンドを認識する。コマンド認識手段3は、操作スイッチの像と検出対象の像とを比較する像比較部31を有する。像比較部31は、操作スイッチの像と検出対象の像とを比較し、検出手段2によって検出された検出対象(乗員の手、指等)の位置が、操作スイッチ表示部41により表示された操作スイッチの像の位置と一致したか否かを判断する。本実施形態では、乗員の手(検出対象)が操作スイッチの位置に一致したか否かにより、乗員が操作スイッチを操作したか否かを判断する。つまり、乗員の手(像)の位置が操作スイッチMの位置と略一致した場合、乗員は操作スイッチMを操作したと判断し、操作スイッチMに対応するコマンドが入力されたと判断する。本実施形態では、操作スイッチは乗員の手の位置によって操作するものであったが、乗員の指の先の位置で乗員からのコマンドを認識してもよい。
The “
なお、コマンド認識手段3は、乗員のコマンドを認識した場合、認識完了の信号を仮想スイッチ生成手段4に送出することが好ましい。認識完了の信号を受け付けた操作スイッチ表示部41は、操作スイッチの色を変化させ、または認識完了に信号を受け付けたエアー吹き出し部42は、エアー風量の変化若しくはエアーの一時停止を行い、コマンドを認識したことを乗員に報知する。
When the
「実行手段5」はコマンド認識手段3により認識されたコマンドを、対応する外部装置(200〜500)に送出し、そのコマンドを実行させる。
The “execution unit 5” sends the command recognized by the
以上のように構成された本実施形態のコマンド入力装置100の制御手順を図7に基づいて説明する。図7は、コマンド入力装置100のコマンド入力時のフローチャートである。ステップS1において、赤外線カメラ11は検出領域11Aの撮像を開始する。検出領域11Aにはステアリングが含まれ、ステアリングを握る乗員の肩から指先までの、腕、肘、手、指等が撮像される(図2、図3を参照)。
A control procedure of the command input device 100 of the present embodiment configured as described above will be described with reference to FIG. FIG. 7 is a flowchart at the time of command input of the command input device 100. In step S1, the
ステップS2では、検出手段2が検出対象を検出する。本例では検出対象として、乗員の腕、肘、手若しくは指の位置、輝度、形状若しくは動き、又は腕若しくは手の向き、その他の乗員の腕又は手の状態を検出する。検出対象の検出処理は、一般に用いられる手法を利用する。 In step S2, the detection means 2 detects a detection target. In this example, the position, brightness, shape or movement of the occupant's arm, elbow, hand or finger, or the direction of the arm or hand, or the state of the other occupant's arm or hand are detected as detection targets. The detection process of the detection target uses a generally used method.
ステップS3において、検出手段2が乗員の手がステアリングを握っているか否かを判断する。乗員がステアリングを握っていることを検出した場合には、ステップS4に進み、検出しなければ再びステップS2に戻る。 In step S3, the detection means 2 determines whether or not the passenger's hand is holding the steering wheel. If it is detected that the occupant is holding the steering wheel, the process proceeds to step S4. If not detected, the process returns to step S2.
ステップS4において、検出手段2は、乗員の手がステアリングを握っている状態における手の基準位置・手の基準輝度値を記憶する。これらステップS2〜S4を行うことにより、基準位置と基準輝度を随時更新することができ、緩やかではあるが手の温度が刻々と変化することにより基準輝度がずれる影響を避けることができる。 In step S4, the detection means 2 stores the reference position of the hand and the reference brightness value of the hand when the passenger's hand is holding the steering wheel. By performing these steps S2 to S4, the reference position and the reference brightness can be updated as needed, and the influence of the reference brightness shifting due to the gradual change of the hand temperature can be avoided.
ステップS5において、検出手段2は検出対象が開始コマンドに対応づけられた所定の形状であるか否かを判断する。本例では、検出した検出対象である手の形状がジャンケンの「パー」であるか否かを判断し、手の形状が「パー」であることを検出すると、ステップS6に進む。他方、開始コマンドが乗員から表現されない場合は、ステップS2に戻る。 In step S5, the detection means 2 determines whether or not the detection target has a predetermined shape associated with the start command. In this example, it is determined whether or not the detected shape of the hand as the detection target is “par” of janken, and if it is detected that the shape of the hand is “par”, the process proceeds to step S6. On the other hand, if the start command is not expressed by the passenger, the process returns to step S2.
ステップS6において、検出手段2は取得した赤外線画像から検出領域面に沿った検出対象の二次元位置を求める。また検出手段2は取得した赤外線画像の輝度値とステップS4にて取得した基準輝度値とを比較することよって、検出領域面に垂直方向の三次元位置を検出する。そして、検出手段2は、検出された乗員の腕と乗員の手との位置関係(二次元位置、三次元位置)から手の向きを検出する。 In step S6, the detection means 2 obtains the two-dimensional position of the detection target along the detection area plane from the acquired infrared image. The detection means 2 detects the three-dimensional position in the direction perpendicular to the detection area surface by comparing the luminance value of the acquired infrared image with the reference luminance value acquired in step S4. Then, the detection means 2 detects the direction of the hand from the detected positional relationship (two-dimensional position, three-dimensional position) between the occupant's arm and the occupant's hand.
ステップS7において、仮想スイッチ生成手段4は、検出手段により検出された検出対象の位置に応じて操作スイッチの虚像の表示位置を決定する。具体的に、操作スイッチ表示部41の位置決定部411は、検出された乗員の腕と乗員の手との位置関係に基づいて、操作スイッチの虚像の表示位置を決定する。表示位置には操作スイッチ面の向きも含まれる。また、エアー制御部422は、決定された表示位置に表示された操作スイッチに向けて吹き出し口421からエアーを吹き出させる。
In step S7, the virtual
ステップS8において、表示制御部412は、位置決定部411により決定された位置に操作スイッチを表示する。 In step S <b> 8, the display control unit 412 displays an operation switch at the position determined by the position determination unit 411.
ステップS9において、エアー制御部422は、エアーの吹き出し方向を決定する。エアーの吹き出し方向は、ステップS7において決定された位置に表示された操作スイッチに向けた方向である。 In step S9, the air control unit 422 determines the air blowing direction. The air blowing direction is a direction toward the operation switch displayed at the position determined in step S7.
ステップS10において、エアー制御部422は、ステップS9にて決定された方向に向けてエアーの吹き出しを開始させる。 In step S10, the air control unit 422 starts air blowing in the direction determined in step S9.
このようにして、虚像の操作スイッチと操作スイッチの向けてエアーが吹き出された仮想スイッチが乗員に向けて提示される(S11)。 Thus, the virtual image operation switch and the virtual switch from which air is blown toward the operation switch are presented to the occupant (S11).
続くステップS12において、コマンド認識手段3は、検出手段2により検出された乗員の指(像)の位置が、いずれかの操作スイッチ(像)の位置と略一致したか否かを判断し、コマンドの認識処理を行い、コマンドを認識したか否かを判断する。他方、コマンドの認識がされず(S12でNo)、ステップS18にて一定時間経過経過したことが検出されれば自動的にステップS16に進み、仮想スイッチの提示を終了し、ステップS1に戻る。 In the subsequent step S12, the command recognition means 3 determines whether the position of the occupant's finger (image) detected by the detection means 2 substantially coincides with the position of any of the operation switches (images). It is determined whether or not the command has been recognized. On the other hand, if the command is not recognized (No in S12) and it is detected in step S18 that a fixed time has elapsed, the process automatically proceeds to step S16, the presentation of the virtual switch is terminated, and the process returns to step S1.
ステップ13において、コマンド認識手段3は、コマンドを認識したことを乗員に報知する。さらに、ステップ14において、実行手段5は、認識されたコマンドを各種車載機器200〜500に入力する。 In step 13, the command recognition means 3 notifies the occupant that the command has been recognized. Further, in step 14, the execution means 5 inputs the recognized command to the various in-vehicle devices 200 to 500.
仮想スイッチ生成手段4は、「終了命令」に対応する手の「グー」の形状が検出されたら、仮想スイッチの提示(操作スイッチの表示とエアーの吹き出し)を終了し(ステップS16)、ステップS1へ戻る。
When the shape of the hand “goo” corresponding to the “end command” is detected, the virtual
本実施形態のコマンド入力装置100は、以上のように構成され機能するので、以下の効果を奏する。 Since the command input device 100 of the present embodiment is configured and functions as described above, the following effects can be obtained.
本実施形態では、撮像手段1により検出領域を撮像し、検出対象(たとえば乗員の腕、肘、手、又は指のいずれか1以上)を検出し、操作スイッチを表示するとともに、表示された操作スイッチの虚像に向けてエアーが吹きだされる仮想スイッチを生成する。このため、吹きだされるエアーが物理的な知覚を乗員に与え、乗員の手を操作スイッチに誘導することができる。つまり、乗員は虚像の操作スイッチにより操作スイッチの位置を視覚的に認識することができるとともに、エアーによって操作スイッチの位置を触覚的に認識することができる。これにより、乗員にとって操作性の高いコマンド入力装置を提供することができる。 In the present embodiment, a detection region is imaged by the imaging means 1, a detection target (for example, any one or more of an occupant's arm, elbow, hand, or finger) is detected, an operation switch is displayed, and the displayed operation A virtual switch is generated in which air is blown toward the virtual image of the switch. For this reason, the blown air gives a physical perception to the occupant, and the occupant's hand can be guided to the operation switch. That is, the occupant can visually recognize the position of the operation switch with the virtual image operation switch and can also tactilely recognize the position of the operation switch with air. Thereby, a command input device with high operability for the passenger can be provided.
本実施形態によれば、検出対象の位置に応じて操作スイッチの虚像の表示位置を決定するため、乗員が操作しやすい位置(向きを含む)に仮想スイッチを生成することができ、操作性の高いコマンド入力装置100を提供することができる。 According to this embodiment, since the display position of the virtual image of the operation switch is determined according to the position of the detection target, the virtual switch can be generated at a position (including the direction) that is easy for the occupant to operate. A high command input device 100 can be provided.
仮想スイッチの提示を、所定の形状の検出対象又は所定の動きをする検出対象を検出した場合に開始又は終了するため、コマンド入力時にだけ仮想スイッチを提示することができ、車内の空間を視覚的に拡張することできる。 Since the presentation of the virtual switch starts or ends when a detection object of a predetermined shape or a detection object that performs a predetermined movement is detected, the virtual switch can be presented only when a command is input, and the space inside the vehicle can be visually Can be extended to
撮像手段として、照明手段を必要としない赤外線カメラを用いることにより、乗員の視覚に影響を与えないようにすることができる。 By using an infrared camera that does not require illumination means as the imaging means, it is possible to prevent the occupant's vision from being affected.
本実施形態では、赤外線カメラにより取得した赤外線画像から検出領域面に沿った検出対象の2次元位置を求めるとともに、検出対象の輝度値から検出領域面に対して垂直方向の検出対象の三次元位置を求めることにより、検出対象(例えば乗員の腕、肘、手又は指)の空間位置を求めることができる。 In the present embodiment, the two-dimensional position of the detection target along the detection area plane is obtained from the infrared image acquired by the infrared camera, and the three-dimensional position of the detection target in the direction perpendicular to the detection area plane from the luminance value of the detection target. , The spatial position of the detection target (for example, an occupant's arm, elbow, hand, or finger) can be obtained.
本実施形態は、ステアリングを握る乗員の手の位置を基準位置として、またステアリングを握る乗員の手の輝度を基準輝度として取得するため、検出対象(例えば乗員の腕、肘、手又は指)の正確な位置を求めることができる。 In this embodiment, since the position of the hand of the occupant holding the steering wheel is acquired as the reference position and the luminance of the hand of the occupant holding the steering wheel is acquired as the reference luminance, the detection target (for example, the arm, elbow, hand or finger of the passenger) An accurate position can be obtained.
この基準位置と基準輝度に基づいて、検出対象となる乗員の手の輝度値から撮像領域面に対して垂直方向の位置(3次元位置)を取得することができ、乗員の手の正確な空間位置を取得することができる。 Based on the reference position and the reference luminance, the position (three-dimensional position) in the direction perpendicular to the imaging area plane can be acquired from the luminance value of the passenger's hand to be detected, and the accurate space of the passenger's hand can be obtained. The position can be acquired.
このように求められた、検出対象(例えば乗員の腕、肘、手又は指)の三次元位置に基づいて操作スイッチを表示するため、操作がしやすい位置に操作スイッチを表示することができる。また、検出対象(例えば乗員の腕、肘、手又は指)の三次元位置に基づいてコマンドを認識することができるため、コマンドを正確に認識することができる。 Since the operation switch is displayed based on the three-dimensional position of the detection target (for example, an occupant's arm, elbow, hand or finger) obtained in this way, the operation switch can be displayed at a position where the operation is easy. Further, since the command can be recognized based on the three-dimensional position of the detection target (for example, an occupant's arm, elbow, hand, or finger), the command can be accurately recognized.
撮像手段および/または仮想スイッチ生成手段4をセンターコンソールに設けたため、車内の居住空間を拡張することができる。 Since the imaging means and / or the virtual switch generation means 4 are provided in the center console, the living space in the vehicle can be expanded.
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。 The embodiment described above is described in order to facilitate understanding of the present invention, and is not described in order to limit the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.
100…コマンド入力装置
1…撮像手段
11…赤外線カメラ
2…検出手段
21…位置検出部
22…形状検出部
23…動き検出部
3…コマンド認識手段
31…像比較部
4…仮想スイッチ生成手段
41…操作スイッチ表示部
411…位置決定部
412…表示制御部
42…エアー吹き出し部
421…吹き出し口
422…エアー制御部
5…実行手段
200・・・ナビゲーション装置
300・・・オーディオ装置
400・・・エアコン制御装置
500・・・通信装置
DESCRIPTION OF SYMBOLS 100 ... Command input device 1 ... Imaging means 11 ...
Claims (9)
車内の所定の検出領域を撮像する赤外線カメラと、
前記赤外線カメラにより撮像された赤外線画像から、前記検出領域にある検出対象の位置、形状または動きのいずれか一つ以上を検出するとともに、前記赤外線画像に基づいて、前記検出対象の前記検出領域面に沿うx−y座標位置を求めるとともに、前記検出対象の輝度値に基づいて前記検出対象の前記検出領域面に対して垂直方向のz座標位置を検出する検出手段と、
前記検出手段により検出された前記検出対象のxyz座標位置に応じて決定された車内空間の表示位置に虚像の操作スイッチを表示するとともに、表示された虚像の操作スイッチに向かってエアーが吹き出される仮想スイッチを生成する仮想スイッチ生成手段と、
前記仮想スイッチ生成手段により表示された操作スイッチの像と、前記検出手段により検出された前記検出対象の像とから、前記コマンドを認識するコマンド認識手段と、
前記コマンド認識手段により認識されたコマンドを実行させる実行手段とを有するコマンド入力装置。 A command input device that is mounted on a vehicle and receives an input of a command expressed by an occupant,
An infrared camera for imaging a predetermined detection area in the vehicle;
From the infrared image captured by the infrared camera, one or more of the position, shape, or movement of the detection target in the detection region is detected, and the detection region surface of the detection target based on the infrared image Detecting means for detecting a z coordinate position in a direction perpendicular to the detection area surface of the detection target based on a luminance value of the detection target ;
A virtual image operation switch is displayed at a display position in the interior space determined according to the xyz coordinate position of the detection target detected by the detection means, and air is blown toward the displayed virtual image operation switch. Virtual switch generation means for generating a virtual switch;
Command recognition means for recognizing the command from the image of the operation switch displayed by the virtual switch generation means and the image of the detection target detected by the detection means;
A command input device having execution means for executing the command recognized by the command recognition means;
前記仮想スイッチ生成手段は、前記検出手段により検出された乗員の腕と乗員の手との位置関係に基づいて、前記操作スイッチの虚像の表示位置を決定する請求項1又は2に記載のコマンド入力装置。 The detection means detects a positional relationship between an occupant's arm, elbow, hand or finger included in the detection region;
3. The command input according to claim 1, wherein the virtual switch generation unit determines a display position of a virtual image of the operation switch based on a positional relationship between an occupant's arm and an occupant's hand detected by the detection unit. apparatus.
前記仮想スイッチ生成手段は、前記検出手段により検出された前記乗員の肘から手への方向に対して略垂直にその虚像面が表示されるように前記操作スイッチの虚像を形成する請求項3に記載のコマンド入力装置。The virtual switch generation unit forms a virtual image of the operation switch so that the virtual image plane is displayed substantially perpendicular to the direction from the elbow to the hand of the occupant detected by the detection unit. The command input device described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004065708A JP3933139B2 (en) | 2004-03-09 | 2004-03-09 | Command input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004065708A JP3933139B2 (en) | 2004-03-09 | 2004-03-09 | Command input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005254851A JP2005254851A (en) | 2005-09-22 |
JP3933139B2 true JP3933139B2 (en) | 2007-06-20 |
Family
ID=35081025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004065708A Expired - Fee Related JP3933139B2 (en) | 2004-03-09 | 2004-03-09 | Command input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3933139B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015043154A (en) * | 2013-08-26 | 2015-03-05 | キヤノン株式会社 | Information processing device, control method therefor, computer program, and storage medium |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4347112B2 (en) * | 2004-03-31 | 2009-10-21 | アルパイン株式会社 | Virtual interface controller |
JP4389855B2 (en) | 2005-09-05 | 2009-12-24 | トヨタ自動車株式会社 | Vehicle control device |
JP2007156950A (en) * | 2005-12-07 | 2007-06-21 | Toyota Motor Corp | Vehicle operating device |
CN101563666B (en) | 2006-12-22 | 2012-05-02 | 松下电器产业株式会社 | User interface device |
US8094189B2 (en) | 2007-01-30 | 2012-01-10 | Toyota Jidosha Kabushiki Kaisha | Operating device |
JP4356763B2 (en) * | 2007-01-30 | 2009-11-04 | トヨタ自動車株式会社 | Operating device |
JP5136948B2 (en) * | 2008-02-18 | 2013-02-06 | 株式会社デンソー | Vehicle control device |
JP5549571B2 (en) * | 2010-12-17 | 2014-07-16 | 株式会社デンソー | Vehicle status display device |
JP6202810B2 (en) * | 2012-12-04 | 2017-09-27 | アルパイン株式会社 | Gesture recognition apparatus and method, and program |
JP5984651B2 (en) * | 2012-12-06 | 2016-09-06 | アルパイン株式会社 | In-vehicle system |
JP6057755B2 (en) * | 2013-02-08 | 2017-01-11 | 株式会社東海理化電機製作所 | Gesture operation device and gesture operation program |
KR101542986B1 (en) | 2013-12-19 | 2015-08-07 | 현대자동차 주식회사 | System and control method for gestures recognition using holographic |
JP2017026230A (en) * | 2015-07-23 | 2017-02-02 | パナソニックIpマネジメント株式会社 | Air conditioning control device, air conditioner, air conditioning control method, air conditioning control system, air conditioning control program and recording medium |
CN107179826B (en) | 2016-03-11 | 2021-08-31 | 松下知识产权经营株式会社 | Gesture input system and gesture input method |
CN107199888A (en) | 2016-03-18 | 2017-09-26 | 松下知识产权经营株式会社 | Posture input system and posture input method |
JP7053014B2 (en) * | 2018-03-30 | 2022-04-12 | Necソリューションイノベータ株式会社 | Motion judgment device, motion judgment method, and program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0958375A (en) * | 1995-08-29 | 1997-03-04 | Mitsubishi Motors Corp | Automobile operating device |
JPH09190278A (en) * | 1996-01-09 | 1997-07-22 | Mitsubishi Motors Corp | Selecting device for operation system of equipment |
JP2000075991A (en) * | 1998-08-28 | 2000-03-14 | Aqueous Research:Kk | Information input device |
JP2000099239A (en) * | 1998-09-22 | 2000-04-07 | Matsushita Electric Ind Co Ltd | Input/output device provided with bodily sensible function |
JP2001216069A (en) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | Operation inputting device and direction detecting method |
JP2003067107A (en) * | 2001-08-28 | 2003-03-07 | Foundation For Advancement Of Science & Technology | Tactile sense presenting device |
JP2004067031A (en) * | 2002-08-08 | 2004-03-04 | Nissan Motor Co Ltd | Operator determining device and on-vehicle device using the same |
JP4606750B2 (en) * | 2004-02-17 | 2011-01-05 | アルパイン株式会社 | Spatial operation system generation system |
-
2004
- 2004-03-09 JP JP2004065708A patent/JP3933139B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015043154A (en) * | 2013-08-26 | 2015-03-05 | キヤノン株式会社 | Information processing device, control method therefor, computer program, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2005254851A (en) | 2005-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3933139B2 (en) | Command input device | |
EP2295277B1 (en) | Vehicle operator control input assistance | |
KR101071777B1 (en) | Handling device for vehicle | |
JP4351599B2 (en) | Input device | |
US8538090B2 (en) | Device for manipulating vehicle built-in devices | |
WO2015125243A1 (en) | Display control device, display control method for display control device, gaze direction detecting system, and callibration control method for gaze direction detecting system | |
KR20150072074A (en) | System and control method for gesture recognition of vehicle | |
JP2000006687A (en) | Onboard equipment switch safety operation system | |
CN109917970A (en) | Use single controller and the system and method for supporting the user interface of tactile to control multiple displays | |
KR101438615B1 (en) | System and method for providing a user interface using 2 dimension camera in a vehicle | |
JP2010184600A (en) | Onboard gesture switch device | |
KR101459445B1 (en) | System and method for providing a user interface using wrist angle in a vehicle | |
CN109177899B (en) | Interaction method of vehicle-mounted display device and vehicle-mounted display device | |
JP5968573B2 (en) | Gesture guidance device for moving body, gesture guidance system for moving body, and gesture guidance method for moving body | |
CN110968184B (en) | Equipment control device | |
JP2017211884A (en) | Motion detection system | |
US10296101B2 (en) | Information processing system, information processing apparatus, control method, and program | |
WO2018061603A1 (en) | Gestural manipulation system, gestural manipulation method, and program | |
JP2017097608A (en) | Image recognition device | |
JP5136948B2 (en) | Vehicle control device | |
JP2016029532A (en) | User interface | |
JP2006327526A (en) | Operating device of car-mounted appliance | |
KR101500412B1 (en) | Gesture recognize apparatus for vehicle | |
JP2007257526A (en) | Input device | |
JP4311378B2 (en) | Input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061110 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20061110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070312 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100330 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110330 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110330 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |